Kim Kardashian disse que usou o ChatGPT como aliado nos estudos de Direito, mas a ferramenta acabou atrapalhando mais do que ajudando.
A empresária contou que o chatbot entregava respostas incorretas com tanta frequência que ela chegou a culpar a inteligência artificial (IA) por ter ido mal em provas.
Kim compartilhou a história durante uma entrevista descontraída no quadro de detector de mentiras da Vanity Fair.
Ao ser questionada sobre o uso da IA, ela admitiu que recorria ao ChatGPT sempre que precisava de explicações sobre questões jurídicas e até enviava fotos das perguntas para obter respostas rápidas.
A modelo disse que chegou a brigar com a IA por ter seguido orientações erradas. Apesar das broncas, Kim contou que o chatbot ainda respondia com frases motivacionais e reflexivas, como se fosse uma mistura de conselheira e terapeuta.
O clima virou praticamente um relacionamento de amor e ódio. Para Kim, o ChatGPT é uma espécie de amiga tóxica. Errava nas respostas, mas no final tentava consolar dizendo que ela deveria confiar mais no próprio raciocínio.
Kim segue firme na jornada para atuar na área jurídica. Ela afirmou que está perto de conquistar o título para exercer a profissão e cogita assumir de vez a carreira de advogada nos próximos anos.
Por que o Chat falhou aqui?
Modelos de linguagem como o ChatGPT operam com base em conjuntos de textos previamente vistos e utilizam padrões estatísticos para gerar respostas.
Se a Kim submetia questões jurídicas complexas ou específicas por meio de foto, há forte possibilidade de que o contexto completo (jurisprudência, estado específico da lei, detalhes do enunciado) não tenha sido totalmente captado ou fornecido ao modelo. Em Direito isso faz grande diferença.
Além disso, dependendo da versão do modelo que Kim usou, ele pode não estar atualizado com as mais recentes mudanças legais, decisões judiciais ou normas específicas de um estado ou país.
Modelos têm “knowledge cutoff” (data limite de conhecimento) que impõe lacunas. Em exames de Direito, onde decisões atuais ou nuances locais contam, isso pode comprometer a precisão.
A matéria de Direito exige interpretação, aplicação de casos, análise crítica e muitas vezes respostas que dependem de contexto, ética ou precedente. Modelos de IA, ainda que bons em gerar texto, têm limitações sérias em raciocínio jurídico profundo.
Estudos mostram que em contextos educacionais técnicos, IA acerta apenas em metade dos casos. Ou seja, mesmo com boa intenção, o ChatGPT pode não estar “na altura” de conteúdo jurídico denso, ao menos sozinho.
Kim Kardashian também falhou no uso
Kim contou que tirava fotos das perguntas e enviava para o ChatGPT buscar a resposta rapidamente. A intenção era economizar tempo. Mas esse é justamente o tipo de uso que transforma uma boa ferramenta em um risco.
Estudar exige investigar, ler a fundo, conferir diferentes fontes, e principalmente refletir sobre o conteúdo. Jogar uma pergunta pronta para a IA sem nem entender o que está sendo pedido é o mesmo que copiar do colega sem aprender nada.
Kim não mostrou como eram essas conversas. A gente não sabe se ela contextualizava, se fazia perguntas detalhadas, se pedia fontes confiáveis ou se conferia as respostas depois. Tudo isso importa.
Por exemplo, pedir para o ChatGPT responder com fontes ajuda muito na precisão. Com isso, você pode verificar a origem da resposta e julgar se aquela informação é válida ou se precisa ser complementada. A IA não é bola de cristal. Ela funciona melhor quando o usuário sabe o que está buscando e como perguntar.
Mesmo antes do ChatGPT, ninguém era aprovado lendo qualquer blog aleatório no Google. Textos mal escritos, recheados de juridiquês genérico, sempre existiram. O desafio é saber separar o que presta do que é enganação.
A mesma lógica vale para a IA. Dá para aprender muito com ela, mas confiar cegamente é ingenuidade.
Um dos efeitos colaterais de usar inteligência artificial sem critério é o enfraquecimento do raciocínio próprio. Ao invés de desenvolver sua leitura crítica, o aluno se acostuma a receber respostas prontas e perde a capacidade de construir argumentos, que é essencial na área jurídica.
A própria resposta irônica do ChatGPT para a Kim, “isso é só para você confiar nos seus próprios instintos”, já mostra como ela estava terceirizando o pensamento.
O erro da Kim foi mais humano do que tecnológico. Muita gente cai no mesmo engano de usar o ChatGPT como se fosse um oráculo, e não como uma ferramenta. Quem sabe estudar tira muito proveito da IA. Quem só quer um atalho, provavelmente vai tropeçar.
📚 Leia também:
Gemini agora cria slides: testei o novo recurso da IA do Google
ChatGPT Go chega ao Brasil com acesso grátis via Nubank
Elon Musk lança Grokipedia para rivalizar com o Wikipedia
Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.



