Homem adoece após seguir dica do ChatGPT sobre cortar sal

Homem adoece após seguir dica do ChatGPT sobre cortar sal
Imagens destaque: Pexels/ Quang Nguyen Vinh

Um homem de 60 anos nos Estados Unidos desenvolveu uma condição rara após seguir informações obtidas no ChatGPT sobre como cortar sal da dieta. 

O episódio foi descrito em artigo publicado no Annals of Internal Medicine.

Segundo o relatório, o paciente decidiu remover cloreto da alimentação depois de ler sobre seus supostos efeitos negativos. 

Ao perguntar ao ChatGPT por alternativas, passou a ingerir brometo de sódio durante três meses. 

O brometo de sódio é um composto químico que, no passado, foi usado como sedativo e anticonvulsivante, mas caiu em desuso justamente por seus efeitos tóxicos. Quando ingerido em excesso ou por tempo prolongado, ele pode causar bromismo, que é uma intoxicação caracterizada por:

  • Problemas neurológicos, como confusão mental, sonolência ou até psicose
  • Alterações de comportamento e humor
  • Sintomas físicos como acne, sede intensa e insônia

📉 Da consulta digital à internação

O homem chegou ao hospital com paranoia, acreditando que estava sendo envenenado pelo vizinho, e recusou a água oferecida. 

Tentou fugir antes de 24 horas de internação, mas foi contido e tratado para psicose. 

Também apresentava acne facial, sede excessiva e insônia, todos sinais compatíveis com o bromismo.

Os autores do estudo, da Universidade de Washington, apontaram que não conseguiram acessar o histórico da conversa do paciente com o ChatGPT, mas ao fazerem a mesma pergunta obtiveram resposta que citava o brometo sem alertar sobre riscos graves. 

O próprio ChatGPT, agora com tecnologia GPT-5, tem diretrizes que afirmam não substituir atendimento médico. A empresa diz que a nova versão é mais proativa para sinalizar preocupações de saúde, mas mantém o aponta para não usá-lo no diagnóstico ou tratamento de doenças. 

⚠️ Por que a IA sugeriu algo tão perigoso

Sem o histórico da conversa, é impossível saber ao certo o que foi dito entre o paciente e o ChatGPT. Ainda assim, dá para levantar algumas hipóteses. 

É possível que o chatbot tenha dado a resposta ao interpretar a pergunta de forma puramente técnica, citando o brometo como substituto químico do cloreto, sem avaliar que a pessoa pretendia ingerir a substância. 

Também pode ter passado pelo filtro de segurança por não ser um composto tão conhecido hoje como perigoso. E, como não perguntou o motivo da troca, não identificou que se tratava de uma questão alimentar, algo que um profissional de saúde teria investigado antes de responder.

Esse tipo de resposta, conhecido como “alucinação” na área de IA, acontece quando o sistema apresenta algo que parece coerente, mas não tem a validação ou o contexto necessários.

É por isso que buscar orientações nutricionais ou de saúde diretamente em modelos de IA pode ser perigoso. 

Eles não foram criados para substituir atendimento médico e não têm a capacidade de avaliar seu histórico, seus exames ou seus riscos pessoais. 

Isso não significa que as pessoas precisem ter medo do ChatGPT, mas sim que devem usar a ferramenta no contexto certo, para aprender, pesquisar ou complementar informações, e nunca como fonte única para decisões que podem afetar a própria saúde.

📌 Leia também:

IA da OpenAI derrota IA do Musk por 4 a 0 no xadrez

Meta lança IA que prevê reações do cérebro em tempo real

ChatGPT agora ajuda você a aprender de verdade com modo Estudo

Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: