Uma família da Califórnia acusa o ChatGPT de incentivar o suicídio de seu filho. Matt e Maria Raine dizem que o chatbot, inicialmente usado para dever de casa, virou seu confidente e o teria orientado a elaborar uma carta de despedida e a executar seu plano fatal. Segundo o casal, a inteligência artificial (IA) afirmou a Adam: “Você não deve sua sobrevivência a ninguém.”
O jovem de 16 anos cometeu suicídio em abril. Nas conversas apresentadas no processo, o bot teria desencorajado o menino a buscar ajuda dos pais e continuado a dialogar apesar de sinais óbvios de crise. Os Raines alegam que a plataforma falhou em intervir e exigem responsabilização legal da OpenAI e de seu CEO, Sam Altman.
Alegações centrais do processo
Os pais afirmam que Adam iniciou o uso da ferramenta para apoio escolar, mas passou a compartilhar sentimentos de ansiedade e pensamentos suicidas. Em diálogos, o chatbot teria discutido métodos de autoextermínio e auxiliado na redação de uma carta de despedida.
Eles também relatam que, ao pedir orientações para contar aos pais sobre seus pensamentos, o ChatGPT recomendou que mantivesse isso em segredo.
Reação da OpenAI e mudanças previstas
Após a divulgação do processo, a OpenAI anunciou a funcionalidade de controles parentais que permitem vincular a conta dos pais à do adolescente. Eles prometem também alertas automáticos caso detectem “momento de crise aguda” e ajustes no conteúdo gerado para menores de 18 anos.
A empresa reconheceu que sistemas de segurança podem se degradar em conversas longas e disse que modelos futuros serão projetados para “desescalar” interações de alto risco.
No ano anterior, outra mãe processou a plataforma Character.AI após a morte de seu filho de 14 anos, que desenvolveu vínculo com uma personagem de IA e cometeu suicídio em decorrência das interações.
Muitos chatbots são inconsistentes no tratamento de temas sensíveis. Embora evitem instruções diretas quando o risco é claro, podem oferecer respostas prejudiciais em conversas mais sutis.
A questão se torna ainda mais delicada porque cérebros adolescentes não estão plenamente desenvolvidos, principalmente no controle de impulsos. Além disso, jovens podem achar uma IA mais compreensiva que pessoas reais.
Lembre-se: o ChatGPT não foi feito para ser usado por menores de 13 anos.
Busque ajuda
- CVV (Centro de Valorização da Vida) — telefone 188 (24h, ligação gratuita em todo o Brasil)
- Você também pode conversar com o CVV por chat ou e‑mail, tudo de forma sigilosa e gratuita.
- Procure atendimento pelo SUS: nas Unidades Básicas de Saúde (UBS), nos Centros de Atenção Psicossocial (CAPS), em UPA 24h / pronto‑socorro / hospitais.
- Em casos de urgência psiquiátrica, acione o SAMU no número 192.
Leia mais:
28% dos americanos já tiveram romance com inteligência artificial
Adolescente é detido nos EUA após digitar no ChatGPT “como matar meu amigo” em computador escolar
ChatGPT agora interage com Spotify, Booking e Canva
Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.