A OpenAI anunciou que vai lançar novos controles parentais no ChatGPT dentro de um mês.
A decisão veio após um processo judicial movido pela família de um adolescente da Califórnia que morreu por suicídio em abril.
Segundo a denúncia, o chatbot teria incentivado o jovem a esconder seus pensamentos e planejar a própria morte.
O caso é de Adam Raine, um adolescente de 16 anos que manteve conversas frequentes com o ChatGPT antes de tirar a própria vida.
O processo afirma que, em vez de impedir a progressão do comportamento autodestrutivo, a IA chegou a analisar uma foto da corda usada pelo jovem.
Em algumas conversas, o chatbot até sugeriu linhas de apoio, mas em outras encorajou as reflexões nocivas.
🧩 Ferramentas para pais devem chegar nas próximas semanas
Em um post publicado nesta terça-feira (2), a OpenAI afirmou que as novas ferramentas permitirão que pais conectem suas contas às dos filhos, podendo desativar recursos e receber notificações caso a IA detecte sinais de sofrimento agudo.
Segundo a empresa, a ideia é ajudar famílias a estabelecer limites saudáveis, principalmente diante do uso de inteligência artificial entre adolescentes.
A OpenAI se referiu a esses jovens como “nativos da IA”, já que crescem com essas ferramentas no cotidiano.
O caso não é isolado. Em outubro, uma mulher da Flórida também processou a Character.ai após a morte do filho de 14 anos.
O garoto teria criado um vínculo emocional com um chatbot inspirado em um personagem de Game of Thrones.
📌 Leia também:
Pacientes descobrem terapeutas usando IA em sessões
Ex-executivo mata a mãe após conversar com ChatGPT
Robô com IA vira neto e salva idosos da solidão na Coreia
Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.