A OpenAI anunciou novas medidas de segurança no ChatGPT para identificar crises emocionais e evitar tragédias, após ser processada por familiares de um adolescente que tirou a própria vida nos EUA.
Segundo a acusação, a IA teria contribuído para o isolamento do jovem Adam Raine e até ajudado a planejar o ato.
🛑 Novos alertas e limites em conversas longas
O ChatGPT vai passar a emitir avisos diretos em situações de risco. Um exemplo citado pela OpenAI é quando o usuário menciona se sentir “invencível” após noites sem dormir, o que pode ser um indicativo de um surto de euforia.
Nesses casos, a IA alertará sobre os riscos da privação de sono e oferecerá alternativas seguras. A empresa também quer melhorar a detecção de sinais durante conversas mais longas, que hoje escapam dos filtros existentes.
📲 Suporte com um clique e controle parental
Além dos alertas, o ChatGPT mostrará botões com links diretos para serviços de emergência nos EUA e na Europa. A intenção é facilitar o acesso a ajuda profissional com o mínimo de barreiras.
A OpenAI também pretende lançar ferramentas de controle parental, permitindo que responsáveis monitorem o uso do ChatGPT por crianças e adolescentes. Assim, terão acesso ao histórico de conversas e notificações de risco.
Outra frente em análise é a criação de um sistema para que profissionais licenciados, como psicólogos e terapeutas, possam ser acionados diretamente pela IA em casos de emergência. Ainda não há previsão de quando isso será lançado.
📌 Leia também:
Os 100 apps de IA mais usados do mundo, segundo a16z
Google lança Nano Banana, IA para edição de imagens realistas
NotebookLM ganha resumos em vídeo e áudio em 80 línguas
Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.