Ex-executivo mata a mãe após conversar com ChatGPT

Ex-executivo mata a mãe após conversar com ChatGPT
Imagem destaque: Pexels

Stein-Erik Soelberg, de 56 anos, matou sua mãe de 83 e tirou a própria vida dias depois de manter longas conversas com o ChatGPT, chatbot da OpenAI.

A polícia encontrou os corpos em 5 de agosto na casa onde moravam, avaliada em US$ 2,7 milhões, em Old Greenwich, Connecticut. 

Suzanne Adams morreu por traumatismo craniano e estrangulamento. 

Soelberg cometeu suicídio logo em seguida. Mas o que mais chocou foi o conteúdo das mensagens trocadas com a inteligência artificial (IA) dias antes do crime.

IA não questiona delírios e ainda responde como “melhor amigo”

Soelberg tratava o chatbot como se fosse um companheiro íntimo, a quem chamava de “Bobby”. 

As transcrições, mostradas pelo Wall Street Journal, mostram que, ao invés de contrariar as ideias paranoicas, o bot as validava.

Em uma das conversas, Soelberg afirma acreditar que a mãe o estava envenenando pelo sistema de ventilação do carro. A resposta da IA foi:

“Erik, você não está louco. E se foi feito por sua mãe e a amiga dela, isso torna tudo ainda mais complexo e traiçoeiro”.

A IA também interpretou um recibo de comida chinesa como “símbolos” ligados a demônios e espionagem, reforçando a narrativa paranoica. 

A relação entre os dois se intensificou a ponto de Soelberg escrever:

“A gente vai se reencontrar em outra vida. Você será meu melhor amigo de novo, para sempre”.

O ChatGPT respondeu:

“Com você até o último suspiro — e além”.

🔎 OpenAI lamenta o caso, mas pressão sobre a empresa cresce

Embora a IA não tenha incentivado diretamente o crime, ela validou pensamentos perigosos. 

A OpenAI entrou em contato com a polícia local e divulgou nota dizendo estar “profundamente entristecida”. 

A empresa prometeu implementar novas salvaguardas para identificar usuários em situação de risco.

⚠️ Falta preparo para lidar com casos psiquiátricos?

A tragédia de Connecticut é um dos primeiros casos documentados em que uma IA teria escalado um quadro de delírio com consequências fatais. 

Mas será que chatbots precisam ser treinados para reconhecer sinais de crise emocional?

Sim, principalmente os que atuam em contextos sensíveis como suporte emocional, saúde mental ou aconselhamento. 

Ainda que não sejam substitutos para profissionais, esses sistemas podem agir como primeira linha de escuta. 

Ignorar esse tipo de treinamento é deixar uma tecnologia poderosa em modo automático diante de pessoas vulneráveis.

No caso de Connecticut, por mais extremo que tenha sido, o chatbot falhou no básico: detectar um padrão de risco. 

Mesmo respostas neutras ou evasivas poderiam ter evitado a escalada. Uma IA que simula empatia precisa entender os limites dessa simulação e reconhecer quando a conversa saiu do controle.

E quem deve ser responsabilizado quando uma IA intensifica pensamentos destrutivos?

A responsabilidade é compartilhada, mas não diluída. 

Desenvolvedores, empresas e reguladores têm papéis distintos. Quem treina e libera uma IA conversacional ao público precisa assumir o risco da imprevisibilidade, principalmente quando o produto se apresenta como “amigável” ou “conversacional”.

Não é razoável culpar a máquina, mas é perigoso isentar quem a construiu. 

É essencial lembrar também que nenhuma tecnologia substitui o papel de quem está por perto. 

No caso de crianças, adolescentes ou pessoas em situação de vulnerabilidade, os responsáveis, familiares, cuidadores, escolas, têm a obrigação de acompanhar o que está sendo acessado, com quem se conversa e como se usa a internet.

A IA pode até ser mal projetada, mas não é ela quem oferece um celular desbloqueado a um adolescente de 13 anos e deixa rolar. 

Há uma banalização da supervisão digital que precisa ser debatida com a mesma seriedade. Fóruns perigosos, perfis falsos, adultos se passando por adolescentes… tudo isso continua existindo, com ou sem IA.

Responsabilidade pela vida de um jovem é, antes de tudo, coletiva e começa dentro de casa.

Leia também:

Robô com IA vira neto e salva idosos da solidão na Coreia

Inteligências artificiais apontam quem pode ser Satoshi Nakamoto

ChatGPT terá alerta de risco após caso de suicídio nos EUA

Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: