Homem descobre que “foi condenado” por matar seus filhos – segundo ChatGPT

Homem descobre que “foi condenado” por matar seus filhos – segundo ChatGPT
Pexels

Um caso na Noruega gerou grande repercussão depois que o ChatGPT, desenvolvido pela OpenAI, acusou falsamente um homem de um crime que nunca aconteceu.

Arve Hjalmar Holmen, cidadão norueguês sem histórico criminal, resolveu testar o ChatGPT perguntando sobre si mesmo.

Para sua surpresa, o chatbot gerou uma resposta afirmando que ele havia sido condenado pelo assassinato de dois filhos e pela tentativa de homicídio de um terceiro, recebendo uma pena de 21 anos de prisão.

Denúncia contra a OpenAI

Indignado com a difamação, Holmen acionou a organização de direitos digitais Noyb, que apresentou uma denúncia formal à Autoridade de Proteção de Dados da Noruega (Datatilsynet).

A queixa tem como base o Artigo 5 (1)(d) do Regulamento Geral sobre a Proteção de Dados (GDPR), que exige que as informações pessoais sejam precisas e atualizadas. A Noyb pede que a OpenAI seja multada e que medidas sejam adotadas para evitar que erros semelhantes ocorram no futuro.

Diante da denúncia, a OpenAI alegou que a resposta gerada pelo ChatGPT veio de uma versão antiga do modelo, antes da implementação de ferramentas de busca em tempo real que hoje aprimoram a precisão das informações.

A empresa também destacou seus esforços para reduzir as chamadas “alucinações” – termo usado quando a IA gera informações falsas apresentadas como verdadeiras.

Outros casos de erros graves de IA

Casos como o de Holmen não são isolados. Em 2023, a Apple precisou desativar um sistema experimental de resumo de notícias por IA no Reino Unido, após a ferramenta criar manchetes completamente fictícias.

Já o Gemini, modelo de IA do Google, gerou polêmica ao sugerir absurdos como usar cola para fixar queijo na pizza ou que humanos poderiam comer pedras, citando “conselhos” de geólogos.

Kleanthi Sardeli, advogada da Noyb, alerta que adicionar um aviso informando que a IA pode errar não isenta empresas de sua responsabilidade legal.

“Não basta incluir uma nota de rodapé dizendo que as informações podem estar incorretas. Se um modelo de IA pode prejudicar a reputação de alguém, as empresas precisam garantir que ele não gere informações falsas em primeiro lugar”, afirma.

Leia mais: Saiba por que o preço do bitcoin não sobe mesmo com boas notícias no mercado de criptomoedas

Deixe seu comentário: