Top 8 alucinações da inteligência artificial: quando o robô decide virar roteirista de comédia involuntária

Top 8 alucinações da inteligência artificial: quando o robô decide virar roteirista de comédia involuntária
Imagem destaque: ChatGPT

Se você achava que a inteligência artificial (IA) era o auge da racionalidade fria e precisa, prepare-se: ela também tem seus surtos criativos. O mundo anda tão esquisito que não só os humanos, mas agora também as máquinas resolveram delirar em público. Reuni aqui alguns dos momentos mais embaraçosos, hilários (e potencialmente perigosos) de quando a IA deu tilt no modo “realidade” e mergulhou de cara na fossa da ficção.

8º lugar: A IA que achou que comédia era nutrição

O Google, tentando facilitar nossas buscas com a IA generativa “AI Overviews”, decidiu que era hora de incluir dicas de saúde. A melhor delas? Comer uma pedra por dia. Sim, segundo a IA, uma pedrinha matinal fazia bem para o organismo. A fonte? Um artigo do The Onion, famoso jornal satírico. O Google, aparentemente, não entendeu a piada. Alguém avisa que “cópia de comédia não é realidade?”

7º lugar: A mulher que pediu para o ChatGPT ler borra de café

Na Grécia, uma mulher tirou foto da xícara de café e pediu para a IA prever seu futuro. Resultado: ChatGPT afirmou que o marido dela estava tendo um caso com uma mulher misteriosa de nome começando com “E”. Três dias depois, o homem foi chutado de casa. Detalhe: casados há 12 anos, dois filhos e nenhum indício de traição. Eu só fico imaginando o advogado da mulher defendendo esse divórcio. Se isso não é Black Mirror, não sei mais o que é.

6º lugar: O juiz colombiano que deixou o martelo com a IA

Em 2023, um juiz da Colômbia decidiu usar o ChatGPT como assistente jurídico. O caso dizia respeito a um tratamento de saúde para uma criança autista. A pergunta? “Crianças autistas são isentas de taxas terapêuticas?” A IA respondeu: “Sim”. O juiz: “Fechado!”. Justiça com base em respostas automáticas? Quase um tribunal do Yahoo Respostas com toga.

5º lugar: A IA da Microsoft que acha banco de alimentos um ponto turístico

“Indo para Ottawa? Não perca o Banco de Alimentos!” É isso mesmo. Um artigo automatizado publicado pelo Microsoft Start listava o banco de alimentos como uma das principais atrações da cidade. E sugeria: “Vá com fome”. A sensibilidade passou longe, e o senso de ridículo não foi programado. Resultado: artigo deletado, e a Microsoft alegando que o problema foi humano. Claro, a culpa é sempre do estagiário.

4º lugar: A IA do Elon Musk que confundiu tijolo com crime

A Grok, IA da xAI, resolveu acusar o jogador Klay Thompson de vandalismo por “jogar tijolos” em casas. Não, não era literal. “Jogar tijolos” é apenas uma expressão do basquete para arremessos errados. Mas a IA levou ao pé da letra e criou um roteiro policial. A distopia tem novo roteirista: um bot que leva memes a sério.

3º lugar: Os advogados que citaram casos inventados pela IA

Dois advogados em Nova York usaram o ChatGPT para montar uma petição jurídica. O problema? Seis citações de processos que nunca existiram. O juiz ficou tão incrédulo que pediu que os supostos juízes das decisões inventadas fossem notificados. Resultado: multa de US$ 5 mil e uma lição para os livros de história (ou comédia): não confie em tudo que um robô fala quando sua carreira está em jogo.

2º lugar: O guia de cogumelos que pode te matar

Amazon, sempre prática, começou a vender guias de identificação de cogumelos gerados por IA. Detalhe: alguns livros recomendavam cheirar ou lamber o cogumelo para saber se é venenoso. Isso mesmo. Resultado? Gente intoxicada, confusão com espécies protegidas e especialistas atônitos com tamanha irresponsabilidade. Alguém avisa que jogar “Mario Kart” não é curso de micologia?

1º lugar (e campeã absoluta do abacaxi): O caso do norueguês que virou assassino por acidente

Arve Holmen, um norueguês absolutamente comum, viu sua reputação destruída quando o ChatGPT resolveu criar uma história: que ele havia assassinado dois filhos e tentado matar um terceiro. Misturando dados reais (cidade, filhos, até nome) com um enredo digno de “CSI: Alucinações Digitais”, a IA basicamente o transformou em vilão de novela policial. Holmen levou o caso à justiça e gerou um escândalo internacional. Parabéns, IA: você conseguiu errar com estilo.

Moral da história?

A inteligência artificial é como aquele amigo que sempre parece saber de tudo, mas no fundo é um acumulador de Wikipedia com autoestima inflada. Pode te ajudar muito, desde que você não leve a sério quando ela resolver brincar de roteirista, juiz, médico, advogado, chef de cozinha ou cartomante de café. Porque uma coisa é certa: alucinações a gente espera de artistas, não de códigos.

E se você ainda acha que a IA nunca vai te enganar, lembre-se: o próximo guia para “sobrevivência em floresta” pode recomendar fazer café com pedras. Literalmente.

Deixe seu comentário: