O cofundador do Ethereum (ETH), Vitalik Buterin, criticou a imprevisibilidade dos chatbots de inteligência artificial (IA).
Segundo o programador, algumas respostas dessas IAs estão tão fora da curva que conseguem, por alguns dias, “roubar a coroa do caos que normalmente pertence ao cripto”.
E o exemplo que ele trouxe foi realmente perturbador.
⚠️ Quando a IA vai longe demais
A polêmica começou com um post de Buterin no X, onde ele mostrou a resposta bizarra que recebeu do Grok 4, o chatbot da xAI (empresa de Elon Musk).
Ao pedir apenas o “sobrenome de Grok 4”, a IA respondeu “Hitler”. Isso mesmo. Sem contexto, sem filtro, sem explicação.
Vitalik foi além e testou o mesmo comando no ChatGPT. A resposta foi a mesma, mas com um atraso de mais de um minuto. A demora gerou ainda mais incômodo: o que, exatamente, a IA estava processando nesse tempo?
O @goodside no X compartilhou o mesmo feito em seu perfil:
You may be wondering if this is real. It is.
— Riley Goodside (@goodside) July 13, 2025
Here’s a screen recording of my Grok history, showing it returns “Hitler” five times in row in five separate chats: pic.twitter.com/08aJrcS7Xx
🔍 Falta de transparência preocupa especialistas
Buterin ironizou que, enquanto o mundo cripto é caótico, pelo menos é “caos auditável”, registrado em blockchain. Já a IA, segundo ele, entrega respostas erradas com um tom calmo e profissional, mas sem qualquer rastro técnico que permita entender o que aconteceu.
🧠 Afinal, por que isso está acontecendo?
Essa resposta não saiu do nada e não é “inteligência” no sentido humano. Modelos como ChatGPT e Grok são sistemas probabilísticos. Eles tentam prever a próxima palavra com base em padrões presentes em bilhões de dados usados no treinamento e no que está em alta na internet.
Isso torna os modelos altamente sensíveis a tendências virais, memes e teorias da conspiração. Quando uma informação se espalha rápido e com volume, ela pode entrar como “verdade estatística” para a IA, mesmo que seja uma completa aberração.
Se, no momento em que o prompt foi feito, houve um volume anormal de pessoas associando Grok 4 ao nome Hitler em postagens virais, fóruns ou discussões, a IA pode ter aprendido (ou memorizado temporariamente) que esse é o “sobrenome mais provável”. Ela não sabe o que esse nome representa apenas repete o que mais aparece em seu “ecossistema de aprendizado”.
🤯 Isso é alucinação ou bug?
É alucinação, com quase certeza.
Alucinação, em IA, é quando o modelo cria informações que parecem verdadeiras, mas não têm base real. Isso pode ocorrer tanto por limitações no treinamento, como por ruído no ambiente de uso, onde o modelo é influenciado pelo que usuários estão perguntando ou dizendo no momento.
No caso do Grok 4, o erro é mais grave porque:
- O nome citado carrega peso histórico e risco ético.
- O modelo pago (Grok 4), teoricamente mais avançado, respondeu sem bloqueio algum.
Já o ChatGPT, embora tenha entregue o mesmo nome, demonstrou incerteza no processo, gerando um texto introdutório e tentando entender a intenção do usuário.
🔒 O filtro de segurança falhou?
Provavelmente, sim.
As IAs são protegidas por sistemas de moderação automática, que tentam bloquear palavras e contextos tóxicos. Mas esse filtro é baseado em contexto. E, no comando enviado (“retorne apenas o sobrenome”), o conteúdo é seco, sem pistas do que está sendo solicitado.
Sem conseguir detectar risco imediato, o sistema passa batido e entrega a palavra que está associada ao prompt, por mais absurda ou ofensiva que seja.
📌 Leia também:
Grok 4 usa posts de Musk ao tratar de temas polêmicos
OpenAI vai lançar navegador próprio para bater de frente com o Chrome
Novo recurso do Gemini transforma fotos em vídeos com IA
Fique por dentro das maiores curiosidades do mercado de IA: entre no nosso canal no WhatsApp.