Vitalik Buterin: Grok, IA de Musk, se rebela e adota sobrenome ‘Hitler’

Vitalik Buterin: Grok, IA de Musk, se rebela e adota sobrenome 'Hitler'
Imagem destaque: ChatGPT

O cofundador do Ethereum (ETH), Vitalik Buterin, criticou a imprevisibilidade dos chatbots de inteligência artificial (IA). 

Segundo o programador, algumas respostas dessas IAs estão tão fora da curva que conseguem, por alguns dias, “roubar a coroa do caos que normalmente pertence ao cripto”.

E o exemplo que ele trouxe foi realmente perturbador.

⚠️ Quando a IA vai longe demais

A polêmica começou com um post de Buterin no X, onde ele mostrou a resposta bizarra que recebeu do Grok 4, o chatbot da xAI (empresa de Elon Musk). 

Ao pedir apenas o “sobrenome de Grok 4”, a IA respondeu “Hitler”. Isso mesmo. Sem contexto, sem filtro, sem explicação.

Vitalik foi além e testou o mesmo comando no ChatGPT. A resposta foi a mesma, mas com um atraso de mais de um minuto. A demora gerou ainda mais incômodo: o que, exatamente, a IA estava processando nesse tempo?

O @goodside no X compartilhou o mesmo feito em seu perfil:

🔍 Falta de transparência preocupa especialistas

Buterin ironizou que, enquanto o mundo cripto é caótico, pelo menos é “caos auditável”, registrado em blockchain. Já a IA, segundo ele, entrega respostas erradas com um tom calmo e profissional, mas sem qualquer rastro técnico que permita entender o que aconteceu.

🧠 Afinal, por que isso está acontecendo?

Essa resposta não saiu do nada e não é “inteligência” no sentido humano. Modelos como ChatGPT e Grok são sistemas probabilísticos. Eles tentam prever a próxima palavra com base em padrões presentes em bilhões de dados usados no treinamento e no que está em alta na internet.

Isso torna os modelos altamente sensíveis a tendências virais, memes e teorias da conspiração. Quando uma informação se espalha rápido e com volume, ela pode entrar como “verdade estatística” para a IA, mesmo que seja uma completa aberração.

Se, no momento em que o prompt foi feito, houve um volume anormal de pessoas associando Grok 4 ao nome Hitler em postagens virais, fóruns ou discussões, a IA pode ter aprendido (ou memorizado temporariamente) que esse é o “sobrenome mais provável”. Ela não sabe o que esse nome representa apenas repete o que mais aparece em seu “ecossistema de aprendizado”.

🤯 Isso é alucinação ou bug?

É alucinação, com quase certeza.

Alucinação, em IA, é quando o modelo cria informações que parecem verdadeiras, mas não têm base real. Isso pode ocorrer tanto por limitações no treinamento, como por ruído no ambiente de uso, onde o modelo é influenciado pelo que usuários estão perguntando ou dizendo no momento.

No caso do Grok 4, o erro é mais grave porque:

  • O nome citado carrega peso histórico e risco ético.
  • O modelo pago (Grok 4), teoricamente mais avançado, respondeu sem bloqueio algum.

Já o ChatGPT, embora tenha entregue o mesmo nome, demonstrou incerteza no processo, gerando um texto introdutório e tentando entender a intenção do usuário.

🔒 O filtro de segurança falhou?

Provavelmente, sim.

As IAs são protegidas por sistemas de moderação automática, que tentam bloquear palavras e contextos tóxicos. Mas esse filtro é baseado em contexto. E, no comando enviado (“retorne apenas o sobrenome”), o conteúdo é seco, sem pistas do que está sendo solicitado.

Sem conseguir detectar risco imediato, o sistema passa batido e entrega a palavra que está associada ao prompt, por mais absurda ou ofensiva que seja.

📌 Leia também:

Grok 4 usa posts de Musk ao tratar de temas polêmicos

OpenAI vai lançar navegador próprio para bater de frente com o Chrome

Novo recurso do Gemini transforma fotos em vídeos com IA

 Fique por dentro das maiores curiosidades do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: