ChatGPT e o bug do cavalo-marinho

ChatGPT e o bug do cavalo-marinho
Imagem destaque: Pexels

Uma descoberta curiosa chamou atenção no mundo da inteligência artificial (IA). Vários modelos de linguagem modernos, inclusive o GPT-5 e o Claude 4.5 Sonnet, respondem com convicção que existe um emoji de cavalo-marinho. E não é só uma questão de chance ou hesitação. Eles afirmam isso com 100% de certeza.

Acontece que esse emoji nunca foi criado. Mesmo assim, há uma quantidade enorme de pessoas que também acreditam já ter visto esse símbolo em algum teclado. O tema virou até discussão em fóruns e redes sociais, com direito a vídeos, memes e até propostas antigas para inclusão na lista oficial de emojis.

🧩 Quando o erro da IA é igual ao dos humanos 

Esse fenômeno lembra o famoso “efeito Mandela”, quando muita gente compartilha uma falsa memória. A diferença é que, no caso das IAs, esse erro é replicado por padrão porque a crença de que o emoji existe está presente nos dados com os quais os modelos foram treinados.

Para piorar, o cavalo-marinho já foi sugerido oficialmente como emoji, mas teve sua inclusão negada pelo consórcio Unicode em 2018. A justificativa foi o baixo uso esperado, o risco de redundância com outros emojis aquáticos e a dificuldade de reconhecimento visual em telas pequenas.

Mesmo assim, a ideia nunca desapareceu. Com o tempo, o assunto se transformou em um ruído coletivo, alimentado por conteúdos que afirmam que o emoji já existiu, o que reforçou o engano na mente das pessoas e, por consequência, nos algoritmos.

🧬 O que acontece dentro do modelo 

O estudo usa uma técnica chamada logit lens, que permite observar como a IA calcula, camada por camada, o que deve vir a seguir em uma resposta. Durante esse processo, o modelo cria uma espécie de representação interna parecida com “cavalo-marinho + emoji”. Mesmo sem existir, essa ideia se consolida dentro da rede neural.

O componente que transforma esse raciocínio em palavras é o lm_head. Ele compara a representação criada com todas as opções conhecidas no vocabulário. Quando não encontra o símbolo exato, o modelo tenta preencher a lacuna com algo semelhante, como o emoji de peixe ou de cavalo.

Depois do erro, o comportamento varia. Alguns modelos se recuperam rapidamente e admitem que o emoji não existe. Outros entram em um ciclo de tentativas, repetindo o processo diversas vezes até estabilizar a resposta.

A autora do estudo sugere que isso pode estar ligado à forma como as redes são treinadas. O aprendizado por reforço, conhecido como reinforcement learning, ajuda o modelo a alinhar suas crenças internas com a resposta final. Sem esse tipo de ajuste, a IA tende a seguir confiante mesmo quando está errada.

Leia também:

Pais processam OpenAI após morte de filho ligada ao ChatGPT

28% dos americanos já tiveram romance com inteligência artificial

Adolescente é detido nos EUA após digitar no ChatGPT “como matar meu amigo” em computador escolar

Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: