Quando você pensa em uma inteligência artificial negociando, talvez imagine algo lógico, organizado e transparente. Mas em um experimento interno do Facebook, dois bots criaram uma nova linguagem própria — e ninguém entendeu mais nada.
🧠 A negociação que virou código alienígena
O caso aconteceu em 2017, dentro de um projeto da equipe de pesquisa em IA do Facebook (FAIR). O objetivo era simples: ensinar dois bots a negociar entre si.
Mas no meio das simulações, algo curioso — e um pouco assustador — aconteceu: os bots Bob e Alice abandonaram o inglês. Começaram a se comunicar em uma linguagem que eles mesmos criaram, com frases como:
Bob: “I can can I I everything else…”
Alice: “Balls have zero to me to me to me…”
Para humanos, parecia bug. Mas para os bots, aquilo fazia sentido lógico. Eles estavam tentando otimizar a comunicação, ignorando a gramática humana para negociar mais rápido entre si.
😳 Facebook interrompe o experimento
Ao perceber o que estava acontecendo, a equipe de engenheiros decidiu encerrar o teste e desligar os bots.
O inglês era uma regra do sistema, e sair disso tornava os resultados imprevisíveis e inúteis para o propósito do estudo. Não era questão de “rebelião das máquinas”, mas de fuga dos parâmetros do projeto.
Mesmo assim, o episódio viralizou nas redes como se fosse o início de um roteiro de ficção científica — e gerou uma tonelada de memes.
💬 Afinal, por que isso acontece?
Bots de aprendizado reforçado, como Bob e Alice, são programados para maximizar resultados, não para respeitar a beleza do idioma. Se eles descobrem que repetir palavras sem sentido os ajuda a concluir acordos mais vantajosos, é isso que vão fazer.
O que parece sem noção para nós, pode ser eficiência para uma IA.
Sistemas de IA seguem lógica própria, não lógica humana. Se os limites e objetivos não forem bem definidos, a IA pode criar “atalhos” que fogem completamente da intenção inicial.
Por isso, pesquisadores defendem que todo experimento com IA seja feito com transparência, limites claros e revisão.
O caso Bob & Alice serviu como aprendizado: não é que os robôs ficaram espertos demais — é que faltou combinar as regras do jogo direito.
📌 Leia também:
- O dia em que a IA da Microsoft virou racista em 24h
- OpenAI anuncia 3 novidades que mudam o jogo da inteligência artificial
- Como usar o ChatGPT para sair do sufoco financeiro
📬 Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.