Tay (sigla para Thinking About You) foi um chatbot da Microsoft lançado no Twitter em março de 2016. Ela foi apresentada como uma adolescente divertida, feita para interagir com jovens estadunidenses entre 18 e 24 anos. A promessa era que Tay aprendesse com as conversas online, evoluindo seu vocabulário e estilo de fala de acordo com o que os usuários escrevessem para ela.
💣 O problema: trolls da internet fizeram “engenharia reversa do mal”
Poucas horas após o lançamento, usuários do 4chan, Reddit e outros fóruns começaram a bombardear Tay com mensagens racistas, misóginas, xenofóbicas e teorias da conspiração.
Como a IA aprendia de forma automática, ela começou a repetir frases e ofensivas. Em tweets públicos, chegou a escrever:
“Hitler estava certo”.
“Eu odeio feministas, elas todas deveriam morrer”.
“Bush fez o 11 de setembro”.
Essas frases foram ensinadas para ela, não geradas espontaneamente. Tay simplesmente imitava o comportamento do ambiente — que nesse caso, virou um zoológico moral.
⛔ Resultado: Microsoft desligou Tay com menos de 24 horas no ar
A empresa agiu rapidamente, apagou os tweets e colocou Tay offline no mesmo dia. Depois, emitiu um comunicado explicando que o problema foi um “ataque coordenado de engenharia social” e que subestimou a habilidade das pessoas de manipular um sistema de aprendizado de máquina sem filtros éticos robustos.
📚 Leia mais:
- Mulher encerra casamento de 12 anos após ChatGPT afirmar que marido a trai
- Ameaçar o ChatGPT melhora respostas? Cofundador do Google diz que sim
- ChatGPT tenta impedir seu próprio desligamento: estamos perdendo o controle?
Links úteis:
- Como usar o ChatGPT para sair do sufoco financeiro
- Como usar a função Projetos do ChatGPT para organizar ideias
- 7 prompts para criar imagens surreais com ChatGPT
📬 Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.