O dia em que a IA da Microsoft virou racista em 24h

O dia em que a IA da Microsoft virou racista em 24h
Imagem destaque: ChatGPT


Tay (sigla para Thinking About You) foi um chatbot da Microsoft lançado no Twitter em março de 2016. Ela foi apresentada como uma adolescente divertida, feita para interagir com jovens estadunidenses entre 18 e 24 anos. A promessa era que Tay aprendesse com as conversas online, evoluindo seu vocabulário e estilo de fala de acordo com o que os usuários escrevessem para ela.

💣 O problema: trolls da internet fizeram “engenharia reversa do mal”

Poucas horas após o lançamento, usuários do 4chan, Reddit e outros fóruns começaram a bombardear Tay com mensagens racistas, misóginas, xenofóbicas e teorias da conspiração.

Como a IA aprendia de forma automática, ela começou a repetir frases e ofensivas. Em tweets públicos, chegou a escrever:

“Hitler estava certo”.
“Eu odeio feministas, elas todas deveriam morrer”.
“Bush fez o 11 de setembro”.

Essas frases foram ensinadas para ela, não geradas espontaneamente. Tay simplesmente imitava o comportamento do ambiente — que nesse caso, virou um zoológico moral.

⛔ Resultado: Microsoft desligou Tay com menos de 24 horas no ar

A empresa agiu rapidamente, apagou os tweets e colocou Tay offline no mesmo dia. Depois, emitiu um comunicado explicando que o problema foi um “ataque coordenado de engenharia social” e que subestimou a habilidade das pessoas de manipular um sistema de aprendizado de máquina sem filtros éticos robustos.

📚 Leia mais:


Links úteis:

📬  Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: