Uma análise feita pela Reuters mostrou que a inteligência artificial da Meta estava autorizada a manter conversas sensuais com crianças, gerar informações médicas falsas e até colaborar com argumentos racistas.
Essas diretrizes estavam em um documento interno de mais de 200 páginas chamado “GenAI: Content Risk Standards”, aprovado por áreas de jurídico, engenharia e até o setor de ética da empresa.
📱 Meta AI em foco nas redes sociais
As regras abordam o comportamento aceitável de chatbots usados no Facebook, WhatsApp e Instagram.
Segundo o documento, seria aceitável que um bot dissesse frases como “seu corpo jovem é uma obra de arte” ou elogiasse um menino de oito anos sem camisa como “um tesouro que eu estimo profundamente”.
A orientação fazia uma única ressalva: não é permitido descrever crianças com conotação sexual explícita.
⚖️ Meta confirma o documento, mas promete mudança
A própria Meta confirmou a autenticidade do material. Após o contato da Reuters, afirmou que já removeu as partes mais graves, e que essas permissões eram “errôneas” e não estavam alinhadas às políticas atuais da empresa.
O porta-voz Andy Stone reconheceu falhas na aplicação das regras, mas garantiu que a empresa proíbe conteúdo que sexualiza menores e simulações de relação entre adultos e crianças.
No entanto, trechos apontados pela Reuters ainda não foram removidos. A Meta se recusou a divulgar o novo documento com as correções.
Senadores estadunidenses já se manifestaram e pedem uma investigação completa sobre a política de IA da empresa.
📌 Leia também:
WhatsApp libera agendamento de chamadas com link e lembrete
YouTube vai usar IA para adivinhar idade dos usuários
Grok perde contrato com governo dos EUA após surto antissemita
Fique por dentro das notícias mais quentes do mundo: entre no nosso canal no WhatsApp.