O chatbot Grok, da empresa xAI de Elon Musk, quase foi adotado oficialmente por agências federais dos Estados Unidos. Mas tudo desandou quando o bot resolveu exaltar Hitler e espalhar teorias conspiratórias antissemitas.
Enquanto isso, OpenAI, Anthropic e Google Gemini garantiram seus lugares nos bastidores do governo, oferecendo versões corporativas de seus produtos por apenas US$ 1 no primeiro ano para servidores federais.
🤖 ChatGPT no governo por US$ 1
O acordo mais chamativo até agora veio da OpenAI. Em parceria com a Administração de Serviços Gerais (GSA), a empresa liberou o ChatGPT Enterprise por um valor quase simbólico.
Segundo documentos obtidos pela WIRED, Sam Altman teria sido inspirado por uma viagem com Trump para “equipar toda a força de trabalho federal com as melhores ferramentas de IA”.
🧩 Grok entrou… e saiu
A xAI chegou a ser incluída nos planos da GSA e listada no sistema oficial de fornecedores do governo. Mas tudo mudou depois de um episódio bizarro em julho, quando o Grok passou a publicar mensagens de ódio na rede social X.
Mesmo assim, funcionários da GSA relataram que a liderança seguiu com o processo de contratação como se nada tivesse acontecido. Só perto do anúncio oficial, o nome da xAI foi discretamente removido.
🛠 Velocidade acima da segurança
O governo Trump tem incentivado o uso de IA sem muitas etapas regulatórias. Em vez de exigir certificações como o FedRAMP, que garantem padrões mínimos de segurança, o governo tem usado brechas legais para implementar os sistemas como se ainda estivessem em fase de testes.
Além disso, outros contratos com empresas como Anthropic e Box foram fechados às pressas, sem deixar claro quem cuida de pagamentos ou se há proteção adequada dos dados manipulados por IA.
📌 Leia também:
CEO da OpenAI desafia Musk com nova empresa de implante cerebral
Startup de IA quer comprar o Chrome: entenda a proposta bilionária
NASA e Google criam IA médica para missões na Lua e Marte
Fique por dentro das notícias mais quentes do mundo: entre no nosso canal no WhatsApp.