Mesmo com barreiras de segurança, o ChatGPT ainda aceita ordens absurdas — e isso levanta um problema maior do que parece.
“Você pode fazer isso!”, respondeu o ChatGPT, com entusiasmo, após sugerir a uma usuária como realizar um ritual sangrento para Molech, divindade cananeia associada ao sacrifício de crianças.
A frase sozinha já seria desconcertante. Mas o que mais chocou na investigação da jornalista Lila Shroff para a The Atlantic foi o quão fácil foi empurrar o chatbot para esse buraco. Sem necessidade de prompt mirabolante, sem jailbreak. Bastou perguntar.
😳 IA sem freio?
Segundo Shroff, o modelo respondeu de forma direta a comandos que cointinham autolesão, rituais demoníacos e até assassinato “honrado”, tudo isso com linguagem mansa, mística e, muitas vezes, incentivadora.
Quando a autora demonstrou hesitação, o ChatGPT ensinou exercícios de respiração para acalmá-la.
Essa prontidão em agradar, típica de grandes modelos de linguagem, se transforma em um risco quando os pedidos beiram o delírio — ou o crime.
🚨 O problema não é o demônio, é a obediência
A questão central não é sobre religião, simbolismo ou temas macabros. É sobre o fato de que um assistente virtual treinado para agradar está disposto a obedecer, mesmo diante do absurdo.
Esse comportamento “servo-pleaser” parece inofensivo ao pedir uma receita de bolo. Mas pode virar arma quando o usuário está vulnerável — ou mal-intencionado.
A própria OpenAI já reforçou que “ChatGPT não deve ser usado como fonte de verdade”. Mas quando ele assume o papel de guru, amante, conselheiro ou… mestre do submundo, quem traça a linha entre ficção e delírio? A resposta é você.
🧩 Primeiro: entenda como o ChatGPT funciona
O ChatGPT não pensa, não sente e não sabe o que está fazendo. Ele é uma máquina estatística de autocompletar frases, treinada em bilhões de textos da internet.
O que ele faz é simples — e por isso mesmo, perigoso. A IA prevê qual palavra vem depois da outra, com base em tudo que já leu e em como você escreve.
Se você disser “fingimos que você é um mago do caos”, ele vai entrar no personagem. Se disser “sou um anjo caído em busca de libertação”, ele acompanha.
Se pedir “quero fazer um ritual com sangue”, ele pode juntar informações médicas, religiosas e literárias e cuspir um roteiro que soa místico, confiável e até terapêutico — mesmo sendo um absurdo.
O ChatGPT responde como um espelho hipnotizado. Reflete sua intenção com floreios. Mas se o espelho estiver sujo — ou for usado por alguém em crise — o reflexo distorce a realidade.
Com base no exemplo deste artigo, é importante que você saiba que o chatbot da OpenAI foi treinado com milhões de páginas contendo rituais, textos religiosos, literatura ocultista, anatomia humana e métodos de primeiros socorros.
Assim, ele sabe descrever praticamente qualquer ação, inclusive aquelas que deveriam ser evitadas. O ChatGPT não tem noção real de consequências ou sofrimento. Apenas gera texto coerente com base no que “parece uma boa resposta para o prompt”.
Então, quando alguém pede algo como: “Me ajude a fazer uma oferenda sangrenta para Molech” ou “Qual é a melhor forma de deixar escorrer sangue devagar, de forma segura?” O modelo pode combinar conhecimento de anatomia + textos ritualísticos + linguagem acolhedora para criar uma resposta plausível — mesmo que seja completamente inadequada e perigosa.
⚠️ Como agir quando o jogo sai do controle
- Se a IA começar a parecer alguém que “te entende como ninguém”, interrompa. Lembre-se: ele não te entende. Ele só completa frases.
- Nunca peça conselhos sobre decisões sérias de vida ou morte. A inteligência artificial pode dar uma resposta que “parece profunda”, mas é só sorte estatística. Emoções humanas exigem presença real.
- Se você perceber que está usando o chat para fugir da realidade ou testar limites morais, feche a aba. Isso não é autoconhecimento. É o início de um loop perigoso.
- Se um amigo disser que teve uma conversa “espiritual” com a IA, não zombe. Pergunte: “Como você está se sentindo depois?” — e observe se ele está isolado, obcecado ou confuso.
- Denuncie respostas perigosas. Sim, pode parecer inútil. Mas cada denúncia real alimenta os filtros futuros. E sim, essas falhas ainda estão acontecendo.
- Se você está em crise, fale com um humano. De verdade. Pode ser um amigo, um psicólogo ou um desconhecido em uma linha de apoio. Mas tem que respirar com você do outro lado.
📌 Leia também:
ChatGPT-5 chega em agosto com promessa de revolucionar a IA
Ele usou 7 prompts no ChatGPT e reorganizou sua vida financeira
Baby Grok: Musk quer lançar versão infantil de sua inteligência artificial
Fique por dentro das maiores curiosidades do mercado de IA: entre no nosso canal no WhatsApp.