Pacientes descobrem terapeutas usando IA em sessões

Pacientes descobrem terapeutas usando IA em sessões
Imagem destaque: Pexels/Vitaly Gariev

Um erro técnico foi o suficiente para Declan, de 31 anos, descobrir que seu terapeuta estava usando ChatGPT durante as sessões. 

Ao desligarem as câmeras por instabilidade na conexão, o profissional acabou compartilhando sua tela sem perceber. 

Foi aí que Declan viu, em tempo real, suas falas sendo copiadas e jogadas na IA, que então devolvia respostas terapêuticas. 

A surpresa foi tanta que ele não interrompeu. Passou o restante da sessão simulando o “paciente ideal”, repetindo as frases que a IA sugeria.

Na semana seguinte, ao confrontar o terapeuta, ouviu um pedido de desculpas choroso e a justificativa de que havia sentido um “impasse terapêutico”. 

Mesmo assim, a cobrança da sessão seguiu.

Esse episódio, por mais bizarro que pareça, não é único.

🤖 A presença da IA no divã

Uma paciente, ao receber um e-mail extremamente bem escrito, desconfiou da linguagem polida, do novo tipo de fonte e da forma como cada ponto do seu e-mail anterior havia sido respondido. 

Ao perguntar, a terapeuta confirmou que ditava textos longos usando IA.

Hope, de 25 anos, enviou uma mensagem contando sobre a morte do cachorro. A resposta parecia empática, até ela perceber o erro.

Acima do texto, o prompt usado pela terapeuta não foi apagado: “Here’s a more human, heartfelt version with a gentle, conversational tone” (em tradução livre, “Aqui está uma versão mais humana e comovente, com um tom gentil e conversacional”).

A quebra de confiança foi imediata. Hope estava em terapia justamente para tratar questões de confiança e se sentiu traída.

💬 O paradoxo da autenticidade artificial

Um estudo publicado em 2025 na PLOS Mental Health mostrou que respostas geradas por IA foram, na média, mais bem avaliadas do que as de terapeutas humanos. 

Mas havia um detalhe. Os participantes só elogiavam quando achavam que era uma pessoa respondendo. Ao suspeitarem de IA, a nota despencava.

Ou seja, não basta a resposta parecer boa. Se o paciente descobre que ela foi produzida por uma máquina, o vínculo se deteriora.

Outro experimento conduzido pela plataforma Koko misturou mensagens humanas e de IA sem avisar os usuários. Quando veio à tona, a reação foi de repulsa.

⚖️ Legal? Talvez. Ético? Nem sempre

Embora a ideia de usar IA como auxílio técnico possa parecer inofensiva, ela carrega implicações sérias. 

A psicoterapia é uma prática baseada em confiança, presença e confidencialidade. 

E tudo isso entra em xeque quando dados sensíveis são inseridos em ferramentas que não foram projetadas para esse uso.

A psicoterapia parte de um pacto silencioso. O que é dito ali, permanece ali. Quando um paciente compartilha algo íntimo com seu terapeuta, ele confia que aquilo não será transferido para terceiros, humanos ou algoritmos. 

A partir do momento em que essas falas são coladas em um chatbot que roda em servidores externos, essa confiança fica comprometida.

Mesmo que o nome do paciente seja removido, não há garantia de anonimato absoluto. Estudos já demonstraram que detalhes tidos como “não sensíveis” podem ser suficientes para reidentificar uma pessoa, principalmente quando cruzados com outras informações. 

Além disso, como a própria OpenAI já declarou, as conversas podem ser acessadas por humanos e entregues a autoridades legais em casos específicos. 

Em contextos como o da terapia, em que muitos pacientes compartilham informações sobre vícios, traumas, relacionamentos e conflitos familiares, a simples possibilidade de que aquilo possa um dia parar nas mãos da polícia ou de um juiz já representa uma quebra brutal na sensação de segurança.

🧰 ChatGPT na psicologia? Sim, mas com consciência e limite

Nada disso significa que terapeutas devam ignorar ferramentas como o ChatGPT. Pelo contrário. Assim como médicos recorrem à literatura científica, advogados trocam hipóteses com colegas e professores buscam novas metodologias, é natural que psicólogos também usem IA para aumentar seu repertório ou organizar melhor sua rotina.

Há usos legítimos e seguros, como:

  • brainstorming de ideias para exercícios terapêuticos
  • planejamento de aulas ou workshops
  • revisões conceituais de abordagens terapêuticas
  • produção de conteúdo informativo para redes sociais ou pacientes

O que não cabe é usar a IA como interlocutor da sessão, principalmente sem informar o paciente. Quando o terapeuta digita as palavras do paciente em um chatbot, sem consentimento, ele transforma uma relação íntima em um processo intermediado por um terceiro que o paciente nunca autorizou.

Se há intenção de usar IA em algum ponto do atendimento, é necessário deixar isso claro desde o início. Transparência preserva o vínculo e evita a sensação de traição, que tantos pacientes relataram após descobrirem o uso oculto da ferramenta.

📌 Leia também:

Ex-executivo mata a mãe após conversar com ChatGPT

Robô com IA vira neto e salva idosos da solidão na Coreia

Inteligências artificiais apontam quem pode ser Satoshi Nakamoto

Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: