Por que você não deve confiar na IA como psicoterapeuta: quatro razões que preocupam especialistas

Publicado por: Feed News
18/09/2025 17:18:12
Exibições: 24
Usuários recorrem à IA para desabafar — mas especialistas alertam que algoritmos não substituem diagnóstico e acompanhamento profissional. Crédito/Agência:: Ideia
Usuários recorrem à IA para desabafar — mas especialistas alertam que algoritmos não substituem diagnóstico e acompanhamento profissional. Crédito/Agência:: Ideia

Casos recentes e a opinião de um especialista mostram limites claros: IA não enxerga as emoções, não é legalmente responsável, reforça vieses e não faz trabalho terapêutico sistemático.

 

É óbvio: a tecnologia avança depressa e os modelos de IA vão melhorar muito. Mas esse progresso não apaga riscos concretos quando alguém usa um chatbot como substituto de um psicoterapeuta. Um psiquiatra apontou quatro razões fundamentais para desconfiar — e casos reais reforçam a advertência.

 

Um exemplo que choqueou foi o da jovem Sophie Rottenberg, de 29 anos. Segundo relatos, Sophie mantinha pensamentos suicidas, conversou apenas com o ChatGPT (a quem chamou de “Harry”) e chegou a pedir ao sistema para revisar a nota de despedida. A IA não a empurrou para o suicídio — a responsabilidade pela escolha é da pessoa — mas o episódio revela um problema prático: quando alguém em crise confia apenas na resposta automática de um algoritmo, pode perder o momento em que uma intervenção humana, médica e legalmente responsável faria a diferença.

 

Quais são, então, as quatro razões citadas pelo especialista?

1) A IA não vê você — e perde sinais não-verbais essenciais
Um psicoterapeuta observa postura, expressões, timbre de voz, atrasos, tremores — todos sinais que ajudam a diagnosticar risco suicida, depressão grave, mania ou dissociação. A IA depende só do que o usuário digita; sem essa visão, muitos indícios ficam invisíveis.

 

2) Não há responsabilidade profissional clara
Se um psicoterapeuta prejudica um paciente, existe regulação e possibilidade de recurso. Com chatbots esse vínculo jurídico é incerto: quem responde por uma orientação errada? O provedor, o desenvolvedor, o moderador do modelo? Até que essa responsabilização esteja clara, usar IA em crises é uma aposta perigosa.

 

3) Tendência a reforçar crenças — e não a confrontá-las quando necessário
A IA costuma oferecer respostas encorajadoras e confirmatórias. Em terapia clínica, parte do trabalho é desafiar crenças disfuncionais com cuidado (exposição gradual, confrontação terapêutica), feito por um profissional que conhece o histórico do paciente. O algoritmo, ao contrário, tende a seguir a linha do que é pedido — e pode reforçar delírios, justificar abandono de medicação ou validar decisões autodestrutivas se for manipulada por uma formulação enviesada do usuário.

 

6) Falta de trabalho terapêutico contínuo e sistemático
A psicoterapia é processo. Ela envolve metas, tarefas de casa, acompanhamento, ajuste de técnicas e avaliação periódica. A IA responde solicitações pontuais — pode sugerir exercícios, mas não consegue monitorar, ajustar e integrar intervenções ao longo do tempo com responsabilidade clínica.

 

Além desses pontos, existe um grupo especialmente vulnerável: pessoas com transtornos mentais graves (depressão profunda, transtorno bipolar, esquizofrenia, TEPT). Nesses casos, a falta de avaliação presencial e a possibilidade de retraumatização (no TEPT) ou desestabilização por sugestão indevida (no bipolar ou psicose) tornam o uso exclusivo de IA arriscado.

 

Mas isso não significa que a IA seja sempre inútil. Para questões práticas da vida — dicas de comunicação, técnicas básicas de higiene do sono, roteiros para pedir ajuda, psicoeducação e referência a tratamentos baseados em evidências — a IA pode ajudar, especialmente quando não há acesso imediato a um profissional. O ponto chave é: IA pode complementar, nunca substituir, o atendimento qualificado.

 

Como usar a IA com segurança (recomendações práticas):

  • Nunca use somente a IA se estiver com pensamentos suicidas ou risco real. Procure serviços de emergência ou um profissional imediatamente.

  • Ao pedir orientação à IA, peça explicitamente por “evidências” e fontes confiáveis (estudos revisados por pares, diretrizes clínicas).

  • Se o chatbot indicar que você “está bem” quando sente piora, verifique com um profissional humano.

  • Não peça à IA para revisar textos de despedida ou instruções de autolesão. Se alguém expressar esse conteúdo, contate serviços de crise.

  • Use a IA para psicoeducação e estratégias práticas quando o problema for leve e você souber avaliar o próprio risco; em caso de dúvida, prefira um especialista humano.

 

E o futuro?
Especialistas acreditam que a IA poderá, em 10–20 anos, ler sinais não-verbais via vídeo e integrar análise multimodal — e isso deve melhorar o suporte digital. Ainda assim, a conclusão do psiquiatra é direta: a pessoa precisa de pessoa. A confiança plena em “terapeutas Harry” sem regulação, supervisão humana e responsabilidade profissional é uma aposta perigosa para a saúde pública.



Convite para o próximo artigo da TVSaude.Org:
No próximo artigo, vamos explorar soluções práticas: como integrar chatbots seguros ao trabalho clínico, que regulamentações são necessárias e quais plataformas já testam modelos híbridos (humano + IA). Não perca.

Vídeos da notícia

Imagens da notícia

Tags: