Chatbots Terapêuticos: até onde podem ir sem substituir o psicólogo?

Publicado por: Feed News
14/10/2025 22:00:00
Exibições: 24
Ferramentas baseadas em IA estão sendo testadas para apoiar o tratamento psicológico — mas os especialistas alertam: empatia humana ainda é insubstituível. / Ideia
Ferramentas baseadas em IA estão sendo testadas para apoiar o tratamento psicológico — mas os especialistas alertam: empatia humana ainda é insubstituível. / Ideia

A nova fronteira da terapia digital levanta uma questão ética essencial: até que ponto um programa pode ouvir, compreender e ajudar um ser humano?

 

A ideia de conversar com um robô sobre sentimentos já não é ficção científica. Chatbots terapêuticos como Woebot, Wysa, Replika e Therapist.AI estão ganhando espaço entre usuários que buscam conforto emocional, motivação ou simplesmente alguém — ou algo — que os escute. Mas a ascensão desses assistentes levanta um debate importante: a inteligência artificial pode, de fato, substituir um psicólogo?

 

Para a maioria dos especialistas, a resposta é não — e provavelmente jamais poderá.
Embora os chatbots usem algoritmos de processamento de linguagem natural capazes de simular empatia, eles não possuem consciência, contexto emocional nem responsabilidade ética. São ferramentas úteis, especialmente para apoio complementar entre sessões de terapia ou para acesso rápido em momentos de angústia leve, mas não substituem o acompanhamento humano.

 

Os avanços positivos

Segundo estudos da Harvard Medical School e da American Psychological Association, programas de IA já mostraram potencial para reduzir sintomas leves de depressão e ansiedade em usuários que os utilizam como suporte. Eles ajudam a estimular o autoconhecimento e registrar padrões de pensamento, algo valioso para profissionais que analisam a evolução de seus pacientes.

 

Além disso, a IA pode atuar como ferramenta de triagem, detectando palavras e emoções que indiquem necessidade de ajuda profissional urgente — o que tem salvado vidas em casos de risco de suicídio.

 

Mas há riscos

Ao mesmo tempo, o uso excessivo desses sistemas pode gerar dependência emocional, autoengano terapêutico e substituição de vínculos humanos por interações artificiais. O chatbot não reconhece nuances do sofrimento nem percebe quando está diante de um caso grave.
Em situações de trauma, luto profundo ou transtornos complexos, confiar apenas em um robô pode atrasar o tratamento e agravar o quadro.

O Royal College of Psychiatrists recomenda que todo uso de IA em terapia seja supervisionado por um profissional habilitado e que os aplicativos alertem claramente os usuários de que não se trata de uma relação terapêutica formal.

 

O papel do psicólogo no futuro digital

Em vez de competir com a IA, os especialistas defendem que o psicólogo aprenda a integrá-la eticamente ao processo terapêutico, usando-a para ampliar o alcance da psicologia. A tecnologia pode coletar dados, acompanhar estados de humor e apoiar o paciente — mas a escuta, o acolhimento e o julgamento clínico continuam sendo humanos por essência.

Como resume o neuropsicólogo canadense Paul D. Wicks:

“A empatia não é uma função que se programa — é uma experiência que se compartilha.”

 

 

Convite para o próximo artigo exclusivo da TVSaude.Org:

No próximo especial da série:
“A era da empatia artificial: até onde a IA pode compreender as emoções humanas?”
Uma análise profunda sobre o limite entre simular sentimentos e realmente entendê-los.

Vídeos da notícia

Imagens da notícia

Tags: