Uso oculto de inteligência artificial em sessões terapêuticas gera alerta sobre confiança, privacidade e ética profissional.
O vínculo entre paciente e terapeuta sempre foi sustentado pela confiança. No entanto, relatos publicados em veículos internacionais como The Guardian e MIT Technology Review apontam que alguns profissionais de saúde mental e coaches já recorrem secretamente a ferramentas de inteligência artificial, como o ChatGPT, para conduzir sessões.
O problema não está apenas no uso da tecnologia, mas na falta de transparência. Em um ambiente onde a confidencialidade é essencial, a ideia de que respostas ou reflexões possam estar sendo terceirizadas para uma máquina levanta sérias questões éticas.
Em outras profissões — como advocacia, jornalismo ou marketing — a inteligência artificial já se consolidou como apoio legítimo, desde que usada com clareza perante clientes e público. Mas na psicoterapia, onde a presença humana e a escuta empática são fundamentais, o impacto é bem mais delicado.
Vale lembrar que a IA não substitui a empatia. Ela pode organizar dados, estruturar argumentos e até sugerir frases, mas não compreende emoções, não acolhe silêncios e não assume responsabilidade sobre os efeitos de suas respostas.
Diante disso, surgem questões cruciais:
Estaríamos diante de um novo código de ética profissional?
O paciente deve ser informado sempre que a IA for utilizada?
Em que momento o apoio tecnológico deixa de ser recurso e passa a ser fraude?
O futuro da saúde mental pode ser moldado por essas escolhas. Cabe ao leitor refletir: você confiaria em um terapeuta que divide a condução da sessão com uma inteligência artificial sem lhe contar?