Usar IA para tratar saúde mental pode agravar quadro: ‘informações falsas, diagnósticos equivocados’ – Ceará

Leia em 9 minutos

Você pega o celular, abre um aplicativo e desabafa; em resposta, chegam conselhos ou dicas para resolver o seu problema. Esse tipo de interação tem saído de conversas privadas com um amigo de confiança ou com um grupo de pessoas íntimas e ganhado um novo interlocutor: a inteligência artificial (IA). É fácil encontrar, nas redes sociais, relatos de quem usou uma IA para fazer “terapia”, inclusive ensinando comandos para ela agir como um psicólogo. Mas especialistas chamam atenção para vieses e erros dessas ferramentas.

A psicóloga Aline Duarte Kristensen, especialista em Terapia Cognitivo-Comportamental pelo Beck Institute, nos Estados Unidos, já ouviu relatos de pacientes que utilizam ferramentas de IA como apoio em situações específicas, para fazer uma pergunta ou tirar uma dúvida.

Autora do livro “A relação terapêutica nas terapias cognitivo-comportamentais”, a psicóloga participou do Brain Congress 2025 – Congresso de Cérebro, Comportamento e Emoções, realizado no Centro de Eventos do Ceará, em Fortaleza, entre 18 e 21 de junho. Na programação, ela compôs a mesa redonda intitulada “Você poderia me ajudar, Dr. Chat GPT? O presente e o futuro da IA nas psicoterapias”.

Para pessoas acompanhadas por psicólogos, Aline Duarte Kristensen pontua que ferramentas de IA podem ser vistas como um complemento sem apresentar tanto perigo. “Percebemos que isso já tem acontecido e, estando em acompanhamento profissional, eles acabam tendo mais discernimento do tipo de resposta que esses aplicativos dão”, explicou a psicóloga, em entrevista ao Diário do Nordeste.

Veja também


Mas em casos mais graves, o uso de IA “definitivamente” não é recomendado, pelo risco de piorar o quadro. “A pessoa que está em uma situação grave está muito vulnerável, o senso crítico dela está prejudicado e ela não vai ter discernimento se aquela informação que a inteligência artificial está oferecendo é confiável ou não”, alerta.

De acordo com Aline, pesquisas já sugerem erros nas decodificações, inclusive reforçando ideias delirantes e planos de autolesão ou lesão para o outro. A indicação é buscar serviços de emergência em saúde mental.

“Nessas horas, realmente é só um outro ser humano que vai se importar com ele (o paciente) enquanto ser humano. E não uma máquina que, de fato, não sente, não se importa e funciona com programação de algoritmos”, destaca.

Riscos e potenciais benefícios

Em tratamentos híbridos, Aline explica que essas ferramentas podem funcionar como um auxílio para educação em saúde mental ou intervenção em momentos de ansiedade — como os aplicativos de meditação. “Nesse caso, tem estudos que sinalizam que potencializa em até 30% a melhora dos pacientes, quando associados com uma psicoterapia convencional”, afirma. Por outro lado, têm menor eficácia quando utilizadas sozinhas.

Mas os problemas continuam: não há regulamentação para esse uso, e a psicóloga alerta que não há garantia de proteção de dados e nem de que as informações fornecidas são corretas.

Eles (os modelos de IA) alucinam, dão informações falsas, diagnósticos equivocados. Então, não são recomendados atualmente, justamente porque a gente ainda não tem uma regulamentação e não tem confiança nesses algoritmos para oferecer essa alternativa com segurança para o usuário. É importante que as pessoas tenham muito cuidado, que possam olhar para esses aplicativos com curiosidade, mas não com confiança. A confiabilidade é muito baixa, pelo que temos em pesquisa publicada no mundo hoje.


Aline Duarte Kristensen

Psicóloga especialista em Terapia Cognitivo-Comportamental

“Cada vez mais têm chegado avaliações (psicológicas) feitas pelo ChatGPT. Há um fascínio das pessoas por essas ferramentas, mas muitas informações não têm validação científica”, corrobora a professora do Departamento de Psicologia da Universidade Federal do Rio Grande do Norte (UFRN) e vice-presidente da Sociedade Brasileira de Psicologia (SBP), Katie Almondes.

Também participante do Brain Congress 2025, a professora ministrou uma palestra sobre como melhorar a qualidade das avaliações e laudos neuropsicológicos. Ela apontou o acesso desigual e o viés do algoritmo como “armadilhas”, porque levam a “injustiças cognitivas”. “As IAs não observam as minorias, não eliminam o viés humano: podem replicá-lo ou ampliá-lo”, defendeu.

Veja também


Ferramentas de inteligência artificial gerativas, como o ChatGPT, são treinadas com uma grande quantidade de dados para aprender a linguagem humana e criar novos conteúdos — como conversas e resumos de textos ou até imagens e músicas — a partir de cálculos matemáticos.

“Matematicamente, a modelagem generativa calcula a probabilidade de x e y ocorrerem juntos. Ele aprende a distribuição de diferentes recursos de dados e seus relacionamentos”, segundo explicação no site da AWS, plataforma da Amazon.

Como “banco de dados daquilo que é publicado em vários artigos”, segundo Katie Almondes, essas plataformas criam a resposta com base em informações já existentes, à medida que o usuário faz perguntas.

Mas, segundo a docente, esses questionamentos não traduzem a demanda clínica de um paciente e muitas vezes o conteúdo é baseado em amostras específicas, norte-americanas, sem levar em conta a realidade brasileira.

“Como uma inteligência dessa vai gerar uma avaliação e dizer ‘você tem um transtorno assim’? Impossível”, afirmou a vice-presidente da SBP, em entrevista ao Diário do Nordeste.

Aline Duarte Kristensen acrescenta que, na psicoterapia, a relação terapêutica estabelecida entre o profissional e o paciente é o principal preditor dos resultados. Com as ferramentas de IA, essa relação terapêutica é simulada para imitar empatia e vínculo.

“No entanto, já sabemos, por meio de pesquisas, que o vínculo projetado pelo ser humano nas máquinas é muito inferior ao vínculo humano genuíno. Nada substitui a relação humana também nas psicoterapias”, afirma.

Com isso, “no melhor dos casos”, a psicóloga explica que as IAs conseguem oferecer um aconselhamento prático, genérico, e ainda assim precisa de ponderação por parte de um profissional. “Para psicoterapia, ainda tem muito pouca evidência de que os resultados sejam efetivos”, destaca.

A despeito dos diagnósticos “inadequados”, Katie Almondes destaca que essas ferramentas podem servir para alertar os usuários sobre a necessidade de procurar um profissional especializado, com conhecimento técnico. “São anos de dedicação que não podem ser substituídos por uma consulta ao ChatGPT.”

Veja também


Danos sociais

O uso dessas ferramentas de inteligência artificial, para Aline Duarte Kristensen, refletem uma mudança mundial de padrões relacionais provocada pela tecnologia, cujos impactos ainda são difíceis de prever.

Ela defende um uso ponderado de ferramentas tecnológicas, para que os efeitos benéficos e os prejuízos para a população possam ser observados ao longo do tempo. “Mas eles têm um problema: eles viciam. A tecnologia vicia, ela modifica o funcionamento do nosso cérebro”, alerta.

A psicóloga destaca que muitos casos de depressão e ansiedade, em nível global, são consequências do excesso do uso da tecnologia e do empobrecimento das relações humanas. Com isso, o uso de IA e outras ferramentas tecnológicas para tratar saúde mental pode trazer alívio no curto prazo, mas posterior cronificação do quadro que se busca resolver. 

“Nós precisamos usar as máquinas enquanto máquinas, e não enquanto substitutos de humanos. Quando conseguirmos definir os limites das máquinas e resgatarmos aquilo que é do ser humano, da sua essência, estaremos resgatando a nossa saúde mental”, finaliza.

Compartilhe esta notícia