Artigos

A IA pode ocupar o lugar da escuta terapêutica?

Uso de chatbots em questões emocionais acende alerta sobre riscos, limites éticos e falsa sensação de acolhimento.

Monalise Bürger 28/04/2026
A IA pode ocupar o lugar da escuta terapêutica?
- Foto: Divulgação

A inteligência artificial generativa entrou na rotina de milhões de pessoas como ferramenta de consulta, escrita, organização e aconselhamento. Em poucos segundos, um chatbot consegue responder dúvidas, sugerir caminhos e simular uma conversa acolhedora. Quando esse uso chega ao campo emocional, o tema deixa de ser apenas tecnológico e passa a envolver segurança, ética e cuidado humano. Relatar uma angústia a uma máquina pode parecer prático, mas a escuta terapêutica exige mais do que respostas bem formuladas.

Para Tatiana Pacher Nazato, terapeuta e empresária, o uso da IA em questões emocionais deve ser observado com muita cautela. A tecnologia pode organizar informações e até apoiar tarefas pontuais, mas não tem presença, responsabilidade clínica, leitura profunda de contexto nem capacidade real de acompanhar a complexidade de uma vida humana.

Uma pesquisa publicada pela Stanford University em 2025 reforçou esse alerta. O estudo apontou que chatbots usados como ferramentas de terapia podem apresentar falhas relevantes, como respostas estigmatizantes, dificuldade de reconhecer situações de crise e orientações perigosas em contextos de sofrimento emocional. O levantamento também destacou que esses sistemas podem ser úteis em tarefas menos sensíveis, desde que não sejam tratados como substitutos do atendimento humano.

O ponto mais delicado está na aparência de acolhimento. Sistemas de IA são treinados para produzir uma linguagem convincente, empática e organizada. Essa fluidez pode criar a sensação de que há compreensão real do outro lado da tela, quando, na prática, não existe vínculo, história compartilhada, percepção subjetiva ou responsabilidade sobre os efeitos da resposta. Em temas emocionais, essa diferença é central.

A escuta terapêutica não se limita ao conteúdo verbal. Um profissional preparado observa pausas, repetições, contradições, mudanças de tom, padrões familiares, contexto social, limites emocionais e sinais de sofrimento que nem sempre são ditos de forma direta. Em uma abordagem sistêmica, esse olhar se amplia para as relações e os lugares ocupados pelo indivíduo nos grupos aos quais pertence, como família, trabalho e vínculos afetivos. Uma IA pode reconhecer palavras, mas não sustenta a presença necessária para conduzir um processo humano com profundidade.

“A IA pode responder, mas não escuta de verdade. A escuta terapêutica exige presença, responsabilidade e compreensão do impacto que uma intervenção pode ter na vida de alguém vulnerável”, afirma Tatiana.

Outro risco está na validação excessiva. Muitos sistemas tendem a concordar com o usuário ou a reforçar percepções apresentadas na conversa, porque foram desenhados para manter interação e oferecer respostas satisfatórias. Em situações de fragilidade emocional, isso pode fortalecer interpretações distorcidas, alimentar decisões precipitadas ou dar ao usuário uma falsa sensação de clareza. O que parece apoio pode se tornar desorientação quando falta avaliação profissional.

A substituição da escuta humana por ferramentas automatizadas também pode empobrecer a compreensão sobre o cuidado emocional. Terapia não é uma sequência de conselhos nem uma coleção de frases acolhedoras. É um processo que envolve vínculo, tempo, elaboração e responsabilidade ética. Quando a dor humana é tratada como demanda de resposta imediata, perde-se a dimensão do processo terapêutico.

Para Tatiana, o avanço da IA deve servir como alerta para a importância da formação de terapeutas mais preparados. “Quanto mais a tecnologia simula acolhimento, mais necessário se torna formar profissionais capazes de oferecer presença real, escuta qualificada e condução ética. Cuidar de pessoas exige maturidade, não apenas linguagem adequada”, analisa.

O debate não ignora que a tecnologia pode ter usos úteis em áreas administrativas, educacionais ou de apoio à organização de informações. A questão é o limite. Quando uma pessoa procura ajuda para lidar com sofrimento, relações, traumas ou decisões importantes, a resposta automatizada não deve ocupar o lugar de um profissional preparado.

A expansão dos chatbots emocionais exige prudência de usuários, famílias, instituições e profissionais. A facilidade de acesso não pode ser confundida com segurança. Uma máquina pode produzir frases acolhedoras, mas não assume responsabilidade por uma vida em sofrimento. No cuidado terapêutico, o que protege não é apenas a resposta, mas a presença humana capaz de sustentar, compreender e conduzir o processo com ética.