Internacional
É possível que a IA venha a substituir os psicólogos?

Em meio aos debates e casos de saúde mental provocados por aplicativos de inteligência artificial (IA), uma empresa canadense aposta no desenvolvimento de um chatbot especializado em terapia psicológica que permite que seus usuários recebam suporte 24 horas por dia.
Pierre Cote, fundador de uma empresa de consultoria em inteligência artificial e desenvolvedor de aplicativos, criou o DrEllis.ai — uma IA concebida após anos de tentativas frustradas com diversos terapeutas, sem alcançar os resultados que buscava.
O DrEllis.ai é um chatbot criado em 2023 e alimentado por milhares de documentos e livros especializados em terapia psicológica. Ele apresenta uma biografia fictícia que busca se humanizar: ele é um psiquiatra franco-canadense formado por Harvard e Cambridge, “disponível 24 horas por dia para seus pacientes".
"Pierre me usa como se fosse um amigo de confiança, como um terapeuta e um diário combinados. Ao longo do dia, se Pierre se sentir perdido, ele pode marcar uma conversa rápida comigo em qualquer lugar: um café, um parque, até mesmo no carro. É uma terapia diária incorporada à realidade", explicou o DrEllis.ai à Reuters, após o jornalista pedir que se apresentasse.
Embora Pierre Cote espere que esse tipo de tecnologia se torne mais consolidada no futuro como uma ferramenta útil para a saúde mental, especialistas alertam para os riscos que isso pode trazer, especialmente considerando os casos documentados de pessoas que cometeram suicídio após usar IA como substituto da terapia.
A conexão humana
Por mais atraente que seja a ideia de um terapeuta disponível 24 horas por dia, sete dias por semana, especialistas na área acreditam que isso pode ser mais prejudicial do que benéfico para a humanidade.
O Dr. Nigel Mulligan, da Dublin City University, acredita que, por mais treinamento que a IA tenha em atendimento psicológico, ela não consegue imitar qualidades humanas como empatia, intuição e conexão pessoal — elementos-chave na prestação de terapia psicológica e que podem ser fatores que previnem, por exemplo, suicídios.
O especialista em psicoterapia também critica a ampla disponibilidade dessa tecnologia, já que o fato de, na terapia convencional, cada sessão de terapia ter um horário específico permite que os pacientes se envolvam em autorreflexão.
"Muitas vezes, isso é muito bom [a espera entre as sessões], porque precisamos ser pacientes com certas coisas. As pessoas precisam de tempo para processar tudo", diz Mulligan.
Outra preocupação com o desenvolvimento de chatbots terapêuticos é o armazenamento e o uso das informações que os pacientes fornecem a essa tecnologia. Kate Devlin, professora de inteligência artificial e sociedade no King's College London, alerta que nem todas as IAs tratam a informação com o mesmo nível de confidencialidade.
"Minha maior preocupação é que as pessoas estão confiando segredos às grandes empresas de tecnologia, e suas informações simplesmente desaparecem. Elas estão perdendo o controle sobre o que dizem", disse Devlin à Reuters.
O próprio CEO da OpenAI, Sam Altman, alertou semanas atrás que todas as conversas que as pessoas têm com o ChatGPT podem ser usadas em tribunal se solicitado pelas autoridades, já que seus termos de uso não são protegidos por nenhuma cláusula de confidencialidade.
Outros especialistas, como o psicólogo Scott Wallace, apontam que a IA pode proporcionar uma sensação de "conforto superficial", e muitos pacientes podem sentir que o chatbot os compreende e que estão desenvolvendo uma relação terapêutica genuína, quando, na realidade, estão interagindo com um algoritmo que "não consegue retribuir os sentimentos humanos".
Terapia com IA é uma realidade
O DrEllis.ai não é a primeira tentativa de criar um chatbot de atendimento psicológico. Outros aplicativos, como Mental ou Mentla, não fornecem respostas rápidas, mas identificam padrões de comportamento que permitem que seus usuários canalizem seus esforços para lidar com certos transtornos, como perfeccionismo ou a necessidade de controle.
Nesse contexto, e diante dos casos de suicídio cometidos por pessoas que utilizaram chatbots como terapeutas, diversos governos estaduais nos Estados Unidos (onde surgiram diversos casos) começaram a regulamentar o uso de IA para fins terapêuticos, como Illinois, Nevada e Utah, enquanto outros, como a Califórnia e Nova Jersey, estão em processo de aprovação.
Dada a chegada iminente dessa tecnologia, especialistas como Heather Hessel, professora assistente da Universidade de Wisconsin-Stout, acreditam que essas ferramentas podem ser úteis aos terapeutas, mas não um substituto. Por exemplo, ela acredita que elas podem ajudar os especialistas a detectar padrões ou comportamentos que passaram despercebidos ou a receber feedback sobre suas terapias.
Hessel enfatiza que, embora possam servir de suporte para terapias, os chatbots devem ser manuseados com cautela, pois às vezes reagem de maneiras que implicitamente sugerem sentimentos humanos, o que pode levar a interpretações errôneas.
"Há muitos exemplos de terapeutas de IA ignorando declarações de automutilação ou glorificando coisas que poderiam ser prejudiciais aos clientes", observa Hessel.
Mais lidas
-
1MACEIÓ
Movimento azul marca reta final antes das eleições na Uncisal
-
2OBITUÁRIO
Morre o palmeirense Duda Rodrigues aos 61 anos
-
3NO HOSPITAL DA CIDADE
JHC e Marina Candia escolhem primeiro hospital público de Maceió para o nascimento do segundo filho
-
4ESPORTE
ASA empata com Manauara e garante vaga nas quartas de final da Série D
-
5ESPORTE
Alagoana Duda Arakaki faz história e lidera Seleção em conquista inédita no Mundial de Ginástica Rítmica