De acordo com um levantamento realizado pela empresa de marketing digital Semrush, divulgado em 2024, o Brasil ocupa a 4ª posição no ranking de países que mais utilizam o ChatGPT, ficando atrás apenas dos EUA, Índia e Indonésia.
Em alguns casos, muitos usuários têm relatado nas redes sociais que utilizam a plataforma e outros assistentes de IA para realizar 'sessões de terapia'.
Essas pessoas têm buscado alternativas práticas e acessíveis para lidar com questões relacionadas à saúde mental.
Um exemplo veio da influenciadora brasileira Sarah Costa, que detalhou em seu TikTok como utiliza o ChatGPT para sessões de terapia.
Segundo a influencer, ela configurou o sistema para reconhecer comandos de voz e responder em português, criando uma experiência similar a uma conversa.
Além disso, Sarah mencionou que autorizou o ChatGPT a fazer perguntas, como forma tornar a terapia mais completa, além de pedir que o atendimento fosse mais 'humanizado'.
“Simplesmente fiz uma das melhores sessões de TCC (Terapia Cognitivo Comportamental) da minha vida, vocês não têm noção', contou a brasileira.
Segundo a influenciadora, a ideia surgiu durante uma noite de sono mal dormida: “Não tinha nada para fazer, resolvi testar.”
Em entrevista ao site Marie Claire, o ex-presidente do Conselho Federal de Psicologia (CFP), Antônio Virgílio Bastos, afirma que, principalmente após a pandemia de Covid-19, houve um aumento na procura por cuidados em saúde mental.
De acordo com dados da Organização Mundial da Saúde (OMS), antes da pandemia, aproximadamente 71% das pessoas ao redor do mundo que sofriam de transtornos mentais não tinham acesso a tratamentos ou qualquer tipo de acompanhamento.
Segundo o especialista, “muito esforço ainda é necessário para conscientização por tratamentos apoiados por evidências científicas e ofertados por profissional especializado”.
“A ausência deste esclarecimento leva a busca por terapias alternativas e a busca por terapia por chatbot acompanha esse movimento. Além disso, existe toda uma aura de novidade e próprio sucesso do ponto de vista recreativo destas ferramentas”, esclareceu.
Embora o uso de plataformas de IA para fins terapêuticos tenha ganhado destaque recentemente, a ideia não é nova. Nos anos 1960, por exemplo, foi desenvolvido um sistema ('Eliza') que tentava imitar um psicoterapeuta.
Embora a IA possa gerar respostas que parecem inteligentes, essa ferramenta ainda enfrenta limitações significativas, como padrões repetitivos e até alguns erros.
Esse tipo de comportamento, segundo especialistas, pode levar à frustração dos usuários, especialmente para aqueles que buscam ajuda psicológica pela primeira vez.
“Pode ser que essa pessoa acredite, por engano, que a experiência com IA seja igual a experiência que ela teria fazendo psicoterapia. Uma das principais preocupações que temos está relacionada a isso”, destacou o ex-presidente do CFP.
“Ser ouvido por alguém que potencialmente já passou ou poderia passar por algo semelhante ao que você vivencia faz diferença e pode inclusive ser uma dos motores do processo psicoterapêutico em algumas abordagens', acrescentou o especialista.
Segundo ele, 'uma IA jamais poderá sentir aquilo que apenas o corpo humano sente e tão logo, por mais que se pareça empática, não será de maneira fundamental”.
A psicoterapia se baseia na 'humanidade compartilhada', uma conexão genuína com as dores dos pacientes, algo que a IA não pode oferecer.
Segundo os especialistas, o processo terapêutico acolhe elementos imprevisíveis e subjetivos, tanto conscientes quanto inconscientes, que escapam aos padrões previsíveis dos modelos de IA.
No Brasil, ainda não existe regulamentação específica para o uso de IAs na psicoterapia ou em outras áreas. No cenário internacional, a regulamentação também está em estágio inicial.
Documentos como o relatório da OMS sobre ética e governança da IA destacam tanto os benefícios, como maior precisão em diagnósticos e gestão de sistemas de saúde, quanto os riscos, incluindo o uso antiético de dados e preconceitos nos algoritmos.
Em 2024, a União Europeia implementou a AI Act, que estabelece diretrizes para o uso ético e seguro da IA, inclusive na saúde.
No fim das contas, apesar de avanços, o uso de IA em atendimentos terapêuticos ainda carece de debates e regulamentações específicas, tanto no Brasil quanto internacionalmente.