Nos últimos anos, a inteligência artificial na terapia passou a fazer parte da nossa rotina. De assistentes virtuais a diagnósticos médicos, a tecnologia agiliza processos e oferece respostas rápidas. Mas quando o assunto é emoção, dá para encontrar acolhimento real em uma máquina?
IA na terapia: apoio tecnológico ou fuga emocional?
Uma pesquisa da Talk Inc de 2024 mostrou que 1 em cada 10 brasileiros já recorreu a um chatbot de IA para desabafar, pedir conselhos ou simular uma conversa terapêutica. Esse uso não é isolado: o Brasil ocupa a 4ª posição no ranking global de uso do ChatGPT, atrás apenas dos EUA, Índia e Indonésia (forbes.com.br).
Esses sistemas seduzem. Eles funcionam 24h por dia, respondem com gentileza, não julgam e ainda guardam seus dados. Por trás dessa eficiência, no entanto, cresce uma realidade preocupante: a solidão. A fundadora da Talk Inc relaciona esse comportamento ao isolamento social e à dificuldade de criar vínculos humanos reais.
Solidão digital: um fenômeno crescente e preocupante
Esse alerta já circula há algum tempo. Em 2023, a OMS classificou a solidão como prioridade de saúde global, destacando seus impactos físicos e mentais: aumento do risco de doenças cardiovasculares, declínio cognitivo e até demência (cnnbrasil.com.br). Um estudo comparou seus efeitos aos de fumar 15 cigarros por dia.
Antes da pandemia, a própria OMS já apontava que cerca de 71% da população mundial com transtornos mentais não recebia tratamento adequado. A falta de acesso, somada ao avanço da tecnologia e à urgência por alívio emocional, fez muitas pessoas buscarem na IA um substituto para o cuidado profissional.
O que a IA não consegue fazer: escutar com empatia real
Essa busca não é nova. Na década de 1960, o programa Eliza já simulava diálogos terapêuticos com base na psicologia humanista de Carl Rogers. Mesmo com limitações óbvias, algumas pessoas acreditavam que estavam sendo ouvidas por um psicólogo. Hoje, a ideia de um “terapeuta perfeito” – sempre disponível, que não confronta e parece compreender tudo – continua fascinante.
É compreensível. Vivemos cercados por estímulos, agendas cheias e escassez de conversas significativas. Quando a dor aperta, a tecnologia se oferece como companhia – mesmo que seja apenas uma simulação.
No entanto, ouvir não é o mesmo que compreender. Um algoritmo pode reconhecer padrões e sugerir respostas plausíveis, mas compreender exige história, nuance, presença. E é justamente essa presença – sensível, humana, imperfeita – que torna a psicoterapia tão potente.
Leia mais: Entenda o que é felicidade
Psicoterapia é vínculo humano – e isso não se replica
A Associação Brasileira de Psicanálise alerta: nenhum robô substitui a escuta qualificada e o olhar atento de um terapeuta. A psicoterapia não segue um roteiro previsível. Ela acolhe silêncios, gestos, resistências e dores que nem sempre se nomeiam. Enquanto isso, a IA replica o que já conhece – e não acessa o que transforma.
Ainda assim, 60% das pessoas que usam IA dizem conversar como se estivessem falando com um ser humano. Isso mostra o tamanho do vazio e a força do desejo de conexão. Mas não podemos romantizar soluções tecnológicas para problemas emocionais tão profundos.
A tecnologia pode apoiar, sim. Ela facilita o agendamento de sessões, amplia o acesso remoto e organiza prontuários. No entanto, o cuidado emocional continua sendo humano. Sentir-se acolhido requer mais do que respostas corretas – exige escuta, vínculo e presença verdadeira.
Onde está a regulação da IA na saúde mental?
Além disso, não há hoje regulamentação no Brasil específica sobre o uso de IA em contextos terapêuticos. A legislação vigente – como o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD) – trata da proteção de dados, mas não cobre as implicações éticas e clínicas do uso da tecnologia em cuidados psicológicos. Já na Europa, a AI Act, aprovada em 2024, começa a estabelecer diretrizes para o uso ético da IA na saúde – mas ainda há um longo caminho até que esse uso seja considerado seguro e adequado em escala global.
Tecnologia deve ser apoio, não substituição
Portanto, é importante reforçar que a tecnologia pode – e deve – ser aliada dos profissionais de saúde mental. Ainda assim, quando falamos em IA na terapia, é fundamental entender seus limites. Mas jamais deve ser vista como substituta do cuidado humano. A terapia exige escuta ativa, empatia real, intervenção estratégica, olhar clínico e presença – coisas que nenhuma máquina, por mais inteligente que seja, será capaz de oferecer.
A pergunta que fica é: estamos mesmo interessados em cuidar da nossa saúde mental ou apenas tentando silenciar nossas dores com respostas rápidas?
Como a CARE combina tecnologia com acolhimento humano
Aqui na CARE, a gente entende que cuidar da saúde mental é um processo que pede presença, escuta e sensibilidade. Por isso, nossos Programas de Apoio ao Empregado foram pensados para oferecer acolhimento de verdade – com psicólogos experientes, que escutam sem pressa e com ética, seja presencialmente, por teleatendimento ou de forma online. Utilizamos tecnologias como ferramentas que potencializam o cuidado, mas nunca como substitutos da escuta humana. A IA pode até sugerir palavras, mas são os profissionais de saúde mental quem acolhem silêncios.
Aliás, este texto foi revisado com o apoio de uma inteligência artificial – mas foi pensado, escrito e organizado por pessoas, com sensibilidade e propósito. Porque mesmo na era digital, ainda é preciso alguém por trás do teclado para dar tom, contexto e sentido ao que realmente importa.
Confira nosso editorial Minha Vida para mais insights e dicas que podem facilitar sua jornada. Este conteúdo foi elaborado pela equipe da CARE, pensando em melhorar o seu bem-estar.