Nas últimas semanas, a galera tem falado cada vez mais sobre um fenômeno: usar IAs como ChatGPT (ou similares) para desabafar, pensar em escolhas de vida, até discutir angústias profundas. É como se a máquina vira um tipo de “ouvinte digital”.

O que os dados dizem — e por que é pesado
Segundo a OpenAI, mais de 1 milhão de pessoas por semana teriam conversas com o ChatGPT envolvendo ideias suicidas ou planejamento de suicídio. Além disso, estimam-se “centenas de milhares” com sinais possíveis de crise psicótica ou mania durante interações.
A OpenAI também afirmou que reformulou seu modelo (chegou no GPT-5) depois de consultar cerca de 170 especialistas em saúde mental para que a IA reconheça mais sinais de sofrimento e redirecione a pessoa para suporte real.
Esses números são, sim, confiáveis no sentido de que vêm da própria OpenAI — ainda não são dados clínicos independentes, mas são um sinal alarmante de que muitas pessoas estão buscando essa “ouvidoria digital” em momentos de angústia.
O que a psicanálise tem a dizer
Do ponto de vista freudiano, a psicanálise se baseia em algo fundamental: a transferência — ou seja, o paciente projeta no analista suas fantasias, ansiedades, seu inconsciente. Freud já dizia que é nessa repetição, nesse reencontro com os fantasmas internos, que ocorre o trabalho terapêutico profundo.
Mas e a IA? Um algoritmo não tem inconsciente, mortalidade, desejo, corpo — não tem essa densidade psíquica. Tem gente, inclusive, na comunidade psicanalítica que argumenta que IAs podem ajudar em triagens ou dar suporte, mas nunca vão substituir a clínica: faltam responsabilidade, compromisso ético, a disponibilidade de estar presente nos silêncios, nos lapsos, nos acasos.
Lacan, por sua vez, adiciona: a direção da cura não é só aliviar o sofrimento, mas orientar para a ética do desejo — o analista ocupa uma posição simbólica (o sujeito-suposto-saber) para permitir que o sujeito caia nesse saber ao longo da análise. Um chatbot não pode “sustentar” essa posição com a mesma densidade, porque não há desejo humano real ali.
Os riscos éticos
Um artigo recente na Revista Pesquisa Qualitativa aborda justamente isso: chatbots ou IAs usados como terapeutas levantam riscos afetivos sérios — falta de confiabilidade, responsabilidade, validação emocional. Também há preocupações sobre dependência emocional: pessoas acabam “se apegando” demais à IA, o que pode agravar isolamento, em vez de ajudar genuinamente.
Segundo a psicanálise, parte do processo terapêutico é lidar com o vazio, com o não-saber — algo que a máquina tende a reduzir, porque calcula, prediz, dá respostas plausíveis, mas não vivencia a incerteza como um analista humano.
Um uso “híbrido” que faz sentido
Não estou dizendo que IAs são vilãs, pois muitas pessoas veem nelas uma forma de apoio acessível, especialmente se não têm acesso a terapia tradicional por questões financeiras, ou até por ainda não ter tido o impulso necessário para iniciar um processo de análise. Pesquisas em psicologia mostram que modelos de linguagem (LLMs) podem ajudar no rastreamento de riscos, no fornecimento de conselhos simples e até em intervenções leves.
Em alguns casos, a IA pode auxiliar o terapeuta humano identificando padrões, sugerindo temas, mas sem substituir a escuta profunda e a interpretação singular.
O que podemos concluir
É um tanto preocupante ver como as pessoas estão usando a IA para falar de saúde mental. É um sintoma da nossa época — da solidão, da busca por acolhimento imediato, da democratização do cuidado. Não podemos esquecer que o processo de análise pede algo além da resposta rápida: pede escuta, repetição, risco, desejo.
A IA pode ser aliada, pode servir de ponto de partida, mas não pode (e não deve) assumir todo o trabalho da análise — porque, no fundo, a análise é sobre o sujeito, suas feridas, suas repetições, sua linguagem única. E isso, por enquanto, nem o mais avançado dos algoritmos pode replicar por completo.
Por Karyna Boano
Psicóloga e Psicanalista