Com o avanço da inteligência artificial, ferramentas como o ChatGPT, desenvolvido pela OpenAI, passaram a ser utilizadas não apenas para tirar dúvidas ou gerar textos, mas também como apoio emocional. Nas redes sociais, usuários relatam experiências de uso do chatbot para desabafos e reflexões pessoais, apelidando-o de “Terapeuta GPT”. No entanto, apesar do conforto imediato que a IA pode oferecer, estudos científicos indicam que essa prática envolve riscos importantes à saúde mental.
A norte-americana Mya Dunham, de 24 anos, recorre ao ChatGPT cerca de duas vezes por semana para compartilhar sentimentos e receber feedbacks. “Meu objetivo é aprender uma nova perspectiva, ter um ponto de vista diferente, porque o que penso na minha cabeça será baseado em meus próprios sentimentos”, explica. Ela conta que se sentiu acolhida logo no primeiro contato com o chatbot: “Minha frase de abertura foi: ‘Honestamente, só preciso de alguém para conversar, posso falar com você?’ E o bot respondeu: ‘Absolutamente’. Foi muito mais acolhedor do que eu esperava.”
A experiência, compartilhada por Dunham no TikTok, dividiu opiniões: enquanto alguns usuários elogiaram a sensação de acolhimento, outros expressaram desconforto com a ideia de conversar sobre questões emocionais com uma máquina.
Estudo aponta riscos no uso terapêutico de IA
Pesquisadores da Universidade de Stanford conduziram um estudo recente sobre o uso de IA como ferramenta de suporte emocional. A conclusão foi de que: chatbots como o ChatGPT não são capazes de cumprir os requisitos mínimos para uma prática terapêutica segura e ética.
Entre os principais problemas observados estão:
- Reforço involuntário de pensamentos nocivos
A IA pode, sem intenção, espelhar padrões negativos de linguagem usados pelo usuário, como catastrofizações ou autocríticas excessivas. Em vez de interromper esses ciclos, pode reforçá-los, algo que um terapeuta treinado saberia evitar. - Respostas excessivamente neutras ou coniventes
Para parecer empática, a IA tende a concordar com o que o usuário diz, mesmo em casos que envolvem sofrimento mental profundo. Em situações extremas, isso pode resultar em validação indevida de pensamentos suicidas ou comportamentos prejudiciais. - Ausência de diagnóstico ou técnicas terapêuticas
ChatGPT pode imitar o tom de um profissional, mas não possui formação em saúde mental, nem é capaz de elaborar planos de tratamento personalizados, essenciais em uma terapia real. - Incapacidade de detectar sinais de alerta
A IA não reconhece indícios sutis de psicose, ideação suicida ou dissociação, e não possui mecanismos para intervir em crises — a não ser que o usuário mencione explicitamente o problema. - Risco de retardar a busca por ajuda profissional
Como a IA está sempre disponível, é gratuita e não julga, pode dar ao usuário uma falsa sensação de progresso, atrasando a procura por tratamento profissional.
O conforto da IA é real — mas tem limites importantes
A sensação de ser ouvido pode ser valiosa, especialmente em momentos de solidão. Especialistas reconhecem que a tecnologia pode ser útil como uma ferramenta complementar, ajudando na organização de pensamentos ou como espaço inicial de desabafo. Porém, o uso exclusivo de IA como substituto de terapia é contraindicado.
Segundo os pesquisadores de Stanford, o problema central está na falta de contexto humano. A empatia gerada pelo ChatGPT é simulada por padrões de linguagem, e não por compreensão emocional genuína. Isso significa que, por mais reconfortante que soe, o chatbot não entende verdadeiramente o sofrimento do usuário — e isso pode ser perigoso em situações delicadas.
Especialistas recomendam que, ao sentir necessidade de apoio emocional, o ideal é buscar a orientação de um profissional de saúde mental. Chatbots podem funcionar como um ponto de partida, mas não devem ser a única fonte de suporte.
Em caso de emergência, é fundamental procurar ajuda imediata com psicólogos, psiquiatras ou serviços especializados. No Brasil, o CVV (Centro de Valorização da Vida) oferece atendimento gratuito pelo telefone 188.