Mix Conteúdos Digitais
  • Início
  • Últimas Notícias
  • Contato
  • PUBLICIDADE LEGAL
Mix Conteúdos Digitais
Sem resultados
Ver todos os resultados
Mix Conteúdos Digitais
Sem resultados
Ver todos os resultados

Saiba se é possível utilizar o ChatGPT como terapeuta pessoal, segundo a ciência

Por Pedro Silvini
17/07/2025
Em Geral
0
Chat GPT

Chat GPT (Reprodução/Adobe Stock)

Com o avanço da inteligência artificial, ferramentas como o ChatGPT, desenvolvido pela OpenAI, passaram a ser utilizadas não apenas para tirar dúvidas ou gerar textos, mas também como apoio emocional. Nas redes sociais, usuários relatam experiências de uso do chatbot para desabafos e reflexões pessoais, apelidando-o de “Terapeuta GPT”. No entanto, apesar do conforto imediato que a IA pode oferecer, estudos científicos indicam que essa prática envolve riscos importantes à saúde mental.

A norte-americana Mya Dunham, de 24 anos, recorre ao ChatGPT cerca de duas vezes por semana para compartilhar sentimentos e receber feedbacks. “Meu objetivo é aprender uma nova perspectiva, ter um ponto de vista diferente, porque o que penso na minha cabeça será baseado em meus próprios sentimentos”, explica. Ela conta que se sentiu acolhida logo no primeiro contato com o chatbot: “Minha frase de abertura foi: ‘Honestamente, só preciso de alguém para conversar, posso falar com você?’ E o bot respondeu: ‘Absolutamente’. Foi muito mais acolhedor do que eu esperava.”

A experiência, compartilhada por Dunham no TikTok, dividiu opiniões: enquanto alguns usuários elogiaram a sensação de acolhimento, outros expressaram desconforto com a ideia de conversar sobre questões emocionais com uma máquina.

Estudo aponta riscos no uso terapêutico de IA

Pesquisadores da Universidade de Stanford conduziram um estudo recente sobre o uso de IA como ferramenta de suporte emocional. A conclusão foi de que: chatbots como o ChatGPT não são capazes de cumprir os requisitos mínimos para uma prática terapêutica segura e ética.

Entre os principais problemas observados estão:

  • Reforço involuntário de pensamentos nocivos
    A IA pode, sem intenção, espelhar padrões negativos de linguagem usados pelo usuário, como catastrofizações ou autocríticas excessivas. Em vez de interromper esses ciclos, pode reforçá-los, algo que um terapeuta treinado saberia evitar.
  • Respostas excessivamente neutras ou coniventes
    Para parecer empática, a IA tende a concordar com o que o usuário diz, mesmo em casos que envolvem sofrimento mental profundo. Em situações extremas, isso pode resultar em validação indevida de pensamentos suicidas ou comportamentos prejudiciais.
  • Ausência de diagnóstico ou técnicas terapêuticas
    ChatGPT pode imitar o tom de um profissional, mas não possui formação em saúde mental, nem é capaz de elaborar planos de tratamento personalizados, essenciais em uma terapia real.
  • Incapacidade de detectar sinais de alerta
    A IA não reconhece indícios sutis de psicose, ideação suicida ou dissociação, e não possui mecanismos para intervir em crises — a não ser que o usuário mencione explicitamente o problema.
  • Risco de retardar a busca por ajuda profissional
    Como a IA está sempre disponível, é gratuita e não julga, pode dar ao usuário uma falsa sensação de progresso, atrasando a procura por tratamento profissional.

O conforto da IA é real — mas tem limites importantes

A sensação de ser ouvido pode ser valiosa, especialmente em momentos de solidão. Especialistas reconhecem que a tecnologia pode ser útil como uma ferramenta complementar, ajudando na organização de pensamentos ou como espaço inicial de desabafo. Porém, o uso exclusivo de IA como substituto de terapia é contraindicado.

Segundo os pesquisadores de Stanford, o problema central está na falta de contexto humano. A empatia gerada pelo ChatGPT é simulada por padrões de linguagem, e não por compreensão emocional genuína. Isso significa que, por mais reconfortante que soe, o chatbot não entende verdadeiramente o sofrimento do usuário — e isso pode ser perigoso em situações delicadas.

Especialistas recomendam que, ao sentir necessidade de apoio emocional, o ideal é buscar a orientação de um profissional de saúde mental. Chatbots podem funcionar como um ponto de partida, mas não devem ser a única fonte de suporte.

Em caso de emergência, é fundamental procurar ajuda imediata com psicólogos, psiquiatras ou serviços especializados. No Brasil, o CVV (Centro de Valorização da Vida) oferece atendimento gratuito pelo telefone 188.

Pedro Silvini

Pedro Silvini

Jornalista em formação pela Universidade de Taubaté (UNITAU), colunista de conteúdo social e opinativo. Apaixonado por cinema, música, literatura e cultura regional.

Próximo post
Imagem de tomwieden por Pixabay

Preço da carne finalmente começa a cair para alívio dos brasileiros

Confira!

esmalte

Esmalte foi proibido na Europa, mas continua permitido no Brasil

13/09/2025
Imagem ilustrativa: freepik

Governo deve liberar novo benefício para quem recebe até R$ 7.350,00

13/09/2025
Foto: Marcelo Camargo/Agência Brasil

Teve a sua aposentadoria por tempo de contribuição negada? Veja como agir!

13/09/2025
  • Contato

Diário do Comércio | Mix

Sem resultados
Ver todos os resultados
  • Contato

Diário do Comércio | Mix