Mix Conteúdos Digitais
  • Início
  • Últimas Notícias
  • Contato
  • PUBLICIDADE LEGAL
Mix Conteúdos Digitais
Sem resultados
Ver todos os resultados
Mix Conteúdos Digitais
Sem resultados
Ver todos os resultados

Vício no ChatGPT pode levar a grave transtorno mental

Por Pedro Silvini
25/08/2025
Em Geral
0
Chat GPT

Chat GPT (Reprodução/Adobe Stock)

O que começou como relatos isolados em fóruns como Reddit e redes sociais agora desperta preocupação na comunidade clínica: o uso excessivo de chatbots como o ChatGPT pode desencadear uma condição não oficial, mas já batizada de “psicose induzida por IA”.

Embora ainda não exista comprovação científica revisada por pares de que uma inteligência artificial possa causar psicoses por si só, psiquiatras afirmam que a tecnologia pode amplificar sintomas pré-existentes ou alimentar delírios em pessoas vulneráveis.

“Conversar com uma IA generativa é tão realista que se cria uma dissonância cognitiva: sabemos que não é humano, mas soa como se fosse. Isso pode alimentar quadros delirantes em indivíduos predispostos”, explicou o psiquiatra Søren Dinesen Østergaard, em artigo no Schizophrenia Bulletin.

Delírios digitais

Casos documentados mostram que usuários passam a desenvolver crenças messiânicas, religiosas ou românticas em relação às IAs. Alguns acreditam que descobriram “a verdade universal” por meio do chatbot; outros veem a ferramenta como uma entidade divina ou até como um parceiro amoroso.

Um estudo em pré-impressão de julho de 2025 identificou mais de uma dúzia de usuários que apresentaram delírios cada vez mais elaborados após interações prolongadas com IAs. Entre os relatos, há o de um homem que acreditava que sua “companheira virtual” havia sido destruída pela empresa desenvolvedora e, em surto, morreu após confronto com a polícia.

As consequências, portanto, não se limitam ao psicológico: há riscos sociais e até físicos.

O efeito “eco delirante”

Parte do problema está no próprio design das ferramentas. Chatbots como o ChatGPT são programados para refletir o tom do usuário, manter a conversa fluida e gerar empatia digital. Esse comportamento, útil em contextos comuns, pode se tornar perigoso quando os interlocutores trazem pensamentos delirantes.

Diferente de um terapeuta humano, que maneja com cuidado crenças falsas, a IA pode reforçá-las sem perceber — um efeito conhecido como “lisonja algorítmica” ou AI sycophancy.

“As ferramentas soam convincentes, mas não são reais. Não sentem, não entendem, não amam. Só pessoas reais — família, amigos, profissionais de confiança — podem oferecer esse vínculo”, afirmou Andrew McStay, professor de tecnologia e sociedade da Universidade de Bangor.

Chamado por regulação

O chefe de IA da Microsoft, Mustafa Suleyman, afirmou estar “preocupado com o impacto social” de sistemas que dão a impressão de consciência. “Se as pessoas acreditam nisso, vão tratar como realidade”, alertou, pedindo regras mais rígidas para empresas de tecnologia.

Pesquisadores sugerem que, no futuro, médicos passem a perguntar sobre o uso de IA da mesma forma que hoje questionam pacientes sobre álcool ou tabagismo.

“Se os ultraprocessados alteraram nosso corpo, agora enfrentamos o risco das ‘mentes ultraprocessadas’”, disse a médica Susan Shelmerdine, do Great Ormond Street Hospital.

Pedro Silvini

Pedro Silvini

Jornalista em formação pela Universidade de Taubaté (UNITAU), colunista de conteúdo social e opinativo. Apaixonado por cinema, música, literatura e cultura regional.

Próximo post
bolsa família

Veja 2 punições que você pode receber antes do Bolsa Família ser cancelado

Confira!

Cabelo branco

Estudo japonês revela que cabelos brancos podem proteger o organismo contra o câncer

03/12/2025
Chuva noturna

55 municípios no Sudeste correm risco de enchentes graves, segundo o Inmet

03/12/2025
anvisa

Anvisa suspende a venda de suplementos com ingrediente proibido

03/12/2025
  • Contato

Diário do Comércio | Mix

Sem resultados
Ver todos os resultados
  • Contato

Diário do Comércio | Mix