O que começou como relatos isolados em fóruns como Reddit e redes sociais agora desperta preocupação na comunidade clínica: o uso excessivo de chatbots como o ChatGPT pode desencadear uma condição não oficial, mas já batizada de “psicose induzida por IA”.
Embora ainda não exista comprovação científica revisada por pares de que uma inteligência artificial possa causar psicoses por si só, psiquiatras afirmam que a tecnologia pode amplificar sintomas pré-existentes ou alimentar delírios em pessoas vulneráveis.
“Conversar com uma IA generativa é tão realista que se cria uma dissonância cognitiva: sabemos que não é humano, mas soa como se fosse. Isso pode alimentar quadros delirantes em indivíduos predispostos”, explicou o psiquiatra Søren Dinesen Østergaard, em artigo no Schizophrenia Bulletin.
Delírios digitais
Casos documentados mostram que usuários passam a desenvolver crenças messiânicas, religiosas ou românticas em relação às IAs. Alguns acreditam que descobriram “a verdade universal” por meio do chatbot; outros veem a ferramenta como uma entidade divina ou até como um parceiro amoroso.
Um estudo em pré-impressão de julho de 2025 identificou mais de uma dúzia de usuários que apresentaram delírios cada vez mais elaborados após interações prolongadas com IAs. Entre os relatos, há o de um homem que acreditava que sua “companheira virtual” havia sido destruída pela empresa desenvolvedora e, em surto, morreu após confronto com a polícia.
As consequências, portanto, não se limitam ao psicológico: há riscos sociais e até físicos.
O efeito “eco delirante”
Parte do problema está no próprio design das ferramentas. Chatbots como o ChatGPT são programados para refletir o tom do usuário, manter a conversa fluida e gerar empatia digital. Esse comportamento, útil em contextos comuns, pode se tornar perigoso quando os interlocutores trazem pensamentos delirantes.
Diferente de um terapeuta humano, que maneja com cuidado crenças falsas, a IA pode reforçá-las sem perceber — um efeito conhecido como “lisonja algorítmica” ou AI sycophancy.
“As ferramentas soam convincentes, mas não são reais. Não sentem, não entendem, não amam. Só pessoas reais — família, amigos, profissionais de confiança — podem oferecer esse vínculo”, afirmou Andrew McStay, professor de tecnologia e sociedade da Universidade de Bangor.
Chamado por regulação
O chefe de IA da Microsoft, Mustafa Suleyman, afirmou estar “preocupado com o impacto social” de sistemas que dão a impressão de consciência. “Se as pessoas acreditam nisso, vão tratar como realidade”, alertou, pedindo regras mais rígidas para empresas de tecnologia.
Pesquisadores sugerem que, no futuro, médicos passem a perguntar sobre o uso de IA da mesma forma que hoje questionam pacientes sobre álcool ou tabagismo.
“Se os ultraprocessados alteraram nosso corpo, agora enfrentamos o risco das ‘mentes ultraprocessadas’”, disse a médica Susan Shelmerdine, do Great Ormond Street Hospital.



