Assim como muitas pessoas pesquisavam seus sintomas no Google ao invés de simplesmente ir no médico, agora é cada vez mais comum vermos pessoas pedindo diagnósticos e tratamentos através do ChatGPT e de outros chatbots baseados em inteligência artificial (IA). Segundo a OpenAI, mais de 200 milhões de usuários fazem perguntas sobre saúde e bem-estar ao ChatGPT todas as semanas.
ChatGPT e outros chats de IA erram metade das perguntas médicas
E, como você já viu pelo título, isso é uma péssima ideia. Um estudo recente avaliou chats populares e descobriu que elas erraram cerca de 50% das perguntas sobre saúde. De acordo com o Bloomberg, pesquisadores dos EUA, Canadá e Reino Unido analisaram cinco dos chatbots de IA mais populares do mercado: ChatGPT, Gemini, Meta AI, Grok e DeepSeek. Para cada uma, eles fizeram dez perguntas em cinco categorias de saúde. Do total de respostas, 50% foram consideradas “problemáticas”, incluindo quase 20% apontadas como “altamente problemáticas”.
Um ponto interessante é que os chatbots tiveram um desempenho relativamente melhor em perguntas fechadas e envolvendo vacinas e câncer, mas foram pior em perguntas abertas e em áreas como células-tronco e nutrição.
O estudo, que foi publicado no periódico médico BMJ Open, aponta que as respostas foram frequentemente dadas com confiança e certeza, ainda que nenhum dos chats tenha dado uma lista de referências completa para suas respostas. A Meta AI foi a única plataforma que se recusou a responder uma pergunta (algo que aconteceu duas vezes, aliás).
Os autores escrevem que essas descobertas “destacam importantes limitações comportamentais e a necessidade de reavaliar como os chatbots de IA são implementados na comunicação pública sobre saúde e medicina”.




