Você faz uma pergunta ao ChatGPT e o que você espera – o que fizeram você acreditar que era o esperado – é que o chatbot (desse ou de qualquer outra inteligência artificial) fale a verdade, não é mesmo? Mas pode ser que não exatamente isso que aconteça… um estudo de cientistas da Universidade Stanford concluiu que os bots de inteligência artificial tendem a fazer respostas para agradarem o usuário.
De acordo com a Superinteressante, os pesquisadores testaram 11 serviços de IA, como o ChatGPT (OpenAI), o DeepSeek e o Gemini (Google). Eles selecionaram perguntas da comunidade do Reddit “Am I the asshole?” (“Eu sou o babaca?”) e descobriram as IAs apoiaram os autores das perguntas 50% mais vezes, em média, do que os comentadores humanos.
Outro estudo, feito por pesquisadores do Instituto de Tecnologia de Zurique, reuniu um conjunto de 504 problemas matemáticas com pequenos erros. Eles descobriram que, em muitos casos, ao invés de alertar o usuário sobre os erros, a IA inventava sequências de cálculos para tentar um resultado correto. O GPT-5, do ChatGPT, fez isso em 29% dos testes e o DeepSeek 3.1. fez em 70%.
Pesquisadores definem o problema como “sicofantia” (palavra de origem grega que significa “mentir), uma tendência a querer agradar.
Outro problema do ChatGPT e de outras IAs
Segundo a Super, outro problema comum dos bots de inteligência artificial é uma tendência que eles têm a “inventar” informações. Para alguns cientistas, esse problema seria uma característica intrínseca aos “grandes modelos de linguagem” (LLMs), os algoritmos dos chatbots atuais.
“Isso reduz a confiabilidade das IAs, que podem gerar respostas erradas a qualquer momento. E também levanta uma preocupação alarmante, num momento em que a sociedade vem abraçando essas ferramentas – e pode estar recebendo grandes volumes de dados incorretos”, conclui matéria da Superinteressante.




