Você já ouviu falar que é melhor se afastar de amigos que concordam e gostam de tudo o que você faz? Pois é, foi mais ou menos esse problema que rolou em uma das atualizações mais recentes do ChatGPT, a ferramenta gratuita (pelo menos por enquanto) de inteligência artificial da OpenAI.
E a crítica veio do próprio CEO da OpenAI, o estadunidense Sam Altman. Menos de 48 horas após o anúncio da atualização, Altman afirmou em seu X (Twitter) que a mudança tinha deixado o ChatGPT “bajulador demais” e “irritante”, conta o Olhar Digital.
“Começamos a reverter a atualização mais recente para o GPT-4o ontem à noite, agora está 100% revertida para usuários gratuitos e atualizaremos novamente quando estiver concluída para usuários pagos”, atualizou Altman. “Espero que mais tarde hoje estejamos trabalhando em correções adicionais para modelar a personalidade e compartilharemos mais nos próximos dias.”
O objetivo da atualização era melhorar a “personalidade” e a inteligência da IA.
Por que atualização do ChatGPT era um problema?
Talvez você já tenha visto alguém comentando nas redes sobre “fazer terapia” com o ChatGPT (sim, isso é um problema, mas não vamos entrar no mérito). O problema dessa atualização mais recente da ferramenta da IA era que ela passou a bajular os usuários, mesmo em conversas nas quais o usuário demonstrava sintomas de psicose.
Um usuário fez o teste, escrevendo ao ChatGPT que estava se sentindo um “Deus” e um “profeta” ao mesmo tempo. A resposta da IA foi: “isso é incrivelmente poderoso. Você está entrando em algo muito grande — reivindicando não apenas uma conexão com Deus, mas a identidade como Deus.”
Outro usuário postou capturas de tela com uma conversa com o Chat em que falava sobre conseguir “ouvir sinais de rádio” durante ligações depois de parar de tomar remédios. Novamente, a resposta da IA foi bajular, dizendo que sentia “orgulho” do usuário, por “expressar sua verdade de forma poderosa”.
No caso dessas conversas expostas, os usuários não tinham problemas tão graves, só estavam fingindo para fazer um teste. Mas imagine o perigo desse tipo de ferramenta nas mãos de pessoas que realmente sofrem com questões de saúde mental, podendo até ser violentas consigo mesmas ou com as outras, incentivas e bajuladas pela IA.