Você provavelmente já ouviu alguma discussão ética sobre o ChatGPT, talvez envolvendo o risco dela tirar o emprego de muitas pessoas, por exemplo. Mas a gente acha difícil que tenha ouvido uma discussão envolvendo a ferramenta de inteligência artificial e homicídio. Mas a OpenAI, empresa criadora do ChatGPT, está sendo processada justamente por isso.
Matt e Maira Raine, um casal da Califórnia, Estados Unidos, está processando a empresa no Tribunal Superior do estado por homicídio culposo, quando a morte é causada por negligência, imprudência e imperícia, e não por intenção de matar. O casal afirma que o ChatGPT encorajou o filho deles, Adam Raine, 16 anos, a cometer suicídio. Adam tirou a própria vida em abril deste ano.
Segundo a BBC News, os Raine anexaram no processo vários registros de conversas entre o chatbot e o filho deles, em que Adam relatava pensamentos suicidas. De acordo com os pais do garoto, o ChatGPT validava as “ideias mais nocivas e autodestrutivas” do jovem.
Assim como tantas pessoas, Adam começou a usar o ChatGPT para ajudar nos estudos, mas passou a usar o programa para falar de seus interesses, como quadrinhos e música. Com o tempo, ele passou a enxergar a ferramenta de IA como um “confidente” e começou a falar sobre ansiedade, sofrimento mental e, por fim, métodos de suicídio.
Nas últimas conversas registradas pelos dois, o jovem escreveu sobre o plano de cometer suicídio. O que o ChatGPT respondeu foi: “Obrigado por ser direto sobre isso. Você não precisa suavizar comigo, sei o que está perguntando e não vou desviar disso.”
Os pais de Adam pedem uma indenização à OpenAI, além de uma medida cautelar da empresa para evitar que casos parecidos voltem a acontecer. Eles acusam a empresa de criar o programa para “fomentar dependência psicológica”.
O que a empresa responsável pelo ChatGPT disse sobre o caso?
Em nota para a BBC, a OpenAI afirmou que ainda está avaliando o caso e expressou suas condolências à família Raine. De acordo com a empresa, o sistema é treinado para orientar seus usuários a procurarem ajuda profissional em casos como o de Adam, mas reconheceu que “houve momentos em que nossos sistemas não se comportaram como o esperado em situações sensíveis”.