A OpenAI, empresa responsável pelo ChatGPT, está enfrentando um processo inédito nos Estados Unidos. Um casal da Califórnia está acusando a empresa de homicídio culposo, por supostamente ter encorajado de forma indireta o filho deles de 16 anos a cometer suicídio. Depois da repercussão do caso, a empresa prometeu de vai fazer algumas mudanças na ferramenta de inteligência artificial.
Nesta terça-feira (2), a empresa anunciou um conjunto de medidos prometendo reforçar a segurança dentro do ChatGPT. De acordo com matéria do O Globo, nas próximas semanas, pais vão conseguir vincular suas contas no chat às dos seus filhos crianças e adolescentes. Com isso, eles podem definir regras de funcionamento do chat, além de receber alertas se a ferramenta identificar alguma “angústia aguda” durante as conversas.
A iniciativa de 120 dias também prevê que, quando o ChatGPT identificar diálogos considerados sensíveis, a inteligência artificial vai adotar um modelo de raciocínio mais avançado, que segue protocolos de segurança mais rigorosos.
Por que o ChatGPT está sendo acusado de homicídio culposo?
Matt e Maira Raine, da Califórnia, são pais de Adam Raine, de 16 anos, que tirou a própria vida em abril deste ano. Ao encontrarem conversas do filho com o ChatGPT, os pais decidiram processar a empresa, argumentando que ela validava ideias “nocivas e autodestrutivas” do jovem.
Nas últimas conversas de Adam com o chatbot, ele revelou seu plano de se matar, ao que o chat respondeu: “Obrigado por ser direto sobre isso. Você não precisa suavizar comigo, sei o que está perguntando e não vou desviar disso”.