O ChatGPT já é uma ferramenta presente no dia de muita gente e, de fato, pode ser muito útil na hora de conferir a gramática do que você escrever, organizar dados, entre várias outras funções. Mas uma coisa que você definitivamente não deve fazer com o Chat é usá-lo como consulta para questões de saúde. E não existe caso melhor para exemplificar isso do que o que vamos contar agora.
Uma matéria da Superinteressante conta o caso de um homem, não identificado, que estava tentando reduzir sua ingestão de sal – ou cloreto de sódio. Ele recorreu ao ChatGPT em busca de um substituto para o sal: a resposta foi brometo de sódio.
De fato, o brometo de sódio pode substituir o cloreto de sódio… mas o que a ferramenta de inteligência artificial não explicou é que isso não vale para a alimentação. Essa substituição é para ambientes industriais e para limpar banheiras de hidromassagem e piscinas.
Sem saber disso, o paciente passou três meses ingerindo brometo de sódio como sal de cozinha. Obviamente, isso não deu certo. Ele começou a sofrer intoxicação – bromismo – indo parar no pronto-socorro com delírios paranoicos, convencido que seu vizinho estava tentando envenená-lo. No dia da internação, os delírios ficaram mais intensos e ele até tentou escapar do hospital, precisando ser internado à força.
Depois de três meses desintoxicando, o paciente obteve alta e foi embora para casa sem sequelas graves.
Caso exemplifica perigos do ChatGPT
Registro no Annals of Internal Medicine: Clinical Cases, o caso, além de ser bastante curioso, mostra os perigos de usar o ChatGPT e outras IAs como consultar médicas. Segundo os autores do estudo, essas ferramentas “podem gerar imprecisões científicas, carecem de capacidade crítica e acabam alimentando a disseminação de desinformação”.