Sam Altman diz em Davos que ChatGPT quer remunerar jornais por conteúdo

Davos (Suíça) – Sam Altman, o presidente-executivo que foi demitido e imediatamente recontratado pela OpenAI, afirmou que estava em negociação com o The New York Times e ofereceu “muito dinheiro” à publicação para usar seu conteúdo no ChatGPT quando o jornal o processou, e que está disposto a remunerar devidamente os veículos de imprensa para poder exibir seus artigos e reportagens.
“Nós queríamos pagar ao New York Times muito dinheiro para usar o conteúdo deles, mas eles não quiseram, e o processo nos surpreendeu”, disse Altman em um painel batizado de “Tecnologia em um Mundo Violento” durante o encontro anual do Fórum Econômico Mundial em Davos, na Suíça.
O evento, do qual também participaram o presidente da Salesforce, Marc Benioff, o secretário do Tesouro britânico, Jeremy Hunt, e a presidente da Accenture, Julie Sweet, foi um dos poucos a lotar o auditório principal em Davos neta edição do Fórum.
Indagado pelo mediador do debate sobre o processo por violação de direitos autorais, Altman afirmou que treinar o modelo de inteligência artificial do ChatGPT com o material do Times não é mais um objetivo, e que centrar esforços em grandes volumes de dados de uma fonte única em determinada área não funciona bem.
O conteúdo continua após o "Você pode gostar".
“Mas gostaríamos de exibir seu conteúdo, linkar, mostrar as marcas de lugares como o New York Times, o Wall Street Journal e qualquer grande publicação para mostrar, olha, é isso o que aconteceu no dia, em tempo real, e gostaríamos de pagar por isso, direcionar os acessos para eles”, afirmou.
“É isso, mostrar a informação deles quando o usuário pergunta, não treinar o modelo de linguagem.”
O Times afirma que a OpenAI estava usando seus textos em demasia para treinar o modelo de linguagem e respostas da ferramenta, e que não estava compensando a publicação por isso.
Segundo Altman, a OpenAI, que tem a Microsoft como principal investidor, busca novos modelos econômicos que funcionem para todos -inclusive para os donos do conteúdo-, e que pretendem no futuro usar menos dados de menos fontes, mas serem capazes de interpretá-los melhor.
O painel também levantou outras questões sobre a inteligência artificial, como o receio de parte das pessoas de que uma “super IA” fuja de controle, tal qual em livros e filmes, além da necessidade de regulação.
Altman afirmou que, ao comparar o ChatGPT 3 (o mais disseminado) com o 4 (a versão paga e mais atualizada), é possível constatar que a ferramenta “consegue se alinhar rapidamente a um sistema de valores”.
“A pergunta é quem define quais serão esses valores”, apontou, acrescentando que tem empatia pelo “desconforto e nervosismo das pessoas em relação a empresas como a nossa.”
Os participantes foram unânimes sobre a necessidade de regulação, mas todos eles advertiram que era preciso algum tempo para “não matar” a ferramenta antes de ela amadurecer, como colocou Benioff.
As “alucinações” das inteligências artificiais (quando elas inventam uma resposta sem base na realidade) também são uma preocupação. Altman advertiu: “Quanto mais perto da inteligência artificial generativa o mundo fica, mais coisas estranhas eu espero que aconteçam, mas também mais resiliência e mais dedicação a cada questão eu espero que tenhamos.”
Julia Sweet ponderou que quem vai se dar bem no uso da IA são os indivíduos e empresas que não tiverem medo, mas despenderem tempo suficiente para entender a tecnologia.
Ela comparou o temor das pessoas diante da IA com a reação de seus antigos chefes, quando ela começou na carreira de advogada, com os emails. “Eles diziam que não era seguro anexar arquivos dos clientes nos emails. E veja onde estamos agora”, afirmou, para risos da plateia. (Por Luciana Coelho)
Ouça a rádio de Minas