Mix Conteúdos Digitais
  • Início
  • Últimas Notícias
  • Contato
  • PUBLICIDADE LEGAL
Mix Conteúdos Digitais
Sem resultados
Ver todos os resultados
Mix Conteúdos Digitais
Sem resultados
Ver todos os resultados

IA vai parar de inventar fatos quando não souber a resposta correta

Por Pedro Silvini
11/05/2026
Em Geral
0
chat gpt

(Reprodução/Shutterstock)

Pesquisadores da Coreia do Sul anunciaram um avanço que pode mudar o funcionamento das inteligências artificiais generativas ao redor do mundo. Um novo método desenvolvido por cientistas do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) promete fazer modelos de IA reconhecerem quando não sabem uma resposta, reduzindo drasticamente os casos de informações inventadas pelos sistemas.

O problema, conhecido no setor como “alucinação”, acontece quando ferramentas de inteligência artificial criam respostas falsas ou imprecisas com aparente confiança, mesmo sem possuir conhecimento suficiente sobre o assunto.

A descoberta foi apresentada em um estudo publicado na revista científica Nature Machine Intelligence e pode impactar diretamente áreas consideradas sensíveis, como medicina, diagnósticos clínicos, segurança pública e direção autônoma.

Segundo os pesquisadores, uma das principais causas da chamada “superconfiança” das inteligências artificiais está na forma como os modelos são treinados desde o início. Pequenos erros surgidos na fase inicial do aprendizado acabam sendo propagados durante todo o treinamento da rede neural.

Os cientistas identificaram que, quando dados aleatórios eram inseridos logo no começo do processo, os sistemas apresentavam respostas altamente confiantes mesmo sem terem aprendido praticamente nada. Esse comportamento acabava favorecendo a criação de respostas incorretas.

Para tentar resolver o problema, os pesquisadores buscaram inspiração no funcionamento do cérebro humano.

De acordo com o estudo, seres humanos desenvolvem sinais cerebrais ainda antes do nascimento, mesmo sem estímulos externos. Bebês também passam por fases de movimentos aleatórios antes de aprender habilidades específicas.

Com base nesse princípio, os cientistas criaram um sistema de “aquecimento” da IA. Antes de começar o aprendizado real, a rede neural é submetida a um breve treinamento com ruídos aleatórios.

Esse processo ajuda o sistema a entender inicialmente um estado semelhante ao “eu ainda não sei nada”.

IA passa a reconhecer incerteza

Os pesquisadores afirmam que o novo método reduz significativamente o excesso de confiança das inteligências artificiais.

Na prática, os modelos passam a diferenciar melhor aquilo que realmente conhecem daquilo que não aprenderam ainda, reduzindo respostas falsas dadas com segurança exagerada.

“Enquanto modelos convencionais tendem a fornecer respostas incorretas com alta confiança até para dados nunca vistos durante o treinamento, os modelos com esse aquecimento mostraram melhora clara na capacidade de reconhecer que ‘não sabem’”, explicaram os autores do estudo.

O professor Se-Bum Paik, um dos responsáveis pela pesquisa, afirmou que a tecnologia aproxima o comportamento da IA do funcionamento humano.

“Este estudo demonstra que, ao incorporar princípios fundamentais do desenvolvimento cerebral, a inteligência artificial consegue reconhecer seu próprio estado de conhecimento de forma mais semelhante aos humanos”, disse.

Crescimento global da IA acelera preocupação

A discussão sobre confiabilidade dos sistemas acontece em meio ao crescimento acelerado do uso de inteligência artificial no mundo.

Segundo o relatório Global AI Diffusion Report, o uso de ferramentas de IA generativa cresceu globalmente no primeiro trimestre de 2026. A taxa mundial de adoção passou de 16,3% para 17,8% da população economicamente ativa.

Os Emirados Árabes Unidos lideram o ranking mundial de uso de IA, com taxa de adoção superior a 70%. Os Estados Unidos também avançaram nas posições globais, atingindo cerca de 31% de uso entre a população em idade de trabalho.

O relatório aponta ainda forte crescimento da inteligência artificial em países asiáticos, impulsionado principalmente pela melhora dos modelos em idiomas locais, como coreano e japonês.

Hoje, ferramentas como OpenAI ChatGPT, Google Gemini, Claude, Perplexity e Grok já somam centenas de milhões de usuários ativos em todo o mundo.

Dúvidas, críticas ou sugestões? Fale com o nosso time editorial.
LogoCaro leitor,

O acesso ao conteúdo será liberado imediatamente após o anúncio.

Pedro Silvini

Pedro Silvini

Jornalista com formação em Mídias Sociais Digitais, colunista de conteúdo social e opinativo. Apaixonado por cinema, música, literatura e cultura regional.

Próximo post
tarefa domestica, limpar

Produto de limpeza famoso no Brasil estava sendo produzido em condições perigosas para consumo humano

Confira!

Estátua do Imperador Marco Aurélio (Foto: Pexels)

Marco Aurélio, imperador romano: “Você tem poder sobre a sua mente, não sobre eventos externos. Perceba isso e você encontrará força”

11/05/2026
tarefa domestica, limpar

Produto de limpeza famoso no Brasil estava sendo produzido em condições perigosas para consumo humano

11/05/2026
chat gpt

IA vai parar de inventar fatos quando não souber a resposta correta

11/05/2026
  • Contato

Diário do Comércio | Mix

Sem resultados
Ver todos os resultados
  • Contato

Diário do Comércio | Mix