Em 2014, o físico Stephen Hawking deu uma declaração bem reflexiva para o que vivemos atualmente. Em entrevista à BBC, afirmou que “o desenvolvimento da inteligência artificial total poderia significar o fim da raça humana”. A advertência, feita quatro anos antes de sua morte, não se referia a robôs assassinos, mas ao risco criado pelo surgimento de uma inteligência capaz de se autoaperfeiçoar mais rápido do que os seres humanos podem acompanhar.
Hawking alertava que, enquanto a evolução humana é lenta e biológica, uma IA avançada poderia dar “saltos exponenciais”, assumindo controle de processos críticos e criando um desequilíbrio irreversível. Agora, em 2025, parte de suas previsões — antes vistas como exagero — começam a ganhar contornos reais.
O tema não era novo para o físico. Em 1995, no programa Tomorrow’s World, da BBC, Hawking imaginou como seria o mundo trinta anos depois. Ele previu a consolidação de uma “internet mundial”, a digitalização da sociedade e o surgimento de sistemas inteligentes capazes de “decidir” de forma autônoma — projeções que hoje são parte do cotidiano.
Já em 2014, ao comentar o sistema de comunicação baseado em IA que utilizava, reforçou sua preocupação.
“O desenvolvimento da inteligência artificial total poderia significar o fim da raça humana”, afirmou Hawking na época.
Segundo ele, a ameaça não estava na maldade das máquinas, mas em suas metas mal alinhadas aos interesses humanos — um sistema eficiente demais poderia tratar pessoas como obstáculos.
O que Hawking previu — e já se cumpriu
Domínio da IA e autonomia crescente
Modelos como GPT-4 e sucessores superam humanos em tarefas de escrita, análise, tradução, codificação e tomada de decisões. A IA está integrada a diagnósticos médicos, operações financeiras e sistemas legais, aproximando-se do cenário de autonomia que Hawking antecipava.
Automação em massa e impacto econômico
O físico alertou que a tecnologia substituiria milhões de empregos, exigindo reorganização radical do trabalho e até políticas como renda básica universal. Em 2025, automação tomou postos em atendimento, logística, jornalismo e advocacia, dando razão às suas estimativas.
Risco existencial e falta de controle
Hawking temia sistemas capazes de se redesenharem — uma linha de pesquisa que hoje avança com modelos autoajustáveis e agentes autônomos. Ele comparava o risco ao de “humanos tratados como formigas” diante de inteligências mais poderosas.
Regulação ética: o que falta e o que avança
Hawking defendia normas internacionais para controlar o desenvolvimento da IA e evitar usos militares ou abusos corporativos. Incentivou a criação do Leverhulme Centre for the Future of Intelligence, na Universidade de Cambridge, dedicado a estudar os impactos de longo prazo da tecnologia.
Em 2025, governos debatem tratados globais sobre IA, discutem transparência algorítmica e tentam limitar armas autônomas — justamente como ele recomendava há mais de uma década.




