Movimento Minas 2032

IA muda decisões nas empresas e impõe desafio de equilibrar eficiência e responsabilidade

O MM2032 entrevistou o professor emérito da Universidade Federal de Minas Gerais (UFMG), Virgílio Almeida
IA muda decisões nas empresas e impõe desafio de equilibrar eficiência e responsabilidade
Foto: Divulgação Acervo Pessoal

A inteligência artificial (IA) já é realidade em negócios de todos os portes. Em 2026, ela deve se consolidar como a principal prioridade estratégica das empresas brasileiras, segundo a pesquisa Panorama 2026 da Câmara Americana de Comércio para o Brasil (Amcham Brasil), embora a maioria ainda invista pouco e não perceba impactos concretos nos resultados.

O levantamento mostra que mais de 60% das empresas ainda não registram ganhos relevantes com IA, evidenciando um descompasso entre a intenção estratégica e a maturidade na adoção.

Para saber mais sobre desafios, oportunidades e limitações, o MM2032 entrevistou Virgílio Almeida, professor emérito da Universidade Federal de Minas Gerais (UFMG), uma das principais referências internacionais em governança da internet, regulação de algoritmos e ética em inteligência artificial no mundo.

Com atuação acadêmica e institucional no Brasil e no exterior, incluindo colaboração com o Berkman Klein Center, da Universidade de Harvard, Almeida é autor de dezenas de artigos científicos e do livro “Algorithmic Institutionalism”, no qual propõe a compreensão dos algoritmos como novas instituições que moldam a vida social, econômica e política.

Reconhecido em 2025 no Prêmio Unesco-Uzbequistão de Ética em Inteligência Artificial, o pesquisador defende que a inovação tecnológica só é sustentável quando alinhada a valores democráticos, direitos humanos e responsabilidade social.

O avanço da inteligência artificial está mudando a lógica de produção e decisão nas empresas. Como o senhor enxerga essa transformação e, especialmente, qual é o caminho para equilibrar eficiência e responsabilidade no uso da IA no ambiente corporativo?

A inteligência artificial amplia de forma significativa a capacidade das empresas de processar informações, prever comportamentos e automatizar decisões. Isso gera ganhos de eficiência importantes, mas também desloca o centro da tomada de decisão das pessoas para sistemas algorítmicos. O equilíbrio passa por reconhecer que a eficiência não pode ser o único critério. É fundamental incorporar princípios de responsabilidade, transparência e supervisão humana. Empresas precisam entender que decisões automatizadas produzem impactos sociais reais e, portanto, devem ser desenhadas com critérios éticos desde a sua concepção.

O senhor costuma afirmar que “algoritmos são novas instituições”. O que isso significa, na prática, para uma empresa que utiliza sistemas de IA em processos de gestão, recrutamento ou marketing?

Quando digo que algoritmos são novas instituições, quero destacar que eles não apenas executam tarefas técnicas, mas organizam comportamentos, distribuem oportunidades e exercem poder. Em processos como recrutamento ou marketing, algoritmos definem quem é visível, quem é priorizado e quem fica à margem. Para as empresas, isso significa assumir que esses sistemas precisam de regras claras, mecanismos de governança e prestação de contas, assim como qualquer outra instituição que influencia a vida das pessoas.

A inteligência artificial tem sido tratada como vantagem competitiva, mas também como risco reputacional. Em que consiste esse risco e quais são os principais erros que as empresas brasileiras vêm cometendo ao adotar essas tecnologias sem considerar seus impactos sociais e éticos?

O risco reputacional surge quando a empresa perde o controle sobre os efeitos de seus sistemas algorítmicos. Casos de discriminação, opacidade nas decisões ou uso indevido de dados tendem a gerar reações negativas de consumidores, reguladores e da sociedade. Um erro comum no Brasil é tratar a IA apenas como uma solução tecnológica importada, sem avaliar seus impactos no contexto social local. Outro equívoco é acreditar que a responsabilidade é somente do fornecedor da tecnologia, quando, na verdade, quem responde também pelos efeitos é quem a utiliza, como, por exemplo, casos de imagens forjadas por IA.

O senhor defende políticas de regulação da IA e maior transparência nos algoritmos. Como as empresas podem se antecipar a essas exigências e transformar a regulação em um diferencial competitivo? Qual é o papel do mercado no processo regulatório?

A regulação não deve ser vista como obstáculo à inovação, mas como um instrumento de confiança. Empresas que se antecipam às exigências regulatórias, adotando práticas de transparência, auditoria algorítmica e avaliação de impacto, tendem a se posicionar melhor no mercado. O setor empresarial tem um papel central nesse processo ao colaborar com formuladores de políticas públicas, compartilhar boas práticas e ajudar a construir padrões que protejam direitos sem inibir o desenvolvimento tecnológico.

O Brasil ainda investe pouco em pesquisa e desenvolvimento em inteligência artificial. Que papel o setor empresarial pode desempenhar para reduzir essa defasagem e, ao mesmo tempo, garantir que a tecnologia esteja a serviço da sociedade, e não o contrário?

O setor empresarial pode atuar de forma decisiva ao investir em pesquisa aplicada, estabelecer parcerias com universidades e apoiar ecossistemas de inovação locais. Mas isso precisa vir acompanhado de compromisso com o interesse público. A tecnologia deve também responder a problemas reais da sociedade brasileira, como desigualdade, acesso a serviços e desenvolvimento sustentável. Quando empresas alinham inovação com responsabilidade social, elas fortalecem tanto o País quanto seus próprios negócios.

Para encerrar, professor, qual seria o principal conselho que o senhor daria aos empresários sobre o uso da inteligência artificial, o que fazer e o que jamais fazer ao incorporar essa tecnologia aos negócios?

Meu principal conselho é: tratem a inteligência artificial como uma decisão estratégica e ética, não apenas técnica. O que fazer é investir em governança, formação de pessoal qualificado nessas tecnologias, buscar a diversidade nas equipes de desenvolvimento tecnológico e na avaliação contínua dos impactos dos sistemas. O que jamais fazer é delegar decisões críticas exclusivamente a algoritmos sem supervisão humana ou ignorar os efeitos sociais dessas tecnologias. A IA deve ampliar capacidades humanas, e não substituir a responsabilidade que cabe às pessoas e às instituições.

Rádio Itatiaia

Ouça a rádio de Minas