Pensando o Futuro

Entenda os limites da aplicação da inteligência artificial

Apesar do furor, existem ainda muitos limitadores para que a IA atinja seu potencial pleno de aplicação

Estamos em plena euforia com a introdução da inteligência artificial (IA). As empresas começam a aplicar em seus processos de negócios, enquanto os indivíduos já aprendem como usá-la também.

Apesar do furor, existem ainda muitos limitadores para que a IA atinja seu potencial pleno de aplicação. A seguir, exploro o acrônimo Fates, desenvolvido para mostrar estas limitações. Fates é formado pelas letras iniciais das palavras Fairness (justiça), Accountability (responsabilização), Transparency (transparência), Ethics (ética) e Safety & security (Segurança).
Várias situações no uso de IA não garantem a justiça. Por exemplo, um carro governado por IA que decide atropelar uma criança para salvar os passageiros ou vice-versa. Ou o uso de IA para escrever um livro ou trabalho escolar. Em todas as situações se questiona se o sistema é justo ou injusto, tanto no seu uso quanto no resultado obtido.

De quem é a responsabilidade quando a IA não é justa? Do dono, do programador, do curador ou do próprio usuário? A resposta aqui não é clara nem do ponto de vista lógico, nem do jurídico. Isso implica numa não responsabilização. Mas será possível pelo menos dar transparência, ver onde foi o erro e como corrigi-lo?

A resposta, mais uma vez, não é clara. As IAs estão em constante mudança, não há como saber qual era a exata relação entre os “neurônios” no momento da decisão. Uma IA é “opaca”, ou seja, o oposto de “transparente”.

O conteúdo continua após o "Você pode gostar".


Porém podemos argumentar que ao tomar uma decisão, a IA usou alguma forma de ética no processo. Mas qual ética? De onde veio? Aqui a resposta é surpreendente. Esta ética vem quase integralmente dos usuários, que, ao usarem, treinam a IA.

Existem casos interessantes, como a de uma IA que estava sendo treinada para ser Atendimento ao Consumidor (SAC). Os usuários ligavam e xingavam, a IA entendeu que isso era um comportamento normal e começou a xingar de volta, perdendo a utilidade.

A máquina cria correlações matemáticas e não entende de fato o que está sendo falado. Ele não pensa e nem tem uma ética, é apenas um algoritmo fazendo cálculos.

A “ética” da IA é um construto feito pelos programadores, limitado pelos curadores e treinado pelos usuários. Uma responsabilidade diluída, o que torna impossível garantir transparência no processo.

Na medida em que as máquinas se espalham também ficam vulneráveis a ataques de todos os tipos, aqui entra a segurança, e em IAs acontece o envenenamento da base de conhecimento. Já existem casos de envenenamento da base feitos tanto de maneira proposital quanto acidental. Os curadores tentam limitar a capacidade dos usuários de estragar as bases, mas não pode ser automatizado.

Com isso, percebemos que embora exista uma euforia geral sobre a implantação das IAs, existem ainda desafios que dificilmente serão superados rapidamente.

Rádio Itatiaia

Ouça a rádio de Minas