Caminhos da inteligência artificial: uma máquina pode se tornar consciente?
Tem se projetado a possibilidade de que, daqui a alguns anos, uma máquina seja capaz de atingir a consciência e se tornar um ser autônomo.
Tal possibilidade tem raízes na literatura desde Frankenstein (Mary Shelley, 1815) e Pinóquio (Carlo Collodi, 1883), até filmes mais recentes de Hollywood como 2001: uma odisseia no Espaço (1968), Exterminador do Futuro (1984) e Ex-Machina (2014).
A realidade é bastante diferente. O que temos hoje, em termos científicos, se chama de inteligência artificial fraca, e ela não passa de algoritmos que se baseiam em processos similares aos humanos.
Alan Turing descreveu isso como o “jogo da imitação”, onde uma máquina imita um humano, mas não pensa realmente. O teste de Turing é justamente baseado nesta lógica, a de que, se uma máquina for “indistinguível de um ser humano por tempo suficiente”, ele passaria no teste. A chave está no termo “tempo suficiente”, que é abstrato.
O conteúdo continua após o "Você pode gostar".
Neste “jogo da imitação” surgiram os autômatos de LLM (Large Language Models), tais como ChatGPT, Llama e Gemini (ex-Bard). Este tipo de máquina é também chamado de “Papagaio estatístico” (Stochastic Parrot), isto é, ele calcula por meio de probabilidades qual o próximo pedaço de texto a ser colocado numa sequência. E como este é um processo aleatório quanto maior o texto maior a probabilidade de que ele se afaste do texto pretendido, ou como se usa no linguajar cotidiano “alucine”.
Isso nos leva ao ‘argumento do Quarto Chinês’, criado por John Searle. Nesta metáfora, uma pessoa que não entende chinês está num quarto com diversos manuais de tradução de chinês para outra língua, e embora saiba fazer a tradução, não entende o contexto.
Este tipo de argumento foi usado várias vezes para manter supervisão humana em sistemas militares para evitar que alucinações fora de contexto criassem problemas. No filme Jogos de Guerra (1983), uma situação em que a máquina confunde um jogo com uma situação real é usada como base do roteiro.
Há dúvidas se uma máquina sequer é capaz de imitar uma mente. O argumento do teorema de Gödel é geralmente usado como “prova” de que isso é impossível. Gödel argumenta que a mente humana é mais do que simplesmente uma máquina por ser capaz de extrapolar sistemas axiomáticos, o que uma máquina não é capaz.
O fato é que hoje não temos uma teoria da mente forte o suficiente para explicar o que é consciência, sabedoria e intuição. Nosso entendimento sobre sentimentos é frágil, alguns entendemos no nível bioquímico, e outros nem isso. Existe uma hipótese de que uma máquina somente poderia ter entendimento de certos conceitos se tivesse um corpo (Embodiment Hypothesis).
O desenvolvimento do entendimento do que é uma mente, sentimentos e sua relação com o corpo, e se estes são separáveis (ou não), pode vir a permitir que seja possível a criação de uma máquina com consciência. Isso seria uma inteligência artificial forte. Hoje isso não é possível.
Ouça a rádio de Minas