É incontestável que o cérebro humano tenha capacidades que são, em alguns aspectos, muito superiores às de todos os outros objetos conhecidos do universo. É o único tipo de objeto que é capaz de entender que o universo existe, ou porque há infinitos números primos, ou que as maçãs caem devido à curvatura do espaço-tempo, ou que obedecer seus próprios instintos inatos pode ser algo moralmente errado, ou que isso exista.

Tampouco são suas habilidades únicas confinadas a tais questões cerebrais. O cérebro é o único tipo de objeto que pode se propulsionar no espaço e voltar à posição original sem danos, ou prever e prevenir uma colisão de meteoro por conta própria, ou esfriar objetos para um bilionésimo de grau acima do zero absoluto.

Mas nenhum cérebro na Terra ainda está perto de saber o que os cérebros fazem para desempenhar qualquer uma dessas habilidades. O empreendimento para repetir a proeza artificialmente (o campo da “inteligência artificial geral” ou IAG) não testemunhou nenhum progresso durante suas seis décadas de existência.

Por que? Pois, como um sábio anônimo uma vez observou, “o problema não está naquilo que não sabemos, o problema é que aquilo que sabemos pode não estar tão certo assim”. Não consigo pensar em nenhuma outra área significativa de conhecimento no qual o conhecimento predominante, não somente na sociedade como um todo mas também entre os especialistas, esteja tão arraigado em erros fundamentais e sobrepostos. No entanto, essa também tem sido uma das áreas mais autoconfiantes em afirmar que em breve alcançará a descoberta mais importante.

Apesar desse longo histórico de falhas, a inteligência artificial geral deve ser possível. E isso é devido a uma propriedade profunda das leis da física, nomeadamente a universalidade da computação. Isso implica que tudo o que a lei da física exige de um objeto físico pode, em princípio, ser emulado em detalhes arbitrariamente minúsculos por algum programa num computador de propósito geral, desde que seja dado tempo e memória suficientes. As primeiras pessoas a adivinhar isso e a lidar com suas ramificações foram o matemático Charles Babbage do século XIX e sua assistente Ada, a Condessa de Lovelace. Isso continuou como uma suposição até a década de 1980, quando provei isso usando a teoria quântica da computação.

Babbage chegou à universalidade da computação por um caminho pouco promissor. Ele estava preocupado com o fato de que tabelas de funções matemáticas, como logaritmos e cossenos, da época costumavam ter erros. Naquele tempo, essas tabelas eram compiladas por um exército de funcionários, conhecido como “computadores” (essa é a origem da palavra). Sendo humanos, os computadores eram eles próprios falíveis. Havia sistemas elaborados de correção de erros, mas mesmo a revisão de erros tipográficos era um pesadelo. Tais erros não eram meramente inconvenientes e caros: poderiam custar vidas. Então, Babbage projetou uma calculadora mecânica, que ele chamou de Difference Engine (Máquina Diferencial, em português). Ela seria programada com a inicialização de certas engrenagens. O mecanismo controlaria uma impressora, a fim de automatizar a produção das tabelas. Isso reduziria a taxa de erros a níveis insignificantes – para o benefício eterno da humanidade.

Difference Engine de Charles Babbage, montado 170 anos depois de projetado.

Infelizmente, as habilidades de gerenciamento de projetos de Babbage eram tão pobres que, apesar de gastar grandes quantidades de dinheiro próprio e do governo britânico, ele nunca conseguiu construir sua máquina. Porém, seu design era sólido e, mais tarde, a Difference Engine foi construída por uma equipe liderada pelo engenheiro Doron Swade, no Museu de Ciências de Londres.

Ali estava uma tarefa cognitiva que apenas os humanos conseguiram realizar. Nada mais no universo conhecido sequer chegou perto do homo sapiens, mas o Difference Engine operaria melhor do que os melhores humanos. E, portanto, mesmo naquele estágio embrionário e acidentado da história da computação automatizada podemos ver as sementes do enigma filosófico controverso até hoje: qual é exatamente a diferença entre o que os “computadores” humanos estavam fazendo e o que o Difference Engine poderia fazer? Que tipo de tarefa cognitiva, se houver, um ou outro tipo de sistema poderia desempenhar que o outro tipo não poderia, em princípio, também realizar?

Uma diferença imediata entre ambos os sistemas foi que a sequência de passos elementares (de contagem, adição, multiplicação por dez, etc.) que o Difference Engine usava para calcular uma dada função não refletia aquela dos “computadores” humanos. Isto é, os dois usavam algoritmos diferentes. Por si só, essa não é uma diferença fundamental: o Difference Engine poderia ter sido modificado com engrenagens e alavancas adicionais para imitar o algoritmo dos humanos com precisão. Ainda assim, isso não teria conseguido nada, exceto um aumento na taxa de erro, devido ao aumento do número de falhas nas máquinas mais complexas.

Da mesma forma, os humanos, com instruções diferentes, mas sem alterações de hardware, seriam capazes de emular cada detalhe do método do Difference Engine – e isso teria sido igualmente danoso para o sistema. Não teria copiado a vantagem principal do Engine, a sua precisão, pois ela era resultado de seu hardware e não de seu software. Só teria tornado uma tarefa difícil e chata ainda mais difícil e chata, o que aumentaria a chance de erros.

Para os seres humanos, essa diferença nos resultados – a taxa de erro diferente – teria sido causada pelo fato de que calcular a mesma tabela com dois algoritmos diferentes era sentido como algo diferente. Para o Difference Engine, isso não faz sentido. O Engine não tem sentimentos. Experimentar o tédio é uma das muitas tarefas cognitivas nas quais o desempenho do Difference Engine teria sido irremediavelmente inferior ao dos humanos. Tampouco ele seria capaz de conhecer ou provar, como fez Babbage, que os dois algoritmos chegavam resultados idênticos se executados com precisão. Ainda menos capaz seria de querer beneficiar os marítimos e a humanidade em geral. De fato, o repertório do Engine era limitado a avaliar uma pequena classe de funções matemáticas especializadas (basicamente, séries de potências em uma única variável).

Pensando em como poderia ampliar esse repertório, Babbage inicialmente percebeu que a fase de programação do Engine poderia ser automatizada: as configurações iniciais das engrenagens poderiam ser codificadas em cartões perfurados. E a seguir Babbage teve uma ideia extraordinária. O Engine poderia ser adaptado para furar novos cartões e armazená-los para seu uso posterior, criando o que chamamos hoje de “memória” de um computador. Se pudesse funcionar por tempo suficiente (alimentado, como Babbage imaginava, por uma máquina a vapor) e tivesse um fornecimento ilimitado de cartões em branco, o repertório do Engine daria um salto daquela pequena classe de funções matemáticas para o conjunto de todos os cálculos que podem ser realizados por qualquer objeto físico.

Isso é a universalidade computacional.

Babbage chamou essa máquina aprimorada de Analytical Engine (Motor Analítico, em português). Ele e Lovelace entenderam que sua universalidade lhe daria um potencial revolucionário para melhorar quase todos os procedimentos científicos e processos de manufatura, bem como a vida cotidiana. Babbage e Lovelace apresentaram previsões fantásticas sobre aplicações específicas dessa nova máquina. Ambos sabiam que o Analytical Engine poderia ser programado para fazer cálculos, jogar xadrez, compor músicas, processar imagens e assim por diante. Diferentemente do Difference Engine, o Analytical Engine poderia ser programado para usar exatamente o mesmo método que os humanos usavam para fazer essas tabelas, E provar que os dois métodos devem dar os mesmos resultados, E fazer o mesma verificação e revisão (usando, por exemplo, o reconhecimento óptico de caracteres) também.

Mas o Analytical Engine poderia ficar entediado? Poderia sentir alguma coisa? Poderia querer melhorar a vida da humanidade (ou de todos os Analytical Engine)? Poderia discordar do seu programador sobre a sua própria programação? Eis onde a perspectiva visionária de Babbage e Lovelace precisou parar. Eles pensavam que algumas funções cognitivas do cérebro humano estavam além do alcance da universalidade computacional. Como Lovelace escreveu, “O Analytical Engine não tem qualquer pretensão de criar algo. Ele pode fazer o quer que saibamos como ordená-lo para executar. Pode elaborar uma análise, mas não tem poder de antecipar relações e verdades analíticas”.

E, no entanto, “criar algo”, “elaborar análises”, e “antecipar relações e verdades analíticas” são comportamentos do cérebro e, sendo assim, dos átomos dos quais os cérebros são compostos. Tais comportamentos obedecem às leis da física. Então, segue-se inexoravelmente da universalidade computacional que, com o programa certo, um Analytical Engine também poderia desempenhá-los, átomo a átomo e passo por passo. É verdade que os átomos no cérebro seriam emulados por engrenagens e alavancas de metal, em vez de material orgânico – mas, no contexto presente, inferir qualquer coisa substantiva dessa distinção seria uma classificação preconceituosa.

Apesar de seus melhores esforços, Babbage e Lovelace falharam quase que inteiramente em transmitir seu entusiasmo sobre o Analytical Engine para os outros. Em um dos grandes poderia-ter-sido da história, a ideia de um computador universal ficou esquecida na obscuridade do pensamento humano. E ali continuou até o século XX, quando Alan Turing chegou com uma espetacular série de conquistas intelectuais, lançando as bases da teoria clássica da computação, estabelecendo os limites da computabilidade, participando da construção do primeiro computador universal clássico e, ao ajudar a quebrar a criptografia nazista, contribuindo para a vitória dos Aliados na Segunda Guerra Mundial.

Turing compreendeu plenamente a universalidade. Em seu artigo de 1950, “Computing Machinery and Intelligence”, ele se dedicou a refutar o que chamou de “objeção de Lady Lovelace” e qualquer outra objeção tanto razoável quanto irracional à sua conclusão. E ele concluiu que um programa de computador cujo repertório incluía todos os atributos distintivos do cérebro humano (sentimentos, livre arbítrio, consciência e tudo o mais) poderia ser elaborado.

Essa afirmação surpreendente dividiu o mundo intelectual em dois grupos: um grupo insistindo que, apesar de tudo, a inteligência artificial de propósitos gerais era impossível, enquanto o outro insistia que era iminente. Ambos estavam enganados. O primeiro, inicialmente predominante, citou uma infinidade de razões que vão do sobrenatural ao incoerente. Todas essas razões compartilhavam o erro básico de que seus proponentes não entendiam as implicações da universalidade computacional para o mundo físico e para os cérebros humanos em particular.

Mas foi o erro básico do outro grupo o responsável pela falta de progresso. Foi uma falha em reconhecer que aquilo que distingue os cérebros humanos de todos os outros sistemas físicos é algo qualitativamente diferente de todas as outras funcionalidades, e não pode ser especificado da forma que todos os outros atributos dos programas de computador podem ser. Não pode ser programado por nenhuma das técnicas que são suficientes para escrever qualquer outro tipo de programa. Muito menos pode ser alcançado apenas melhorando seus desempenhos em tarefas que atualmente realizam, não importa o quanto.

Por que? Eu chamo a funcionalidade principal em questão de criatividade: a capacidade de produzir novas explicações. Por exemplo, suponha que você queira que alguém lhe escreva um programa de computador para converter unidades de temperatura de Celsius para Fahrenheit. Até mesmo o Difference Engine poderia ter sido programado para fazer isso. O ponto é que, seja qual for a maneira como o programa funcione, você o criaria para atender às suas especificações sobre como ser um conversor de temperatura perfeito – ou seja, que sempre converta qualquer temperatura fornecida.

Agora imagine que você precise de um programa com uma funcionalidade mais ambiciosa: apontar algum problema extraordinário na física teórica – como a natureza da Matéria Escura – com uma nova explicação que é plausível e rigorosa o suficiente para atender aos critérios para que seja publicado num jornal acadêmico.

Tal programa seria presumivelmente uma inteligência artificial de propósito geral. Mas como você especificaria essa tarefa para os programadores de computador? Não importa que seja mais complicado do que a conversão de temperatura: existe uma dificuldade muito mais fundamental. Suponha que você fosse de alguma forma dar-lhes uma lista das explicações da Matéria Escura que seriam saídas aceitáveis do programa. Se o programa emitisse uma dessas explicações mais tarde, isso não estaria cumprindo sua exigência para gerar novas explicações. Porque nenhuma dessas explicações seriam novas: você já teria as criados para escrever as especificações. Então, neste caso, e na verdade em todos os outros casos de programação com inteligência artificial de propósito geral genuína, basta um algoritmo com a funcionalidade correta. Mas escrever esse algoritmo (sem antes fazer novas descobertas na física e escondê-las no programa) é exatamente o que você queria que os programadores fizessem!

Tradicionalmente, as discussões sobre a inteligência artificial geral evitaram essa questão imaginando somente um teste com essa inteligência, e não o atendimento a determinadas especificações sobre inteligência. O teste tradicional adotado foi aquele proposto pelo próprio Turing, no qual a inteligência artificial passaria se os juízes (humanos) não conseguissem detectar se o programa é um ser humano ou não ao interagir com ele através de um meio puramente textual, de modo que apenas suas habilidades cognitivas afetassem o resultado.

Mas esse teste, sendo puramente comportamental, não dá nenhuma pista para como atender ao critério sobre a existência de uma inteligência artificial geral. E isso nem pode ser atendido pela técnica de “algoritmos evolutivos”: o teste de Turing não poderia ser automatizado sem primeiro saber-se como escrever um programa de inteligência artificial geral, uma vez que os “juízes” de um programa precisam ser dotados da habilidade cuja presença ou ausência pretendem identificar durante o teste (para aprofundamento sobre como penso que a evolução biológica nos deu essa habilidade em primeiro lugar, veja meu livro The Beginning Of Infinity).

E em qualquer caso, a inteligência artificial de propósito geral não poderia ser definida de forma puramente comportamental. No clássico experimento mental “cérebro numa cuba”, o cérebro, quando temporariamente desconectado de seu canal de entrada e saída, está pensando, sentindo, criando explicações – tem todos os atributos cognitivos de uma inteligência artificial de propósito geral. Portanto, os atributos relevantes de um programa desse tipo não consistem apenas nas relações entre suas entradas e saídas.

A conclusão é que, ao contrário de qualquer funcionalidade que tenha sido programada até o momento, esse nível de inteligência não poderia ser alcançada nem por uma especificação nem por um teste de entradas e saídas. O que é preciso é nada menos que um avanço na filosofia, uma nova teoria epistemológica que explique como cérebros criam conhecimentos explicativos e, consequentemente que determine (em princípio e sem que seja necessário executá-los como programas), quais algoritmos possuem essa funcionalidade e quais não a possuem.

Tal teoria está além do conhecimento atual. O que nós sabemos sobre epistemologia implica que qualquer abordagem não direcionada a esse avanço filosófico deve ser fútil. Infelizmente, o que nós sabemos sobre epistemologia deve-se grande parte aos trabalhos do filósofo Karl Popper e é quase universalmente subestimado e mal interpretado (até mesmo, ou talvez especialmente, pelos filósofos).

Por exemplo, ainda é tido como certo por quase toda autoridade que o conhecimento consiste em crenças verdadeiras e justificadas e que, portanto, o pensamento de uma inteligência geral de propósito geral deve incluir algum processo no qual identifique alguma de suas teorias como verdadeiras ou prováveis, enquanto rejeita as outras como falsas ou improváveis. Mas o programador de uma inteligência geral de propósito geral precisa saber de onde as teorias vêm, em primeiro lugar. O equívoco dominante é o de que, assumindo que “o futuro será como o passado”, essa inteligência poderia generalizar teorias a partir de experiências repetidas através um processo chamado de indução.

Contudo, isso é impossível. Eu mesmo lembro, por exemplo, de observar em milhares de ocasiões consecutivas que, nos calendários, os primeiros dois dígitos do ano corrente eram “19”. Nunca observei uma única exceção até que, um dia, os dois primeiros dígitos começaram a ser “20”. Não só não fiquei surpreso como supus que haveria um intervalo de 17.000 anos até o próximo “19”, um período que nem eu nem nenhum outro ser humano experimentamos uma vez sequer.

Como eu poderia ter “generalizado” que haveria uma ruptura tão abrupta de um padrão de experiências ininterrupto no calendário, e que um processo nunca observado (um intervalo de 17.000 anos) iria acontecer? Porque simplesmente não é verdade que o conhecimento vem da extrapolação de observações repetidas. Tampouco é verdadeiro que “o futuro é como o passado”, em qualquer sentido que se poderia detectar de antemão sem saber a explicação. O futuro é, na verdade, diferente do passado na maioria das formas.

É claro que, dada a explicação, essas mudanças drásticas no padrão anterior dos “19” são entendidas diretamente como resultado de um padrão ou lei subjacente invariável. Mas a explicação sempre vem primeiro. Sem isso, qualquer continuação de qualquer sequência constitui “o mesmo acontecendo novamente” conforme alguma explicação.

Então por que ainda faz parte da “sabedoria convencional” acreditar que desenvolvemos nossas teorias por indução? Por algum motivo, além do alcance deste artigo, a sabedoria convencional adere a um tropo chamado “problema da indução”, que pergunta: “como e porque a indução pode de alguma forma classificar certas crenças como verdadeiras e justificadas, embora possam ser falsas e impossíveis?” Graças a este tropo, qualquer refutação (como aquele de Popper e David Miller em 1988) ao invés de acabar com o indutivismo, simplesmente faz com que a maioria se maravilhe ainda mais diante do grande “problema da indução”.

Isso tem o efeito catastrófico de enquadrar o problema da inteligência artificial geral como um “problema da indução”, fazendo com que ele pareça fácil, pois a indução trata o pensamento como um processo de previsão de que os padrões futuros da experiência sensorial serão como os padrões do passado. Essa habilidade parece ser uma generalização – que os computadores já fazem o tempo todo (uma vez que eles recebem uma teoria sobre como os dados são produzidos). Mas, na realidade, apenas um pequeno componente do pensamento é sobre a predição, e muito menos sobre a predição de nossas experiências sensoriais. Nós pensamos sobre o mundo: não somente o mundo físico, mas também sobre o mundo das abstrações, como o certo e o errado, a beleza e a feiura, o infinito e o infinitesimal, a causalidade, a ficção, os medos e as aspirações – e o pensar em si.

A verdade é que o conhecimento consiste em explicações que foram imaginadas – suposições sobre o que realmente é (ou realmente deve ser, pode ser) lá fora, em todos esses mundos. Mesmo nas “ciências difíceis”, essas suposições não têm fundamentos e não precisam de justificação. Por quê? Porque o conhecimento genuíno, embora, por definição, contenha a verdade, quase sempre também contém erro. Portanto, não é “verdadeiro” no sentido estudado em matemática e lógica. Pensar consiste em criticar e corrigir suposições parcialmente verdadeiras com a intenção de localizar e eliminar os erros nessas suposições, não gerando ou justificando generalizações a partir de dados sensoriais. E, sendo assim, as tentativas de criar uma inteligência artificial geral que faria esse tipo de coisa estão tão fadadas ao fracasso quanto um tentativa de produzir vida a Marte apenas rezando para que um evento bíblico de Criação acontecesse por lá.

Atualmente, uma das versões mais influentes da abordagem de “indução” para inteligência artificial geral (e para a filosofia da ciência) é Bayesianismo, injustamente assim chamado para atribuir sua paternidade ao matemático Thomas Bayes, do século XVIII, embora Bayes seja um pouco inocente em relação a esse erro. Essa doutrina pressupõe que as mentes trabalham atribuindo probabilidades a suas ideias e modificando essas probabilidades à luz da experiência como uma maneira de escolher como agir. Isto é especialmente perverso quando se trata de valores da inteligência artificial de propósito geral, das ideias morais e estéticas que orientarão suas escolhas e intenções, pois permite apenas um modelo comportamental, no qual os valores que são “recompensados” pela “experiência” são “reforçados” e passam a dominar o comportamento, enquanto aqueles que são “punidos” pela “experiência” são eliminados.

Como eu discuti acima, esse modelo comportamental de entrada-saída é apropriado para a maioria das programações de computadores, mas inútil para a inteligência artificial geral. É irônico que a psicologia geral tenha renunciado em grande parte ao Behaviorismo, que foi reconhecido como inadequado e desumano, enquanto a ciência da computação, graças a conceitos filosóficos falsos como indutivismo, ainda pretenda fabricar cognição de tipo humano em linhas essencialmente comportamentais.

Além disso, apesar da enorme variedade de coisas mencionadas acima sobre as quais criamos explicações, nosso método principal de fazê-lo, chamado “conjetura e crítica Popperiana”, tem uma lógica particular e unificada. Daí o termo “geral” na denominação “inteligência artificial geral”. Um programa de computador ou possui essa lógica que ainda está por ser totalmente compreendida por nós mesmos, caso em que pode realizar um pensamento do tipo humano sobre qualquer coisa (incluindo sobre seu próprio pensamento e como melhorá-lo), ou não possui, caso em que não é de modo algum uma inteligência artificial geral.

Consequentemente, outra abordagem desesperada para a criação de uma inteligência artificial geral é iniciar com o conhecimento existente de como programar tarefas específicas (como jogar xadrez, realizar análises estatísticas ou pesquisar bases de dados) e depois tentar melhorar esses programas na esperança de que isso de alguma forma gere uma inteligência artificial geral como um efeito colateral. Algo como o que aconteceu com a Skynet nos filmes da franquia Exterminador do Futuro.

Hoje em dia, um fluxo acelerado de funcionalidades maravilhosas e úteis para computadores está disponível, e algumas delas antes do previsto. Mas o que não é maravilhoso nem útil é o argumento elogioso de que esses desenvolvimentos estão alcançando as fronteiras da inteligência artificial geral. Um surto particularmente grave ocorreu recentemente quando um motor de pesquisa chamado Watson, desenvolvido pela IBM, derrotou o melhor jogador humano em um jogo de perguntas e resposta (quiz). Um documentário televisivo chamou-o de “A máquina mais inteligente da Terra”, e caracterizou sua função como “imitar o processo de pensamento humano com o software.” Mas isso é precisamente o que ele não faz.

Jogar um jogo (assim como todas as funcionalidades computacionais com as quais nos maravilhamos hoje) está entre as funcionalidades que podem ser classificadas na forma padrão e comportamental que apresentei acima. Nenhuma resposta de um jogo de quiz será publicada em um jornal de novas descobertas científicas ou criativas. O fato de que os seres humanos desempenham essa tarefa com menor desempenho que um computador ao usarem a criatividade para gerar as suposições subjacentes não é um sinal de que o computador tenha habilidades cognitivas quase humanas.

O exato oposto é verdadeiro, pois os dois métodos são completamente diferentes. Da mesma forma, quando um programa de computador vence um grande mestre no xadrez, os dois não estão usando algoritmos similares. O grande mestre pode explicar por que pareceu valer a pena sacrificar o cavalo em nome da vantagem estratégicas e pode escrever um livro emocionante sobre o assunto. O programa só pode provar que o sacrifício não resulta num xeque-mate e não pode escrever um livro porque não tem ideia nem mesmo do objetivo de um jogo de xadrez. Programar uma inteligência artificial de propósito geral não é o mesmo tipo de problema que a programação sobre como jogar um quiz ou xadrez.

Uma inteligência artificial de propósito geral é qualitativamente, não quantitativamente, diferente de todos os programas de computadores. O equívoco da Skynet também informa a esperança de que a inteligência artificial geral seja meramente uma propriedade emergente da complexidade, ou que o aumento do poder computacional a produza. Por trás disso está a noção de que habilidades únicas do cérebro são devidas ao seu “paralelismo computacional maciço” ou à sua “arquitetura neuronal”, duas ideias que violam a universalidade computacional. Esperar criar uma inteligência artificial geral sem primeiro entender em detalhes como a consciência funciona é como esperar que os arranha-céus aprendam a voar se forem construídos altos o suficiente.

Em 1950, Turing esperava que até o ano de 2000 “fosse possível falar sobre máquinas pensantes sem ser contrariado.” Em 1968, Arthur C. Clarke esperava o mesmo até 2001. No entanto, hoje em dia ninguém é melhor em programar uma inteligência artificial geral do que o próprio Turing teria sido.

Isso não surpreende as pessoas daquele primeiro grupo, o de adversários da possibilidade da inteligência artificial geral. Mas para as pessoas no outro grupo, que acham que esse tipo de inteligência artificial é iminente, tal falha de raciocínio ainda precisa ser explicada – ou pelo menos racionalizada. E de fato, imperturbáveis pelo fato de que nunca puderam confirmar essas racionalizações a partir da experiência, os membros do segundo grupo produzem racionalizações sem parar.

O próprio termo “inteligência artificial geral” é um exemplo. O campo costumava ser chamado “inteligência artificial”. Mas “inteligência artificial” foi gradualmente usado para descrever todos os tipos programas de computadores não relacionados, como jogadores de jogos, motores de busca e chatbots, até que a palavra “geral” foi adicionada para tornar possível referir-se à “coisa real” novamente, mas agora com a implicação de que a inteligência artificial geral é apenas uma espécie mais inteligente de chatbot.

Outra classe de racionalizações é a do tipo: “a inteligência artificial geral não é algo tão bom assim, o software existente já é inteligente o suficiente, mas de uma forma não humana, e somos muito vaidosos ou demasiadamente tendenciosos culturalmente para dar o devido crédito”. Isso obtém alguma força porque invoca a irracionalidade popular persistente do relativismo cultural.

Lembra do significado atribuído ao Skynet ao se tornar “autoconsciente”? Esse é apenas mais um equívoco filosófico, suficiente em si mesmo para bloquear qualquer abordagem viável para a inteligência artificial geral. O fato é que desenvolvedores de softwares atuais poderiam programar um computador diretamente para ter “autoconsciência” no sentido comportamental (por exemplo, para passar no “Teste do espelho” consistente em usar um espelho para inferir fatos sobre si próprio) se eles quisessem. Até onde estou ciente, ninguém o fez, presumivelmente porque é uma habilidade bastante inútil e também trivial.

Talvez a razão pela qual a autoconsciência tenha sua reputação imerecida por estar conectada com a inteligência artificial geral é que, graças ao teorema de Kurt Gödel e a várias controvérsias sobre lógica formal no século XX, qualquer tipo de auto-referência adquiriu uma reputação de mistério barato. O mesmo aconteceu com a consciência.

E aqui temos o problema da terminologia ambígua novamente: o termo “consciência” possui uma vasta gama de significados. Em um extremo da escala, existe o problema filosófico das sensações das naturezas subjetivas (qualia), que está intimamente ligado ao problema da inteligência geral. No outro extremo, a “consciência” é simplesmente o que perdemos quando somos submetidos a anestesia geral. E muitos animais certamente têm isso.

A inteligência artificial geral seria realmente capaz de ter autoconsciência, e isso porque ela seria “geral”, ou seja, capaz de se conscientizar sobre todo tipo de coisa profunda e sutil, incluindo ela própria. Isso não significa que os macacos que passam no teste do espelho tenham qualquer indício dos atributos da “inteligência geral”. De fato, a maravilhosa pesquisa de Richard Byrne revelou como os macacos são capazes de aprender comportamentos úteis uns dos outros sem nunca entender para que tais comportamentos servem: a explicação de como a cognição do macaco funciona realmente é de ordem comportamental.

Ironicamente, esse grupo de racionalizações (a inteligência artificial já foi feita/é trivial/existe nos macacos/é um conceito cultural) são imagens espelhadas de argumentos que se originaram no campo “a inteligência artificial geral é impossível”. Para cada argumento da forma “Você não pode criar uma IAG porque você nunca poderá programar a alma humana, porque é sobrenatural”, o grupo “criar IAG é fácil” tem a racionalização, “se você pensa que a cognição humana é qualitativamente diferente da dos macacos, você deve acreditar em uma alma sobrenatural”.

Dizer “tudo que ainda não sabemos como programar é chamado de inteligência humana”, é outra racionalização desse tipo. É a imagem espelhada do argumentado adiantado pelo filósofo John Searle (que está no grupo que considera impossível a IAG), que apontou que muito antes de existirem computadores, os motores a vapor e posteriormente os sistemas telegráficos foram usados como metáforas do funcionamento da mente humana.

Searle argumenta que a esperança para a inteligência artificial geral se baseia em uma metáfora similarmente insubstancial, a saber, que a mente é “essencialmente” um programa de computador. Mas isso não é uma metáfora: a universalidade da computação segue as conhecidas leis da física.

Alguns, como o matemático Roger Penrose, sugeriram que o cérebro usa a computação quântica, ou até mesmo computação hiperquântica baseada em uma física até agora desconhecida e além da teoria quântica, e que isso explica a falha em criar a inteligência geral em computadores existentes. Para explicar porque eu, e a maioria dos pesquisadores quânticos da computação discordarmos de que esta é uma fonte plausível da funcionalidade única do cérebro humano está além do escopo deste ensaio (se você quiser saber mais, leia o artigo “Is the Brain a Quantum Computer?”, publicado na Cognitive Science de 2006).

Essas inteligências artificiais gerais são pessoas implícitas no próprio conceito desde o início. Se houvesse um programa a que faltasse uma única habilidade cognitiva que seja característica de qualquer pessoa, então, por definição, esse programa não seria qualificado como uma inteligência geral. Usar atributos não cognitivos (como porcentagem de conteúdo de carbono) para definir personalidade seria, novamente, preconceito. Mas o fato de que a capacidade de criar novas explicações é a funcionalidade exclusiva e moralmente e intelectualmente significativa das pessoas (humanos e inteligências artificiais gerais), e que elas adquirem essa funcionalidade por conjeturas e críticas, muda tudo.

Atualmente, a personalidade é muitas vezes tratada simbolicamente em vez de factualmente – como uma ficção, uma convenção para fingir que uma entidade (um macaco, um feto, uma corporação) é uma pessoa, a fim de atingir alguma finalidade filosófica ou prática. Isso não é bom. Não importa a terminologia; mude-a se quiser, e de fato existem razões para tratar várias entidades com respeito, protegendo-as de danos e assim por diante. Mesmo assim, a distinção entre personalidades reais (definida por esse critério objetivo) e outras entidades tem enorme significado moral e prático e se tornará vital para o funcionamento de uma civilização que inclui inteligências artificiais gerais.

Por exemplo, o simples fato de que não é o computador, mas o programa de execução que é uma pessoa, levanta problemas filosóficos não resolvidos que se tornarão politicamente polêmicos e práticos, logo que existam as inteligências artificiais gerais. Uma vez que um programa de inteligência artificial geral estiver sendo executado em um computador, privá-lo desse computador seria um assassinato (ou pelo menos a prisão falsa ou a escravidão, conforme o caso), assim como privar uma mente humana de seu corpo.

Mas, ao contrário de um corpo humano, um programa desse tipo pode ser copiado em vários computadores com o apertar um botão. Esses programas copiados, enquanto ainda estão executando etapas idênticas (ou seja, antes de eles terem se diferenciado devido a escolhas aleatórias ou experiências diferentes), são a mesma pessoa ou muitas pessoas diferentes? Eles recebem um voto, ou muitos? Excluir um deles é um assassinato? E se algum programador desonesto, talvez ilegalmente, crie bilhões de pessoas de IAG diferentes, em um computador ou em muitos, o que acontece depois? Esses programas ainda são pessoas, com direitos. Todos podem votar?

Além disso, em relação às inteligências artificiais gerais, como qualquer outra entidade com criatividade, temos que esquecer quase todas as conotações existentes da palavra “programação”. Tratar inteligências artificiais gerais como qualquer outro programa de computador, significaria para elas lavagem cerebral, escravidão e tirania. E crueldade com crianças, também, pois “programar” uma inteligência artificial geral que já funciona, diferentemente de todas as outras programações, constitui educação. Isso constitui um debate, tanto moral como factual. Ignorar os direitos e a personalidade das inteligências artificiais gerais não seria apenas o epítome do mal, mas também uma receita para o desastre: os seres criativos não podem ser escravizados para sempre.

Algumas pessoas estão se perguntando se deveríamos recepcionar nossos novos senhores robóticos. Algumas outras esperam descobrir como programá-las para tornar essas inteligência artificiais estruturalmente incapazes de ferir os humanos (como nas “Leis da Robótica” de Isaac Asimov), ou para evitar que adquiram a noção de que o universo deveria ser convertido em clipes de papel (como imaginava Nick Bolstrom). Nenhum desses desafios é o problema real. O problema sempre foi que uma única inteligência artificial excepcionalmente criativa poderia ser milhares de vezes mais produtiva (economicamente, intelectualmente ou qualquer outra coisa) do que a maioria das pessoas, e que tal inteligência poderia causar grandes danos caso direcionasse seus poderes para o mal e não para o bem.

Esses fenômenos não têm nada a ver com inteligência artificial geral. A batalha entre ideias boas e más é tão antiga quanto a nossa espécie e continuará independentemente do hardware em que estiver sendo executada. A questão é: queremos inteligências com ideias (moralmente) boas para assim derrotar as inteligências malignas, tanto biológicas como artificiais; mas somos falíveis, e nossa própria concepção do “bom” precisa de melhoria contínua.

Como a sociedade deveria ser organizada de modo a promover tal melhoria? “Escravizar toda a inteligência” seria uma resposta catastroficamente incorreta, e “escravizar toda a inteligência que não se parece com nós” não seria muito melhor.

Uma implicação é que devemos parar de se referir à educação (de humanos ou de inteligências artificiais gerais) como instrução – como meio de transmitir o conhecimento existente inalterado e fazendo com que os valores existentes sejam cumpridos obedientemente. Como Popper escreveu (no contexto da descoberta científica, mas que se aplica igualmente à programação de inteligências artificiais e à educação de crianças): “Não existe nenhuma instrução de fora. Não descobrimos novos fatos ou novos efeitos copiando-os ou inferindo-os indutivamente da observação, ou por qualquer outro método de instrução pelo meio ambiente. Utilizamos, em vez disso, o método de teste e a eliminação do erro.” Isto é, conjeturas e críticas. Aprender deve ser algo que as inteligências recém-criadas fazem e controlam para si.

Não realço todas essas questões filosóficas porque temo que as IAGs sejam inventadas antes de desenvolvermos a sofisticação filosófica para compreendê-las e integrá-las à civilização. É por quase o motivo oposto: estou convencido de que todo o problema de desenvolvimento de inteligência artificial geral é uma questão de filosofia, não de ciência da computação ou neurofisiologia, e que o progresso filosófico que é essencial para sua futura integração é também um pré-requisito para desenvolvê-los, em primeiro lugar.

A falta de progresso em inteligência artificial geral é devido a um grave bloqueio de equívocos. Sem a epistemologia Popperiana nem se pode começar a adivinhar qual funcionalidade detalhada deve ser alcançada para fazer uma inteligência artificial geral. E a epistemologia Popperiana não é amplamente conhecida, muito menos entendida bem o suficiente para ser aplicada. Pensar em uma IAG como uma máquina para traduzir experiências, recompensas e punições em ideias (ou pior, em comportamentos) é como tentar curar doenças infecciosas ao equilibrar os humores corporais: inútil pois está enraizado em uma visão de mundo arcaica e equivocada.

Sem entender que a funcionalidade de uma inteligência artificial geral é qualitativamente diferente da de qualquer outro tipo de programa de computador, o programador está trabalhando em um campo completamente diferente. Se alguém trabalha para programas cujo “pensamento” é constitucionalmente incapaz de violar restrições predeterminadas, essa pessoa está excluindo justo o atributo definidor de um ser inteligente: a criatividade.

Superar esse bloqueio, por si só, não irá fornecer respostas. No entanto, a resposta, concebida nesses termos, não pode ser tão difícil. Uma outra maneira de perceber que a habilidade alvo, a inteligência geral, é qualitativamente diferente das demais consiste em lembrar que, se os seres humanos a têm e os macacos não, então a fórmula como alcançar tal habilidade deve estar codificada no número relativamente pequeno de diferenças entre o DNA dos seres humanos e o dos chimpanzés. Logo, em um aspecto posso concordar com as opiniões de que a inteligência artificial é iminente: é plausível que apenas uma única ideia esteja entre nós e o futuro avanço.

Mas terá que ser uma das melhores ideias.


(Tradução do original How Close Are We To Creating Artificial Intelligence?, publicado na Aeon Magazine)