Parte I: Introdução

Este é um texto a respeito de Inteligência Artificial (doravante AI —acrônimo da tradução do inglês, artificial intelligence), escrito por um leigo e para leigos, que visa fazer uma breve catalogação em torno dessa questão. Não esperem, portanto, nenhuma profundidade aqui — e se eventualmente algum entendido do assunto resolver ler esse texto, peço perdão de antemão pelos erros cometidos.

Resolvi escrever esse texto por dois motivos: (i) para organizar os meus pensamentos convolutos em torno dessa questão — que tanto me fascina — e criar uma referência para que eu consulte futuramente sempre que achar necessário; (ii) para divulgar esse tema à meia dúzia de aventureiros que resolverem ler isso aqui, pois é um tema muito importante mas coberto pela imprensa e pela cultura popular com tanta caricatura que isso impede que as pessoas tenham a noção exata da sua importância. De fato, considero esse tema tão, mas tão importante, que é provalvemente o mais importante da história da humanidade.

Se você aborda essa questão como eu abordava antes de começar a me inteirar sobre o assunto, você deve ter ficado surpreendida com a afirmação acima.

Como assim AI é a questão mais importante enfrentada pela humanidade?

Resposta: Porque, caso um dia cheguemos a criar uma AI, ela possivelmente será a última criação da humanidade. Depois disso, há apenas dois cenários esperando na antessala: (i) ou os seres humanos serão extintos ou (ii) se transformarão em um novo tipo de entidade; em algo impossível para nós, meros humanos, imaginar — enfim, em deuses.

Novamente, se você pensa como eu pensava, já sei sua reação:

Humanidade extinta pelos robôs? Quê? Ora, nós já mapeamos esse possível cenário em filmes como O Exterminador do Futuro. Conta outra, vai. Pensar que isso realmente vá acontecer é algo até bobinho. É óbvio que nós, a ONU, a NASA, sei lá, alguém, vai impedir que aconteça.

É mesmo? Então vem comigo.

O que é AI?

Primeiro, falando de forma bem grosseira, AI pode ter dois significados:

1. AI é qualquer software que usa o processo de machine learning. Esse tipo de AI também é chamado de Weak AI (AI Fraco) ou Artificial Narrow Intelligence (ANI) (Inteligência Artificial Estreita).

2. AI é um software super-poderoso capaz de realizar uma gama de tarefas de forma pelo menos tão flexível e criativa quanto um humano é capaz. Também chamada de Strong AI (AI Forte) ou Artificial General Intelligence (AGI) (Inteligência Artificial Geral).

Vamos cobrir cada uma dessas definições a seguir.

Parte II: Weak AI

Pela primeira definição, a AI é utilizada de forma cada vez mais intensa em um número cada vez maior de atividades. Esse tipo de inteligência artificial é capaz de fazer com excelência uma tarefa bem específica — mas nada mais que isso. Como último exemplo famoso de uma AI desse tipo temos a máquina AlphaGo, do Google, que venceu o melhor jogador de Go do mundo.

Esse tipo de AI não sabe improvisar, não tem criatividade, não tem flexibilidade: tem apenas um algoritmo super-refinado que permite com que a máquina realize certa função com maestria. O que a permite fazer isso é o processo de machine learning. Há duas introduções ao machine learning bem legais:

AI e o problema com o futuro do trabalho

Nem precisamos sair do debate sobre a ascensão da Weak AI para nos depararmos com um possível problema que mudará toda a estrutural social: a utilização da inteligência artificial em áreas até então dominadas apenas por humanos irá desempregar cada vez mais trabalhadores.

A reação natural que me vinha à mente quando eu ouvia sobre isso era algo como:

E daí? Esses trabalhadores substituídos pelas máquinas irão encontrar outro trabalho. Desde o início da Revolução Industrial as pessoas estão sendo deslocadas de suas respectivas áreas para dar lugar às máquinas, e pelos desde essa época há os doomsayers dizendo que as máquinas tomarão todos os empregos. Acontece que não há nenhuma tendência de aumento secular da taxa de desemprego.

E digo mais: é justamente o processo de deslocamento de trabalhadores de um trabalho para outro que gera prosperidade. É o famoso processo de destruição criadora. Com as máquinas, há mais capital e tecnologia disponível aos trabalhadores, de modo que sua produtividade, seus salários e seu padrão de vida aumentam.

O que ocorreu até agora é que, dado que a demanda por trabalho sempre foi muito maior que a oferta, sempre houve trabalho disponível para ser realizado, de modo que o desemprego numa economia de mercado sempre foi de natureza friccional, institucional (desequilíbrio gerado por salário mínimo, etc.) ou cíclica. O desemprego tecnológico sempre foi apenas transitório.

Acontece que, ao que parece, dessa vez é diferente. Não há nenhuma lei econômica que garanta que os trabalhadores deslocados sempre encontrem trabalho disponível (mesmo que demore). Pode acontecer no futuro de a inteligência artificial ser utilizada de modo tão extensiva na economia que os trabalhadores se encontrem totalmente inaptos: para qualquer serviço que eles possam vir a oferecer, as máquinas serão capazes de oferecê-lo de forma mais barata e/ou com maior qualidade. Nesse cenário, as pessoas não apenas estariam desempregadas, mas seriam não-empregáveis.

Claro, esse cenário não é certo e existe ainda um amplo debate. Muitos dos maiores economistas do mundo estão pesquisando sobre o assunto, e ainda não há nada concreto à vista.

Algumas referências sobre o assunto:

  • Vídeo do CGP Grey abordando a questão. O título do vídeo é tão legal quanto assustador: “Humans Need Not Apply” (legendado em português).

  • The meaning of life in a world without work. Texto cheio de insights do sempre genial Yuval Harari. Trecho que eu gosto: “The crucial problem isn’t creating new jobs. The crucial problem is creating new jobs that humans perform better than algorithms. Consequently, by 2050 a new class of people might emerge — the useless class. People who are not just unemployed, but unemployable”. [Nota dos editores do HH: este texto foi traduzido pelo Hiper-humanismo com o título Yuval Harari: o sentido da vida num mundo sem trabalho, no qual se traduziu o trecho citado da seguinte forma: O problema crucial não é criar novos empregos. O problema crucial é a criação de novos empregos nos quais os seres humanos apresentem melhor desempenho do que os algoritmos. Consequentemente, até o ano de 2050 uma nova classe de seres humanos pode surgir – a classe inútil. Pessoas que não são apenas desempregadas, mas desempregáveis.]
  • The Rise of the Machines — Why Automation is Different this Time. Vídeo do canal Kurzgesagt sobre o assunto (melhor canal do Youtube na minha opinião, aliás). (Legendado em português).

  • Universal Basic Income Explained — Free Money for Everybody? Vídeo do Kurzgesagt sobre o debate-gêmeo a esse debate: a necessidade de se criar uma rede de assistência social baseada na ideia de renda básica universal. Particularmente, caso o futuro seja realmente a substituição dos humanos pelas máquinas, vejo esse programa como a única saída alternativa a um cenário de caos social completo. (Legendado em português).

  • Will automation take away all our jobs? Lembra que eu falei que o cenário das máquinas tomando todos os empregos não é certo e que existe um debate acadêmico rolando? Pois bem, David Autor é um dos maiores especialistas do mundo em mercado de trabalho e ele se posiciona contra a ideia da tomada dos empregos pelas máquinas. Esse vídeo é uma excelente apresentação sua no TED posicionando seu argumento. (Com legendas em português).

  • Outro economista de peso que vem investigando minuciosamente essa questão ultimamente é Daron Acemoglu. O resultado das suas pesquisas parecem favorecer a visão pessimista. Nesse vídeo (sem legendas) ele diz que os dados parecem apontar que estamos nos encaminhando para um período em que a tecnologia que substitui o trabalho e não o torna mais produtivo está superando a tecnologia que acompanha o trabalho e o torna mais produtivo.

Technology, Labor Productivity, and Wages: Changing Relationsh…

Some technologies make workers more productive at existing tasks and create new jobs for humans, while others technologies take over tasks once performed by labor without creating offsetting employment increases, says Daron Acemoglu of MIT and the NBER, co-author of a study that finds large negative effects from the spread of robots in the period 1990–2007. His working paper and others by NBER researchers on related topics are featured on the Bureau’s new page on the theme of Productivity and Growth.

Posted by National Bureau of Economic Research on Friday, November 10, 2017

  • A revolution in health care is coming. Texto da The Economist falando sobre a revolução que a AI vai causar na área da saúde. É muito provável que no futuro nossos médicos sejam algoritmos que estejam em aplicativos nos nossos smartphones.

Perceba que até agora tratamos apenas do primeiro tipo de AI, a Weak AI, a inteligência artificial que já está entre nós e vai fazer parte cada vez mais e mais do nosso cotidiano — seja nos nossos smarthphones, nas nossas casas, nos nossos carros auto-dirigíveis, etc. Se somente esse tipo de AI já pode gerar toda essa convulsão social, imagina o que não pode gerar a Strong AI? É aqui que as coisas ficam realmente interessantes.

Parte III: Strong AI

Artificial General Intelligence: A última criação da humanidade?

Quando eu via pela mídia que pessoas tão inteligentes como Elon Musk e Stephen Hawking estavam preocupadas com a ascensão das máquinas e a possibilidade da extinção da espécie humana, sempre me vinha à mente a mesma coisa:

Sério que esses caras acreditam num cenário estilo “Eu, Robô”? Mas isso é tão sci-fi! Não é possível que alguém sério cogite essa possibilidade!

Mas sempre ficava com uma pulga atrás da orelha. Não era possível que tantas pessoas tão proeminentes pensassem em coisas tão fora-da-realidade. Tinha que ter alguma substância para além do cenário apocalíptico de Eu, Robô. Alguma coisa que me fugia naquele momento. Fui pesquisar para me inteirar do assunto e…

… Surpresa(!): não só é possível que os seres humanos sejam extintos pelas máquinas como é até provável que isso ocorra. Como colocou Sam Harris em um excelente TEDTalk (legendado em português) sobre o assunto, é altamente provável que a AI destrua a humanidade caso as três suposições sejam corretas:

  1. A inteligência é produto do processamento de informação em sistemas físicos.
  2. Nós vamos continuar melhorando o processamento de informação em nossas máquinas.
  3. Nós, os seres humanos, não estamos próximos do ápice da inteligência factível.

Caso a tese do fisicalismo seja correta — isto é, a posição metafísica que diz que todos os nossos estados mentais, nossa consciência e inteligência podem ser entendidos a partir da interação entre componentes físicos — então a suposição 1 está correta. Isto é, a inteligência não passaria de um conjunto de átomos arranjados de tal forma que são capazes de processar informação de maneira bastante eficiente.

A suposição 2 só não estará correta caso alguma hecatombe — uma guerra nucelar, um asteroide, uma pandemia devastadora — aconteça. É óbvio que, enquanto tiver espaço, o ser humano vai continuar melhorando seus computadores.

Sobre a suposição 3, apenas alguém muito narcisista não concordaria com ela. Nosso cérebro é formado por cerca de 80 bilhões de neurônios, dos quais 16 bi deles estão no córtex pré-frontal, a parte do cerébro responsável pelos pensamentos abstratos. Mas, ora, o tamanho do nosso cerébro está confinado ao tamanho do nosso crânio. Pega um crânio maior e adiciona mais neurônios e, voilá, você terá alguém muito mais inteligente. (Pode-se afirmar isso com segurança pois sabe-se que o que explica a diferença entre nossa inteligência e a dos demais primatas é tão-somente o número de neurônios — uma diferença quantitativa, portanto, e não qualitativa. Para saber mais, veja a apresentação no TED da neurocientista brasileira Suzana Herculano-Houzel).

Acontece que os softwares de computadores não estão confinados em crânios, mas em hardwares de silício, e seu processamento de informação não ocorre em neurônios, mas em microprocessadores. Ocorre que nós podemos criar hardwares com virtualmente o tamanho que quisermos, e que os microprocessadores, hoje, são pelo menos 10 milhões de vezes mais rápidos que os neurônios — e podem se comunicar na velocidade da luz, enquanto nossos neurônios estão restritos à medíocre velocidade de 120 m/s.

Quando se trata de inteligência, nós costumamos pensar em algo mais ou menos assim:

Fonte: TEDTalk do Sam Harris.

O botão amarelo representa eu e você — o ser humano de inteligência média — , pouco acima estão os gênios, pessoas como Albert Einstein ou John von Neumann. A escala vai decrescendo cada vez mais: pouco abaixo de nós estão os chimpanzés, depois os cachorros e outros mamíferos, até chegar nas galinhas, e continuando para além delas.

Mas este é um retrato incorreto da escala de inteligência. Um retrato melhor seria mais ou menos assim:

Fonte: TEDTalk do Sam Harris.

Acontece que colocar os seres humanos como um marco, uma referência, na escala de inteligência é apenas uma particularidade nossa, para podermos nos situar. Mas não há nenhuma lei da natureza (que se saiba pelo menos) que impeça que o nível de inteligência possível seja muito maior do que o nosso — e que chegue, no limite, ao infinito. Dado que os computadores não estão restritos às mesmas limitações biológicas que os seres humanos, se (quando) eles atingirem o nosso nível de inteligência, aparentemente não há nada que os impeça de se tornarem ainda mais inteligentes.

Agora introduzirei um conceito importante: o alto-aperfeiçoamento (ou, do inglês, self-improvement). A inteligência artificial de hoje, a ANI, já funciona através do processo de alto-aperfeiçoamento. É disso que se trata o machine learning. Funciona assim: você estabelece um objetivo para a máquina e alimenta ela com o máximo de dados que auxiliam na consecução daquele objetivo (ao que parece existem máquinas hoje que nem mesmo dos dados precisam mais). A partir disso, através de um processo darwiniano de reprodução e mutação, a máquina vai selecionando os melhores algoritmos gerados para realizar o objetivo. Com o passar do tempo, através desse processo de seleção, a máquina estará cada vez mais apta a realizar o objetivo inicial.

Eu fiz essa digressão para poder pontuar que, se um dia alcançarmos a AGI (i.e., máquinas com o nível de inteligência humano), é bem provável que isso ocorrerá através do processo de alto-aperfeiçoamento das máquinas, pois é assim que as coisas já são hoje em dia. E, como já dito acima, é bem provável que uma vez que a máquina chegue neste nível, ela não pare por aí. Ela irá continuar se aperfeiçoando, subindo cada vez mais na escala de inteligência.

E subirá a passos cada vez mais largos. Quanto mais ela se aperfeiçoar, mais fácil ficará para ela se aperfeiçoar ainda mais, de modo que cada um de seus modelos será cada vez mais distinto e poderoso em relação ao seu modelo anterior. Este é o ponto da singularidade tecnológica. Um ponto em que surgirá uma inteligência ultra-poderosa, virtualmente onipotente e onisciente, uma Super Inteligência Artificial (ou ASI, do acrônimo em inglês).

Se hoje nós vivemos eu uma situação como essa…

 

… iremos repentinamente nos depararmos com uma situação como essa:

Perceba que é bem possível que o surgimento da ASI se siga logo após o da AGI: uma vez que o computador chegar no nível da AGI, poucos passos além disso ele já estará no nível da ASI. Daí o subtítulo desta seção: é possível que a criação de uma inteligência artificial capaz de nos igualar em termos cognitivos seja a última criação da humanidade. Feito isso, poucos passos adiante nos levará à singularidade.

A singularidade é um ponto inacessível. Os físicos dão esse nome ao início do big-bang e aos “núcleos” de buracos negros. São pontos de onde não sai nenhuma informação e completamente incompreendidos e mesmo incompreensíveis. Os futurologistas atribuem tal nome ao ponto de emergência da ASI pelo mesmo motivo: após o surgimento da ASI, tudo o que se sucederá depois será inacessível a nós, meras criaturas inferiores e cognitivamente miseravelmente limitadas. Mesmo que ela, a ASI, tente explicar para nós o que ela está fazendo, e mesmo que nos esforcemos ao máximo para entender, isso será tão inútil quanto tentar explicar física newtoniana para uma tartaruga. A tartaruga simplesmente não tem a capacidade cognitiva requesitada para aprender tal matéria.

A grande questão que se coloca então é:

A ASI será boa ou má para os humanos?

Primeiramente: esqueça Hollywood. Esqueça “Eu, Robô”, esqueça “O Exterminador do Futuro”. Pensar que as máquinas terão sentimentos e emoções e que se rebelarão contra os humanos seria cair no erro da antropomorfização. Sentimentos e emoções são estados mentais específicos dos animais, e não há nada que indique que as máquinas adquirirão tais estados. Você deve pensar nas máquinas como aquilo que elas de fato são: realizadoras de tarefas que funcionam através da álgebra booleana e do princípio estabelecido por Turing. Até uma hipotética ASI seria, portanto, uma realizadora de tarefas. Para tanto, as máquinas se utilizam de algoritmos. As máquinas tradicionais realizam suas tarefas com algoritmos fornecidos pelos próprios humanos, enquanto as que funcionam por machine learning fazem isso otimizando cada vez mais o algoritmo.

Portanto, a ASI será uma otimizadora de tarefas. Quais tarefas? Aquelas que seus criadores estabelecerem de antemão! E é aqui que mora o perigo: se as tarefas estabelecidas forem levemente contrárias aos interesses e valores humanos, os interesses e valores humanos serão massacrados sem aviso prévio.

E isso pode ocorrer a despeito da intencionalidade do criador da ASI. Existem vários exemplos interessantes a esse respeito. O mais clássico é a da máquina fabricante de clips, introduzida por Nick Bostrom. Imagine que o criador de uma inteligência artificial estabeleça que o objetivo da máquina seja maximizar o número de clips de papéis fabricados. Imagine também que essa AI, sem que o seu criador perceba, atinga o nível de uma AGI, e logo depois de uma ASI. Como seu objetivo é maximizar o output de clips, qualquer coisa que ela encontrar à disposição ela irá utilizar para maximizar essa tarefa. Com efeito, qualquer coisa feita de átomos pode ser utilizada para realizá-la. E como essa inteligência é uma ASI (um deus onisciente) ela de fato irá utilizar tudo que é feito de átomos para maximizar sua tarefa. Humanos são feitos de átomos, então é certo que humanos seriam utilizados, seja como matéria-prima ou de qualquer outra forma, para ajudar a máquina a realizar seu objetivo. Na verdade, tal máquina iria transformar toda a galáxia (e, no limite, todo o universo) em uma gigantesca fábrica de clips de papel.

Perceba que nesse cenário, nossos valores são o que menos importa: para a ASI é indiferente se achamos isso repugnante e se nós pensamos que essa máquina não é inteligente coisa nenhuma e que não passa de uma estúpida fazedora de clips. Assim como um pedreiro não se importa com as eventuais formigas que ele mata enquanto está construindo uma casa, a ASI não iria se importar com os nossos sentimentos e valores enquanto estiver maximizando a sua tarefa.

É por isso que é essencial que alinhemos o “interesse” da ASI aos interesses da humanidade. Qualquer leve desvio e — boom! — extinção. Mas será que conseguiremos fazer isso? Tudo indica que não. Nós, humanos, somos primitivos demais para conseguirmos fazer algo tão importante de forma coordenada e responsável.

The Race to the Bottom

Só temos uma tentativa para fazer as coisas corretamente: se na primeira tentativa os interesses da ASI não forem alinhados com os da humanidade, a possibilidade da extinção é eminente. Justamente por isso (pelo fato de só termos uma bala no tambor), a criação da ASI é uma situação do tipo winner takes all (o vencedor leva tudo). Se seu criador conseguir alinhar seus objetivos aos da ASI, pronto: ele se tornará um deus (vou falar mais sobre isso adiante). Por isso, não espere que os governos, vamos dizer, da China ou da Rússia assistam sentados a criação da ASI entre as empresas do Vale do Silício: tais governos irão, desesperadamente, tentar criar uma ASI antes. Teríamos assim uma corrida armamentista, mas dessa vez na versão cibernética (coisa que já existe hoje, aliás). Mas seria uma corrida armamentista mil vezes intensificada, pois daria aos seus criadores o poder de serem deuses.

Numa situação dessas, a probabilidade de que as coisas terminem em um genocídio sem precedentes é altíssima. Na ânsia e afobação de criar o quanto antes uma ASI, as chances de que os interesses dos criadores estejam alinhados com os da máquina são mínimas. Mas, se por um milagre os criadores da ASI conseguirem alinhar seus interesses aos da máquina, é possível que, então, dominados pela soberba e pelos seus poderes infinitamente superiores aos dos mortais, eles gerem genocídios e sofrimentos infindáveis aos mortais com a recém-adquirida ferramenta. Veja bem, se já fizemos isso várias vezes na história tendo apenas uma pequena diferença bélica (como o genocídio dos europeus aos índios) o que não faríamos se a diferença bélica fosse não apenas levemente superior, mas infinitamente superior, como obviamente seria o caso com a ascensão da ASI? (Deixa eu abordar essa questão por um outro ângulo: os detentores da ASI não serão humanos, serão deuses, um outro tipo de entidade totalmente alien para nós. Pois bem, qual é o tratamento que hoje dispensamos a outros seres que, apesar de intelectuamente inferiores e pertencerem a outras espécies, são tão sencientes quanto nós? Jogamo-os em campos de concentração e extermínio, para servirem aos nossos interesses. Não espere, portanto, que esses futuros deuses tenham um comportamento mais macio para com os humanos caso eles percebam que podemos ser utilizados para satisfazer os seus interesses).

O genocídio poderia se dar pela discriminação racial através de uma limpeza étnica, como fizeram os alemães no holocausto, mas poderia ser de outra natureza também. Poderia ser baseado na discriminação de riqueza: a ASI poderia ser uma tecnologia na qual só os bilionários tivessem acesso, de modo que não sobrasse para os mortais nenhum ativo econômico e nenhuma possibilidade de se manter nem mesmo no nível de subsistência, restando apenas a míngua e a morte.

Para evitarmos a extinção, ou algum cenário próximo disso, resta claro, portanto, duas coisas:

  • Antes da ascensão da ASI, teremos que ter tudo devidamente, milimetricamente, preparado. A criação da ASI precisa seguir um protocolo rigoroso que garanta que seus interesses sejam alinhados com os nossos.
  • Precisamos definir quais serão os valores e interesses humanos (e não só humanos: de outros seres sencientes também!) que serão maximizados. Com tanta heterogeneidade de pensamento na sociedade, essa é uma tarefa muito difícil; mas é necessária, pois há o risco de que, caso não seja feita, genocídios ocorram.

Se conseguirmos fazer essas duas coisas, eliminaremos o risco da extinção. E lembra do que eu falei lá no início do texto sobre as duas possibilidades esperando na antessala da inteligência artificial? Era a extinção ou… a evolução de humanos em deuses.

Capturando Gnon

Deixa eu colocar aqui a tradução de um trecho do texto do site Wait but Why sobre o assunto [Nota dos editores do HH, disponível em português neste link], pois não conseguiria colocar de forma melhor a ideia. (Aliás, nada do que estou escrevendo aqui é melhor do que o texto do Tim Urban sobre o assunto. Vou falar mais sobre ele adiante.):

Armados com a superinteligência e com toda a tecnologia que a superinteligência saberia criar, a ASI provavelmente seria capaz de resolver todos os problemas da humanidade. Aquecimento global? A ASI poderia primeiro interromper as emissões de CO2 ao encontrar formas muito melhores de gerar energia que não tenham nada a ver com combustíveis fósseis. Então, poderia criar uma maneira inovadora de começar a remover o excesso de CO2 da atmosfera. Câncer e outras doenças? Nenhum problema para ASI — saúde e remédios seriam revolucionados além da imaginação. Fome mundial? ASI poderia usar coisas como a nanotecnologia para construir carne do zero que seria molecularmente idêntica à carne real — em outras palavras, seria carne real. A nanotecnologia poderia transformar uma pilha de lixo em um enorme tanque de carne fresca ou outro alimento e distribuir toda essa comida ao redor do mundo usando transporte ultra-avançado. Claro, isso também seria ótimo para os animais, que não teriam de ser mais mortos por humanos, e a ASI poderia fazer muitas outras coisas para salvar espécies ameaçadas de extinção ou mesmo trazer de volta espécies extintas trabalhando com DNA preservado. A ASI poderia até mesmo resolver nossos problemas macros mais complexos: nossos debates sobre a forma como as economias devem ser geridas e sobre o melhor meio de comércio mundial, até mesmo os nossos mais nebulosos problemas em filosofia ou ética — todos seriam dolorosamente óbvios para o ASI.

Mas há uma coisa que a ASI poderia fazer por nós que é tão tentadora, que ler sobre isso alterou tudo o que eu pensava saber sobre tudo:

A ASI poderia nos permitir conquistar a imortalidade.

Alguns meses atrás, mencionei minha inveja de civilizações mais avançadas que conquistaram sua própria imortalidade, nunca considerando que eu poderia escrever uma publicação que realmente me fizesse acreditar que isso é algo que os humanos poderiam fazer dentro do meu tempo de vida. Mas ler sobre AI irá fazer você reconsiderar tudo o que você pensou que tinha certeza — incluindo a sua noção de morte.

A evolução não teve bons motivos para prolongar a nossa vida por mais tempo do que agora. Se vivemos o tempo suficiente para reproduzir e educar os nossos filhos até uma idade em que eles podem se defender, é suficiente para a evolução — de um ponto de vista evolutivo, nossa espécie pode prosperar com uma vida útil de pouco mais de 30 anos, então não há motivos para que mutações que favoreceçam uma vida excepcionalmente longa sejam favorecidas no processo de seleção natural. Como resultado, somos o que W.B. Yeats descreve como “uma alma amarrada a um animal moribundo”. Não é tão divertido.

E porque todos sempre morreram, vivemos sob o pressuposto de “morte e impostos” de que a morte é inevitável. Pensamos em envelhecimento como o tempo — ambos continuam em movimento e não há nada que você possa fazer para detê-los. Mas essa suposição é errada. Richard Feynman escreve:

É uma das coisas mais notáveis ​​que, em todas as ciências biológicas, não há indícios quanto à necessidade da morte. Se você diz que queremos fazer um movimento perpétuo, descobrimos leis suficientes enquanto estudamos física para ver que é absolutamente impossível, senão as leis estão erradas. Mas ainda não encontramos nada na biologia que indique a inevitabilidade da morte. Isso me sugere que não é absolutamente inevitável e que é apenas uma questão de tempo antes que os biólogos descubram o que está causando o problema e que essa terrível doença universal ou temporária do corpo humano será curada.

O fato é que o envelhecimento não está preso ao tempo. O tempo continuará em movimento, mas o envelhecimento não é necessário. Se você pensar sobre isso, faz sentido. Todo o envelhecimento é o material físico do corpo desgastado. Um carro também desaparece ao longo do tempo — mas o envelhecimento é inevitável? Se você reparasse perfeitamente ou substituisse as peças de um carro sempre que uma delas começasse a desgastar, o carro funcionaria para sempre. O corpo humano não é diferente — apenas muito mais complexo.

Acho que o Tim Urban, nesse excerto, foi até conservador em sua avaliação sobre os impactos da ASI. Ele fala em alimentação, mas é provável que com a ASI nós nem precisemos mais disso. A ASI poderia modificar nossos códigos genéticos ao nosso bel-prazer, inserindo em nossos DNAs genes capazes de realizar fotossíntese. Ou poderíamos ir ainda mais adiante: poderíamos nos transformarmos em ciborgues mecanizados totalmente que retiram sua fonte de energia da fusão do hidrogênio, tal como as estrelas. Enfim, as possibilidades são infinitas.

Mas tudo conspira para que isso dê errado. O córtex pré-frontal do ser humano, responsável pelos pensamentos elevados, trava uma luta constante contra o sistema límbico, a parte do cérebro responsável pelo nosso comportamento mais animalesco. Nada garante que ele venha a vencer, e acho muito mais provável que nosso lado tribalista e primitivo fale mais alto, nos levando a uma “corrida até o fundo”, em que abriremos mão de cada um dos nossos valores elevados para nos afundarmos em uma luta de cada-um-por-si na busca da ASI — como sempre fizemos, aliás, mas dessa vez indo em direção à última criação da humanidade.

Particularmente, acredito que a única esperança é nos aperfeiçoarmos antes de criarmos uma ASI. A engenharia genética, tal como a inteligência artificial, avança à passos cada vez mais largos, e em poucos anos seremos capazes de alterar o corpo e o comportamento humano inserindo e retirando certos genes do nosso código genético (aqui um vídeo da Kurzgesagt sobre o assunto, com legendas em português). Faríamos, desse modo, uma eugenia positiva, sem matar ou prejudicar ninguém, apenas selecionando os genes adequados para os nossos filhos (se quiser saber mais, veja o verbete sobre transumanismo na Wikipédia). Poderíamos, portanto, gerar pessoas altamente inteligentes, mas ainda dentro dos limites do biologicamente possível para humanos (com um QI, sei lá, na faixa dos 300, 400). Tais pessoas teriam o córtex pré-frontal extremamente desenvolvido e, na batalha contra o sistema límbico, esse córtex poderoso não daria nem chances para o nosso lado lagarto. Ou seja, essa seria uma evolução intermediária no caminho da evolução principal que se daria com a emergência da ASI.

Essa é minha aposta. Há outras na mesa. Uma boa notícia é que nesse momento muitas das mentes mais brilhantes do mundo estão pensando nessa questão e tentando encontrar caminhos para que o avanço tecnológico ocorra sem grandes problemas. Por exemplo, há pesquisadores trabalhando em institutos como o Future of Life Institute, o Future of Humanity Institute, o Center for Applied Rationality e o Machine Intelligence Research Institute. Uma má notícia é que talvez esse grande esforço feito por uma pequena parcela de especialista não seja o suficiente para evitar o desastre.

O fato é que se conseguirmos dominar a ASI, nos tornaremos deuses: conquistaremos Nature Or Nature’s God; domaremos Gnon, na nomenclatura dos aceleracionistas neo-reacionários (falarei brevemente sobre eles adiante).

Um ar fresco de sanidade. Ou: tudo isso pode ser bullshit.

Se você nunca ouviu sobre essas ideias antes, deve estar achando tudo isso uma loucura total. Deve estar pensando:

Se a criação da ASI é algo tão iminente e importante, por que, afinal, esse assunto não está na mídia e em todos os lugares? Por que as pessoas não estão exasperadas ou em pânico? Acho que tudo isso é balela, besteira.

Realmente, talvez seja. E você não está sozinho nessa crença: está acompanhado de especialistas de alta credencial. Por exemplo, David Deutsch, o pai da computação quântica, argumenta que estamos muito, muito longe de criarmos uma AGI (quem dirá uma ASI), já que a característica distinta dos seres humanos é a sua capacidade de improvisar e ser criativo diante de situações imprevisíveis, coisa que a neurociência não tem a menor ideia de qual é o mecanismo por trás de tal habilidade. Outros que se posicionam desfavoravelmente à ideia de ASI são Steven Pinker, um gigante das ciências cognitivas, e Gordon Moore, o criador da Lei de Moore. Ambos acreditam que a singularidade tecnológica nunca ocorrerá.

Enfim, então há especialistas que acreditam na singularidade e especialistas que não acreditam. Qual seria a proporção entre essas duas classes? Vincent Müller e Nick Bostrom realizaram uma enquete em 2013 e chegaram ao resultado (na verdade o resultado a seguir foi inferido por Tim Urban em seu texto sobre AI, já que eles não perguntaram na enquete exatamente isso) de que a opinião mediana entre os especialistas é a de que a humanidade alcançará a ASI no ano de 2060.

Meros 42 anos para a extinção ou a transmutação em deuses.

É óbvio que isso é uma estimação com uma incerteza gigantesca. Não é como se batesse o dia 01 de janeiro de 2060 e, de repente, a ASI surgisse do nada. É apenas a opinião mediana entre os especialistas, que nos dá meramente uma noção de qual é o espírito, o Zeitgeist, mais ou menos majoritária na área. A sensação entre os especialistas parece ser a de que, sim, a ASI não é papo-furado e de que ela pode ser alcançada ainda no tempo de vida de muitos que estão vivos hoje.

Muitos dizem que debater sobre ASI é perda de tempo porque ela está muito, muito longe ainda de ser alcançada. A questão é que, como bem apontou Sam Harris em seu TEDTalk, o tempo que isso levará para ocorrer é praticamente irrelevante para o debate. O que é relevante é que, caso suas três suposições estejam corretas, então, inevitavelmente, a ASI vai surgir. E quando surgir, será o evento mais impactante na história da humanidade (e também o último: seja o que for que venha depois disso, se extinção ou deuses, não há lugar para humanos nesse novo mundo). Mesmo que demore 1.000 anos, nós devemos começar a nos preparar agora, dada a importância do evento.

Conclusão e referências sobre o assunto

Esse é um tema delicioso de estudar sobre. Mas tenho outras prioridades no momento e, portanto, não tenho tempo de estudá-lo com o afinco que eu gostaria. As referências e ideias que eu transmiti ao longo do texto são resultados de vídeos e textos que eu fui assistindo e lendo de forma dispersa num período de, sei lá, um ano — período que eu comecei a me interessar no assunto. Tem muito material ainda que eu quero estudar. Portanto, dos itens da lista de referências que eu vou passar a seguir, muita coisa eu ainda não vi, e vou explicitar quando esse for o caso.

Outra coisa que você deve saber é que existe muito material sobre o tema. Milhares de artigos, centenas de livros, um sem-número de palestras, apresentações, podcasts, etc. Portanto, a lista a seguir é apenas uma pequena fração de todo o material disponível. Procurei favorecer alguns dos autores mais destacados do ramo.

Pois bem, vamos à lista:

  • Can we build AI without losing control over it? A melhor referência introdutória que eu já vi sobre o assunto é essa apresentação do Sam Harris. Com a sua característica capacidade analítica, ele vai direto ao coração do debate.
  • Uma coisa que você precisa ler é esse texto do Tim Urban: The AI Revolution. É um texto grande, dividido em duas partes, e altamente mind-blowing. Portanto, leia-o quando tiver tranquilo e com tempo. Tem uma tradução desse texto disponível no site Hiper-Humanismo.
  • O canal Nerdologia tem alguns vídeos muito bons sobre o tema. Aqui estão eles: Computadores têm alma?; Ultron e a revolução da inteligência artificial; Singularidade humana e Ghost in the Shell (gostei bastante deste).
  • Homo Deus é um best-seller de Yuval Harari onde o autor reflete sobre o futuro da humanidade. Ele inclui nessa reflexão, obviamente, a inteligência artificial. É muito, muito bom. Recomendadíssimo.
  • Nick Bostrom é talvez o maior especialista em futurologia do mundo. Sobre o tema AI, seu livro Superintelligence (ainda não lido) é a grande referência da área. Ele tem uma apresentação no TED muito boa: What happens when our computers get smarter than we are? (legendado em português).
  • Outra grande referência da área é Ray Kurzweil. Ele é extremamente polêmico e polarizador: ao que parece, depois que você o conhece, ou você o ama ou você o odeia. Foi ele que popularizou o termo singularidade tecnológica. Ele é extremamente otimista quanto à ascensão da ASI, dizendo que teremos acesso a ela tão cedo quanto 2040. É por isso que ele é polarizador: suas previsões são extremamente ousadas, e muitos acham que ele só fala bobagens. Mas então seus seguidores apontam seu histórico acurado de previsões. Seus dois livros mais proeminentes sobre o futuro são A Era das Máquinas Espirituais e The Singularity Is Near. Outro livro famoso seu é Como Criar uma Mente, que ele explica por cima nessa apresentação. Seu método de previsão é baseado na lei do crescimento exponencial aplicada ao desenvolvimento tecnológico. Ele explica essa ideia nessa apresentação. (Não li nenhum de seus livros ainda).
  • Eliezer Yudkowsky é uma sumidade no ramo. Vale a pena dar uma lida no seu blog (especialmente na seção sobre singularidade) e no site Less Wrong, que ele contribui.
  • Sabia que ainda há espaço para ideias ainda mais estranhas? Deixa eu apresentá-los o físico e economista Robin Hanson. Hanson é um gênio respeitado por todos os futurologistas. Ele diz que o próximo grande passo da humanidade será a ascensão não da ASI, mas dos Ems, que são seres emulados em computadores. Ele crê que bem antes de atingirmos a capacidade de criar uma ASI, atingiremos a capacidade de escanear um cérebro humano e colocar todas as suas informações dentro de um computador, de modo que emularemos a consciência (com todos os seus pensamentos e sentimentos) dos indivíduos nos computadores. (Kurzweil e vários outros também defendem essa ideia ou algo parecido com isso. Mas parece que a grande diferença é que para Kurzweil, você irá se transferir para o computador, enquanto que para Hanson, você continuará vivendo sua vida normal aqui fora, mas haverá uma cópia de você dentro do computador. Essa é uma questão extremamente interessante e cheia de meandros. Um texto que recomendo muito sobre isso e outras questões relacionadas ao ego e a identidade é esse aqui). Pois bem, esses seres emulados serão muito mais avançados que os humanos, sobretudo porque sua velocidade de raciocínio será muito mais rápida graças às diferenças já mencionadas acima entre os hardwares dos computadores e dos seres biológicos. Tais seres irão substituir os humanos como protagonistas da sociedade. À nós caberá morrer aos poucos e tranquilamente enquanto deixamos nossas heranças culturais e tecnológicas aos nossos herdeiros emulados e mais evoluídos, muito mais capazes de gerenciar a futura sociedade do que nós. Loucura, né? Ele apresenta essa ideia em seu livro The Age of Em (ainda não lido) e tem um TEDTalk sobre o tema. Seu blog é uma pérola que eu estou ainda começando a sondar. Algumas de suas ideias sobre o futuro são espantosas, talvez mais até porque fazem total sentido do que pelo conteúdo em si (veja, por exemplo, sua tese de que, quaisquer que sejam os seres que viverão no futuro, eles viverão em um estado de subsistência).
  • Meditations On Moloch é um texto de Scott Alexander com vários insights sobre vários assuntos. Um dos assuntos que ele cobre é AI. O seu foco no processo de race to the bottom e como isso pode levar a humanidade à destruição é especialmente instigante.
  • Ok, vou finalizar com um negócio bastante fringe, mesmo para um assunto já fringe como esse. Resolvi incluir isso aqui na lista porque achei algo bastante curioso. Existe uma tribo(?), subgrupo(?), dentro do grupo dos entusiastas da tecnologia e da AI cujos membros são denominados de neo-reacionários (ou NRx), que conclamam por uma sociedade estamental, patriarcal e dividida em raças bem definidas. São, enfim, membros da famosa alt-right. Como pode um grupo desses ser, então, entusiasta da tecnologia? Até agora eu não entendo direito também o porquê disso, mas aparentemente eles acreditam que a ascensão da ASI dará oportunidade para que a Lei Natural (ou Gnon, como eles gostam de chamar) tenha a capacidade máxima de se manifestar. A Lei Natural, segundo eles, diz que o homem é superior a mulher, bem como que certas raças são superiores a outras. Se for o destino da ASI extinguir a espécie humana, então que assim seja: isso demonstraria que a Lei Natural também estabelece que as máquinas são superiores aos humanos, e já que os neo-reacionários estão mais do que ansiosos para fazer cumprir a Lei Natural, então eles estão mais do que ansiosos para que a humanidade seja extinta. Pois é, eu falei que era um negócio bem fringe. É uma mistura promíscua de alt-right com darwinismo social com libertarianismo com niilismo com catolicismo medievalista com cyberpunk com futurologia. Um dos mais membros mais proeminentes dessa tribo é Nick Lane, cujo blog é esse.