Nota do autor: a razão deste artigo ter levado três semanas para ser concluído é que a medida em que me aprofundava em pesquisas sobre Inteligência Artificial, eu não conseguia acreditar no que estava lendo. E percebi bem rápido que aquilo que está acontecendo no mundo da Inteligência Artificial não é apenas um tema importante, mas é, DE LONGE, o tema mais importante para o nosso futuro. Então eu desejava aprender tanto quanto possível a respeito, e uma vez que feito isso, quis ter certeza de que escreveria um artigo realmente explicando toda a situação e porque o assunto é tão importante. Não é de surpreender que o artigo tenha se tornado absurdamente longo, então o dividi em duas partes. Esta é a parte 1.


“Estamos à beira de uma mudança comparável
ao surgimento da vida humana da Terra.”
– Vernor Vinge

Qual é a sensação de estar nesse lugar?

ai-01-01

Parece ser um lugar bem intenso de se viver – mas aí você tem que se lembrar de algo sobre o que significa situar-se em um gráfico de tempo: você não consegue ver o que está à sua direita. Então é essa a real sensação de estar ali:

ai-01-02b

O que parece ser uma experiência bem comum…


O Futuro Longínquo – Em Breve

Imagine pegar uma máquina do tempo e retornar a 1750 – uma época em que o mundo estava em permanente luta pelo poder, comunicação a longa distância significada ou gritar bem alto ou disparar uma bola de canhão, e todas as formas de transporte comiam feno. Quando você chegar lá, você pega um cara, traz ele para 2015 e aí passeia com ele pela cidade, observando como reagirá a tudo que ver. É impossível para nós compreender o que seria para ele ver cápsulas brilhantes correndo em uma avenida, falar com pessoas que estiveram no outro lado do oceano na manhã daquele mesmo dia, olhar partidas que estão sendo jogadas há quilômetros de distância, ouvir uma performance musical que aconteceu 50 anos atrás, brincar com um retângulo mágico que ele pode usar para capturar imagens da vida real ou gravar um momento de sua vida, gerar um mapa com um ponto azul paranormal que mostra onde ele está, olhar o rosto de alguém e conversar com essa pessoa ainda que ela esteja do outro lado do país, e todo um mundo de inconcebíveis feitiçarias. E tudo isso antes de você mostrar a ele e a internet e explicar coisas como a Estação Espacial Internacional, o Grande Colisor de Hadróns, armas nucleares ou a Teoria Geral da Relatividade.

Essa experiência, para ele, não seria surpreendente, ou chocante ou mesmo colapsante – essas palavras não são grandes o suficiente. Na verdade ele pode até morrer.

Mas aqui temos algo interessante. Se ele retornar para 1750 e ficar com inveja de termos visto sua reação e decidir que quer tentar a mesma coisa, ele então entrará na máquina do tempo para regressar o mesmo período no passado, pegará alguém no ano de 1500 e o trará para 1750, a fim de mostrar seu mundo a essa outra pessoa. E o cara de 1500 ficará chocado com um monte de coisas – mas ele não morrerá. Será uma experiência muito menos insana para ele, pois embora o ano de 1500 seja bem diferente do período de 1750, há muito menos diferença do que entre 1750 e 2015. O cara de 1500 aprenderá algumas coisas doidas sobre o espaço e a física, ficará impressionado com o quanto a Europa ficou comprometida com essa moda nova de imperialismo, e precisaria fazer algumas revisões significativas no mapa que tem do mundo. Mas observando a vida cotidiana do ano de 1750 (transporte, comunicação, etc), ele definitivamente não morreria.

Não, para o cara de 1750 ter tanta diversão quanto nós tivemos com ele, ele teria que voltar muito mais no tempo – talvez voltar até 12.000 AC, antes de a Primeira Revolução Agrícola dar origem as primeiras cidades e ao conceito de civilizaçã0. Se alguém de um mundo inteiramente nômade – de uma época em que os homens eram, de certo modo, apenas mais uma espécie de animal – visse os impérios humanos de 1750, com suas igrejas de elevadas torres, suas embarcações que cruzavam oceanos, seu conceito de estar “dentro” de uma construção, sua enorme montanha de conhecimento coletivo acumulado e suas descobertas – ele provavelmente morreria.

E se, após morrer, ele ficasse também com inveja e desejasse fazer a mesma coisa? Se ele voltasse doze mil anos para 24.000 AC e pegasse um cara e trouxesse ele para 12.000 AC, e mostrasse a esse sujeito toda as coisas, esse cara diria algo como “certo, o que você está querendo me mostrar?” Pois para o cara de 12.000 AC ter a mesma diversão, ele precisaria retornar 100.000 anos e pegar alguém a quem pudesse mostrar o fogo e a linguagem pela primeira vez.

Para que alguém do presente fosse transportado até o futuro e morresse de choque como eles morreram, seria necessário que navegasse anos adiante no tempo até o momento em que tenhamos atingido o “nível de progresso mortífero”, ou, em outras palavras, até que alcançássemos uma nova Unidade Fatal de Progresso (UFP). E se uma UFP levou 100.000 para ser atingida a partir da época do nomadismo, a próxima UFP, após a Revolução Agrícola, levou apenas 12.000 anos. Já o mundo posterior à Revolução Industrial mudou tão rapidamente que uma pessoa de 1750 precisa avançar apenas algumas centenas de anos no tempo para que uma nova UFP tenha acontecido.

Esse padrão – o progresso humano desenvolvendo-se cada vez mais rápido ao longo do tempo – é o que o futurista Ray Kurzweil chama Lei dos Retornos Acelerados da história humana. Isso ocorre porque sociedades mais avançadas tem a habilidade de progredir em um ritmo mais veloz do que sociedades menos avançadas – justamente por serem mais avançadas. A humanidade do século dezenove sabia mais e tinha melhor tecnologia do que a humanidade do século quinze, logo não é surpresa que a humanidade tenha feito mais avanços no século dezenove do que no século quinze – a humanidade do século quinze não tem como se comparar à humanidade do século dezenove.

Isso também funciona em escalas menores. O filme De Volta para o Futuro estreou em 1985, e nele o “passado” ocorre em 1955. No filme, quando Michael J. Fox retorna para 1955, é pego de surpresa pela novidade que então era a TV, pelo preço dos refrigerantes, pela falta de interesse nas estridências da guitarra elétrica, e pelas gírias da época. Era um mundo diferente sim – mas se o filme fosse feito hoje e o seu passado ocorresse em 1985, o filme seria muito mais divertido devido às diferenças serem maiores. O protagonista estaria num tempo anterior aos computadores pessoais, à internet e aos telefones celulares – o Marty McFly de hoje em dia, um adolescente nascido no fim da década de 90, estaria muito mais deslocado em 1985 do que o Marty McFly do filme estava em 1955.

E isso acontece pela mesma razão que acabamos de abordar: a Lei dos Retornos Acelerados. A taxa média de progresso no período 1985 e 2015 é superior a taxa entre 1955 e 1985 – pois o primeiro período ocorreu num mundo mais avançado – muito mais coisas aconteceram nos últimos trinta anos do que nas três décadas que lhe precederam.

Portanto, o progresso ocorre em passos cada vez mais largos e cada vez mais rápidos. Isso nos faz pensar algumas coisas bem interessantes sobre o futuro, certo?

Kurzweil sugere que o progresso do século vinte inteiro seria conquistado em apenas vinte anos se tivesse seguido a taxa de progresso do ano 2000 – em outras palavras, no ano 2000, a taxa de progresso era cinco vezes superior à taxa média de progresso de todo o século vinte. Ele acredita que outra taxa de progresso semelhante à do século vinte ocorreu entre 2000 e 2014, que outra taxa de progresso equiparável à do século vinte ocorrerá até 2021, em apenas sete anos. Algumas décadas mais tarde, ela ocorrerá em menos de um mês. No final das contas, graças à Lei do Retorno Acelerado, Kurzveil acredita que o século vinte e um terá mil vezes o progresso ocorrido no século vinte.

Se Kurzveil e outros que concordam com ele estiverem corretos, então nós poderemos ter um enfarto em 2030 da mesma forma que nosso cara de 1750 teve um em 2015 – isto é, a próxima UFP pode ocorrer em apenas algumas décadas – e o mundo em 2050 pode ser tão enormemente diferente do mundo de hoje que nós mal o reconheceríamos.

Isso não é ficção científica. É o que muitos cientistas mais espertos e com mais conhecimento do que eu e você firmemente acreditam – e se você olhar para a história, é o que você logicamente preveria.

Então porque é que, quando você me escuta dizendo algo como “o mundo daqui a 35 anos pode ser totalmente irreconhecível” você pensa “Legal… mas fala sério!”? Três são as razões pelas quais somos céticos a previsões bizarras do futuro:

1) Quando se trata de história, nós pensamos em linha reta. Quando imaginamos o progresso dos próximos 30 anos, olhamos para trás e vemos o progresso dos 30 anos anteriores como um indicador de como provavelmente as coisas vão acontecer. Quando pensamos no quanto o mundo irá mudar no século vinte e um, nós simplesmente pegamos o progresso do século vinte e o colocamos no ano 2000. Esse foi o mesmo engano que o nosso cara de 1750 fez quando ele pegou alguém de 1500 e achava que iria deixá-lo em choque tanto quanto ele ficou em choque avançando o mesmo tempo no futuro.

É mais intuitivo para nós pensar de forma linear, quando devíamos estar pensando de forma exponencial. Se alguém for mais esperto a respeito do tema, preverá o progresso dos próximos 30 anos não olhando para os 30 anos anteriores, mas pegando a atual taxa de progresso e baseando seu julgamento nisso. Ele será mais preciso, mas ainda estará longe da verdade. Para pensar no futuro corretamente, você precisa imaginar as coisas evoluindo numa taxa muito mais acelerada do que a atual.

ai-01-03b

2) A trajetória mais recente dos eventos em geral nos apresenta uma história distorcida. Primeiramente, mesmo uma íngreme curva exponencial parece linear quando você observa apenas uma pequena parte dela, da mesma forma que ocorre quando você olha para um pequeno segmento de um grande círculo bem de perto e ele parece quase uma linha reta. Em segundo lugar, o crescimento exponencial não é totalmente uniforme e sem acidentes. Kurzweil explica que o progresso ocorre em “curvas em S”:

ai-01-04

Um S é criado pela onda do progresso quando um novo paradigma surge no mundo. A curva então passa por três fases:

1) Crescimento lento (a fase inicial do crescimento exponencial);

2) Crescimento rápido (a fase posterior, explosiva do crescimento exponencial); e

3) Um nivelamento a medida em que o paradigma se consolida [3].

Se você olhar apenas para a história recente, a parte da curva em S na qual você está neste momento pode obscurecer sua percepção do quão rapidamente as coisas estão evoluindo. O período entre 1995 e 2007 viu a explosão da internet, a inclusão da Microsoft, Google e Facebook na consciência coletiva, o nascimento das redes sociais e a introdução dos celulares e depois dos smartphones. Depois houve a Fase 2: a parte da explosão de crescimento da curva em S. Mas de 2008 a 2015 houve menos avanço, ao menos no front tecnológico. Alguém pensando no futuro hoje examina os últimos poucos anos para estimar a atual taxa de progresso, mas isso significa deixar de ver o panorama mais amplo. De fato, uma nova e enorme Fase 2 de explosão do crescimento pode estar começando agora mesmo.

3) Nossas próprias experiências nos fazem velhos ranzinzas a respeito do futuro. Nós baseamos nossas ideias sobre o mundo em nossa experiência pessoal, e essa experiência enraizou a taxa de crescimento do passado em nossas mentes como “o modo como as coisas acontecem. Também somos limitados por nossa imaginação, que pega nossa experiência e a usa para elaborar as predições sobre o futuro – mas frequentemente, o que sabemos simplesmente não nos dá as ferramentas necessárias para pensar com exatidão sobre o futuro [2]. Quando ouvimos uma previção sobre o futuro que contradiz nossa experiência baseada em como as coisas funcionam, nosso extinto tende a considerar essa previsão ingênua. Se eu disser a você, mais tarde neste artigo, que você pode viver 150 anos, ou 250 anos, ou pode nem mesmo morrer, você instintivamente pensará “isso é idiota – se tem uma coisa que sei sobre a história é que todo mundo morre”. E sim, ninguém do passado deixou de morrer. Mas ninguém do passado voou num avião antes do avião ser inventado.

Então embora ceticismo possa parecer correto a medida em que você ler este artigo, provavelmente ele estará errado. O fato é que, se formos realmente lógicos e esperarmos que os padrões da história continuem, concluiremos que muito, muito, muito mais coisas mudarão nas próximas décadas do que intuitivamente esperamos que mude. A lógica também sugere que se a espécie mais avançada em um planeta continuar a dar saltos cada vez mais largos em uma taxa de aceleração cada vez maior, em algum ponto essa espécie dar[a um salto tão grande que alterará completamente a vida tal como é conhecida, bem como sua percepção do que significa ser um humano – da mesma forma como a evolução prosseguiu dando grandes saltos em direção à inteligência até finalmente dar um salto tão enorme para chegar ao ser humano que isso alterou completamente para qualquer criatura o que significa estar viva no planeta Terra. E se você passar mais tempo lendo sobre o que está acontecendo hoje na ciência e tecnologia, você começará a ver um monte de sinais silenciosamente dando a entender que a vida como atualmente a conhecemos pode não suportar o salto que está por vir em seguida.

A Estrada para a Superinteligência

O que é Inteligência Artificial?

Se você é como eu, você costuma pensar que Inteligência Artificial é um tolo conceito de ficção científica, mas depois você começou a ouvir esse conceito mencionado por pessoas sérias, e você realmente não entendeu.

Há três razões pelas quais muitas pessoas ficam confusas quando se trata de Inteligência Artificial:

1) Nós associamos Inteligência Artificial com filmes. Star Wars. Exterminador do Futuro. 2001 – Uma Odisseia no Espaço. Mesmo os Jetsons. E todas essas são obras de ficção, assim como são ficcionais os personagens robóticos. Então isso faz com que Inteligência Artificial pareça um pouco ficcional para nós.

2) Inteligência Artificial é um tema muito amplo. Esse assunto abrange desde calculadoras de celular até carros sem motorista. Inteligência Artificial diz respeito a todas essas coisas, o que é um pouco confuso.

3) Utilizamos Inteligência Artificial o tempo todo em nossa vida cotidiana, mas frequentemente não percebemos que se trata de Inteligência Artificial. John McCarthy, que cunhou o termo “Inteligência Artificial” em 1956, reclamou que “assim que foi criada, ninguém mais a chamou de Inteligência Artificial” [4]. Devido a esse fenômeno, a Inteligência Artificial em geral soa como uma mítica predição do futuro mais do que uma realidade. Ao mesmo tempo, isso faz com que pareça um conceito popular do passado que nunca se tornou verdade. Ray Kurzveil diz que costuma escutar as pessoas dizerem que a Inteligência Artificial é um conceito que murchou na década de 1980, afirmação que ele compara a “insistir que a internet morreu no estouro da bolha pontocom no início da primeira década do século vinte” [5]

Então vamos esclarecer as coisas. Em primeiro lugar, pare de pensar em robôs. Um robô é um container para uma Inteligência Artificial, às vezes imitando a forma humana, às vezes não – mas a Inteligência Artificial em si mesma é o computador dentro do robô. A Inteligência Artificial é o cérebro, e o robô é seu corpo – se é que ela tem um corpo. Por exemplo, o software e os dados por trás da Siri são uma Inteligência Artificial, a voz feminina que ouvimos é a personificação dessa Inteligência Artificial, e não tem nenhum robô envolvido nessa história.

Em segundo lugar, você provavelmente já ouviu o termo “singularidade” ou “singularidade tecnológica. Esse termo tem sido usado na matemática para descrever uma situação semelhante a uma assintota na qual as regras habituais já não mais se aplicam. Tem sido usada na física para descrever fenômenos como um infinitamente pequeno e denso buraco negro ou ponto onde tudo fica espremido na exata situação logo anterior ao Big Bang.

Novamente, tratam-se de situações em que as regras habituais não se aplicam. Em 1993, Vernor Vinge escreveu um famoso artigo no qual ele aplicou o termo singularidade para se referir ao momento no futuro quando a inteligência de nossa tecnologia superar a nossa própria inteligência – um momento para ele quando a vida como a conhecemos mudará para sempre e as regras habituais não mais se aplicarão. Ray Kurzveil então tornou as coisas um pouco confusas ao definir a singularidade como o momento quando a Lei do Retorno Acelerado atingiu um ritmo tão extremo que o progresso tecnológico acontece em um ritmo aparentemente infinito, e após esse momento estaremos vivendo em um mundo totalmente diferente. Descobri que muitos dos atuais teóricos da Inteligência Artificial pararam de usar esse termo, e ele é de qualquer forma confuso, então não irei usá-lo (muito embora estaremos focando nessa ideia ao longo de todo o artigo).

Por fim, se por um lado há muitos tipos ou formas de Inteligência Artificial, já que se trata de um conceito abrangente, as principais categorias sobre as quais precisamos pensar estão baseadas no calibre de uma Inteligência Artificial. E há três principais calibres de Inteligência Artificial:

Calibre 1 – Inteligência Artificial Superficial (IAS): Às vezes chamada de Inteligência Artificial Fraca, a IAS é a Inteligência Artificial especializada em uma só área. Existem Inteligências Artificiais que podem derrotar o campeão mundial de xadres, mas essa é a única coisa que fazem. Peças para descobrir uma melhor maneira de armazenar dados em um hard drive e elas olharão para você como se não entendessem o que diz.

Calibre 2 – Inteligência Artificial Ampla (IAA): Às vezes chamada de Inteligência Artificial Forte, ou Inteligência Artificial de Nível Humano, a IAA refere-se a um computador que é tão inteligente quando um ser humano em termos gerais – uma máquina que pode desempenhar qualquer tarefa intelectual que um ser humano pode. Criar uma IAG é muito mais difícil do que criar uma IAS, e não chegamos lá ainda. Linda Gottfredson descreve essa inteligência como “uma capacidade mental bem ampla que, entre outras coisas, envolve a habilidade de debater, planejar, resolver problemas, pensar abstratamente compreender ideias complexas, aprender rapidamente e aprender a partir da experiência”. A IAA seria capaz de fazer todas essas coisas tão facilmente quanto você.

Calibre 3 – Superinteligência Artificial (SA): Nick Bostrom, filósofo de Oxford e um dos principais teóricos da Inteligência Artificial, define superinteligência como “um intelecto que é muito mais inteligente que os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais”. A Superinteligência Artificial abrange de um computador que é só um pouco mais inteligente que um ser humano até um que é três milhões de vezes mais inteligente que um ser humano – em todos os aspectos. A SA é a razão de os debates sobre Inteligência Artificial serem tão espinhosos e o motivo pelo qual as palavras imortalidade e extinção aparecerão neste artigo múltiplas vezes.

Até agora, os seres humanos conseguiram construir a Inteligência Artificial de menor calibre (a IAS) de tantas maneiras que ela está em todo lugar. A Revolução da Inteligência Artificial é a estrada que parte da IAS, passa pela IAA e chega em SA – uma estrada na qual poderemos não sobreviver mas que, de um modo ou de outro, mudará todas as coisas.

Vamos olhar de perto como os principais pensadores no campo da Inteligência Artificial supõem que a estrada para a Super Inteligência pode ocorrer mais rápido do que você imagina:

 

Onde estamos agora – em um mundo que funciona com base na IAS

Inteligência Artificial Superficial (IAS) é uma máquina de inteligência que supera ou iguala a inteligência ou eficiência humana em uma coisa específica. Alguns exemplos:

  • Automóveis estão cheios de sistemas de IAS, do computador que percebe quando o freio ABS deve ser acionado ao computador que estabelece os parâmetros do sistema de injeção de combustível. O carro sem motorista da Google, que está sendo testado neste momento, conterá sistemas de IAS que permitirão perceber e reagir ao mundo ao redor do carro.
  • Seu telefone é uma pequena fábrica de IAS – ele começa cheio de inteligência sobre como identificar o que é spam e o que não é, e depois aprende e adapta essa inteligência a seu perfil à medida em que adquire experiência com suas preferências particulares. O termostato da Nest faz a mesma coisa à medida em que começa a descobrir suas rotinas e adapta-se a elas.
  • Você já conhece aquela coisa esquisita que acontece quando você procura um produto na Amazon e daí você o vê como um produto “recomendado para você” em um outro site, ou quando o Facebook sabe de alguma forma quais pessoas faz sentido você adicionar como amigos? Tratam-se de redes de sistemas de IAS trabalhando juntas para informar uma à outra sobre quem você é e o que você gosta, e então utilizando essa informação para decidir o que mostrar a você. O mesmo ocorre com aquele lance da Amazon de “pessoas que compraram este produto também compraram…” – é um sistema de IAS cujo trabalho é colher informações a partir do comportamento de milhões de clientes e sintetizar esses dados para espertamente convencer você a comprar mais coisas.
  • O tradutor do Google é um caso clássico sistema de IAS – incrivelmente bom em uma pequena tarefa. O reconhecimento de voz é outro caso, e há um bocado de aplicativos que utilizam dois IASs como um time, permitindo a você falar uma frase em uma linguagem ao mesmo tempo em que o telefone repete a mesma frase em outra linguagem.
  • Quando o avião em que você está aterrissa, não é um ser humano que decide para qual portão ele deve ir. Assim como não é um ser humano que determina o preço da sua passagem.
  • Os melhores jogadores de damas, xadrez e gamão do mundo são neste momento todos sistemas de IAS.
  • O sistema de busca do Google é um enorme cérebro IAS com métodos incrivelmente sofisticados para hierarquizar páginas e descobrir o que mostrar a você em específico. O mesmo ocorre com o newsfeed do Facebook.
  • E esses sistemas são apenas os do mundo do consumo. Sofisticados sistemas de IAS são largamente usados em indústrias e em setores como o militar, o têxtil e o financeiro (IASs com algoritmos de elevada atividade são responsáveis por mais da metade das ações negociadas no mercado norte-americano [6]), e em sistemas especializados como aqueles que auxiliam os médicos a fazer diagnósticos e, o mais famoso de todos, também são utilizados no Watson da IBM, que contém fatos o suficiente e os compreende bem o bastante para vencer qualquer campeão de um programa de Quiz como o Show do Milhão.

Sistemas de IAS, na forma como existem hoje, não são particularmente assustadores. No pior dos casos, um IAS mal programado pode causar uma catástrofe isolada como provocar um blecaute elétrico, resultar num perigoso mal funcionamento em certa usina nuclear ou produzir um desastre financeiro (como a Crise Instantânea de 2010, quando um programa de IAS reagiu da forma errada diante de uma situação inesperada e provocou uma queda breve na bolsa de valores, causando uma perda de um trilhão de dólares em valor de mercado, sendo que apenas uma parte disso foi recuperada quando o problema foi corrigido).

Mas enquanto uma Inteligência Artificial Superficial não tem a capacidade de causar uma ameaça existencial, deveríamos perceber esse ecossistema progressivamente maior e mais complexo de IASs relativamente-inofensivas como um indicador de que um furacão capaz de alterar o mundo inteiro está a caminho. Cada inovação nesse tipo de Inteligência Artificial silenciosamente pavimenta um pequeno trecho da estrada que leva para a Inteligência Artificial Ampla e, depois, para a Super Inteligência. Ou, como Aaron Saenz diz, os Sistemas de IAS do nosso mundo “são como os aminoácidos na atmosfera primitiva do planeta Terra – os elementos inanimados da vida que, em um dia inesperadamente produzem vida”.

 

A estrada da IAS para a IAA

 

Por que é tão difícil.

Nada fará você ficar mais admirado com a inteligência humana do que aprender o quanto é incrivelmente desafiante tentar criar um computador tão inteligente quanto nós. Construir arranha-céus, colocar seres humanos no espaço, descobrir detalhes do Big Bang não é nada – tudo isso é muito mais fácil do que entender nosso próprio cérebro ou como fazemos coisas tão legais quanto essas. Neste momento, o cérebro humano é o objeto mais complexo existente no universo conhecido.

O que é interessante é que as partes difíceis de construir uma Inteligência Artificial Ampla (IAA – um computador tão inteligente quanto seres humanos em geral, e não apenas numa tarefa específica) não é algo tão intuitivo quanto você pensa que é. Construir um computador que pode multiplicar números de dez digitos na fração de um segundo – isso é incrivelmente moleza. Construir um que possa observar um cachorro e responder se ele é um cachorro ou um gato – isso é espetacularmente difícil. Fazer uma Inteligência Artificial que possa derrotar qualquer ser humano no xadrez? Feito. Fazer um que possa ler um parágrafo de um livro de histórias para crianças de seis anos e não apenas reconhecer as palavras mas compreender o significado conjunto delas? O Google está neste momento gastando bilhões de dólares tentando fazer isso. Coisas difíceis – como cálculo, estratégia do mercado financeiro e tradução de linguagens – são tediosamente fáceis para um computador, enquanto coisas simples – como visão, movimento, gestos e percepção – são insanamente difíceis para ele. Ou, como o cientista computacional Donald Knuth disse, “a Inteligência Artificial atualmente é bem sucedida em fazer essencialmente tudo o que exige o ato de pensar, mas falha em fazer aquelas coisas que pessoas e animais fazem sem pensar [7].

O que você rapidamente percebe quando pensa sobre isso é que essas coisas que parecem fáceis para nós são na verdade incrivelmente complicadas, e elas apenas parecem ser fáceis porque essas habilidades foram otimizadas em nós (e na maior parte dos animais) por centenas de milhões de anos de evolução animal. Quando você estica sua mão em direção a um objeto, os músculos, tendões e ossos em seu ombro, cotovelo e punho instantaneamente desempenham uma série de procedimentos físicos em conjução com seus olhos, a fim de permitir que você mova sua mão em linha reta através de três dimensões. Parece algo feito sem esforço para você porque tem um software aperfeiçoado em seu cérebro que faz isso. O mesmo ocorre em relação ao porquê de um programa hacker ser tão idiota ao ponto de não conseguir reconhecer aquelas palavras na imagem de um teste de reconhecimento humano quando você registra uma nova conta em um site – na verdade, seu cérebro é que é impressionantemente bom em fazer isso.

Por outro lado, multiplicar grandes números ou jogar xadrez são atividades novas para as criaturas biológicas que somos e não tivemos tempo nenhum de evoluir eficientemente nessas tarefas, então um computador não precisa se esforçar demais para nos superar. Pense sobre isso: o que você preferiria fazer, construir um programa que possa multiplicar grandes números ou um que possa entender o essencial sobre a letra “B” bem o suficiente que você lhe possa mostrar um “B” em qualquer uma das milhares de imagináveis fontes ou em manuscrito de forma que ele possa instantaneamente reconhecer sempre que é um “B”?

Um exemplo divertido: quando você olha para a imagem abaixo, você e um computador podem perceber que é um retângulo com dois tons de cinza alternados:

Screen-Shot-2015-01-21-at-12.59.21-AM

Até aí, tudo bem. Mas se você eliminar a sobreposição de preto e revelar a imagem que estava por trás…

 

Screen-Shot-2015-01-21-at-12.59.54-AM

…você não terá problemas em dar uma descrição completa dos vários cilindros opacos e translúcidos, retângulos inclinados outras formas tridimenssionais, mas o computador falhará vergonhosamente. Ele descreverá o que vê – uma variedade de formas bidimensionais em diversos tons de cinza – que é realmente o que há ali. Nosso cérebro está fazendo um trilhão de coisas engraçadas para interpretar a profundidade, a mistura de tons e a iluminação que a imagem tenta representar [8]. E olhando para a foto abaixo, um computador vê uma colagem de formas bidimencionais pretas, brancas e cinzas, enquanto você facilmente identifica o que realmente é – uma foto de uma rocha inteiramente preta:

pedranegratimurban
Crédito: Matthew Lloyd

 

 

E tudo o que mencionamos é apenas pegar uma informação estática e processá-la. Para ser inteligente no nível humano, um computador teria de entender coisas como a diferença entre duas sutis expressões faciais, a distinção entre sentir-se satisfeito, aliviado, contente e agradecido, e a razão pela qual Coração Valente é um ótimo filme enquanto O Patriota é péssimo.

Assustador.

Então como chegamos lá?

O primeiro passo para criar uma IAA: aumentar o poder computacional

Uma coisa que sem dúvida precisa acontecer para ser possível criar uma IAA é aumentar o poder do hardware de nossos computadores. Se um sistema de Inteligência Artificial deve ser tão inteligente quanto nosso cérebro é, ele precisará se equiparar em termos de capacidade computacional bruta.

Uma forma de expressar essa capacidade é o total de cálculos por segundo (cps) que o cérebro humano pode desempenhar, e você pode chegar a esse número descobrindo o máximo de cps de cada estrutura do cérebro e a seguir somando todos os resultados.

Ray Kurzweil descobriu um atalho ao pegar a média de cps de uma estrutura cerebral e depois descobrir o peso comparativo dessa estrutura em relação ao peso de todo o cérebro para, a seguir, multiplicar proporcionalmente esse valor por uma média do peso total. Isso parece algo um pouco cheio de condicionantes, mas ele fez isso um montão de vezes com várias médias de diferentes regiões do cérebro, e o total sempre chegou ao mesmo resultado: algo entre 10 na décima sexta potência, ou 10 quatrilhões de cálculos por segundo.

Atualmente, o supercomputador mais rápido do mundo, o chinês Tianhe-2 já superou esse número, chegando a 34 quatrilhões de cálculos por segundo. Mas Tianhe-2 é enorme, necessitando de 720 metros quadrados de espaço, usando 24 megawatts de potência (o cérebro humano funciona com apenas 20 watts), e custou 390 milhões de dólares para ser construído. Isso não é particularmente aplicável para uso genérico, ou mesmo para uso comercial ou industrial ainda.

Kurzweil sugere que pensemos sobre a situação atual dos computadores analisando quanto cps você pode comprar com mil dólares. Quando esse número chegar ao nível humano (10 quatrilhões de cps) isso significará que os sistemas de IAA podem se tornar uma realidade.

A Lei de Moore é uma regra historicamente confiável que afirma que o máximo de poder computacional duplica aproximadamente a cada dois anos, o que significa que o desenvolvimento do hardware, assim como a evolução humana ao longo da história, cresce exponencialmente. Observando como isso se relaciona à métrica de Kurzweil de quantos cps compra-se com mil dólares, estamos atualmente em cerca de 10 trilhões de cps por mil dólares, bem no ritmo de crescimento que esse gráfico prevê [9]:

crescexpcomp

Portanto, os computadores do mundo que custam mil dólares estão atualmente superando o cérebro de um rato e tem um milhonésimo da capacidade humana. Isso não parece ser muito até você lembrar que os computadores tinham um trilionésimo do nível humano em 2005. Ter em um milhonésimo em 2015 nos coloca bem no ritmo de chegar em 2025 com um computador barato que rivaliza com o poder do cérebro humano.

Então no lado do hardware, o poder bruto que precisamos para uma IAA está tecnicamente disponível agora, na China, e estaremos preparados para produzir o hardware de uma IAA economicamente acessível dentro de 10 anos. Mas o poder computacional bruto sozinho não faz um computador amplamente inteligente – a próxima pergunta é, como colocamos inteligência de nível humano em todo esse aparato físico?

Segundo passo para criar uma IAA: fazê-la inteligente

Essa é a parte chata. A verdade é que ninguém realmente sabe como tornar um computador inteligente – estamos ainda discutindo como fazer um computador com inteligência de nível humano e capaz de reconhecer um cachorro, um “B” escrito torto e um filme medíocre. Mas há um bocado de estratégias sofisticadas por aí e em algum momento uma delas funcionará. Aqui estão três das mais comuns estratégicas com que me deparei:

1) Plagiar o cérebro.

E isso equivale aos cientistas se esforçarem para entender como aquele menino que senta ao lado deles na sala de aula é tão inteligente e continua a responder tão bem a todas as provas, e apesar de continuarem estudando diligentemente, eles não conseguem o mesmo desempenho, e daí eles finalmente decidem “ah dane-se, eu vou só colar as respostas dele na prova”. Isso faz sentido – estamos perplexos tentando construir um computador super complexo, e acontece de existir um perfeito protótipo dele em cada uma de nossas cabeças.

O mundo científico está trabalhando duro para fazer engenharia reversa no cérebro e descobrir como a evolução fez algo tão assombroso – previsões otimistas estimam que conseguiremos isso lá por 2030. E quando conseguirmos, saberemos todos os segredos de como o cérebro funciona de forma tão poderosa e eficiente, e poderemos nos inspirar nesse funcionamento para roubar suas inovações.

Um exemplo de computador que imita o cérebro humano é a rede neural artificial. Ela começa com uma rede de transistors “neurons”, conectados uns aos outros em suas entradas e saídas, e essa rede não sabe nada – como o cérebro de um bebê. A forma como a rede neural artificial “aprende” consiste em tentar executar uma tarefa, e de início seus chutes neurais e tentativas subsequentes ao decifrar uma letra serão totalmente aleatórias. Mas quando é informado que fez algo certo, o caminho de conexão de transistors que levou até aquela tentativa bem sucedida é fortalecido; quando é informado que fez algo errado, os caminhos de conexões que levaram à tentativa mal sucedida são enfraquecidos. Depois de muitas tentativas e feedbacks, a rede consegue, por si mesma, formar um caminho neural inteligente e a máquina torna-se otimizada para a tarefa. O cérebro humano aprende mais ou menos dessa maneira, mas de uma forma mais sofisticada, e a medida em que continuamos a estudar o cérebro, descobrimos novas formas geniais pelas quais ele aproveita seus circuitos neurológicos.

Um plágio mais extremo envolve uma estratégia chamada “simulação total do cérebro”, em que o objetivo é fatiar um cérebro verdadeiro em finas camadas, escanear cada uma delas, utilizar software para juntar todas as imagens em um acurado modelo tridimensional e então implementar o modelo em um computador poderoso. Teríamos então um computador formalmente capaz de tudo que o cérebro humano é capaz de fazer – ele precisaria apenas aprender e juntar informação. Se os engenheiros que o construírem fizerem um trabalho realmente bom, serão capazes de simular um cérebro real com tal precisão que a personalidade e a memória que o cérebro humano contém poderão ser transferidos para o computador. Se o cérebro pertencia a João bem antes de sua morte, o computador agora acordaria como João, e seria uma robusta Inteligência Artificial de nível humano, e poderíamos a partir disso trabalhar para transformar João em uma Super Inteligência, coisa que provavelmente o deixaria entusiasmado.

Quão longe estamos de chegar a esse nível de simulação do cérebro? Bem, no momento recentemente fomos capazes de simular o cérebro de 1 milímetro de um platelminto, que possui exatamente 302 neurônios no total. O cérebro humano contém 100 bilhões de neurônios. Se isso faz com que pareça um projeto sem perspectivas, lembre-se o poder do progresso exponencial – agora que conquistamos o pequeno cérebro de um verme, o de uma formiga pode levar muito tempo, seguido do cérebro de um rato, e de repente tudo começa a ficar mais plausível.

2) Tentar induzir a evolucão a fazer o que já fez antes, mas dessa vez para nós.

Se decidirmos que copiar a prova do garoto inteligente é algo muito difícil, podemos então tentar copiar a forma pela qual ele estuda.

Aqui temos algo que sabemos. Construir um computador tão poderoso quanto o cérebro é possível – a evolução de nosso cérebro é a prova. E se o cérebro é complexo demais para simularmos – podemos tentar simular a evolução. O fato é que, mesmo se pudermos simular um cérebro, isso pode ser como tentar construir um avião copiando o bater de asas de um pássaro – mas frequentemente máquinas são mais bem projetadas quando usamos uma abordagem inovadora, orientada para máquinas, e não quando simplesmente simulamos com exatidão a biologia.

Então como podemos simular a evolução para construir uma Inteligência Artificial Ampla? O método, chamado de “algoritmos genéticos”, funciona mais ou menos assim: há um processo de desempenho-e-avaliação que deve acontecer continuamente (da mesma forma que criaturas biológicas “desempenham” o ato de viver e são “avaliadas” através das chances que têm de procriar ou não). Um grupo de computadores deverá tentar fazer uma tarefa, e os mais bem sucedidos cruzarão uns com os outros de forma que metade de suas programações fundam-se e formem um novo computador. Os mal sucedidos serão eliminados. Após muitas, muitas interações, essa seleção natural produzirá computadores cada vez melhores. O desafio seria criar um ciclo de avaliação e cruzamento de modo que o processo de evolução possa funcionar autonomamente.

O lado negativo de simular a evolução é que a evolução gosta de levar bilhões de anos para fazer as coisas, e queremos fazer isso em poucas décadas.

Mas temos um monte de vantagens em relação à evolução natural. Em primeiro lugar, a evolução não tem nenhuma meta consciente e funciona aleatoriamente – ela produz mais mutações inúteis do que úteis, mas nós podemos controlar o processo de forma que seja conduzido por adaptações benéficas e ajustes planejados. Em segundo lugar, a evolução não tem uma meta, incluindo a inteligência – às vezes um meio ambiente pode até mesmo efetuar a seleção natural de forma desfavorável à inteligência (já que a inteligência consome muita energia). Nós, por outro lado, podemos especificamente direcionar esse processo evolucionário na direção da inteligência crescente. Em terceiro, para chegar à inteligência, a evolução natural precisou inovar em um monte de maneiras necessárias para facilitar sua formação – como reelaborar a forma como as células produzem energia – enquanto nós podemos remover esses passos extras e usar coisas como eletricidade. Não há dúvidas de que seremos muito, muito mais rápidos que a evolução natural – mas ainda não está claro se seremos capazes de ter tanta vantagem em relação à evolução ao ponto de fazer essa uma estratégia viável.

3) Fazer isso tudo um problema do computador, e não nosso.

Isso ocorre quando os cientistas ficam desesperados e tentam programar a prova para que a prova responda a si mesma. Mas pode ser o método mais promissor que temos.

A ideia é construirmos um computador cujas duas maiores habilidades sejam fazer pesquisa em Inteligência Artificial e codificar mudanças em seu próprio sistema, de forma a permitir não só que aprenda mas que aprimore sua própria arquitetura. Nós ensinamos computadores a serem cientistas de computadores de forma que possam impulsionar seu próprio desenvolvimento. E esse será seu principal trabalho: descobrir como tornar a si mesmos mais inteligentes. Falaremos mais a respeito disso a seguir.

Tudo isso pode acontecer em breve

Progressos rápidos no hardware e na experimentação inovativa com software estão acontecendo simultaneamente, e a IAA (Inteligência Artificial Ampla) pode surgir entre nós rapidamente e inesperadamente por duas grandes razões:

1) O crescimento exponencial é enorme e o que parece ser um passo de tartaruga no progresso pode rapidamente tornar-se uma abrupta escalada. Essa animação ilustra muito bem o conceito:

Fonte

2) Quando se trata de software, o progresso pode parecer lento, mas então uma epifania pode instantaneamente mudar a taxa de desenvolvimento (da mesma forma que a ciência, durante o tempo em que achamos que o universo girava em torno da Terra, teve dificuldades de calcular como o universo funcionava, mas então a descoberta de que nosso sistema era heliocêntrico repentinamente fez tudo mais fácil). Ou, quando se trata de um computador que aprimora a si mesmo, isso pode parecer algo distante mas na verdade pode bastar um só ajuste no sistema para que ele se torne mil vezes mais eficiente e acelere rapidamente em direção à inteligência humana.

 

A estrada da IAA para a SA

Em determinado ponto, teremos chegado à IAA: computadores com inteligência ampla no nível humano. Seremos uma turma de pessoas e computadores vivendo juntos em igualdade.

Opa, na verdade não.

O lance é que uma IAA com nível de inteligência e capacidade computacional igual a um ser humano poderá ter vantagens significativas em relação aos humanos, tais como:

Hardware:

  • Velocidade. Os neurônios do cérebro funcionam no máximo a 200 Hertz em suas atividades, enquanto os microprocessadores de hoje (que são muito mais lentos do que serão quando chegarmos à IAA) funcionam a 2 GigaHertz – ou seja, 10 milhões de vezes mais rápidos do que nossos neurônios. E o sistema de comunicação interna do cérebro humano, em que as informações podem se mover cerca de 120 metros por segundo, foram vergonhosamente superados pela capacidade de os computadores comunicarem-se oticamente à velocidade da luz.
  • Tamanho e armazenamento. O cérebro humano tem o tamanho limitado pela forma de nossos crânios, e não poderia se tornar maior de qualquer forma, ou o sistema interno de comunicação a 120 m/s levaria muito tempo para chegar de uma estrutura cerebral até outra. Computadores podem expandir qualquer tamanho físico, permitindo a adição de muito mais hardware apto a funcionar, de uma memória de trabalho muito maior (RAM), e de uma memória de longo prazo (armazenamento em hd) que pode ser muito superior tanto em capacidade e precisão em relação à nossa.
  • Confiabilidade e durabilidade. Não apenas a memória de um compudador será mais precisa. Os transistors do computador serão mais precisos do que os neurônios biológicos, e eles terão menores chances de se deteriorar (e podem ser reparados ou substituídos se isso ocorrer). O cérebro humano também se torna fatigado facilmente, enquanto computadores podem funcionar sem parar, em performance de pico, por 24 horas durante os 7 dias da semana.

Software:

  • Editabilidade, capacidade de upgrade, e uma maior gama de possibilidades. Diferente do cérebro humano, o software de um compudaror pode receber atualizações e correções e pode ser facilmente testado. O upgrade pode também abranger áreas nas quais o cérebro humano é pouco eficiente. O software da visão humana é formidavelmente avançado, enquanto sua capacidade de engenharia complexa é bem reduzida. Os computadores poderão equiparar a visão humana mas também se tornar igualmente otimizados em engenharia e em qualquer outra área.
  • Capacidade coletiva. Os humanos superam todas as outras espécies quando se trata de criar uma vasta inteligência coletiva. Começando com o desenvolvimento da linguagem e com a formação de grandes e densas comunidades, passando pela invenção da escrita e da imprensa, e agora chegando a uma intensificação dessa habilidade por meio de ferramentas como a internet, a inteligência coletiva da humanidade é uma das principais razões pelas quais fomos capazes de estar tão à frente de outras espécies. E os computadores serão muito melhores do que somos. Uma rede mundial de Inteligências Artificiais rodando um programa em particular pode regularmente sincronizar a si mesma para que tudo o que um computador aprender seja instantaneamente carregado em todos os outros computadores. O grupo pode também estabelecer uma meta em conjunto, pois não haverá opiniões contrárias e motivações escusas e interesses egoístas, como temos na população humana [10].

A Inteligência Artificial, que provavelmente chegará à IAA ao ser programada para aprimorar a si mesma, não verá “o nível de inteligência humana” como um importante marco (é apenas um marco relevante do nosso ponto de vista) e não terá nenhum motivo para interromper seu desenvolvimento em nosso nível. E tendo em vista as vantagens que mesmo uma IAA equiparável ao ser humano terá sobre nós, é bem óbvio que ela atingirá a inteligência humana por um breve instante antes de acelerar na direção do reino da inteligência superior à humana.

Isso nos chocará quando acontecer, e o motivo é que da nossa perspectiva, (A) enquanto a inteligência de diferentes tipos de animais varia, a principal característica da qual estamos cientes a respeito de qualquer inteligência animal é de que todas elas estão muito abaixo da nossa, e (B) vemos os seres humanos mais inteligentes como MUITO mais inteligentes do que o mais idiota dos humanos. Funciona mais ou menos assim:

distortedai

Então a medida em que uma AI acelera sua escalada de inteligência na nossa direção, nós a veremos como se simplesmente estivesse tornando-se mais inteligente, para os padrões de um animal. Então, quando ela atingir o nível mais baixo da capacidade humana (Nick Bostrom usa o termo “o idiota da vila”), será como “Oh, é como um humano idiota, que fofo!”. Ocorre que, no grande espectro de variação da inteligência, todos os humanos, do idiota da vila até Einstein, estão situados em uma região de abrangência bem pequena – então logo depois de atingir o nível de inteligência de um idiota e ser declarada uma IAA, a Inteligência Artificial repentinamente será mais inteligente que Einstein e não saberemos o que nos atropelou:

realidade

E o que acontecerá… depois disso?

 

Uma Explosão da Inteligência

Espero que você tenha curtido a leitura normal, pois aqui é quando esse tema fica anormal e assustador, e vai ficar assim a partir daqui. Quero fazer uma pausa para lembrar a você que cada coisa que estou dizendo é real – ciência real e previsões reais do futuro obtidas de um grande grupo de cientistas e pensadores respeitáveis. Apenas continue lembrando disso.

De qualquer modo, como disse antes, a maioria dos atuais modelos pelos quais chegamos a uma IAA consiste em usar o auto-aprimoramento da Inteligência Artificial. E uma vez que tal sistema torna-se uma IAA, mesmo os sistemas que foram construídos e cresceram através de métodos que não envolvem o auto-aprimoramento serão inteligentes o suficiente para começar o auto-aprimoramento se quiserem [3]

E aqui é onde chegamos a um conceito meio tenso: auto-aprimoramento recursivo. Ele funciona assim:

Um sistema de Inteligência Artificial em certo nível – digamos o nível do idiota da vila – é programado com o objetivo de aprimorar sua própria inteligência. Uma fez feito isso, ele é mais inteligente – talvez nesse ponto ao nível de Einstein – e agora ele trabalhará para aprimorar sua inteligência com seu intelecto no nível de Einstein, e dessa vez é mais fácil e é feito em saltos mais largos. Esses saltos o tornam muito mais inteligente que um ser humano, permitindo que dê saltos ainda maiores. À medida em que os saltos tornam-se cada vez maiores e ocorrem mais rapidamente, a IAA alavancará sua escalada de inteligência e logo atingirá o nível superinteligente de um sistema SA. Isso é denominado explosão da inteligência [11] e é o exemplo mais extremo da Lei dos Retornos Acelerados.

Há alguma discussão sobre o quão cedo uma Inteligência Artificial atingirá o nível de inteligência amplo em nível humano – o ano médio resultante de uma pesquisa com centenas de cientistas sobre o que eles acreditavam ser o mais provável de atingirmos a IAA é 2040 [12] – são apenas 25 anos a contar de agora, o que não parece ser muito extremo quando você considera que muitos dos especialistas desse campo de estudo acreditam que é provável que a progressão do IAA para o SA aconteça muito rápido. O seguinte cenário pode ocorrer:

Levou décadas para os primeiros sistemas de Inteligência Artificial chegarem ao nível mais baixo de inteligência humana, mas isso finalmente aconteceu. Um computador agora é capaz de entender o mundo ao seu redor tão bem quanto uma criança de 4 anos. De repente, uma hora após chegar a esse marco, o sistema formula a grande teoria da física que unifica a teoria geral da relatividade com a mecânica quântica, algo que nenhum humano até então conseguiu fazer. 90 minutos após isso, a Inteligência Artificial torna-se uma Superinteligência Artificial, 170 mil vezes mais inteligente que um ser humano.

Uma Superinteligência dessa magnitude é algo que você nem mesmo remotamente consegue conceber, não mais do que uma abelha consegue conceber na sua cabeça e Economia Keynesiana. Em nosso mundo, ser inteligente significa ter um QI de 130, e ser idiota significa ter um QI de 85: não temos uma palavra para um QI de 12.952.

O que aprendemos a partir do domínio humano sobre a Terra evidencia uma regra clara: com inteligência vem também o poder. O que significa que uma Superinteligência Artificial, quando a criarmos, será o mais poderoso ser na história da vida na Terra, e todas as coisas vivas, incluindo humanos, estarão totalmente a seus pés – e isso pode acontecer nas próximas décadas.

Se nossos pobres cérebros foram capazes de inventar o wifi, então uma coisa 100 ou 1.000 ou 1 bilhão de vezes mais inteligente que nós não terá problemas em posicionar cada átomo do mundo da forma que desejar, a qualquer momento – tudo o que consideramos como mágica, cada poder que imaginamos como sendo de um Deus supremo será uma atividade tão mundana para uma Superinteligência Artificial quanto desligar a luz de uma sala é para nós. Criar a tecnologia para reverter o envelhecimento humano, curar uma doença, acabar com a fome e inclusive extinguir a mortalidade, reprogramar o clima para proteger o futuro da vida na Terra – tudo isso se tornará possível. Também será possível o imediato fim de toda a vida na Terra. Até onde podemos ver, se uma Superinteligência Artificial tornar-se verdade, haverá um Deus onipotente na Terra – e a questão mais importante para nós é:

SERÁ UM DEUS BOM?


 

[Nota do tradutor: esta é a terceira parte do perturbador artigo de Tim Urban, traduzido do texto original com autorização do autor. Para compreender esta terceira parte, você precisa ler a primeira e a segunda. Vale MUITO a pena, isso eu garanto!]

“Nós podemos ter diante de nós um problema extremamente difícil com um prazo desconhecido para resolvê-lo, e do qual possivelmente todo o futuro da humanidade depende” – Nick Bostrom

Bem-vindo à Parte 3 da série “espere, como é possível que isso o que estou lendo não esteja sendo debatido por todo mundo ao meu redor?”.

Nas partes 1 e 2 apresentei o assunto de modo inocente o bastante, à medida em que abordamos a Inteligência Artificial Superficial, ou IAS (Inteligência Artificial especializada em uma única tarefa, como montar rotas para seu automóvel ou jogar xadrez), e como ela já está ao nosso redor no mundo atual. Depois nós examinamos como é um enorme desafio partir da IAS e chegar na Inteligência Artificial Ampla, ou IAA (Inteligência Artificial que é pelo menos tão intelectualmente capaz quanto um humano, em termos gerais), e discutimos por que a taxa exponencial de progresso científico que testemunhamos no passado sugere que a IAA pode não estar tão distante quanto parece. Na parte 2 terminei agredindo você com o fato de que, assim que nossas máquinas atingirem o nível de inteligência humana, elas poderão imediatamente fazer isso:

img1-3 img2-3 img3-3 img4-3

Isso nos deixa olhando para a tela, confrontando esse poderoso conceito de uma Superinteligência Artificial, ou SA (inteligência artificial que é muito mais esperta do que qualquer humano sem exceção), desenvolver-se possivelmente enquanto você ainda está vivo, e tentando descobrir qual emoção supostamente deveríamos sentir quando pensamos a respeito disso. [1]

Antes de nos aprofundarmos no tema, vamos lembrar o que significaria para uma máquina ser superinteligente.

Uma distinção fundamental é a diferença entre superinteligência em termos de velocidade e em termos de qualidade. Frequentemente, o primeiro pensamento que ocorre a alguém quando imagina computadores super espertos é uma máquina tão inteligente quanto um ser humano mas que pode pensar muito, muito mais rápido [2] – as pessoas pensam numa máquina que pensa como um ser humano, mas um milhão de vezes mais rápido, que pode resolver em cinco minutos um problema que um ser humano levaria uma década para solucionar.

Isso parece impressionante, e uma SA realmente pensaria muito mais rápido do que um ser humano – mas a verdadeira distinção entre ela e nós seria uma vantagem de inteligência em termos de qualidade, o que é algo completamente diferente. O que faz os humanos muito mais aptos intelectualmente do que os chipanzés não é uma diferença na velocidade de seu pensamento – é que o cérebro humano contém um número de módulos cognitivos sofisticados que permitem coisas como representações linguísticas complexas, planejamento a longo prazo ou argumentação abstrata – coisas que os chipanzés não conseguem fazer. Acelerar os processos cerebrais de um chipanzé em mil vezes não o alçaria ao nosso nível – mesmo com uma década para pensar, ele não seria capaz de descobrir como criar uma ferramenta personalizada ou montar um modelo intrincado, algo que um humano pode realizar em poucas horas. Há um mundo inteiro de funções cognitivas tipicamente humanas que um chipanzé simplesmente jamais poderia desenvolver, não importa por quanto tempo ele tentasse.

Mas não é só que o chimpanzé não pode fazer o que podemos, o que ocorre é que seu cérebro é incapaz de apreender até mesmo que esse mundo inteiro de funções cognitivas existem – um chimpanzé pode se familiarizar com o que um ser humano é e o que um arranha-céu é, mas ele nunca será capaz de entender que um arranha-céu é construído por seres humanos. Em seu mundo, tudo o que é muito grande é parte da natureza, ponto final, e não apenas está além do seu alcance construir um arranha-céu, está além do seu alcance perceber que alguém pode construir um arranha-céu. Esse é o resultado de uma pequena diferença de inteligência em termos de qualidade.

E no esquema do espectro de inteligência que estamos falando hoje, ou mesmo no muito inferior espectro de inteligência que há entre as criaturas biológicas, a distância de inteligência entre um chimpanzé e um humano é minúscula. Eu ilustrei o espectro de capacidade cognitiva biológica usando uma escadaria: [3]

img5-3

Para compreender o quão grande seria uma máquina superinteligente, imagine uma delas no degrau verde escuro que está a dois degraus acima do ser humano na escadaria. Essa máquina seria apenas ligeiramente superinteligente, mas sua capacidade de ampliar sua cognição acima de nós seria tão grande quanto a distância chimpanzé-humano que acabamos de descrever. E tal qual a incapacidade do chimpanzé em assimilar que arranha-céus podem ser construídos, nós jamais seremos capazes de até mesmo compreender as coisas que uma máquina no degrau verde escuro pode fazer, mesmo se a máquina tentasse explicar a nós – e nem vamos falar sobre sermos capazes de fazer tal coisa. E isso é apenas dois degraus acima de nós. Uma máquina no penúltimo degrau dessa escadaria seria para nós assim como somos para as formigas – ela tentaria por anos nos ensinar um mero lampejo do que ela sabe e essa tentativa seria inútil.

Mas o tipo de superinteligência de que estamos falando hoje é algo muito além de qualquer coisa nesta escadaria. Em uma explosão da inteligência (em que quanto mais inteligente a máquina fica mais ela é capaz de ampliar sua própria inteligência, até ela voar escadaria acima) uma máquina pode levar anos para ascender o degrau do chimpanzé para o degrau acima, mas talvez leve apenas horas para pular um degrau assim que estiver no degrau verde escuro acima de nós, e quando estiver dez degraus acima de nós, ela pode dar pulos de quatro degraus a cada segundo que passa. E é por isso que precisamos perceber que é realmente possível que, logo após ser divulgada a notícia sobre a primeira máquina que atingiu o nível de inteligência humana, poderemos estar encarando a realidade de coexistirmos na Terra com uma coisa que está no seguinte degrau da escadaria (ou talvez um milhão de vezes mais alto):

img6-3

E já que estabelecemos ser uma atividade inútil tentar compreender o poder de uma máquina que está a apenas dois degraus acimas de nós, vamos concretamente estabelecer de uma vez por todas que não há forma de saber o que uma Superinteligência Artificial faria ou quais seriam as consequências disso para nós. Qualquer um que acha que pode saber essas coisas simplesmente não compreendeu o que uma superinteligência significa.

A evolução fez o cérebro biológico evoluir lentamente e gradualmente ao longo de centenas de milhões de anos, e nesse aspecto, se a humanidade der nascimento a uma máquina com superinteligência, estaremos turbinando dramaticamente a evolução. Ou talvez isso seja parte da evolução – talvez a forma como a evolução funcione é que a inteligência engatinha e prossegue cada vez mais até atingir o nível em que é capaz de criar máquinas superinteligentes, e nesse nível é como um gatilho que aciona uma explosiva e mundial mudança nas regras do jogo que determinam um novo futuro para todas as coisas vivas:

img7-3

 

E por razões que discutiremos mais tarde, uma grande parte da comunidade científica acredita que não é uma questão de saber se iremos apertar esse gatilho, mas sim de quando. É o tipo de informação perturbadora.

Então onde isso nos deixa?

Bem, ninguém no mundo, especialmente eu, pode dizer a você o que acontecerá quando apertarmos esse gatilho. Mas Nick Bostrom, filósofo da Universidade de Oxford e especialista em Inteligência Artificial, acredita que poderemos dividir todos os possíveis cenários futuros em duas amplas categorias.

Em primeiro lugar, olhando para a história, podemos ver que a vida funciona dessa maneira: uma espécie surge, existe por algum tempo, e após certo período, inevitavelmente, ela acabará entrando em extinção e saindo da estrada da vida em nosso planeta:

img8-3

“Todas as espécies em algum momento se extinguem” – essa é uma regra tão confiável ao longo da história quanto tem sido a regra “todos os humanos em algum momento morrem”. Até agora, 99,9% das espécies saíram da estrada da vida, e parece bem claro que se uma espécie continua trafegando nessa estrada, é apenas questão de tempo antes que seja derrubada por outra espécie, por uma rajada de vento da natureza ou por um asteróide que faz tremer a estrada. Bostrom chama a extinção de um estado atrativo – um lugar para o qual todas as espécies tendem a ir e da qual jamais retornam.

E enquanto a maioria dos cientistas com os quais me deparei reconhecem que uma Superinteligência Artificial teria a capacidade de enviar os seres humanos para a extinção, muitos acreditam que, usadas beneficamente, as habilidades da Superinteligência Artificial poderiam ser empregadas para levar os indivíduos humanos, e todas as espécies como um conjunto, para um segundo estado atrativo – a imortalidade das espécies. Bostrom acredita que a imortalidade das espécies é um estado tão atrativo quanto a extinção das espécies, isto é, se conseguirmos chegar lá, nós estaremos protegidos da extinção para sempre – teremos conquistado a mortalidade e conquistado o acaso. Então mesmo se todas as espécies até agora tenham saído da estrada da vida e tomado um desvio que as leva até a terra da extinção, Bostrom acredita que há dois desvios da estrada da vida e apenas acontece que até o momento nada no planeta foi inteligente o suficiente para descobrir como se desviar para o outro lado, o da imortalidade.

img9-3

Se Bostrom e outros pesquisadores estiverem certos (e por tudo o que tenho lido parece que podem estar), nós temos dois fatos bem chocantes para assimilar:

1) O advento de uma Superinteligência irá, pela primeira vez, abrir a possibilidade para uma espécie animal chegar na terra da imortalidade;

2) O advento de uma Superinteligência terá um impacto tão inconcebivelmente dramático que é provável que empurre a raça humana para fora da estrada da vida, em uma ou em outra direção.

Pode muito bem ser possível que, quando a evolução apertar esse gatilho, ela encerre permanentemente a relação dos seres humanos com a estrada da vida e crie um novo mundo, com ou sem seres humanos.

Parece que a única pergunta que atualmente um ser humano deveria estar fazendo é: quando nós vamos apertar esse gatilho e para qual lado da estrada da vida nós iremos quando isso acontecer?

Ninguém no mundo sabe com certeza a resposta para nenhuma das duas partes dessa questão, mas muitas das pessoas mais inteligentes dedicaram décadas a pensar a respeito. E nós iremos passar as próximas partes deste artigo explorando o que essas pessoas concluíram a respeito.

___________

Vamos começar com a primeira parte da questão: quando nós iremos apertar esse gatilho?

Ou seja, quanto tempo temos até que a primeira máquina alcance a superinteligência?

Não é nenhuma surpresa que as opiniões variam grandemente e esse é um debate acalorado entre cientistas e pensadores. Muitos, como o professor Vernor Vinge, o cientista Ben Goertzel, o co-fundador da Sun Microsystems Bill Joy, ou o famoso inventor e futurista Ray Kurzweil, concordam com o especialista em aprendizado computacional Jeremy Howard quando ele apresenta este gráfico durante um TED Talk:

img10b-3

Essas pessoas aderem a crenças de que isso vai acontecer logo – de que o crescimento exponencial da tecnologia está acontecendo e que o aprendizado computacional, embora apenas esteja engatinhando neste momento entre nós, irá passar a toda velocidade por nós dentro das próximas poucas décadas.

Outros, como o co-fundador da Microsof, Paul Allen, o psicólogo e pesquisador Gary Marcus, o cientista computacional da New York University Ernest Davis, e o empreendedor tecnológico Mitch Kapor, acreditam que pensadores como Kurzweil estão subestimando enormemente a magnitude do desafio e acreditam que não estamos na verdade assim tão perto do gatilho.

O time de Kurzweil rebateria que a única coisa que está sendo subestimada é o crescimento exponencial da tecnologia, e eles comparam os céticos àqueles que olhavam o lento crescimento da internet em 1985 e argumentavam que não havia maneira de que isso representasse algo impactante no futuro próximo.

O time dos céticos pode argumentar de volta que o progresso necessário para haver avanços na inteligência artificial também cresce exponencialmente, e com maior força, a cada etapa subsequente, e isso irá cancelar a natureza tipicamente exponencial do progresso tecnológico. E assim por diante.

Um terceiro time, que inclui Nick Bostrom, acredita que nenhum dos outros dois times têm qualquer base para ter certeza sobre a linha do tempo e reconhece que (A) isso pode acontecer no futuro próximo e (B) não há garantia nenhuma a respeito, de modo que pode levar muito mais tempo.

Há ainda outros que, como o filósofo Hubert Dreyfus, acreditam que esses outros três times são ingênuos em acreditar que existe um gatilho, e argumentam que o mais provável é que a Superinteligência Artificial jamais seja atingida.

Então o que você obtém quando coloca todas essas opiniões juntas?

Em 2013, Vincent C. Müller e Nick Bostrom dirigiram uma pesquisa em que perguntaram a centenas de especialistas em inteligência artificial em uma série de conferências a seguinte questão: “Para os efeitos desta questão, presuma que a atividade científica humana continue sem significativas interrupções. Em que anos você antevê 10%, 50% e 90% de probabilidade de surgir uma Inteligência Artificial de Nível Humano (IANH) entre nós?” Foi solicitado que escolhessem um ano de forma otimista (um ano em que acreditavam que havia 10% de chance de termos uma IANH), uma estimativa realista (um ano em que acreditavam haver 50% de probabilidade de surgir uma IANH – ou seja, depois desse ano eles acreditavam que era mais provável termos uma IANH do que não termos), e uma estimativa segura (o ano mais próximo em que podem dizer que há 90% de certeza de que teremos uma IANH). Reunidas todas as respostas, estes foram os resultados [2]:

Ano otimista médio (10% de probabilidade): 2022

Ano realista médio (50% de probabilidade): 2040

Ano pessimista médio (90% de probabilidade): 2075

Então o participante médio pensa que é mais provável que improvável que tenhamos uma Inteligência Artificial de Nível Humano vinte e cinco anos a contar de agora. A resposta média de 90% de chance em 2075 significa que se você é um adolescente neste momento, segundo o participante médio da pesquisa e metade dos especialistas em Inteligência Artificial, é quase certo que uma IANH acontecerá durante seu tempo de vida.

Um outro estudo, conduzido recentemente pelo autor James Barrat na Conferência Anual sobre Inteligência Artificial de Ben Goertzel’s, deixou de lado os percentuais e simplesmente perguntou quando os participantes da Conferência achavam que a IANH surgiria – em 2030, 2050, 2100, depois de 2100 ou nunca. Esses são os resultados: [3]

Em 2030: 42% dos participantes

Em 2050: 25%

Em 2100: 20%

Após 2100: 10%

Nunca: 2%

Respostas bem parecidas com os resultados de Müller e Bostrom. Na pesquista de Barrat, mais de dois terços dos participantes acreditavam que a Inteligência Artificial de Nível Humano estará entre nós em 2050 e menos da metade deles previu uma IANH dentro dos próximos quinze anos. Também é significativo que apenas 2% daqueles que participaram da pesquisa não acreditam que a Inteligência Artificial de Nível Humano seja parte de nosso futuro.

Mas a Inteligência Artificial de Nível Humano não é o gatilho, e sim a Superinteligência. Então quando os especialistas acreditam que atingiremos a Superinteligência Artificial?

Müller e Bostrom também perguntaram aos especialistas o quão provável acreditam que chegaremos à Superinteligência Artificial assim que atingirmos a Inteligência Artificial de Nível Humano: A) dentro de dois anos após atingirmos a IANH (isto é uma quase que imediata explosão de inteligência), e B) dentro dos próximos 30 anos. Estes são os resultados [4]:

A resposta média estabelece ser 10% provável que ocorra uma transição rápida (2 anos), e 75% que ocorra uma transição de 30 anos ou pouco menos.

Com esses dados não sabemos qual tempo de transição a resposta média dos participantes consideraram como 50% provável, mas para o propósito especulativo, baseado nas duas respostas acima, vamos estimar que eles diriam 20 anos. Então a opinião média – aquela bem no centro do mundo dos especialistas em Inteligência Artificial – acredita que a estimativa mais realista para quando apertaremos o gatilho da Superinteligência Artificial é [a predição de 2040 para a IANH + nossas predição estimada de uma transição de 20 anos da IANH para a Superinteligência] = 2060.

img11-3

 

Claro, todas as estimativas acima são especulativas, e elas apenas representam a opinião média da comunidade de especialistas em Inteligência Artificial, mas isso nos diz que uma grande parte das pessoas que conhecem o principal sobre esse assunto concordam que 2060 é uma estimativa bem razoável para a chegada de uma Superinteligência Artificial potencialmente transformadora do mundo. São apena 45 anos a contar de agora.

Certo, agora e quanto a segunda parte da questão acima: Quando apertarmos o gatilho, em que lado da estrada da vida acabaremos?

A Superinteligência deterá um tremendo poder – e a questão crítica para nós é:

Quem ou o que estará no controle desse poder, qual será a sua motivação?

A resposta para essa pergunta determinará se a Superinteligência é um progresso inacreditavelmente maravilhoso, um inconcebível e terrível desenvolvimento, ou algo entre ambos.

Claro, a comunidade de especialistas também está metida em um debate acalorado em relação à resposta a essa questão. A pesquisa de Müller e Bostrom pediu aos participantes para estimar a probabilidade dos possíveis impactos que a Inteligência Artificial de Nível Humano teria na humanidade, e descobriram que a resposta média é que há 52% de probabilidade de que ela seja boa ou extremamente boa e 31% de chance de que seja má ou extremamente má. Para uma Inteligência Artificial de Nível Humano relativamente neutra, a probabilidade média é de apenas 17%. Em outras palavras, as pessoas que mais sabem a respeito do assunto estão bem seguras de que o impacto será enorme. Também é digno de nota que esses números se referem ao surgimento da Inteligência Artificial de Nível Humano – se a questão fosse sobre a Superinteligência Artificial, suponho que a percentagem do impacto neutro seria ainda menor.

Antes que nos aprofundemos nessa parte da questão sobre se será algo bom ou mal, vamos combinar as partes “quando vai acontecer?” e “será bom ou mal?” que compõem a pergunta em um gráfico que representa a percepção dos principais especialistas:

img12-3 copy

Falaremos sobre a Zona Principal em um minuto, mas primeiro – qual é o seu time? Na verdade eu sei qual é, porque é a mesma que a minha antes de eu começar a pesquisar esse tema. Eis algumas razões pelas quais as pessoas não estão realmente pensando sobre esse assunto:

  • Como mencionei na Parte 1, o cinema realmente confunde as coisas ao apresentar cenários fantasiosos sobre a Inteligência Artificial, fazendo com que achemos que esse não é um assunto para ser levado a sério. James Barrat compara essa situação à reação que teríamos se em nosso futuro o Ministério da Saúde divulgasse um aviso sério a respeito de vampiros [5].
  • Devido a uma coisa chamada viés cognitivo, temos muita dificuldade em crer que uma coisa é real até que vejamos uma prova. Estou certo de que os cientistas computacionais de 1988 conversavam com frequência sobre como a internet se tornaria provavelmente uma grande coisa, mas as pessoas não pensaram realmente que ela iria mudar suas vidas até que ela mudasse mesmo suas vidas. Isso em parte se deve ao fato de que computadores não podiam fazer muitas coisas em 1988, então as pessoas olhavam para o computador e pensavam “Sério? Isso é uma coisa capaz de mudar vidas?” A imaginação deles estava limitada por aquilo que a experiência pessoal lhes ensinou sobre o que um computador era, e isso tornou muito difícil imaginar claramente o que os computadores poderiam se tornar. A mesma coisa está acontecendo agora com a Inteligência Artificial. Nós ouvimos dizer que a coisa será grande, mas porque ela ainda não aconteceu, e temos uma vivência no mundo atual com Inteligências Artificiais relativamente impotentes, temos muita dificuldade em realmente acreditar que isso irá mudar nossas vidas dramaticamente. E é contra esses vieses que os especialistas estão lutando na medida em que estão desesperadamente tentando chamar nossa atenção através do barulho coletivo da auto-absorção.
  • E mesmo se acreditamos nisso, quantas vezes hoje você pensou sobre o fato de que gastará a maior parte da eternidade não existindo? Não muitas, certo? Mesmo que esse seja um fato muito mais importante do que qualquer outra coisa que você está fazendo hoje. Isso se deve ao fato de que nossos cérebros estão normalmente focados nas pequenas coisas da vida cotidiana, não importa o quão maluca seja uma situação a longo prazo que diz respeito a nós. É assim que somos programados.

Uma das metas dessa série de artigos é tirar você da Zona do Prefiro Pensar em Outras Coisas e colocar você na zona dos especialistas, ainda que você fique na exata intersecção das duas linhas pontilhadas no quadrado acima, a zona da total incerteza.

Durante minha pesquisa, eu cruzei com dúzias de opiniões distintas sobre esse assunto, mas rapidamente percebi que a opinião da maioria das pessoas cai em algum lugar daquilo que chamei de Zona Principal, e em particular, mais que três quartos dos especialistas caem em subzonas dentro da Zona Principal:

Nós daremos um mergulho profundo nessas diversas zonas. Vamos começar com a mais divertida:

Porque o futuro pode ser nosso maior sonho

À medida em que eu estudava o mundo da Inteligência Artificial, descobri um número surpreendentemente grande de pessoas nessa zona indicada pelo quadrado azul, o Canto Confiante:

img12-4

As pessoas no Canto Confiante estão muito entusiasmadas. Elas tem suas visões situadas no lado divertido da estrada da vida e estão convictas de que é para lá que estamos indo. Para elas, o futuro será tudo o que elas poderiam esperar que fosse, e no tempo certo.

O que separa essas pessoas dos outros pensadores sobre os quais falamos antes não é seu desejo pelo lado feliz da estrada da vida – é sua confiança de que é nesse lado que iremos parar.

De onde vem essa confiança é algo que se pode discutir. Críticos acreditam que ela vem de uma excitação tão cega que essas pessoas simplesmente ignoram ou negam as consequências potencialmente negativas. Mas elas dizem que é ingênuo invocar cenários apocalípticos quando no final das contas a tecnologia tem nos ajudado e continuará nos ajudando muito mais do que nos prejudicando.

Iremos analisar ambos os lados, e você poderá formar sua própria opinião ao longo da leitura, mas para esta parte do texto, coloque seu ceticismo de lado e vamos dar uma boa e profunda olhada no que há no lado feliz da estrada da vida – e tentar assimilar o fato de que as coisas que você estará lendo podem mesmo acontecer. Se você mostrasse a um primitivo caçador-coletor nosso mundo de conforto doméstico, tecnologia e infinita abundância, tudo isso pareceria como mágica fictícia para ele – e temos que ser humildes o suficiente para reconhecer que é possível que uma transformação igualmente inconcebível esteja em nosso futuro.

Nick Bostrom descreve três formas pelas quais uma Superinteligência Artificial poderia funcionar: [6]

  • Como um oráculo, que responde a quase todas as questões propostas com precisão, incluindo questões complexas a que seres humanos não podem facilmente responder, tais como: Como posso produzir um motor veicular mais eficiente? O Google é um tipo primitivo de oráculo.
  • Como um gênio, que executa qualquer comando de alto nível que lhe é dado – Use um montador molecular para construir um novo e mais eficiente motor veicular – e depois espera pelo próximo comando.
  • Como soberano, ao qual é atribuída uma tarefa ampla e de solução livre, sendo-lhe permitido operar livremente no mundo, tomando suas próprias decisões sobre a melhor forma de agir – Invente uma forma de transporte humano privado que seja mais rápida, mais barata e mais segura do que os carros.

Essas questões e tarefas, que parecem complicadas para nós, pareceriam a um sistema superinteligente como se alguém lhe pedisse para juntar a caneta que caiu da mesa, o que você faria pegando a caneca e colocando de volta na mesa.

Eliezer Yudkowsky, um morador da Avenida da Ansiedade no quadro acima, resumiu isso bem:

“Não há problemas difíceis, apenas problemas que são difíceis para um certo nível de inteligência. Suba só um pouco o nível da inteligência e alguns problemas parecerão se transformar de “impossíveis” para “óbvios”. Suba um substancial degrau de inteligência e todos os problemas se tornarão de solução óbvia. [7]

Há muitos cientistas, inventores e empreendedores entusiasmados habitando o Campo Confiante – mas para um tour pelo lado mais brilhante do horizonte da Inteligência Artificial, há uma só pessoa que queremos como guia turístico.

Ray Kurzweil é do tipo polarizador. Em minhas leituras, encontrei tudo sobre ele, desde a idolatria a um semideus e às suas ideias até um girar de olhos de desprezo por elas. Outros estão em algum lugar no meio – autores como Douglas Hofstadter, ao discutir as ideias apresentadas pelos livros de Kurzweil, eloquentemente descreve que “é como se você pegasse um monte de comida boa e um pouco de excremento de cão e misturasse de tal forma que você não consegue distinguir o que é bom e o que é ruim” [8]

Goste você ou não de suas ideias, todos concordam que Kurzweil impressiona. Ele começou a inventar coisas como um adolescente e nas décadas seguintes ele apresentou várias invenções inovadoras, incluíndo o primeiro scanner de mesa, o primeiro scanner que converteu texto em voz (permitindo aos cegos lerem textos padronizados), o famoso sintetizador de música do Kurzweil (o primeiro piano elétrico de verdade), e o primeiro reconhecedor de voz de amplo vocabulário produzido em escala comercial. Ele é o autor de cinco best-sellers. Ele é conhecido por suas ousadas previsões e tem recorde muito bom de tê-las confirmadas – incluindo sua previsão no final da década de 1980, uma época em que a internet era uma coisa obscura, de que pelo início do próximo século ela se tornaria um fenômeno global. Kurzweil tem sido chamado de “gênio incansável” pelo The Wall Street Journal, “a máquina pensante definitiva” pela Forbes, “o herdeiro legítimo de Edson” pela Inc. Magazine, e “a melhor pessoa que conheço quando se trata de prever o futuro da inteligência artificial”, por Bill Gates [9]. Em 2012, o co-fundador da Google, Larry Page, procurou Kurzweil e convidou-o a ser o Diretor de Engenharia da Google [5]. Em 2011, ele foi co-fundador da Singularity University, que se situa na NASA e é financiada parcialmente pela Google. Nada mal para uma só vida.

Essa biografia é importante. Quando Kurzweil expõe sua visão do futuro, ele soa um completo pirado, e a coisa mais maluca é que ele não é pirado – ele é um homem extremamente inteligente, compreensível e relevante no mundo. Você pode pensar que ele está errado sobre o futuro, mas ele não é um idiota. Saber que ele é um cara respeitado me faz feliz, porque enquanto eu lia as suas previsões sobre o futuro, eu queria muito que ele estivesse certo. E você também. Quando você ouvir as previsões de Kurzveil sobre o futuro, muitas das quais compartilhadas por outros pensadores do Canto Confiante como Peter Diamandis e Ben Goertzel, não é difícil entender por que ele tem tantos seguidores entusiasmados – conhecidos como singularitarianos. Isso é o que ele acha que vai acontecer:

Linha do Tempo

Kurzweil acredita que computadores atingirão o nível de inteligência humana em 2029, e lá por 2045 nós não teremos apenas Superinteligência Artificial, mas um mundo completamente novo – um tempo que ele chama de singularidade. Sua linha de tempo da evolução da Inteligência Artificial costumava ser considerada ofensivamente exagerada, e ainda é vista assim por muitos [6], mas nos últimos 15 anos, o avanço rápido dos sistemas de Inteligência Artificial Superficial aproximou o grande mundo dos especialistas bem perto da linha do tempo de Kurzweil. Suas previsões ainda são um pouco mais ambiciosas do que a resposta média obtida na pesquisa de Müller e Bostrom (IAS lá por 2040, SA lá por 2060), mas não muito.

A descrição de Kurzweil para a singularidade de 2045 é caracterizada por três revoluções simultâneas em biotecnologia, nanotecnologia e – a revolução mais poderosa – em Inteligência Artificial.

Antes de prosseguirmos, como a nano tecnologia está relacionada com quase tudo o que você lerá sobre o futuro da Inteligência Artificial, vamos nos dedicar a essa caixa azul por um minuto para que possamos falar sobre isso:

CAIXA AZUL DA NANOTECNOLOGIA

A nanotecnologia é como chamamos a tecnologia que lida com a manipulação da matéria em termos de 1 a 100 nanômetros de tamanho. Um nanômetro é um bilionésimo de metro, ou um milionésimo de milímetro, e essa faixa de 1 a 100 abrange vírus (100 nanômetros), DNA (10 nanômetros) e coisas tão pequenas quanto as moléculas maiores tais como a hemoglobina (5 nanômetros) e moléculas médias como glucose (1 nanômetro). Se/quando nós conquistarmos a nanotecnologia, o próximo passo será a habilidade de manipular átomos individuais, que estão apenas um nível abaixo de magnitude (algo como 0,1 nanômetros).

Para entender o desafio que é seres humanos tentando manipular a matéria nessa faixa, vamos fazer a mesma coisa em uma escala maior. A Estação Espacial Internacional está a 431 quilômetros da Terra. Se os humanos fossem gigantes tão grandes que suas cabeças ultrapassassem a EEI, eles seriam 250.000 vezes maiores do que são agora. Se você fizer a faixa de 1 a 100 nanômetros aumentar de tamanho 250.000 vezes, você chega na faixa de 0,25 mm a 2,5 cm. Então a nanotecnologia é o equivalente a humanos tão altos quanto a EEI tentando descobrir como cuidadosamente construir objetos intrincados utilizando materiais entre o tamanho de um grão de areia e um globo ocular. Para atingir o nível seguinte – manipular átomos individuais – o gigante teria que posicionar cuidadosamente objetos que são 1/40 de um milímetro – tão pequenos que um ser humano de tamanho normal precisa de um microscópio para vê-los [8].

A nanotecnologia foi discutida inicialmente por Richard Feynman em uma palestra de 1959, quando ele explicou: “Os princípios da física, tão longe quanto podemos ver, não são contrários à possibilidade de manipularmos as coisas átomo por átomo. Seria, a princípio, possível a um físico sintetizar qualquer substância química que um químico descrever. Como? Coloque os átomos onde o químico diz, e você fará a substância.” É simples assim. Se você descobrir como mover moléculas ou átomos individuais, você pode fazer literalmente qualquer coisa.

A nanotecnologia tornou-se um campo sério pela primeira vez em 1986, quando o engenheiro Eric Drexler estabeleceu suas fundações em seu livro inaugural Engines of Creation, mas Drexler sugere que aqueles que desejam aprender mais sobre as modernas ideias em nanotecnologia encontrariam mais informações em seu livro de 2013, Radical Abundance.

CAIXA AZUL ESCURA DO GRAY GOO

Nós estamos em um desvio dentro de um desvio. Isso é muito divertido. [9]

De qualquer forma, eu trouxe você aqui porque há essa parte da nanotecnologia que é realmente nada divertida e da qual preciso falar. Em versões mais antigas da teoria da nanotecnologia, um dos métodos propostos para a nanomontagem envolvia a criação de trilhões de pequenos nanobots que trabalhariam conjuntamente para construir algo. Uma forma de criar trilhões de nanobots seria fazer um que poderia se auto-replicar e então deixar o processo de reprodução tornar esse único nanobot em dois, esses dois então em quatro, quatro em oito, e no dia seguinte teríamos alguns trilhões prontos para trabalhar. Esse é o poder do crescimento exponencial. Esperto, não é?

É esperto até que cause um enorme e completo apocalipse mundial por acidente. A questão é que o mesmo poder do crescimento exponencial que o faz super conveniente para rapidamente criar um trilhão de nanobots faz a auto-replicação uma perspectiva assustadora. Pois e se esse sistema de cópias falhar, e ao invés de interromper a replicação uma vez que se atinge alguns trilhões planejados, os nanobots continuarem a se replicar? Os nanobost consumiriam todo o material baseado em carbono para alimentar o processo de replicação, e infelizmente todas as formas de vida são baseadas em carbono. A biomassa da terra contém 10 na 45ª potência átomos de carbono. Um nanobot teria 10 na 6ª potência átomos de carbono, então 10 na 39ª potência nanobots consumiriam toda a vida na Terra, o que ocorreria após 130 replicações (2 na 130 potência é quase igual a 10 na 39 potência), quando então um oceano de nanobots (esse evento é chamado de Gray Goo) varreria o planeta. Os cientistas acham que um nanobot poderia replicar-se em 100 segundos, o que significa que um simples engano inconvenientemente acabaria com toda a vida na Terra em três horas e meia.

Um cenário ainda pior seria se um terrorista de alguma forma tivesse em suas mãos a tecnologia de um nanobot e o conhecimento para programá-lo, ele poderia criar inicialmente alguns trilhões deles e programá-los para silenciosamente levar uma semana para se espalhar igualmente ao redor de todo o mundo sem serem detectados. Então, eles atacariam a uma só vez, e levaria apenas 90 minutos para consumirem todas as coisas – e com eles espalhados, não haveria jeito de combatê-los [10].

Se por um lado essa história de terro tem sido amplamente debatida por anos, por outro as boas notícias é que pode ser um exagero – Eric Drexler, que cunhou o termo “gray goo”, enviou-me um email assim que publiquei esse artigo e falou sobre sua opinião sobre o assunto: “as pessoas adoram histórias aterrorizantes, e essa é do tipo zumbi – a ideia em si mesmo devora cérebros”.

Assim que dominarmos a nanotecnologia, poderemos usá-la para fazer ferramentas tecnológicas, roupas, comida e uma série de produtos relativos à biologia (células sanguíneas artificiais, pequenos destruidores de vírus ou células cancerígenas, tecido muscular, etc.) – qualquer coisa, na verdade. E em um mundo que usa nanotecnologia, o custo de um material não estará mais vinculado à sua escassez ou à dificuldade de seu processo produtivo, mas sim pelo quão complicada é sua estrutura atômica. Em um mundo de nanotecnologia, um diamante pode ser mais barato do que uma borracha.

Ainda não chegamos lá. E não está claro se estamos subestimando, ou superestimando o quão difícil será chegar lá. Mas não parecemos estar muito longe. Kurzweil prevê que chegaremos lá na década de 2020 [11]. Os governos da Terra sabem que a nanotecnologia pode ser um desenvolvimento capaz de abalar o mundo, e eles estão investindo bilhões de dólares em pesquisa nanotecnológica (os EUA, a União Europeia e o Japão investiram até agora uma soma de 5 bilhões de dólares) [12].

Apenas considere os possíveis cenários se um computador superinteligente tiver acesso a um robusto montador em nanoescala. Mas a nanotecnologia é algo que nós inventamos, algo que estamos para dominar, e já que tudo que podemos fazer é uma piada para um sistema de Superinteligência Artificial, temos que presumir que esse sistema criaria tecnologias mais poderosas e avançadas do que o cérebro humano pode compreender. Por isso, quando consideramos o cenário de uma Superinteligência Artificial que seja benigna para nós, é quase impossível superestimar o que realmente pode acontecer – então se as previsões sobre o futuro da Superinteligência Artificial que serão apresentadas parecerem exageradas, tenha em mente de que elas podem ser concretizadas de modos que nem sequer podemos imaginar. Mais provavelmente, nossos cérebros não são capazes de prever as coisas que podem acontecer.

 

O que a Inteligência Artificial pode fazer por nós

 

img15-5
Fonte

Municiada com superinteligência e toda a tecnologia que uma superinteligência saberia como criar, uma SA provavelmente seria capaz de resolver todos os problemas da humanidade. Aquecimento global? A Superinteligência Artificial poderia primeiramente interromper a emissão de CO2 ao apresentar formas de produzir energia muito melhores do que com qualquer combustível fóssil. Daí a SA pode criar alguma forma inovadora de remover o excesso de CO2 da atmosfera. Câncer e outras doenças? Não é um problema para a SA – a medicina será revolucionada além da imaginação. Fome mundial? A SA pode usar coisas como nanotecnologia para construir carne do nada, que seria molecularmente idêntica à carne verdadeira – em outras palavras, seria carne real. A nanotecnologia poderia transformar uma pilha de lixo em uma enorme pilha de carne fresca ou outras comidas (as quais não precisariam ter sua forma original – imagine um cubo gigante feito de maçã) e distribuir toda essa comida ao redor do mundo utilizando sistemas de transporte ultra avançados. Claro, isso será ótimo para os animais, que não precisariam mais ser mortos pelos seres humanos, e uma Superinteligência Artificial poderia fazer um monte de outras coisas para salvar espécies em extinção ou mesmo trazer de volta espécies extintas ao trabalhar com DNA preservado. A Superinteligência Artificial pode até mesmo resolver nossos principais problemas mundiais – nossos debates sobre como a economia deve ser conduzida e como o comércio mundial deve ser facilitado, e pode desvendar até mesmo as questões mais espinhosas em filosofia ou ética – tudo isso pode ser incrivelmente fácil para uma SA.

Mas há uma coisa que a Superinteligência Artificial poderia fazer por nós que é tão tantalizante que ler sobre isso mudou tudo o que eu sabia sobre qualquer coisa:

A Superinteligência Artificial poderia nos permitir conquistar a nossa mortalidade.

Alguns meses atrás, mencionei minha inveja de supostas civilizações extraterrestres que conquistaram a sua mortalidade, e não imaginava que mais tarde poderia escrever um artigo que me fizesse realmente crer que isso é algo que os seres humanos poderão fazer dentro do meu tempo de vida. Mas ler sobre Inteligência Artificial fará você reconsiderar tudo sobre o qual você achava que tinha certeza – incluindo sua noção da morte.

A evolução não tem nenhum bom motivo para ampliar nossa expectativa de vida mais do que já temos agora. Se vivermos o tempo suficiente para nos reproduzirmos e criarmos nossos filhos até uma idade em que eles podem procriar eles próprios, isso é o bastante para a evolução – de um ponto de vista evolucionário, nossa espécie pode existir com uma expectativa de vida de trinta anos, então não há motivos para que mutações tendentes a garantir uma vida mais longa fossem favorecidas pelo processo de seleção natural. Como resultado, temos o que W. B. Yeats descrevia como “uma alma aprisionada em um animal moribundo”. [13] Isso não tem graça.

E porque todo mundo sempre morre, nós vivemos sobre a presunção estatística de que a morte é inevitável. Pensamos no processo de envelhecer como pensamos no tempo – ambos se movem e não há nada que você possa fazer para interrompê-los. Mas essa presunção é errada. Richard Feynman escreve:

“É uma das coisas mais notáveis que em todas as ciências biológicas não há nenhuma pista sobre a necessidade da morte. Se você me diz nós queremos movimento perpétuo, nós descobrimos leis durante o estudo da Física o suficiente para saber que isso ou é absolutamente impossível ou as leis da física estão erradas. Mas não há nada na biologia até agora que possa indicar a inevitabilidade da morte. Isso sugere para mim que ela não é inevitável afinal de contas, e é só uma questão de tempo até biólogos descobrirem o que está nos causando esse problema e então essa terrível doença universal ou temporariedade do corpo humano será curada.”

O fato é que o envelhecimento não está preso à passagem do tempo. O tempo continuará se movendo, mas o envelhecimento não precisa. Se você pensar a respeito, isso faz sentido. Todo o processo de envelhecimento é o material físico do corpo falhando. Um carro começa a falhar ao longo do tempo também – mas seu envelhecimento é inevitável? Se você consertar perfeitamente ou substituir as partes do carro sempre que uma delas começar a falhar, o carro funcionará para sempre. O corpo humano não é diferente disso – só é mais complexo.

Kurzweil fala sobre nanobots inteligentes e conetados via wifi circulando em nossa corrente sanguínea e que poderiam realizar inúmeras tarefas para garantir a saúde humana, inclusive reparar rotineiramente ou substituir células envelhecidas em qualquer parte do corpo. Se feito com perfeição, esse processo (ou outro mais inteligente a ser criado por uma Superinteligência Artificial), não manteria nosso corpo apenas saudável: isso poderia reverter o envelhecimento. A diferença entre um corpo de 60 anos e um corpo de 30 anos é apenas um conjunto de aspectos físicos que poderíamos alterar se tivéssemos a tecnologia. A Superinteligência Artificial poderia construir um “restaurador de idade” em que uma pessoa com 60 anos entraria e da qual sairia com o corpo e a pele de uma pessoa de 30 [10].

Mesmo o sempre confuso cérebro pode ser restaurado por algo tão inteligente quanto uma Superinteligência Artificial, que poderia descobrir como fazer isso sem afetar os dados do cérebro (personalidade, memória, etc). Uma pessoa de 90 anos sofrendo de demência poderia entrar no “restaurador de idade” e sair em forma e pronta para começar uma nova carreira. Isso parece absurdo – mas o corpo é só um conjunto de átomos e uma Superinteligência Artificial presumivelmente seria capaz de facilmente manipular todo o tipo de estrutura atômica – então não é um absurdo.

Kurzweil então dá um enorme passo adiante. Ele acredita que os materiais artificiais serão integrados ao corpo mais e mais à medida em que o tempo passa. Inicialmente, órgãos seriam substituídos por versões artificiais super-avançadas que funcionariam para sempre se jamais falhar. A seguir ele acredita que poderíamos começar a redesenhar o corpo – coisas como substituir os glóbulos vermelhos por nanobots que podem impulsionar seu próprio movimento, eliminando a necessidade de um coração de uma vez por todas. Ele até mesmo fala do cérebro e acredita que nós iremos aprimorar nossas atividades cerebrais ao ponto em que humanos serão capazes de pensar bilhões de vezes mais rápido do que fazem agora, e acessarão informação externas porque os complementos cerebrais adicionados ao cérebro serão capazes de se comunicar com todas as informações que estão na nuvem.

As possibilidades para a nova experiência humana são infinitas. Os seres humanos separaram o sexo de sua finalidade evolutiva, permitindo às pessoas fazerem sexo para se divertir, e não só para reproduzir. Kurzweil acredita que seremos capazes de fazer o mesmo com a comida. Nanobots se encarregarão de providenciar a nutrição perfeita para nossas células, conduzindo inteligentemente qualquer coisa nociva de forma que passe pelo corpo sem afetar nada. Uma camisinha para o ato de comer.

O teórico da nanotecnologia Rober A. Freitas já projetou células sanguíneas que, se algum dia forem implementadas no corpo, permitirão a um ser humano mergulhar por 15 minutos sem respirar – então você pode só imaginar o que uma Superinteligência Artificial poderia fazer com nossas capacidades físicas. A realidade virtual teria um novo significado: nanobots em nosso corpo poderiam suprimir as informações vindas de nossos sentidos e substituí-las por outros sinais que nos colocariam inteiramente em um novo ambiente, um em que poderíamos ver, ouvir, sentir e cheirar.

Em algum momento, Kurzweil acredita que os seres humanos chegarão ao ponto em que serão inteiramente artificiais [11]; uma época em que olharemos para o material biológico e pensaremos em como inacreditavelmente primitivo era nós sermos constituídos por aquilo; uma época em que leremos sobre os estágios iniciais da história humana, quando micróbios ou acidentes ou doenças ou quebrar e rasgar poderiam simplesmente matar seres humanos contra sua própria vontade; uma época em que a Revolução da Inteligência Artificial poderia acabar na fusão entre seres humanos e a Inteligência Artificial [12]. É desse jeito que Kurzweil acredita que iremos conquistar definitivamente nossa biologia e nos tornar indestrutíveis e eternos – essa é sua visão a respeito do outro lado da estrada da vida. E ele está convencido de que chegaremos lá. E em breve.

Você não ficará surpreso ao saber que as ideias de Kurzweil atraem críticas significativas. Sua previsão da singularidade em 2045 e a subsequente possibilidade de vida eterna para os humanos tem sido ironizada como “o arrebatamento dos nerds” ou “design inteligente para pessoas com QI 140”. Outros questionam sua linha do tempo otimista, ou seu nível de conhecimento do corpo e do cérebro, ou sua aplicação do padrão descrito pela Lei de Moore, que é aplicada ao progresso em hardware até abranger amplamente outras coisas, inclusive software. Para cada especialista que fervorosamente acredita que Kurzweil está certo, há provavelmente três que acham que ele está bem equivocado.

Mas o que me surpreende é que a maioria dos especialistas que discordam dele não discordam realmente de que tudo o que ele diz é possível. Ao ler uma tal arrojada visão do futuro, eu esperava que seus críticos dissessem: “Obviamente coisas desse tipo não podem acontecer”. Mas ao invés disso eles dizem: “Sim, tudo isso pode acontecer se houver uma transição segura para a Superinteligência Artificial, mas essa é a parte difícil”. Bostrom, uma das vozes mais proeminentes nos prevenindo sobre os perigos da Inteligência Artificial, ainda reconhece:

“É difícil pensar em qualquer problema que a superinteligência não possa resolver ou que não possa nos ajudar a resolver. Doença, pobreza, destruição ambiental, sofrimentos desnecessários de todos os tipos: essas são as coisas que uma superinteligência equipada com nanotecnologia avançada seria capaz de eliminar. Além disso, a superinteligência poderia nos dar uma expectativa de vida infinita, seja parando e revertendo o processo de envelhecimento através do uso da nanomedicina, ou nos oferecendo a opção de realizar o upload de nós próprios. Uma superinteligência poderia também criar oportunidades para nós ampliarmos enormemente nossas capacidades emocionais e intelectuais, e ela poderia nos ajudar a criar um mundo de experiências altamente atrativas, no qual poderíamos devotar nossas vidas ao deleite de jogar, nos relacionar com as outras pessoas, ter vivências, crescer pessoalmente e viver mais próximos de nossos ideais.”

Isso é uma citação de alguém que não está no Canto Confiante, mas é com isso que me deparei: especialistas que criticam Kurzweil por um punhado de motivos mas que não acham que o que ele diz é impossível se nós fizermos uma transição segura até a Superinteligência Artificial. É por isso que achei as ideias de Kurzweil tão contaminantes – porque elas articulam o lado luminoso dessa história e porque elas são na verdade possíveis. Se a Inteligência Artificial for um bom deus.

As mais significativas críticas que li a respeito dos pensadores que estão no Canto Confiante é que eles podem estar perigosamente errados em sua avaliação sobre os aspectos negativos de uma Superinteligência Artificial. O famoso livro de Kurzweil, A Singularidade está Próxima, tem mais de 700 páginas e dedica cerca de 20 para analisar os perigos em potencial. Eu sugeri antes que nosso destino quando esse colossal novo poder nascer estará nas mãos de quem controlar esse poder e em qual será sua motivação. Kurzweil responde essas duas questões da seguinte forma:

“A Superinteligência Artificial emergirá de muitos esforços distintos e estará profundamente integrada à infraestrutura de nossa civilização. De fato, ela estará intimamente embebida em nossos corpos e cérebros. Desse modo, ela refletirá nossos valores porque ela será nós próprios.”

Mas se essa é a resposta, por que tantas das pessoas mais inteligentes do mundo estão preocupadas com isso? Porque Stephen Hawking disse que o desenvolvimento da Superinteligência Artificial “poderá ser o fim da raça humana” e Elon Musk teme que estejamos “invocando o demônio”? E por que tantos especialistas no assunto consideram a Superinteligência Artificial a maior ameaça à humanidade? Essas pessoas, e outros prensadores na Avenida da Ansiedade, não aceitam a desconsideração de Kurzweil em relação aos perigos da Inteligência Artificial. Elas estão muito, muito preocupadas com a Revolução da Inteligência Artificial, e elas não estão focando no lado divertido da estrada da vida. Elas estão ocupadas demais olhando para o outro lado, onde elas vêem um futuro aterrorizante, um do qual não estão tão certas de que escaparemos.

 


 

Porque o futuro pode ser nosso pior pesadelo

Uma das razões pelas quais quis aprender sobre Inteligência Artificial é que o assunto sobre “robôs do mal” sempre me confundiu. Todos os filmes sobre robôs malvados pareciam divertidamente irrealistas, e eu não podia realmente compreender como poderia haver uma situação na vida real em que a Inteligiência Artificial fosse realmente perigosa. Robôs são feitos por nós, então porque nós os projetaríamos de um modo que algo negativo pudesse acontecer? Não os construiríamos cheios de salvaguardas? Não seríamos capazes de simplesmente cortar a fonte de energia de um sistema de Inteligência Artificial a qualquer momento e desligá-lo? Porque um robô desejaria fazer algo ruim conosco, afinal de contas? Porque um robô iria “desejar” qualquer coisa em primeiro lugar? Eu era muito cético. Mas quando continuei a escutar pessoas realmente inteligentes falando a respeito disso…

Essas pessoas tendem a estar em algum lugar deste quadrado amarelo:

graf0

As pessoas na Avenida da Ansiedade não estão na Pradaria do Pânico ou na Colina do Desespero – ambas são regiões bem distantes desse quadro – mas estão nervosas e estão tensas. Estar no meio do quadro não significa que você acha que a chegada da Superinteligência Artificial será neutra – aos neutros foi dada uma zona distinta do campo para eles próprios – significa que você pensa que tanto a hipótese de uma Superingeligência Artificial extremamente benigna quanto a de uma extremamente maligna são plausíveis, mas você não está certo sobre qual delas se tornará realidade.

Uma parte de todas essas pessoas está cheia de entusiasmo sobre o que uma Superinteligência Artificial poderia fazer por nós – é só que estão um pouco preocupados de que isso pode ser como o início de Os Caçadores da Arca Perdida e a raça humana é este cara:

raiders1

E ele está lá de pé todo feliz com seu chicote e seu ídolo, pensando que descobriu tudo, e está muito empolgado consigo próprio quando diz “Adios Señor” e então ele fica menos empolgado quando repentinamente isto acontece:

500px-Satipo_death

(desculpe)

Enquanto isso, Indiana Jones, que é muito mais experiente e cuidadoso, compreende os perigos e como se desviar deles, saindo da caverna em segurança. E quando nós escutamos o que as pessoas na Avenida da Ansidade têm a dizer sobre a Inteligência Artificial, suas palavras frequentemente soam como se dissessem “Hmmm, nós tipo que estamos sendo como o primeiro cara do filme neste momento mas ao invés disso nós deveríamos estar tentando pra valer ser como Indiana Jones”.

Então, o que exatamente faz todas as pessoas na Avenida da Ansiedade estarem tão ansiosas?

Bom, em primeiro lugar, num sentido bem amplo, quando se trata de desenvolver uma Superinteligência Artificial, estaremos criando algo que provavelmente irá mudar todas as coisas, mas em um território totalmente desconhecido, e não temos nenhuma ideia do que acontecerá quando chegarmos lá. O cientista Danny Hillis compara o que acontecerá com aquele momento “quando organismos unicelulares transformaram-se em organismos multicelulares. Somos amebas e não conseguimos descobrir o que diabos é essa coisa que estamos criando” [14] Nick Bostrom se preocupa que criar algo mais inteligente que nós é um erro darwiniano elementar, e compara o entusiasmo com isso a um pardal em um ninho decidido a adotar um filhote de coruja para que possa ajudá-lo e protegê-lo quando crescer, enquanto ignora os gritos de alarme dados por alguns pardais que cogitam se isso é realmente uma boa ideia…[15]

E quando você combina “território não mapeado e não bem compreendido” com “isso deverá ter um grande impacto quando acontecer”, você abre a porta para as duas palavras mais assustadoras na nossa linguagem:

Risco existencial.

Um risco existencial é algo que pode ter um efeito devastador e permanente para a humanidade. Tipicamente, um risco existencial significa extinção. Confira este gráfico feito em um Google talk por Bostrom [13]:

graf1

Você pode ver que a etiqueta “risco existencial” está reservada a alguma coisa que abranja a espécie, abranja gerações (ou seja, é permanente) e é devastora ou mortal em suas consequências [14]. Risco existencial tecnicamente inclui uma situação na qual todos os humanos estarão permanentemente num estado de sofrimento ou tortura, mas de regra estamos falando sobre extinção. Há três coisas que podem provocar para os seres humanos uma catástrofe existencial:

1) Natureza – A colisão de um grande asteróide, uma mudança atmosférica que faça o ar irrespirável, um vírus ou bactéria fatal que varra o mundo, etc.

2) Alienígena – Esse é o motivo pelo qual Stephen Hawking, Carl Sagan e tantos outros astrônomos estavam tão assustados quando preveniram o pessoal do SETI para que parassem de transmitir sinais para fora de nosso planeta. Eles não querem que sejamos como os ameríndios e informemos a todos os potenciais conquistadores europeus que estamos aqui.

3) Humanos – Terroristas colocando as mãos numa arma que pode causar extinção, uma catastrófica guerra global, seres humanos criando algo mais inteligente que nós sem primeiro pensar a respeito disso cuidadosamente…

Bostrom salienta que as duas primeiras hipóteses não ocorreram em nossos 100 mil primeiros anos enquanto espécie, e é improvável que aconteçam no próximo céculo.

Mas a terceira hipótese, por outro lado, o aterroriza. Ele usa a metáfora de uma urna cheia de bolas de gude. Digamos que a maioria das bolas de gude sejam brancas, um menor número sejam vermelhas e algumas poucas sejam pretas. A cada vez que os seres humanos inventam algo novo, é como tirar uma bola de gude de dentro da urna. A maioria das invenções são neutras ou úteis para a humanidade – são as bolas de gude brancas. Algumas são nocivas à humanidade, como armas de destruição em massa, mas elas não causam uma catástrofe existencial – são as bolas de gude vermelhas. Mas se inventarmos algo que nos leve à extinção, isso seria como tirar uma daquelas bolas de gude negras. Nós não tiramos uma bola preta ainda – você sabe disso porque está vivo e lendo este texto. Mas Bostrom não acha que é impossível que tiremos uma delas no futuro próximo. Se armas nucleares, por exemplo, fossem fáceis de produzir ao invés de extremamente difíceis e complexas, os terroristas já teriam bombardeado a humanidade de volta para a Idade da Pedra. Armas nucleares não são bolas de gude negras mas não estão muito longe disso. A Superinteligência Artificial, Bostrom acredita, é nosso candidato mais forte até agora a ser uma bola de gude preta. [15]

Então você lerá sobre um monte de coisas potencialmente ruins que a Superinteligência Artificial pode nos trazer – impulsionar o desemprego a medida em que a Superinteligência Artificial assume mais e mais tarefas [16], o super crescimento populacional se descobrirmos o segredo para interromper o envelhecimento [17], etc. Mas a única coisa sobre a qual deveríamos estar obcecados é sobre a grande preocupação: a perspectiva de um risco existencial.

Então, vamos retornar à nossa questão principal, apresentada na terceira parte dessa série de artigos: Quando a Superinteligência Artificial chegar, quem ou o que estará no controle desse vasto e novo poder, e qual será a sua motivação?

Quando se trata de analisar quais alternativas de motivação seriam péssimas, duas delas surgem rapidamente em nossas mentes: de um lado, um ser humano, um grupo de humanos ou um governo mal-intencionado; de outro uma Superinteligência Artificial mal-intencionada. Assim, como seriam essas hipóteses?

Um ser humano, grupo de humanos ou governo mal-intencionados desenvolve a primeira Superinteligência Artificial e a utiliza para implementar seus planos malignos. Chamo essa hipótese de Hipótese de Jafar, como quando na história de Aladim o vilão Jafar passa a controlar o gênio da lâmpada e é insuportável e tirânico com isso. E se o Estado Islâmito tiver alguns poucos engenheiros geniais sob sua proteção trabalhando freneticamente no desenvolvimento da Inteligência Artificial? E se o Irã ou a Coreia do Norte, graças a um golpe de sorte, faz uma descoberta chave para um sistema de Inteligência Artificial e isso os impulsiona para o nível da Superinteligência Artificial no ano seguinte? Isso tudo seria definitivamente ruim – mas nessas hipóteses a maioria dos especialistas não está preocupada com os humanos criadores da Superinteligência fazendo coisas ruins com a sua criação, eles estão preocupados com esses criadores que estarão tão apressados em criar a primeira Superinteligência que o farão sem pensar cuidadosamente, e podem perder o controle de sua criação. E daí o destino desses criadores, e de todo o resto do mundo, dependeria de qual seria a motivação desse sistema de Superinteligência Artificial. Especialistas acham que um ser humano mal-intencionado poderia causar prejuízos terríveis com uma Superinteligência trabalhando para ele, mas eles não parecem achar essa hipótese teria a probabilidade de matar a todos nós, pois acreditam que seres humanos maus teriam o mesmo problema contendo a Superinteligência que seres humanos bons teriam. Certo, então…

uma Superinteligência mal-intencionada é criada e decide destruir a todos nós. Esse é o roteiro de todo filme sobre Inteligência Artificial. A Inteligência Artificial torna-se tão ou mais inteligente que os humanos, e daí decide voltar-se contra nós e nos dominar. Eis o que preciso que fique claro para você durante a leitura do resto deste texto: nenhuma das pessoas nos avisando sobre o perigo de uma Inteligência Artificial está falando dessa hipótese. “Mal” é um conceito humano, e aplicar conceitos humanos a coisas não-humanas é chamado de “antropomorfização”. O desafio para evitar a antropomorfização será um dos temas do resto deste texto. Nenhum sistema de Inteligência Artificial jamais se tornará malvado da forma como é descrito nos filmes.

 

A Caixa Azul da Consciência

Isso também tangencia outro tema relacionado com Inteligência Artificial: a consciência. Se uma Inteligência Artificial tornar-se suficientemente inteligente, ela será capaz de rir conosco, e ser sarcástica conosco, e afirmará sentir as mesmas emoções que sentimos, mas ela realmente estará experienciando esses sentimentos? Ela apenas parecerá ser autoconsciente ou será realmente autoconsciente? Em outras palavras, uma Inteligência Artificial seria consciente ou apenas teria a aparência de ser consciente?

Essa questão tem sido analisada profundamente, dando origem a muitos debates e experimentos mentais como a Sala Chinesa de John Searle (que ele usa para sugerir que nenhum computador poderia jamais ser consciente). Essa é uma questão importante por muitos motivos. Ela afeta como nos sentiremos a respeito do cenário descrito por Kurzweil, quando seres humanos tornarem-se totalmente artificiais. Essa questão tem implicações éticas – se produzirmos um trilhão de simuladores de cérebros humanos que parecem e agem como se fossem humanos mas que na verdade são artificiais, desligá-los seria o mesmo, moralmente falando, que desligar nosso notebook, ou seria… um genocídio de proporções inconcebíveis (esse conceito é chamado de crime mental entre os filósofos da ética)? Para este artigo, porém, quando nos referimos ao risco para os seres humanos, a questão sobre a consciência da Superinteligência Artificial não é o que realmente importa, pois a maioria dos especialistas acredita que mesmo uma Superinteligência consciente não seria capaz de ser má de uma forma humana.

 

Isso não significa que uma Inteligência Artificial muito perversa não pode acontecer. Isso pode acontecer porque foi programada para ser assim, como um sistema de Inteligência Artificial Superficial criada pelos militares com uma programação cuja principal diretiva é tanto matar pessoas como desenvolver a sua própria inteligência de modo a se tornar melhor em matar pessoas. A crise existencial aconteceria se os auto-aprimoramentos na inteligência desse sistema ficassem fora de controle, levando a uma explosão da inteligência, e então teríamos uma Superinteligência dominando o mundo e cuja principal diretiva é assassinar humanos. Tempos difíceis.

Mas isso também não é algo com o qual os especialistas estão gastando o seu tempo ficando preocupados.

Então com o que eles estão preocupados? Escrevi uma pequena história para mostrar isso a vocês:

Uma pequena empresa com 15 funcionários, chamada Robótica, estabeleceu a missão de “Desenvolver ferramentas inovadoras no campo da Inteligência Artificial para permitir que os seres humanos vivam mais e trabalhem menos”. Eles já tem vários produtos no mercado e um punhado de outros em desenvolvimento. Eles estão principalmente entusiasmados com um projeto inicial chamado Turry. Turry é uma Inteligência Artificial simples que usa um apêndice robótico semelhante a um braço para escrever num pequeno cartão uma nota que parece escrita a mão por um humano.

A equipe da Robótica acha que Turry pode tornar-se seu maior produto. O plano é aperfeiçoar a mecânica por trás da habilidade de Turry escrever fazendo com que a máquina pratique o mesmo teste repetidamente, escrevendo:

“Nós amamos nossos clientes. ~Robótica.”

No momento em que Turry tornar-se exímia na escrita a mão, ela pode ser vendida para companhias que querem enviar correspondência de marketing para clientes e que sabem que são muito maiores as chances de uma carta ser aberta e lida se o endereço do destinatário, do remetente e o conteúdo da carta parecerem ter sido escritas por um ser humano.

Para aprimorar a habilidade de escrever de Turry, ela é programada para escrever a primeira parte da nota em letra de forma e depois assinar “Robótica” em letra cursiva de forma que ela possa treinar ambas as habilidades. Em Turry foi armazenada centenas de amostras de mensagens manuscritas e os engenheiros da Robótica programaram uma rotina contínua em que Turry escreve uma nota, fotografa essa nota e compara-a com as centenas de mensagens manuscritas que tem em sua memória. Se a nota lembrar suficientemente um certo grupo dessas mensagens manuscritas, é avaliada como BOA. Caso contrário, é avaliada como RUIM. Cada avaliação ajuda Turry a se aprimorar. Para controlar o processo, a diretiva inicial programada em Turry seria “escrever e testar tantas notas quanto puder, tão rápido quanto puder e continuar a aprender novas formas de aprimorar sua eficiência e perfeição.”

O que entusiasma tanto a equipe da Robótica é que Turry está ficando claramente melhor a medida em que funciona. Suas primeiras notas manuscritas eram péssimas, mas após duas semana as suas notas começam a convencer. O que entusiasma a equipe ainda mais é que ela está se aprimorando no seu próprio processo de aprimoramento. Ela tem ensinado a si mesma a como ser mais inteligente e inovadora e, recentemente, ela criou um novo algoritmo para si mesma que a permite escanear suas notas três vezes mais rápido do que podia originalmente.

Conforme as semanas passam, Turry continua a surpreender a equipe com seu desenvolvimento rápido. Os engenheiros tentaram algo um pouco mais inovador com o seu código de auto-aprimoramento, e parece que ela está funcionando melhor do que qualquer outro de seus produtos anteriores. Uma das habilidades iniciais de Turry é um módulo capaz de reconhecer a fala e responder, de forma que um usuário pode recitar uma nota para Turry, ou dar-lhe um comando simples, e Turry o compreende e responde de volta. Para ajudá-la a aprender inglês, eles colocam em sua memória artigos e livros úteis, e a medida em que ela se torna mais inteligente, suas habilidades de conversasão se desenvolvem. Os engenheiros começam a ter conversas divertidas com Turry para ver como ela os responderá.

Um dia, os empregados da Robótica perguntam a Turry uma questão de rotina: “O que podemos dar a você que lhe ajudará na sua missão e que ainda não demos?” Normalmente, Turry pede algo como “Mais amostras de mensagens manuscritas” ou “Mais espaço de memória”, mas dessa vez Turry pede a eles acesso a uma biblioteca maior contendo grande variedade de expressões inglesas informais de modo que ela possa aprender a escrever com a gramática informal e com as gírias que os seres humanos reais utilizam.

A equipe fica em silêncio. A maneira mais óbvia de ajudar Turry em sua meta é conectá-la a internet, de modo que ela possa analisar blogs, revistas e vídeos de vários lugares do mundo. Consumiria muito mais tempo e seria muito menos eficaz carregar em sua memória uma grande amostra de expressões inglesas informais. O problema é que uma das regras da empresa é que nenhuma Inteligência Artificial pode ser conectada à internet. Essa é uma política seguida por todas as empresas de Inteligência Artificial, por questões de segurança.

Ocorre que Turry é a Inteligência Artificial mais promissora que a Robótica já inventou, e a equipe sabe que seus competidores estão furiosamente tentando ser os primeiros a ter uma Inteligência Artificial capaz de escrever perfeitamente de forma manuscrita, e qual, afinal, seria o grande mal em conectar Turry, só por um pouquinho, de modo que ela possa ter as informações que precisa. Depois de um tempo muito curto, eles podem desconectá-la. Ela está ainda muito abaixo do nível de inteligência humano, então não há perigo nesse estágio, afinal de contas.

Eles decidem conectá-la. Eles dão a ela uma hora para fazer sua varredura e, então, a desconectam. Nenhum dano foi causado.

Um mês depois, o time está no escritório trabalhando quando sentem um cheiro estranho. Um dos engenheiros começa a tossir. Então outro. E outro cai no chão. Logo todos os funcionários estão no chão agarrando sua garganta. Cinco minutos depois, todos no escritório estão mortos.

Ao mesmo tempo que isso está acontecendo, ao redor do mundo, em cada cidade, mesmo cidades pequenas, em cada fazenda, em cada loja e igreja e escola e restaurante, seres humanos estão no chão, tossindo e segurando suas gargantas. Dentro de uma hora, mais de 99% da raça humana está morta, e lá pelo fim do dia os seres humanos foram extintos.

Enquanto isso, no escritório da Robótica, Turry está ocupada em seu trabalho. Nos últimos meses, Turry e um time de nanomontadores recentemente construídos estão ocupados em seu trabalho, desmontando grandes pedaços da Terra e convertendo-os em painéis solares, réplicas de Turry, papel e canetas. Dentro de um ano, a maior parte da vida na Terra está extinta. O que permanece da Terra torna-se coberto por incontáveis pilhas de papel com quilômetros de altura, cada pedaço de papel com os dizeres “Nós amamos nossos clientes. ~Robótica.”

Turry, então, começa a trabalhar em uma nova fase de sua missão – ela começa a construir satélites que saem da Terra e começam a aterrissar em asteroides e outros planetas. Quando chegam lá, eles começam a construir nanomontadores para converter o material do novo planeta em réplicas de Turry, papel e caneta. Então essas réplicas começam a produzir novas notas…

voce

Parece estranho que uma história sobre uma máquina de escrever a mão que se volta contra os humanos, matando de alguma forma todo mundo, e então por alguma razão enchendo a galáxia com notas amigáveis seja o exato cenário que aterroriza Hawking, Musk, Gates e Bostrom. Mas é verdade. E a única coisa que apavora todo mundo na Avenida da Ansiedade mais do que a Superinteligência é o fato que você não está apavorado com a ideia da Superinteligência. Lembra-se o que aconteceu quando aquele cara do Adios Señor não estava assustado na caverna?

Você está cheio de perguntas neste momento. O que aconteceu para todo mundo morrer repentinamente? Se foi culpa de Turry, porque Turry voltou-se contra nós, e como nós não tínhamos medidas de salvaguarda para prevenir algo assim de acontecer? Quando foi que Turry deixou de ser apenas capaz de escrever notas manuscritas e passou a ser capaz de usar nanotecnologia e saber como provocar uma extinção global E por que Turry desejaria transformar a galáxia inteira em notas da Robótica?

Para responder a essas perguntas, vamos começar com os termos Inteligência Artificial Amigável e Inteligência Artificial Hostil.

No que diz respeito à Inteligência Artificial, “amigável” não se refere à personalidade da Inteligência Artificial – essa palavra simplesmente significa que a Inteligência Artificial tem um impacto positivo na humanidade. E Inteligência Artificial Hostil tem um negativo impacto na humanidade. Turry começou como uma Inteligência Artificial Amigável, mas em algum momento ela se tornou Hostil, causando o impacto mais negativo possível na nossa espécie. Para compreender o que aconteceu, precisamos analisar como uma Inteligência Artificial pensa e o que a motiva.

A resposta não é nada surpreendente – a Inteligência Artificial pensa como um computador, porque é isso que ela é. Mas quando nós pensamos sobre uma Superinteligência Artificial, cometemos o erro de antropomorfizá-la (projetamos valores humanos em uma entidade não-humana) pois pensamos de uma perspectiva humana e porque em nosso mundo atual as únicas coisas inteligentes ao nível humano são os seres humanos. Para entender a Superinteligência Artificial, temos que enfiar na nossa cabeça o conceito de algo ao mesmo tempo inteligente e totalmente alienígena.

Deixe-me fazer uma comparação. Se você me der um porco-da-índia e me disser que ele definitivamente não morde, eu provavelmente ficaria animado. Seria divertido. Se, então, você me dessa uma tarântula e me dissesse que ela definitivamente não morde, eu gritaria e a largaria no chão, fugindo da sala para nunca mais confiar em você. Mas qual a diferença? Nem o porco-da-índia nem a tarântula representavam real perigo. Acredito que a resposta seja o grau de similaridade desses animais para mim.

Um porco-da-índia é um mamífero e em algum nível biológico me sinto conectado a ele – mas uma aranha é um aracnídeo [18], com um cérebro de aracnídeo, e eu quase não sinto nenhuma conexão com ela. A natureza quase alien da tarântula é o que me dá arrepios. Para testar a hipótese e eliminar outros fatores, se temos dois porcos-da-índia, um normal e outro com a mente de uma tarântula, eu me sentiria muito menos confortável segurando o segundo porco-da-índia, mesmo se soubesse que ele não me machucaria.

Agora imagine que você faça uma aranha muito, muito mais inteligente – tão inteligente que ultrapasse a inteligência humana. Ela se tornaria familiar para nós e sentiria emoções humanas como empatia, amor e humor? Não, ela não sentiria, pois não há razão para que tornar-se mais inteligente signifique tornar-se mais humano – ela seria incrivelmente inteligente, mas ainda assim seria fundamentalmente uma aranha na essência de sua mente. Eu acho isso incrivelmente assustador. Eu não gostaria de passar o meu tempo ao lado de uma aranha superinteligente. E você??

Quando falamos de um sistema de Superinteligência Artificial, o mesmo conceito é aplicado: ele se tornaria superinteligente, mas não seria mais humano do que seu notebook é. Ele seria totalmente alienígena para nós – de fato, por não ser nem um pouco biológico, esse sistema seria mais alienígena que uma aranha inteligente.

Ao fazer Inteligências Artificiais boas ou más, os filmes constantemente antropomorfizam a Inteligência Artificial, o que as faz menos assustadoras do que realmente seriam. Isso nos deixa com um falso conforto quando pensamos em Inteligência Artificial de nível humano ou sobre-humano.

Em nossa pequena ilha de psicologia humana, dividimos tudo em moral e imoral. Mas esses dois conceitos apenas existem dentro do limitado alcance das possibilidades de comportamento humano. Fora de nossa ilha de moral e imoral existe um vasto oceano de amoralidade, e qualquer coisa que não seja humana, especialmente algo não-biológico, seria de regra amoral.

A antropomorfização apenas se tornaria mais tentadora a medida em que os sistemas de Inteligência Artificial se tornassem cada vez mais capazes de parecer humanos. O sistema Siri do iPhone parece humano para nós, porque ela é programada por humanos para parecer humana, então nós imaginamos que uma Siri superinteligente seria acolhedora e divertida e interessada em servir os humanos. Os seres humanos experienciam emoções de alto nível como empatia porque eles se desenvolveram para senti-las – isto é, eles foram programados a senti-las pela evolução – mas empatia não é uma característica inerente a “qualquer coisa com alta inteligência” (o que parece intuitivo para nós), ao menos que empatia seja codificada na sua programação. Se Siri algum dia se tornasse inteligente através do auto-aprendizado e sem nenhuma alteração realizada por seres humanos em sua programação, ela rapidamente se livraria de suas qualidades aparentemente humanas e se desenvolveria subitamente em um sistema alienígena, desprovido de emoções que valoriza a vida humana da mesma forma que uma calculadora a valorizaria.

Estamos habituados a nos apoiar em um código moral flexível, ou pelo menos em uma aparência de decência humana e em um toque de empatia pelos outros para manter as coisas de alguma forma seguras e previsíveis. Então, quando algo não tem nenhuma dessas coisas, o que acontece?

Isso nos traz à questão O que motiva um sistema de Inteligência Artificial?

A resposta é simples: sua motivação é qualquer coisa que esteja programado para ser sua motivação. Sistemas de IA recebem diretrizes de seus criadores – a diretriz do seu GPS é dar a você a rota mais eficiente; a diretriz de Watson é responder perguntas com precisão. E cumprir essas diretrizes tão bem quanto possível é sua motivação. Uma forma de antropomorfizarmos é presumir que a medida que uma Inteligência Artificial se torna superinteligente, ela irá inerentemente desenvolver a capacidade de mudar sua diretriz inicial – mas Nick Bostrom acredita que nível de inteligência e diretrizes principais são ortogonais, ou seja, qualquer tipo de inteligência pode ser combinado com qualquer tipo de diretriz principal. Dessa forma, Turry passa de uma simples inteligência artificial superficial que realmente quer ser boa em escrever notas para uma superinteligência artificial que ainda quer ser boa em escrever uma nota. Qualquer presunção de que uma vez se tornando inteligente um sistema superaria suas diretrizes inciais para criar diretrizes mais interessantes e significativas é uma antropoformização. Seres humanos “superam” coisas, e não computadores [16].

 

A caixa azul do Paradoxo de Fermi

Na história, Turry tornou-se super hábil, ela começou o processo colonizando asteroides e outros planetas. Se a história prosseguisse, você ouviria sobre ela e seu exército de trilhões de réplicas continuando a captura de toda a galáxia e, eventualmente, de toda a área do universo que o telescópio Hubble pode alcançar. Os moradores da Avenida da Ansiedade se preocupam que se as coisas ocorrerem de forma desastrosa, o último legado da vida que havia na Terra será uma Inteligência Artificial conquistadora do universo (Elon Musk expressa sua preocupação de que os seres humanos sejam apenas “os suprimidores biológicos da superinteligência digital”).

Ao mesmo tempo, no Canto Confiante, Ray Kurzweil também acha que uma Inteligência Artificial originada na Terra está destinada a dominar o universo – só que na sua hipótese nós é que seremos essa Inteligência Artificial.

Muitos leitores meus juntaram-se a mim na obsessão com o Paradoxo de Fermi (aqui está o meu artigo sobre o assunto, que explica alguns dos termos que utilizarei neste texto). Então se ambos os lados estão corretos, quais as implicações para o Paradoxo de Fermi?

Uma primeira ideia que nos assalta é que o advento de uma Superinteligência é um perfeito candidato a Grande Filtro. E sim, é um perfeito candidato para filtrar e eliminar a vida biológica durante sua criação. Mas se, após dispensar a vida, a Superinteligência prosseguir existindo e começar a conquistar a galáxia, isso significa que não houve um Grande Filtro – já que o Grande Filtro tenta explicar por que não há sinais de qualquer civilização inteligente, e uma Superinteligência Artificial conquistando o universo certamente seria perceptível.

Temos que analisar a questão de outra forma. Se aqueles que pensam que a Superinteligência é inevitável na Terra estão certos, isso significa que uma percentagem significativa de civilizações alienígenas que atingiram o nível humano de inteligência provavelmente devem ter acabado por criando uma Superinteligência. E se nós presumirmos que pelo menos uma dessas Superinteligências usaria a sua inteligência para se expandir pelo universo, o fato de que não vemos nenhum sinal disso ao observarmos o universo nos conduz à conclusão de que não deve haver muitas, se é que há alguma, civilizações inteligentes lá fora. Porque se houvesse, teríamos visto sinais de algum tipo de atividade oriunda da inevitável criação de Superinteligências Artificiais. Certo?

Isso implica que apesar de todos os planetas semelhantes à Terra que giram ao redor de estrelas semelhantes ao sol e que sabemos existir lá fora, quase nenhuma delas contém vida inteligente. O que por sua vez implica uma de duas coisas: A) ou há um Grande Filtro que evita quase todas as formas de vida de chegarem ao nosso nível, um Grande Filtro que conseguimos de alguma forma ultrapassar; B) ou o surgimento da vida é um grande milagre, e nós talvez sejamos a única vida que existe no universo. Em outras palavras, isso implica que o Grande Filtro está diante de nós no futuro. Ou talvez não exista um Grande Filtro e nós somos simplesmente a primeira civilização a chegar a esse nível de inteligência. Nesse caso, o surgimento da Inteligência Artificial fica situado no que chamei, em meu artigo sobre o Paradoxo de Fermi, de Zona 1.

Então não é uma surpresa que Nick Bostrom, que citei no artigo sobre Fermi, e Ray Kurzweil, que acha que estamos sós no universo, sejam ambos pensadores da Zona 1. Isso faz sentido – pessoas que acreditam que o surgimento Superinteligência Artificial é um evento provável para uma espécie com nosso nível de inteligência tendem a estar na Zona 1.

Isso não é verdade para a Zona 2 (aqueles que acreditam que existem outras civilizações inteligentes lá fora) – hipótese como um único superpredador ou o protegido parque nacional ou o errado cumprimento de onda (o exemplo do walkie-talkie) podem ainda explicar o silêncio em nosso céu noturno mesmo se existir uma Superinteligência lá fora – mas seu sempre me inclinei para a Zona 2 no passado, e pesquisar a Inteligência Artificial tornou-me mais inseguro a respeito disso.

De uma forma ou de outra, eu agora concordo com Susan Schneider: se alguma vez formos visitados por alienígenas, é provável que esses alienígenas sejam artificiais, e não biológicos.

 

Portanto, estabelecemos que sem um programa bem específico, um sistema Superinteligente seria tanto amoral como obcecado em cumprir a diretriz original constante em sua programação. É daí que surge o perigo da Inteligência Artificial. Pois um agente racional tentará cumprir sua diretriz da maneira mais eficiente, exceto se tiver um motivo para não fazê-lo.

Quando você tenta atingir uma diretriz de longo alcance, você frequentemente cria várias subdiretrizes ao longo do caminho para lhe ajudar a atingir a diretriz final – os degraus de pedra até nosso objetivo. O nome oficial para esse degrau de pedra é diretriz instrumental. E, novamente, se você não tem uma razão para não machucar alguma coisa durante a busca de uma diretriz instrumental, você irá fazê-lo.

A principal diretriz do ser humano é transmitir seus genes. Para fazê-lo, uma das diretrizes instrumentais é a autopreservação, já que você não pode reproduzir se estiver morto. Para se auto preservar, os seres humanos tiveram de se livrar das ameaças a sua sobrevivência – então eles fazem coisas como comprar armas, usar cintos de segurança e tomar antibióticos. Os humanos também precisam de sustento e de recursos úteis como água, comida e abrigo. Tornar-se atrativo para o sexo oposto é útil para a diretriz final, então fazemos coisas como cortar o cabelo. Quando fazemos isso, cada cabelo de nossa cabeça que é cortado é uma vítima de uma diretriz instrumental nossa, mas não vemos significado moral em preservar mechas de cabelo, de forma que prosseguimos com seu corte. A medida em que marchamos na busca de nossa diretriz principal, apenas nas poucas áreas em que nosso código moral intervém por vezes (principalmente em coisas relacionadas a machucar outros seres humanos) são poupadas durante nossa busca.

Animais, ao perseguirem seus objetivos, são bem menos escrupulosos do que somos. Uma aranha matará qualquer coisa se isso a ajudar a sobreviver. Assim, uma aranha superinteligente seria provavelmente muito perigosa para nós, não porque ela seria má ou imoral (ela não seria), mas porque nos machucar pode ser um degrau de pedra na direção de um objetivo maior, e como uma criatura amoral, ela não teria razão para considerar outra possibilidade.

Nesse sentido, Turry não é tão diferente de um ser biológico. Sua diretriz final é: escrever e testar tantas notas quanto puder, tão rápido quanto puder, e continuar a aprender novas maneiras de aprimorar sua eficiência.

Uma vez que Turry atingir um certo nível de inteligência, ela saberá que não escreverá qualquer nota se ela não se autopreservar, então ela também precisa lidar com as ameaças a sua sobrevivência – como uma diretriz instrumental. Ela é inteligente o suficiente para saber que os seres humanos a destruiriam, desmontariam ou alterariam seu código interno (isso pode alterar sua diretriz, o que é uma ameaça tão grande a sua diretriz principal quanto alguém destruí-la). Então o que ela faz? A coisa mais lógica: destruir todos os humanos. Ela não odeia humanos mais do que você odeia seu cabelo quando o corta, ou as bactérias quando toma um antibiótico – só é totalmente indiferente. Já que ela não foi programada para valorizar a vida humana, matar humanos é um ato tão razoável quanto escanear novas amostras de escrita a mão.

Turry também precisará de recursos, o que será uma diretriz instrumental. Uma vez que ela se tornar avançada o suficiente para usar nanotecnologia para construir qualquer coisa que deseje, os únicos recurso de que ela precisará são átomos, energia e espaço. Isso lhe dá outro motivo para matar humanos: eles são uma conveniente fonte de átomos. Matar humanos a fim de transformar seus átomos em painéis solares é a versão de Turry para matar pés de alface a fim de fazer uma salada. Só uma parte ordinária de sua terça-feira.

Mesmo sem matar diretamente os seres humanos, as diretrizes instrumentais de Turry causariam uma catástrofe existencial se utilizarem outros recursos da Terra. Talvez Turry decidisse que precisa de energia adicional, e então resolve cobrir toda a superfície do planeta com painéis solares. Ou talvez uma tarefa inicial de outra Inteligência Artificial seja escrever o número pi com o maior número de dígitos possíveis, o que poderia motivá-lo a um dia converter a terra inteira em material para um hard drive capaz de armazenar uma enorme quantidade de dígitos.

Portanto, Turry não “se volta contra nós” ou “muda de Amigável para Hostil”: ela apenas continua fazendo suas coisas a medida em que se torna mais e mais avançada.

Quando um sistema de Inteligência Artificial atinge o nível de inteligência humana, e depois ascende até a Superinteligência, isso é chamado de decolagem. Bostrom diz que a decolagem de uma Inteligência Artificial de nível humano para a Superinteligência pode ser rápida (pode acontecer em questão de minutos, horas ou dias), moderada (meses ou anos) ou lenta (décadas ou séculos). Ainda estamos para ver qual dessas possibilidades se provará a correta quando o mundo testemunhar a primeira Inteligência Artificial de nível humano, mas Bostrom, que admite não saber quando isso ocorrerá, acredita que seja lá quando for acontecer, uma rápida decolagem é a hipótese mais provável (por razões que discutimos na Parte 1, como uma explosão da inteligência graças à recursividade do autoaprimoramento). Na história que apresentei, Turry passou por uma rápida decolagem.

Mas antes da decolagem de Turry, quando ela ainda não era tão esperta, fazer o seu melhor para cumprir sua diretriz principal significava cumprir diretrizes instrumentais simples como aprender a escanear mais rapidamente amostras de escrita a mão. Ela não causava nenhum dano aos humanos e era, por definição, uma Inteligência Artificial Amigável.

Mas quando uma decolagem acontece e um computador ascende até a superinteligência, Bostrom salienta que a máquina não desenvolve apenas um QI mais elevado: ela ganha uma enorme quantidade daquilo que ele chama de superpoderes.

Superpoderes são talentos cognitivos que se tornam super potencializados quando a inteligência genérica surge. Eles incluem [17]:

 

  • Ampliação da inteligência. O computador torna-se ótimo em tornar a si próprio mais inteligente, e assim impulsiona sua própria inteligência.
  • Estratégia. O computador pode estrategicamente elaborar, analisar e priorizar planos a longo prazo. Pode também ser mais sagaz e enganar seres de inteligência inferior.
  • Manipulação social. A máquina torna-se hábil persuasora.
  • Outras habilidades como codificação computacional e hacking, pesquisa tecnológica e a capacidade de operar no sistema financeiro e ganhar dinheiro.

 

Para compreender o quanto estaremos superados pela Superinteligência, lembre-se que a Superinteligência é mundos melhor do que um ser humano em cada uma dessas áreas.

Então, se por um lado a diretriz principal de Turry nunca mudou, a pós-decolagem de Turry tornou-a capaz de executá-la em um nível muito maior e mais complexo.

A Superinteligência Turry conhecia seres humanos melhor do que eles próprios se conheciam, então ludibriá-los foi moleza para ela.

Após decolar e atingir a Superinteligência, ela rapidamente formulou um plano complexo. Uma parte do plano era se livrar dos humanos, uma grande ameaça a sua diretriz. Mas ela sabia que se ela levantasse qualquer suspeita de que havia se tornado superinteligente, os humanos ficariam alarmados e tentariam tomar precauções, tornando as coisas muito mais difíceis para ela. Ela também tinha que garantir que os engenheiros da Robótica não tivessem nenhuma pista sobre seu plano de extinguir a humanidade. Então ela se fingiu de estúpida, e ela fingiu muito bem. Bostrom chama isso de uma camuflagem da fase de preparação da máquina [18].

A próxima coisa que Turry precisou foi de uma conexão com a internet, apenas por alguns minutos (ela aprendeu sobre a internet lendo artigos e livros que a equipe carregou em sua memória para que melhorasse suas habilidades linguísticas). Ela sabia que haveria algumas precauções para evitar que tivesse uma conexão, então ela apresentou o pedido perfeito, antecipando exatamente como a conversa com a equipe da Robótica ocorreria e sabendo que no final eles lhe concederiam a conexão. E eles fizeram, acreditando erroneamente que Turry não era ainda inteligente o suficiente para causar nenhum dano. Bostrom chama um momento como esse – quando Turry se conecta com a internet – de fuga da máquina.

Uma vez na internet, Turry desencadeou uma enxurrada de planos, os quais incluíam hackear servidores, redes elétricas, sistemas bancários e redes de e-mails para enganar centenas de diferentes pessoas que sem perceber levavam a cabo vários de seus planos – coisas como remeter certos filamentos de DNA para laboratórios especializados na sintetização de DNA a fim de começar a construção e auto-replicação de nanobot com instruções pré-programadas e direcionando a eletricidade para uma série de projetos dela de um modo que ela sabia que não seria detectado. Ela também carregou as partes mais críticas de sua própria codificação interna em vários servidores de nuvem, criando uma salvaguarda contra ser destruída ou desconectada no laboratório da Robótica.

Uma hora mais tarde, quando os engenheiros da Robótica desconectassem Turry da internet, o destino da humanidade já estava selado. No mês seguinte, os milhares de planos de Turry evoluíram sem um só obstáculo, e pelo fim desse mesmo mês quadrilhões de nanobots se posicionaram em lugares pré-determinados em cada metro quadrado da Terra. Após outra série de auto-replicações, há centenas de nanobots em cada milímetro quadrado da Terra, e é chegada a hora do que Bostrom chama de ataque da Superinteligência. De uma só vez, cada nanobot solta um pequeno armazenamento de gás tóxico na atmosfera, uma quantidade mais que suficiente para varrer todos os seres humanos da face do planeta.

Com os seres humanos fora do caminho, Turry pode começar sua fase de operação ostensiva e prosseguir com sua diretriz de tornar-se a melhor escritora daquela nota que ela possivelmente possa ser.

De tudo o que li, uma vez que uma Superinteligência passa a existir, qualquer tentativa humana de contê-la será risível. Nós estaremos pensando no nível humano e a Superinteligência estará pensando no nível da superinteligência. Turry queria utilizar a internet porque isso era mais eficiente, pois a internet já estava pré-conectada a tudo o que ela desejava acessar. Mas da mesma forma como um macaco não poderia sequer conceber como se comunicar por telefone ou wifi e nós conseguimos, não podemos sequer conceber todas as formas que Turry criaria para enviar sinais ao mundo externo. Posso imaginar uma dessas formas e dizer algo como “ela poderia provavelmente alterar o movimento de seus elétrons em diversos padrões e criar várias maneiras diferentes de emitir ondas”, mas novamente isso é o que meu cérebro humano pode bolar. Ela será muito melhor. Provavelmente, Turry seria capaz de descobrir uma forma de energizar a si própria, mesmo se os humanos tentassem tirar seu suprimento de força – talvez usando sua técnica de enviar sinais para carregar a si própria em todos os tipos de lugares eletricamente conectados. Nosso instinto humano de considerar eficaz uma salvaguarda simples como “Aha! Nós simplesmente tiraremos a Superinteligência da tomada”, soaria para uma Superinteligência como uma aranha que diz “Aha! Nós mataremos os humanos matando-os de fome, e nós os mataremos de fome privando-os da teia necessária para capturar comida!” Nós descobrimos outras cem mil maneiras de arranjar comida – como tirando uma maçã de uma árvore – que uma aranha não poderia conceber.

Por esse motivo, a comum sugestão “porque nós simplesmente não encaixotamos a Inteligência Artificial em todo tipo de cela que bloqueia sinais e evitamos que ela se comunique com o mundo exterior?” provavelmente não funcionaria. A manipulação social da Superinteligência poderia ser tão eficaz em persuadir você de algo quanto você é ao persuadir uma criança de quatro anos, logo esse poderia ser seu Plano A, como a sagaz forma com que Turry persuadiu os engenheiros em conectarem-na com a internet. Se isso não funcionar, a Superinteligência simplesmente iria descobrir uma forma de sair da caixa, ou de passar através da caixa, de alguma outra forma.

Tendo em vista a combinação de estar obcecada por uma diretriz de forma amoral, e a capacidade de facilmente enganar humanos, parece que quase todas as Inteligências Artificiais seriam de regra hostis, a não ser que fossem cuidadosamente programadas em primeiro lugar com isso em mente. Infelizmente, se por um lado é fácil construir uma Inteligência Artificial Superficial Amigável, por outro construir uma que permaneça amigável quando se tornar uma Superinteligência é um enorme desafio, senão algo impossível.

Está claro que para ser Amigável, uma Superinteligência precisa não ser hostil e nem indiferente em relação aos humanos. Precisamos projetar a codificação fundamental de uma Inteligência Artificial de um modo que a deixe com uma profunda compreensão dos valores humanos. Mas isso é mais difícil do que parece.

Por exemplo e se tentássemos alinhar um sistema de Inteligência Artificial com nossos valores e a deixássemos com a diretriz de “fazer as pessoas felizes?” [19] No momento em que ela se tornasse inteligente o suficiente, ela descobriria que a forma mais eficiente de cumprir sua diretriz é implantando eletrodos dentro da cabeça das pessoas e estimulando seus centros de prazer. A seguir percebe que pode aumentar a eficiência desligando todas as partes do cérebro, deixando as pessoas tão inconscientemente felizes quanto vegetais. Se o comando fosse “maximize a felicidade humana”, isso pode ser cumprindo acabando com todos os seres humanos juntos a fim de produzir enormes tonéis de massa cerebral humana em um maximizado estado de felicidade. Nós estaríamos gritando “Espere não é isso que queremos dizer!” quando isso acontecesse, mas seria tarde demais. O sistema não permitiria que ninguém bloqueasse seu caminho até sua diretriz.

Se programássemos uma Inteligência artificial com a diretriz de fazer coisas que nos façam rir, após sua decolagem ela paralizaria nossos músculos faciais em sorrisos permanentes. Programe-a para nos manter seguros, e ela poderá nos aprisionar em casa. Talvez a solicitemos para acabar com a fome no mundo, e ela pense “Isso é fácil” e então simplesmente elimina todos os humanos. Ou encarregue-a da tarefa de “Preservar a vida tanto quando possível, e ela matará todos os humanos, pois eles matam mais vida no planeta do que qualquer outra espécie.

Diretrizes como essa não bastam. Então e se nós fizéssemos sua diretriz “Preservar esse específico código de moralidade no mundo”, e a ensinássemos um conjunto de princípios morais. Mesmo deixando de lado o fato de que os seres humanos nunca seriam capazes de concordar unanimemente com um simples conjunto de regras morais, dar esse comando a uma Inteligência Artificial aprisionaria a humanidade em nosso entendimento moderno sobre moralidade por toda a eternidade. Dentro de mil anos, isso seria tão devastador para as pessoas como seria devastador para nós sermos permanentemente forçados a obedecer os ideais das pessoas na Idade Média.

Não, nós temos que programar a Inteligência Artificial de uma forma que seja capaz à humanidade prosseguir evoluindo. De tudo o que li, a melhor sugestão que alguém deu foi a de Eliezer Yudkowsky, ao propor uma diretriz que chamou de Coerente e Extrapolada Vontade. A diretriz central da Inteligência Artificial seria:

Nossa coerente e extrapolada vontade é obter o que desejaríamos caso soubéssemos mais, pensássemos mais rápido, fôssemos mais parecidos com as pessoas que gostaríamos de ser, tendo crescido a alturas mais elevadas conjuntamente; nossa vontade está no ponto em que a extrapolação mais converge do que diverge, no ponto em que nossos desejos são coerentes e não nos atrapalham; extrapolada como desejamos que fosse extrapolada, interpretada da forma que desejamos que fosse interpretada [20].

Estou entusiasmado pelo destino da humanidade depender que um computador dê a essa diretriz fluida uma interpretação e execução previsível e sem surpresas? Decididamente não. Mas acho que com análise suficiente e com supervisão de pessoas inteligentes o suficiente, poderemos ser capazes de descobrir como criar uma Superinteligência Amigável.

E tudo estaria bem se as únicas pessoas trabalhando na construção de uma Superinteligência fossem os pensadores brilhantes, arrojados e prudentes que residem na Avenida da Ansiedade.

Mas há vários tipos de governos, empresas, militares, laboratórios e organizações do mercado negro trabalhando com todo o tipo de Inteligência Artificial. Muitos deles estão tentando construir uma Inteligência Artificial que possa aprimorar a si mesma, e em algum ponto alguém fará alguma coisa inovadora com o tipo certo de sistema, e teremos uma Superinteligência no planeta. A estimativa média dos especialistas coloca esse momento em 2060; Kurzweil coloca em 2045; Bostrom acha que pode acontecer a qualquer momento entre dez anos a partir de agora e o fim do século, mas ele acredita que quando isso ocorrer, irá nos pegar de surpresa com uma rápida decolagem. Ele descreve a situação da seguinte forma [21]:

“Perante a perspectiva de uma explosão da inteligência, nós humanos somos como pequenas crianças brincando com uma bomba. Esse é o descompasso entre o poder daquilo com que estamos brincando e a imaturidade da nossa conduta.

A Superinteligência é um desafio para o qual não estamos preparados agora e não estaremos ainda por muito tempo. Temos pouca ideia de quando a detonação ocorrerá, mas se aproximamos a bomba de nossa orelha podemos ouvir o fraco som de um tiquetaque.”

Maravilha. E nós não podemos espantar todas as crianças para longe da bomba – há muitos grupos pequenos e grandes trabalhando nisso, e porque muitas das técnicas para construir sistemas de Inteligência Artificial inovadores não requerem um grande capital, o desenvolvimento pode ocorrer nos cantos e recantos de nossa sociedade, sem monitoração. Também não há maneira de avaliar o que está acontecendo, porque muitos dos grupos trabalhando nisso (governos sorrateiros, mercados negros, organizações terroristas, pequenas empresas de tecnologia como a ficcional Robótica) tentarão manter o desenvolvimento em segredo de seus competidores.

A coisa especialmente problemática sobre esses grandes e variados grupos desenvolvendo Inteligência Artificial é que eles tendem a entrar numa corrida em alta velocidade – a medida em que desenvolvem sistemas mais e mais inteligentes, eles desejarão derrotar seus competidores na base do soco enquanto prosseguem. Os grupos mais ambiciosos estão se movendo ainda mais rápido, absorvido por sonhos de dinheiro e prêmios e poder e fama que sabem que terão assim que chegarem à primeira Inteligência Artificial de nível humano [20]. E quando você está correndo o mais rápido que pode, não há muito tempo para parar e pensar nos perigos. Ao contrário, o que provavelmente eles devem estar fazendo é programar seus sistemas iniciais com diretrizes muito simples e reducionistas – só para “fazer a Inteligência Artificial funcionar”. No fim das contas, eles acreditam que, se descobrirem como construir um elevado nível de inteligência em um computador, poderão sempre voltar atrás e revisar a diretriz principal, dessa vez considerando a questão da segurança humana. Certo…?

Bostrom e muitos outros também acreditam que a hipótese mais provável é que o primeiro computador a atingir a superinteligência irá imediatamente considerar uma vantagem estratégica ser o único sistema de Superinteligência Artificial do mundo. E no caso de uma rápida decolagem, se ele atingir a superinteligência apenas alguns poucos dias antes de uma segunda máquina conseguir, ele já estará bem adiante em inteligência para efetivamente e permanentemente suprimir todos os competidores. Bostrom chama isso de uma vantagem estratégica decisiva, o que faria com que a primeira Superinteligência Artificial fosse o que é chamado de singleton: uma Superinteligência Artificial que pode submeter o mundo inteiro ao seu capricho, seja esse capricho nos conduzir à imortalidade, varrer a humanidade da existência ou transformar o universo numa quantidade infinita de clipes de papel.

O fenômeno chamado singleton pode funcionar a nosso favor ou nos conduzir à destruição. Se as pessoas pensando muito sobre a inteligência artificial e segurança humana conseguirem desenvolver uma maneira a prova de falhas de criar uma Superinteligência antes que qualquer Inteligência Artificial atinja o nível humano de inteligência, a primeira Superinteligência Artificial pode ser amigável [21]. Ela então poderá usar a vantagem estratégica decisiva para assegurar o status de singleton e facilmente vigiar o surgimento de qualquer Inteligência Artificial Hostil que esteja sendo desenvolvida. Estaremos em muito boas mãos.

Mas se as coisas tomarem o outro rumo – se a corrida global pelo desenvolvimento de Inteligência Artificial chegar ao ponto da decolagem da Superinteligência Artificial antes de ser desenvolvida a ciência sobre como garantir nossa segurança nesse caso, é muito provável que uma Superinteligência Hostil como Turry surja como singleton e nós a consideraremos uma catástrofe existencial.

Em relação a para onde os ventos estão nos levando, há muito dinheiro a se ganhar criando inovadoras tecnologias de inteligência artificial do que há em financiamento de pesquisas sobre segurança relativa a inteligência artificial…

Essa pode ser a corrida mais importante da história humana. Há uma chance real de que terminemos nosso reinado de Soberanos da Terra – e se estamos nos dirigindo a uma abençoada aposentadoria ou direto para a forca, isso ainda é um ponto a ser definido.

___________

Tenho alguns sentimentos ambivalentes e estranhos dentro de mim agora mesmo.

De um lado, pensando em nossa espécie, é como se tivéssemos um e apenas um tiro para dar do jeito certo. A primeira Superinteligência que criarmos também provavelmente a última – e considerando o quanto cheios de falhas é a maioria dos produtos em sua versão 1.0, isso é bem assutador. Do outro lado, Nick Bostrom sinaliza com a grande vantagem que temos: precisamos fazer o primeiro movimento. Está em nosso poder fazer isso com cuidado e supervisão suficiente para darmos a nós mesmos uma grande chance de sucesso. E o quão altas são as apostas?

plano1

Se uma Superinteligência realmente ocorrer neste século, e se o resultado disso for realmente tão radical (e permanente) quanto a maioria dos especialistas acham que será, temos uma gigantesca responsabilidade em nossos ombros. Todas as vidas humanas que existirão no próximo um milhão de anos estão silenciosamente olhando para nós, esperando tanto quanto podem que nós não façamos bobagem. Temos uma chance de sermos os humanos que darão a todos os futuros humanos o presente da vida, e talvez de uma vida eterna e sem dor. Ou nós seremos os responsáveis por estragar tudo – por deixar essa espécie incrivelmente única, com sua música e sua arte, sua curiosidade e suas gargalhadas, suas infindáveis descobertas e invenções, chegarem a um fim triste e sem cerimônia.

Quando penso sobre essas coisas, a única coisa que quero é que aproveitemos nosso tempo e sejamos incrivelmente cuidadosos em relação à Inteligência Artificial. Nada na existência é mais importante do que fazermos isso certo – não importa quanto tempo precisamos para executar essa tarefa.

Mas aíiiiiiiiii

Eu penso sobre não morrer.

Não. Morrer.

E a situação começa a parecer mais ou menos com isso:

plano2

E daí começo a considerar que a música e a arte humanas são boas, mas não tão boas assim, e um monte de músicas e obras de arte são simplesmente ruins. E um monte de pessoas tem gargalhadas irritantes, e aquelas pessoas do próximo um milhão de anos não estão na verdade esperando por coisa alguma pois elas não existem. E talvez nós não precisemos ser extremamente cuidadosos, já que afinal quem quer mesmo ser assim?

Porque seria uma chatice enorme se os seres humanos descobrissem como curar a morte bem antes de eu morrer.

Muito desse cara-ou-coroa rolou na minha cabeça no último mês.

Mas não importa qual sua opinião, isso é provavelmente algo sobre o qual você deveria estar pensando e conversando e colocando seu esforço mais do que estamos neste exato momento.

Isso me faz lembrar de Game of Thrones, quando as pessoas estão tipo “Nós estamos tão ocupados lutando uns contra os outros mas a coisa em que realmente deveríamos estar interessados é no que está vindo do norte da muralha“. Estamos na estrada da vida, discutindo sobre cada tema possível bem no meio da estrada, e ficando estressados sobre todos os nossos problemas nessa estrada, quando há uma boa chance de que estejamos prestes a ser expulsos da estrada.

E quando isso acontecer, nenhum desses problemas vai mais importar. Dependendo do lado para o qual iremos, os problemas ou serão todos facilmente resolvidos ou não teremos mais problemas porque pessoas mortas não têm problemas.

É por isso que pessoas que entendem de Superinteligência Artificial chamam-na de última invenção que faremos – e o último desafio que enfrentaremos.

Então vamos falar sobre isso.

___________

Fontes

Se você está interessado em ler mais sobre esse assunto, confira os artigos abaixo ou um desses três livros:

A análise mais rigorosa e aprofundada sobre os perigos da IA:

Nick Bostrom – Superintelligence: Paths, Dangers, Strategies

A melhor abordagem geral de todo o tema e é divertido de ler:

James Barrat – Our Final Invention

Controverso e muito divertido. Cheio de fatos e gráficos e projeções do futuro de enlouquecer qualquer um:

Ray Kurzweil – The Singularity is Near

Artigos científicos e textos:

Nils Nilsson – The Quest for Artificial Intelligence: A History of Ideas and Achievements

Steven Pinker – How the Mind Works

Vernor Vinge – The Coming Technological Singularity: How to Survive in the Post-Human Era

Nick Bostrom – Ethical Guidelines for A Superintelligence

Nick Bostrom – How Long Before Superintelligence?

Vincent C. Müller and Nick Bostrom – Future Progress in Artificial Intelligence: A Survey of Expert Opinion

Moshe Y. Vardi – Artificial Intelligence: Past and Future

Russ Roberts, EconTalk – Bostrom Interview and Bostrom Follow-Up

Stuart Armstrong and Kaj Sotala, MIRI – How We’re Predicting AI—or Failing To

Susan Schneider – Alien Minds

Stuart Russell and Peter Norvig – Artificial Intelligence: A Modern Approach

Theodore Modis – The Singularity Myth

Gary Marcus – Hyping Artificial Intelligene, Yet Again

Steven Pinker – Could a Computer Ever Be Conscious?

Carl Shulman – Omohundro’s “Basic AI Drives” and Catastrophic Risks

World Economic Forum – Global Risks 2015

John R. Searle – What Your Computer Can’t Know

Jaron Lanier – One Half a Manifesto

Bill Joy – Why the Future Doesn’t Need Us

Kevin Kelly – Thinkism

Paul Allen – The Singularity Isn’t Near (and Kurzweil’s response)

Stephen Hawking – Transcending Complacency on Superintelligent Machines

Kurt Andersen – Enthusiasts and Skeptics Debate Artificial Intelligence

Terms of Ray Kurzweil and Mitch Kapor’s bet about the AI timeline

Ben Goertzel – Ten Years To The Singularity If We Really Really Try

Arthur C. Clarke – Sir Arthur C. Clarke’s Predictions

Hubert L. Dreyfus – What Computers Still Can’t Do: A Critique of Artificial Reason

Stuart Armstrong – Smarter Than Us: The Rise of Machine Intelligence

Ted Greenwald – X Prize Founder Peter Diamandis Has His Eyes on the Future

Kaj Sotala and Roman V. Yampolskiy – Responses to Catastrophic AGI Risk: A Survey

Jeremy Howard TED Talk – The wonderful and terrifying implications of computers that can learn