Que outros tipos de mente podem existir no universo?

Em 1984, o filósofo Aaron Sloman convidou os estudiosos para descrever “o espaço das mentes possíveis”. A frase de Sloman alude ao fato de que as mentes humanas, em toda a sua variedade, não são os únicos tipos de mentes. Existem, por exemplo, as mentes de outros animais, como chimpanzés, corvos e polvos. Mas o espaço de possibilidades também deve incluir mentes das formas de vidas que evoluíram em outras partes do Universo, mentes que poderiam ser muito diferentes de qualquer produto da biologia terrestre. O mapa das possibilidades inclui tais criaturas teoréticas, mesmo que estejamos sozinhos no Cosmos, assim como inclui formas de vida que poderiam ter evoluído na Terra sob diferentes condições.

Devemos também considerar a possibilidade da inteligência artificial (AI). Digamos que a inteligência “mede a capacidade geral de um agente para atingir metas em uma ampla gama de ambientes”, seguindo a definição adotada pelos cientistas da computação Shane Legg e Marcus Hutter. Por essa definição, nenhum artefato que existe hoje tem algo que se aproxime da inteligência em nível humano. Embora existam programas de computadores que possam superar os humanos em domínios intelectuais altamente exigentes, mas especializados, como jogar o jogo Go, nenhum robô ou computador hoje consegue se igualar à generalidade da inteligência humana.

Mas são nos artefatos que possuem inteligência geral (seja em nível de rato, humano ou além) que estamos mais interessados, porque são candidatos a membros do espaço de mentes possíveis. De fato, como o potencial de variação em tais artefatos supera em muito o potencial de variação na inteligência naturalmente evoluída, as variantes não naturais podem ocupar a maior parte desse espaço. Alguns desses artefatos provavelmente serão muito estranhos, exemplos do que poderíamos chamar de “exótico consciente”.

O que se segue é uma tentativa de enfrentar o desafio de Sloman descrevendo a estrutura do espaço das mentes possíveis, utilizando duas dimensões: a capacidade de consciência e a semelhança humana do comportamento. Implícito nesse mapeamento parece estar a possibilidade de formas de consciência tão diferentes que não as reconheceríamos. No entanto, também estou preocupado, seguindo Ludwig Wittgenstein, em rejeitar a ideia dualista de que existe um domínio impenetrável da experiência subjetiva que forma uma parte distinta da realidade. Eu prefiro a noção de que “nada está oculto”, metafisicamente falando. A dificuldade aqui é que aceitar a possibilidade de consciência radicalmente incrustável parece readmitir a proposição dualista de que a consciência não é, por assim dizer, algo “aberto a vista”, mas inerentemente privada. Eu tento mostrar como podemos evitar esse resultado preocupante.

O célebre tratamento de Thomas Nagel à subjetividade (modestamente) exótica de um morcego é um bom lugar para começar. Nagel se pergunta come é ser um morcego e lamenta que “se eu tentar imaginar isso, estou restrito aos recursos da minha própria mente, e esses recursos são inadequados para a tarefa”. Um corolário da posição de Nagel é que certos tipos de fatos (isto é, fatos que estão ligados a um ponto de vista subjetivo muito diferente) são inacessíveis às nossas mentes humanas. Isso apoia a afirmação dos dualistas de que nenhuma explicação da realidade poderia ser completa se contivesse apenas fatos objetivos e omitisse o subjetivo. No entanto, penso que devemos resistir ao impulso dualista de se apegar à realidade dessa maneira. Então, se aceitarmos o raciocínio de Nagel, o exótico consciente representa um desafio.

Mas os morcegos não são o problema real, na minha opinião. As vidas interiores moderadamente exóticas de animais não humanos apresentam um desafio a Nagel apenas porque ele atribui status ontológico a uma distinção cotidiana da indexalidade linguística: eu não posso estar aqui e ali ao mesmo tempo. Mas esta platitude não implica a existência de fatos que são irredutivelmente vinculados a uma posição particular no espaço.

Em outras palavras, não posso ser um humano e um morcego, mas isso não implica a existência de fatos fenomenológicos que são irredutivelmente ligados a um ponto de vista subjetivo particular. Não devemos nos deixar enganar pela presença da palavra “saber” ao ver a frase “como um humano, eu não posso saber como é ser um morcego” como expressão de algo mais filosoficamente intrigante do que a frase “eu sou um humano, não um morcego”. Nós sempre podemos especular sobre como seria ser um morcego, usando nossa imaginação para ampliar nossa experiência (como faz Nagel). Ao fazer isso, podemos observar as limitações do exercício. O erro é concluir, como Nagel, que nesse caso deve haver fatos, na forma de certas “verdades” subjetivas, que escapam ao nosso poder de investigação coletiva.

“Explorar o espaço das mentes possíveis é entreter a possibilidade de seres muito mais exóticos que qualquer espécie terrestre.”

Nesse caso, meu passo inicial começa com a dica em The Philosophical Investigations (1953), de Wittgenstein. O princípio subjacente à rejeição de Wittgenstein à linguagem privada (uma linguagem com palavras para sensações que somente uma pessoa no mundo poderia entender) é de que nós podemos falar apenas sobre o que está diante de nós, sobre o que é público, o que está aberto à visão coletiva. Quanto a qualquer outra coisa, bem, “um nada serve tanto quanto algo sobre o qual nada pode ser dito”. Por exemplo, uma palavra que se refere a uma sensação interna privada não teria nenhuma função útil em nossa linguagem. Claro, as coisas podem ser escondidas em um sentido prático, como uma bola sob o copo de um mágico, ou uma estrela que está fora do nosso cone de luz. Mas nada está além de alcance metafisicamente falando. Quando se trata da vida interior dos outros, há sempre mais a ser revelado (interagindo com eles, observando-os, estudando como eles funcionam) mas não faz sentido falar como se houvesse algo além do que pode ser revelado.

Seguindo essa linha de raciocínio, não deveríamos imputar a subjetividade incognoscível a outras pessoas (por mais estranhas que sejam) a morcegos ou a polvos, nem a extraterrestres ou a inteligências artificiais. Mas aqui está o verdadeiro problema, ou seja, formas de consciência radicalmente exóticas.

Nagel sensatamente assume que “todos nós acreditamos que os morcegos têm experiência”, ou seja, podemos não saber o que é ser um morcego, porém presumimos que é como alguma coisa. Mas explorar o espaço das mentes possíveis é entreter a possibilidade de seres muito mais exóticos que qualquer espécie terrestre. Poderia o espaço das mentes possíveis incluir seres tão inescrutáveis que nós não poderíamos sequer dizer se eles têm alguma experiência consciente? Negar essa possibilidade cheira a biocentrismo.

Porém, aceitar isso é flertar mais uma vez com o pensamento dualista de que exista uma ordem implícita de fatos subjetivos. Em contraste com a questão sobre como é ser um X, certamente (somos tentados a dizer) existe outra questão, consistente em saber se, afinal de contas, há realmente alguma coisa na condição ser um X. Um determinado ser tem experiências conscientes ou não, independentemente de sabermos.

Considere o seguinte experimento mental. Suponha que eu apareça no laboratório uma manhã para descobrir que uma caixa branca foi entregue contendo um sistema dinâmico imensamente complexo, cujo funcionamento é inteiramente aberto à vista. Talvez seja o presente de um visitante extraterrestre, ou o produto indesejável de algum laboratório rival de inteligência artificial que deixou seus algoritmos evolutivos enlouquecerem e não tem certeza do que fazer com os resultados. Suponha que eu tenha que decidir se devo ou não destruir a caixa. Como posso saber se isso seria uma ação moralmente aceitável? Existe algum método ou procedimento por meio do qual eu possa determinar se a consciência estava ou não, de algum modo, presente na caixa?

Uma forma de enfrentar esse desafio seria conceber uma medida objetiva de consciência, uma função matemática que, dada qualquer descrição física, retorna um número que quantifica a consciência desse sistema. O neurocientista Giulio Tononi pretendia fornecer exatamente essa medida, chamada “Φ”, dentro da rubrica da chamada “teoria da informação integrada”. Aqui, Φ descreve até que ponto um sistema é, num específico sentido teórico de informação, mais do que a soma de suas partes. Para Tononi, a consciência é Φ do mesmo modo que a água é H2O. Assim, a teoria da informação integrada afirma fornecer condições necessárias e suficientes para a presença da consciência em qualquer sistema dinâmico.

A principal dificuldade dessa abordagem é que ela separa a consciência do comportamento. Um sistema completamente autossuficiente pode ter alto Φ apesar de não ter interação com qualquer coisa no ambiente externo. O problema é que nosso conceito cotidiano de consciência está inerentemente ligado ao comportamento. Se você me informa que alguém está ou não ciente de alguma coisa (de um carro que se aproxima, digamos, ou de um amigo passando no corredor), isso me dá certas expectativas sobre os possíveis comportamentos desse alguém (irá acenar ou não para o carro, cumprimentar ou não o amigo).

Da mesma forma, eu poderia fornecer informações similares a você a respeito daquilo de que estou ciente, a fim de explicar o meu próprio comportamento. “Eu mal posso dizer a diferença entre essas duas cores”; “Estou tentando calcular essa soma na minha cabeça, mas é muito difícil”; “Acabei de me lembrar do que ela me disse”; “Não está doendo muito agora” – todas essas frases ajudam a explicar meu comportamento aos colegas falantes da minha língua e desempenham um papel em nossa atividade social cotidiana. Elas nos ajudam a manter informados uns aos outros sobre o que fizemos no passado, o que estamos fazendo agora e o que provavelmente faremos no futuro.

É somente quando fazemos filosofia que começamos a falar de consciência, experiência e sensação em termos de subjetividade privada. Esse é o caminho que nos conduz à distinção entre problemas difíceis/problemas fáceis, proposta por David Chalmers, e consequente a uma divisão metafisicamente pesada entre o interior e o exterior – em suma, a uma forma de dualismo no qual a experiência subjetiva é uma característica ontologicamente distinta da realidade. Wittgenstein fornece um antídoto para essa forma de pensamento em suas observações sobre a linguagem privada, cuja peça central é um argumento no sentido de que, na medida que podemos falar sobre nossas experiências, elas devem ter uma manifestação pública e externa. Para Wittgenstein, “somente de um ser humano vivo e do que se parece com (se comporta como) um ser humano vivo é possível dizer: ele tem sensações, ele vê… ele é consciente ou inconsciente”.

Através de Wittgenstein, chegamos ao seguinte preceito: apenas contra um pano de fundo de comportamento intencional é que podemos falar de consciência. Dessa perspectiva, a fim de estabelecer a presença de consciência, não seria suficiente descobrir que um sistema, como a caixa branca no nosso experimento, tinha alto Φ. Precisaríamos discernir propósito em seu comportamento. Para que isso aconteça, teríamos que ver o sistema incorporado a um ambiente. Precisaríamos ver o ambiente atuando no sistema, e o sistema atuando no ambiente para seus próprios fins. Se o “sistema” em questão fosse um animal, então já habitamos o mesmo ambiente familiar, apesar de o ambiente oferecer coisas diferentes a diferentes criaturas. Mas para discernir comportamento intencional em um sistema não familiar (criatura ou ser), talvez precisemos planejar um encontro com ele.

“Nós não avaliamos a evidência para concluir que nossos amigos são provavelmente criaturas conscientes. Nós simplesmente os vemos assim e os tratamos de acordo.”

Mesmo em casos familiares, esse negócio de planejar um encontro pode ser complicado. Por exemplo, em 2006 o neurocientista Adrian Owen e seus colegas conseguiram estabelecer uma simples forma de comunicação com pacientes em estado vegetativo usando um scanner de ressonância magnética funcional. Aos pacientes foi pedido para que imaginassem dois diferentes cenários que são conhecidos por provocar sinais de ressonância magnética distinta em indivíduos saudáveis: andar por uma casa e jogar tênis. Um subconjunto de pacientes em estado vegetativo gerou sinais apropriados em resposta à instrução verbal relevante, indicando que eles puderam entender a instrução, formaram a intenção de respondê-la e foram capazes de exercer sua imaginação. Isso deve contar como “planejar um encontro” com o paciente, especialmente quando seu comportamento é interpretado contra o pano de fundo dos muitos anos de atividade normal que o paciente exibia quanto era saudável.

Uma vez que tenhamos discernido o comportamento intencional em nosso objeto de estudo, podemos começar a observar e (esperançosamente) interagir com ele. Como um resultado dessas observações e interações, poderíamos decidir que a consciência está presente. Ou, para colocar as coisas de maneira diferente, poderíamos adotar o tipo de atitude em relação ao sistema que normalmente reservamos para as criaturas conscientes.

A diferença entre essas duas formas de expressão vale a pena ser discutida. Implícito na primeira formulação está a suposição de que existe um fato por trás das observações: ou a consciência está presente no objeto diante de nós ou não, e a verdade pode ser revelada por um tipo investigação científica que combina o empírico e o racional.

A segunda formulação deve-se a Wittgenstein. Admirado como a linha de pensamento cético segundo a qual um determinado amigo pode ser um mero autômato (um zumbi fenomenológico, como poderíamos dizer hoje) Wittgenstein observa que sua posição não é a de ter certeza que esse suposto amigo tem mesmo uma alma(por “ter uma alma”, podemos ler algo como “é consciente e é capaz de alegria e sofrimento”). Em vez disso, “minha atitude em relação a ele é uma atitude na direção de quem tem uma alma”.

O ponto aqui é que, na vida cotidiana, nós não analisamos as evidências observadas e concluímos que nossos amigos e entes queridos são provavelmente criaturas conscientes como nós mesmos. A questão é processada em um nível muito mais profundo. Nós simplesmente os vemos assim e os tratamos de acordo. A dúvida não faz parte de nossa atitude para com eles.

Como essa sensibilidade wittgensteiniana se manifesta no caso de seres mais exóticos que os humanos ou outros animais? Agora podemos reformular o problema da caixa branca sobre se existe um método que possa determinar se a consciência, em algum sentido, está presente na caixa. Em vez disso, poderíamos perguntar: em que que circunstâncias nós, perante essa caixa, adotaríamos algum tipo de atitude que normalmente reservamos para uma criatura consciente?

 

Vamos enfrentar essa questão começando com um caso hipotético modestamente exótico, um robô humanoide com inteligência artificial em nível humano: a robô Ava do filme Ex Machina (2015), escrito e dirigido por Alex Garland.

Em Ex Machina, o programador Caleb é levado para o recuo remoto de seu chefe, o genial recluso e bilionário técnico Nathan. Ele é inicialmente dito para ser o componente humano em um Teste de Turing, com o robô Ava como sujeito do teste. Após seu primeiro encontro com Ava, Caleb comenta a Nathan que num Teste de Turing real o sujeito deve estar escondido do testador, enquanto naquele caso Caleb já sabe desde o início que Ava é um robô. Nathan responde que: “O verdadeiro teste é te mostrar que ela é um robô. Então veja se você ainda sente que ela tem consciência” (Podemos chamar isso de “Teste de Garland”).

Conforme o filme avança e Caleb tem mais chance de observar e interagir com Ava, ele deixa de vê-la como uma “mera máquina”. Ele começa a simpatizar com seu sofrimento, aprisionada por Nathan e confrontando-se com possibilidade de “terminação” se ela falhar no teste. Está claro, no final do filme, que a atitude de Caleb em relação a Ava evoluiu para o tipo que normalmente reservamos para uma criatura consciente.

O arco da história de Ava e Caleb ilustra uma abordagem à consciência inspirada em Wittgenstein. Caleb chega a essa atitude não realizando uma investigação científica do funcionamento interno do cérebro de Ava, mas observando-a e falando com ela. Sua postura é mais profunda do que qualquer simples opinião. No final, ele age decisivamente em seu nome e com grande risco para si mesmo.

Não quero sugerir que a investigação científica não deveria influenciar a maneira como vemos outro ser, especialmente em casos mais exóticos. O ponto é que o estudo de um mecanismo só pode complementar a interação e a observação, e não substituí-la. De que outra forma poderíamos realmente ver outro ser consciente como tal, a não ser habitando em seu mundo e encontrando-o para nós mesmos?

“Se algo é construído de forma muito diferente para nós, então, por mais humano que seja seu comportamento, sua consciência pode ser muito diferente da nossa.”

A situação é aparentemente mais simples para Caleb porque Ava é apenas um caso moderadamente exótico. Seu comportamento é muito humano, e ela tem uma forma humanoide (de fato, uma forma humanoide feminina que ele acha atraente). Mas a Ava fictícia ilustra também quão complicados podem ser até mesmo casos aparentemente simples. No roteiro publicado, há uma direção para a última cena do filme que não fora incluída na versão final. Diz: “Vetores de conhecimento facial flutuam em volta do rosto do piloto. E quando ele abre a boca para falar, não ouvimos palavras. Nós ouvimos pulsos de ruído monótono. Tom baixo. Fala como puro reconhecimento de padrões. É assim que a Ava nós vê. E nos ouve. Parece completamente estranho”.

Essa parte do roteiro original traz a ambiguidade que está no coração do filme. Nossa inclinação, como espectadores, é enxergar Ava como uma criatura consciente capaz de sofrer – como Caleb a vê. Todavia, é tentador imaginar se Caleb está sendo enganado, se Ava pode não ser consciente depois de tudo, ou pelo menos não em qualquer sentido familiar.

Esta é uma linha de pensamento sedutora. Mas deve ser entretida com extrema cautela. É um truísmo na ciência da computação que especificar como um sistema se comporta não determina como esse comportamento deve ser implementado na prática. Na realidade, a inteligência artificial de nível humano exibindo comportamento semelhante ao humano pode ser instanciada de várias maneiras diferentes. Pode não ser necessário copiar a arquitetura do cérebro biológico. Por outro lado, talvez a consciência dependa do tipo implementação. Se o cérebro da criatura é como o nosso, então há motivos para supor que sua consciência, sua vida interior, também seja como a nossa. Pelo menos é assim que estamos inclinados a pensar. Mas se algo é construído de forma muito diferente para nós, então, por mais humano que seja seu comportamento, sua consciência pode ser muito diferente da nossa. Talvez seja um zumbi fenomenológico, sem nenhuma consciência.

O problema com esse pensamento é a influência que exerce sobre o tipo de quadro metafísico dualista que estamos tentando dispensar. Certamente, nós dizemos, deve haver algo de factual aqui. Ou a inteligência artificial em questão é consciente no mesmo sentido que você e eu somos conscientes, ou não é. No entanto, aparentemente, nós nunca podemos saber com certeza. É um pequeno passo daqui para a intuição dualista de que um mundo privado e subjetivo da experiência interna existe separadamente do mundo público e objetivo dos objetos físicos.

Mas não há necessidade de ceder a essa intuição dualista. Nem há necessidade de negá-la. Basta notar que, em casos difíceis, é sempre possível descobrir mais sobre um objeto de estudo, como observando seu comportamento sob um conjunto mais amplo de circunstâncias, interagindo com ele de novas maneiras, investigando seu funcionamento mais profundamente. À medida que descobrimos mais, a maneira como o tratamos e nos comunicamos mudará, e, assim, convergiremos para uma atitude apropriada para lidar com com nosso objeto de estudo. Talvez a atitude de Caleb em relação a Ava poderia ter mudado se ele tivesse tido mais tempo para interagir com ela, para descobrir o que realmente a fazia funcionar. Ou talvez não.

Até agora, nós nos apegamos a entidades semelhantes a humanos e não olhamos nada especialmente exótico. Porém, precisamos estender nosso campo de visão se quisermos mapear o espaço das mentes possíveis. Isso nos dá a oportunidade de pensar imaginativamente sobre seres apropriadamente exóticos e especular sobre sua suposta consciência.

Existem várias dimensões ao longo das quais podemos traçar os muitos tipos de mentes que podemos imaginar. Eu escolhi dois: semelhança-humana (o eixo H) e capacidade de consciência (o eixo C).

Uma entidade é semelhante à humana na medida em que faz sentido descrever seu comportamento usando a linguagem que normalmente empregamos para descrever os seres humanos – a linguagem das crenças, desejos, emoções, necessidades, habilidades e assim por diante. Um tijolo, por esta definição, pontua muito baixo. Por razões muito diferentes, uma entidade exótica também pode ter uma pontuação muito baixa nessa escala, se seu comportamento for inescrutavelmente complexo ou alienígena.

No eixo C, a capacidade de consciência de uma entidade corresponde à riqueza de experiência da qual ela é capaz. Um tijolo pontua zero nessa escala (apesar do pampsiquismo), enquanto um ser humano pontua significativamente mais do que um tijolo.

A Figura 1, abaixo, coloca provisoriamente um número de animais no plano H-C, ao longo de eixos que variam de 0 (mínimo) a 10 (máximo). Um tijolo é mostrado na posição (0,0). Vamos considerar o posicionamento ao longo do eixo C. Não há razão para supor que a capacidade humana de consciência não possa ser excedida por algum outro ser. Então humanos (talvez generosamente) são designados 8 neste eixo. O tópico da consciência animal está repleto de dificuldades. Mas uma suposição comum é que, pelo menos na biologia terrestre, a consciência está intimamente relacionada à proeza cognitiva. De acordo com essa intuição, uma abelha é assumida como tendo uma capacidade menor para consciência do que um gato, que por sua vez tem uma capacidade ligeiramente menor para consciência do que um polvo, enquanto todos os três animais pontuam menos do que um ser humano.

Organizar animais desta maneira pode ser justificada apelando para a variedade de capacidades estudadas no campo da cognição animal. Esses incluem aprendizagem associativa, cognição física, cognição social, uso e manufaturas de ferramentas, viagem temporal mental (incluindo planejamento futuro e memória de tipo episódico) e comunicação. Presume-se que a experiência de um animal no mundo é enriquecida por cada uma dessas capacidades. Para os humanos, podemos acrescentar a linguagem, a capacidade de formar conceitos abstratos e a habilidade de pensar associativamente em imagens e metáforas, entre outros.

Figura 1. Acima: biologia no plano H-C. Abaixo: inteligência artificial contemporânea no plano H-C.

Agora vamos voltar nossa atenção para o eixo H. Tautologicamente, um ser humano tem a máxima semelhança humana. Então temos 10 no eixo H. Todos os animais não humanos compartilham certos fundamentos com os humanos. Todos os animais são corporificados, movem-se e sentem o mundo e exibem um comportamento intencional. Além disso, todo animal tem certas necessidades corporais em comum com os humanos, como comida e água, e todo animal tenta se proteger de ameaças e sobreviver. Nesta medida, todos os animais exibem um comportamento semelhante ao humano, de modo que todos os animais obtêm 3 ou mais no eixo H.

Agora, a fim de descrever e explicar o comportamento de um animal não humano, recorremos aos conceitos de linguagem que usamos para descrever e explicar o comportamento humano. Diz-se que o comportamento de um animal é semelhante ao humano na medida em que esses recursos conceituais e linguísticos são necessários e suficientes para e descrevê-lo e explicá-lo. E quanto mais cognitivamente sofisticada for uma espécie, mais desses recursos linguísticos e conceituas são normalmente necessários. Assim, o gato e o polvo estão mais altos no eixo H do que a abelha, mas abaixo do ser humano.

“É, obviamente, ingênuo atribuir um escalar simples à capacidade de consciência de um ser.”

De acordo com as suposições que estamos fazendo, em relação aos animais a semelhança humana e a capacidade de consciência estão amplamente correlacionadas. Entretanto, o polvo aparece mais baixo no eixo H do que um o gato, apesar de estar mais adiante no eixo C. Eu não quero defender essas ordens relativas especificamente. Mas o polvo exemplifica a possibilidade de uma criatura que é cognitivamente sofisticada, que estamos inclinados a creditar que possui uma capacidade de experiências conscientes ricas, mas cujo comportamento é difícil para os humanos entenderem.

Levando essa ideia adiante, podemos imaginar seres conscientes muito mais inescrutáveis do que um polvo. Tais seres apareceriam lá embaixo com o tijolo no eixo H, mas por razões muito diferentes. Para descrever e explicar o comportamento de um tijolo, os conceitos que usamos para descrever e explicar o comportamento humano são desnecessários, uma vez que um tijolo não apresenta nenhum comportamento sobre o qual poderíamos falar alguma coisa. Mas para descrever e explicar o comportamento de um ser cognitivamente sofisticado mas inescrutável, esses recursos seriam insuficientes.

Há muito o que questionar sobre essas designações. É, obviamente, ingênuo atribuir um escalar simples à capacidade de consciência de um ser. Uma abordagem mais sutil seria sensível ao fato de que diferentes combinações de capacidades cognitivas estão presentes em diferentes animais. Além disso, o quanto cada uma dessas capacidades contribui para a riqueza de experiência de uma criatura é uma questão aberta ao debate. Dúvidas semelhantes também podem ser lançadas sobre a validade do eixo H.

Mas o plano H-C deveria ser visto como uma tela na qual podem ser feitos esboços brutos e experimentais do espaço das mentes possíveis, um estímulo à discussão, em vez de um arcabouço teórico rigoroso. Além do mais, diagramas do plano H-C não são tentativas de retratar fatos com respeito à consciência de diferentes seres. Ao contrário, são tentativas especulativas para antecipar a atitude consensual a que chegamos a respeito da consciência de várias entidades, seguindo um processo coletivo de observação, interação, debate, discussão e investigação de seu funcionamento interno.

Vamos colocar alguns exemplos contemporâneos de robótica e inteligência artificial no plano H-C. Estes incluem o Roomba (um robô doméstico de limpeza à vácuo), BigDog (um robô de quatro patas com locomoção realística) e o AlphaGo (o programa criado pelo Google DeepMind que derrotou o jogador sul-coreano Lee Sedol campeão de Go, em 2016). Todos os três são pressionados até a extrema esquerda do eixo C. De fato, nenhuma máquina, nenhum robô ou programa de computador ainda existe a que possa plausivelmente ser atribuída qualquer capacidade de consciência.

Por outro lado, no que se refere à semelhança humana, todos os três estão bem acima do tijolo. O BigDog aparece um pouco abaixo do Roomba, ambos ligeiramente acima do AlphaGo. BigDog é guiado por um operador humano. Contudo, é capaz de ajustar automaticamente a terrenos irregulares ou escorregadios, e de se endireitar quando seu equilíbrio é perturbado, ao ser chutado, por exemplo. Ao descrever esses aspectos de seu comportamento, é natural usar frases como “ele está tentando não cair” ou até mesmo “ele realmente quer ficar de pé”. Isso quer dizer que tendemos a adotar para o BigDog o que Daniel Dennett chama de “postura intencional”, imputando crenças, desejos e intenções porque isso torna mais fácil descrever e explicar seu comportamento.

Bigdog

Ao contrário do BigDog, Roomba é um robô inteiramente autônomo que consegue operar por longos períodos sem intervenção humana. Apesar da resposta realista do BigDog ao ser chutado, a menor compressão do seu funcionamento interno deve dissipar qualquer inclinação para vê-lo como uma criatura viva lutando contra a adversidade. O mesmo vale para o Roomba. Entretanto, o comportamento do Roomba é mais complexo ao todo, pois ele tem uma missão abrangente, ou seja, de manter o piso limpo. Contra o pano de fundo de tal missão, a postura intencional pode ser usada de um jeito bem mais sofisticada, invocando uma interação de percepção, ação, crença, desejo e intenção. Não só somos inclinados a dizer coisas como: “Ele está desviando para evitar a perna da cadeira”, podemos também dizer: “Ele está voltando para a estação de ancoragem porque suas baterias estão baixas”, ou “Ele está passando por cima daquele tapete novamente porque pode dizer que está muito sujo”.

Roomba

O AlphaGo pontua o menor entre os três artefatos que estamos observando, embora não seja devido a qualquer falta de recursos cognitivos. De fato, são bastante impressionantes, embora em um domínio muito restrito. Na verdade, é porque o comportamento do AlphaGo dificilmente pode ser comparado ao de um humano ou de um animal. Diferentemente do BigDog e Roomba, ele não habita o mundo físico ou tem um substituto virtual em qualquer sentido relevante.

O AlphaGo não percebe o mundo ou se move dentro dele, e a totalidade de seu comportamento é manifestada através dos movimentos que faz no tabuleiro Go. Não obstante, a postura intencional é algumas vezes útil para descrever seu comportamento. Demis Hassabis, o co-fundador da DeepMind, publicou três tweets sobre um jogo que AlphaGo perdeu para Lee Sedol durante a série de cinco jogos. No primeiro tweet, ele escreveu: “#AlphaGo achou que estava indo bem, mas ficou confuso no movimento 87”. Ele continuou dizendo: “O erro foi no movimento 79, mas #AlphaGo somente veio a compreender em torno do movimento 87”. Pouco tempo depois, ele twittou: “Quando eu digo ‘pensamento’ e ‘compreensão’, refiro-me apenas à saída da rede de valores do #AlphaGo. Foi cerca de 70% no movimento 79 e depois caiu no movimento 87”.

Para alguém não familiarizado com o funcionamento interno do AlphaGo, os dois primeiros tweets teriam feito muito mais sentido do que a declaração cientificamente mais precisa no terceiro. Porém, este é um uso superficial da postura intencional, que é, em última análise, de pouca ajuda na compreensão do AlphaGo. Ele não interage com um mundo de objetos localizados espaço-temporalmente, e não há sentido frutífero em que seu comportamento possa ser caracterizado em termos da interação de percepção, crença, desejo, intenção e ação.

Por outro lado, o AlphaGo implementa um formidável conjunto de habilidades cognitivas dentro do micromundo do Go. Aprende através da experiência, obtida através de auto jogo, bem como de registros de jogos humanos. Ele pode pesquisar através de uma miríade de jogadas possíveis para determinar seu próximo movimento. Sua capacidade de responder eficazmente a padrões sutis de tabuleiro replica o que é comumente chamado de intuição nos melhores jogadores humanos. E em uma jogada extraordinária durante a partida com Sedol, demonstrou uma forma do que poderíamos chamar de criatividade. Ele se aventurou na quinta linha do tabuleiro Go usando um movimento conhecido como golpe no ombro, no qual uma pedra é colocada na diagonal adjacente à pedra do oponente. Comentando o jogo, o campeão europeu do Go Fan Hui observou: ‘Isso não é um movimento humano. Eu nunca vi um humano fazer essa jogada. Tão bonito’. De acordo com a estimativa da AlphaGo, havia uma chance em dez mil de que um humano teria usado a mesma tática e isso foi contra séculos de sabedoria recebida. Todavia, esse movimento foi fundamental para dar-lhe vitória.

O que encontramos no AlphaGo é um exemplo do que poderíamos denominar não de “exótico consciente”, mas sim uma forma de “exótico cognitivo”. Através de um processo em grande parte opaco para os seres humanos, AlphaGo consegue atingir um objetivo que poderia ter sido considerado como estando além de suas habilidades. A proeza do AlphaGo está confinada a Go, e estamos muito longe da inteligência geral artificial. No entanto, é natural imaginar as possíveis formas que a inteligência geral artificial pode assumir – e como eles poderiam ser distribuídas no espaço das mentes possíveis.

 

Até agora, examinamos a semelhança humana e a capacidade de consciência de várias entidades reais, tanto naturais quanto artificiais. Mas na Figura 2 abaixo, vários seres hipotéticos são colocados no plano H-C. Obviamente, isso é muito especulativo. Somente através de um encontro real com uma criatura desconhecida poderíamos verdadeiramente descobrir nossa atitude em relação a ela e como nossa linguagem adaptaria e estenderia para acomodá-la. Apesar disso, guiado pela razão, a imaginação pode nos dizer algo sobre os diferentes tipos de entidades que podem povoar o espaço das mentes possíveis.

Figura 2. O exótico no plano H-C.

Pegue algumas possíveis formas de inteligência geral artificial (AGI) de nível humano, como uma inteligência artificial construída para imitar exatamente o processamento neural no cérebro humano. Isso poderia ser conseguido copiando o cérebro de um indivíduo específico – escaneando sua estrutura em detalhes nanoscópicos, replicando seu comportamento físico em um substrato artificial e incorporando o resultado em uma forma humanoide.

Esse processo, conhecido como “emulação cerebral total” (transferência mental), renderia, em princípio, algo cujo comportamento seria indistinguível do original. Assim, sendo perfeitamente semelhante ao humano, o resultado seria um exemplo de uma inteligência geral artificial com uma pontuação 10 no eixo H. Alternativamente, em vez de copiar uma pessoa específica, poderia ser construído um cérebro artificial que correspondesse a uma descrição estatística do sistema nervoso central típico de um recém-nascido. Devidamente incorporado e criado como uma criança humana, o resultado seria outra inteligência geral artificial perfeitamente humana.

Esses seres seriam conscientes? Ou melhor, viríamos a trata-los da maneira como tratamos criaturas conscientes, e os descreveríamos nos mesmos termos? Eu conjecturo que sim. Quaisquer que fossem os preconceitos com os quais pudéssemos começar, seu comportamento perfeitamente similar ao humano logo moldaria nossos sentimentos em relação a eles para uma forma de companheirismo. Assim, uma inteligência geral artificial consciente semelhante à humana é certamente uma possibilidade, e ocuparia o mesmo ponto no plano H-C que um ser humano.

Mas, como já observamos, não há razão para supor que a única maneira de criar uma inteligência geral artificial em nível humano seja copiar o cérebro biológico. Talvez uma arquitetura totalmente diferente possa implementar o mesmo resultado (a Ava de Ex Machina é um exemplo fictício). Pode ser possível alcançar a inteligência em nível humano usando alguma combinação de técnicas de busca de forças bruscas e aprendizado de máquina com big data, talvez explorando sentidos e capacidades computacionais não disponível para humanos.

Tais possibilidades sugerem vários novos tipos de seres no plano H-C. O primeiro deles é uma inteligência artificial zumbi semelhante ao ser humano no canto superior esquerdo. Essa entidade não apenas tem uma inteligência em nível humano, mas também é completamente humana em seu comportamento, que pode ser descrito e explicado usando apenas a mesma linguagem que usamos para descrever o comportamento humano. No entanto, falta-lhe consciência. Nos termos de Nagel, é como se fosse nada. É, nesse sentido, um zumbi fenomenológico.

Agora, podemos realmente imaginar uma coisa dessas? Certamente, se seu comportamento fosse indistinguível do comportamento humano, nós viríamos a trata-lo da maneira como tratamos uns aos outros. Certamente, ao interagirmos com tais seres, nossa atitude em relação a eles migraria para a comunhão, chegando a enxergá-los como criaturas conscientes e tratando-os como tais.

Mas suponha que tal entidade funcionasse meramente imitando o comportamento humano. Através de uma futura geração de técnicas de aprendizado de máquina muito poderosas, ela aprendeu a agir de maneira convincentemente humana em uma grande variedade de situações. Se tal inteligência artificial diz que está se sentindo triste, não é por causa de um conflito entre o modo como as coisas são e o modo como gostariam que as coisas fossem, mas sim porque aprendeu a dizer que está triste nessas circunstâncias particulares. Isso alteraria nossa atitude? Eu conjecturo que sim, que negaríamos sua consciência, limitando-o à esquerda do eixo-C.

“Deveríamos considerar a probabilidade de que a riqueza de suas experiências conscientes exceda a capacidade humana.”

Que tipo de entidade pode ser produzida se alguém (ou, mais provavelmente, por alguma corporação, organização ou governo) se propusesse a criar um sucessor artificial para a humanidade, um ser superior ao homo sapiens? Quer seja idealista, equivocada ou simplesmente louca, seus criadores podem alegar que uma futura geração de inteligências gerais artificiais poderia possuir poderes intelectuais muito maiores do que qualquer ser humano. Além disso, liberados das restrições da biologia, tais seres poderiam empreender longas jornadas no espaço interstelar as quais os humanos, com seus corpos frágeis e de vida curta, jamais sobreviveriam. Seriam inteligências artificiais, então, que explorariam de perto as maravilhas do Universo. Por causa das distâncias e escalas temporais envolvidas, os objetivos dessas inteligências artificiais não seriam transmitir informações de volta para seus criadores. Em vez disso, eles visitariam as estrelas em nome da humanidade. Vamos chamar esses seres hipotéticos de “crianças da mente”, um termo emprestado do roboticista austríaco Hans Moravec.

Agora, onde essas crianças da mente apareceriam no plano H-C? Bem, sem ninguém à espera de uma mensagem para casa, parece haver pouco sentido em enviar artefatos para as estrelas que sejam desprovidos da capacidade de experimentar conscientemente o que encontrarem. Então, os criadores de nossas crianças da mente talvez optassem por uma arquitetura semelhante a um cérebro de inspiração biológica, para garantir que eles tivessem uma pontuação tão boa quanto a dos humanos no eixo-C. De fato, deveríamos considerar a probabilidade de que a riqueza de suas experiências conscientes exceda a capacidade humana, e que eles desfrutariam de uma forma de superconsciência. Este poderia ser o caso, por exemplo, se eles tivessem conjunto de sensores com uma largura de banda muito maior que a de um ser humano, ou se fossem capazes de compreender verdades matemáticas complexas que estão além da compreensão humana, ou se pudessem ter uma vasta rede de associações em suas mentes de uma vez só enquanto nós, seres humanos, estamos confinados a apenas algumas.

Quanto ao eixo-H, um modelo inspirado no cérebro também conferiria um grau de semelhança humana à inteligência artificial. Todavia, sua superinteligência provavelmente dificultaria o entendimento dos seres humanos. Seria, talvez, 6 ou 7. Em suma, nossa progênie superinteligente, superconsciente, artificialmente inteligente, pode ser encontrada na extremidade direita do diagrama, um pouco mais do que na metade do eixo-H.

E quanto à inteligência geral artificial não cerebral? Inteligências gerais artificiais desse tipo sugerem vários novos pontos de dados no plano H-C, todos localizados abaixo no eixo H. Essas são as inteligências gerais artificiais verdadeiramente exóticas, isto é, opostas ao humano. O comportamento de um ser exótico não pode ser entendido – ou, pelo menos, não totalmente – usando os termos que geralmente usamos para entender o comportamento humano. Tal ser pode exibir comportamento que é tanto complexo quanto eficaz para alcançar objetivos em uma ampla gama de variedades de ambientes e circunstâncias. Contudo, pode ser difícil ou impossível para os humanos descobrirem como atingem seus objetivos, ou mesmo discernir exatamente quais são esses objetivos.

A observação enigmática de Wittgenstein de que “se um leão pudesse falar, não o entenderíamos” vem à mente. Mas um leão é uma criatura relativamente familiar e temos pouca dificuldade em nos relacionarmos com muitos aspectos de sua vida. Um leão habita o mesmo mundo físico que nós, e apreende o mundo usando um conjunto similar de sentidos. Um leão come, acasala, dorme e defeca. Nós temos muito em comum. A hipotética inteligência geral artificial é completamente mais estranha.

O tipo mais exótico de entidade seria totalmente inescrutável, o que quer dizer que estaria além do alcance da antropologia. A cultura humana é, obviamente, enormemente variada. Vizinhos da mesma aldeia muitas vezes têm dificuldades em relacionar-se com os hábitos, objetivos e preferências um do outro. No entanto, através da cuidadosa observação e interação, antropólogos são capazes de dar sentido a essa variedade, tornando as práticas de culturas “exóticas” (isto é, muito diferente das suas) compreensíveis para eles.

Mas, claro, nós temos ainda mais em comum com outro ser humano de uma cultura diferente do que com um leão. Nossa humanidade compartilhada torna a tarefa do antropólogo manejável. O tipo de entidade inescrutável que estamos tentando imaginar é totalmente mais exótica. Mesmo que pudéssemos realizar um encontro e discernir um comportamento aparentemente intencional, a equipe de antropologistas mais experientes teria problemas para adivinhar seus propósitos ou como eles seriam cumpridos.

Como pode tal entidade acontecer? Afinal, se fosse projetado por humanos, por que não seriam compreensível para os seres humanos? Bem, há várias maneiras de criar uma inteligência artificial que não seriam compreendidas por seus criadores. Já vimos que o AlphaGo é capaz de surpreender seus programadores e seus oponentes. Uma inteligência geral mais poderosa pode encontrar formas muito mais surpreendentes de alcançar seus objetivos. Mais radicalmente, uma inteligência artificial que fosse produto de evolução artificial ou de auto modificação poderia acabar com objetivos muito diferentes daqueles pretendidos por seus programadores.

Além disso, uma vez que estamos concedendo a possibilidade de múltiplas inteligências extraterrestres, o espaço das mentes possíveis deve incluir não somente esses seres, mas também quaisquer formas de inteligência artificial que possam construir. Seja qual for a empunhadura que somos capazes de obter na mente de uma criatura de outro mundo, um mundo que poderia ser muito diferente do nosso, nossa aderência provavelmente será ainda mais tênue para uma inteligência artificial evoluída ou automodificada cuja semente é um sistema planejado para servir as metas já alienígenas das criaturas.

Uma inteligência artificial exótica claramente terá uma pontuação baixa no eixo H. Mas e quanto ao eixo C? Qual poderia ser sua capacidade de consciência? Ou, para colocar a questão de maneira diferente, poderíamos projetar um encontro com tal coisa, por meio do qual, após suficiente observação e interação, nos conformaríamos com nossa atitude em relação a ela? Se sim, qual seria essa atitude? Seria o tipo de atitude que adotamos em relação a uma criatura consciente?

Bem, agora chegamos a uma espécie de impasse filosófico. Pois a definição oferecida de inescrutabilidade coloca o tipo mais exótico de inteligência artificial além do alcance da antropologia. E isso parece excluir o tipo de encontro de que precisamos antes que possamos estabelecer uma atitude em relação a ela, pelo menos de acordo com a posição não dualista, inspirada em Wittgenstein, sobre a subjetividade.

É possível reconciliar essa visão de consciência com a existência do exótico consciente? Lembre-se do experimento mental da caixa branca. Embutido na misteriosa caixa entregue ao nosso laboratório, com sua dinâmica interna incompreensivelmente complexa, mas totalmente acessível, pode estar exatamente o tipo de inteligência artificial inescrutável sobre a qual estamos falando. Podemos conseguir projetar um encontro com o sistema, ou parte dele, revelando um comportamento aparentemente intencional, mas ainda assim não ser capaz de entender exatamente qual era esse propósito. Um encontro com inteligência extraterrestre provavelmente apresentaria uma situação semelhante.

O romance Solaris (1961), de Stanislaw Lem oferece um exemplo fictício convincente. Os protagonistas do romance são uma equipe de cientistas orbitando um planeta coberto por um oceano que se revela um organismo único, vasto e inteligente. Enquanto eles tentam estudar esse ser alienígena, ele parece estar sondando-os por sua vez. Isso é feito criando avatares parecidos com seres humanos a partir de suas memórias inconscientes que os visitam a bordo de suas espaçonaves com efeitos psicológicos perturbadores. Os cientistas, por sua vez, nunca entendem a mente alienígena desse organismo: ‘Sua superfície ondulada era capaz de originar as mais diversas formações que não se assemelhavam a nada terrestre, além do propósito – adaptativo, cognitivo ou o que quer que seja – daquelas erupções frequentemente violentas de “criatividade” permaneceu um mistério total’.

Suponha que você fosse confrontado por um sistema dinâmico exótico, como a inteligência artificial da caixa branca ou o organismo oceânico em Solaris. Você quer saber se ele é consciente ou não. É natural pensar que, para qualquer ser, vivo ou artificial, existe uma resposta para essa pergunta, um fato, mesmo que a resposta esteja necessariamente escondida de nós, como parecem estar nesses casos hipotéticos. Por outro lado, se seguirmos a abordagem de Wittgenstein à questão, erraremos quando pensarmos dessa maneira. Alguma faceta da realidade pode ser empiricamente inacessível para nós, mas nada está escondido como uma questão de metafísica.

Como esses dois pontos de vista são irreconciliáveis, nossas opções a princípio parecem ser apenas duas:

  1. Manter o conceito de exótico consciente, mas abandonar Wittgenstein e reconhecer que existe um domínio da subjetividade metafisicamente separado. Esse seria um retorno ao dualismo da mente e corpo e à dicotomia do problema difícil/problema fácil.

Ou

  1. Manter uma abordagem à consciência inspirada em Wittgenstein, insistindo que “nada está oculto”, mas rejeitar a ideia propriamente dita de exótico consciente.

No entanto, existe uma terceira opção:

  1. Manter o conceito de exótico consciente e uma perspectiva filosófica inspirada em Wittgenstein, permitindo que nossa linguagem e práticas possam mudar de formas imprevisíveis para acomodar encontros com formas exóticas de inteligência.

Temos andado juntos com a pretensão de que a consciência é um conceito único e monolítico, passível de uma métrica escalar de capacidade. Esse tipo de manobra é conveniente em muitos ramos de investigação. Para fins de conservação, um ecologista pode compactar utilmente a biodiversidade em uma única estatística, abstraindo de diferenças entre espécies, mudanças sazonais, distribuição espacial e assim por diante. Na economia, o “índice de desenvolvimento humano” utilmente resume aspectos do sistema educacional de um país, saúde, produtividade e afins, ignorando os numerosos detalhes de vidas individuais.

Porém, para alguns propósitos, uma abordagem mais diferenciada é necessária. Examinado mais de perto, o conceito de consciência envolve muitas coisas, incluindo consciência do mundo (ou consciência primária), autoconsciência (ou consciência de ordem superior), a capacidade de emoção e empatia e interação cognitiva (onde os recursos completos do cérebro são utilizados na situação em andamento).

“Partes da nossa linguagem para descrever entidades altamente exóticas com comportamento complexo podem ser suplantadas por maneiras totalmente novas de falar.”

Em um ser humano adulto normal, essas coisas vêm juntas. Mas em uma entidade mais exótica eles podem ser desagregados. Na maioria dos animais não humanos, encontramos a consciência do mundo sem autoconsciência e a capacidade de sofrer sem a capacidade de empatia. Uma inteligência artificial de nível humano pode exibir consciência do mundo e autoconsciência sem a capacidade de emoção ou empatia. Se tais entidades se tornassem familiares, nossa linguagem mudaria para acomodá-los. Conceitos monolíticos como consciência poderia se romper, levando a novas maneiras de falar sobre o comportamento das inteligências artificiais.

Mais radicalmente, podemos descobrir novas categorias de comportamento ou cognição que estão vagamente associadas à nossa antiga concepção de consciência. Em suma, embora possamos reter partes da linguagem de hoje para descrever entidades altamente exóticas com comportamento complexo, outras partes relevantes da nossa linguagem podem ser reformuladas, aumentadas ou suplantadas por maneiras totalmente novas de falar, um processo que seria informado pela ciência da computação, pela cognição comparativa, pela psicologia comportamental e pela evolução natural da linguagem comum. Sob essas condições, algo como “capacidade de consciência” pode ser utilmente retido como uma estatística resumida para aquelas entidades cujo comportamento escapa à explicação nos termos de hoje, mas poderia ser acomodado por uma nova estrutura conceitual em que a noção de consciência agora nos é familiar, embora fragmentada e refratada, permanece discernível.

Quais são as implicações dessa possibilidade para o plano H-C? A figura 2 acima indica um ponto no plano H-C com o mesmo valor de um ser humano no eixo C, mas que é exótico o suficiente para ficar no eixo G no limite de aplicabilidade de qualquer forma de consciência. Aqui encontramos entidades, tanto extraterrestres como artificiais, que possuem uma inteligência de nível humano, mas cujo comportamento tem pouca semelhança com o comportamento humano. No entanto, dada um interação e/ou observação suficientemente rica dessas entidades, poderíamos considera-las como seres conscientes, embora tenhamos modificado nossa linguagem para acomodar suas excentricidades.

Uma dessas entidades, a inteligência geral artificial exótica consciente, tem uma contrapartida na extremidade esquerda no plano H-C, ou seja, uma inteligência geral artificial zumbi. Essa é uma inteligência artificial de nível humano cujo comportamento é similarmente não humano, mas que somos incapazes de ver como consciente, por mais que interagimos com ela ou a observamos. Esses dois pontos (a inteligência exótica consciente e de nível humano, de um lado, e a inteligência exótica zumbi de nível humano exótico, do outro) definem os dois cantos de baixo de um quadrado cujos outros cantos são os próprios seres humanos (no canto superior direito) e zumbis semelhantes a humanos (no canto superior esquerdo). Esse quadrado ilustra a inextricável relação de três vias entre uma inteligência de nível humano, a semelhança humana e a consciência.

Podemos agora identificar um número de regiões sobrepostas dentro no nosso espaço das mentes possíveis. Elas são descritas na Figura 3 abaixo. A partir da suposição (discutível) de que se uma entidade é consciente então sua capacidade de consciência se correlacionará com sua proeza cognitiva, posicionei as características de inteligência de nível humano nas duas regiões roxas paralelas, uma à esquerda do diagrama e uma a nível humano no eixo C. A inteligência geral artificial exótica e consciente reside no fundo da última região e também na extremidade esquerda da região laranja do exótico consciente. Essa região estende-se à direita do eixo C, para além do nível humano, porque abrange seres exóticos, que podem ser extraterrestres ou artificiais ou ambos, como inteligência sobre-humana e uma capacidade sobre-humana de consciência. Nossas “crianças da mente” são formas menos exóticas de possíveis criaturas superinteligentes e superconscientes. Mas os exóticos conscientes aqui são, talvez, os seres mais interessantes no espaço das mentes possíveis, pois residem no limite do que gostaríamos de receber na comunhão da consciência, mas sentam-se numa fronteira além da qual tudo complexo é inescrutavelmente estranho.

Esse limite marca a borda de uma região que é vazia, denotada como “Vazio da Inescrutabilidade”. Essa região vazia porque, como observa Wittgenstein, podemos falar apenas de um ser humano e daquilo que se comporta como um ser humano que é consciente. Nós estendemos a noção do que se comporta como um ser humano ao ponto de ruptura (talvez mais longe do que Wittgenstein acharia confortável).

À medida que nos aproximamos desse ponto de ruptura, sugeri, a linguagem da consciência atual começa a se desfazer. Além desse ponto, encontramos apenas entidades para as quais nossa linguagem corrente não tem aplicação. Na medida em que exibem um comportamento complexo, somos obrigados a usar outros termos para descrevê-las e explicá-las, de modo que essas entidades não estão mais longe no eixo C do que o tijolo. Portanto, a faixa mais baixa do diagrama não possui pontos de dados. Não contém entidades que são inescrutáveis, mas quem sabe – pelo que sabemos – essas entidades sejam conscientes. Pensar isso seria supor que há fatos sobre a subjetividade de entidades inescrutavelmente exóticas que estarão para sempre inacessíveis para nós. Podemos evitar o dualismo que essa visão implica, aceitando que essa região é simplesmente um vazio.

O vazio da inescrutabilidade completa o meu esboço provisório do espaço das mentes possíveis. Mas o que ganhamos com esse exercício um tanto fantasioso? A probabilidade de os seres humanos encontrarem diretamente inteligência extraterrestre é pequena. As chances de descobrir um sinal transmitido pelo espaço por outra espécie inteligente, embora talvez maior, ainda são pequenas. Mas a inteligência artificial é uma questão diferente. Podemos criar muito bem um inteligência artificial autônoma de nível humano nas próximas décadas. Se isso acontecer, a questão sobre se nossas criações são conscientes (e em que sentido o são) será moralmente significativa.

Mas mesmo que nenhum desses cenários de ficção científica surja, situar a consciência humana dentro de um espaço maior das possibilidades parece-me um dos mais profundos projetos filosóficos que podemos empreender. É também um projeto negligenciado. Sem gigantes cujos ombros nos suportem, o melhor que podemos fazer é lançar algumas chamas na escuridão.


[Tradução de Conscious Exotica, publicado na Aeon Magazine]