É possível construir uma superinteligência artificial sem replicar totalmente o cérebro humano?


A singularidade tecnológica exige a criação de uma superinteligência artificial (ASI). Mas isso ASI precisam ser modelados sobre o cérebro humano, ou é mesmo necessário para ser capaz de se replicar totalmente o cérebro humano e a consciência digitalmente, a fim de projetar um ASI?

Cérebros de animais e os computadores não funcionam da mesma maneira. Os cérebros são massivamente redes tridimensionais paralelos, enquanto que os computadores ainda processar a informação de uma forma muito linear, apesar de milhões de vezes mais rápido do que o cérebro. Microprocessadores pode executar cálculos incríveis, ultrapassando a velocidade e eficiência do cérebro humano utilizando padrões completamente diferentes para processar a informação. A desvantagem é que os chips tradicionais não são bons em processamento massivamente paralelo de dados, resolução de problemas complexos, ou reconhecimento de padrões.

Recentemente desenvolvidas  fichas neuro mórficos  está modelando a maneira massivamente paralelo o cérebro processa a informação utilizando, entre outros,  as redes neurais . Computadores neuro mórficos deve idealmente usar tecnologia óptica, o que pode, potencialmente, processar biliões de cálculos simultâneos, tornando possível simular um cérebro humano inteiro.

O  projeto Blue Brain  (cérebro azul) e o  Projeto Cérebro Humano , financiado pela União Europeia, o governo suíço e IBM, são duas dessas tentativas de construir um modelo completo do computador de um cérebro humano em funcionamento utilizando um modelo biologicamente realista de neurônios. O Projeto Cérebro Humano pretende atingir uma simulação funcional do cérebro humano para 2016.

Fichas neuro mórfica tornam possível para os computadores para processar dados sensoriais, detectar e prever os padrões, e aprender com a experiência. Este é um enorme avanço em inteligência artificial, um passo mais perto de criar uma inteligência artificial geral (AGI), ou seja, um AI que poderia realizar com sucesso qualquer tarefa intelectual que um ser humano pode.

Pense em um AGI dentro de um robô humanóide, uma máquina que parece e se comporta como nós, mas com habilidades personalizáveis ​​e que pode realizar praticamente qualquer tarefa melhor do que um ser humano real. Estes robôs podem ser auto-consciente e / ou sensível, dependendo de como nós escolhemos para construí-los. Robôs de fabricação não precisaria ser, mas o que acontece com os robôs sociais que vivem com a gente, cuidar dos jovens, os doentes ou os idosos? Certamente seria melhor que eles pudessem conversar com a gente como se fossem seres sencientes conscientes como nós, um pouco como o AI em 2013 de Spike Jonze filme  dela .

Em um futuro não muito distante, talvez menos de duas décadas, esses robôs podem substituir os humanos por praticamente todo o trabalho, a criação de uma sociedade de abundância em que os seres humanos podem passar o seu tempo como quiser. Neste modelo, os robôs altamente capazes iria correr a economia para nós. Alimentos, a energia e a maioria dos produtos de consumo seria gratuito ou muito barato, e as pessoas que recebem um subsídio mensal fixado pelo governo.

Isso tudo soa muito bom. Mas o que dizer de um AI que seria superar em muito os mais brilhantes mentes humanas? Uma superinteligência artificial (ASI), ou forte AI (SAI), com a capacidade de aprender e melhorar em si mesmo, e, potencialmente tornando-se milhões ou bilhões de vezes mais inteligentes e capazes do que os seres humanos? A criação de tal entidade, teoricamente, levar à singularidade tecnológica mítico.

Futurista e inventor Ray Kurzweil acredita que a singularidade vai acontecer por volta de 2045. Entre os críticos de Kurzweil é co-fundador da Microsoft Paul Allen, que acredita que a singularidade é  ainda um longo caminho fora . Allen afirma que para uma verdadeira inteligência computador de nível singularidade a ser construída, a compreensão científica de como o cérebro humano funciona precisará acelerar exponencialmente (como as tecnologias digitais), e que o processo de descoberta científica original simplesmente não se comportam dessa maneira . Ele chama essa questão do  freio complexidade .

Sem interferir na discussão entre Paul Allen e Ray Kurzweil (que respondeu de forma convincente  aqui ), a questão que quero discutir é se é absolutamente necessário para compreender e reproduzir a maneira como o cérebro humano trabalha para criar uma ASI.

Grande inteligência não tem que ser modelado sobre o cérebro humano

É natural para nós pensar que os seres humanos são o culminar de inteligência, simplesmente porque é o caso no mundo biológico na Terra. Mas isso não significa que o nosso cérebro é perfeito ou não pode existir que outras formas de inteligência mais elevada, se eles não são baseados no mesmo modelo.

Se do que a nossa existência de seres extraterrestres com uma inteligência maior, é praticamente impensável que seus cérebros se em forma e função como a nossa. O processo de evolução é tão aleatória e complexa que, mesmo se a vida fosse para ser criado de novo em um planeta idêntico à Terra, ele não iria se desenrolar da mesma forma que ele fez por nós, e, consequentemente, a espécie não seria o mesmo. E se a extinção do Permiano-Triássico, ou qualquer outro evento de extinção em massa não tivesse ocorrido? Nós não estaria lá. Mas isso não significa que outros animais inteligentes não teria evoluído em vez de nós. Talvez não teria havido criaturas polvo-como mais inteligentes do que os seres humanos com uma estrutura cerebral completamente diferente.

É pura vaidade humana e falta de visão para pensar que tudo que é bom e inteligente tem de ser modelado em nós. Esse é o tipo de pensamento que levou ao desenvolvimento de religiões com deuses antropomorfizados. Religiões humildes ou despretensiosos como o animismo ou o budismo não têm qualquer divindade semelhante à humana ou nenhum deus em tudo. Religiões mais arrogante ou hipócritas, sejam eles politeísta ou monoteísta, tipicamente imaginou deuses como super-humanos. Nós não queremos cometer o mesmo erro com superinteligência artificial. Maior do que a inteligência humana não tem que ser uma versão exagerada de inteligência humana, nem deve ser baseado em nossos cérebros biológicos.

O cérebro humano é o resultado fortuitos por quatro bilhões de anos de evolução. Ou melhor, é um pequeno ramo na grande árvore da evolução. As aves têm cérebros muito menores do que os mamíferos e são geralmente considerados estúpidos animais em comparação com a maior parte dos mamíferos. No entanto, os corvos têm habilidades de raciocínio que pode  ultrapassar a de um pré-escolar . Eles exibem um comportamento consciente, intencional, um combinado com um espírito de iniciativa, capacidade de resolver problema elaborada da sua própria, e pode até mesmo usar ferramentas. Tudo isto com o cérebro do tamanho de um feijão fava-. Um  estudo de 2004  dos departamentos de comportamento animal e psicologia experimental da Universidade de Cambridge afirmou que os corvos eram tão inteligentes quanto os grandes macacos.

Claramente, não há necessidade de replicar os meandros de um córtex humano para alcançar a consciência e iniciativa. Inteligência não depende apenas do tamanho do cérebro, o número de neurônios, ou a complexidade do córtex, mas também a relação de massa do cérebro para o corpo. É por isso que o gado, que têm cérebros tão grandes quanto os chimpanzés, são mais estúpidos do que os corvos ou camundongos.

Mas o que dizer de computadores? Os computadores são "cérebros" puros. Eles não têm corpos. E, de fato, como os computadores ficam mais rápidos e eficientes, o seu tamanho tende a diminuir, não aumentar. Este é mais um exemplo de que não devemos comparar cérebros biológicos e computadores.

Como Ray Kurzweil explica em sua resposta a Paul Allen, aprendendo sobre como o cérebro humano funciona só servem para fornecer " métodos de inspiração biológica que podem acelerar o trabalho em AI, muito do que tem progredido sem visão significativa sobre a forma como o cérebro executa funções semelhantes. [...] A maneira que essas estruturas maciçamente redundantes no cérebro é diferenciado através da aprendizagem e experiência. O atual estado da arte em AI, no entanto, permitir que os sistemas também aprender com sua própria experiência. " Em seguida, ele acrescenta que  Watson da IBM  aprendeu a maioria de seu conhecimento através da leitura por conta própria.

Em conclusão, não há motivo racional para acreditar que que uma superinteligência artificial não poderia vir a ser, sem ser modelado sobre o cérebro humano, ou qualquer cérebro animal. Uma vez dada a oportunidade de aprender por conta própria e melhorar a si mesmos, máquinas inteligentes poderia assustar uma evolução não-biológicos que causam a maior do que a inteligência humana, e, eventualmente, levando à singularidade. A próxima pergunta é:  É razoável deixar a singularidade acontecer?


Comentários