Como e quando a Superinteligência Artificial dará nascimento a si própria?


Há um ditado entre os futuristas que uma inteligência artificial humana equivalente será nossa última invenção. Depois disso, IAs será capaz de conceber virtualmente nada sobre o seu próprio - incluindo eles próprios. Veja como uma forma recursiva de auto-melhoria AI poderia se transformar em uma máquina superinteligente.

Quando se trata de compreender o potencial de inteligência artificial, é fundamental entender que um AI pode, eventualmente, ser capaz de modificar-se, e que essas modificações podem permitir-lo para aumentar sua inteligência extremamente rápido.

Passando um limiar crítico

Uma vez sofisticados o suficiente, um AI será capaz de se engajar no que é chamado de "auto-aperfeiçoamento recursiva." Como um AI se torna mais inteligente e capaz, que, posteriormente, vai se tornar melhor na tarefa de desenvolver suas funções cognitivas internas. Por sua vez, estas alterações vão alavancar uma série de melhorias em cascata, cada um fazendo a AI mais inteligente na tarefa de melhorar a si mesmo. É uma vantagem que nós, humanos, biológicos simplesmente não têm.


Como AI teórico Eliezer Yudkowsky observa em seu ensaio, " Inteligência Artificial como um fator positivo e negativo em risco mundial ":

Uma inteligência artificial poderia reescrever seu código a partir do zero - que poderia alterar a dinâmica subjacente de otimização. Tal processo de otimização iria envolver em torno de muito mais fortemente do que qualquer evolução adaptações ou seres humanos acumulando acumulando conhecimento. A implicação fundamental para os nossos propósitos é que a AI pode fazer um enorme salto na inteligência depois de atingir um limite de criticidade.

Quando se trata da velocidade dessas melhorias, Yudkowsky diz é importante não confundir a velocidade atual da pesquisa AI com a velocidade de um verdadeiro AI uma vez construído. Essas são duas muito coisas diferentes. Além do mais, não há nenhuma razão para acreditar que um AI não vai mostrar um enorme salto repentino na inteligência, resultando em uma conseqüente "explosão de inteligência" ( um termo melhor para a Singularidade ). Ele faz uma analogia com a expansão do cérebro e do córtex pré-frontal humano - um limite fundamental na inteligência que nos permitiu dar um salto evolutivo na eficácia profunda do mundo real; "Passamos de cavernas aos arranha-céus em um piscar de um olho evolutivo."

É hora de desistir da Singularidade?

Alguns futuristas e escritores de ficção científica prevêem que estamos no limiar de um mundo em mudança "Singularidade Tecnológica". Os céticos dizem que não haverá tal coisa. Hoje, eu vou debater autor Ramez Naam sobre qual é o lado certo.


Um recente artigo por Erik Sofge em Ciência Popular realmente tenho minhas polêmica cima. Sofge argumentou que o Singularity não é nada mais do que uma iniciativa baseada na fé com infusão de ficção científica - uma reivindicação Tenho grande exceção a determinado (1) o poder preditivo e importância da ficção especulativa, e (2) a possibilidade muito real de nossas tecnologias escapando dos limites da nossa compreensão e controle. Em seu artigo, Sofge descrito futurista Ramez Naam como um "cético Singularity", o que me levou a contactá-lo e ter um debate. Veja como a nossa conversa se ​​desenrolava.

George : Você foi recentemente descrito por Sofge como um "cético Singularidade", o que para mim veio como um pouco de surpresa, dado o seu historial incrível como um futurista e scifi romancista. Você já especularam sobre coisas como interligados colmeia-mente e o upload de consciência humana para um computador - mas você desenhar a linha, ao que parece, a inteligência de super artificial (SAI). Agora, estou absolutamente convencido de que nós vamos, eventualmente, desenvolver uma superinteligência máquina com capacidades que excedem a nossa própria por uma ordem de magnitude - levando à Singularidade Tecnológica, ou os chamados de explosão Inteligencia (meu termo preferido). Mas se eu entendo suas objeções corretamente, você está sugerindo que a preponderância pendente de altamente especializada AI generalizada nunca vai ser uma superinteligência - e que o nosso historial AI até hoje comprova isso. Eu acho que é importante que você esclarecer e elaborar sobre isso, até porque você está negando algo que muitos respeitados pensadores e teóricos AI descrever como um risco existencial . Além disso, eu também estou esperando que você pode fornecer sua própria definição da Singularidade apenas para garantir que estamos falando a mesma coisa.

Mez : Ei, George. É ótimo estar em diálogo. Para ser claro, eu 100% acreditam que é possível, em princípio, para criar mais inteligente do que a humana inteligência da máquina, seja através da concepção de AIs ou fazendo o upload de mentes humanas para computadores. E você está certo, eu falo sobre algumas dessas em Nexus e meus outros romances. Dito isso, eu acho que é tremendamente mais difícil e mais longe do que os defensores mais entusiastas acreditam atualmente. Eu falei sobre isso no blog de ​​Charlie Stross, em uma peça chamada " The Singularity é mais do que parece . " A maioria trabalha em AI tem nada a ver com a mente de construção capazes de raciocínio geral. E upload cérebros humanos ainda tem enormes incógnitas.

Meu outro problema é com a palavra 'Singularidade'. Você me pediu para defini-lo. Bem, a 'Singularidade' em matemática é um momento de divisão por zero, quando o valor vai de um número finito para o infinito em um piscar de olhos. Na física, é uma ruptura em nossos modelos matemáticos em um buraco negro. Mais inteligente do que a humana AI seria muito legal. Seria mudar o nosso mundo muito. Eu não acho que ele merece uma palavra em qualquer lugar próximo tão grandioso como "Singularidade". Não seria uma divisão por zero. O gráfico não seria de repente ir ao infinito. Sendo duas vezes tão inteligente quanto um ser humano não quer dizer, de repente você pode fazer-se infinitamente inteligente.

George : Ok, sua posição sobre esta é agora consideravelmente mais clara para mim, embora eu ainda tenho algumas preocupações. No contexto de uma singularidade ou o advento de uma inteligência maior que a humana, não estamos realmente discutindo raciocínio geral semelhante à humana, nem estamos falando de sensibilidade artificial. Estes dois conceitos muitas vezes se aglomeradas no debate e por razões que não são completamente evidente para mim. Não vai demorar um super AGI para refazer o tecido da condição humana, para converter o planeta em um meio para seus próprios fins, ou cometer um erro colossal. Na verdade, a ameaça real (ou promessa, dependendo de sua persuasão Singularitarian) de uma ASI vem da mesma coisa que você acredita é possível: estreito - mas poderosa - AI. Nós não vai precisar fazer engenharia reversa do cérebro humano para chegar lá, por isso não é tão difícil ou distante no futuro, como você pode acreditar.

O Caminho para a Auto modificação artificial.

O código que é capaz de alterar suas próprias instruções enquanto ele ainda está em execução tem sido em torno de um tempo. Normalmente, isso é feito para reduzir o comprimento do caminho de instrução e melhorar o desempenho, ou simplesmente para reduzir o código repetidamente similar. Mas, para todos os efeitos, não há auto-conhecimento, auto-aperfeiçoamento dos sistemas de IA hoje.

Mas, como nossa invenção final autor James Barrat me disse, nós temos um software que pode escrever software.

"A programação genética é uma técnica de aprendizado de máquina que utiliza a força da seleção natural para encontrar respostas para os problemas que levaria os seres humanos há muito tempo, até anos, para resolver", disse io9. "Ele também é usado para escrever, software de alta potência inovadora."


Por exemplo, objetos primários tem embarcou em um projeto que utiliza inteligência artificial simples escrever programas. Os desenvolvedores estão usando algoritmos genéticos imbuídos de auto-modificação, código de auto-aperfeiçoamento e minimalista (mas Turing-completo) brainfuck linguagem de programação. Eles escolheram este idioma como uma forma de desafiar o programa - que tem que ensinar a si mesmo a partir do zero como fazer algo tão simples como escrever "Olá mundo!" com apenas oito comandos simples. Mas chamar isso de uma abordagem AI é um bocado de um estiramento; os algoritmos genéticos são uma forma de força bruta de obter um resultado desejável. Dito isso, uma abordagem de acompanhamento em que a AI foi capaz de gerar programas para aceitar a entrada do usuário parece mais promissor.

De um modo semelhante, Larry Diehl fez um trabalho semelhante usando uma linguagem baseada em pilha .

Barrat também me contou sobre um software que aprende - ". aprendizado de máquina" As técnicas que são agrupados sob o termo de programação

O Pentágono está particularmente interessado neste jogo. Através DARPA, a sua esperança de desenvolver um computador que pode ensinar a si mesmo . Em última análise, ele quer criar máquinas que são capazes de realizar uma série de tarefas complexas, como a aprendizagem não supervisionada, visão, planejamento e seleção de modelos estatísticos. Estes computadores vão mesmo ser usados ​​para nos ajudar a tomar decisões quando os dados é muito complexa para nós entendermos por nossa conta. Tal arquitetura pode representar um passo importante na inicialização - a capacidade de um AI para ensinar a si mesmo e, em seguida, re-escrever e melhorar a sua programação inicial.

Em conjunto com este tipo de pesquisa, abordagens cognitivas para emulação cérebro também poderia levar a humano-como AI. Tendo em conta que eles estariam baseado em computador, e assumindo que eles pudessem ter acesso ao seu próprio código fonte, esses agentes poderiam embarcar em auto-modificação. Mais realisticamente, no entanto, é provável que uma superinteligência vão surgir a partir de um sistema especialista definido com a tarefa de melhorar sua própria inteligência. Alternativamente, sistemas especialistas especializados poderia projetar outras inteligências artificiais, e através de seus esforços acumulados, desenvolver um sistema que, eventualmente, torna-se maior do que a soma de suas partes.

Dado que ASI representa um risco existencial, é importante considerar as maneiras em que nós pode ser capaz de impedir que um AI de melhorar a si mesmo além da nossa capacidade de controlar. Dito isso, podem existir limitações ou disposições que impedem um AI de embarcar no caminho para a auto-engenharia. James D. Miller, autor de Singularidade Nascente , forneceu-me com uma lista de quatro razões pelas quais uma AI pode não ser capaz de fazê-lo:

1. Ele pode ter o código-fonte que faz com que ele não quer modificar-se.

2. O primeiro humano AI equivalente pode exigir grandes quantidades de hardware e assim por um curto período de tempo, não seria possível obter o hardware extra necessário para modificar-se.

3. O primeiro humano AI equivalente poderia ser uma emulação do cérebro ( como sugerido por Robin Hanson ) e isso seria tão difícil de modificar, pois é para me modificar, por exemplo, a cópia de Minecraft que meu filho usa constantemente. Isso pode acontecer se nós somos capazes de copiar o cérebro antes de realmente entendê-la. Mas ainda assim você acha que poderíamos, pelo menos, acelerar tudo.

4. Se ele tem valores terminais, que não gostaria de modificar esses valores, pois isso tornaria menos provável a atingir os seus valores terminais.

E por valores terminais Miller está se referindo a um objetivo final, ou um fim-em-si. Yudkowsky descreve-o como um "supergoal". Uma grande preocupação é que um ASI amoral vai varrer a humanidade de lado, uma vez que trabalha para realizar o seu valor terminal, ou que seu objetivo final é a re-engenharia da humanidade de uma forma grosseiramente indesejável (pelo menos do nosso ponto de vista).

Miller diz que poderia ficar mais rápido simplesmente por correr em processadores mais rápidos.

"Também poderia fazer mudanças em seu software para obter mais eficiente, ou um desenho ou roubar melhor hardware. Ele faria isso para que ele pudesse realizar melhor os seus valores terminais", diz ele. "Um AI que domina nanotecnologia provavelmente expandir quase à velocidade da luz, incorporando tudo em si mesmo."

Mas nós não podemos ser completamente indefeso. Segundo Barrat, uma vez que os cientistas conseguiram Inteligência Artificial Geral - a AI semelhante à humana - que poderiam restringir o seu acesso a redes, hardware e software, a fim de evitar uma explosão de inteligência.


"No entanto, como proponho no meu livro, um AI aproximando AGI pode desenvolver habilidades de sobrevivência, como enganar seus criadores sobre a sua taxa de desenvolvimento. Poderia jogar mudo até que ele compreendeu o seu ambiente bem o suficiente para escapar."

Em termos de ser capaz de controlar este processo, Miller diz que a melhor maneira seria criar um AI que só queria modificar-se de maneiras que iria aprovar.

"Então, se você criar um AI que tem um valor terminal de simpatia para a humanidade, a AI não gostaria de mudar-se de uma forma que causou a ser hostil à humanidade", diz ele. "Desta forma, como a AI ficou mais inteligente, ele usaria sua inteligência aprimorada para aumentar as chances de que isso não mudava-se de uma maneira que nos prejudica."

Rápido ou lento?

Como observado anteriormente, a AI melhorar de forma recursiva poderia aumentar sua inteligência de forma extremamente rápida. Ou, é um processo que pode levar tempo, por várias razões, tais como a complexidade tecnológica ou acesso limitado a recursos. É uma questão em aberto saber se podemos ou não esperar um evento de take-off rápido ou lento.


"Eu sou um crente na versão rápida decolagem da explosão de inteligência", diz Barrat. "Uma vez que um auto-conhecimento, auto-melhoria de AI-nível humano ou melhor inteligência existe, é difícil saber o quão rápido ele vai ser capaz de melhorar a si mesmo. Sua taxa de melhoria dependerá de seu software, hardware e recursos de rede . "

Mas, para ser seguro, Barrat diz que devemos assumir que o auto-aperfeiçoamento recursiva de uma AGI vai ocorrer muito rapidamente. Como um computador, ele vai empunhar superpotências computador - a capacidade de funcionar 24/7, sem pausa, rapidamente acessar vastos bancos de dados, realização de experiências complexas, talvez até clonar-se a pulular problemas computacionais, e muito mais.

"A partir daí, a AGI estaria interessado em perseguir qualquer objetivo que foi programado com -. Tais como a pesquisa, exploração, ou finanças Segundo a AI teórico Drives de Steve Omohundro Básico análise , auto-aperfeiçoamento seria uma maneira infalível para melhorar a sua chances de sucesso ", diz Barrat. "Então seria auto-proteção, aquisição de recursos, criatividade e eficiência. Sem um sistema ético comprovadamente confiável, suas unidades entrarem em conflito com a nossa, e wo uld representam uma ameaça existencial ".

Miller concorda.

"Eu acho que logo após um AI atinge o nível humano de inteligência que irá atualizar-se a super-inteligência", ele me disse. "No mínimo, a AI poderia fazer muitas cópias de si mesmo, cada um com uma mudança diferente menor e depois ver se alguma das novas versões de si eram melhores. Então ele poderia fazer isso a nova versão" oficial "de si mesmo e continuar fazendo isso. Qualquer AI teria a temer que se não atualizar rapidamente outro AI se e tomar todos os recursos do universo para si mesmo. "

Que trazer um ponto que não é muito discutido nos círculos de IA - o potencial para AGIs para competir com outros AGIs. Se até mesmo um pouco de auto-preservação é codificado em uma forte inteligência artificial (e que o senso de auto-preservação poderia ser a detecção de uma obstrução ao seu valor terminal), que poderia entrar em uma corrida armamentista-relâmpago ao longo dessas verticais projetados para assegurar a sua contínua existência e ação de liberdade de futuro . E, de fato, enquanto muitas pessoas temem o chamado "robô apocalipse" voltado diretamente para extinguir a nossa civilização, eu pessoalmente acho que o verdadeiro perigo para a nossa existência em curso encontra-se no potencial para sermos danos colaterais como AGIs avançados batalha para fora pela supremacia; podemos nos encontrar na linha de fogo. Na verdade, a construção de um AI seguro será um monumental - se não intratável - tarefa.


Comentários