Um robô pode aprender oque é certo ou errado? - Pesquisadores estão trabalhando em robôs que podem fazer escolhas éticas e, em seguida, explicar por que


No conto de Isaac Asimov "Runaround", dois cientistas em Mercúrio descobrem que estão ficando sem combustível para a base humana. Eles enviam um robô chamado Speedy em uma perigosa missão para coletar mais, mas cinco horas depois, eles encontram em execução Speedy em círculos e recitando um disparate.

Acontece Speedy está tendo uma crise moral: ele é obrigado a obedecer a ordens humanas, mas ele também está programado para não causar danos a si mesmo. "Ele atinge um equilíbrio", um dos cientistas observa. "Regra três unidades de volta e regra dos dois discos para frente."

COMO ROBÔS FILTRAR PARA O MUNDO REAL, OS SISTEMAS MORAIS TORNAM-SE MAIS IMPORTANTE?

A história de Asimov foi criado em 2015, que foi um pouco prematuro. Mas robôs casa-helper são alguns anos fora, robôs militares são iminentes, e os carros de auto-condução é já aqui . Estamos prestes a ver a primeira geração de robôs trabalhando ao lado de seres humanos no mundo real, onde serão confrontados com conflitos morais. Pouco tempo depois, um carro que dirige sozinho vai encontrar-se no mesmo cenário, muitas vezes colocada em salas de aula de ética como o "bonde" hipotético - é melhor não fazer nada e deixar que cinco pessoas morrem, ou fazer alguma coisa e matar um?

Não há resposta certa para a hipotética trolley - e mesmo se houvesse, muitos especialistas em robótica acreditam que seria impraticável para prever cada cenário e programa o que o robô deve fazer.

"É quase impossível conceber um complexo sistema de 'se, então, senão" regras que cobrem todas as situações possíveis ", diz Matthias Scheutz, professor de ciência da computação na Universidade Tufts. "É por isso que este é um problema tão difícil. Você não pode simplesmente listar todas as circunstâncias e todas as ações."

COM A NOVA RAZÃO DE ABORDAGEM, OS ROBÔS ATRAVÉS DE ESCOLHAS, EM VEZ DE REGRAS PODERÃO APLICÁ-LAS?

Em vez disso, Scheutz está tentando projetar cérebros de robôs que podem raciocinar através de uma decisão moral a maneira como um humano faria. Sua equipe, que recebeu recentemente uma concessão $ 7500000 do Escritório de Pesquisa Naval (ONR), está planejando um estudo aprofundado para analisar o que as pessoas pensam sobre quando fazem uma escolha moral. Os pesquisadores, então, tentar simular que o raciocínio em um robô.

No final do projeto de cinco anos, os cientistas devem apresentar uma demonstração de um robô de tomar uma decisão moral. Um exemplo seria um médico robô que foi condenada a entregar suprimentos de emergência para um hospital, a fim de salvar vidas. No caminho, ele encontra um soldado que foi gravemente ferido. Caso o robô abortar a missão e ajudar o soldado?

Para o projeto de Scheutz, a decisão do robô torna as coisas menos do que o fato de que pode tomar uma decisão moral e dar uma razão coerente porque - pesando os fatores relevantes, chegar a uma decisão, e explicando que a decisão após o fato. "Os robôs que estamos vendo lá fora, são cada vez mais complexo, mais e mais sofisticados, e cada vez mais autônoma", diz ele. "É muito importante para nós começar a fazer isso. Nós definitivamente não quer uma sociedade futura onde estes robôs não são sensíveis a esses conflitos morais".

A abordagem da Scheutz não é o único. Ron Arkin, um especialista em ética bem conhecido no Georgia Institute of Technology, que também trabalhou com os militares, escreveu o que é sem dúvida o primeiro sistema de moral para os robôs. Sua "governador ética", um conjunto de regras Asimov-like que intervêm sempre que o comportamento do robô ameaça desviar fora certas restrições, foi projetado para manter robôs weaponized em cheque.

A ESPERANÇA É QUE, EVENTUALMENTE, OS ROBÔS IRÃO TOMAR MELHORES DECISÕES MORAIS DO QUE OS SERES HUMANOS?

Para a concessão ONR, Arkin e sua equipe propuseram uma nova abordagem. Em vez de usar um sistema baseado em regras como o governador ética ou uma abordagem de "psicologia popular" como Scheutz de, a equipe de Arkin quer estudar o desenvolvimento moral em crianças. Essas lições serão integrados no Soar arquitetura , um sistema cognitivo popular para robôs que emprega tanto a resolução de problemas e objetivos globais. Depois de ter perdido para fora sobre a concessão, Arkin ainda espera a perseguir partes da proposta. Infelizmente, não há muito o financiamento disponível para o robô moralidade.

A esperança é que, eventualmente, os robôs serão capazes de realizar cálculos mais morais do que um ser humano jamais poderia, e, portanto, fazer melhores escolhas. Um motorista humano não tem tempo para calcular o dano potencial para os seres humanos em uma fração de segundo acidente, por exemplo.

Há um outro grande desafio antes que seja possível, no entanto. A fim de fazer esses cálculos, os robôs terão de reunir um monte de informações do ambiente, por exemplo, como muitos seres humanos estão presentes e qual o papel que cada um deles desempenha na situação. No entanto robôs de hoje hoje ainda tem percepção limitada. Vai ser difícil para projetar um robô que pode dizer soldados aliados dos inimigos no campo de batalha, por exemplo, ou ser capaz de avaliar imediatamente a condição física e mental da vítima de desastre.

É incerto se o esforço do ONR para projetar um sistema de raciocínio moral será prático. Pode acontecer que os robôs fazer melhor na tomada de decisões de acordo com as amplas e regras hierárquicas. No final da história de Asimov, os dois cientistas são capazes de sacudir Speedy fora do seu loop infinito, invocando o primeiro e mais fortemente ponderada lei da robótica: nunca ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Um cientista se expõe ao sol Mercurial mortal até Speedy encaixe fora de seu funk e vem para o resgate. O robô é todos os pedidos de desculpas, o que parece injusto - é um escravo de sua programação, depois de tudo. E como diz Arkin, "É difícil saber o que é certo e o que é errado."

Por Adrianne Jeffries

Leia mais na Fonte: http://www.theverge.com/

Comentários