A inteligência artificial avança no terreno militar e um renomado especialista britânico explica por que é tão importante proibir e legislar o quanto antes sobre esta matéria, antes que a tecnologia caia nas mãos de terroristas. "Isso vai revolucionar a guerra. Este é o terceiro tipo de revolução. A primeira foi quando inventamos a arma de fogo, a segunda foi a bomba nuclear e esta é a terceira revolução: isso vai mudar a forma como pensamos a guerra, vai fazer a guerra muito mais eficiente, muito mais letal e isso é algo que teremos que parar agora antes de termos uma nova corrida armamentista".
Toby Walsh, professor de Inteligência Artificial da Universidade New South Wales, da Austrália, explicou à AFP em Buenos Aires algumas chaves para entender os verdadeiros riscos destas armas se desenvolverem com baixo custo, durante a Conferência Internacional Conjunta de Inteligência Artificial (IJCAI), realizada na capital argentina.
Qual é o risco das "armas ofensivas autônomas", também conhecidas como robôs assassinos?
"Isso vai revolucionar a guerra. Este é o terceiro tipo de revolução. A primeira foi quando inventamos a arma de fogo, a segunda foi a bomba nuclear e esta é a terceira revolução: isso vai mudar a forma como pensamos a guerra, vai fazer a guerra muito mais eficiente, muito mais letal e isso é algo que teremos que parar agora antes de termos uma nova corrida armamentista".
Que diferença existe entre uma arma autônoma e um drone, por exemplo?
"As diferenças entre as armas autônomas e os drones como os que temos visto no Iraque e em outros lugares é que com a primeira não existe um ser humano envolvido no processo. Com o drone ainda existe algum soldado em algum lugar, às vezes manobrando um controle manual (joystick) lá nos Estados Unidos que permite controlar o aparato não tripulado, e portanto é quem tomará a decisão de matar alguém ou não".
Mas no caso dos 'robôs assassinos', "estamos falando que teremos um equipamento (programa) que toma decisões, é um umbral moral completamente diferente que teremos cruzado".
Como se estabelecem as responsabilidades de um crime cometido por uma arma autônoma?
"É muito claro, não teremos o marco legal: foi a pessoas que construiu o robô autônomo?, foi a pessoa que traçou o programa (de funcionamento)?, foi a pessoa que acionou a arma? Quem vai ser responsável?".
Por que este chamado da última terça-feira em uma carta aberta para solicitar que se proíba o uso de armas ofensivas autônomas em conflitos?
"É preciso legislar sobre o tema o mais rápido possível porque a tecnologia pode estar disponível dentro pouco tempo, e é preciso tempo (para estabelecer o marco legal) e os diplomatas não trabalham muito rapidamente. Temos que tomar uma decisão hoje dará forma a nosso futuro e determinar se seguimos um caminho do bem. Apoiamos o chamado por uma série de diferentes organizações humanitárias para a proibição da ONU sobre armas autônomas ofensivas, similar à recente proibição das armas a laser".
Existe algum projeto que balize o conceito de "arma autônoma" e seja positivo para a sociedade?
"A tecnologia que se usa para um automóvel autônomo (sem motorista) é muito parecida ou idêntica a usada para desenvolver uma arma autônoma e por isso vamos contar com essa tecnologia".
"As milhares de pessoas que morrem nas estradas de todos os países irão diminuir com o carro autônomo. Os carros autônomos são muito mais precisos e fazem muito menos erros do que as pessoas", disse Walsh, ao afirmar que sobre este tema também é necessário uma legislação, mas um futuro com veículos que "conversam entre si" no trânsito sem cometer infrações é algo muito mais perto do que pensamos.
FONTE
http://zh.clicrbs.com.br/rs/noticias/noticia/2015/07/inteligencia-artificial-esta-a-um-passo-de-revolucionar-a-guerra-4812486.html
skynet,robôs... PRECISAMOS DE DEUS,JESUS CRISTO E EVANGELHO SEMPRE! ESSAS GUERRAS MUNDIAIS...PODE HAVER O APOCALIPSE ATRAVÉS DE MÁQUINAS IGUAL O FILME DO "EXTERMINADOR DO FUTURO".
ResponderExcluir