Translate

terça-feira, 29 de setembro de 2015

Robôs assassinos são ameaça à segurança global


A seção Forum, da Scientific American, publica ensaios de especialistas convidados sobre temas atuais em ciência e tecnologia.

Em 28 de julho, o Instituto Future of Life (Futuro da Vida, FLI na sigla em inglês), com sede na área de Boston, divulgou uma carta aberta assinada por cerca de 1.500 pesquisadores de inteligência artificial (IA), robótica e tecnologia.

Entre os signatários, estão celebridades da ciência e tecnologia, como Stephen Hawking, Elon Musk e Steve Wozniak, além de intelectuais como Noam Chomsky e Daniel Dennett.

O documento pede a proibição internacional de dispositivos autônomos ofensivos, capazes de visar alvos e disparar armas sem controle humano significativo.

Os dias 6 e 9 de agosto marcaram o 70º aniversário dos bombardeios atômicos das cidades japonesas de Hiroshima e Nagasaki, que juntos mataram mais de 200 mil pessoas, a maioria civis.

Dez 10 anos após os infames ataques, o físico Albert Einstein e o filósofo Bertrand Russell, junto com outros nove cientistas e intelectuais de renome, divulgaram uma carta exigindo uma ação global para lidar com a ameaça que as armas nucleares representavam para a humanidade.

Eles foram motivados pela devastação atômica no Japão, mas também pela escalada da corrida armamentista da Guerra Fria, que aumentava rapidamente e em larga escala o número, a capacidade destrutiva, e o lançamento eficiente de artefatos atômicos, drenando enormes recursos e colocando a humanidade em risco de total aniquilação.

Em sua mensagem, os autores também salientavam que os que mais sabiam sobre os efeitos dessas armas eram os mais preocupados e pessimistas quanto ao seu contínuo desenvolvimento e uso.

A carta do FLI é significativa pelas mesmas razões.

Subscrita por um grande grupo de especialistas que mais conhecimentos têm sobre robótica e IA, em uma semana o documento saltou de suas aproximadamente 1.500 assinaturas originais para 17 mil.

Os signatários incluem muitos atuais e ex-presidentes, fellows e membros da Associação Americana de Inteligência Artificial, da Associação de Máquinas para Computação (ACM), e da Sociedade de Robótica e Automação, do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE); editores de grandes publicações científicas sobre IA e robótica; e integrantes-chave de empresas líderes em inteligência artificial, como as equipes do Google DeepMind, Facebook, e Watson da IBM.

Como Max Tegmark, professor de física do Instituto de Tecnologia de Massachusetts (MIT) e um dos fundadores do Instituto Futuro da Vida, declarou à revista digital Motherboard, “esses são os especialistas em IA, que estão construindo a tecnologia, que estão se pronunciando e dizendo que não querem ter nada a ver com isso”.

Armas robóticas representam sérias ameaças que, em conjunto, tornam uma proibição necessária.

Existem, por exemplo, preocupações se algoritmos de inteligência artificial seriam efetivamente capazes de distinguir civis de combatentes, especialmente em ambientes complexos de conflito.

 

Mesmo algoritmos avançados de IA não teriam a compreensão situacional ou a capacidade de determinar se o uso de força violenta foi apropriado, ou proporcional, em determinada circunstância.

Discriminação e proporcionalidade são exigências de leis internacionais para humanos que visam alvos e disparam armas de fogo, mas armas autônomas abririam uma lacuna de responsabilidade nessas determinações.

Como humanos não saberiam mais que alvos uma arma autônoma poderia selecionar, e como seus efeitos podem ser imprevisíveis, não haveria ninguém para ser responsabilizado pela morte e destruição que resultaria da ativação de um dispositivo desses.

Depois, como salienta a carta do FLI, há ameaças à estabilidade regional e global, além de sérios riscos para a humanidade.

O desenvolvimento de armas autônomas poderia levar muito rápida e facilmente a corridas armamentistas entre rivais.

Elas reduziriam os riscos para combatentes e assim poderiam diminuir os riscos políticos de se ir à guerra, o que resultaria em mais conflitos armados.

No entanto, elas poderiam ser destruídas (picadas), imitadas ou sequestradas; e dirigidas contra seus proprietários, civis ou terceiras partes.

Esses armamentos também poderiam iniciar ou escalar conflitos armados automaticamente, sem nenhuma tomada de decisão humana.

Em um futuro em que armas robóticas lutam contra outras armas independentes os resultados seriam intrinsecamente imprevisíveis, e muito mais propensos a levar à destruição em massa de civis e do meio ambiente que as guerras sem derramamento de sangue vislumbradas por alguns.

Criar uma violência automatizada, altamente eficiente, provavelmente levará a mais, e não a menos, violência.

Além disso, há também uma profunda questão moral em jogo.

Qual é o valor da vida humana se delegamos a responsabilidade de decidir quem vive e quem morre a máquinas? Em que tipo de mundo queremos viver para depois repassá-lo aos nossos filhos?

Um em que programas de IA e robôs têm os meios e a autoridade para usar força violenta e matar pessoas?

Se temos a oportunidade de criar um mundo em que armas autônomas são proibidas, e onde aqueles que talvez as usem são estigmatizados e responsabilizados por seus atos, não temos uma obrigação moral de trabalhar rumo a um mundo assim?

Podemos evitar o desenvolvimento de armas autônomas antes que elas precipitem corridas armamentistas e ameacem a segurança global, e antes que elas se tornem armas de destruição em massa.

Mas nossa janela de oportunidade para fazer isso está se fechando rapidamente.

Durante os últimos dois anos, a Campanha para Parar Robôs Assassinos tem instado as Nações Unidas a proibir armas autônomas.

A Convenção da ONU sobre Certas Armas Convencionais (CCW) já realizou dois encontros de especialistas no assunto, e nossa coalizão de 54 organizações não governamentais* de 25 países está encorajando a CCW a avançar essas discussões rumo à negociação de um tratado internacional.

Apreciamos muitíssimo o apoio conferido pela atual carta, mas precisamos continuar incentivando as nações representadas na CCW a seguir adiante nessa questão.

A natureza fundamental de uma corrida armamentista envolve a ação de países para melhorar seus próprios interesses de curto prazo à custa não só de seus próprios benefícios em longo prazo, mas também os do mundo.

Como deixa bem claro a carta de Einstein e Russell, “temos de aprender a pensar de um jeito novo. Temos de aprender a não nos perguntar que medidas podem ser tomadas para dar uma vitória militar a qualquer que seja o grupo de nossa preferência, porque já não existem medidas desse tipo. A pergunta que temos de nos fazer é: Que medidas podem ser tomadas para evitar um confronto militar, cujo desenlace certamente será desastroso para todas as partes”?

Precisamos continuar exigindo que nossos líderes e formuladores de políticas trabalhem em conjunto com outras nações para eliminar antecipadamente as ameaças representadas por armas robóticas, ao proibirem seu desenvolvimento e utilização antes que testemunhemos a destruição em massa que elas ameaçam trazer.

*O comitê orientador da campanha inclui as Conferências Pugwash sobre Ciência e Assuntos Mundiais, uma organização criada em resposta direta à carta de Einstein, Russell et al., e a AAR, uma ONG japonesa que divulgou um comunicado por ocasião do aniversário dos bombardeios de Hiroshima e Nagasaki.  

Publicado em Scientific American

Nenhum comentário:

Postar um comentário