4 Novembro 2021

A Amnistia Internacional e a campanha Stop Killer Robots (em português “Parar os Robôs Assassinos”) apresentaram um filtro para redes sociais que proporciona um olhar aterrador sobre o futuro da guerra, do policiamento e do controlo de fronteiras. Escape the Scan (Escapar ao rastreamento), um filtro para o Instagram e Facebook, faz parte de uma grande campanha que apela a nova legislação internacional para proibir sistemas de armas autónomos. Utiliza tecnologia de realidade aumentada (RA) para retratar aspetos de sistemas de armas que já se encontram em desenvolvimento, tais como reconhecimento facial, sensores de movimento, e a capacidade de lançar ataques contra ‘alvos’ sem controlo humano significativo.

Vários países estão a investir fortemente no desenvolvimento de armas autónomas, apesar das devastadoras implicações, em termos de direitos humanos, de conceder a máquinas controlo sobre o uso da força. No próximo mês de dezembro, um grupo de peritos da ONU vai reunir-se para decidir se deve ou não começar a negociar uma nova lei internacional sobre autonomia nos sistemas de armamento. A Amnistia Internacional e a Stop Killer Robots lançaram uma petição, que insta todos os governos a manifestarem o seu apoio às negociações.

“Estamos a tropeçar num cenário de pesadelo, um mundo onde drones e outras armas avançadas podem selecionar e atacar alvos sem controlo humano. Este filtro está desenhado para dar às pessoas uma ideia do de que os robôs assassinos poderão ser capazes de fazer brevemente, e mostrar porque devemos agir urgentemente para manter o controlo humano sobre o uso da força”, afirmou Verity Coyle, consultora sénior da Amnistia Internacional sobre Assuntos Militares, Segurança e Policiamento.

“Permitir que máquinas tomem decisões de vida ou morte é um ataque à dignidade humana e, provavelmente, resultará em violações devastadoras das leis de guerra e de direitos humanos. Também intensificará a desumanização digital da sociedade, reduzindo pessoas a conjuntos de dados para serem processados”

Verity Coyle

“Permitir que máquinas tomem decisões de vida ou morte é um ataque à dignidade humana e, provavelmente, resultará em violações devastadoras das leis de guerra e de direitos humanos. Também intensificará a desumanização digital da sociedade, reduzindo pessoas a conjuntos de dados para serem processados. Precisamos de um tratado internacional robusto e juridicamente vinculativo, para impedir a proliferação de robôs assassinos – antes que seja demasiado tarde.”

Escape the Scan – Vídeo de demonstração

 

Escape the Scan estará disponível a partir de 2 de novembro, nas páginas Instagram e Facebook da Stop Killer Robots. Uma versão maior do filtro estará em exibição, na forma de experiência interativa, em Westfield Stratford City, em Londres – um dos maiores centros comerciais na Europa –durante duas semanas a partir de 2 de novembro.

 

Tempo de traçar uma linha

“Tivemos uma década de conversações sobre armas autónomas nas Nações Unidas, mas estas estão a ser bloqueadas pelos mesmos Estados que estão a desenvolver as armas”, revelou Ousman Noor, da campanha Stop Killer Robots.

“O Secretário-Geral da ONU, o Comité Internacional da Cruz Vermelha, assim como vencedores do Prémio Nobel, milhares de cientistas, engenheiros de robótica e profissionais de tecnologias avançadas, estão a apelar por um tratado legal que previna estas armas – é preciso que os governos traçem uma linha contra máquinas que podem escolher matar.”

A 2 de dezembro de 2021, o Grupo de Peritos Governamentais da Convenção sobre Armas Convencionais (CCAC) iniciará conversações críticas sobre a oportunidade de prosseguir com negociações sobre um novo tratado, para enfrentar a ameaça que os robôs assassinos representam. Até ao momento, 66 Estados apelaram a um novo quadro juridicamente vinculativo sobre a autonomia dos sistemas de armas. Mas o progresso tem sido travado por um pequeno número de Estados poderosos, incluindo a Rússia, Israel e os EUA, que veem como prematura a criação de um novo direito internacional.

A substituição de tropas por máquinas tornará mais fácil a decisão de entrar em guerra. Além disso, as máquinas não podem fazer escolhas éticas complexas no contexto de campos de batalha imprevisíveis ou em cenários do mundo real; não existe substituto para a tomada de decisão humana. Já vimos como tecnologias como as de reconhecimento facial, emocional, de postura e de voz falham em reconhecer mulheres, pessoas de várias etnias e pessoas com deficiência; e como causam enormes danos em matérias de direitos humanos, mesmo quando “funcionam”. A utilização destas tecnologias em campo de batalha, na segurança pública ou no controlo de fronteiras, seria desastrosa.

Apesar destas preocupações, países como os Estados Unidos da América, China, Israel, Coreia do Sul, Rússia, Austrália, Índia, Turquia e Reino Unido (RU) estão a investir fortemente no desenvolvimento de sistemas autónomos. Por exemplo, o RU está a desenvolver um drone não tripulado, capaz de voar em modo autónomo e de identificar um alvo dentro de uma zona programada. A China está a criar pequenos “enxames” de drones que poderão ser programados para atacar qualquer coisa que emita uma temperatura corporal, enquanto a Rússia construiu um taque robótico ao qual podem ser adaptados uma metralhadora ou lança-granadas.

A Stop Killer Robots é uma aliança global de mais de 180 ONG internacionais, regionais e nacionais, e parceiros académicos, que trabalham em 66 países para assegurar controlo humano significativo sobre o uso da força através do desenvolvimento de uma nova lei internacional. A Amnistia Internacional é uma das nove organizações no comité de direção desta aliança.

Recursos

Artigos Relacionados