3 Outubro 2023

A Amnistia Internacional considera que a União Europeia (UE) deve proibir as tecnologias perigosas alimentadas pela Inteligência Artificial através de legislação específica para esse efeito, numa altura em que está a ser finalizado o manual de regras de utilização de Inteligência Artificial a uma escala global.

São muitos os países que implementaram sistemas de IA não regulamentados para avaliar pedidos de assistência social, monitorizar espaços públicos ou determinar a probabilidade de alguém cometer um crime. Estas tecnologias são frequentemente consideradas “soluções técnicas” para questões estruturais como a pobreza e a discriminação. Utilizam dados sensíveis e, muitas vezes, surpreendentes, que são introduzidos em sistemas automatizados para decidir se os indivíduos devem ou não ter direito a habitação, benefícios, cuidados de saúde e educação.

No entanto, em vez de resolverem os problemas sociais, muitos sistemas de IA amplificaram de forma flagrante o racismo e as desigualdades e intensificaram os danos causados em termos de direitos humanos.

“Os legisladores da UE devem formular leis que abordem os problemas existentes, como o facto de estas tecnologias serem utilizadas para tomar decisões discriminatórias”

Mher Hakobyan

“Em vez de se concentrarem  nas ‘ameaças existenciais’ colocadas pela IA, os legisladores da UE devem formular leis que abordem os problemas existentes, como o facto de estas tecnologias serem utilizadas para tomar decisões discriminatórias que prejudicam o acesso aos direitos humanos básicos”, afirmou Mher Hakobyan, conselheiro da Amnistia Internacional para a regulamentação da IA.

 

Privação de direitos

Em 2021, a Amnistia Internacional documentou a forma como um sistema de IA utilizado pelas autoridades fiscais neerlandesas tinha traçado um perfil racial dos beneficiários de prestações de acolhimento de crianças. A ferramenta deveria verificar se os pedidos de benefícios eram genuínos ou fraudulentos, mas o sistema penalizou erroneamente milhares de pais de baixa renda e imigrantes, mergulhando-os em dívidas exorbitantes e na pobreza.

Batya Brown, que foi falsamente acusada de fraude no sistema holandês de acolhimento de crianças, disse que as autoridades fiscais holandesas lhe exigiram o reembolso de centenas de milhares de euros. Ficou enredada numa rede de burocracia e ansiedade financeira. Anos mais tarde, a justiça continua por ser feita.

“Foi muito estranho. Recebi uma carta a dizer que me tinham dado indevidamente o subsídio de guarda de crianças. E pensei: ‘Como é que isto é possível?’. Eu tinha 20 e poucos anos. Não sabia muito sobre as autoridades fiscais. Dei por mim num mundo de papelada. Vi tudo a fugir-me. Desde que fomos reconhecidas como vítimas daquilo a que chamo o ‘crime das prestações sociais’, quatro anos depois continuamos a ser tratadas como um número”, afirmou Batya Brown.

 

Proibir a utilização de sistemas de vigilância intrusivos

Sob o pretexto da “segurança nacional”, os sistemas de reconhecimento facial estão a tornar-se um instrumento de eleição para os governos que procuram vigiar excessivamente os indivíduos na sociedade.  Os sistemas são utilizados em espaços públicos para identificar indivíduos que possam ter cometido um crime, apesar do risco de detenção indevida.

A Amnistia Internacional, no âmbito de uma coligação de mais de 155 organizações, apelou à proibição total do reconhecimento facial em direto em espaços acessíveis ao público, incluindo zonas fronteiriças e em torno de instalações de detenção, por todos os intervenientes, sem exceções na UE.

Em locais como Nova Iorque, Hyderabad e os Territórios Palestinianos Ocupados (TPO), a Amnistia Internacional documentou e expôs a forma como os sistemas de reconhecimento facial aceleram o controlo e discriminação existentes.

Nos TPO, as autoridades israelitas estão a utilizar o reconhecimento facial para policiar e controlar os palestinianos, restringindo a sua liberdade de movimentos e a sua capacidade de aceder a direitos básicos.

A investigação da Amnistia Internacional também revelou como as câmaras fabricadas pela TKH Security, uma empresa holandesa, estão a ser utilizadas como parte do aparelho de vigilância na Jerusalém Oriental ocupada.

 

Abusos contra migrantes

Os Estados-Membros da UE têm recorrido cada vez mais à utilização de tecnologias dúbias e hostis para facilitar os abusos contra migrantes, refugiados e requerentes de asilo nas suas fronteiras.

Os legisladores devem proibir os sistemas racistas de definição de perfis e de avaliação de riscos, que classificam os migrantes e os requerentes de asilo como “ameaças”, bem como as tecnologias de previsão, que são utilizadas para prever os movimentos nas fronteiras e negar às pessoas o direito de asilo.

“Cada vez que passamos por um aeroporto, cada vez que atravessamos uma fronteira, cada vez que nos candidatamos a um emprego, estamos sujeitos às decisões destes modelos. Não precisamos de chegar ao ponto do Exterminador do Futuro ou do Matrix para que estas ameaças sejam existenciais. Para as pessoas, são existenciais se estiverem a tirar as suas oportunidades de vida e os seus meios de subsistência”, disse Alex Hanna, Diretor de Investigação do Distributed AI Research Institute (DAIR).

 

Lei da IA não deve dar poder às grandes empresas

As grandes empresas de tecnologia também fizeram lobby para introduzir lacunas no processo de classificação de risco da Lei da IA, o que permitiria às empresas de tecnologia determinar se as suas tecnologias devem ser classificadas como “de alto risco”.

“É crucial que a UE adopte legislação sobre a IA que proteja e promova os direitos humanos. Conceder às grandes empresas de tecnologia o poder de se autoregularem compromete seriamente os principais objetivos da Lei da IA, incluindo a proteção das pessoas contra as violações dos direitos humanos. A solução aqui é muito simples – voltar à proposta original da Comissão Europeia, que fornece uma lista clara de cenários em que a utilização de uma ferramenta de IA seria considerada de alto risco”, disse Mher Hakobyan.

 

Contexto

A Amnistia Internacional, como parte de uma coligação de organizações da sociedade civil liderada pela Rede Europeia de Direitos Digitais (EDRi), tem apelado a uma regulamentação da UE em matéria de inteligência artificial que proteja e promova os direitos humanos, incluindo os direitos das pessoas que se deslocam.

As negociações trilaterais de alto nível, conhecidas como Trilogues, entre o Parlamento Europeu, o Conselho da UE (que representa os 27 Estados-Membros da UE) e a Comissão Europeia deverão ter lugar em outubro, com o objetivo de adotar a Lei da IA até ao final do atual mandato da UE, em 2024.

Artigos Relacionados