Portuguese / English

Middle East Near You

Morte por algoritmo: Inteligência artificial na guerra em Gaza

Ícone de Inteligência Artificial (AI) em Barcelona, Espanha, 28 de fevereiro de 2024 [Joan Cros/NurPhoto via Getty Images]

O assassinato sem remorso logo nos primórdios da tecnologia de inteligência artificial é uma consternação de roer as unhas a diversos membros dos cosmos digital. Que estejamos cientes do uso de tais máquinas na guerra e seu potencial aterrorizante no que diz respeito à autonomia humana. De fato, o advento de sistemas automatizados, executados via inteligência artificial, em guerras de extermínio já se tornou uma realidade de gelar o sangue nas veias, empregue convencionalmente, com máxima letalidade, por seus operadores humanos.

A ilusão aqui é a noção de que sistemas autônomos serão afinados pelo próprio algoritmo, ao ponto de que a autonomia humana se tornaria redundante em qualquer sentido funcional. Desde que seja determinado o alvo, mediante treinamento e informação, viria à luz uma nova utopia de precisão cirúrgica na guerra moderna. As mortes civis seriam supostamente reduzidas e a mortalidade de combatentes e “indesejáveis”, em contrapartida, seria maximizada dramaticamente.

O estudo de caso a ser analisado em torno deste conceito é justamente a campanha de pulverização imposta por Israel na Faixa de Gaza sitiada. Segundo uma reportagem investigativa da revista +972, as chamadas Forças de Defesa de Israel (FDI) assumiram a indulgência de identificar alvos via inteligência artificial e consequentemente “neutralizá-los”. O processo, contudo, está longe de ser preciso ou adotado de maneira vagamente científica. Como diz Brianna Rosen, do Fórum Just Security: “Em vez de limitar os danos aos civis, o uso de inteligência artificial por Israel amplifica sua capacidade de identificar, localizar e expandir as áreas alvejadas para infringir dano máximo”.

A reportagem parte da bombástica publicação de 2021 The Human-Machine Team: How to Create Human and Artificial Intelligence That Will Revolutionize Our World — ou, em tradução livre, A equipe homem-máquina: Como criar uma inteligência artificial e humana capaz de revolucionar o planeta —, de autoria do “Brigadeiro-General Y.S.”, então identificado como comandante da unidade 8200 de inteligência israelense.

LEIA: Sistema israelense de inteligência artificial alimenta ‘fábrica de extermínio’ em Gaza

O autor defende um sistema capaz de gerar rapidamente milhares de “alvos” em potencial conforme a demanda dos conflitos. O objetivo sinistro e imoral de seu computador resolveria o “dilema humano tanto em localizar novos alvos quanto no processo de tomada de decisão para aprová-los”. Fazê-lo não apenas dispensa o veto e a verificação de operadores humanos sobre a viabilidade dos alvos como dispensa até mesmo a anuência à execução do ataque.

A investigação conjunta da rede +972 e da Local Call identificou o estado avançado do desenvolvimento desse sistema, conhecido pelos israelenses como “Lavender”. Em termos de propósito assassino, essa criação de inteligência artificial vai além do que seus predecessores letais, como “Habsora” (“O Evangelho”), que identifica supostas estruturas e prédios utilizados por militantes. Mesmo essa forma de identificação fez pouco para moderar a letalidade, ao engendrar — como descreveu um ex-oficial de inteligência — uma “fábrica de assassinato em massa”.

Seis oficiais de inteligência israelenses — todos a serviço na atual guerra em Gaza — revelaram como o “Lavender” exerceu um papel crucial no bombardeio sem precedentes contra o povo palestino, particularmente nos primeiros momentos da guerra. A consequência direta de utilizar máquinas de inteligência artificial suprime efetivamente o elemento humano, dando aos alvos decorrentes uma credibilidade ficcional.

Logo nas primeiras semanas da guerra, o exército israelense recorreu extensiva, senão exclusivamente, ao “Lavender”, ao identificar 37 mil palestinos como possíveis militantes do Hamas e do movimento de Jihad Islâmico, portanto, submetidos aos reiterados bombardeios. Seu uso marcou ainda uma mudança da doutrina anterior de “alvo humano”, sobre supostos agentes de alto escalão. Em tais casos, executar indivíduos em suas residências privadas ocorreria apenas em instâncias excepcionais — e quase exclusivamente a indivíduos de destaque — , tudo para manter um certo verniz de proporcionalidade, conforme os princípios da lei internacional. A deflagração da Operação Espadas de Ferro, em retaliação à operação do Hamas de 7 de outubro, levou à adoção de uma nova política segundo a qual todo e qualquer indivíduo vagamente associado ao Hamas, independentemente de seu suposto ranking militar, seria designado como alvo humano.

Soldados receberam, portanto, uma latitude extensa em suas listas de extermínio, sem contrapartida ou escrutínio, com até 20 segundos apenas entre a autorização e o bombardeio em si. A permissão é dada apesar da plena ciência de que equívocos alcançam “10% dos casos, incluindo, como sabemos, indivíduos que possuem uma conexão absolutamente vã a entes militantes, ou absolutamente nenhuma relação”.

O sistema “Lavender” se complementa pela plataforma automatizada “Onde está o papai?”, cujo nome é nauseante, que rastreia indivíduos à casa de suas famílias, para então bombardeá-las. O resultado é o extermínio de “milhares de palestinos, sobretudo mulheres e crianças, além de pessoas sem relação com o conflito”. Como declarou com sinistra candura um dos agentes de inteligência entrevistados, assassinar um combatente do Hamas em uma base militar ou engajado em atividades armadas pouco interessa. “Muito ao contrário, o exército israelense prefere atacá-los em suas próprias residências, sem hesitação — como primeira opção. É mais fácil bombardear suas casas e o sistema é construído precisamente para localizá-los nesses casos”.

LEIA: Israel vende morte e destruição ao exportar armas ao mundo

O uso do sistema incorreu no uso de um cálculo perverso e, em último caso, genocida. Duas fontes confirmaram que as forças israelenses “também decidiram, logo nas primeiras semanas da campanha militar em Gaza, que, para cada agente júnior do Hamas identificado pelo sistema ‘Lavender’, seria razoável [sic] matar 15 ou 20 civis”. Em caso de oficiais considerados sênior, é autorizada a morte de até cem civis.

No que se tornou o posicionamento padrão diante de tais revelações, as Forças Armadas de Israel insistem — como propagou o jornal Times of Israel —, que são respeitadas as respectivas convenções sobre o assassinato dos palestinos. A alegação sionista diz ainda que “não utiliza inteligência artificial para identificar agentes terroristas ou prever se um indivíduo pode ser um terrorista”. Para Tel Aviv, o processo é mais judicioso, ao abarcar uma “database cujo intuito é cruzar fontes de inteligência sobre os agentes militares de organizações terroristas”.

O secretário-geral das Nações Unidas, António Guterres, expressou “profunda preocupação” pelos relatos de que a campanha israelense recorreu a “inteligência artificial como ferramenta para identificar os alvos, sobretudo em áreas residenciais densamente povoadas, resultando em altíssimos índices de baixas civis”. No entanto, parece mais honesto considerar tais instâncias como uma identificação deliberadamente imprudente, com consciente matemática, por parte dos comandantes israelenses, de que um enorme número de civis seriam mero “dano colateral”. Deste modo, não mais falamos de uma guerra travada mediante métodos científicos de proporcionalidade e precisão, mas sim uma modalidade de assassinato em massa por vias da tecnologia.

As opiniões expressas neste artigo são de responsabilidade do autor e não refletem necessariamente a política editorial do Middle East Monitor.

Categorias
ArtigoIsraelOpiniãoOriente MédioPalestina
Show Comments
Palestina: quatro mil anos de história
Show Comments