Algoritmos e IA transformaram Gaza em um laboratório da morte

Sayid Marcos Tenório
49 minutos ago

Warning: foreach() argument must be of type array|object, null given in /www/wwwroot/monitordooriente.com/wp-content/plugins/amp/includes/templates/class-amp-post-template.php on line 236
Uma vista de tendas improvisadas em meio aos escombros deixados pelos ataques israelenses, enquanto palestinos seguem com suas vidas cotidianas sob duras condições na Faixa de Gaza em 16 de fevereiro de 2026. [Saeed M. M. T. Jaras - Agência Anadolu]

As revelações da +972 Magazine e do Local Call expuseram o núcleo mais sombrio da guerra contemporânea em Gaza, na qual o genocídio é perpetrado não apenas por bombas e mísseis, mas também por dados, algoritmos e plataformas digitais globais.

O sistema israelense de inteligência artificial conhecido como Lavender confirmou o que a resistência palestina, o Líbano e o Irã vêm denunciando há anos: a tecnologia como parte integrante da máquina de guerra sionista, funcionando como instrumento de vigilância, seleção de alvos e extermínio em massa.

A retórica liberal da “privacidade digital” desmorona diante dos fatos. Aplicativos como o WhatsApp insistem na promessa de criptografia de ponta a ponta, mas ocultam o essencial: metadados que valem mais do que mensagens.

Localização, redes de contato, padrões de comunicação e afiliações a grupos permitem mapear a vida social de um povo inteiro. Em Gaza, esses dados foram incorporados a sistemas militares que transformam relações humanas em critérios algorítmicos para a morte.

O Lavender avaliou praticamente toda a população da Faixa de Gaza, composta por mais de 2,3 milhões de pessoas, atribuindo “pontuações de risco” automatizadas. O simples fato de estar em um grupo do WhatsApp, manter contato frequente com alguém já marcado ou exibir padrões digitais considerados “suspeitos” era suficiente para ser incluído em listas de execução.

A supervisão humana foi deliberadamente mínima, reduzida a segundos, com a aceitação consciente de altas taxas de erro. Famílias inteiras foram assassinadas em suas casas, tratadas como “danos colaterais aceitáveis” em uma equação algorítmica que normaliza o massacre.

Isso não é um desvio técnico. É uma política de extermínio. O Direito Internacional Humanitário proíbe explicitamente ataques indiscriminados e exige a distinção entre civis e combatentes.

Sistemas que automatizam decisões letais, pré-aceitando a morte de inocentes, constituem crimes contra a humanidade e reforçam a caracterização do genocídio como um processo tecnologicamente organizado e racionalizado.

A máquina que sustenta esse modelo é global. A espionagem do século XXI não depende mais da interceptação de mensagens, mas do controle de ecossistemas digitais.

Plataformas privadas funcionam como sensores permanentes da vida social planetária, alimentando bancos de dados acessíveis a serviços de inteligência como o Mossad e a CIA, por meio de cooperação formal, pressão legal ou exploração de vulnerabilidades. Isso representa uma convergência estrutural entre as grandes empresas de tecnologia, o complexo militar-industrial e o aparato de segurança imperial.

A Palestina é o laboratório. Em uma declaração oficial divulgada durante a guerra, o Hamas afirmou em seu canal no Telegram que “o ocupante transformou todas as ferramentas modernas em armas contra o povo palestino, usando a tecnologia para justificar o assassinato de civis e para ocultar o genocídio por trás de termos técnicos”

(tradução livre). A denúncia é clara: Israel não está travando uma guerra contra combatentes, mas contra a própria existência palestina, agora mediada por algoritmos.

O Hezbollah libanês alertou que esse modelo faz parte de uma guerra híbrida regional, que combina vigilância digital, sabotagem tecnológica e ataques seletivos.

Após o ataque ocorrido no Líbano em 2024, que envolveu a explosão coordenada de pagers usados ​​por seus membros, o Hezbollah declarou por meio de seus canais institucionais que “o inimigo transformou dispositivos civis em ferramentas de assassinato, provando que sua guerra não conhece limites éticos ou humanos” (tradução livre). O episódio revelou um novo nível na instrumentalização da tecnologia cotidiana.

Esse padrão não é isolado. Investigações internacionais já demonstraram o uso recorrente de spyware militar contra jornalistas, ativistas e líderes políticos em diversos países, frequentemente por meio de smartphones amplamente disponíveis no mercado global.

A mensagem é inequívoca: todo dispositivo conectado é um instrumento potencial de vigilância, controle ou morte quando inserido na lógica do poder imperial.

Os líderes da República Islâmica do Irã têm se manifestado de forma particularmente veemente. O Líder Supremo do Irã, Aiatolá Ali Khamenei, afirmou em diversos discursos que “o regime sionista é um tumor cancerígeno que utiliza as ferramentas mais modernas para oprimir e massacrar povos”.

As autoridades iranianas sustentam que Gaza prenuncia o futuro da dominação imperial, em um mundo governado por vigilância algorítmica, assassinatos seletivos e guerras “limpas” apenas na retórica.

O caso Lavender expõe, portanto, a consolidação de uma necropolítica digital. Algoritmos decidem quem vive e quem morre; corporações fornecem a infraestrutura; serviços de inteligência operam nas sombras; e a linguagem tecnocrática busca normalizar o inaceitável. Gaza sangra para que esse modelo possa ser testado, aprimorado e, em seguida, exportado.

Denunciar essa máquina é uma tarefa histórica. Não se trata apenas de solidariedade com o povo palestino, embora essa solidariedade seja urgente e inegociável.

Trata-se de resistir a um mundo em que os dados valem mais do que vidas, em que a tecnologia serve ao colonialismo e em que o genocídio é apresentado como uma “decisão algorítmica”. Hoje é Gaza. Amanhã, qualquer povo que ouse resistir.

As opiniões expressas neste artigo são de responsabilidade do autor e não refletem necessariamente a política editorial do Middle East Monitor.

Sair da versão mobile