clear

Criando novas perspectivas desde 2019

Algoritmos e IA transformaram Gaza em um laboratório da morte

18 de fevereiro de 2026, às 08h29

Uma vista de tendas improvisadas em meio aos escombros deixados pelos ataques israelenses, enquanto palestinos seguem com suas vidas cotidianas sob duras condições na Faixa de Gaza em 16 de fevereiro de 2026. [Saeed M. M. T. Jaras – Agência Anadolu]

As revelações da +972 Magazine (https://www.972mag.com/lavender-ai-israeli-army-gaza/) e do Local Call expuseram o núcleo mais obscuro da guerra contemporânea em Gaza, no qual o genocídio não é executado apenas por bombas e mísseis, mas por dados, algoritmos e plataformas digitais globais.

O sistema israelense de inteligência artificial conhecido como Lavender confirmou aquilo que a resistência palestina, o Líbano e o Irã denunciam há anos, tendo a tecnologia como parte orgânica da máquina de guerra sionista, funcionando como instrumento de vigilância, seleção de alvos e extermínio em massa.

A retórica liberal da “privacidade digital” desmorona diante dos fatos. Aplicativos como o WhatsApp insistem na promessa de encriptação de ponta a ponta, mas ocultam o essencial, na qual metadados valem mais do que mensagens.

Localização, redes de contato, padrões de comunicação e filiações em grupos permitem mapear a vida social de um povo inteiro. Em Gaza, esses dados foram incorporados a sistemas militares que transformam relações humanas em critérios algorítmicos de morte.

O Lavender avaliou praticamente toda a população da Faixa de Gaza, formada por mais de 2,3 milhões de pessoas, atribuindo “pontuações de risco” automatizadas. Bastava estar em um grupo de WhatsApp, manter contato frequente com alguém já marcado ou apresentar padrões digitais considerados “suspeitos” para entrar em listas de execução.

A supervisão humana era deliberadamente mínima, reduzida a segundos, com aceitação consciente de altas taxas de erro. Famílias inteiras foram assassinadas em seus lares, tratadas como “danos colaterais aceitáveis” numa equação algorítmica que naturaliza o massacre.

Isso não é desvio técnico. É política de extermínio. O Direito Internacional Humanitário proíbe explicitamente ataques indiscriminados e exige distinção entre civis e combatentes.

Sistemas que automatizam decisões letais, aceitando previamente a morte de inocentes, configuram crimes contra a humanidade e reforçam a caracterização do genocídio como um processo tecnologicamente organizado e racionalizado.

A engrenagem que sustenta esse modelo é global. A espionagem do século XXI já não depende de interceptar mensagens, mas de controlar ecossistemas digitais.

Plataformas privadas funcionam como sensores permanentes da vida social planetária, alimentando bancos de dados acessíveis a serviços de inteligência como o Mossad e a CIA, por meio de cooperação formal, pressão jurídica ou exploração de vulnerabilidades. Trata-se de uma convergência estrutural entre big techs, complexo militar-industrial e aparato de segurança imperial.

A Palestina é o laboratório. Em comunicado oficial divulgado durante a guerra, o Hamas afirmou em seu canal no Telegram que “o ocupante transformou cada ferramenta moderna em arma contra o povo palestino, usando tecnologia para justificar o assassinato de civis e ocultar o genocídio por trás de termos técnicos” (tradução livre).

A denúncia é clara: Israel não trava uma guerra contra combatentes, mas contra a própria existência palestina, agora mediada por algoritmos.

O Hezbollah libanês tem alertado que esse modelo integra uma guerra híbrida regional, combinando vigilância digital, sabotagem tecnológica e ataques seletivos.

Após o ataque ocorrido no Líbano em 2024, envolvendo a explosão coordenada de pagers utilizados por seus membros, o Hezbollah declarou canais institucionais que “o inimigo transformou dispositivos civis em ferramentas de assassinato, provando que sua guerra não conhece limites éticos ou humanos” (tradução livre). O episódio revelou um novo patamar de transformação em arma de guerra da tecnologia cotidiana.

Esse padrão não é isolado. Investigações internacionais já demonstraram o uso recorrente de aplicativo espião militar contra jornalistas, ativistas e lideranças políticas em diversos países, muitas vezes por meio de smartphones amplamente difundidos no mercado global.

A mensagem é inequívoca: todo dispositivo conectado é um potencial instrumento de vigilância, controle ou morte, quando inserido na lógica do poder imperial.

Lideranças da República Islâmica do Irã têm sido particularmente contundentes. O Líder Supremo iraniano, aiatolá Ali Khamenei, afirmou em diversos pronunciamentos que “o regime sionista é um tumor cancerígeno que utiliza as ferramentas mais modernas para oprimir e massacrar povos”.

Autoridades iranianas sustentam que Gaza antecipa o futuro da dominação imperial, em um mundo governado por vigilância algorítmica, assassinatos seletivos e guerras “limpas” apenas no discurso.

O caso Lavender expõe, portanto, a consolidação de uma necropolítica digital. Algoritmos decidem quem vive e quem morre; corporações fornecem a infraestrutura; serviços de inteligência operam nas sombras; e a linguagem tecnocrática tenta normalizar o inaceitável. Gaza sangra para que esse modelo seja testado, refinado e, depois, exportado.

Denunciar essa engrenagem é uma tarefa histórica. Não se trata apenas de solidariedade com o povo palestino, embora ela seja urgente e inegociável.

Trata-se de resistir a um mundo em que dados valem mais do que vidas, em que a tecnologia serve ao colonialismo e em que o genocídio é apresentado como “decisão algorítmica”. Hoje é Gaza. Amanhã, qualquer povo que ouse resistir.

As opiniões expressas neste artigo são de responsabilidade do autor e não refletem necessariamente a política editorial do Middle East Monitor.