Uma investigação publicada por dois veículos israelenses revelou um amplo esquema, movido por Inteligência Artificial (IA) para identificar milhares de supostos integrantes do Hamas na Faixa de Gaza e direcionar ataques aéreos que deixaram um grande número de mortos, incluindo civis. O sistema, chamado de “Lavanda”, teria apontado para até 37 mil nomes de diferentes patentes dentro da organização terrorista.
Usando relatos de seis oficiais de inteligência de Israel, o +972 e o Local Call apontaram que, nos primeiros momentos da guerra, iniciada em outubro do ano passado, o “Lavanda” analisou grandes quantidades de informações de cidadãos palestinos, e determinou quem seriam prováveis membros do Hamas e da Jihad Islâmica.
Ao contrário das práticas de outras organizações militares, que usam esse tipo de análise da IA como parte do processo decisório antes de um ataque, o +972 e o Local Call afirmam que as aprovações para bombardeios eram quase que automáticas — não havia sequer uma confirmação dos dados usados pela IA para determinar se o alvo era legítimo, apenas um aval “humano” protocolar. Antes da guerra, a decisão de incriminar alguém passava por várias etapas, todas conduzidas por humanos.
— Agora nós estávamos sob pressão constante: “nos tragam mais alvos”, eles realmente gritavam conosco — disse um dos oficiais de inteligência israelense ao jornal Guardian, que também teve acesso às revelações. — Eles nos diziam: “agora temos que acabar com o Hamas, não importa o preço. Qualquer coisa que vocês conseguirem, podem bombardear”.
Logo depois dos ataques do Hamas contra Israel em 7 de outubro do ano passado, que levaram à morte de 1.130 pessoas, com mais de 230 reféns levados para Gaza, o tom dentro do governo israelense era de que uma vingança contundente era necessária e justificada, como apontou em discurso naquele dia o premier Benjamin Netanyahu.
— As Forças Armadas de Israel usarão toda sua força para destruir as capacidades do Hamas. Vamos destruí-los e vamos vingar esse dia obscuro que eles impuseram ao Estado de Israel e seus cidadãos — afirmou o premier.
Diante da pressão por uma resposta rápida, foram feitos testes por amostragem da plataforma, e os agentes concluíram que a taxa de acerto “era de 90%”, algo que não pode ser comprovado de maneira independente, dado o sigilo da operação. Além do “Lavanda”, outro sistema foi utilizado, o “Evangelho”, que identificava potenciais locais de onde os suspeitos operavam, inclusive residências onde, além dos potenciais alvos, viviam seus parentes.
Por sinal, casas e apartamentos eram, afirma a investigação, alvos preferenciais em ataques contra integrantes de baixa patente do Hamas e da Jihad Islâmica.
— Não estávamos interessados em matar os operativos [do Hamas] apenas quando eles estavam em prédios militares ou em atividades militares. É muito mais fácil bombardear uma casa de família. O sistema é feito para procurá-los nestas situações — disse um dos agentes de inteligência ao Guardian.
Segundo os relatos, mortes de até 20 civis inocentes eram “permitidas” em ataques contra membros do Hamas de baixa patente, em ações que muitas vezes ocorriam com as chamadas “bombas burras”, que podem devastar prédios inteiros de uma só vez. Em ataques contra membros mais graduados da organização terrorista, afirmam as publicações, até 100 mortes seriam toleradas, e eram usados mísseis e foguetes mais avançados e com maior precisão.
— Havia uma política completamente permissiva sobre o número de mortes em operações — disse uma das fontes ao Guardian. — Uma política tão permissiva que tinha um elemento de vingança.
Recentemente, os agentes afirmaram que a taxa de “mortes civis permitidas” foi reduzida, mas isso teve pouco efeito prático. Afinal, nem sempre os militares sabem quantas pessoas há dentro de um prédio: de acordo com números da ONU, no primeiro mês da guerra 1.340 famílias sofreram “múltiplas perdas”, e 312 famílias perderam mais de 10 membros. Segundo o Ministério da Saúde de Gaza, ligado ao Hamas, 32.975 pessoas morreram no enclave até a quarta-feira.
— Não se trata apenas de matar qualquer pessoa que seja um soldado do Hamas, o que é claramente permitido e legítimo em termos da lei internacional — afirmam os agentes de inteligência. — Mas eles dizem diretamente: “você tem permissão para matar vários civis”. Na prática, esse critério de proporcionalidade não existe.
Em comunicado ao Guardian, as Forças Armadas de Israel afirmam que algumas das alegações apresentadas pelo jornal e pelas publicações +972 e Local Call são “sem sentido”, e que outras refletem “uma compreensão errônea das diretivas do Exército isralense e da lei internacional”.
“O processo de identificar alvos militares pelo Exército consiste em vários tipos de ferramentas e métodos, incluindo ferramentas de gerenciamento de informação, que são usadas para ajudar analistas de inteligência a obter e analisar a inteligência, obtida de várias fontes”, diz o comunicado, que também afirma “não usar um sistema de inteligência artificial para identificar elementos terroristas”.
Em outra revelação, o New York Times afirmou que Israel implementou um amplo programa de reconhecimento facial em Gaza, desde o ano passado, usado para coletar e catalogar informações dos civis sem seu conhecimento ou consentimento. As informações foram confirmadas ao jornal por agentes de inteligência, oficiais e soldados do Exército.
Um exemplo da tecnologia foi dado pelo poeta Mosab Abu Toha: em novembro, ele passava por um posto de controle em uma rodovia de Gaza quando foi chamado pelo nome, retirado da fila, vendado e levado para ser interrogado. Como escreveu em artigo para a revista New Yorker, ele foi agredido por dois dias em uma prisão israelense, até ser liberado. Segundo os agentes que o prenderam, havia indícios de ligação com o Hamas, algo que ele nega — hoje, Toha vive no Cairo com a família.
— Eu não sabia que Israel estava capturando ou gravando meu rosto — disse ao New York Times. — Mas eles têm nos observado há anos do céu com seus drones. Eles nos veem cuidar dos jardins, ir à escola e beijar nossas esposas. Eu sinto como se estivesse sendo observado há muito tempo.
Segundo os agentes ouvidos pelo New York Times, até o início da guerra, não havia um programa de identificação facial em Gaza, mas diante da necessidade de identificar membros do Hamas e localizar os reféns, um sistema foi criado a partir da chamada Unidade 8200, responsável por ações de cibersegurança. O modelo analisa imagens de câmeras de segurança, vídeos produzidos pelo Hamas e fotos armazenadas no serviço Google Photos, que permite a identificação mesmo em imagens de baixa qualidade.
A unidade também é acusada de estar por trás dos programas “Lavanda” e “Evangelho”, mas não há indicações sobre o uso conjunto das duas plataformas com o sistema de identificação facial.
Um relatório da Anistia Internacional, publicado ano passado, declara que tecnologias de reconhecimento facial já eram usadas na Cisjordânia e em Jerusalém Oriental há algum tempo, com palestinos em postos de controle sendo obrigados a passar por câmeras de alta resolução. Os dados, afirma a Anistia, são armazenados em uma base de dados mantida pelo governo israelense.
Fonte: O Globo