18 Abril 2024
As Forças Armadas Israelenses utilizam um sistema automatizado para selecionar seus alvos humanos, uma prática sem precedentes até agora.
A reportagem é de Manuel G. Pascual, publicada por El País, 17-04-2024.
Israel cruzou outra linha na automação da guerra. As suas Forças Armadas desenvolveram um programa apoiado pela inteligência artificial (IA) para selecionar as vítimas dos seus bombardeamentos, um processo que tradicionalmente exige a verificação manual das provas até verificar se um alvo merece sê-lo. Batizado de Lavender, este sistema marcou 37 mil palestinos durante as primeiras semanas da guerra, e foi usado em pelo menos 15 mil assassinatos entre 7 de outubro e 24 de novembro na invasão de Gaza, segundo uma investigação jornalística de dois meios de comunicação israelenses, a revista +972 e Local Call, também publicado no The Guardian.
A ferramenta tem gerado polêmica pela frieza com que os comandantes militares responsáveis por dar luz verde ou não às sugestões do sistema Lavender gerenciam as mortes de pessoas como meras estatísticas. Está dentro dos parâmetros aceitáveis, por exemplo, que por cada alto funcionário do Hamas ou da Jihad Islâmica, uma centena de civis morram no bombardeamento, que geralmente afeta vários edifícios. O sistema foi projetado para atacar a casa do alvo e à noite, o que aumenta as chances de ele estar em casa, mas também de que seus familiares e vizinhos morram com ele.
Nunca antes foi relatado que alguém tivesse automatizado uma tarefa tão sensível como a seleção de alvos militares humanos, uma tarefa em que um falso positivo pode significar a morte de pessoas inocentes. As Forças Armadas israelenses negaram em comunicado oficial após a publicação do relatório que estão deixando uma máquina determinar “se alguém é terrorista”. A carta diz que os sistemas de informação “são meras ferramentas para os analistas no processo de identificação de objetivos”, embora as fontes citadas garantam que os responsáveis se limitam a validar as recomendações de Lavender, sem efetuar verificações.
A investigação, proveniente de vários oficiais do exército e dos serviços de inteligência israelitas, incluindo a Unidade 8200, não revela quais os parâmetros usados para determinar se um sujeito tem ou não uma relação com o Hamas ou com a Jihad Islâmica. Alguns são listados, como o indivíduo que muda frequentemente de número de telefone (algo que acontece constantemente num contexto de guerra) ou ser do sexo masculino (não há mulheres com patente de oficial).
Sabe-se que, como todos os sistemas de IA, o Lavender ainda é um modelo probabilístico. Você trabalha com estimativas e, por isso, comete erros. Pelo menos 10% dos indivíduos marcados como alvos não o foram, segundo fontes oficiais citadas no relatório. Essa margem de erro, somada às mortes colaterais aceites pelo exército (até 300 civis num único atentado à bomba em 17 de outubro para matar um comandante do Hamas), deixa um saldo de milhares de palestinos, a maioria deles mulheres e crianças, assassinados por indicação do software sem ter qualquer ligação com as milícias.
O programa Lavender é complementado por outro chamado Where is Daddy? (Onde está o papai?), usado para rastrear indivíduos já marcados e realizar o bombardeio quando estão em casa, destinado a identificar edifícios e estruturas a partir dos quais, segundo o exército, operam militantes do Hamas.
A Lavender processa informação recolhida junto dos mais de 2,3 milhões de residentes da Faixa de Gaza, confirmando a densa rede de vigilância digital a que todos os seus habitantes estão sujeitos. É criada uma pontuação para cada indivíduo que varia de 1 a 100, da menor à maior probabilidade estimada de estar ligado ao braço armado do Hamas ou da Jihad Islâmica; aqueles que obtêm as notas mais altas são varridos da face da Terra junto com suas famílias e vizinhos. Segundo a investigação da revista +972, os policiais mal conferiram os alvos sugeridos por Lavender alegando motivos de "eficiência": passaram alguns segundos olhando cada caso, pressionados pela necessidade de coletar novos alvos para atirar todos os dias. Colocado em prática, significou validar as indicações do algoritmo.
É legal usar esse tipo de sistema? “Os militares israelenses usam IA para aumentar os processos de tomada de decisão dos operadores humanos. Esse uso está de acordo com o direito humanitário internacional, aplicado pelas Forças Armadas modernas em muitas guerras assimétricas desde 11 de setembro de 2001”, afirma a jurista Magda Pacholska, pesquisadora do Instituto TMC Asser e especialista na intersecção entre tecnologias disruptivas, militares e lei.
Pacholska lembra que o exército israelense já havia utilizado sistemas automatizados de apoio à tomada de decisão, como Lavender e Gospel, na Operação Guardião dos Muros , em 2021. As forças dos Estados Unidos, França e Holanda, entre outros, também o fizeram. embora sempre contra objetivos materiais. “A novidade é que, desta vez, utiliza-se esses sistemas contra alvos humanos”, destaca o especialista.
Arthur Holland Michel, a quem a ONU encomendou relatórios sobre a utilização de armas autônomas em conflitos armados, acrescenta outro elemento. “O que é diferente, e certamente sem precedentes, no caso Lavender em Gaza é a escala e a velocidade com que o sistema está sendo utilizado. O número de pessoas identificadas em apenas alguns meses é surpreendente”, enfatiza. “Outra diferença crucial é que o tempo entre a identificação de um alvo pelo algoritmo e o ataque contra ele parece ter sido muitas vezes muito curto. Isso indica que não há muita pesquisa humana no processo. Do ponto de vista jurídico, isso pode ser problemático”, conclui.
De acordo com as práticas e doutrinas de muitos Estados ocidentais, incluindo a OTAN, lembra Pacholska, uma vez determinado que uma pessoa “participa diretamente nas hostilidades”, ela é um alvo legal e também pode ser atacada em sua casa: “Pode ser chocante para o público, mas é assim que os conflitos contemporâneos contra grupos armados organizados têm sido conduzidos desde 11 de setembro de 2001".
O que não é legal é massacrar civis. Para Luis Arroyo Zapatero, reitor honorário da Universidade de Castilla-La Mancha e especialista em Direito Penal Internacional, as mortes causadas por esta ferramenta devem ser consideradas “crimes de guerra”, e o conjunto destas ações e a destruição massiva de edifícios e pessoas “são crimes contra a humanidade.” No direito internacional, explica o professor, os assassinatos não são admitidos como ação militar, embora se discutam os chamados assassinatos seletivos. “As mortes causadas como danos colaterais são puros assassinatos. O sistema Lavender é diretamente uma máquina de matar civis, pois permite mortes colaterais de civis entre 10 e 100 pessoas além do objetivo preciso”, garante.
Os palestinos sabem bem o que é ser vigiado. Os serviços de inteligência israelenses têm vindo a recolher todo o tipo de dados sobre cada um deles há anos. O rastreio digital dos seus celulares, desde a localização até às interações nas redes sociais, é processado e armazenado. Câmeras com sistemas automáticos de reconhecimento facial fazem parte de seu cotidiano pelo menos desde 2019. O Washington Post noticiou um programa, Blue Wolf, que visa registrar os rostos de todos os habitantes da Cisjordânia, incluindo crianças e idosos, e associar um cartão de “periculosidade”, para que os soldados, ao fotografarem um sujeito na rua com seu celular, vissem imediatamente um código de cores que lhes diria se deveriam prendê-lo. O New York Times noticiou a utilização de um sistema semelhante na Faixa de Gaza, implantado no final do ano passado, que também procura recolher e classificar os rostos dos palestinianos sem o seu consentimento.
Todas estas tecnologias são desenvolvidas por empresas israelenses, que as vendem às suas forças armadas e depois as exportam com a garantia de terem sido testadas no terreno. “Reconhecimento facial em todos os lugares, drones, tecnologia de espionagem… Este Estado é realmente uma incubadora de tecnologias de vigilância. Se você vende um produto, precisa mostrar o quão eficaz ele é em cenários reais e em tempo real. É isso que Israel está fazendo”, afirma Cody O'Rourke, da ONG Good Shepherd Collective, de Beit Sahour, uma aldeia palestina a leste de Belém. Este americano, que trabalha com ajuda humanitária na Palestina há duas décadas, sabe que o seu nome e o de outros colaboradores que foram para Gaza estão numa lista negra. Isso significa buscas adicionais e esperas mais longas nos postos de controle militares israelenses. “É mais uma camada de aplicação de tecnologia para fragmentar a população”, explica em videochamada.
Israel tornou-se conhecido no mercado internacional de armas. Vende tanques, caças, drones e mísseis, mas também sistemas sofisticados como o Pegasus, o software espião desenvolvido pelo Grupo NSO que permite o acesso aos celulares das vítimas, que em Espanha foi utilizado para interceptar as comunicações dos líderes independentistas no meio. do processo . “Israel sempre se considerou um líder em segurança cibernética e, há cinco ou seis anos, também se especializou em ferramentas apoiadas em IA que podem ter uso militar”, reflete Raquel Jorge, analista de política tecnológica do Elcano Royal Institute. Apresentações de comandantes israelenses em feiras de armas têm circulado online apresentando o programa Lavender em jargão empresarial e referindo-se ao sistema como “o pó mágico para detectar terroristas”.
Alguns interpretam a investigação da revista +972 como uma grande campanha de marketing das forças armadas israelitas. “Embora alguns tenham interpretado o relatório como uma acusação moral ao uso de uma nova tecnologia por Israel, eu sugeriria que é mais propaganda tentando consolidar seu papel na economia política global como desenvolvedor de armas”, explica ao El País Khadijah Abdurraman, diretor da Logic(s) Magazine, revista especializada na intersecção entre tecnologia e sociedade. “Podemos facilmente imaginar as Forças de Apoio Rápido do Sudão fazendo um pedido dos sistemas Lavender antes do final da semana”, acrescenta.
O'Rourke é da mesma opinião. “A questão não é que matar palestinos seja errado, mas que o sistema foi utilizado de forma inadequada, sem realizar as verificações relevantes. Parece que eles querem vender que existe uma forma correta de assassinar. Que isto seja publicado não deve incomodar o exército, porque se foi publicado num meio de comunicação israelense significa que o Governo deu a sua aprovação", afirma o norte-americano em referência ao gabinete da Censura Militar que veta informações que possam prejudicar a segurança de o Estado.
“Israel tem deslegitimado o processo de paz com os palestinos há décadas, embora nunca tenha estado interessado em alcançar a paz. “É necessário que o mundo legitime a sua ocupação e use a tecnologia para manter essa ocupação como um cartão de visita”, escreve Antony Loewenstein no seu livro The Palestinian Laboratory (Captain Swing, 2024), que investiga como o país hebreu utilizou a ocupação. que exerce sobre os territórios palestinos como uma vitrine para a tecnologia militar que vende em todo o mundo há décadas.
O uso da Lavender levanta muitas questões e poucas respostas. Que tipo de algoritmo o sistema usa para identificar alvos potenciais? Que elementos são levados em conta neste cálculo? Como as recomendações de metas do sistema são verificadas? Em que circunstâncias os analistas se recusam a aceitar uma recomendação do sistema? “Se não tivermos respostas a estas questões, será muito difícil encontrar uma solução para os graves riscos colocados pela rápida automatização da guerra”, conclui Holland.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Lavender, a inteligência artificial de Israel que decide quem é bombardeado em Gaza - Instituto Humanitas Unisinos - IHU