Partilha

Resumo

  • Reportagem especial sobre o impacto dos sistemas autónomos de selecção de alvos em civis palestinianos, e as implicações éticas para o futuro da guerra.
  • O uso intensivo de sistemas de inteligência artificial (IA) por parte das Forças de Defesa de Israel (IDF) — confirmados por investigações independentes e por denúncias no relatório da ONU de Francesca Albanese — marca uma nova era na condução da guerra.
  • Em declarações anónimas, membros das IDF referiram que o sistema “validava milhares de alvos por dia” e que “muitos dos ataques foram lançados sem que o operador soubesse o nome da pessoa visada”.

Reportagem especial sobre o impacto dos sistemas autónomos de selecção de alvos em civis palestinianos, e as implicações éticas para o futuro da guerra


Imagine um drone que decide, em segundos, se deve ou não disparar. Uma base de dados que associa comportamentos, localização e nomes para prever “intenção hostil”. Um sistema automático que transforma a informação recolhida por redes sociais, telemóveis e câmaras em ordens de ataque. Tudo sem supervisão judicial. Tudo sem margem para defesa.

Este cenário não é ficção científica — é Gaza em 2024–2025. O uso intensivo de sistemas de inteligência artificial (IA) por parte das Forças de Defesa de Israel (IDF) — confirmados por investigações independentes e por denúncias no relatório da ONU de Francesca Albanese — marca uma nova era na condução da guerra: a era da letalidade algorítmica.

A fronteira entre arma e decisão militar tornou-se difusa. E as perguntas urgentes multiplicam-se: pode um algoritmo cometer um crime de guerra? Quem responde por uma ordem automática de execução? E até que ponto o silêncio internacional legitima esta nova forma de matar?


Lavender e Gospel: máquinas de matar com pontuação

Em investigações conduzidas pela +972 MagazineThe Guardian e The Intercept, dois sistemas de IA surgem como peças centrais da guerra algorítmica em Gaza:

  • Lavender: sistema de selecção de alvos humanos com base em correlações digitais — incluindo chamadas telefónicas, ligações em redes sociais, padrões de mobilidade e perfis sociodemográficos.
  • Gospel: motor preditivo de ataques a instalações com base em inteligência visual, algoritmos de reconhecimento de padrões e modelos de “comportamento suspeito”.

Ambos operam com margens mínimas de supervisão humana. Em declarações anónimas, membros das IDF referiram que o sistema “validava milhares de alvos por dia” e que “muitos dos ataques foram lançados sem que o operador soubesse o nome da pessoa visada”.


A arquitectura digital da eliminação

Estes sistemas não funcionam isoladamente. Fazem parte de uma arquitectura de guerra digital que combina:

  • Intercepção massiva de comunicações (com software como Pegasus e similares);
  • Análise de big data (com apoio de plataformas como Palantir, cuja tecnologia é usada por serviços secretos dos EUA e Israel);
  • Integração com sistemas de armas autónomos, incluindo drones e mísseis teleguiados.

Tudo isto configura um modelo de decisão acelerada, onde a máquina detecta, identifica e recomenda a eliminação — com o humano a desempenhar um papel marginal ou simbólico. A “verificação ética”, outrora obrigatória em conflitos armados, é substituída por métricas de eficácia.


O impacto nos civis: famílias inteiras eliminadas por erro de cálculo

O resultado é devastador. Segundo o relatório de Francesca Albanese, mais de 14 mil crianças palestinianas foram mortas em Gaza entre Outubro de 2023 e Maio de 2025. Muitas em bombardeamentos sobre casas onde os algoritmos identificaram um suposto alvo “alto risco”.

Casos documentados mostram padrões repetitivos: uma chamada telefónica a um familiar ligado a uma ONG, uma visita a uma mesquita observada por drone, um nome semelhante ao de outro suspeito. Bastam esses elementos para que um sistema automatizado recomende o ataque.

A precisão matemática esconde a violência moral. “A IA não elimina a arbitrariedade — apenas a automatiza”, escreve Albanese.


As empresas que constroem a guerra invisível

A reportagem identifica várias empresas — israelitas, norte-americanas e europeias — que fornecem ou desenvolvem tecnologia base para esses sistemas:

  • Elbit Systems: fabricante de sistemas de armas autónomos e sensores inteligentes;
  • Palantir Technologies: fornecedora de plataformas de análise de big data com clientes nas forças armadas israelitas;
  • Amazon AWS e Microsoft Azure: plataformas de cloud computing utilizadas por sistemas de defesa e vigilância.

Algumas destas empresas têm parcerias com universidades europeias e financiamento de programas da União Europeia. Segundo o relatório, “a ausência de controlo sobre as aplicações finais dessas tecnologias configura risco grave de cumplicidade indirecta”.


Portugal e a União Europeia: cúmplices por omissão?

Embora Portugal não esteja directamente ligado ao desenvolvimento dos sistemas Lavender ou Gospelparticipa em projectos de cooperação tecnológica e académica com entidades israelitas envolvidas na indústria de defesa. O programa Horizonte Europa, por exemplo, financiou projectos onde colaboram universidades e empresas com duplo uso (civil e militar).

A ausência de auditorias públicas, de critérios éticos vinculativos e de avaliação independente permite que tecnologia civil portuguesa possa estar a ser integrada em dispositivos de guerra algorítmica — sem o conhecimento do parlamento ou do público.

A relatora Albanese apela a uma revisão urgente dos critérios europeus de financiamento: “não se pode combater o genocídio com fundos de inovação tecnológica”.


O precedente histórico: do Vietname a Gaza

A desumanização algorítmica de alvos humanos em Gaza evoca fantasmas do passado: os bombardeamentos por quotas no Vietname, a doutrina de “alvos compensatórios” no Iraque e as execuções automatizadas com drones no Afeganistão.

Mas há uma diferença essencial: hoje, a decisão é digital. E a responsabilização, difusa.

Se antes havia comandantes a responder por ordens, hoje temos arquitectos de sistemas, developers de software, designers de interfaces — todos fora do alcance do direito penal internacional.


Quem vigia os algoritmos?

A ONU, até agora, não dispõe de um regime vinculativo sobre o uso de IA em conflitos armados. Nem o Conselho de Segurança, nem a Assembleia Geral aprovaram resoluções específicas. Há iniciativas em curso — como a “Laws of War and AI” proposta pela ICRC —, mas a pressão dos países mais tecnologicamente avançados (EUA, Israel, China, Rússia) tem travado qualquer progresso real.

Se nada mudar, os sistemas como Lavender tornar-se-ão o novo normal: rápidos, eficientes — e irreversíveis.


Um futuro programado?

A guerra em Gaza mostra, com brutal clareza, para onde caminha o futuro da violência estatal: decisões letais tomadas por algoritmos opacos, legitimadas por discursos de eficiência, segurança e inevitabilidade.

Mas a inevitabilidade é um mito. É possível parar esta engrenagem. O que falta é vontade política — e coragem moral.


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

A Comissão Oculta: A Verdadeira Comissão de Verdade Portuguesa de 1974

Partilha
Poucos portugueses sabem que o país teve, formalmente, algo parecido com uma comissão de verdade sobre os crimes da ditadura. E ainda menos conhecem a sua existência no contexto colonial. Foi uma comissão militar, criada no rescaldo do 25 de Abril de 1974, para investigar os abusos da PIDE/DGS em Moçambique. Tinha poderes extraordinários, acedia a documentos secretos e ouvia testemunhos de vítimas. No entanto, o seu trabalho caiu rapidamente no esquecimento. Nunca publicou conclusões públicas. Nunca produziu julgamentos duradouros. Foi, de certa forma, a comissão que Portugal preferiu esquecer.

Direito internacional humanitário: guia para decisores

Partilha
Partilha Resumo Um roteiro operativo para aplicar o direito internacional humanitário (DIH)…

Bonificação de juros habitação: quando 73% do investimento público foi para o crédito

Partilha
Partilha Resumo A bonificação de juros pertence a outra era, mas o…

Detenção de menor palestino-americano expõe um sistema que anula a infância

Partilha
Partilha Resumo A família, repartida entre a Cisjordânia e a Florida, escreveu…