Partilha

Resumo

  • Reportagem especial sobre o impacto dos sistemas autónomos de selecção de alvos em civis palestinianos, e as implicações éticas para o futuro da guerra.
  • O uso intensivo de sistemas de inteligência artificial (IA) por parte das Forças de Defesa de Israel (IDF) — confirmados por investigações independentes e por denúncias no relatório da ONU de Francesca Albanese — marca uma nova era na condução da guerra.
  • Em declarações anónimas, membros das IDF referiram que o sistema “validava milhares de alvos por dia” e que “muitos dos ataques foram lançados sem que o operador soubesse o nome da pessoa visada”.

Reportagem especial sobre o impacto dos sistemas autónomos de selecção de alvos em civis palestinianos, e as implicações éticas para o futuro da guerra


Imagine um drone que decide, em segundos, se deve ou não disparar. Uma base de dados que associa comportamentos, localização e nomes para prever “intenção hostil”. Um sistema automático que transforma a informação recolhida por redes sociais, telemóveis e câmaras em ordens de ataque. Tudo sem supervisão judicial. Tudo sem margem para defesa.

Este cenário não é ficção científica — é Gaza em 2024–2025. O uso intensivo de sistemas de inteligência artificial (IA) por parte das Forças de Defesa de Israel (IDF) — confirmados por investigações independentes e por denúncias no relatório da ONU de Francesca Albanese — marca uma nova era na condução da guerra: a era da letalidade algorítmica.

A fronteira entre arma e decisão militar tornou-se difusa. E as perguntas urgentes multiplicam-se: pode um algoritmo cometer um crime de guerra? Quem responde por uma ordem automática de execução? E até que ponto o silêncio internacional legitima esta nova forma de matar?


Lavender e Gospel: máquinas de matar com pontuação

Em investigações conduzidas pela +972 MagazineThe Guardian e The Intercept, dois sistemas de IA surgem como peças centrais da guerra algorítmica em Gaza:

  • Lavender: sistema de selecção de alvos humanos com base em correlações digitais — incluindo chamadas telefónicas, ligações em redes sociais, padrões de mobilidade e perfis sociodemográficos.
  • Gospel: motor preditivo de ataques a instalações com base em inteligência visual, algoritmos de reconhecimento de padrões e modelos de “comportamento suspeito”.

Ambos operam com margens mínimas de supervisão humana. Em declarações anónimas, membros das IDF referiram que o sistema “validava milhares de alvos por dia” e que “muitos dos ataques foram lançados sem que o operador soubesse o nome da pessoa visada”.


A arquitectura digital da eliminação

Estes sistemas não funcionam isoladamente. Fazem parte de uma arquitectura de guerra digital que combina:

  • Intercepção massiva de comunicações (com software como Pegasus e similares);
  • Análise de big data (com apoio de plataformas como Palantir, cuja tecnologia é usada por serviços secretos dos EUA e Israel);
  • Integração com sistemas de armas autónomos, incluindo drones e mísseis teleguiados.

Tudo isto configura um modelo de decisão acelerada, onde a máquina detecta, identifica e recomenda a eliminação — com o humano a desempenhar um papel marginal ou simbólico. A “verificação ética”, outrora obrigatória em conflitos armados, é substituída por métricas de eficácia.


O impacto nos civis: famílias inteiras eliminadas por erro de cálculo

O resultado é devastador. Segundo o relatório de Francesca Albanese, mais de 14 mil crianças palestinianas foram mortas em Gaza entre Outubro de 2023 e Maio de 2025. Muitas em bombardeamentos sobre casas onde os algoritmos identificaram um suposto alvo “alto risco”.

Casos documentados mostram padrões repetitivos: uma chamada telefónica a um familiar ligado a uma ONG, uma visita a uma mesquita observada por drone, um nome semelhante ao de outro suspeito. Bastam esses elementos para que um sistema automatizado recomende o ataque.

A precisão matemática esconde a violência moral. “A IA não elimina a arbitrariedade — apenas a automatiza”, escreve Albanese.


As empresas que constroem a guerra invisível

A reportagem identifica várias empresas — israelitas, norte-americanas e europeias — que fornecem ou desenvolvem tecnologia base para esses sistemas:

  • Elbit Systems: fabricante de sistemas de armas autónomos e sensores inteligentes;
  • Palantir Technologies: fornecedora de plataformas de análise de big data com clientes nas forças armadas israelitas;
  • Amazon AWS e Microsoft Azure: plataformas de cloud computing utilizadas por sistemas de defesa e vigilância.

Algumas destas empresas têm parcerias com universidades europeias e financiamento de programas da União Europeia. Segundo o relatório, “a ausência de controlo sobre as aplicações finais dessas tecnologias configura risco grave de cumplicidade indirecta”.


Portugal e a União Europeia: cúmplices por omissão?

Embora Portugal não esteja directamente ligado ao desenvolvimento dos sistemas Lavender ou Gospelparticipa em projectos de cooperação tecnológica e académica com entidades israelitas envolvidas na indústria de defesa. O programa Horizonte Europa, por exemplo, financiou projectos onde colaboram universidades e empresas com duplo uso (civil e militar).

A ausência de auditorias públicas, de critérios éticos vinculativos e de avaliação independente permite que tecnologia civil portuguesa possa estar a ser integrada em dispositivos de guerra algorítmica — sem o conhecimento do parlamento ou do público.

A relatora Albanese apela a uma revisão urgente dos critérios europeus de financiamento: “não se pode combater o genocídio com fundos de inovação tecnológica”.


O precedente histórico: do Vietname a Gaza

A desumanização algorítmica de alvos humanos em Gaza evoca fantasmas do passado: os bombardeamentos por quotas no Vietname, a doutrina de “alvos compensatórios” no Iraque e as execuções automatizadas com drones no Afeganistão.

Mas há uma diferença essencial: hoje, a decisão é digital. E a responsabilização, difusa.

Se antes havia comandantes a responder por ordens, hoje temos arquitectos de sistemas, developers de software, designers de interfaces — todos fora do alcance do direito penal internacional.


Quem vigia os algoritmos?

A ONU, até agora, não dispõe de um regime vinculativo sobre o uso de IA em conflitos armados. Nem o Conselho de Segurança, nem a Assembleia Geral aprovaram resoluções específicas. Há iniciativas em curso — como a “Laws of War and AI” proposta pela ICRC —, mas a pressão dos países mais tecnologicamente avançados (EUA, Israel, China, Rússia) tem travado qualquer progresso real.

Se nada mudar, os sistemas como Lavender tornar-se-ão o novo normal: rápidos, eficientes — e irreversíveis.


Um futuro programado?

A guerra em Gaza mostra, com brutal clareza, para onde caminha o futuro da violência estatal: decisões letais tomadas por algoritmos opacos, legitimadas por discursos de eficiência, segurança e inevitabilidade.

Mas a inevitabilidade é um mito. É possível parar esta engrenagem. O que falta é vontade política — e coragem moral.


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

Oposição Venezuela 2026: oportunidade histórica ou nova vaga de repressão?

Partilha
Partilha Resumo Em Caracas, na madrugada de 3 de janeiro, a operação…

Manipulated: Desinformação por IA ameaça a confiança digital

Partilha
Uma nova série investigativa alerta para os perigos da inteligência artificial na disseminação de conteúdos manipulados. “Manipulated: A Disinformation Nation”, lançada pela Gray Media e pela plataforma InvestigateTV, mergulha no impacto crescente das deepfakes e fraudes digitais, revelando como estas tecnologias estão a contaminar o nosso quotidiano — das redes sociais às campanhas políticas.

Jornalistas embedded: quem controla o que vemos numa guerra?

Partilha
Partilha Resumo A câmara não chega a hospitais improvisados, a morgues sem…

Do Holocausto à Palestina: O Retorno da Responsabilização Corporativa por Crimes de Guerra

Partilha
Após os julgamentos de Nuremberga, o mundo jurou: “Nunca mais”. Mas esse juramento, tantas vezes repetido em monumentos e memoriais, esbate-se hoje diante da inação da justiça internacional perante crimes de guerra em Gaza. No seu mais recente relatório, From economy of occupation to economy of genocide, as Nações Unidas lançam um alerta: a responsabilidade das empresas em contextos de atrocidades sistemáticas está a ser ignorada, com consequências trágicas para os direitos humanos e para o próprio sistema internacional.