Partilha

Resumo

  • Em junho de 2024, investigações do New York Times, Haaretz e Politico revelaram que o Ministério dos Assuntos da Diáspora contratou a empresa de marketing político Stoic para uma operação encoberta nos EUA.
  • O consórcio Forbidden Stories expôs a Team Jorge, liderada por Tal Hanan, com o sistema AIMS, capaz de controlar dezenas de milhares de avatares cruzando X, Facebook, Gmail e mais.
  • Mas o know-how técnico e humano está disponível a quem paga — e a guerra de Gaza tornou‑se vitrina.

Quem, onde e como opera a máquina de influência nas redes — e porque importa agora

Em outubro de 2023, ao mesmo tempo que avançavam tanques e drones, uma outra frente abriu-se no ecrã do telemóvel. Operadores ligados ao Estado israelita, agências privadas e estruturas “cívicas” lançaram campanhas coordenadas para influenciar políticos, jornalistas e jovens em vários países. O objetivo era claro: moldar a opinião pública e pressionar decisões. Quando? A partir de 7 de outubro, com pico em 2024. Onde? X, Instagram, Facebook, YouTube, Telegram. Com que meios? bots, IA generativa e exércitos de trolls. Para quê? Para ganhar a narrativa — antes que a verificação chegue. politico.comWIRED

O laboratório “Stoic”: campanha secreta paga pelo Governo

Em junho de 2024, investigações do New York Times, Haaretz e Politico revelaram que o Ministério dos Assuntos da Diáspora contratou a empresa de marketing político Stoic para uma operação encoberta nos EUA. Orçamento aproximado: 2 milhões de dólares. Ferramentas: IA para criar personas “americanas”, centenas de perfis falsos e três sítios “noticiosos” de fachada. Alvo principal: 128 congressistas, sobretudo democratas negros e progressistas, pressionados a apoiar a guerra em Gaza. O ministério negou; as plataformas derrubaram contas. Mas a prova ficou. haaretz.compolitico.comWikipedia

As plataformas viram o mesmo padrão: comentários gerados por IA, copy-paste entre contas, e mensagens quase idênticas espalhadas em horas. Meta comunicou derrubes; OpenAI relatou que a operação usou modelos generativos para texto e imagens. O efeito foi limitado? Sim. Mas o teste tecnológico passou. E voltará a ser tentado. The Wall Street JournalOpenAIGeorgia Public Broadcasting

Voluntariado ou astroturfing? O caso Act.IL

Durante anos, a aplicação Act.IL mobilizou “voluntários” para missões coordenadas: comentar, denunciar, amplificar conteúdos pró‑governo. O DFRLab documentou fluxos de tarefas lançadas em momentos críticos, como escaladas de confronto com Gaza. Não era apenas ativismo; era coordenação centralizada mascarada de espontaneidade. O projeto esvaziou, mas o método ficou — e migrou para novas ferramentas. DFRLabAbba Eban Institute

Quem ganha com este ruído orquestrado?

Bots privados ao serviço: “Team Jorge” e o software AIMS

Na sombra, empresas israelitas de “influência para alugar” oferecem exércitos de perfis automáticos e serviços de intrusão. O consórcio Forbidden Stories expôs a Team Jorge, liderada por Tal Hanan, com o sistema AIMS, capaz de controlar dezenas de milhares de avatares cruzando X, Facebook, Gmail e mais. É um mercado global. Mas o know-how técnico e humano está disponível a quem paga — e a guerra de Gaza tornou‑se vitrina. Forbidden StoriesThe Guardian

“Words of Iron”: a nova geração de amplificação

Em 2024, surgiu online uma ferramenta que fornece textos, ângulos e “tarefas” para contas alinhadas com a narrativa oficial: “Words of Iron”. O DFRLab descreveu-a como uma evolução — menos aplicação, mais portal modular, para acelerar sincronização e linguagem comum entre contas “orgânicas”. É uma ponte entre militância e automatização: reduz fricção, dá talking points e mede alcance. DFRLab+1

As fronteiras entre utilizador real e operador coordenado esbatem‑se. É isso que a desinformação quer. E é por isso que funciona.

Takedowns não chegam: a dança das plataformas

As plataformas removem redes quando detetam Comportamento Inautêntico Coordenado. A Meta derrubou operações sediadas em Israel já em 2019 (caso Archimedes Group) e, em 2024, baniu contas ligadas à Stoic. Contudo, a execução é desigual e reativa: as redes reaparecem com ligeiros ajustes técnicos. Transparência existe, mas atrasada face ao ciclo noticioso. about.fb.comThe Wall Street Journalmd.teyit.org

E, enquanto uma rede cai, outra prepara‑se. A janela de impacto — dias, por vezes horas — basta para contaminar feeds, trending topics e caixas de comentários de figuras públicas.

Táticas recorrentes: cinco padrões a vigiar

  1. Falsas identidades locais — perfis que se apresentam como estudantes, veteranos ou minorias, mas publicam scripts idênticos. 2) Micro‑alvos políticos — comentários sincronizados nos perfis de deputados e senadores, para “criar clima”. 3) Sítios‑espelho que imitam jornalismo e servem de fonte aos próprios trolls. 4) IA generativa para texto curto, memes e reels. 5) Astroturfing: petições e “grupos” que parecem baseados na sociedade civil, mas nascem em agências. Documentado? Em lote, na campanha da Stoic. Negado oficialmente, sim, mas confirmado por derrubes e leaks. politico.comBusiness Insider

Direito, ética e geopolítica: linhas que não podem ceder

A interferência encoberta em parlamentos estrangeiros não é detalhe. Levanta questões legais (FARA, transparência de financiamento) e mina o contraditório democrático. Documentos e audiências públicas indicam programas governamentais para moldar o discurso nos EUA, incluindo rebranding do antigo “Kela Shlomo” (Voices of Israel). A fronteira entre diplomacia pública e propaganda oculta foi… atravessada. The Guardian

“Mas outros também o fazem.” É verdade: Rússia, China, Irão e atores não‑estatais correm a mesma pista. Isso não absolve ninguém; exige padrões universais e responsabilização — também quando o autor é aliado. Wikipedia

O impacto real: curto alcance, dano duradouro

Relatórios técnicos apontam baixa tração orgânica destas campanhas. Porém, o dano reputacional persiste: semeadura de dúvida, saturação do debate e desvio de agenda. Covers jornalísticos mostram ainda o desconforto político em responder a perguntas básicas: quem contratou, quem pagou, quem supervisionou. O silêncio é uma resposta — e diz muito. WIREDCyberScoop

Como nos defendemos: um guia prático para redações e leitores

  • Atribui origem: se o perfil é “novo”, com poucas interações e linguagem “robotizada”, coloca-o sob suspeita.
  • Pede rasto documental: quando uma conta cita “estudos”, exige link e autor.
  • Verifica sincronia: vinte comentários com a mesma frase não são “tendência”.
  • Evita amplificar: screenshots de propaganda… também propagam.
  • Procura o contraditório: negações oficiais contam — e devem ser citadas —, mas não substituem verificação independente. transparency.meta.com

O que falta fazer — e já

As plataformas devem publicar indicadores operacionais (tempo até derrube, reincidência, ligações entre clusters). Governos e parlamentos precisam de regras claras sobre propaganda encoberta, contratualização de lobbies estrangeiros e uso de IA em campanhas. Redações têm de investir em OSINT e literacia algorítmica. Sem isso, cada ciclo informativo será uma nova arena para Israel IA, bots e trolls — e para todos os que imitam o modelo. graphika.com

Porque, no fim, é simples: se ganhas a primeira hora, ganhas o enquadramento. E, na política externa, o enquadramento decide orçamentos, embargos, sanções… e vidas.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

Chega sem Ventura: Futuro Possível ou Colapso Certeiro?

Partilha
Partilha Resumo Lisboa — Desde a sua fundação, o Chega cresceu em…

O Iconoclasta: Como Norman Finkelstein Desafiou o Consenso Sobre o Holocausto e Israel

Partilha
Partilha Resumo A sua tese de doutoramento versava sobre o conflito israelo-palestiniano…