Resumo
- A empresa recolheu dados de mais de 87 milhões de utilizadores do Facebook, usando testes de personalidade aparentemente inofensivos e interacções triviais (likes, páginas seguidas, reacções).
- As eleições presidenciais nos EUA (2016), o referendo do Brexit e diversas campanhas em África, Ásia e América Latina contaram com operações semelhantes.
- O voto livre começa na mente — e na informação que a alimenta.
Era uma vez a política como espaço público: comícios, debates, panfletos — visíveis a todos, discutíveis por todos. Mas algo mudou. Hoje, as campanhas falam em privado, sussurram ao ouvido de cada eleitor uma mensagem feita à medida da sua ansiedade, da sua memória de consumo, do seu perfil psicológico. O caso Cambridge Analytica, revelado em 2018, expôs essa viragem: a transição da persuasão pública para a manipulação personalizada.
O modelo: conhecer para influenciar — sem que se note
Cambridge Analytica não inventou o microtargeting. Mas levou-o ao limite. A empresa recolheu dados de mais de 87 milhões de utilizadores do Facebook, usando testes de personalidade aparentemente inofensivos e interacções triviais (likes, páginas seguidas, reacções). Cruzando essas informações com bases eleitorais, consumo e etnografia digital, criava perfis psicográficos ultra-detalhados.
Depois, servia a cada eleitor uma mensagem distinta — sobre imigração, crime, economia ou valores — desenhada para acionar os seus medos e expectativas mais íntimos. Tudo sem ser detectado pelo espaço público. Sem contraditório. Sem escrutínio.
Uma campanha, mil versões — invisíveis entre si
Ao contrário da publicidade tradicional, as mensagens microsegmentadas não são públicas. São privadas, efémeras, dirigidas a públicos que partilham traços, mas não espaço social. Um eleitor ansioso com a segurança via vídeos sobre “crimes de fronteira”. Outro, céptico em relação à UE, recebia uma narrativa sobre “o controlo de Bruxelas”. Um terceiro, afastado da política, era empurrado para a abstenção — “não vale a pena, são todos iguais”.
O perigo? A campanha torna-se invisível até para quem a vive. E a democracia, um jogo de espelhos personalizados.
Impacto documentado — e subvalorizado
As eleições presidenciais nos EUA (2016), o referendo do Brexit e diversas campanhas em África, Ásia e América Latina contaram com operações semelhantes. Não se trata de votos falsos, mas de percepções moldadas silenciosamente.
O impacto do caso Cambridge Analytica foi profundo: demissões, investigações parlamentares, multas recorde. Mas as práticas continuam. Apenas mudaram de nome e esconderijo.
Portugal: terreno fértil, vigilância frágil
Em Portugal, o microtargeting político ainda está em fase embrionária — mas a base está lançada. Partidos compram publicidade digital dirigida por geografia, idade, temas sensíveis. Não há obrigação de registo público das mensagens pagas nem de identificação clara dos seus destinatários. A lei eleitoral foi feita para outdoors, não para algoritmos.
As eleições de 2026 serão um teste: conseguiremos ver o que não se mostra?
O que está em jogo: não é só privacidade — é soberania cívica
Quando cada eleitor recebe uma narrativa feita à medida, perde-se o debate comum. A praça pública é substituída por corredores paralelos, onde se reforçam medos e convicções sem confronto. A liberdade de escolha mantém-se — mas dentro de um jardim murado, com arbustos podados ao gosto do algoritmo.
Medidas urgentes: transparência, equidade, controlo
- Bibliotecas públicas de anúncios políticos — obrigar todas as plataformas a disponibilizar os conteúdos, públicos-alvo, valores gastos e origem dos dados.
- Proibição de microtargeting psicográfico — campanhas podem segmentar por temas ou território, mas nunca por traços emocionais ou personalidade.
- Direito à exposição cruzada — cada cidadão deve poder aceder à totalidade das mensagens políticas em circulação, para garantir pluralidade informativa.
- Auditorias independentes e multas dissuasoras — plataformas e partidos que violem estas regras devem ser responsabilizados legal e financeiramente.
O voto livre começa na mente — e na informação que a alimenta
Cambridge Analytica foi apenas o princípio. O verdadeiro teste é saber se aprendemos com ele. Porque numa democracia digital, proteger o eleitor passa por mais do que garantir a urna. Passa por garantir o caminho até lá — e o que sussurram ao ouvido pelo caminho.
Dito por si:
“Comportamento Coordenado Inautêntico (CIB): anatomia de uma operação” Bots e contas falsas sincronizam mensagens para fabricar apoio ou silenciar críticos durante crises políticas.
Dito pelo ChatGPT:
Comportamento Coordenado Inautêntico (CIB): anatomia de uma operação
Num dia, um político é acusado de corrupção. No seguinte, centenas de contas aparentemente distintas surgem a defendê-lo com o mesmo argumento — ou a atacar o jornalista que revelou o caso. Numa eleição, uma hashtag pró-partido ganha tração repentina, empurrando temas desconfortáveis para fora das tendências. Nas redes, nem tudo o que parece espontâneo o é. Entramos no território do Comportamento Coordenado Inautêntico (CIB): operações digitais que sincronizam contas falsas, bots e perfis clonados para manipular a percepção pública durante momentos críticos.
Inautêntico, mas eficaz — e difícil de detectar
O termo CIB foi popularizado pelo Facebook (hoje Meta) para descrever campanhas que, mesmo quando não publicam conteúdos falsos, enganam sobre quem está por trás da mensagem, e por que razão ela está a ser divulgada. O conteúdo pode até ser verdadeiro — mas o coro de apoio é fabricado.
As operações de CIB combinam:
- Contas falsas ou roubadas, que replicam mensagens ou interagem em massa para simular consenso;
- Perfis automatizados (bots), que lançam hashtags, ampliam publicações ou inundam caixas de comentários;
- Redes de amplificação humana, onde utilizadores reais são pagos ou organizados para publicar em simultâneo mensagens coordenadas.
O objectivo? Fabricar apoio artificial, abafar crítica legítima, manipular trending topics — e, sobretudo, criar a ilusão de maioria.
Fases típicas de uma operação CIB
- Pré-crise: preparação da infraestrutura — criação de contas, testes de engagement, infiltração em grupos.
- Activação: num momento político sensível (protesto, escândalo, eleição), entra em acção a campanha sincronizada.
- Amplificação: com interacções artificiais, os conteúdos ganham visibilidade e escapam aos filtros de moderação.
- Camuflagem: apagam-se rastos, apagam-se contas; os danos ficam.
Plataformas como Twitter (X), Facebook ou Instagram já desmontaram centenas destas operações — ligadas a governos, partidos, empresas ou actores externos. Mas muitas continuam a passar despercebidas.
Exemplos globais — e sinais em Portugal
A Meta revelou operações de CIB associadas a eleições em países tão diversos como Brasil, Filipinas, EUA ou Hungria. Em vários casos, os actores usaram páginas “de entretenimento” ou “noticiosas” como fachada para distribuir propaganda coordenada.
Em Portugal, ainda que com menor escala, há sinais de comportamentos anómalos: perfis recém-criados que interagem em massa com figuras políticas, contas que mudam repentinamente de nome e alinhamento, picos de hashtags políticas promovidas por utilizadores sem histórico.
Por que é grave? Porque sabota o espaço público
CIB não é apenas uma forma de manipulação digital. É um ataque à essência do debate democrático. Quando cidadãos são expostos a uma falsa maioria, ajustam a sua opinião, silenciam dúvidas, hesitam em intervir. A opinião pública deixa de ser o que as pessoas pensam — passa a ser o que os bots mostram.
Além disso, os algoritmos das plataformas favorecem o que parece popular. Ou seja: se o apoio for fabricado, os sistemas empurram-no ainda mais.
Como resistir? Monitorização, transparência, responsabilização
- Equipas de investigação digital nas redacções e universidades — para identificar padrões de CIB e alertar o público.
- Melhoria dos sistemas de detecção automática nas plataformas — hoje ainda muito reativos e opacos.
- Legislação sobre autenticidade digital — obrigar contas que promovem conteúdos políticos a revelar identidade e ligações.
- Campanhas públicas de literacia digital — ensinar como reconhecer comportamentos coordenados e proteger a participação genuína.
Democracia não é gritaria — é representação autêntica
Se o apoio é encenado, se a oposição é silenciada, se as vozes reais são afogadas por máquinas, não estamos num espaço público. Estamos num teatro. Um teatro perigoso — onde o enredo é manipulado e os aplausos… comprados.Desmontar o Comportamento Coordenado Inautêntico é mais do que limpar a internet. É garantir que a democracia se ouve — em vozes reais, diversas e livres.