Resumo
- O que muda com a inteligência artificial — como sublinha o documento A Engenharia da Desinformação da Extrema-Direita — é a escala.
- O documento chama atenção para o facto de a IA permitir que mensagens atravessem fronteiras e comunidades linguísticas quase sem fricção.
- aumenta a velocidade de circulação, reduz o custo de fabricar “provas” e facilita a adaptação da narrativa a medos específicos (imigração, crime, corrupção, género, etc.
A desinformação sempre viveu de duas coisas: atenção e distribuição. O que muda com a inteligência artificial — como sublinha o documento A Engenharia da Desinformação da Extrema-Direita — é a escala: mais conteúdo, mais rápido, em mais línguas, com mais “verniz” de credibilidade. É a passagem do boato artesanal para a linha de montagem.
Neste novo cenário, já não estamos só a falar de textos falsos. Falamos de deepfakes, áudios “realistas”, imagens manipuladas e uma capacidade inédita de micro-adaptação da mensagem a públicos diferentes — tudo com custos mais baixos e barreiras técnicas menores.
O que é “AIPasta” (e por que importa)
O documento usa “AIPasta” como forma de descrever um fenómeno simples: conteúdo gerado/expandido por IA, colado e replicado em massa, com pequenas variações para parecer “orgânico”.
É a evolução do “copiar-colar”:
- antes: a mesma frase repetida em todo o lado (fácil de detectar);
- agora: múltiplas versões da mesma mentira, com sinónimos, tons diferentes, supostas “fontes” e até estilo jornalístico.
O efeito é duplo:
- dificulta a detecção (menos padrões iguais);
- aumenta a persuasão (parece que há “muitas provas” e “muita gente” a dizer o mesmo).
Três maneiras como a IA turbina a desinformação
1) Tradução e localização instantâneas
O documento chama atenção para o facto de a IA permitir que mensagens atravessem fronteiras e comunidades linguísticas quase sem fricção. O que antes exigia tradutores e tempo, agora faz-se em minutos.
Conseqüência: uma narrativa pode nascer fora de Portugal e chegar cá “tropicalizada”, com referências locais, nomes portugueses e enquadramento político nacional.
2) Produção em massa com aparência de diversidade
Aqui entra a AIPasta: dezenas de posts, “análises”, threads, comentários e até “cartas abertas”, todos diferentes na superfície — mas com o mesmo núcleo manipulador.
Conseqüência: o público confunde volume com verdade (“se há tantos a explicar, deve haver qualquer coisa”).
3) Deepfakes e manipulação audiovisual
O documento identifica os deepfakes como risco central porque mexem no que ainda era, para muita gente, o último bastião de confiança: “vi com os meus olhos” / “ouvi com os meus ouvidos”.
Conseqüência: mesmo quando desmentido, o vídeo pode continuar a viver — e a moldar percepções — por ser emocionalmente marcante.
O efeito político: acelerar a polarização
A IA não cria polarização do zero, mas funciona como acelerador: aumenta a velocidade de circulação, reduz o custo de fabricar “provas” e facilita a adaptação da narrativa a medos específicos (imigração, crime, corrupção, género, etc.). O documento liga esta aceleração ao ciclo repetição → emoção → normalização, que desloca a “janela do aceitável”.
Como reconhecer (sem precisar de ser perito)
Nenhum sinal, sozinho, prova que algo é gerado por IA. Mas há combinações que devem acender alerta.
Sinais típicos em texto (AIPasta)
- “Informação” muito longa, muito fluida, sem fonte primária (só “dizem que”, “vi num relatório”).
- Citações vagas (“especialistas dizem”, “um estudo prova”) sem link ou referência verificável.
- Variações suspeitas do mesmo argumento em muitas contas (mesma ideia, estilos diferentes).
Sinais típicos em vídeo/áudio (deepfake ou manipulação)
- Falas com ritmo estranho (pausas “não humanas”) ou dicção demasiado perfeita.
- Incongruências entre emoção facial e conteúdo dito.
- Vídeos que aparecem sem contexto original (sem data, local, evento completo).
Caixa prática: “verificar em 60 segundos”
Quando te chega um vídeo/áudio “bombástico”:
- Origem: quem publicou primeiro? é conta identificável?
- Contexto: onde e quando foi gravado? há versão longa?
- Fonte primária: existe emissão completa, conferência, entrevista integral?
- Confirmação cruzada: há mais meios credíveis a reportar o mesmo facto?
- Sinais de montagem: cortes frequentes, legendas agressivas, música dramática.
Para texto “análise”:
- pede um link para fonte primária (documento, estatística oficial, decisão judicial);
- se não houver, trata como opinião/persuasão, não como facto.
O que as plataformas e as instituições podem (e devem) fazer
O documento sugere implicitamente um dilema: quanto mais fácil é produzir desinformação, maior tem de ser a capacidade de:
- detectar redes coordenadas,
- reduzir alcance de conteúdos manipulados,
- exigir transparência em publicidade política,
- e investir em literacia mediática (escolas + público adulto).
Em Portugal, a urgência não é “tecnológica” — é de confiança pública: quando qualquer pessoa pode fabricar “provas” verosímeis, a sociedade precisa de mecanismos rápidos para separar informação de engenharia emocional.
O que fica
A IA não torna toda a internet falsa. Mas torna muito mais barato produzir falsidades com aspeto plausível — e isso muda o equilíbrio do jogo. O antídoto não é paranoia; é método: pedir fonte primária, exigir contexto, e recusar o impulso de partilhar antes de verificar.
Se quiseres, avanço com o Artigo 6 (janela do aceitável/polarização) em formato mais analítico, ou preparo uma versão curta para redes deste Artigo 5 (carrossel 8 slides + guião de vídeo 45s).