IA na desinformação: do “copy-paste” ao “AIPasta” - Sociedade Civil
Partilha

Resumo

  • O que muda com a inteligência artificial — como sublinha o documento A Engenharia da Desinformação da Extrema-Direita — é a escala.
  • O documento chama atenção para o facto de a IA permitir que mensagens atravessem fronteiras e comunidades linguísticas quase sem fricção.
  • aumenta a velocidade de circulação, reduz o custo de fabricar “provas” e facilita a adaptação da narrativa a medos específicos (imigração, crime, corrupção, género, etc.

A desinformação sempre viveu de duas coisas: atenção e distribuição. O que muda com a inteligência artificial — como sublinha o documento A Engenharia da Desinformação da Extrema-Direita — é a escala: mais conteúdo, mais rápido, em mais línguas, com mais “verniz” de credibilidade. É a passagem do boato artesanal para a linha de montagem.

Neste novo cenário, já não estamos só a falar de textos falsos. Falamos de deepfakes, áudios “realistas”, imagens manipuladas e uma capacidade inédita de micro-adaptação da mensagem a públicos diferentes — tudo com custos mais baixos e barreiras técnicas menores.


O que é “AIPasta” (e por que importa)

O documento usa “AIPasta” como forma de descrever um fenómeno simples: conteúdo gerado/expandido por IA, colado e replicado em massa, com pequenas variações para parecer “orgânico”.

É a evolução do “copiar-colar”:

  • antes: a mesma frase repetida em todo o lado (fácil de detectar);
  • agora: múltiplas versões da mesma mentira, com sinónimos, tons diferentes, supostas “fontes” e até estilo jornalístico.

O efeito é duplo:

  1. dificulta a detecção (menos padrões iguais);
  2. aumenta a persuasão (parece que há “muitas provas” e “muita gente” a dizer o mesmo).

Três maneiras como a IA turbina a desinformação

1) Tradução e localização instantâneas

O documento chama atenção para o facto de a IA permitir que mensagens atravessem fronteiras e comunidades linguísticas quase sem fricção. O que antes exigia tradutores e tempo, agora faz-se em minutos.

Conseqüência: uma narrativa pode nascer fora de Portugal e chegar cá “tropicalizada”, com referências locais, nomes portugueses e enquadramento político nacional.

2) Produção em massa com aparência de diversidade

Aqui entra a AIPasta: dezenas de posts, “análises”, threads, comentários e até “cartas abertas”, todos diferentes na superfície — mas com o mesmo núcleo manipulador.

Conseqüência: o público confunde volume com verdade (“se há tantos a explicar, deve haver qualquer coisa”).

3) Deepfakes e manipulação audiovisual

O documento identifica os deepfakes como risco central porque mexem no que ainda era, para muita gente, o último bastião de confiança: “vi com os meus olhos” / “ouvi com os meus ouvidos”.

Conseqüência: mesmo quando desmentido, o vídeo pode continuar a viver — e a moldar percepções — por ser emocionalmente marcante.


O efeito político: acelerar a polarização

A IA não cria polarização do zero, mas funciona como acelerador: aumenta a velocidade de circulação, reduz o custo de fabricar “provas” e facilita a adaptação da narrativa a medos específicos (imigração, crime, corrupção, género, etc.). O documento liga esta aceleração ao ciclo repetição → emoção → normalização, que desloca a “janela do aceitável”.


Como reconhecer (sem precisar de ser perito)

Nenhum sinal, sozinho, prova que algo é gerado por IA. Mas há combinações que devem acender alerta.

Sinais típicos em texto (AIPasta)

  • “Informação” muito longa, muito fluida, sem fonte primária (só “dizem que”, “vi num relatório”).
  • Citações vagas (“especialistas dizem”, “um estudo prova”) sem link ou referência verificável.
  • Variações suspeitas do mesmo argumento em muitas contas (mesma ideia, estilos diferentes).

Sinais típicos em vídeo/áudio (deepfake ou manipulação)

  • Falas com ritmo estranho (pausas “não humanas”) ou dicção demasiado perfeita.
  • Incongruências entre emoção facial e conteúdo dito.
  • Vídeos que aparecem sem contexto original (sem data, local, evento completo).

Caixa prática: “verificar em 60 segundos”

Quando te chega um vídeo/áudio “bombástico”:

  1. Origem: quem publicou primeiro? é conta identificável?
  2. Contexto: onde e quando foi gravado? há versão longa?
  3. Fonte primária: existe emissão completa, conferência, entrevista integral?
  4. Confirmação cruzada: há mais meios credíveis a reportar o mesmo facto?
  5. Sinais de montagem: cortes frequentes, legendas agressivas, música dramática.

Para texto “análise”:

  1. pede um link para fonte primária (documento, estatística oficial, decisão judicial);
  2. se não houver, trata como opinião/persuasão, não como facto.

O que as plataformas e as instituições podem (e devem) fazer

O documento sugere implicitamente um dilema: quanto mais fácil é produzir desinformação, maior tem de ser a capacidade de:

  • detectar redes coordenadas,
  • reduzir alcance de conteúdos manipulados,
  • exigir transparência em publicidade política,
  • e investir em literacia mediática (escolas + público adulto).

Em Portugal, a urgência não é “tecnológica” — é de confiança pública: quando qualquer pessoa pode fabricar “provas” verosímeis, a sociedade precisa de mecanismos rápidos para separar informação de engenharia emocional.


O que fica

A IA não torna toda a internet falsa. Mas torna muito mais barato produzir falsidades com aspeto plausível — e isso muda o equilíbrio do jogo. O antídoto não é paranoia; é método: pedir fonte primária, exigir contexto, e recusar o impulso de partilhar antes de verificar.

Se quiseres, avanço com o Artigo 6 (janela do aceitável/polarização) em formato mais analítico, ou preparo uma versão curta para redes deste Artigo 5 (carrossel 8 slides + guião de vídeo 45s).

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

O “Venturismo” e o Manual Global do Populismo

Partilha
Partilha Resumo No plano simbólico, Ventura importa o tom combativo de Salvini…

Gaza: O Inferno a 60 Km — O Silêncio de Tel Aviv

Partilha
Partilha Resumo a de que a culpa é do Hamas e que…

Recrutamento em tempos de guerra: o novo apelo ao orgulho e à agressividade

Partilha
Partilha Resumo A mudança de nome do Departamento de Defesa para Departamento…

A Indústria da Mentira: quando a verdade deixa de bastar

Partilha
Partilha Resumo E quando o real começa a ser percebido como “apenas…