IA na campanha: 23,5% dos casos já tiveram “uso de Inteligência Artificial” — mas não como imaginas - Sociedade Civil
Partilha

Resumo

  • no estudo, a IA aparece sobretudo ligada a “intenções de voto” geradas por empresas de análise política que recorrem a algoritmos de previsão sem transparência metodológica.
  • em vez do clássico vídeo falsificado com cara e voz de alguém, surge o número que parece científico — e que se cola ao eleitor como destino.
  • Mas quando a metodologia é opaca e o número é usado como arma de campanha, não estamos a informar o eleitor — estamos a empurrá-lo.

Nas presidenciais de 2026, a desinformação ganhou um novo aditivo: a Inteligência Artificial. No relatório do LabCom/UBI (ODEPOL), 4 em 17 casos detetados (23,5%) envolveram utilização direta ou indireta de IA. O número é pequeno o suficiente para não permitir histerias, mas grande o suficiente para marcar uma mudança: a mentira começou a vestir bata de laboratório.

O mesmo documento descreve a campanha como um ponto de inflexão na sofisticação tecnológica, num ecossistema onde conteúdos desinformativos somaram 8.392.713 visualizações e centenas de milhares de interações. O que está em causa não é só “mais tecnologia”; é uma nova forma de fabricar inevitabilidade.

“Uso de IA” não é só deepfake

Aqui está a nuance que interessa ao leitor: no estudo, a IA aparece sobretudo ligada a “intenções de voto” geradas por empresas de análise política que recorrem a algoritmos de previsão sem transparência metodológica. Ou seja: em vez do clássico vídeo falsificado com cara e voz de alguém, surge o número que parece científico — e que se cola ao eleitor como destino.

Daquela promessa, restou apenas o eco: “os dados dizem”.

Micro-história: o gráfico que decidiu a conversa

Na Praça do Chile, à porta de uma pastelaria, um homem mostrou no telemóvel um gráfico de “previsão algorítmica”: setas a subir, percentagens redondas, um logótipo qualquer no canto. “Isto é matemática, não é opinião”, disse ele, com a tranquilidade de quem encontrou prova irrefutável. O detalhe é este: ninguém perguntou quem fez, como fez, com que dados, com que margem de erro. O gráfico estava limpo. E, às vezes, é isso que convence.

Invertida fica a ordem: primeiro a autoridade visual, depois a verificação.

O truque da “inevitabilidade”

Segundo o relatório, André Ventura usou estas ferramentas para criar percepção de inevitabilidade da vitória ou de crescimento eleitoral que não correspondia às sondagens oficiais. Isto é propaganda com uma camada extra: não te pede que acredites no líder, pede-te que acredites no algoritmo.

Poderiam argumentar que previsões fazem parte do jogo político e que cada candidatura tenta mostrar “tendência”. A concessão honesta é esta: há análise legítima, há modelação séria, há estatística feita com transparência.

Mas quando a metodologia é opaca e o número é usado como arma de campanha, não estamos a informar o eleitor — estamos a empurrá-lo. E o empurrão tem uma consequência democrática: desmobiliza quem se sente derrotado e atrai indecisos que não querem “ficar do lado perdedor”.

O que o eleitor pode fazer quando lhe vendem IA em formato de certeza

Três perguntas curtas, de sobrevivência cívica:

  • Quem produziu o modelo? (nome, instituição, histórico)
  • Que dados alimentaram a previsão? (amostra, período, fonte)
  • Onde está a metodologia? (explicada e auditável — ou escondida)

A frase de impacto fecha sem adornos: quando a IA entra na campanha sem transparência, a democracia fica a votar às cegas.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

Flotilha da Liberdade desafia bloqueio de Gaza e enfrenta ameaça militar israelita

Partilha
Thiago Ávila alerta para risco de vida e denuncia possível novo crime de guerra. A bordo, ativistas de sete países enfrentam a intimidação de Israel para levar ajuda humanitária a Gaza.

Multa de 400 € a Ventura (2020): advertência simbólica ou precedente regulador?

Partilha
A 18 de novembro de 2020, a Comissão para a Igualdade e Contra a Discriminação Racial (CICDR) aplicou uma multa de cerca de 400 euros a André Ventura, presidente do Chega, por declarações discriminatórias dirigidas às comunidades ciganas. Este episódio, embora relativamente modesto em termos pecuniários, encerra uma questão de maior peso jurídico e político: tratou-se de uma mera advertência simbólica ou de um precedente com potencial regulador no discurso político em Portugal?

Liberdade de imprensa em retrocesso: entre o modelo KESMA e a precariedade lusa — por que a informação livre é antídoto à tirania

Partilha
A liberdade de imprensa não desaparece de um dia para o outro. Enfraquece devagar, sufocada por controlo político, asfixia económica ou indiferença social. Na Hungria de Viktor Orbán, o modelo KESMA — um megaconglomerado pró-governamental que engoliu centenas de órgãos de comunicação social — tornou-se sinónimo de manipulação institucional da informação. Em Portugal, o perigo é de outro tipo: não se chama censura, mas precariedade. O efeito, porém, pode convergir — uma imprensa vulnerável é uma democracia em risco.