Combater desinformção em Portugal: soluções reais (e as que falham) depois das presidenciais - Sociedade Civil
Partilha

Resumo

  • 1) Transparência com linguagem de genteQuando a CNE ou a ERC comunicam, a informação tem de ser legível e partilhável.
  • Funciona rotular cedo e de forma visível — não em notas escondidas — tudo o que imita jornalismo sem o ser.
  • O relatório aponta sinais de simultaneidade/coordenação no universo Meta na segunda volta, o que reforça a necessidade de auditoria externa às plataformas quando há padrões anómalos de ampliação.

O relatório do LabCom/UBI (ODEPOL) termina com uma ideia que soa óbvia mas raramente é praticada: o combate à desinformação exige esforço coordenado entre reguladores, plataformas, media e sociedade civil. Não é frase de fecho, é diagnóstico. Em 2026, conteúdos desinformativos somaram 8.392.713 visualizações e centenas de milhares de interações. A velocidade do dano foi maior do que a velocidade da resposta.
A pergunta útil, portanto, não é “quem falhou?”. É “o que funciona mesmo quando o feed quer o contrário?”.

O que funciona: respostas que entram no mesmo ecossistema

1) Transparência com linguagem de gente
Quando a CNE ou a ERC comunicam, a informação tem de ser legível e partilhável. Um esclarecimento em formato de despacho não compete com um vídeo de 12 segundos. E o relatório mostra que o vídeo dominou (70,6%). Se a mentira usa vídeo, a correção também tem de usar vídeo — curto, claro, sem moralismo.

2) Cortar o oxigénio à camuflagem
A ERC já alertou para conteúdos com grafismos semelhantes aos de órgãos de comunicação, precisamente porque isso “empresta” credibilidade e engana pela aparência. Funciona rotular cedo e de forma visível — não em notas escondidas — tudo o que imita jornalismo sem o ser.

3) Auditoria independente e dados de alcance
Sem dados, discute-se sensação. E sensação é o terreno preferido da desinformação. O relatório aponta sinais de simultaneidade/coordenação no universo Meta na segunda volta, o que reforça a necessidade de auditoria externa às plataformas quando há padrões anómalos de ampliação.

4) Literacia mediática aplicada, não cerimonial
O que resulta não são “palestras sobre fake news”. Resulta treino prático: origem do vídeo, data, localização, cortes, legendas, “sondagens” sem ficha técnica. O relatório dá exemplos de “contexto falso” (como o vídeo PETA 2018 do Egito usado como se fosse Portugal) que são perfeitos para ensinar método.
Uma marca de realidade: numa Junta de Freguesia, o que pega não é a teoria. É quando alguém abre o telemóvel e aprende a procurar a origem em dois passos.
Daquela promessa, restou apenas o eco.

O que falha: medidas bonitas que não mudam comportamento
— Desmentidos tardios e longos: chegam quando a história já correu três vezes e já ganhou “verdade social”.
— Campanhas morais (“não partilhe”): culpam o cidadão e não mexem nos incentivos do algoritmo.
— Respostas fragmentadas: cada entidade fala por si, em ritmos diferentes, e a desinformação aproveita o intervalo.

Poderiam argumentar que isto é pedir demasiado e que não há recursos para tudo. A concessão honesta é esta: sim, há limites — orçamento, pessoal, tempo, e a tentação de regular em excesso é real. Mas o custo de não fazer nada é mais alto: normaliza-se o ataque ao árbitro. E o relatório mostra que 41,2% dos casos foram ataques à imprensa e jornalistas.
A frase de impacto: sem coordenação, a democracia responde aos soluços e a mentira avança a correr.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

“O Lado Oculto da Tecnologia: Como a Inteligência Artificial Está a Ser Usada em Gaza”

Partilha
Um sistema automático que identifica alvos humanos com base em padrões de comportamento, nomes, conexões digitais e perfis demográficos. Um algoritmo que marca um adolescente palestiniano como “combatente” sem julgamento, acusação ou direito à defesa — e, minutos depois, aciona um ataque aéreo. Este é o retrato tecnológico da nova guerra em Gaza, segundo investigações recentes e o relatório da ONU assinado por Francesca Albanese.

Identidade nacional e xenofobia: o cimento simbólico do discurso extremista

Partilha
Pode uma ideia unir uma nação e, ao mesmo tempo, justificar a exclusão? A identidade nacional, frequentemente evocada como património cultural ou símbolo de soberania, é, nas mãos da extrema-direita, convertida em arma política. Serve para definir fronteiras simbólicas entre “os de dentro” e “os de fora”, e transforma diferenças sociais ou culturais em ameaças existenciais. Esta operação simbólica sustenta um dos pilares do discurso extremista contemporâneo: a xenofobia — refinada, embutida no vocabulário nacionalista e apresentada como defesa da “civilização” ou “modo de vida”.

“Faço fila para ver uma casa — e há 30 pessoas atrás de mim”: o colapso do arrendamento acessível em Portugal

Partilha
É uma imagem cada vez mais comum em Lisboa, Porto, Braga ou Faro: dezenas de pessoas a fazer fila na rua para visitar um T2 modesto, com renda acima dos mil euros. Famílias com crianças ao colo, estudantes, profissionais qualificados. Todos com documentos na mão, prontos a “candidatar-se” àquilo que, até há poucos anos, era uma formalidade — alugar casa.

Miguel Arruda e o “furto de malas”: quando o Chega corta amarras — lógica de dano reputacional

Partilha
Em março de 2024, o nome de Miguel Arruda, então dirigente local do Chega em Lisboa, surgiu associado a um processo judicial por alegado furto de malas num centro comercial da capital. O episódio, inicialmente abafado nos canais oficiais do partido, foi confirmado por fontes judiciais e acabou por ganhar tração mediática. Dias depois, o partido anunciou o afastamento imediato de Arruda de todas as funções que exercia. A decisão, rápida e sem apelo, revelou uma faceta estratégica da liderança de André Ventura: a gestão do dano reputacional através do corte limpo com os elementos “indesejáveis”.