Resumo
- Um vídeo sobre “liberdade de expressão”, um post crítico da imigração, um artigo a questionar a pandemia.
- Estudos do Mozilla Foundation, do Center for Humane Technology e do Instituto Reuters mostram que este padrão de radicalização algorítmica afecta sobretudo temas como imigração, género, saúde, clima e política.
- Jovens em particular são vulneráveis, já que o algoritmo aprende os seus hábitos num momento de construção identitária — e molda-os sem que percebam.
Tudo começa com um clique inocente. Um vídeo sobre “liberdade de expressão”, um post crítico da imigração, um artigo a questionar a pandemia. De conteúdo em conteúdo, a radicalização vai-se insinuando — discreta, sugerida, automatizada. Chamam-lhe buraco de coelho algorítmico: um percurso descendente em que as plataformas digitais, ao recomendarem mais do mesmo (mas um pouco mais extremo), conduzem o utilizador para nichos cada vez mais radicais. O fenómeno está documentado desde 2018. E continua activo — silencioso, mas eficaz.
Como funciona a espiral?
Os algoritmos de recomendação de plataformas como YouTube, TikTok ou Facebook foram desenhados para maximizar o tempo de permanência. O que gera mais atenção é promovido; o que gera desinteresse, afunda. Se alguém clica num vídeo anti-sistema, é provável que o seguinte traga uma dose maior de indignação. E depois outra. E outra ainda.
É uma lógica de auto-reforço:
- Cliques passados → suposição de interesse
- Recomendações futuras → confirmação do viés
- Isolamento progressivo → radicalização comportamental
Tudo isto sem qualquer contacto com perspectivas opostas, sem contraditório, sem contexto.
O efeito: polarização, raiva, manipulação
Estudos do Mozilla Foundation, do Center for Humane Technology e do Instituto Reuters mostram que este padrão de radicalização algorítmica afecta sobretudo temas como imigração, género, saúde, clima e política. Jovens em particular são vulneráveis, já que o algoritmo aprende os seus hábitos num momento de construção identitária — e molda-os sem que percebam.
E não se trata apenas de conteúdos ilegais ou de ódio explícito. Muitas vezes, o extremismo instala-se por acumulação de conteúdos enviesados, sensacionalistas ou distorcidos. Ao fim de semanas de exposição contínua, o utilizador acredita estar bem informado — quando, na verdade, caiu num túnel ideológico.
Casos reais: do digital ao mundo físico
- Jovens que começaram por ver vídeos de autoajuda e acabaram a consumir discursos incel.
- Internautas atraídos por críticas à “cultura woke” que, meses depois, aderem a narrativas conspirativas ou supremacistas.
- Pais que pesquisavam sobre vacinas e, em poucos dias, mergulham em comunidades negacionistas.
A radicalização, nestes casos, não veio de um influencer carismático. Veio da máquina invisível das recomendações automáticas.
Por que é tão difícil travar o ciclo?
Porque o algoritmo não tem ética — só optimização. Não distingue o verdadeiro do falso, o construtivo do nocivo. Só mede atenção. E atenção viciada em indignação, medo ou raiva gera lucro. Para as plataformas, esse é o objectivo final.
Além disso, o buraco de coelho é invisível. Cada percurso é individual, difícil de mapear, quase impossível de regular — até ser tarde demais.
Como sair do buraco?
- Transparência algorítmica — As plataformas devem permitir auditorias independentes aos sistemas de recomendação e explicar como priorizam conteúdos.
- Opção clara por feed cronológico — Dar aos utilizadores controlo real sobre o que veem e porquê.
- Sinalização de percursos radicais — Alertas visuais quando um padrão de visualização se torna enviesado ou extremo.
- Educação crítica para algoritmos — Ensinar desde cedo como funcionam estas lógicas, para que cada um reconheça o seu próprio percurso de influência.
Radicalizar não é convencer — é isolar
O buraco de coelho algorítmico não impõe ideias. Mas empurra, isola, acelera. E uma democracia saudável não se constrói com cidadãos enredados em túneis de confirmação.
A tecnologia pode servir o esclarecimento — mas só se a quisermos para isso. E só se estivermos atentos ao que nos mostra… e ao que nos esconde.