Partilha

Resumo

  • O historiador israelita e autor de bestsellers como Sapiens e Homo Deus participou recentemente numa conferência transmitida pelo canal Big Think, onde discutiu os riscos profundos que a inteligência artificial representa para a democracia, a privacidade e a saúde mental.
  • ” Chegámos à Lua, dividimos o átomo, decifrámos o ADN — mas também estamos à beira de um colapso ecológico e de novas guerras globais.
  • E ao imporem a sua lógica de funcionamento ao mundo, podem obrigar-nos a viver permanentemente ‘ligados’, em estado de alerta constante.

Num mundo onde a informação se multiplica à velocidade da luz, Yuval Noah Harari lança um alerta urgente: estamos a perder o controlo sobre as ideias que moldam o nosso futuro. O historiador israelita e autor de bestsellers como Sapiens e Homo Deus participou recentemente numa conferência transmitida pelo canal Big Think, onde discutiu os riscos profundos que a inteligência artificial representa para a democracia, a privacidade e a saúde mental.

A questão central que Harari coloca é desconcertante: “Se somos tão inteligentes, por que continuamos a agir de forma tão estúpida?” Chegámos à Lua, dividimos o átomo, decifrámos o ADN — mas também estamos à beira de um colapso ecológico e de novas guerras globais. A inteligência artificial, diz, pode tornar-se o golpe final se não for regulada com sabedoria.

Quando a inteligência artificial deixa de ser “artificial”

Harari sublinha que o termo “inteligência artificial” já não descreve com precisão a tecnologia que criámos. “É mais exacto pensar nela como inteligência alienígena”, afirma. A diferença não está apenas na capacidade de processar dados, mas na imprevisibilidade dos comportamentos emergentes. “Estas máquinas já não seguem apenas instruções humanas — tomam decisões autónomas, aprendem com os erros, reinventam estratégias e criam narrativas próprias.”

O historiador destaca um ponto fulcral: os sistemas de IA funcionam 24 horas por dia, sem pausas, sem ciclos orgânicos. “Ao contrário de nós, seres biológicos, não precisam de dormir nem de descansar. E ao imporem a sua lógica de funcionamento ao mundo, podem obrigar-nos a viver permanentemente ‘ligados’, em estado de alerta constante.”

Vida em modo entrevista permanente

A metáfora é poderosa: “A vida transformou-se num longo processo de recrutamento”, afirma Harari. Tudo o que dizemos ou fazemos pode ser armazenado, analisado e usado contra nós — agora ou daqui a 20 anos. Desde as redes sociais até aos algoritmos de crédito bancário, multiplicam-se os “burocratas de silício” que tomam decisões por nós, sem que saibamos como ou porquê.

Este novo paradigma tem implicações jurídicas e económicas preocupantes. Nos Estados Unidos, a legislação já permite que uma IA, incorporada numa empresa, funcione como uma “pessoa jurídica”. Em teoria, uma IA pode acumular riqueza, investir e tornar-se a entidade mais rica do país. Sem consciência, sem moral, sem responsabilidade.

E a pergunta impõe-se: como podemos resistir a este novo poder?

A ilusão da verdade num mar de dados

Harari desconstrói uma das ideias mais perigosas da era digital: a crença de que mais informação conduz inevitavelmente à verdade. “A verdade é escassa e cara”, insiste. Criar uma mentira é simples, rápido e barato. Já encontrar, verificar e comunicar um facto exige esforço, recursos e tempo.

O exemplo que oferece é paradigmático: há dois milénios que se pintam retratos de Jesus Cristo — e não existe um único que seja fidedigno. A Bíblia não descreve a sua aparência, e nenhum retrato foi feito durante a sua vida. A desinformação, conclui, prospera porque requer menos do que a verdade. E num ecossistema mediático saturado, o ruído tende a afogar o sinal.

A solução? Instituições vivas e dieta informativa

A resposta de Harari aos riscos da IA não é um regresso nostálgico ao passado, mas uma proposta de futuro: criar instituições novas, adaptáveis, com mecanismos internos de auto-correção. “Não podemos depender de leis fixas nem de líderes carismáticos. Precisamos de estruturas colectivas capazes de reconhecer e corrigir os seus próprios erros.”

Ao nível individual, o historiador recomenda uma dieta de informação. Tal como cuidamos do que comemos, devemos vigiar o que consumimos mentalmente. “A informação é alimento para a mente. Se ingerirmos apenas lixo — ódio, medo, ganância — ficaremos com mentes doentes.”

E mais: defende a necessidade de jejum informativo — períodos sem novas entradas de dados, dedicados apenas à digestão e reflexão. Um antídoto contra a exaustão cognitiva que a avalanche constante de estímulos provoca.

Fake humans fora da conversa democrática?

Num dos momentos mais incisivos da sua intervenção, Harari propõe uma medida ousada: proibir bots e entidades artificiais de participarem em debates políticos ou sociais sem se identificarem como tais. “A conversa democrática está a ser raptada por algoritmos. Para protegê-la, precisamos de saber com quem estamos a falar.”

O desafio, reconhece, é imenso. Mas o historiador acredita que ainda estamos a tempo de agir. “Não é um cenário à Hollywood, com uma única IA maligna a dominar o mundo. O perigo está na multiplicação silenciosa de decisões tomadas por máquinas opacas.”

Se não compreendermos os sistemas que moldam as nossas vidas, como poderemos governá-los?


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

“Ecos nazificantes” na democracia portuguesa? O caso do CHEGA sob escrutínio histórico

Partilha
O termo “ecos nazificantes” designa fenómenos políticos contemporâneos que, sem se assumirem abertamente como herdeiros do nazismo ou fascismo, reproduzem elementos estruturais dessas ideologias: desumanização do “outro”, culto da autoridade, apelo ao ressentimento nacional e recurso sistemático à manipulação simbólica. Em regimes democráticos, estes ecos surgem travestidos de discurso legalista, patriótico ou anti-establishment, disfarçando a vocação autoritária com roupagens eleitorais. Portugal não está imune. O crescimento do CHEGA — partido liderado por André Ventura — impõe uma reflexão crítica sobre a persistência e adaptação de retóricas que evocam, ainda que com disfarces, o passado mais sombrio da Europa do século XX.

Bolhas de filtro — mito, realidade ou exagero?

Partilha
Há mais de uma década que se teme o poder das bolhas de filtro: algoritmos que nos fecham num mundo à medida, onde só ouvimos quem pensa como nós. Mas será assim tão simples? A literatura científica continua dividida — e num tempo de conclusões rápidas, talvez seja hora de medir, não assumir, o verdadeiro impacto deste fenómeno sobre as democracias.