Resumo
- O historiador israelita e autor de bestsellers como Sapiens e Homo Deus participou recentemente numa conferência transmitida pelo canal Big Think, onde discutiu os riscos profundos que a inteligência artificial representa para a democracia, a privacidade e a saúde mental.
- ” Chegámos à Lua, dividimos o átomo, decifrámos o ADN — mas também estamos à beira de um colapso ecológico e de novas guerras globais.
- E ao imporem a sua lógica de funcionamento ao mundo, podem obrigar-nos a viver permanentemente ‘ligados’, em estado de alerta constante.
Num mundo onde a informação se multiplica à velocidade da luz, Yuval Noah Harari lança um alerta urgente: estamos a perder o controlo sobre as ideias que moldam o nosso futuro. O historiador israelita e autor de bestsellers como Sapiens e Homo Deus participou recentemente numa conferência transmitida pelo canal Big Think, onde discutiu os riscos profundos que a inteligência artificial representa para a democracia, a privacidade e a saúde mental.
A questão central que Harari coloca é desconcertante: “Se somos tão inteligentes, por que continuamos a agir de forma tão estúpida?” Chegámos à Lua, dividimos o átomo, decifrámos o ADN — mas também estamos à beira de um colapso ecológico e de novas guerras globais. A inteligência artificial, diz, pode tornar-se o golpe final se não for regulada com sabedoria.
Quando a inteligência artificial deixa de ser “artificial”
Harari sublinha que o termo “inteligência artificial” já não descreve com precisão a tecnologia que criámos. “É mais exacto pensar nela como inteligência alienígena”, afirma. A diferença não está apenas na capacidade de processar dados, mas na imprevisibilidade dos comportamentos emergentes. “Estas máquinas já não seguem apenas instruções humanas — tomam decisões autónomas, aprendem com os erros, reinventam estratégias e criam narrativas próprias.”
O historiador destaca um ponto fulcral: os sistemas de IA funcionam 24 horas por dia, sem pausas, sem ciclos orgânicos. “Ao contrário de nós, seres biológicos, não precisam de dormir nem de descansar. E ao imporem a sua lógica de funcionamento ao mundo, podem obrigar-nos a viver permanentemente ‘ligados’, em estado de alerta constante.”
Vida em modo entrevista permanente
A metáfora é poderosa: “A vida transformou-se num longo processo de recrutamento”, afirma Harari. Tudo o que dizemos ou fazemos pode ser armazenado, analisado e usado contra nós — agora ou daqui a 20 anos. Desde as redes sociais até aos algoritmos de crédito bancário, multiplicam-se os “burocratas de silício” que tomam decisões por nós, sem que saibamos como ou porquê.
Este novo paradigma tem implicações jurídicas e económicas preocupantes. Nos Estados Unidos, a legislação já permite que uma IA, incorporada numa empresa, funcione como uma “pessoa jurídica”. Em teoria, uma IA pode acumular riqueza, investir e tornar-se a entidade mais rica do país. Sem consciência, sem moral, sem responsabilidade.
E a pergunta impõe-se: como podemos resistir a este novo poder?
A ilusão da verdade num mar de dados
Harari desconstrói uma das ideias mais perigosas da era digital: a crença de que mais informação conduz inevitavelmente à verdade. “A verdade é escassa e cara”, insiste. Criar uma mentira é simples, rápido e barato. Já encontrar, verificar e comunicar um facto exige esforço, recursos e tempo.
O exemplo que oferece é paradigmático: há dois milénios que se pintam retratos de Jesus Cristo — e não existe um único que seja fidedigno. A Bíblia não descreve a sua aparência, e nenhum retrato foi feito durante a sua vida. A desinformação, conclui, prospera porque requer menos do que a verdade. E num ecossistema mediático saturado, o ruído tende a afogar o sinal.
A solução? Instituições vivas e dieta informativa
A resposta de Harari aos riscos da IA não é um regresso nostálgico ao passado, mas uma proposta de futuro: criar instituições novas, adaptáveis, com mecanismos internos de auto-correção. “Não podemos depender de leis fixas nem de líderes carismáticos. Precisamos de estruturas colectivas capazes de reconhecer e corrigir os seus próprios erros.”
Ao nível individual, o historiador recomenda uma dieta de informação. Tal como cuidamos do que comemos, devemos vigiar o que consumimos mentalmente. “A informação é alimento para a mente. Se ingerirmos apenas lixo — ódio, medo, ganância — ficaremos com mentes doentes.”
E mais: defende a necessidade de jejum informativo — períodos sem novas entradas de dados, dedicados apenas à digestão e reflexão. Um antídoto contra a exaustão cognitiva que a avalanche constante de estímulos provoca.
Fake humans fora da conversa democrática?
Num dos momentos mais incisivos da sua intervenção, Harari propõe uma medida ousada: proibir bots e entidades artificiais de participarem em debates políticos ou sociais sem se identificarem como tais. “A conversa democrática está a ser raptada por algoritmos. Para protegê-la, precisamos de saber com quem estamos a falar.”
O desafio, reconhece, é imenso. Mas o historiador acredita que ainda estamos a tempo de agir. “Não é um cenário à Hollywood, com uma única IA maligna a dominar o mundo. O perigo está na multiplicação silenciosa de decisões tomadas por máquinas opacas.”
Se não compreendermos os sistemas que moldam as nossas vidas, como poderemos governá-los?