Resumo
- A consultora iGenius/Igeneris promove, a partir de Lisboa, serviços “Dados e IA com Palantir Foundry”, oferecendo gerir adoção, integrações e formação — e fá-lo com uma morada concreta no Príncipe Real, Rua Eduardo Coelho 16.
- A eSPap, que centraliza compras e plataformas de contratação, aparece em procedimentos e documentação técnica que mostram a escala e a rotina dos concursos (contactos, moradas, fluxos).
- O RGPD consagra o direito de não ficar sujeito a decisões exclusivamente automatizadas com efeitos significativos, com regras e exceções apertadas.
Lisboa/Amadora, fevereiro de 2026. Nos ciclos de contratação que já mexem na máquina pública, cresce uma pergunta desconfortável: há caminho aberto para a Palantir Portugal entrar no Estado como plataforma de dados “transversal” — aquela peça invisível que liga bases, cruza identidades, sugere prioridades e, no limite, condiciona decisões? Quem decide, com que regras, quanto custa, e o que acontece quando se quer sair?
A Palantir, conhecida lá fora por trabalho com governos e defesa, vende-se como sistema operativo para dados: integra fontes dispersas, cria modelos, põe “dashboards” a mandar. Em Portugal, os sinais não surgem num anúncio com letras garrafais. Surgem onde costuma começar a dependência: nos intermediários, nos integradores, no ecossistema.
Os sinais não vêm com logótipo: vêm com moradas e parceiros
À porta do Estado, ninguém chega sozinho. E é aqui que a história ganha corpo. A consultora iGenius/Igeneris promove, a partir de Lisboa, serviços “Dados e IA com Palantir Foundry”, oferecendo gerir adoção, integrações e formação — e fá-lo com uma morada concreta no Príncipe Real, Rua Eduardo Coelho 16.
Do lado da própria empresa, a Palantir mantém uma página de “International Partners”, onde apresenta a rede de parceiros para mercados locais. Em linguagem simples: quando um Estado compra, muitas vezes compra por mãos alheias — e a prestação de serviços instala-se como segunda pele do contrato.
E depois há a engrenagem pública. A eSPap, que centraliza compras e plataformas de contratação, aparece em procedimentos e documentação técnica que mostram a escala e a rotina dos concursos (contactos, moradas, fluxos). Não prova Palantir Portugal no Estado. Mas lembra o óbvio: o Estado é um cliente gigantesco, com portas formais e repetidas.
O risco chama-se “vendor lock-in” e raramente entra no debate
Poderiam argumentar que isto é só tecnologia: uma ferramenta de integração, como tantas, e que o importante é “fazer funcionar” os serviços. É um argumento compreensível. Também é curto.
O problema não é um logótipo. É a arquitetura. Uma plataforma que passa a concentrar ligações entre dados fiscais, saúde, segurança social, compras, recursos humanos — mesmo que por projetos separados — cria dependência técnica, contratual e mental. Daquela promessa, restou muitas vezes o eco: “é impossível migrar”, “não há equipa”, “o sistema é demasiado específico”.
E quando a dependência se instala, a transparência encolhe. O que era uma opção vira infraestrutura. E infraestrutura, no Estado, tende a durar décadas.
Há ainda uma camada legal que raramente aparece na brochura comercial: decisões com base em perfis e automatização. O RGPD consagra o direito de não ficar sujeito a decisões exclusivamente automatizadas com efeitos significativos, com regras e exceções apertadas. Uma plataforma que “recomenda” e “prioriza” pode não assinar a decisão — mas empurra-a.
A micro-história: um carimbo em Alfragide e o peso do invisível
Num corredor típico de organismo público, em Alfragide, Avenida Leite Vasconcelos 2, uma técnica administrativa fecha um processo de contratação numa plataforma eletrónica. Não vê “Palantir Portugal”. Vê prazos, CPV, anexos, e uma lista de requisitos que alguém escreveu antes. O cheiro a toner é antigo. O que é novo está no detalhe: a exigência de “integração com múltiplas fontes”, “governação de dados”, “camadas de permissões”, “auditoria”. Palavras limpas. Consequências opacas.
Uma frase seca, para ficar: o poder moderno raramente grita — configura-se.
O que falta saber e o que devia ser exigido já
Há uma concessão honesta a fazer: não é possível, só com sinais de mercado, afirmar que o Estado já comprou Palantir. A contratação pública pode passar por subcontratação, por bundles, por integradores; e nem sempre a marca aparece no título do contrato. A investigação, aqui, começa onde acaba o conforto.
Mas há exigências mínimas que o contribuinte pode colocar, antes de qualquer “caixa negra” entrar em serviços públicos:
Cláusulas anti–vendor lock-in (portabilidade real de dados e modelos; prazos e custos de saída por escrito).
Auditoria independente (registos de acessos, explicabilidade, rastreio de alterações, testes de enviesamento).
Mapeamento de risco e segurança alinhado com boas práticas nacionais (o CNCS, por exemplo, publica guias e enquadramentos de gestão de risco que deviam ser mais do que “anexos” decorativos).
Transparência reforçada quando a plataforma influencia decisões sobre pessoas (benefícios, fiscalidade, apoios, saúde).
A questão, no fim, não é se a Palantir Portugal é “boa” ou “má”. A questão é democrática: quem controla a camada onde os dados se tornam decisões — e quem fica preso quando a pressa vira contrato.
2
Pensado para 21s
Soberania algorítmica: quem manda quando o Estado decide por IA?
Em Portugal, a inteligência artificial já não vive num laboratório: entra em balcões digitais, em triagens, em plataformas internas, em assistentes virtuais. A pergunta de fundo — soberania algorítmica — deixou de ser tese académica e passou a ser disputa prática: quem manda quando um serviço público usa IA para orientar decisões, priorizar pedidos, sinalizar “riscos” ou empurrar um processo para a frente? Quem define as regras, quem audita, quem responde quando falha, e o que acontece ao cidadão apanhado no meio?
O tema ganha peso em 2026 porque a União Europeia já marcou o relógio: o Regulamento Europeu de IA (AI Act) entrou em vigor a 1 de agosto de 2024 e tem aplicação faseada, com etapas que conduzem à aplicação geral em 2 de agosto de 2026. Em paralelo, o Governo aprovou uma estratégia e uma agenda nacional para a IA no âmbito da Reforma do Estado.
O que é, afinal, soberania algorítmica?
Soberania algorítmica significa uma coisa simples e incómoda: o Estado não abdica do comando quando compra “inteligência”. Mantém controlo sobre critérios, dados, modelos, fornecedores, e sobre a explicação pública das escolhas. Não chega “ter um humano a carregar no botão”. Se o sistema molda a decisão, a democracia tem de conseguir ver as costuras.
E há um travão jurídico que já existe, antes de qualquer nova moda regulatória: o artigo 22.º do RGPD fixa o direito de um titular não ficar sujeito a decisões exclusivamente automatizadas com impacto significativo. O Diário da República, no seu léxico, resume a mesma ideia com uma clareza rara: decisões automatizadas têm limites e exigem condições apertadas, sobretudo quando entram categorias sensíveis de dados.
Um balcão, um ecrã e a vida em suspenso
Num serviço público, o dia começa cedo. Numa sala com luz fria e cadeiras gastas, um técnico abre a aplicação e vê uma lista ordenada: “prioridade alta”, “prioridade média”, “casos a rever”. O cidadão do outro lado — uma mãe a pedir um apoio, um trabalhador a regularizar uma situação contributiva, um imigrante a tentar um agendamento — não vê a grelha. Sente-a. Daquela ordem invisível, nasce a demora, o telefonema sem resposta, o “volte amanhã”.
Uma frase de impacto: quando o algoritmo ordena, a espera ganha dono.
“Isto é só eficiência”, dirão alguns. Não é tão limpo assim.
Poderiam argumentar que a IA traz rapidez, coerência, menos erros humanos. Há verdade aí. E há zonas cinzentas: automatizar a deteção de fraude não equivale a automatizar a recusa de um direito; apoiar um assistente virtual não equivale a decidir uma prestação. A própria AMA vem produzindo guias e instrumentos para uma adoção responsável, com linguagem de ética e transparência.
Mas soberania algorítmica exige mais do que boas intencões. Exige rotinas de controlo que sobrevivam ao entusiasmo e ao ciclo político: registos de decisões, testes de enviesamento, mecanismos de contestação compreensíveis, e auditoria com independência real. O AI Act, com o seu calendário faseado, foi desenhado para empurrar o sistema nesse sentido — e o Estado terá de o cumprir, goste ou não.
Quem manda: o decisor eleito, o programador, ou o contrato?
Aqui entra o nervo da questão. Soberania algorítmica não se perde num golpe; perde-se por acumulação: um piloto aqui, uma integração ali, um fornecedor que “segura” o conhecimento, uma equipa interna sem meios para questionar. Quando o Estado não sabe explicar como decidiu, o poder passa a circular por túneis: contratos, código fechado, subcontratação.
E, no fim, resta a pergunta que devia estar em cada caderno de encargos: se o cidadão contestar, quem consegue explicar — em português simples — a lógica da decisão? A literatura jurídica portuguesa já vem apontando esse conflito entre transparência, explicabilidade e controlo social, com a LADA como ferramenta possível para abrir a caixa.
Soberania algorítmica é isto: não aceitar um Estado que decide depressa, mas não sabe dizer porquê.