A 2 de agosto de 2026, a inteligência artificial deixa de ser só tema de conferências e passa a ser, em força, matéria de polícia económica na União Europeia. Nessa data, a maior parte das regras do AI Act 2026 começa a aplicar-se: operadores de sistemas de “alto risco” que não cumprirem a lei passam a estar em infração, sujeitos a inspeções e a multas que podem chegar aos 35 milhões de euros ou 7% do volume de negócios mundial.
Em Portugal, isto atinge desde a PME que usa IA para recrutamento, ao banco que recorre a algoritmos para conceder crédito, passando pela escola que testa sistemas de avaliação automática e pela plataforma que recomenda conteúdos a milhões de utilizadores. Não é apenas um detalhe jurídico: é o dia em que muitas práticas de IA, hoje toleradas ou ignoradas, passam a ser ilegalidade com consequências reais.
O que já é proibido – e o que muda em agosto de 2026
Convém separar as fases. Desde fevereiro de 2025 que alguns usos de IA de “risco inaceitável” já estão proibidos na UE: sistemas de pontuação social por parte do Estado, manipulação subliminar de grupos vulneráveis, certas formas de vigilância biométrica em tempo real no espaço público.
Agosto de 2026 é outro patamar. A partir dessa data, torna-se ilegal operar muitos sistemas de alto risco sem cumprir um pacote exigente de regras. Entre eles estão, por exemplo:
IA usada em recrutamento e gestão de recursos humanos (triagem de CV, scoring interno, promoções);
Sistemas que influenciam o acesso a crédito, seguros ou apoios sociais;
IA em educação (classificação automática, perfis de alunos);
Sistemas com impacto em saúde, infraestruturas críticas, segurança e justiça.
O que passa a ser ilegal não é “usar IA” em si, mas usar estes sistemas sem:
Avaliação de risco estruturada;
Dados de treino adequados e não discriminatórios;
Registos e logs de funcionamento;
Supervisão humana efetiva, com poder para travar o sistema;
Documentação técnica que permita auditoria.
É aqui que muitas organizações portuguesas começam a tremer: não porque tenham construído “robôs malignos”, mas porque instalaram soluções de IA como quem instala um plugin – sem papéis, sem testes, sem responsáveis claros.
Três sinais de alerta para empresas portuguesas
Num escritório em Matosinhos, uma empresa de 40 pessoas usa desde 2023 um serviço de IA para filtrar candidaturas. O algoritmo elimina automaticamente CV que “não encaixam no perfil”. Ninguém sabe ao certo porquê, ninguém documentou nada. Até aqui, era apenas má prática; depois de agosto de 2026, pode ser ilegal manter este sistema sem transparência, supervisão e avaliação de impacto.
Sinais de alerta evidentes:
“A IA decide sozinha”
Se o sistema não pode ser contestado por um humano com autoridade real para o travar ou corrigir, é um problema. A lei exige um “travão humano” para IA de alto risco. Continuar a deixar o algoritmo decidir salários, crédito ou acesso a serviços públicos, sem essa camada, passa a ser arriscado – e sancionável.
“Não temos papéis, só a fatura”
Muitas PME compraram soluções em modelo SaaS: há fatura, senha de acesso e pouco mais. A partir de agosto de 2026, quem “deployer” (usar) um sistema de alto risco tem de conseguir provar que pediu garantias ao fornecedor, que sabe como o sistema foi treinado e que monitoriza o seu comportamento. Se não o fizer, também responde.
“É só um teste, não conta”
Conta. A lei não distingue muito entre “piloto” e produção se o sistema já afeta pessoas reais. Se uma escola pública em Lisboa usa IA para sugerir percursos de alunos ou uma seguradora testa algoritmos para subir prémios, há obrigações de transparência, avaliação de impacto e, em muitos casos, consulta às autoridades.
Pode o leitor objetar: “Mas eu sou freelancer, tenho um pequeno canal de YouTube e uso IA para legendas e thumbnails. Isto também é AI Act 2026?”
Na maioria dos casos, não estará em zona de alto risco – mas entra nas regras de transparência: se publicar conteúdo sintético realista (voz clonada, vídeo gerado), a partir de agosto de 2026 deve rotulá-lo como tal. Não o fazer deixa de ser só pouco ético; passa a poder ser considerado incumprimento das obrigações de transparência do regulamento.
Multas milionárias, rostos humanos
O AI Act 2026 não é teoria. É uma tabela de sanções muito concreta:
Até 35 milhões de euros ou 7% do volume de negócios mundial para usos proibidos;
Até 15 milhões ou 3% para violações de regras de alto risco;
Até 7,5 milhões ou 1% por fornecer informação falsa ou incompleta às autoridades.
Para uma big tech, 7% da faturação global pode ser um rombo de centenas de milhões. Para uma PME portuguesa, a diferença entre manter portas abertas ou fechar. A lei prevê reduções para pequenas empresas, mas o princípio é claro: quem quiser brincar com IA, não pode brincar com as pessoas.
No meio desta arquitetura regulatória há vidas concretas. Um candidato rejeitado por um algoritmo enviesado, uma família a quem é recusado crédito porque um modelo estatístico “não gosta” do código postal, um doente cuja prioridade numa lista de espera é calculada por um sistema opaco – tudo isto deixa de ser apenas um problema ético e passa a ser, em muitos casos, matéria de infração legal.
Há, contudo, uma concessão que importa fazer: a aplicação prática desta lei vai ser desigual. Nem todas as autoridades nacionais terão meios para fiscalizar tudo, nem todos os reguladores vão interpretar da mesma forma o que é “alto risco” ou “supervisão adequada”. Vai haver zonas cinzentas, litigância e, provavelmente, alguns recuos.
Mas o sentido político é nítido: 2026 é o ano em que a Europa decide que experimentar com algoritmos é aceitável – experimentar com pessoas, não. Ilegal deixa de ser só o que assusta nas manchetes; passa a ser também o que parece banal, mas mexe em silêncio com direitos fundamentais.
Para quem dirige uma empresa, instituição pública ou projeto criativo, a pergunta certa já não é “vamos usar IA?”, mas “conseguimos olhar alguém nos olhos – cliente, trabalhador, leitor – e explicar como é que a nossa IA decide?”. Depois de agosto de 2026, essa pergunta deixa de ser apenas moral; passa a ser também jurídica.
