Miguel Viegas, Jornal SOL
Em 2025, a Comissão Europeia apresentou o pacote legislativo conhecido como Digital Omnibus, propondo adiar e flexibilizar partes relevantes do regulamento, em especial as regras aplicáveis aos sistemas de alto risco, cuja plena entrada em vigor foi adiada de 2026 para 2027
A União Europeia aprovou, em março de 2024, o “Artificial Intelligence Act” (AI Act), o primeiro quadro regulatório abrangente sobre inteligência artificial a nível mundial. Trata-se de um regulamento que estabelece regras harmonizadas para o uso de sistemas de IA no mercado europeu, assente numa abordagem baseada no risco, procurando equilibrar a proteção de direitos fundamentais, a segurança e a transparência, com a inovação e a competitividade económica.
O AI Act organiza-se em quatro categorias de risco. Em primeiro lugar, são proibidas aplicações de “risco inaceitável”, consideradas incompatíveis com os valores fundamentais da União, como sistemas de pontuação social, técnicas de manipulação comportamental ou certas formas de vigilância biométrica em tempo real em espaços públicos.
Em segundo lugar, os sistemas de “alto risco” aplicáveis a áreas sensíveis como saúde, justiça, emprego ou educação são permitidos, mas sujeitos a obrigações exigentes. Estas incluem requisitos de gestão de risco, qualidade e governação dos dados, documentação técnica, registos para auditoria, explicabilidade, supervisão humana efetiva e avaliações de conformidade, antes e após a colocação no mercado. É nesta categoria que se concentram as utilizações de IA com maior impacto sobre direitos e oportunidades individuais.
Numa terceira categoria surgem as aplicações de “risco limitado”, para as quais o regulamento impõe sobretudo obrigações de transparência, como a necessidade de informar os utilizadores quando interagem com sistemas de IA ou quando conteúdos são artificialmente gerados. Por fim, as aplicações de “risco mínimo”, que abrangem a maioria dos usos quotidianos da IA, não estão sujeitas a regras específicas no âmbito do AI Act, permanecendo reguladas por legislação geral, como o RGPD, o direito do consumo ou as normas da concorrência.
Este enquadramento é complementado pela criação de novas estruturas de governação, em particular o European Artificial Intelligence Office, responsável pela coordenação da fiscalização e aplicação do regulamento, reforçando a ambição da UE de afirmar um modelo próprio de regulação da IA.
Apesar desta arquitetura ambiciosa, o AI Act tem vindo a ser alvo de pressões políticas crescentes. Em 2025, a Comissão Europeia apresentou o pacote legislativo conhecido como Digital Omnibus, propondo adiar e flexibilizar partes relevantes do regulamento, em especial as regras aplicáveis aos sistemas de alto risco, cuja plena entrada em vigor foi adiada de 2026 para 2027. A Comissão justificou este recuo com a necessidade de reduzir encargos administrativos e evitar entraves à inovação. No entanto, organizações de defesa de direitos digitais e vários observadores interpretam o adiamento como uma cedência às pressões das grandes empresas tecnológicas, maioritariamente norte-americanas, que dispõem de maior capacidade para influenciar o processo regulatório e resistem a limites mais estritos ao uso de dados.
O debate expõe uma tensão central: até que ponto a União Europeia está disposta a proteger dados privados, direitos fundamentais e soberania normativa, quando confrontada com a concorrência global e com interesses económicos poderosos? A resposta a esta questão determinará se a UE continuará a afirmar-se como referência de uma “IA centrada no humano” ou se acabará por diluir esse projeto em nome da competitividade e da desregulação.

