A primeira lei abrangente de IA do mundo
O EU AI Act, formalmente o Regulamento (UE) 2024/1689, foi adotado pelo Parlamento Europeu em março de 2024 e entrou em vigor a 1 de agosto de 2024. É o primeiro quadro jurídico vinculativo e abrangente do mundo para a inteligência artificial — estabelecendo regras sobre como os sistemas de IA podem ser desenvolvidos, colocados no mercado e utilizados na União Europeia.
O AI Act adota uma abordagem baseada no risco: classifica os sistemas de IA em quatro níveis de risco, e as obrigações impostas escalam com o dano potencial que o sistema pode causar. Algumas aplicações de IA são proibidas de imediato. Outras — em domínios de alto risco como recrutamento, educação, aplicação da lei e saúde — enfrentam requisitos pré-mercado significativos. Muitos sistemas de IA enfrentam apenas obrigações de transparência. E a grande maioria enquadra-se numa categoria de risco mínimo sem obrigações obrigatórias.
O regulamento abrange toda a cadeia de valor de IA. As obrigações recaem sobre fornecedores (organizações que desenvolvem sistemas de IA e os colocam no mercado ou os põem em serviço), utilizadores profissionais (organizações que utilizam sistemas de IA num contexto profissional), importadores e distribuidores. Uma empresa que compra uma ferramenta de IA comercial e a utiliza para triagem de candidaturas é um utilizador profissional com obrigações. Uma empresa que ajusta um modelo de fundação e o vende a clientes é um fornecedor com obrigações mais extensas.
Crucialmente, o AI Act inclui também disposições específicas para modelos de IA de Uso Geral (GPAI) — grandes modelos de fundação como o GPT-4, Gemini ou Llama — impondo obrigações às organizações que desenvolvem e disponibilizam estes modelos, incluindo requisitos de transparência e, para os modelos mais capazes (acima de 10^25 FLOPs de computação de treino), um conjunto completo de obrigações de gestão de riscos sistémicos.
Fornecedores, utilizadores profissionais e todos os intervenientes
O AI Act aplica-se a organizações em quatro papéis:
- Fornecedores — desenvolvem um sistema de IA ou modelo GPAI e colocam-no no mercado da UE ou põem-no em serviço na UE, independentemente de estarem estabelecidos na UE ou num país terceiro. Os fornecedores suportam as obrigações mais pesadas, incluindo avaliações de conformidade, documentação técnica e marcação CE para sistemas de alto risco.
- Utilizadores profissionais — utilizam um sistema de IA sob a sua autoridade num contexto profissional. Quando os utilizadores profissionais usam sistemas de IA de alto risco, têm obrigações que incluem a realização de avaliações de impacto sobre os direitos fundamentais, garantir a supervisão humana adequada e informar os indivíduos quando interagem com IA.
- Importadores — colocam no mercado da UE sistemas de IA desenvolvidos por fornecedores estabelecidos fora da UE. Os importadores devem verificar que o fornecedor completou a avaliação de conformidade e tomar medidas corretivas para sistemas não conformes.
- Distribuidores — disponibilizam sistemas de IA no mercado da UE sem os colocar no mercado (ou seja, revendedores). Os distribuidores devem verificar a conformidade antes da distribuição e tomar medidas corretivas se acreditarem que o sistema não está conforme.
O regulamento aplica-se de forma extraterritorial: qualquer organização que forneça sistemas de IA a utilizadores da UE, ou cujo output do sistema de IA seja utilizado na UE, está dentro do âmbito.
A classificação de risco em quatro níveis
Risco Inaceitável — Proibido
As aplicações de IA que representam uma ameaça inaceitável para os direitos fundamentais são completamente proibidas. Isto inclui: sistemas de pontuação social por autoridades públicas, identificação biométrica remota em tempo real em espaços publicamente acessíveis (com exceções limitadas para a aplicação da lei), IA que explora vulnerabilidades de grupos específicos, manipulação subliminar e policiamento preditivo baseado exclusivamente em perfilagem.
Alto Risco — Regulado
Sistemas de IA em setores críticos ou com impactos significativos nos direitos fundamentais. Definidos no Anexo III: identificação biométrica, infraestruturas críticas, educação, emprego (triagem de CVs, avaliação de candidatos, monitorização), serviços essenciais (pontuação de crédito, seguros), aplicação da lei, migração e administração da justiça. Os sistemas de alto risco exigem avaliação de conformidade, marcação CE, documentação técnica, supervisão humana, testes de precisão e robustez e registo na base de dados da UE.
Risco Limitado — Obrigações de Transparência
Sistemas de IA com riscos específicos de transparência — principalmente chatbots e sistemas que geram conteúdo sintético. Os utilizadores profissionais devem informar os utilizadores de que estão a interagir com um sistema de IA. O conteúdo gerado por IA (deepfakes, áudio e vídeo sintéticos) deve ser rotulado. Os modelos GPAI devem divulgar que o conteúdo é gerado por IA.
Risco Mínimo — Sem Obrigações Obrigatórias
A grande maioria dos sistemas de IA: filtros de spam, motores de recomendação, IA em videojogos, ferramentas de gestão de inventário. Não se aplicam obrigações obrigatórias, embora sejam incentivados códigos de conduta voluntários. As organizações podem optar por seguir compromissos voluntários ao abrigo dos códigos de prática do AI Act.
Termos que precisa de compreender
Sistema de IA (definição)
Um sistema baseado em máquina concebido para funcionar com vários níveis de autonomia que infere resultados como previsões, recomendações, decisões ou conteúdo a partir das entradas que recebe. A definição é tecnologicamente neutra e intencionalmente ampla.
Modelo de IA de Uso Geral (GPAI)
Um modelo de IA treinado em dados abrangentes em larga escala que é capaz de executar com competência uma ampla gama de tarefas distintas e pode ser integrado em várias aplicações a jusante — independentemente de como é implementado.
Avaliação de Conformidade
O processo pelo qual um fornecedor demonstra que um sistema de IA de alto risco cumpre os requisitos do AI Act antes de o colocar no mercado. A maioria dos sistemas de alto risco pode ser autocertificada; alguns (sistemas biométricos para a aplicação da lei) exigem avaliação por terceiros.
Supervisão Humana
Os sistemas de IA de alto risco devem ser concebidos para serem efetivamente supervisionados por pessoas singulares. Os utilizadores profissionais devem garantir que pessoas com a competência e a autoridade para anular ou parar o sistema estão em posição de o fazer.
Avaliação de Impacto sobre os Direitos Fundamentais
Os utilizadores profissionais de sistemas de IA de alto risco nas áreas abrangidas pelo Art. 27.º devem realizar uma avaliação do impacto potencial sobre os direitos fundamentais antes de implementarem o sistema e registar os resultados na base de dados da UE.
Marcação CE
Os sistemas de IA de alto risco devem ostentar a marcação CE de conformidade — a mesma marcação usada para outros produtos regulamentados na UE — antes de serem colocados no mercado. Apor a marcação CE sem concluir a avaliação de conformidade constitui uma infração.
Datas de aplicação faseadas
Regulamento entra em vigor
O EU AI Act é publicado no Jornal Oficial e entra em vigor. Os períodos de transição de 24 e 36 meses para diferentes disposições começam a correr.
Práticas proibidas em vigor
As proibições do Capítulo II sobre aplicações de IA de risco inaceitável tornam-se aplicáveis. As organizações que utilizam práticas de IA proibidas (pontuação social, determinadas formas de vigilância biométrica, manipulação subliminar) devem cessar essas atividades de imediato.
Obrigações dos modelos GPAI em vigor
As regras para os modelos de IA de Uso Geral (Capítulo V) tornam-se aplicáveis, incluindo requisitos de transparência e obrigações de risco sistémico para os modelos mais capazes. O Gabinete de IA é criado e a aplicação começa para os GPAI.
Obrigações dos sistemas de alto risco em vigor
O quadro completo para os sistemas de IA de alto risco (Anexo III) torna-se aplicável. Os fornecedores devem concluir as avaliações de conformidade, documentação técnica e registo. Os utilizadores profissionais devem implementar supervisão e realizar avaliações de impacto sobre os direitos fundamentais. Nota: a proposta da Comissão para o Digital Omnibus on AI (publicada a 19 de novembro de 2025) prevê estender este prazo para 2 de dezembro de 2027 (Anexo III autónomos) e 2 de agosto de 2028 (sistemas integrados em produtos regulados), com a aplicação também condicionada à prontidão das normas harmonizadas. A proposta está atualmente no processo legislativo ordinário (Parlamento e Conselho). Até à adoção formal, agosto de 2026 mantém-se como prazo legal.
IA de alto risco em produtos regulamentados
Os sistemas de IA de alto risco que são componentes de segurança de produtos abrangidos pela legislação de harmonização da UE existente (dispositivos médicos, maquinaria, veículos) devem cumprir os requisitos do AI Act neste prazo alargado.
O que os fornecedores de alto risco devem fazer
- Estabelecer um sistema de gestão de riscos (Art. 9.º) — um processo iterativo contínuo de identificação, análise e mitigação dos riscos associados ao sistema de IA ao longo de todo o seu ciclo de vida.
- Implementar medidas de governação de dados (Art. 10.º) — os conjuntos de dados de treino, validação e teste devem ser relevantes, representativos, isentos de erros e completos; devem ser identificados e mitigados potenciais enviesamentos.
- Preparar documentação técnica (Art. 11.º + Anexo IV) — documentação abrangente antes da colocação no mercado cobrindo a conceção do sistema, a finalidade prevista, as métricas de desempenho e as medidas de gestão de riscos.
- Permitir o registo e a conservação de registos (Art. 12.º) — os sistemas de IA de alto risco devem ter capacidades de registo que garantam a rastreabilidade ao longo da vida do sistema, permitindo a monitorização pós-mercado.
- Concluir a avaliação de conformidade e a marcação CE (Art. 43.º–44.º) — antes de colocar um sistema de alto risco no mercado da UE, demonstrar a conformidade através do procedimento de avaliação de conformidade aplicável e apor a marcação CE.
Categorias do Anexo III, obrigações GPAI, implicações setoriais, sanções & lista de verificação completa
Tudo o que precisa para passar da compreensão do AI Act para a sua conformidade.
Fontes e legislação primária
Verifique esta página contra as fontes primárias acima. A Lei IA encontra-se em transição legislativa: o Digital Omnibus on AI (proposto a 19 de novembro de 2025) prevê alargar as datas de aplicação dos sistemas de alto risco. Acompanhamos o EUR-Lex, as orientações do AI Office e as Q&As da Comissão semanalmente. Em caso de divergência, prevalece o EUR-Lex.