🤖 Governação de IA

EU AI Act ✦ Visão Geral Gratuita

O Regulamento (UE) 2024/1689 é o primeiro quadro jurídico abrangente do mundo para a inteligência artificial. Se a sua organização utiliza, desenvolve ou implementa sistemas de IA em qualquer contexto profissional, tem obrigações de conformidade — a maioria das empresas ainda não sabe onde se posiciona.

Regulation (EU) 2024/1689
Publicado em agosto de 2024
Abordagem baseada no risco
Classifique os seus sistemas de IA ao abrigo do EU AI Act Nível de risco, obrigações aplicáveis e ações imediatas — gratuito, sem registo obrigatório.
Classificador de Risco AI Act → Roteiro de Conformidade

A primeira lei abrangente de IA do mundo

O EU AI Act, formalmente o Regulamento (UE) 2024/1689, foi adotado pelo Parlamento Europeu em março de 2024 e entrou em vigor a 1 de agosto de 2024. É o primeiro quadro jurídico vinculativo e abrangente do mundo para a inteligência artificial — estabelecendo regras sobre como os sistemas de IA podem ser desenvolvidos, colocados no mercado e utilizados na União Europeia.

O AI Act adota uma abordagem baseada no risco: classifica os sistemas de IA em quatro níveis de risco, e as obrigações impostas escalam com o dano potencial que o sistema pode causar. Algumas aplicações de IA são proibidas de imediato. Outras — em domínios de alto risco como recrutamento, educação, aplicação da lei e saúde — enfrentam requisitos pré-mercado significativos. Muitos sistemas de IA enfrentam apenas obrigações de transparência. E a grande maioria enquadra-se numa categoria de risco mínimo sem obrigações obrigatórias.

O regulamento abrange toda a cadeia de valor de IA. As obrigações recaem sobre fornecedores (organizações que desenvolvem sistemas de IA e os colocam no mercado ou os põem em serviço), utilizadores profissionais (organizações que utilizam sistemas de IA num contexto profissional), importadores e distribuidores. Uma empresa que compra uma ferramenta de IA comercial e a utiliza para triagem de candidaturas é um utilizador profissional com obrigações. Uma empresa que ajusta um modelo de fundação e o vende a clientes é um fornecedor com obrigações mais extensas.

Crucialmente, o AI Act inclui também disposições específicas para modelos de IA de Uso Geral (GPAI) — grandes modelos de fundação como o GPT-4, Gemini ou Llama — impondo obrigações às organizações que desenvolvem e disponibilizam estes modelos, incluindo requisitos de transparência e, para os modelos mais capazes (acima de 10^25 FLOPs de computação de treino), um conjunto completo de obrigações de gestão de riscos sistémicos.

Fornecedores, utilizadores profissionais e todos os intervenientes

O AI Act aplica-se a organizações em quatro papéis:

  • Fornecedores — desenvolvem um sistema de IA ou modelo GPAI e colocam-no no mercado da UE ou põem-no em serviço na UE, independentemente de estarem estabelecidos na UE ou num país terceiro. Os fornecedores suportam as obrigações mais pesadas, incluindo avaliações de conformidade, documentação técnica e marcação CE para sistemas de alto risco.
  • Utilizadores profissionais — utilizam um sistema de IA sob a sua autoridade num contexto profissional. Quando os utilizadores profissionais usam sistemas de IA de alto risco, têm obrigações que incluem a realização de avaliações de impacto sobre os direitos fundamentais, garantir a supervisão humana adequada e informar os indivíduos quando interagem com IA.
  • Importadores — colocam no mercado da UE sistemas de IA desenvolvidos por fornecedores estabelecidos fora da UE. Os importadores devem verificar que o fornecedor completou a avaliação de conformidade e tomar medidas corretivas para sistemas não conformes.
  • Distribuidores — disponibilizam sistemas de IA no mercado da UE sem os colocar no mercado (ou seja, revendedores). Os distribuidores devem verificar a conformidade antes da distribuição e tomar medidas corretivas se acreditarem que o sistema não está conforme.

O regulamento aplica-se de forma extraterritorial: qualquer organização que forneça sistemas de IA a utilizadores da UE, ou cujo output do sistema de IA seja utilizado na UE, está dentro do âmbito.

A classificação de risco em quatro níveis

Risco Inaceitável — Proibido

As aplicações de IA que representam uma ameaça inaceitável para os direitos fundamentais são completamente proibidas. Isto inclui: sistemas de pontuação social por autoridades públicas, identificação biométrica remota em tempo real em espaços publicamente acessíveis (com exceções limitadas para a aplicação da lei), IA que explora vulnerabilidades de grupos específicos, manipulação subliminar e policiamento preditivo baseado exclusivamente em perfilagem.

Alto Risco — Regulado

Sistemas de IA em setores críticos ou com impactos significativos nos direitos fundamentais. Definidos no Anexo III: identificação biométrica, infraestruturas críticas, educação, emprego (triagem de CVs, avaliação de candidatos, monitorização), serviços essenciais (pontuação de crédito, seguros), aplicação da lei, migração e administração da justiça. Os sistemas de alto risco exigem avaliação de conformidade, marcação CE, documentação técnica, supervisão humana, testes de precisão e robustez e registo na base de dados da UE.

Risco Limitado — Obrigações de Transparência

Sistemas de IA com riscos específicos de transparência — principalmente chatbots e sistemas que geram conteúdo sintético. Os utilizadores profissionais devem informar os utilizadores de que estão a interagir com um sistema de IA. O conteúdo gerado por IA (deepfakes, áudio e vídeo sintéticos) deve ser rotulado. Os modelos GPAI devem divulgar que o conteúdo é gerado por IA.

Risco Mínimo — Sem Obrigações Obrigatórias

A grande maioria dos sistemas de IA: filtros de spam, motores de recomendação, IA em videojogos, ferramentas de gestão de inventário. Não se aplicam obrigações obrigatórias, embora sejam incentivados códigos de conduta voluntários. As organizações podem optar por seguir compromissos voluntários ao abrigo dos códigos de prática do AI Act.

Termos que precisa de compreender

Sistema de IA (definição)

Um sistema baseado em máquina concebido para funcionar com vários níveis de autonomia que infere resultados como previsões, recomendações, decisões ou conteúdo a partir das entradas que recebe. A definição é tecnologicamente neutra e intencionalmente ampla.

Modelo de IA de Uso Geral (GPAI)

Um modelo de IA treinado em dados abrangentes em larga escala que é capaz de executar com competência uma ampla gama de tarefas distintas e pode ser integrado em várias aplicações a jusante — independentemente de como é implementado.

Avaliação de Conformidade

O processo pelo qual um fornecedor demonstra que um sistema de IA de alto risco cumpre os requisitos do AI Act antes de o colocar no mercado. A maioria dos sistemas de alto risco pode ser autocertificada; alguns (sistemas biométricos para a aplicação da lei) exigem avaliação por terceiros.

Supervisão Humana

Os sistemas de IA de alto risco devem ser concebidos para serem efetivamente supervisionados por pessoas singulares. Os utilizadores profissionais devem garantir que pessoas com a competência e a autoridade para anular ou parar o sistema estão em posição de o fazer.

Avaliação de Impacto sobre os Direitos Fundamentais

Os utilizadores profissionais de sistemas de IA de alto risco nas áreas abrangidas pelo Art. 27.º devem realizar uma avaliação do impacto potencial sobre os direitos fundamentais antes de implementarem o sistema e registar os resultados na base de dados da UE.

Marcação CE

Os sistemas de IA de alto risco devem ostentar a marcação CE de conformidade — a mesma marcação usada para outros produtos regulamentados na UE — antes de serem colocados no mercado. Apor a marcação CE sem concluir a avaliação de conformidade constitui uma infração.

Datas de aplicação faseadas

Aug 2024

Regulamento entra em vigor

O EU AI Act é publicado no Jornal Oficial e entra em vigor. Os períodos de transição de 24 e 36 meses para diferentes disposições começam a correr.

Feb 2025

Práticas proibidas em vigor

As proibições do Capítulo II sobre aplicações de IA de risco inaceitável tornam-se aplicáveis. As organizações que utilizam práticas de IA proibidas (pontuação social, determinadas formas de vigilância biométrica, manipulação subliminar) devem cessar essas atividades de imediato.

Aug 2025

Obrigações dos modelos GPAI em vigor

As regras para os modelos de IA de Uso Geral (Capítulo V) tornam-se aplicáveis, incluindo requisitos de transparência e obrigações de risco sistémico para os modelos mais capazes. O Gabinete de IA é criado e a aplicação começa para os GPAI.

Aug 2026

Obrigações dos sistemas de alto risco em vigor

O quadro completo para os sistemas de IA de alto risco (Anexo III) torna-se aplicável. Os fornecedores devem concluir as avaliações de conformidade, documentação técnica e registo. Os utilizadores profissionais devem implementar supervisão e realizar avaliações de impacto sobre os direitos fundamentais. Nota: a proposta da Comissão para o Digital Omnibus on AI (publicada a 19 de novembro de 2025) prevê estender este prazo para 2 de dezembro de 2027 (Anexo III autónomos) e 2 de agosto de 2028 (sistemas integrados em produtos regulados), com a aplicação também condicionada à prontidão das normas harmonizadas. A proposta está atualmente no processo legislativo ordinário (Parlamento e Conselho). Até à adoção formal, agosto de 2026 mantém-se como prazo legal.

Aug 2027

IA de alto risco em produtos regulamentados

Os sistemas de IA de alto risco que são componentes de segurança de produtos abrangidos pela legislação de harmonização da UE existente (dispositivos médicos, maquinaria, veículos) devem cumprir os requisitos do AI Act neste prazo alargado.

O que os fornecedores de alto risco devem fazer

  • Estabelecer um sistema de gestão de riscos (Art. 9.º) — um processo iterativo contínuo de identificação, análise e mitigação dos riscos associados ao sistema de IA ao longo de todo o seu ciclo de vida.
  • Implementar medidas de governação de dados (Art. 10.º) — os conjuntos de dados de treino, validação e teste devem ser relevantes, representativos, isentos de erros e completos; devem ser identificados e mitigados potenciais enviesamentos.
  • Preparar documentação técnica (Art. 11.º + Anexo IV) — documentação abrangente antes da colocação no mercado cobrindo a conceção do sistema, a finalidade prevista, as métricas de desempenho e as medidas de gestão de riscos.
  • Permitir o registo e a conservação de registos (Art. 12.º) — os sistemas de IA de alto risco devem ter capacidades de registo que garantam a rastreabilidade ao longo da vida do sistema, permitindo a monitorização pós-mercado.
  • Concluir a avaliação de conformidade e a marcação CE (Art. 43.º–44.º) — antes de colocar um sistema de alto risco no mercado da UE, demonstrar a conformidade através do procedimento de avaliação de conformidade aplicável e apor a marcação CE.
◈ Análise Aprofundada Premium

Categorias do Anexo III, obrigações GPAI, implicações setoriais, sanções & lista de verificação completa

Tudo o que precisa para passar da compreensão do AI Act para a sua conformidade.

Categorias de Alto Risco (Anexo III) em Detalhe

O Anexo III lista as oito áreas onde os sistemas de IA são automaticamente classificados como de alto risco, independentemente de como o fornecedor os comercializa. Qualquer sistema de IA que se enquadre nestas categorias aciona as obrigações completas do fornecedor e do utilizador profissional:

  • Sistemas de categorização biométrica e de identificação biométrica remota em tempo real/pós-remota (com exceções limitadas para a aplicação da lei)
  • IA na gestão de infraestruturas críticas — sistemas de gestão de redes de eletricidade, água e transportes
  • Formação educativa e profissional — sistemas que determinam o acesso, atribuem estudantes, avaliam resultados de aprendizagem, avaliam exames
  • Emprego, gestão de trabalhadores e acesso ao trabalho independente — ferramentas de recrutamento, triagem de CVs, classificação de candidatos, decisões de promoção e rescisão, monitorização de desempenho
  • Acesso a serviços privados e públicos essenciais — pontuação de crédito, avaliação de risco de seguros de vida e saúde, despacho de serviços de emergência
  • Aplicação da lei — avaliação da fiabilidade das provas, previsão de infrações com base em perfilagem, ferramentas do tipo polígrafo
  • Gestão da migração, asilo e controlo de fronteiras — avaliações de risco, verificação da autenticidade de documentos, processamento de pedidos
  • Administração da justiça e processos democráticos — assistência à investigação para tribunais, influência em eleições

Obrigações dos Modelos GPAI

As organizações que desenvolvem ou distribuem modelos de IA de Uso Geral (independentemente de esses modelos serem também sistemas de IA de alto risco) devem cumprir os requisitos do Capítulo V a partir de agosto de 2025. Todos os fornecedores de modelos GPAI devem: elaborar e manter documentação técnica; fornecer informações e documentação aos fornecedores a jusante; publicar um resumo dos dados de treino; cumprir o direito de autor da UE; e cooperar com o Gabinete de IA.

Os modelos GPAI com "risco sistémico" — definidos como aqueles treinados com mais de 10^25 FLOPs — enfrentam obrigações adicionais: testes adversariais (red-teaming), comunicação de incidentes à Comissão no prazo de dois dias úteis após incidentes graves, medidas de cibersegurança e comunicação sobre eficiência energética. Os modelos atualmente em âmbito incluem as versões mais capazes do GPT, Gemini, Claude e Llama.

Processo de Avaliação de Conformidade

Para a maioria dos sistemas de IA de alto risco (Anexo III, categorias 2–8), os fornecedores podem realizar uma autoavaliação — também designada avaliação de conformidade interna. O processo envolve a verificação de que o sistema cumpre todos os requisitos da Secção 2 do Capítulo III (Arts. 9.º–15.º), a elaboração da Declaração de Conformidade da UE e a conservação de registos durante 10 anos após a colocação no mercado. Para determinados sistemas de identificação biométrica e aplicações de aplicação da lei, devem ser envolvidos organismos de avaliação da conformidade de terceiros (Organismos Notificados).

Implicações Setoriais

Recursos Humanos

Qualquer sistema de IA utilizado para triagem de CVs, classificação de candidatos, avaliação automatizada de entrevistas ou monitorização do desempenho dos trabalhadores enquadra-se na classificação de alto risco do Anexo III. Os empregadores devem implementar uma supervisão humana significativa, documentar a finalidade prevista e as limitações do sistema e informar os candidatos de que as ferramentas de IA são utilizadas na seleção. Os trabalhadores também devem ser informados quando os sistemas de IA monitorizam o seu desempenho.

Saúde

A IA utilizada como componente de segurança de dispositivos médicos (IA de imagiologia de diagnóstico, ferramentas de apoio à decisão clínica) enquadra-se no prazo alargado de agosto de 2027 ao abrigo da regulação existente de dispositivos médicos. A IA utilizada para triagem de doentes, recomendações de tratamento ou alocação de recursos hospitalares que não seja um dispositivo médico é potencialmente de alto risco ao abrigo do Anexo III (infraestruturas críticas) ou de risco limitado.

Serviços Financeiros

Os sistemas de IA de pontuação de crédito — utilizados para crédito ao consumo, avaliações de hipotecas e fixação de preços de seguros — estão explicitamente listados no Anexo III. Os bancos e seguradoras que implementam estas ferramentas devem realizar avaliações de impacto sobre os direitos fundamentais, implementar processos de revisão humana para decisões adversas e manter registos de todos os outputs automatizados. A interação com o Art. 22.º do GDPR (sem decisões exclusivamente automatizadas) cria obrigações sobrepostas.

Setor Jurídico

A IA utilizada para auxiliar tribunais na investigação e interpretação de factos e direito, ou na previsão de resultados de casos, é de alto risco ao abrigo do Anexo III. Os escritórios de advogados que utilizam IA para assistência à investigação são provavelmente utilizadores profissionais com obrigações de supervisão, embora a maioria das ferramentas de investigação jurídica atuais seja concebida como assistentes sem tomada de decisão autónoma — o que pode colocá-las fora do âmbito de alto risco se forem cuidadosamente concebidas.

Estrutura de Sanções

O AI Act estabelece as sanções mais elevadas de qualquer regulamento da UE, refletindo a seriedade com que a UE encarar os riscos da IA:

  • Infrações às práticas de IA proibidas (Capítulo II): até €35 milhões ou 7% do volume de negócios anual global (o que for mais elevado)
  • Infrações a outras disposições do AI Act: até €15 milhões ou 3% do volume de negócios anual global
  • Fornecer informações incorretas, incompletas ou enganosas às autoridades: até €7,5 milhões ou 1% do volume de negócios anual global
  • Para PME e startups, as percentagens podem ser aplicadas quando inferiores aos valores absolutos

Lista de Verificação de Conformidade Completa

1
Criar um inventário de todos os sistemas de IA utilizados ou desenvolvidos pela sua organização — incluindo ferramentas de terceiros e modelos integrados nos seus produtos
2
Classificar cada sistema de IA por nível de risco (proibido, alto risco Anexo III, risco limitado, risco mínimo) usando o quadro do AI Act
3
Verificar imediatamente que nenhum dos seus sistemas de IA ou casos de uso se enquadra nas práticas proibidas do Capítulo II (em vigor desde fevereiro de 2025)
4
Para cada sistema de alto risco em que seja o fornecedor: estabelecer um sistema de gestão de riscos (Art. 9.º) e documentá-lo
5
Para cada sistema de alto risco: preparar documentação técnica (Anexo IV) cobrindo a conceção, finalidade prevista, desempenho e medidas de mitigação de riscos
6
Implementar mecanismos de registo e conservação de registos para todos os sistemas de IA de alto risco para garantir a rastreabilidade
7
Para sistemas de alto risco em que seja um utilizador profissional: realizar uma Avaliação de Impacto sobre os Direitos Fundamentais (Art. 27.º) antes da implementação
8
Estabelecer procedimentos de supervisão humana — identificar quem pode anular ou parar o sistema de IA, garantir que tem a competência e a autoridade para o fazer
9
Para chatbots e sistemas que geram conteúdo sintético: implementar sistemas de notificação de utilizadores confirmando a interação com IA e a rotulagem de conteúdo
10
Se fornecer modelos GPAI: preparar documentação técnica, publicar resumos de dados de treino e implementar medidas de conformidade com os direitos de autor (a partir de agosto de 2025)
11
Atribuir a responsabilidade pelo AI Act — designar um responsável ou equipa de governação de IA para gerir o programa de conformidade e manter os registos
12
Registar sistemas de IA de alto risco na base de dados da UE (Artigo 49.º) antes da colocação no mercado ou implementação (a partir de agosto de 2026; o prazo poderá ser alargado até dezembro de 2027 se o Digital Omnibus da UE for adotado)

Como Utilizar as Ferramentas AI Act da Verdaio

O Classificador de Risco EU AI Act guia-o através de um questionário estruturado para classificar o seu sistema de IA por nível de risco e identificar as obrigações específicas que se aplicam — gratuito, sem registo obrigatório. O Roteiro de Conformidade AI Act é a análise aprofundada premium: mapeia o seu sistema de alto risco específico em relação ao conjunto completo de obrigações dos Arts. 9.º–15.º, gera uma lista de verificação de documentação técnica e produz um roteiro de conformidade faseado antes do prazo de agosto de 2026 (que poderá ser alargado até dezembro de 2027 se o Digital Omnibus da UE for adotado — atualmente em trílogo).

Classificador de Risco AI Act (gratuito) →  |  Roteiro de Conformidade (premium) →

Desbloquear o guia completo EU AI Act

Obtenha a análise completa do Anexo III, obrigações GPAI, implicações setoriais, estrutura de sanções e lista de verificação de conformidade de 12 pontos.

Desbloquear guia completo — €1.490/ano

Acesso completo a todos os 6 guias de aprendizagem + todas as ferramentas premium

Fontes e legislação primária

Digital Omnibus on AI — proposal (19 November 2025) ↗Última alteração (em procedimento legislativo)
AI Office ↗Organismo supervisor da UE para modelos GPAI

Verifique esta página contra as fontes primárias acima. A Lei IA encontra-se em transição legislativa: o Digital Omnibus on AI (proposto a 19 de novembro de 2025) prevê alargar as datas de aplicação dos sistemas de alto risco. Acompanhamos o EUR-Lex, as orientações do AI Office e as Q&As da Comissão semanalmente. Em caso de divergência, prevalece o EUR-Lex.