A Lei IA da UE classifica os sistemas de IA por nível de risco e impõe obrigações em conformidade. Se a sua empresa utiliza, implementa ou desenvolve sistemas de IA, pode já ter obrigações de conformidade — e o calendário de aplicação está a avançar rapidamente.
A Lei de Inteligência Artificial da UE é o primeiro quadro jurídico abrangente do mundo especificamente concebido para regular a inteligência artificial. Adotado em 2024, segue uma abordagem baseada no risco — quanto mais grave o dano potencial que um sistema de IA pode causar, mais rigorosos são os requisitos que deve cumprir.
Ao contrário dos regulamentos sectoriais, a Lei IA aplica-se horizontalmente em todos os setores e casos de utilização. Afeta não apenas os programadores de IA, mas também as empresas que implementam ou utilizam sistemas de IA — o que na prática abrange a vasta maioria das organizações modernas.
Estes sistemas de IA são proibidos de forma absoluta ao abrigo da Lei IA da UE. Nenhuma implementação, desenvolvimento ou utilização é permitida.
Os sistemas de IA de alto risco devem cumprir requisitos rigorosos antes de serem colocados no mercado ou postos em serviço.
Os utilizadores devem ser claramente informados quando interagem com IA ou consomem conteúdos gerados por IA.
A maioria dos sistemas de IA enquadra-se nesta categoria. Podem aplicar-se códigos de conduta voluntários, mas os requisitos obrigatórios são mínimos.
Estabelecer e manter um processo contínuo de gestão de riscos que abranja todo o ciclo de vida do sistema de IA — desde a conceção até à implementação e monitorização.
Os dados de treino devem ser de alta qualidade, relevantes e representativos. Os processos de gestão de enviesamentos devem ser documentados e aplicados ao longo do desenvolvimento.
Documentação técnica abrangente deve ser preparada antes de o sistema ser colocado no mercado, cobrindo a conceção, capacidades, limitações e resultados de testes.
Os implementadores e utilizadores devem receber informações claras sobre as capacidades, limitações, finalidade prevista e quaisquer riscos ou modos de falha conhecidos do sistema.
Os sistemas devem ser concebidos para permitir uma supervisão e intervenção humana eficazes. Os humanos devem poder monitorizar, compreender e substituir os resultados da IA quando necessário.
Manter níveis adequados de precisão ao longo do ciclo de vida e garantir que o sistema é resiliente a erros e tentativas de alterar ou manipular os resultados.
As empresas que desenvolvem sistemas de IA ou os colocam no mercado europeu enfrentam as obrigações mais rigorosas — incluindo avaliações de conformidade, requisitos de registo e monitorização pós-comercialização.
As empresas que utilizam sistemas de IA num contexto profissional devem garantir que os sistemas são utilizados adequadamente, monitorizar o seu desempenho e manter registos. A maioria das organizações é implementadora ao abrigo da Lei.
As empresas que introduzem sistemas de IA não europeus no mercado da UE ou os disponibilizam a terceiros têm obrigações específicas de verificar a conformidade antes da distribuição.
Se a sua empresa utiliza ferramentas de IA — desde software de recrutamento a chatbots de atendimento ao cliente ou deteção de fraude — é provavelmente um implementador ao abrigo da Lei IA. A maioria das empresas ainda não sabe quais as obrigações aplicáveis.
A Lei IA da UE foi oficialmente publicada e entrou em vigor a 1 de agosto de 2024. O calendário de aplicação faseado começou a contar a partir desta data.
Os sistemas de IA de risco inaceitável devem ter cessado toda a operação dentro da UE. As violações a partir desta data estão sujeitas a medidas de fiscalização.
Os fornecedores de modelos de IA de uso geral — incluindo os programadores de grandes modelos de fundação — enfrentam novas obrigações em matéria de transparência, avaliação de risco sistémico e comunicação de incidentes.
Todos os sistemas de IA de alto risco listados no Anexo III da Lei IA devem estar totalmente em conformidade. Este é o prazo mais significativo para a maioria das empresas que utilizam ou implementam IA. Nota: o Digital Omnibus da UE propõe a extensão deste prazo para dezembro de 2027 (Anexo III autónomos) e agosto de 2028 (Anexo I integrados em produtos regulados). As negociações de trílogo estão em curso, com acordo político esperado para o final de abril de 2026 — até ser formalmente adotado, agosto de 2026 mantém-se como prazo legal.
Os sistemas de IA já em utilização antes da Lei IA ser aplicável (sistemas legados) devem ser atualizados para cumprir todos os requisitos de IA de alto risco até este prazo alargado.
A Verdaio ajuda-o a inventariar os seus sistemas de IA, a classificá-los por nível de risco e a construir o quadro de governação necessário para cumprir os requisitos da Lei IA da UE — antes que os prazos de aplicação cheguem.