🤖 VERIFICAÇÃO RÁPIDA IA

Lei IA da UE, Auto-Check Artigo 5.º

Percorra as 8 práticas de IA proibidas ao abrigo do Artigo 5.º em linguagem simples. Gratuito, 5 minutos, apenas informativo.

As 8 proibições
Qualificadores legais
Não é aconselhamento jurídico
Última verificação: 12 de abril de 2026. O Artigo 5.º da Lei IA da UE tornou-se aplicável em 2 de fevereiro de 2025. Coimas por práticas proibidas: até EUR 35.000.000 ou 7% do volume de negócios mundial anual (Art. 99.º(3)). As Diretrizes da Comissão Europeia de fevereiro de 2025 sobre práticas de IA proibidas informam este auto-check. Esta ferramenta é apenas informativa e não constitui aconselhamento jurídico. Fonte: Regulamento (UE) 2024/1689, Artigo 5.º, EUR-Lex.
🤖
Gratuito · Lei IA da UE

Verificação Rápida IA

Um auto-check estruturado face às 8 práticas de IA proibidas no Artigo 5.º da Lei IA da UE. Cada disposição inclui os qualificadores legais (não um simples sim/não), para que o resultado reflita a lei real e não um falso alarme.

🔒 Nada é armazenado. As suas respostas são processadas apenas no seu navegador. Nada é enviado nem armazenado nos nossos servidores.
ℹ️ Isto é uma auto-avaliação, não um veredito jurídico. As empresas recorrem normalmente a aconselhamento qualificado antes de atuar com base nos resultados.

Conta gratuita necessária

Artigo 5.º, 8 práticas proibidas

Responda a cada pergunta para o seu sistema de IA

Quando a lei exige várias condições (como "distorção material" ou "dano significativo"), apenas mostramos essas perguntas seguintes se respondeu sim à pergunta gatilho.

Incluímos isto no relatório para que consiga distinguir várias verificações. Não é armazenado em lado nenhum.
DISPOSIÇÃO 1 · Art. 5.º(1)(a)
O sistema utiliza técnicas subliminares (além da consciência) ou técnicas intencionalmente manipuladoras ou enganadoras?
Exemplos: pistas áudio ou visuais ocultas, dark patterns, personas de IA concebidas para enganar utilizadores a ter um comportamento específico.
Distorce materialmente o comportamento ou as decisões das pessoas afetadas?
Poderia causar dano significativo (físico, psicológico ou financeiro)?
DISPOSIÇÃO 2 · Art. 5.º(1)(b)
O sistema visa ou utiliza informação sobre vulnerabilidades relacionadas com idade, deficiência ou situação socio-económica?
Exemplos: anúncios dirigidos a crianças, sistemas que exploram uma deficiência conhecida, ferramentas que isolam utilizadores de baixos rendimentos para tratamento predatório.
Utiliza essas vulnerabilidades para distorcer o comportamento?
Poderia causar dano significativo?
DISPOSIÇÃO 3 · Art. 5.º(1)(c)
O sistema pontua, classifica ou avalia pessoas com base no seu comportamento social ou características pessoais?
Exemplos: sistemas que classificam a confiabilidade de cidadãos, classificam pessoas para tratamento geral com base em traços de personalidade, ou avaliam "valor" entre domínios.
A pontuação é usada em contextos não relacionados com o local onde os dados foram originalmente recolhidos?
Por exemplo: comportamento financeiro usado para decidir admissão escolar, ou atividade online usada para avaliação de emprego.
O tratamento resultante causa detrimento injustificado ou desproporcionado?
DISPOSIÇÃO 4 · Art. 5.º(1)(d)
O sistema prevê o risco de um indivíduo específico cometer um crime?
Avaliações de risco baseadas em factos objetivos e verificáveis diretamente ligados a atividade criminal existente (como apoiar uma investigação) não estão abrangidas por esta proibição.
A previsão baseia-se exclusivamente em perfis ou na avaliação de traços de personalidade, sem factos objetivos verificáveis diretamente ligados a atividade criminal?
DISPOSIÇÃO 5 · Art. 5.º(1)(e)
O sistema cria ou expande bases de dados de reconhecimento facial através de recolha não dirigida de imagens faciais da internet ou de imagens de CCTV?
Esta é uma proibição absoluta sem exceções.
DISPOSIÇÃO 6 · Art. 5.º(1)(f)
O sistema infere emoções de pessoas em contextos de local de trabalho ou de instituições de ensino?
Exemplos: monitorização da frustração de empregados, análise do envolvimento de estudantes através de expressões faciais.
O sistema é utilizado por razões médicas ou de segurança?
Exemplos: deteção de fadiga do condutor, monitorização de angústia do paciente em contexto médico.
DISPOSIÇÃO 7 · Art. 5.º(1)(g)
O sistema categoriza pessoas com base em dados biométricos para inferir raça, opiniões políticas, filiação sindical, convicções religiosas, vida sexual ou orientação sexual?
Isto é para rotulagem ou filtragem de conjuntos de dados biométricos legalmente obtidos num contexto de aplicação da lei?
A exceção para aplicação da lei é estreita e sujeita a salvaguardas rigorosas.
DISPOSIÇÃO 8 · Art. 5.º(1)(h)
O sistema realiza identificação biométrica remota em tempo real (p. ex. reconhecimento facial ao vivo) em espaços acessíveis ao público?
É utilizado por autoridades policiais para uma exceção restrita (procura de pessoas desaparecidas, prevenção de ataque terrorista, ou identificação de suspeitos em crimes graves)?

Auto-Check Artigo 5.º, Resumo

Esta é uma ferramenta informativa. Os resultados refletem as respostas fornecidas e não constituem aconselhamento jurídico. As empresas recorrem normalmente a aconselhamento jurídico qualificado em Lei IA da UE antes de atuar com base nos resultados de qualquer auto-avaliação.

Não é proibido? A próxima pergunta é qual o nível de risco.

A maioria dos sistemas de IA não se enquadra no Artigo 5.º. As suas obrigações de conformidade reais dependem do nível de risco aplicável: inaceitável, alto risco, risco limitado ou mínimo. A Avaliação da Lei IA da UE utiliza o Anexo III, o Artigo 50.º e as regras GPAI para lhe dar uma classificação completa e um roteiro de conformidade faseado.

Executar a Avaliação da Lei IA da UE →
Avaliação Lei IA UE →