Annex III AI Act
class="oj-doc-ti" id="d1e38-127-1">ANEXO III
Official text
id="anx_III"> ANEXO III Sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2 Os sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, são os sistemas de IA incluídos num dos domínios a seguir enumerados:
1. Dados biométricos, na medida em que a sua utilização seja permitida ao abrigo do direito da União ou do direito nacional aplicável:
a) Sistemas de identificação biométrica à distância. Não inclui os sistemas de IA concebidos para serem utilizados para verificação biométrica com o único propósito de confirmar que uma determinada pessoa singular é a pessoa que alega ser;
b) Sistemas de IA concebidos para serem utilizados para categorização biométrica, de acordo com atributos ou características sensíveis ou protegidos com base na inferência desses atributos ou características;
c) Sistemas de IA concebidos para serem utilizados para o reconhecimento de emoções.
2. Infraestruturas críticas: sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo de infraestruturas digitais críticas, do trânsito rodoviário ou das redes de abastecimento de água, gás, aquecimento ou eletricidade.
3. Educação e formação profissional:
a) Sistemas de IA concebidos para serem utilizados para determinar o acesso ou a admissão ou a afetação de pessoas singulares a instituições de ensino e de formação profissional de todos os níveis;
b) Sistemas de IA concebidos para serem utilizados para avaliar os resultados da aprendizagem, nomeadamente quando esses resultados são utilizados para orientar o processo de aprendizagem de pessoas singulares em instituições de ensino e de formação profissional de todos os níveis;
c) Sistemas de IA concebidos para serem utilizados para efeitos de avaliação do nível de educação adequado que as pessoas receberão ou a que poderão ter acesso no contexto de instituições de ensino e formação profissional ou nessas instituições de todos os níveis;
d) Sistemas de IA concebidos para serem utilizados para efeitos de controlo e deteção de práticas proibidas por parte de estudantes durante testes no contexto de instituições de ensino e formação profissional ou nessas instituições de todos os níveis.
4. Emprego, gestão de trabalhadores e acesso ao emprego por conta própria:
a) Sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, nomeadamente para colocar anúncios de emprego direcionados, analisar e filtrar candidaturas a ofertas de emprego e avaliar os candidatos;
b) Sistemas de IA concebidos para serem utilizados na tomada de decisões que afetem os termos das relações de trabalho, a promoção ou a cessação das relações contratuais de trabalho, na atribuição de tarefas com base em comportamentos individuais, traços ou características pessoais, ou no controlo e avaliação do desempenho e da conduta de pessoas que são partes nessas relações.
5. Acesso a serviços privados essenciais e a serviços e prestações públicos essenciais, bem como o usufruto dos mesmos:
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas, ou em seu nome, para avaliar a elegibilidade de pessoas singulares para terem acesso a prestações e serviços de assistência pública essenciais, incluindo serviços de cuidados de saúde, bem como para conceder, reduzir, revogar ou recuperar o acesso a tais prestações e serviços;
b) Sistemas de IA concebidos para serem utilizados para avaliar a capacidade de solvabilidade de pessoas singulares ou estabelecer a sua classificação de crédito, com exceção dos sistemas de IA utilizados para efeitos de deteção de fraude financeira;
c) Sistemas de IA concebidos para serem utilizados nas avaliações de risco e na fixação de preços em relação a pessoas singulares no caso de seguros de vida e de saúde;
d) Sistemas de IA concebidos para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para serem utilizados no envio, ou no estabelecimento de prioridades no envio, de serviços de primeira resposta a emergências, incluindo polícia, bombeiros e assistência médica, bem como sistemas de triagem de pacientes dos sistemas de cuidados de saúde de emergência.
6. Aplicação da lei, na medida em que a sua utilização seja permitida nos termos do direito da União ou do direito nacional aplicável:
a) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei, ou em seu nome, para avaliar o risco de uma pessoa singular vir a ser vítima de infrações penais;
b) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei, como polígrafos ou instrumentos semelhantes;
c) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou ação penal relativas a infrações penais;
d) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei para avaliar o risco de uma pessoa singular cometer uma infração penal ou reincidir não exclusivamente com base na definição de perfis de pessoas singulares na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, ou para avaliar os traços e características da personalidade ou o comportamento criminal passado de pessoas singulares ou grupos;
e) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei para definir o perfil de pessoas singulares na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, no decurso da deteção, investigação ou ação penal relativas a infrações penais.
7. Gestão da migração, do asilo e do controlo das fronteiras, na medida em que a sua utilização seja permitida nos termos do direito da União ou do direito nacional aplicável:
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes ou instituições, órgãos ou organismos da União, ou em seu nome, como polígrafos e instrumentos semelhantes;
b) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por instituições, órgãos ou organismos da União para avaliar os riscos, incluindo um risco para a segurança, um risco de migração irregular ou um risco para a saúde, que uma pessoa singular que pretenda entrar ou tenha entrado no território de um Estado-Membro represente;
c) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por instituições, órgãos ou organismos da União para auxiliar as autoridades públicas competentes na análise de pedidos de asilo, de visto e de autorização de residência e das queixas conexas, no que toca à elegibilidade das pessoas singulares que requerem determinado estatuto, nomeadamente nas avaliações conexas da fiabilidade dos elementos de prova;
d) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes ou por instituições, órgãos ou organismos da União, ou em seu nome, no contexto da gestão da migração, do asilo ou do controlo das fronteiras, para efeitos de deteção, reconhecimento ou identificação de pessoas singulares, com exceção da verificação de documentos de viagem.
8. Administração da justiça e processos democráticos:
a) Sistemas de IA concebidos para serem utilizados por uma autoridade judiciária, ou em seu nome, para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito, bem como na aplicação da lei a um conjunto específico de factos, ou para serem utilizados de forma similar na resolução alternativa de litígios;
b) Sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos. Não estão incluídos os sistemas de IA a cujos resultados as pessoas singulares não estejam diretamente expostas, como as ferramentas utilizadas para organizar, otimizar e estruturar campanhas políticas do ponto de vista administrativo e logístico.
Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.
📬 AI Act Weekly
Get the most important AI Act developments in your inbox every week.
SubscribeFrequently asked questions
Which AI systems are listed in Annex III of the AI Act?
Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.
Is my AI system high-risk according to Annex III?
Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.
Which AI systems in HR and recruitment are high-risk?
Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.
Do AI systems in the banking sector fall under Annex III?
Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.
Are AI systems in healthcare high-risk under Annex III?
Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.
Which biometric AI systems are high-risk?
Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.
Do government AI systems fall under Annex III?
Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.
Is AI for emotion recognition high-risk?
Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.
Which AI in education is high-risk?
Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).
Is AI for emergency calls high-risk?
Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.
Can the European Commission expand Annex III?
Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.
Do AI systems for election influence fall under Annex III?
Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.
Does AI for insurance fall under Annex III?
Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.
Is AI-powered CV screening high-risk?
Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.
How do I know if my AI system is 'intended to be used' for an Annex III purpose?
Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.