Responsible AI Platform

Anexo III AI Act

Sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2

Official text

Sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2 Los sistemas de IA de alto riesgo con arreglo al artículo 6, apartado 2, son los sistemas de IA que formen parte de cualquiera de los ámbitos siguientes:

1. Biometría, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de identificación biométrica remota Quedan excluidos los sistemas de IA destinados a ser utilizados con fines de verificación biométrica cuya única finalidad sea confirmar que una persona física concreta es la persona que afirma ser

b) Sistemas de IA destinados a ser utilizados para la categorización biométrica en función de atributos o características sensibles o protegidos basada en la inferencia de dichos atributos o características

c) Sistemas de IA destinados a ser utilizados para el reconocimiento de emociones

2. Infraestructuras críticas: Sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de las infraestructuras digitales críticas, del tráfico rodado o del suministro de agua, gas, calefacción o electricidad

3. Educación y formación profesional:

a) Sistemas de IA destinados a ser utilizados para determinar el acceso o la admisión de personas físicas a centros educativos y de formación profesional a todos los niveles o para distribuir a las personas físicas entre dichos centros

b) Sistemas de IA destinados a ser utilizados para evaluar los resultados del aprendizaje, también cuando dichos resultados se utilicen para orientar el proceso de aprendizaje de las personas físicas en centros educativos y de formación profesional a todos los niveles

c) Sistemas de IA destinados a ser utilizados para evaluar el nivel de educación adecuado que recibirá una persona o al que podrá acceder, en el contexto de los centros educativos y de formación profesional o dentro de estos a todos los niveles

d) Sistemas de IA destinados a ser utilizados para el seguimiento y la detección de comportamientos prohibidos por parte de los estudiantes durante los exámenes en el contexto de los centros educativos y de formación profesional o dentro de estos a todos los niveles

4. Empleo, gestión de los trabajadores y acceso al autoempleo:

a) Sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos

b) Sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones

5. Acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones:

a) Sistemas de IA destinados a ser utilizados por las autoridades públicas o en su nombre para evaluar la admisibilidad de las personas físicas para beneficiarse de servicios y prestaciones esenciales de asistencia pública, incluidos los servicios de asistencia sanitaria, así como para conceder, reducir o retirar dichos servicios y prestaciones o reclamar su devolución

b) Sistemas de IA destinados a ser utilizados para evaluar la solvencia de personas físicas o establecer su calificación crediticia, salvo los sistemas de IA utilizados al objeto de detectar fraudes financieros

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.