Responsible AI Platform

Annex III AI Act

class="oj-doc-ti" id="d1e38-127-1">PRILOGA III

Official text

id="anx_III"> PRILOGA III Visokotvegani sistemi UI iz člena 6(2) Visokotvegani sistemi UI na podlagi člena 6(2) so sistemi UI, navedeni na seznamu za katero koli od naslednjih področij:

1. biometrika, kolikor je njena uporaba dovoljena na podlagi ustreznega prava Unije ali nacionalnega prava:

(a) sistemi za biometrično identifikacijo na daljavo. To ne vključuje sistemov UI za biometrično preverjanje, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja;

(b) sistemi UI za biometrično kategorizacijo glede na občutljive ali zaščitene lastnosti ali značilnosti na podlagi sklepanja na te lastnosti ali značilnosti;

(c) sistemi UI za prepoznavanje čustev;

2. kritična infrastruktura: sistemi UI za uporabo kot varnostne komponente pri upravljanju in delovanju kritične digitalne infrastrukture, cestnega prometa ali pri oskrbi z vodo, plinom, ogrevanjem ali električno energijo;

3. izobraževanje in poklicno usposabljanje:

(a) sistemi UI za določanje dostopa ali sprejema ali za razvrščanje fizičnih oseb v izobraževalne ustanove in ustanove za poklicno usposabljanje na vseh ravneh;

(b) sistemi UI za evalvacijo učnih izidov, tudi kadar se ti izidi uporabljajo za usmerjanje učnega procesa fizičnih oseb v izobraževalnih ustanovah in ustanovah za poklicno usposabljanje na vseh ravneh;

(c) sistemi UI za ocenjevanje ustrezne ravni izobrazbe, ki jo bo posameznik prejel ali do katere bo lahko dostopal v okviru ali znotraj izobraževalnih ustanov in ustanov za poklicno usposabljanje na vseh ravneh;

(d) sistemi UI za spremljanje in ugotavljanje prepovedanega vedenja učencev in študentov med opravljanjem preizkusov znanja v okviru ali znotraj izobraževalnih ustanov in ustanov za poklicno usposabljanje na vseh ravneh;

4. zaposlovanje, upravljanje delavcev in dostop do samozaposlitve:

(a) sistemi UI za zaposlovanje ali izbor fizičnih oseb, zlasti za ciljno oglaševanje delovnih mest, analizo in filtriranje prijav za zaposlitev ter ocenjevanje kandidatov;

(b) sistemi UI za odločanje o pogojih delovnih razmerij, napredovanju ali prenehanju delovnih pogodbenih razmerij, dodeljevanju nalog na podlagi vedenja posameznika oziroma osebnostnih lastnosti ali značilnosti ter spremljanju in ocenjevanju uspešnosti in vedenja oseb v takih razmerjih;

5. uživanje bistvenih zasebnih in javnih storitev in ugodnosti ter dostop do njih:

(a) sistemi UI, ki naj bi jih uporabljali javni organi ali naj bi se uporabljali v njihovem imenu za ocenjevanje upravičenosti fizičnih oseb do bistvenih ugodnosti in storitev javne pomoči, vključno z zdravstvenimi storitvami, ter za dodelitev, zmanjšanje, preklic ali povračilo takih ugodnosti in storitev;

(b) sistemi UI za ocenjevanje kreditne sposobnosti fizičnih oseb ali določanje njihove kreditne ocene, razen sistemov UI, ki se uporabljajo za odkrivanje finančnih goljufij;

(c) sistemi UI za oceno tveganja in oblikovanje cen v zvezi s fizičnimi osebami v primeru življenjskega in zdravstvenega zavarovanja;

(d) sistemi UI za ocenjevanje in razvrščanje nujnih klicev fizičnih oseb ali za napotitev služb za ukrepanje ob nesrečah, vključno s policijo, gasilci in medicinsko pomočjo, ali določanje prednosti pri njihovi napotitvi, ter sistemi za nujno zdravstveno triažo pacientov;

6. preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, kolikor je njihova uporaba dovoljena na podlagi zadevnega prava Unije ali nacionalnega prava:

(a) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali v njihovem imenu za oceno tveganja, da fizična oseba postane žrtev kaznivih dejanj;

(b) sistemi UI, ki naj bi jih kot poligrafe ali podobna orodja uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj;

(c) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za ocenjevanje zanesljivosti dokazov med preiskavo ali pregonom kaznivih dejanj;

(d) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za oceno tveganja, ali bi fizična oseba storila ali ponovila kaznivo dejanje, ne samo na podlagi oblikovanja profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680, ali za oceno osebnostnih lastnosti in značilnosti ali preteklega kriminalnega ravnanja fizičnih oseb ali skupin;

(e) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za oblikovanje profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680;

7. migracije, azil in upravljanje nadzora meje, kolikor je njihova uporaba dovoljena na podlagi zadevnega prava Unije ali nacionalnega prava:

(a) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije kot poligrafe ali podobna orodja;

(b) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije za oceno tveganja, vključno z varnostnim tveganjem, tveganjem nedovoljenih migracij ali zdravstvenim tveganjem, ki ga predstavlja fizična oseba, ki namerava vstopiti ali je vstopila na ozemlje države članice;

(c) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije za pomoč pristojnim javnim organom pri preučitvi prošenj za azil, vizume in dovoljenja za prebivanje ter s tem povezanih pritožb glede upravičenosti fizičnih oseb, ki so zaprosile za status, vključno s pripadajočimi ocenami zanesljivosti dokazov;

(d) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije, v okviru migracij, azila in upravljanja nadzora meja za namene odkrivanja, prepoznavanja ali identifikacije fizičnih oseb, z izjemo preverjanja potnih listin;

8. pravosodje in demokratični procesi:

(a) sistemi UI, ki naj bi jih uporabljal sodni organ ali naj bi se uporabljali v njegovem imenu za pomoč sodnemu organu pri raziskovanju in razlagi dejstev in prava ter pri uporabi prava za konkreten sklop dejstev ali ki naj bi se uporabljali na podoben način pri alternativnem reševanju sporov;

(b) sistemi UI za vplivanje na izid volitev ali referenduma ali na volilno vedenje fizičnih oseb pri glasovanju na volitvah ali referendumih. To ne vključuje sistemov UI, katerih izhodnim podatkom fizične osebe niso neposredno izpostavljene, kot so orodja, ki se uporabljajo za organizacijo, optimizacijo ali strukturiranje političnih kampanj z upravnega in logističnega vidika.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.