Responsible AI Platform

Annex III AI Act

class="oj-doc-ti" id="d1e38-127-1">PRILOG III.

Official text

id="anx_III"> PRILOG III. Visokorizični UI sustavi iz članka 6. stavka 2. Visokorizični UI sustavi u skladu s člankom 6. stavkom 2. jesu UI sustavi u bilo kojem od sljedećih područja:

1. Biometrija, ako je njezino korištenje dopušteno na temelju relevantnog prava Unije ili nacionalnog prava:

(a) sustavi za daljinsku biometrijsku identifikaciju. To ne uključuje UI sustave namijenjene za biometrijsku provjeru čija je jedina svrha potvrditi da je određena fizička osoba doista ona osoba kojom se predstavlja;

(b) UI sustavi namijenjeni za biometrijsku kategorizaciju, u skladu s osjetljivim ili zaštićenim atributima ili karakteristikama na temelju zaključivanja o tim atributima ili značajkama;

(c) UI sustavi namijenjeni za prepoznavanje emocija.

2. Kritična infrastruktura: UI sustavi namijenjeni za korištenje kao sigurnosne komponente za upravljanje kritičnom digitalnom infrastrukturom, cestovnim prometom ili opskrbom vodom, plinom, grijanjem ili električnom energijom te za njihov rad.

3. Obrazovanje i strukovno osposobljavanje:

(a) UI sustavi namijenjeni za odlučivanje o pristupu ili upisu ili za razvrstavanje fizičkih osoba u ustanove ili programe za obrazovanje i strukovno osposobljavanje na svim razinama;

(b) UI sustavi namijenjeni za evaluaciju ishoda učenja, među ostalim kad se ti ishodi upotrebljavaju za usmjeravanje procesa učenja fizičkih osoba u ustanovama za obrazovanje i strukovno osposobljavanje na svim razinama;

(c) UI sustavi namijenjeni za upotrebu u svrhu procjene odgovarajuće razine obrazovanja koju će pojedinci primiti ili kojoj će moći pristupiti, u kontekstu ili unutar ustanova za obrazovanje i strukovno osposobljavanje na svim razinama;

(d) UI sustavi namijenjeni za praćenje i otkrivanje zabranjenog postupanja učenika tijekom testiranja u kontekstu ili unutar ustanova za obrazovanje i strukovno osposobljavanje na svim razinama.

4. Zapošljavanje, kadrovsko upravljanje i pristup samozapošljavanju:

(a) UI sustavi namijenjeni za zapošljavanje ili odabir fizičkih osoba, posebno za postavljanje ciljanih oglasa za posao, za analizu i filtriranje prijava za posao te za evaluaciju kandidata;

(b) UI sustavi namijenjeni za donošenje odluka koje utječu na uvjete radnog odnosa, promaknuće ili otkazivanje radnih ugovornih odnosa, za dodjelu zadataka na osnovi individualnog ponašanja ili osobnih obilježja odnosno karakteristika te za praćenje i evaluaciju učinkovitosti i ponašanja osoba u takvim odnosima.

5. Pristup osnovnim privatnim uslugama te osnovnim javnim uslugama i naknadama i njihovo korištenje:

(a) UI sustavi namijenjeni za korištenje od strane tijela javne vlasti ili u njihovo ime za evaluaciju prihvatljivosti fizičkih osoba za osnovne naknade i usluge javne pomoći, uključujući zdravstvene usluge, te za dodjeljivanje, smanjenje, ukidanje ili povrat takvih naknada i usluga;

(b) UI sustavi namijenjeni za evaluaciju kreditne sposobnosti fizičkih osoba ili utvrđivanje njihova kreditnog rejtinga, uz iznimku UI sustava koji se upotrebljavaju za otkrivanje financijskih prijevara;

(c) UI sustavi namijenjeni za procjenu rizika i određivanje cijena u odnosu na fizičke osobe u slučaju životnog i zdravstvenog osiguranja;

(d) UI sustavi namijenjeni za evaluaciju i klasifikaciju hitnih poziva fizičkih osoba ili za dispečiranje ili određivanje prioriteta pri dispečiranju hitnih službi, uključujući policiju, vatrogasce i medicinsku pomoć, kao i sustave za trijažu pacijenata u pružanju hitne skrbi.

6. Kazneni progon, ako je njihovo korištenje dopušteno na temelju relevantnog prava Unije ili nacionalnog prava:

(a) UI sustavi namijenjeni za korištenje od strane tijela kaznenog progona ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za potporu tijelima kaznenog progona ili u njihovo ime za procjenu rizika fizičke osobe da postane žrtva kaznenih djela;

(b) UI sustavi namijenjeni za upotrebu od strane tijela kaznenog progona ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za potporu tijelima kaznenog progona kao poligrafi ili slični alati;

(c) UI sustavi namijenjeni za korištenje od strane tijela kaznenog progona ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za potporu tijelima kaznenog progona za evaluaciju pouzdanosti dokaza tijekom istrage ili progona kaznenih djela;

(d) UI sustavi namijenjeni za korištenje od strane tijela kaznenog progona ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za potporu tijelima kaznenog progona za procjenu rizika fizičke osobe do počini ili ponovno počini kazneno djelo ne samo na osnovi izrade profila fizičkih osoba kako je navedeno u članku 3. točki 4. Direktive (EU) 2016/680 ili za procjenu osobina i karakteristika ili prethodnog kriminalnog ponašanja fizičkih osoba ili skupina;

(e) UI sustavi namijenjeni za korištenje od strane tijela kaznenog progona ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za potporu tijelima kaznenog progona za izradu profila fizičkih osoba kako je navedeno u članku 3. točki 4. Direktive (EU) 2016/680 tijekom otkrivanja, istrage ili progona kaznenih djela.

7. Migracije, azil i upravljanje nadzorom državne granice, ako je njihovo korištenje dopušteno na temelju relevantnog prava Unije ili nacionalnog prava:

(a) UI sustavi namijenjeni za korištenje od strane nadležnih tijela javne vlasti ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije kao poligrafi ili slični alati;

(b) UI sustavi namijenjeni za korištenje od strane nadležnih tijela javne vlasti ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za procjenu rizika, uključujući rizik za sigurnost, rizik od nezakonitih migracija ili rizik za zdravlje, koji predstavlja fizička osoba koja namjerava ući ili je ušla na državno područje države članice;

(c) UI sustavi namijenjeni za korištenje od strane nadležnih tijela javne vlasti ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije za pomoć nadležnim tijelima javne vlasti u razmatranju zahtjeva za azil, viza ili boravišnih dozvola i povezanih pritužbi u pogledu prihvatljivosti fizičkih osoba koje podnose zahtjev za određeni status, uključujući povezane procjene pouzdanosti dokaza;

(d) UI sustavi namijenjeni za korištenje od strane nadležnih tijela javne vlasti ili u njihovo ime ili od strane institucija, tijela, ureda ili agencija Unije, u kontekstu migracija, azila ili upravljanja nadzorom državne granice, u svrhu otkrivanja, prepoznavanja ili identifikacije fizičkih osoba, uz iznimku provjere putnih isprava.

8. Sudovanje i demokratski procesi:

(a) UI sustavi namijenjeni za korištenje od strane pravosudnih tijela ili u njihovo ime za pomoć pravosudnom tijelu u istraživanju i tumačenju činjenica i prava te primjeni prava na konkretan skup činjenica ili za upotrebu na sličan način u alternativnom rješavanju sporova;

(b) UI sustavi namijenjeni za utjecanje na ishod izbora ili referenduma ili na ponašanje fizičkih osoba pri glasovanju na izborima ili referendumima. To ne uključuje UI sustave čijim izlaznim podacima fizičke osobe nisu izravno izložene, kao što su alati koji se upotrebljavaju za organizaciju, optimizaciju i strukturiranje političkih kampanja s administrativnog ili logističkog stajališta.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.