Responsible AI Platform

Annex III AI Act

6.Ā panta 2.Ā punktā minētās augsta riska MI sistēmas

Official text

id="anx_IIIĀ "> IIIĀ PIELIKUMS 6.Ā panta 2.Ā punktā minētās augsta riska MI sistēmas 6.Ā panta 2.Ā punktā minētās augsta riska MI sistēmas ir norādÄ«tās MI sistēmas, ko izmanto kādā no tālāk uzskaitÄ«tajām jomām.

1. Biometrija, ciktāl to izmantoŔanu atļauj attiecīgie Savienības vai valsts tiesību akti:

a) biometriskās tālidentifikācijas sistēmas. Tas neietver MI sistēmas, ko paredzēts izmantot biometriskai verifikācijai, kuras vienīgais nolūks ir apstiprināt, ka konkrēta fiziska persona ir persona, par kuru tā uzdodas;

b) MI sistēmas, ko paredzēts izmantot biometriskai kategorizēŔanai pēc sensitÄ«viem vai aizsargātiem atribÅ«tiem vai raksturlielumiem, pamatojoties uz minēto atribÅ«tu vai raksturlielumu inferenci;

c) MI sistēmas, ko paredzēts izmantot emociju atpazīŔanai.

2. Kritiskā infrastruktÅ«ra: MI sistēmas, ko paredzēts izmantot kā droŔības sastāvdaļas kritiskās digitālās infrastruktÅ«ras pārvaldÄ«bā un darbÄ«bā, ceļu satiksmē vai Å«dens, gāzes vai elektroapgādē vai apkures nodroÅ”ināŔanā.

3. Izglītība un arodmācības:

a) MI sistēmas, ko paredzēts izmantot, lai noteiktu fizisku personu piekļuvi izglÄ«tÄ«bas un arodmācÄ«bu iestādēm visos lÄ«meņos vai viņu iestāŔanos tajās vai viņu uzņemÅ”anu tajās;

b) MI sistēmas, ko paredzēts izmantot, lai izvērtētu mācÄ«bu rezultātus, tostarp, ja Å”os rezultātus izmanto, lai vadÄ«tu fizisku personu mācÄ«bu procesu izglÄ«tÄ«bas un arodmācÄ«bu iestādēs visos lÄ«meņos;

c) MI sistēmas, ko paredzēts izmantot, lai novērtētu pienācīgu izglītības līmeni, kuru persona saņems vai kuram tā varēs piekļūt izglītības un arodmācības iestādēs vai saistībā ar tām visos līmeņos;

d) MI sistēmas, ko paredzēts izmantot, lai pārbaudījumu laikā izglītības un arodmācības iestādēs vai saistībā ar tām uzraudzītu un konstatētu audzēkņu neatļautu uzvedību visos līmeņos.

4. NodarbinātÄ«ba, darba ņēmēju pārvaldÄ«ba un piekļuve paÅ”nodarbinātÄ«bai:

a) MI sistēmas, ko paredzēts izmantot fizisku personu pieņemÅ”anai darbā vai darbinieku atlasei, jo Ä«paÅ”i, lai izvietotu mērÄ·tiecÄ«gus darba sludinājumus, analizētu un atsijātu darba pieteikumus un izvērtētu kandidātus;

b) MI sistēmas, ko paredzēts izmantot, lai pieņemtu lēmumus, kas skar darba attiecÄ«bu, paaugstināŔanas amatā vai darba lÄ«gumattiecÄ«bu izbeigÅ”anas kārtÄ«bu, sadalÄ«tu uzdevumus, pamatojoties uz individuālo uzvedÄ«bu vai personÄ«bas iezÄ«mēm vai Ä«paŔībām, vai lai pārraudzÄ«tu un izvērtētu darba lÄ«gumattiecÄ«bās esoÅ”o personu sniegumu un uzvedÄ«bu.

5. Piekļuve privātiem pamatpakalpojumiem un sabiedriskajiem pamatpakalpojumiem un pabalstiem un to izmantoŔana:

a) MI sistēmas, ko paredzēts izmantot publiskajās iestādēs vai to vārdā, lai izvērtētu fizisku personu tiesÄ«bas saņemt pamata sociālās palÄ«dzÄ«bas pabalstus un pakalpojumus, tostarp veselÄ«bas aprÅ«pes pakalpojumus, kā arÄ« lai pieŔķirtu, samazinātu, atsauktu vai atgÅ«tu Ŕādus pabalstus un pakalpojumus;

b) MI sistēmas, ko paredzēts izmantot fizisku personu kredÄ«tspējas izvērtēŔanai vai to kredÄ«tnovērtējuma noteikÅ”anai, izņemot tādas MI sistēmas, kuras izmanto krāpÅ”anas atklāŔanai finanÅ”u jomā;

c) MI sistēmas, ko paredzēts izmantot riska novērtēŔanai un cenu noteikÅ”anai attiecÄ«bā uz fiziskām personām dzÄ«vÄ«bas un veselÄ«bas apdroÅ”ināŔanas gadÄ«jumā;

d) MI sistēmas, ko paredzēts izmantot, lai izvērtētu un klasificētu fizisku personu ārkārtas palÄ«dzÄ«bas izsaukumus vai ārkārtas pirmās reaģēŔanas dienestu, tostarp policijas, ugunsdzēsēju un medicÄ«niskās palÄ«dzÄ«bas sniedzēju, nosÅ«tīŔanai vai nosÅ«tīŔanas prioritāŔu noteikÅ”anai, kā arÄ« neatliekamās medicÄ«niskās aprÅ«pes pacientu triāžas sistēmām.

6. Tiesībaizsardzība, ciktāl to izmantoŔanu atļauj attiecīgie Savienības vai valsts tiesību akti:

a) MI sistēmas, ko paredzēts izmantot tiesÄ«baizsardzÄ«bas iestādēs vai to vārdā, vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, kas atbalsta tiesÄ«baizsardzÄ«bas iestādes, vai to vārdā, lai novērtētu risku, ka fiziska persona varētu kļūt par cietuÅ”o personu noziedzÄ«gos nodarÄ«jumos;

b) MI sistēmas, ko paredzēts izmantot tiesībaizsardzības iestādēs vai to vārdā, vai Savienības iestādēs, struktūrās, birojos vai aģentūrās, kas atbalsta tiesībaizsardzības iestādes, piemēram, melu detektori un līdzīgi rīki;

c) MI sistēmas, ko paredzēts izmantot tiesÄ«baizsardzÄ«bas iestādēs vai to vārdā, vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, kas atbalsta tiesÄ«baizsardzÄ«bas iestādes, pierādÄ«jumu uzticamÄ«bas izvērtēŔanai noziedzÄ«gu nodarÄ«jumu izmeklēŔanas vai kriminālvajāŔanas gaitā;

d) MI sistēmas, ko paredzēts izmantot tiesÄ«baizsardzÄ«bas iestādēs vai to vārdā, vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, kas atbalsta tiesÄ«baizsardzÄ«bas iestādes, lai novērtētu risku, ka fiziska persona varētu izdarÄ«t vai atkārtoti izdarÄ«t nodarÄ«jumu, pamatojoties ne tikai uz fizisku personu profilēŔanu, kas minēta DirektÄ«vas (ES) 2016/680 3.Ā panta 4.Ā punktā, vai lai novērtētu fizisku personu vai grupu personÄ«bas iezÄ«mes un rakstura Ä«paŔības vai agrāku noziedzÄ«gu rÄ«cÄ«bu;

e) MI sistēmas, ko paredzēts izmantot tiesÄ«baizsardzÄ«bas iestādēs vai to vārdā, vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, kas atbalsta tiesÄ«baizsardzÄ«bas iestādes, DirektÄ«vas (ES) 2016/680 3.Ā panta 4.Ā punktā minētajai fizisku personu profilēŔanai noziedzÄ«gu nodarÄ«jumu atklāŔanas, izmeklēŔanas vai kriminālvajāŔanas gaitā.

7. Migrācijas, patvēruma un robežkontroles pārvaldÄ«ba, ciktāl to izmantoÅ”anu atļauj attiecÄ«gie SavienÄ«bas vai valsts tiesÄ«bu akti:

a) MI sistēmas, ko paredzēts izmantot kompetentās publiskajās iestādēs vai to vārdā, vai Savienības iestādēs, struktūrās, birojos vai aģentūrās kā melu detektorus vai līdzīgus rīkus;

b) MI sistēmas, ko paredzēts izmantot kompetentās publiskajās iestādēs vai to vārdā, vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, lai novērtētu risku, tostarp droŔības risku, neatbilstÄ«gas migrācijas risku vai veselÄ«bas risku, ko rada fiziska persona, kas vēlas ieceļot vai ir ieceļojusi dalÄ«bvalsts teritorijā;

c) MI sistēmas, ko paredzēts izmantot kompetentās publiskajās iestādēs vai to vārdā, vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, lai palÄ«dzētu kompetentām publiskajām iestādēm izskatÄ«t patvēruma, vÄ«zu vai uzturēŔanās atļauju pieteikumus, kā arÄ« saistÄ«tās sÅ«dzÄ«bas, nosakot, vai fiziskās personas, kuras iesnieguÅ”as pieteikumu uz kādu no minētajiem statusiem, atbilst kritērijiem, tostarp veicot saistÄ«tu pierādÄ«jumu patiesuma novērtēŔanu;

d) MI sistēmas, ko paredzēts izmantot kompetentās publiskajās iestādēs vai SavienÄ«bas iestādēs, struktÅ«rās, birojos vai aÄ£entÅ«rās, vai to vārdā saistÄ«bā ar migrācijas, patvēruma vai robežkontroles pārvaldÄ«bu nolÅ«kā atklāt, atpazÄ«t vai identificēt fiziskas personas, izņemot ceļoÅ”anas dokumentu verifikāciju.

8. Tiesvedība un demokrātijas procesi:

a) MI sistēmas, ko paredzēts izmantot tiesu iestādē vai tās vārdā, lai palÄ«dzētu tiesu iestādei izpētÄ«t un interpretēt faktus vai tiesÄ«bu normas un piemērot tiesÄ«bu normas konkrētam faktu kopumam, vai izmantot lÄ«dzÄ«gā veidā strÄ«du alternatÄ«vā izŔķirÅ”anā;

b) MI sistēmas, ko paredzēts izmantot, lai ietekmētu vēlēŔanu vai referenduma rezultātus vai fizisku personu uzvedÄ«bu balsoÅ”anā, kad tās balso vēlēŔanās vai referendumos. Tas neattiecas uz MI sistēmām, kuru rezultātam fiziskas personas nav tieÅ”i pakļautas, piemēram, rÄ«kiem, ko izmanto, lai organizētu, optimizētu vai strukturētu politiskas kampaņas no administratÄ«vā vai loÄ£istikas viedokļa.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

šŸ“¬ AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.