Responsible AI Platform

Annex III AI Act

6 straipsnio 2 dalyje nurodytos didelės rizikos DI sistemos

Official text

id="anx_III "> III PRIEDAS 6 straipsnio 2 dalyje nurodytos didelės rizikos DI sistemos Didelės rizikos DI sistemos pagal 6 straipsnio 2 dalį yra bet kurioje iš toliau nurodytų sričių išvardytos DI sistemos.

1. Biometrija, jei ją leidžiama naudoti pagal atitinkamus Sąjungos ar nacionalinės teisės aktus:

a) nuotolinio biometrinio tapatybės nustatymo sistemos. Į tai neįtraukiamos DI sistemos, skirtos naudoti biometriniam sutikrinimui, kurių vienintelis tikslas – patvirtinti, kad konkretus fizinis asmuo yra tas asmuo, kuriuo jis prisistato;

b) DI sistemos, skirtos naudoti biometriniam kategorizavimui pagal neskelbtinus ar saugomus požymius ar ypatumus, remiantis nuspėjamais tais požymiais ar ypatumais;

c) DI sistemos, skirtos naudoti emocijų atpažinimui.

2. Ypatingos svarbos infrastruktūra: DI sistemos, skirtos naudoti kaip saugos komponentai užtikrinant ypatingos svarbos skaitmeninės infrastruktūros, kelių eismo ar vandens, dujų, šilumos ar elektros energijos tiekimo valdymą ir veikimą.

3. Švietimas ir profesinis mokymas:

a) DI sistemos, skirtos naudoti siekiant nustatyti fizinių asmenų teisę būti svarstomiems dėl priėmimo į švietimo ir profesinio mokymo įstaigas visais lygmenimis ar juos į tas įstaigas priimti arba paskirti;

b) DI sistemos, skirtos naudoti mokymosi rezultatams vertinti, įskaitant atvejus, kai tie rezultatai naudojami siekiant valdyti fizinių asmenų mokymosi procesą švietimo ir profesinio mokymo įstaigose visais lygmenimis;

c) DI sistemos, skirtos naudoti siekiant įvertinti tinkamą švietimo, kurį asmuo gaus arba galės gauti visų lygių švietimo ir profesinio mokymo įstaigose, lygį;

d) DI sistemos, skirtos naudoti siekiant stebėti ir atpažinti draudžiamą mokinių arba studentų elgesį per testus visų lygių švietimo ir profesinio mokymo įstaigose.

4. Užimtumas, darbuotojų valdymas ir galimybė dirbti savarankiškai:

a) DI sistemos, skirtos naudoti fizinių asmenų įdarbinimui arba atrankai, visų pirma siekiant teikti tikslinius darbo skelbimus, analizuoti ir filtruoti darbo prašymus ir vertinti kandidatus;

b) DI sistemos, skirtos naudoti priimant sprendimus, darančius poveikį darbo santykių sąlygoms, paaukštinimui arba darbo santykių nutraukimui, siekiant paskirstyti užduotis remiantis individualiu elgesiu arba asmenybės bruožais ar savybėmis arba stebėti bei įvertinti tokiuose santykiuose dalyvaujančių asmenų rezultatus ir elgesį.

5. Galimybė gauti pagrindines privačiąsias paslaugas ir pagrindines viešąsias paslaugas ir išmokas ir naudojimasis jomis:

a) DI sistemos, skirtos naudoti valdžios institucijose arba jų vardu siekiant įvertinti fizinių asmenų tinkamumą gauti esminės viešosios paramos išmokas ir paslaugas, įskaitant sveikatos priežiūros paslaugas, taip pat siekiant suteikti, sumažinti, panaikinti arba susigrąžinti tokias išmokas;

b) DI sistemos, skirtos naudoti siekiant įvertinti fizinių asmenų kreditingumą arba nustatyti jų kredito reitingą, išskyrus DI sistemas, naudojamas finansinio sukčiavimo atvejų aptikimo tikslu;

c) DI sistemos, skirtos naudoti siekiant įvertinti su fiziniais asmenimis susijusią riziką ir kainodarą gyvybės bei sveikatos draudimo atveju;

d) DI sistemos, skirtos naudoti siekiant įvertinti ir klasifikuoti fizinių asmenų pagalbos skambučius ar teikiant arba nustatant prioritetines teiktinas skubias pirmosios pagalbos paslaugas, įskaitant policijos, ugniagesių ir medicinos pagalbos tarnybų paslaugas, taip pat skubios sveikatos priežiūros pacientų medicininio skirstymo sistemas.

6. Teisėsauga, jei jas leidžiama naudoti pagal atitinkamus Sąjungos ar nacionalinės teisės aktus:

a) DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms įvertinti riziką, kad fizinis asmuo taps nusikalstamų veikų auka, arba tai darant jų vardu;

b) DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms, kaip poligrafai ar panašios priemonės;

c) DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms įvertinti įrodymų patikimumą tiriant nusikalstamas veikas arba vykdant baudžiamąjį persekiojimą už jas;

d) DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms įvertinti fizinio asmens nusikalstamumo ar pakartotinio nusikalstamumo riziką remiantis ne tik fizinių asmenų profiliavimu, kaip nurodyta Direktyvos (ES) 2016/680 3 straipsnio 4 dalyje, arba įvertinti fizinių asmenų arba grupių asmenybės bruožus ir savybes arba ankstesnį nusikalstamą elgesį;

e) DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms profiliuoti fizinius asmenis, kaip nurodyta Direktyvos (ES) 2016/680 3 straipsnio 4 dalyje, išaiškinant ar tiriant nusikalstamas veikas arba vykdant baudžiamąjį persekiojimą už jas.

7. Migracija, prieglobstis ir sienų kontrolės valdymas, jei DI sistemas leidžiama naudoti pagal atitinkamus Sąjungos ar nacionalinės teisės aktus:

a) DI sistemos, skirtos naudoti kompetentingose valdžios institucijose arba Sąjungos institucijose, įstaigose, organuose ar agentūrose arba jų vardu kaip poligrafai ar panašios priemonės;

b) DI sistemos, skirtos naudoti kompetentingose valdžios institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant įvertinti riziką, įskaitant saugumo riziką, neteisėtos migracijos riziką arba riziką sveikatai, kurią kelia fizinis asmuo, ketinantis atvykti į valstybės narės teritoriją arba į ją atvykęs;

c) DI sistemos, skirtos naudoti kompetentingose valdžios institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti kompetentingoms valdžios institucijoms išnagrinėti prašymus suteikti prieglobstį, išduoti vizą ar leidimus gyventi ir susijusius skundus dėl fizinių asmenų tinkamumo prašyti suteikti tam tikrą statusą, įskaitant susijusius įrodymų patikimumo vertinimus;

d) DI sistemos, skirtos naudoti kompetentingose valdžios institucijose arba Sąjungos institucijose, įstaigose, organuose ar agentūrose arba jų vardu migracijos, prieglobsčio ar sienų kontrolės valdymo kontekste fizinių asmenų aptikimo, atpažinimo arba identifikavimo tikslu, išskyrus kelionės dokumentų tikrinimą.

8. Teisingumo vykdymas ir demokratiniai procesai:

a) DI sistemos, skirtos naudoti teisminėse institucijose arba jų vardu, siekiant padėti teisminei institucijai tirti ir aiškinti faktus bei įstatymus ir taikyti įstatymus konkretiems faktų rinkiniams, arba skirtas naudoti panašiu būdu alternatyvaus ginčų sprendimo procese;

b) DI sistemos, skirtos naudoti siekiant daryti įtaką rinkimų ar referendumų rezultatams arba fizinių asmenų balsavimo elgsenai, kai jie balsuoja rinkimuose ar referendumuose. Tai neapima DI sistemų, kurių išvediniai fiziniams asmenims neturi tiesioginio poveikio, pavyzdžiui, priemonių, naudojamų politinėms kampanijoms organizuoti, optimizuoti ar struktūrizuoti administraciniu ar logistiniu požiūriu.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.