Annex III AI Act
class="oj-doc-ti" id="d1e38-127-1">PRILOGA III
Officiële tekst
id="anx_III"> PRILOGA III Visokotvegani sistemi UI iz člena 6(2) Visokotvegani sistemi UI na podlagi člena 6(2) so sistemi UI, navedeni na seznamu za katero koli od naslednjih področij:
1. biometrika, kolikor je njena uporaba dovoljena na podlagi ustreznega prava Unije ali nacionalnega prava:
(a) sistemi za biometrično identifikacijo na daljavo. To ne vključuje sistemov UI za biometrično preverjanje, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja;
(b) sistemi UI za biometrično kategorizacijo glede na občutljive ali zaščitene lastnosti ali značilnosti na podlagi sklepanja na te lastnosti ali značilnosti;
(c) sistemi UI za prepoznavanje čustev;
2. kritična infrastruktura: sistemi UI za uporabo kot varnostne komponente pri upravljanju in delovanju kritične digitalne infrastrukture, cestnega prometa ali pri oskrbi z vodo, plinom, ogrevanjem ali električno energijo;
3. izobraževanje in poklicno usposabljanje:
(a) sistemi UI za določanje dostopa ali sprejema ali za razvrščanje fizičnih oseb v izobraževalne ustanove in ustanove za poklicno usposabljanje na vseh ravneh;
(b) sistemi UI za evalvacijo učnih izidov, tudi kadar se ti izidi uporabljajo za usmerjanje učnega procesa fizičnih oseb v izobraževalnih ustanovah in ustanovah za poklicno usposabljanje na vseh ravneh;
(c) sistemi UI za ocenjevanje ustrezne ravni izobrazbe, ki jo bo posameznik prejel ali do katere bo lahko dostopal v okviru ali znotraj izobraževalnih ustanov in ustanov za poklicno usposabljanje na vseh ravneh;
(d) sistemi UI za spremljanje in ugotavljanje prepovedanega vedenja učencev in študentov med opravljanjem preizkusov znanja v okviru ali znotraj izobraževalnih ustanov in ustanov za poklicno usposabljanje na vseh ravneh;
4. zaposlovanje, upravljanje delavcev in dostop do samozaposlitve:
(a) sistemi UI za zaposlovanje ali izbor fizičnih oseb, zlasti za ciljno oglaševanje delovnih mest, analizo in filtriranje prijav za zaposlitev ter ocenjevanje kandidatov;
(b) sistemi UI za odločanje o pogojih delovnih razmerij, napredovanju ali prenehanju delovnih pogodbenih razmerij, dodeljevanju nalog na podlagi vedenja posameznika oziroma osebnostnih lastnosti ali značilnosti ter spremljanju in ocenjevanju uspešnosti in vedenja oseb v takih razmerjih;
5. uživanje bistvenih zasebnih in javnih storitev in ugodnosti ter dostop do njih:
(a) sistemi UI, ki naj bi jih uporabljali javni organi ali naj bi se uporabljali v njihovem imenu za ocenjevanje upravičenosti fizičnih oseb do bistvenih ugodnosti in storitev javne pomoči, vključno z zdravstvenimi storitvami, ter za dodelitev, zmanjšanje, preklic ali povračilo takih ugodnosti in storitev;
(b) sistemi UI za ocenjevanje kreditne sposobnosti fizičnih oseb ali določanje njihove kreditne ocene, razen sistemov UI, ki se uporabljajo za odkrivanje finančnih goljufij;
(c) sistemi UI za oceno tveganja in oblikovanje cen v zvezi s fizičnimi osebami v primeru življenjskega in zdravstvenega zavarovanja;
(d) sistemi UI za ocenjevanje in razvrščanje nujnih klicev fizičnih oseb ali za napotitev služb za ukrepanje ob nesrečah, vključno s policijo, gasilci in medicinsko pomočjo, ali določanje prednosti pri njihovi napotitvi, ter sistemi za nujno zdravstveno triažo pacientov;
6. preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, kolikor je njihova uporaba dovoljena na podlagi zadevnega prava Unije ali nacionalnega prava:
(a) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali v njihovem imenu za oceno tveganja, da fizična oseba postane žrtev kaznivih dejanj;
(b) sistemi UI, ki naj bi jih kot poligrafe ali podobna orodja uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj;
(c) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za ocenjevanje zanesljivosti dokazov med preiskavo ali pregonom kaznivih dejanj;
(d) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za oceno tveganja, ali bi fizična oseba storila ali ponovila kaznivo dejanje, ne samo na podlagi oblikovanja profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680, ali za oceno osebnostnih lastnosti in značilnosti ali preteklega kriminalnega ravnanja fizičnih oseb ali skupin;
(e) sistemi UI, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za oblikovanje profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680;
7. migracije, azil in upravljanje nadzora meje, kolikor je njihova uporaba dovoljena na podlagi zadevnega prava Unije ali nacionalnega prava:
(a) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije kot poligrafe ali podobna orodja;
(b) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije za oceno tveganja, vključno z varnostnim tveganjem, tveganjem nedovoljenih migracij ali zdravstvenim tveganjem, ki ga predstavlja fizična oseba, ki namerava vstopiti ali je vstopila na ozemlje države članice;
(c) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije za pomoč pristojnim javnim organom pri preučitvi prošenj za azil, vizume in dovoljenja za prebivanje ter s tem povezanih pritožb glede upravičenosti fizičnih oseb, ki so zaprosile za status, vključno s pripadajočimi ocenami zanesljivosti dokazov;
(d) sistemi UI, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu oziroma naj bi jih uporabljali institucije, organi, uradi in agencije Unije, v okviru migracij, azila in upravljanja nadzora meja za namene odkrivanja, prepoznavanja ali identifikacije fizičnih oseb, z izjemo preverjanja potnih listin;
8. pravosodje in demokratični procesi:
(a) sistemi UI, ki naj bi jih uporabljal sodni organ ali naj bi se uporabljali v njegovem imenu za pomoč sodnemu organu pri raziskovanju in razlagi dejstev in prava ter pri uporabi prava za konkreten sklop dejstev ali ki naj bi se uporabljali na podoben način pri alternativnem reševanju sporov;
(b) sistemi UI za vplivanje na izid volitev ali referenduma ali na volilno vedenje fizičnih oseb pri glasovanju na volitvah ali referendumih. To ne vključuje sistemov UI, katerih izhodnim podatkom fizične osebe niso neposredno izpostavljene, kot so orodja, ki se uporabljajo za organizacijo, optimizacijo ali strukturiranje političnih kampanj z upravnega in logističnega vidika.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Welke AI-systemen staan in Bijlage III van de AI Act?
Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.
Is mijn AI-systeem hoog-risico volgens Bijlage III?
Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.
Welke AI-systemen in HR en werving zijn hoog-risico?
Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.
Vallen AI-systemen in de bankensector onder Bijlage III?
Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.
Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?
Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.
Welke biometrische AI-systemen zijn hoog-risico?
Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.
Vallen AI-systemen bij de overheid onder Bijlage III?
Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.
Is AI voor emotieherkenning hoog-risico?
Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.
Welke AI in het onderwijs is hoog-risico?
Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).
Is AI voor noodoproepen hoog-risico?
Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.
Kan de Europese Commissie Bijlage III uitbreiden?
Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.
Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?
Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.
Valt AI voor verzekeringen onder Bijlage III?
Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.
Is AI-gestuurde CV-screening hoog-risico?
Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.
Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?
De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.