Annex III AI Act
class="oj-doc-ti" id="d1e38-127-1">PRÍLOHA III
Officiële tekst
id="anx_III"> PRÍLOHA III Vysokorizikové systémy AI podľa článku 6 ods. 2 Vysokorizikové systémy AI podľa článku 6 ods. 2 sú systémy AI uvedené v ktorejkoľvek z týchto oblastí:
1. Biometria, pokiaľ je jej použitie povolené podľa príslušných právnych predpisov Únie alebo vnútroštátnych právnych predpisov:
a) systémy diaľkovej biometrickej identifikácie. Nie sú tu zahrnuté systémy AI určené na používanie na biometrické overenie, ktorých jediným účelom je potvrdiť, že konkrétna fyzická osoba je osobou, za ktorú sa vydáva;
b) systémy AI určené na použitie na biometrickú kategorizáciu podľa citlivých alebo chránených atribútov alebo charakteristík na základe odvodenia týchto atribútov alebo charakteristík;
c) systémy AI určené na rozpoznávanie emócií.
2. Kritická infraštruktúra: systémy AI, ktoré sa majú používať ako bezpečnostné komponenty pri riadení a prevádzke kritickej digitálnej infraštruktúry, cestnej premávky alebo pri dodávkach vody, plynu, tepla alebo elektriny.
3. Vzdelávanie a odborná príprava:
a) systémy AI, ktoré sa majú používať na určenie prístupu alebo prijatia alebo pridelenia fyzických osôb do inštitúcií vzdelávania a odbornej prípravy na všetkých úrovniach;
b) systémy AI, ktoré sa majú používať na hodnotenie vzdelávacích výstupov, a to aj vtedy, keď sa tieto výstupy používajú na riadenie procesu učenia fyzických osôb v inštitúciách vzdelávania a odbornej prípravy na všetkých úrovniach;
c) systémy AI, ktoré sa majú používať na účely posúdenia primeranej úrovne vzdelania, ktoré fyzická osoba získa alebo ku ktorému bude mať prístup, v kontexte alebo v rámci inštitúcie vzdelávania a odbornej prípravy na všetkých úrovniach;
d) systémy AI, ktoré sa majú používať na monitorovanie a zisťovanie zakázaného správania študentov počas skúšok v kontexte alebo v rámci inštitúcií vzdelávania a odbornej prípravy na všetkých úrovniach.
4. Zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti:
a) systémy AI, ktoré sa majú používať na nábor alebo výber fyzických osôb, najmä na umiestňovanie cielených inzerátov na pracovné miesta, na analýzu a filtrovanie žiadostí o zamestnanie a na hodnotenie uchádzačov;
b) systémy AI, ktoré sa majú používať pri rozhodovaní o podmienkach pracovnoprávnych vzťahov, o kariérnom postupe v zamestnaní alebo ukončení zmluvných pracovnoprávnych vzťahov, pri prideľovaní úloh na základe individuálneho správania alebo osobných čŕt alebo charakteristických znakov alebo pri monitorovaní a hodnotení výkonnosti a správania osôb v rámci takýchto vzťahov.
5. Prístup k základným súkromným službám a základným verejným službám a dávkam a ich využívanie:
a) systémy AI, ktoré majú používať orgány verejnej moci alebo ktoré sa majú používať v ich mene na hodnotenie oprávnenosti fyzických osôb na základné dávky a služby verejnej pomoci vrátane služieb zdravotnej starostlivosti, ako aj na poskytovanie, zníženie či zrušenie takýchto dávok a služieb alebo uplatnenie nároku na ich vrátenie;
b) systémy AI, ktoré sa majú používať na hodnotenie úverovej bonity fyzických osôb alebo stanovenie ich bodového hodnotenia kreditného rizika, s výnimkou systémov AI používaných na účely odhaľovania finančných podvodov;
c) systémy AI, ktoré sa majú používať na hodnotenie rizika a stanovovanie cien vo vzťahu k fyzickým osobám v prípade životného a zdravotného poistenia;
d) systémy AI určené na hodnotenie a klasifikáciu tiesňových volaní fyzických osôb alebo na vysielanie záchranných služieb prvej reakcie vrátane zo strany polície, hasičov a zdravotníckej pomoci alebo na stanovovanie priority ich vysielania, ako aj pokiaľ ide o systémy triedenia pacientov v rámci pohotovostnej zdravotnej starostlivosti.
6. Presadzovanie práva, pokiaľ je ich použitie povolené podľa príslušných právnych predpisov Únie alebo vnútroštátnych právnych predpisov:
a) systémy AI, ktoré majú používať orgány presadzovania práva alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na podporu orgánov presadzovania práva alebo ktoré sa majú používať v ich mene na posudzovanie rizika, že sa fyzická osoba stane obeťou trestných činov;
b) systémy AI, ktoré majú používať orgány presadzovania práva alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na podporu orgánov presadzovania práva ako polygrafy alebo podobné nástroje;
c) systémy AI, ktoré majú používať orgány presadzovania práva alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na podporu orgánov presadzovania práva na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania alebo stíhania trestných činov;
d) systémy AI, ktoré majú používať orgány presadzovania práva alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na podporu orgánov presadzovania práva na posudzovanie rizika, že fyzická osoba spácha alebo opätovne spácha trestný čin, a to nielen na základe profilovania fyzických osôb uvedeného v článku 3 bode 4 smernice (EÚ) 2016/680, alebo na posúdenie osobnostných čŕt a charakteristických znakov alebo trestnej činnosti fyzických osôb alebo skupín v minulosti;
e) systémy AI, ktoré majú používať orgány presadzovania práva alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na podporu orgánov presadzovania práva na profilovanie fyzických osôb uvedené v článku 3 bode 4 smernice (EÚ) 2016/680 v priebehu odhaľovania, vyšetrovania alebo stíhania trestných činov.
7. Migrácia, azyl a riadenie kontroly hraníc, pokiaľ je ich použitie povolené podľa príslušných právnych predpisov Únie alebo vnútroštátnych právnych predpisov:
a) systémy AI, ktoré majú používať príslušné orgány verejnej moci alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie ako polygrafy alebo podobné nástroje;
b) systémy AI, ktoré majú používať príslušné orgány verejnej moci alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na posúdenie rizika vrátane bezpečnostného rizika, rizika neoprávnenej migrácie alebo zdravotného rizika, ktoré predstavuje fyzická osoba, ktorá má v úmysle vstúpiť na územie členského štátu alebo naň už vstúpila;
c) systémy AI, ktoré majú používať príslušné orgány verejnej moci alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie na pomoc príslušným orgánom verejnej moci na preskúmanie žiadostí o azyl, víza alebo povolenia na pobyt a súvisiacich sťažností týkajúcich sa oprávnenosti fyzických osôb žiadajúcich o určitý status vrátane súvisiaceho posudzovania spoľahlivosti dôkazov;
d) systémy AI, ktoré majú používať príslušné orgány verejnej moci alebo ktoré sa majú používať v ich mene alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie v súvislosti s migráciou, azylom a riadením kontroly hraníc na účely odhaľovania, uznávania alebo identifikácie fyzických osôb s výnimkou overovania cestovných dokladov.
8. Výkon spravodlivosti a demokratické procesy:
a) systémy AI, ktoré má používať justičný orgán alebo ktoré sa majú používať v jeho mene na pomoc justičnému orgánu pri skúmaní a interpretácii skutkových okolností a práva a pri uplatňovaní práva na konkrétny súbor skutkových okolností alebo ktoré sa majú používať obdobným spôsobom pri alternatívnom riešení sporov;
b) systémy AI určené na ovplyvňovanie výsledku volieb alebo referenda alebo volebného správania fyzických osôb pri hlasovaní vo voľbách alebo v referende; nepatria sem systémy AI, ktorých výstupom nie sú fyzické osoby priamo vystavené, ako sú nástroje používané na organizovanie, optimalizáciu alebo tvorbu štruktúry politických kampaní z administratívneho a logistického hľadiska.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Welke AI-systemen staan in Bijlage III van de AI Act?
Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.
Is mijn AI-systeem hoog-risico volgens Bijlage III?
Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.
Welke AI-systemen in HR en werving zijn hoog-risico?
Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.
Vallen AI-systemen in de bankensector onder Bijlage III?
Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.
Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?
Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.
Welke biometrische AI-systemen zijn hoog-risico?
Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.
Vallen AI-systemen bij de overheid onder Bijlage III?
Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.
Is AI voor emotieherkenning hoog-risico?
Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.
Welke AI in het onderwijs is hoog-risico?
Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).
Is AI voor noodoproepen hoog-risico?
Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.
Kan de Europese Commissie Bijlage III uitbreiden?
Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.
Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?
Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.
Valt AI voor verzekeringen onder Bijlage III?
Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.
Is AI-gestuurde CV-screening hoog-risico?
Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.
Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?
De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.