Annex III AI Act
class="oj-doc-ti" id="d1e38-127-1">BILAG III
Officiële tekst
id="anx_III"> BILAG III Højrisiko-AI-systemer omhandlet i artikel 6, stk. 2 Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder:
1. Biometri, for så vidt som dets anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) systemer til biometrisk fjernidentifikation. Dette omfatter ikke AI-systemer, der er tilsigtet biometrisk verifikation, og hvis eneste formål er at bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være
b) AI-systemer, der er tilsigtet biometrisk kategorisering i henhold til følsomme eller beskyttede egenskaber eller karakteristika på grundlag af udledning af disse egenskaber eller karakteristika
c) AI-systemer, der er tilsigtet følelsesgenkendelse.
2. Kritisk infrastruktur: AI-systemer, der tilsigtes anvendt som sikkerhedskomponenter i forvaltningen og driften af kritisk digital infrastruktur, vejtrafik eller forsyning af vand, gas, varme og elektricitet.
3. Uddannelse og erhvervsuddannelse:
a) AI-systemer, der tilsigtes anvendt til at bestemme fysiske personers adgang til eller optagelse eller deres fordeling på uddannelsesinstitutioner på alle niveauer
b) AI-systemer, der tilsigtes anvendt til at evaluere læringsresultater, herunder når disse resultater anvendes til at styre fysiske personers læringsproces på uddannelsesinstitutioner på alle niveauer
c) AI-systemer, der tilsigtes anvendt til at bedømme det nødvendige uddannelsesniveau, som den enkelte vil få eller vil kunne få adgang til, i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer
d) AI-systemer, der tilsigtes anvendt til at overvåge og opdage forbudt adfærd blandt studerende under prøver i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer.
4. Beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:
a) AI-systemer, der tilsigtes anvendt til rekruttering eller udvælgelse af fysiske personer, navnlig til at indrykke målrettede jobannoncer, analysere og filtrere jobansøgninger og evaluere kandidater
b) AI-systemer, der tilsigtes anvendt til at træffe beslutninger, der påvirker vilkårene for arbejdsrelaterede forhold, forfremmelse eller afskedigelse i arbejdsrelaterede kontraktforhold, til at fordele opgaver på grundlag af individuel adfærd eller personlighedstræk eller personlige egenskaber eller til at overvåge og evaluere personers præstationer og adfærd i sådanne forhold.
5. Adgang til og benyttelse af væsentlige private tjenester og væsentlige offentlige tjenester og ydelser:
a) AI-systemer, der tilsigtes anvendt af offentlige myndigheder eller på vegne af offentlige myndigheder til at vurdere fysiske personers berettigelse til væsentlige offentlige bistandsydelser og -tjenester, herunder sundhedstjenester, samt til at tildele, nedsætte, tilbagekalde eller kræve tilbagebetaling af sådanne ydelser og tjenester
b) AI-systemer, der tilsigtes anvendt til at evaluere fysiske personers kreditværdighed eller fastslå deres kreditvurdering, med undtagelse af AI-systemer, der anvendes til at afsløre økonomisk svig
c) AI-systemer, der tilsigtes anvendt til at foretage risikovurdering og prisfastsættelse for så vidt angår fysiske personer i forbindelse med livs- og sygeforsikring
d) AI-systemer, der er tilsigtet at evaluere og klassificere nødopkald fra fysiske personer eller til at blive anvendt til at sende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed, herunder udrykning af politi, brandslukning og lægehjælp samt patientsorteringssystemer for førstehjælp
6. Retshåndhævelse, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder eller på deres vegne til at vurdere risikoen for, at en fysisk person bliver offer for strafbare handlinger
b) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder som polygrafer eller lignende værktøjer
c) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere pålideligheden af bevismateriale i forbindelse med efterforskning eller retsforfølgning af strafbare handlinger
d) AI-systemer, der tilsigtes anvendt af retshåndhævende myndigheder eller på deres vegne eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere risikoen for, at en fysisk person begår eller på ny begår lovovertrædelser, der ikke udelukkende er baseret på profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680, eller til at vurdere fysiske personers eller gruppers personlighedstræk og personlige egenskaber eller tidligere kriminelle adfærd
e) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680 i forbindelse med afsløring, efterforskning eller retsforfølgning af strafbare handlinger.
7. Migrationsstyring, asylforvaltning og grænsekontrol, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer som polygrafer eller lignende værktøjer
b) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til at vurdere en risiko, herunder en sikkerhedsrisiko, en risiko for irregulær migration eller en sundhedsrisiko, som udgøres af en fysisk person, der har til hensigt at rejse ind i eller er indrejst i en medlemsstat
c) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til at bistå kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum eller opholdstilladelser og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, herunder tilhørende vurdering af pålideligheden af bevismateriale
d) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer i forbindelse med migrationsstyring, asylforvaltning eller grænsekontrol med henblik på at opdage, genkende eller identificere fysiske personer, bortset fra kontrol af rejselegitimation.
8. Retspleje og demokratiske processer:
a) AI-systemer, der tilsigtes anvendt af judicielle myndigheder eller på deres vegne til at bistå en judiciel myndighed med at undersøge og fortolke fakta og retten og anvende retten på konkrete sagsforhold eller til at blive anvendt på en lignende måde i forbindelse med alternativ tvistbilæggelse
b) AI-systemer, der tilsigtes anvendt til at påvirke resultatet af et valg eller en folkeafstemning eller fysiske personers stemmeadfærd i forbindelse med udøvelsen af deres stemme ved valg eller folkeafstemninger. Dette omfatter ikke AI-systemer, hvis output fysiske personer ikke er direkte eksponeret for, såsom værktøjer, der anvendes til at organisere, optimere eller strukturere politiske kampagner ud fra et administrativt eller logistisk synspunkt.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Welke AI-systemen staan in Bijlage III van de AI Act?
Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.
Is mijn AI-systeem hoog-risico volgens Bijlage III?
Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.
Welke AI-systemen in HR en werving zijn hoog-risico?
Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.
Vallen AI-systemen in de bankensector onder Bijlage III?
Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.
Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?
Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.
Welke biometrische AI-systemen zijn hoog-risico?
Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.
Vallen AI-systemen bij de overheid onder Bijlage III?
Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.
Is AI voor emotieherkenning hoog-risico?
Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.
Welke AI in het onderwijs is hoog-risico?
Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).
Is AI voor noodoproepen hoog-risico?
Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.
Kan de Europese Commissie Bijlage III uitbreiden?
Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.
Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?
Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.
Valt AI voor verzekeringen onder Bijlage III?
Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.
Is AI-gestuurde CV-screening hoog-risico?
Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.
Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?
De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.