Annex III AI Act
class="oj-doc-ti" id="d1e38-127-1">BILAGA III
Officiële tekst
id="anx_III"> BILAGA III AI-system med hög risk som avses i artikel 6.2 AI-system med hög risk enligt artikel 6.2 är de AI-system som används inom något av följande områden:
1. Biometri, i den mån användningen är tillåten enligt relevant unionsrätt eller nationell rätt:
a) System för biometrisk fjärridentifiering. Detta omfattar inte de AI-system som är avsedda att användas för biometrisk verifiering och vars enda syfte är att bekräfta att en viss fysisk person är den person som han eller hon påstår sig vara.
b) AI-system som är avsedda att användas för biometrisk kategorisering enligt känsliga eller skyddade attribut eller egenskaper som grundar sig på inferens av dessa attribut eller egenskaper.
c) AI-system som är avsedda att användas för känsloigenkänning.
2. Kritisk infrastruktur: AI-system som är avsedda att användas som säkerhetskomponenter i samband med förvaltning och drift av kritisk digital infrastruktur, vägtrafik eller i samband med tillhandahållande av vatten, gas, värme och el.
3. Utbildning och yrkesutbildning:
a) AI-system som är avsedda att användas för att fastställa tillgång eller antagning eller för att anvisa fysiska personer till institutioner för yrkesutbildning eller annan utbildning på alla nivåer.
b) AI-system som är avsedda att användas för att utvärdera läranderesultat, även när dessa resultat används för att styra fysiska personers lärandeprocess vid institutioner för yrkesutbildning eller annan utbildning på alla nivåer.
c) AI-system som är avsedda att användas för att bedöma den lämpliga utbildningsnivå som en person kommer att erhålla eller kommer att kunna få tillgång till, inom ramen för eller vid institutioner för yrkesutbildning eller annan utbildning på alla nivåer.
d) AI-system som är avsedda att användas för att övervaka och upptäcka förbjudet beteende bland studerande under provtillfällen inom ramen för eller vid institutioner för yrkesutbildning eller annan utbildning på alla nivåer.
4. Anställning, arbetsledning och tillgång till egenföretagande:
a) AI-system som är avsedda att användas för rekrytering eller urval av fysiska personer, särskilt för att publicera riktade platsannonser, analysera och filtrera platsansökningar och utvärdera kandidater.
b) AI-system som är avsedd att användas för att fatta beslut som påverkar villkoren för arbetsrelaterade förhållanden, befordringar och uppsägningar av arbetsrelaterade avtalsförhållanden, för uppgiftsfördelning på grundval av individuellt beteende eller personlighetsdrag eller egenskaper eller för att övervaka och utvärdera personers prestationer och beteende inom ramen för sådana förhållanden.
5. Tillgång till och åtnjutande av väsentliga privata tjänster och väsentliga offentliga tjänster och förmåner:
a) AI-system som är avsedda att användas av offentliga myndigheter eller för offentliga myndigheters räkning för att utvärdera fysiska personers rätt till väsentliga förmåner och tjänster i form av offentligt stöd, inbegripet hälso- och sjukvårdstjänster, samt för att bevilja, minska, upphäva eller återkalla sådana förmåner och tjänster.
b) AI-system som är avsedda att användas för att utvärdera fysiska personers kreditvärdighet eller fastställa deras kreditbetyg, med undantag för AI-system som används i syfte att upptäcka ekonomiska bedrägerier.
c) AI-system som är avsedda att användas för riskbedömning och prissättning i förhållande till fysiska personer när det gäller livförsäkring och sjukförsäkring.
d) AI-system som är avsedda att utvärdera och klassificera nödsamtal från fysiska personer eller användas för att sända ut eller för att fastställa prioriteringsordningen för utsändning av larmtjänster, inbegripet polis, brandkår och ambulans, samt av patientsorteringssystem för akutsjukvård.
6. Brottsbekämpning, i den mån användningen är tillåten enligt relevant unionsrätt eller nationell rätt:
a) AI-system som är avsedda att användas av brottsbekämpande myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer till stöd för brottsbekämpande myndigheter eller för deras räkning för att bedöma risken för att en fysisk person ska falla offer för brott.
b) AI-system som är avsedda att användas som lögndetektorer eller liknande verktyg av brottsbekämpande myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer till stöd för brottsbekämpande myndigheter.
c) AI-system som är avsedda att användas av brottsbekämpande myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer till stöd för brottsbekämpande myndigheter för att bedöma hur pass tillförlitlig bevisningen är i samband med utredning eller lagföring av brott.
d) AI-system som är avsedda att användas av brottsbekämpande myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer till stöd för brottsbekämpande myndigheter för att bedöma risken för att en fysisk person begår eller på nytt begår ett brott, inte enbart på grundval av profilering av fysiska personer i enlighet med artikel 3.4 i direktiv (EU) 2016/680 eller för att bedöma fysiska personers eller gruppers personlighetsdrag och egenskaper eller tidigare brottsliga beteende.
e) AI-system som är avsedda att användas av brottsbekämpande myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer till stöd för brottsbekämpande myndigheter för profilering av fysiska personer enligt artikel 3.4 i direktiv (EU) 2016/680 vid upptäckt, utredning eller lagföring av brott.
7. Migration, asyl och gränskontrollförvaltning, i den mån användningen är tillåten enligt relevant unionsrätt eller nationell rätt:
a) AI-system som är avsedda att användas som lögndetektorer eller liknande verktyg av behöriga offentliga myndigheter eller för deras räkning, eller av unionens institutioner, organ och byråer.
b) AI-system som är avsedda att användas av behöriga offentliga myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer för att bedöma en risk, inbegripet en säkerhetsrisk, en risk för irreguljär migration eller en hälsorisk som utgörs av en fysisk person som avser resa in på eller har rest in på en medlemsstats territorium.
c) AI-system som är avsedda att användas av behöriga offentliga myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer för att bistå behöriga offentliga myndigheter vid prövningen av ansökningar om asyl, visering eller uppehållstillstånd och för därmed sammanhängande klagomål om huruvida de fysiska personer som ansöker om status uppfyller kraven, inbegripet relaterade bedömningar av bevisens tillförlitlighet.
d) AI-system som är avsedda att användas av behöriga offentliga myndigheter eller för deras räkning, eller av unionens institutioner, organ eller byråer, i samband med migrations-, asyl- eller gränskontrollförvaltning, i syfte att upptäcka, känna igen eller identifiera fysiska personer, med undantag för verifiering av resehandlingar.
8. Rättskipning och demokratiska processer:
a) AI-system som är avsedda att användas av en rättslig myndighet eller på dess vägnar för att hjälpa en rättslig myndighet att undersöka och tolka fakta och lagstiftning och att tillämpa lagen på konkreta fakta, eller som är avsedda att användas på ett likande sätt i alternativa tvistlösningar.
b) AI-system som är avsedda att användas för att påverka resultatet av ett val eller en folkomröstning eller fysiska personers röstningsbeteende när dessa utövar sin rätt att rösta i val eller folkomröstningar. Detta omfattar inte AI-system vars utdata fysiska personer inte är direkt exponerade för, såsom verktyg som används för att organisera, optimera eller strukturera politiska kampanjer ur administrativ eller logistisk synvinkel.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Welke AI-systemen staan in Bijlage III van de AI Act?
Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.
Is mijn AI-systeem hoog-risico volgens Bijlage III?
Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.
Welke AI-systemen in HR en werving zijn hoog-risico?
Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.
Vallen AI-systemen in de bankensector onder Bijlage III?
Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.
Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?
Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.
Welke biometrische AI-systemen zijn hoog-risico?
Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.
Vallen AI-systemen bij de overheid onder Bijlage III?
Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.
Is AI voor emotieherkenning hoog-risico?
Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.
Welke AI in het onderwijs is hoog-risico?
Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).
Is AI voor noodoproepen hoog-risico?
Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.
Kan de Europese Commissie Bijlage III uitbreiden?
Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.
Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?
Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.
Valt AI voor verzekeringen onder Bijlage III?
Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.
Is AI-gestuurde CV-screening hoog-risico?
Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.
Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?
De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.