Responsible AI Platform

Annex III AI Act

class="oj-doc-ti" id="d1e38-127-1">PŘÍLOHA III

Officiële tekst

id="anx_III"> PŘÍLOHA III Vysoce rizikové systémy AI uvedené v čl. 6 odst. 2 Vysoce rizikovými systémy AI podle čl. 6 odst. 2 se rozumí systémy AI uvedené v kterékoli z těchto oblastí:

1. Biometrika, pokud je její použití povoleno podle příslušného práva Unie nebo vnitrostátního práva:

a) systémy biometrické identifikace na dálku. Nejsou zahrnuty systémy AI určené k použití za účelem biometrického ověřování, jejichž jediným účelem je potvrdit, že konkrétní fyzická osoba je skutečně osobou, za niž se prohlašuje;

b) systémy AI určené k použití za účelem biometrické kategorizace podle citlivých nebo chráněných atributů nebo charakteristik na základě odvozování těchto atributů nebo charakteristik;

c) systémy AI určené k použití za účelem rozpoznávání emocí.

2. Kritická infrastruktura: systémy AI určené k použití jako bezpečnostní komponenty v rámci řízení a provozu kritické digitální infrastruktury, silniční dopravy nebo dodávek vody, plynu, topení či elektřiny.

3. Vzdělávání a odborná příprava:

a) systémy AI určené k použití za účelem určování přístupu fyzických osob ke vzdělávacím institucím nebo institucím odborné přípravy na všech úrovních nebo jejich přijetí či zařazení do těchto institucí;

b) systémy AI určené k použití za účelem hodnocení výsledků učení, včetně případů, kdy jsou tyto výsledky používány k usměrňování procesu učení fyzických osob v rámci vzdělávacích institucí nebo institucí odborné přípravy na všech úrovních;

c) systémy AI určené k použití za účelem posuzování vhodné úrovně vzdělání, kterou jednotlivec v rámci vzdělávacích institucí a institucí odborné přípravy získá nebo k níž bude mít přístup na všech úrovních;

d) systémy AI určené k použití za účelem sledování a odhalování zakázaného chování studentů během testů v rámci nebo uvnitř vzdělávacích institucí a institucí odborné přípravy na všech úrovních.

4. Zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti:

a) systémy AI určené k použití za účelem náboru nebo výběru fyzických osob, zejména pokud jde o zveřejňování cílených nabídek zaměstnání, k analýze a třídění žádostí o zaměstnání a k hodnocení uchazečů;

b) systémy AI určené k použití za účelem rozhodování s dopadem na podmínky pracovněprávních vztahů, postup v zaměstnání nebo ukončení smluvních pracovněprávních vztahů, za účelem přidělování úkolů na základě individuálního chování, osobnostních rysů nebo charakteristik nebo za účelem sledování a hodnocení výkonnosti a chování osob v rámci těchto vztahů.

5. Přístup k základním soukromým a základním veřejným službám a dávkám a jejich využívání:

a) systémy AI určené k použití veřejnými orgány nebo jejich jménem za účelem hodnocení nároků fyzických osob na základní dávky a služby veřejné podpory, včetně služeb v oblasti zdravotní péče, a za účelem udělení, snížení, zrušení nebo opětovného získání těchto dávek a služeb;

b) systémy AI určené k použití za účelem hodnocení úvěruschopnosti fyzických osob nebo jejich úvěrového bodování, s výjimkou systémů AI používaných za účelem odhalování finančních podvodů;

c) systémy AI určené k použití za účelem posuzování rizik a stanovování cen ve vztahu k fyzickým osobám v případě životního a zdravotního pojištění;

d) systémy AI určené k použití za účelem hodnocení a klasifikace tísňových volání fyzických osob nebo za účelem vysílání nebo stanovení priority při vyslání zásahových služeb první reakce, a to i policií, hasiči a lékařskou pomocí, a systémů třídění pacientů v krizových situacích.

6. Vymáhání práva, pokud je jejich použití povoleno podle příslušných právních předpisů Unie nebo vnitrostátních právních předpisů:

a) systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů nebo jejich jménem při posuzování rizika, že se určitá fyzická osoba stane obětí trestných činů;

b) systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů jako polygrafy nebo obdobné nástroje;

c) systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů za účelem hodnocení spolehlivosti důkazů v průběhu vyšetřování nebo stíhání trestných činů;

d) systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů za účelem posuzování rizika, že se určitá fyzická osoba jednou nebo opakovaně dopustí protiprávního jednání, a to nikoli výlučně na základě profilování fyzických osob podle čl. 3 bodu 4 směrnice (EU) 2016/680, nebo za účelem posuzování povahových vlastností a osobnostních rysů nebo dřívější trestné činnosti fyzických osob nebo skupin;

e) systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů za účelem profilování fyzických osob podle čl. 3 bodu 4 směrnice (EU) 2016/680 v průběhu odhalování, vyšetřování nebo stíhání trestných činů.

7. Migrace, azyl a řízení ochrany hranic, pokud je jejich použití povoleno podle příslušného práva Unie nebo vnitrostátního práva:

a) systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie jako polygrafy nebo obdobné nástroje;

b) systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie za účelem posuzování určitého rizika, včetně bezpečnostního rizika, rizika nelegální migrace nebo zdravotního rizika, jež představuje fyzická osoba, která má v úmyslu vstoupit nebo již vstoupila na území některého členského státu;

c) systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie s cílem pomoci příslušným veřejným orgánům při posuzování žádostí o azyl, vízum a povolení k pobytu a souvisejících stížností, pokud jde o způsobilost fyzických osob žádajících o určitý status, včetně souvisejících posouzení spolehlivosti důkazů;

d) systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem, nebo pro použití orgány, institucemi nebo jinými subjekty Unie, v souvislosti s problematikou migrace, azylu nebo řízení ochrany hranic za účelem odhalování, rozpoznávání nebo identifikace fyzických osob, s výjimkou ověřování cestovních dokladů.

8. Správa soudnictví a demokratické procesy:

a) systémy AI určené pro použití soudním orgánem nebo jeho jménem na pomoc soudnímu orgánu při zkoumání a výkladu fakt a práva a při uplatňování práva na konkrétní soubor skutečností nebo pro použití obdobným způsobem při alternativním řešení sporů;

b) systémy AI určené pro použití za účelem ovlivnění výsledku voleb nebo referenda nebo volebního chování fyzických osob při výkonu jejich hlasování ve volbách nebo referendech. To nezahrnuje systémy AI, jejichž výstupům nejsou fyzické osoby přímo vystaveny, jako jsou nástroje používané k organizaci, optimalizaci nebo strukturování politických kampaní z administrativního nebo logistického hlediska.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden

Veelgestelde vragen

Welke AI-systemen staan in Bijlage III van de AI Act?

Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.

Is mijn AI-systeem hoog-risico volgens Bijlage III?

Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.

Welke AI-systemen in HR en werving zijn hoog-risico?

Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.

Vallen AI-systemen in de bankensector onder Bijlage III?

Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.

Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?

Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.

Welke biometrische AI-systemen zijn hoog-risico?

Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.

Vallen AI-systemen bij de overheid onder Bijlage III?

Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.

Is AI voor emotieherkenning hoog-risico?

Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.

Welke AI in het onderwijs is hoog-risico?

Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).

Is AI voor noodoproepen hoog-risico?

Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.

Kan de Europese Commissie Bijlage III uitbreiden?

Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.

Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?

Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.

Valt AI voor verzekeringen onder Bijlage III?

Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.

Is AI-gestuurde CV-screening hoog-risico?

Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.

Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?

De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.