Responsible AI Platform

Annex III AI Act

Artikli 6 lõikes 2 osutatud suure riskiga tehisintellektisüsteemid

Officiële tekst

id="anx_III "> III LISA Artikli 6 lõikes 2 osutatud suure riskiga tehisintellektisüsteemid Artikli 6 lõike 2 kohaselt on suure riskiga tehisintellektisüsteemid järgmistes valdkondades loetletud tehisintellektisüsteemid.

1. Biomeetria, kui selliste süsteemide kasutamine on lubatud asjakohase liidu või riigisisese õigusega:

a) biomeetrilise kaugtuvastamise süsteemid. See ei hõlma tehisintellektisüsteeme, mis on ette nähtud kasutamiseks biomeetriliseks kontrolliks ja mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on isik, kes ta väidab end olevat;

b) tehisintellektisüsteemid, mis on ette nähtud biomeetriliseks liigitamiseks tundlike või kaitstud atribuutide või omaduste alusel, mis põhinevad nende atribuutide või omadustega seotud järeldustel;

c) tehisintellektisüsteemid, mis on ette nähtud emotsioonituvastuseks.

2. Elutähtis taristu: tehisintellektisüsteemid, mis on ette nähtud kasutamiseks elutähtsa digitaristu, maanteeliikluse või vee, gaasi, kütteenergia või elektri tarnimise korraldamise ja käitamise turvakomponentidena.

3. Haridus ja kutseõpe:

a) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks selleks, et määrata kindlaks füüsiliste isikute juurdepääs haridus- ja kutseõppeasutustele või nende vastuvõtmine või määramine nendesse kõigil tasanditel;

b) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õpiväljundite hindamiseks, muu hulgas juhul, kui neid väljundeid kasutatakse füüsiliste isikute õppeprotsessi suunamiseks haridus- ja kutseõppeasutustes kõigil tasanditel;

c) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks selleks, et hinnata sobivat haridustaset, mille isik saab või millele tal on juurdepääs kõigi tasandite haridus- ja kutseõppeasutustes;

d) tehisintellektisüsteemid, mis on ette nähtud õpilaste keelatud käitumise jälgimiseks ja avastamiseks kõigi tasandite haridus- ja kutseõppeasutustes tehtavate testide ajal.

4. Tööhõive, töötajate juhtimine ja iseenda tööandjana tegutsemise võimaldamine:

a) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks füüsiliste isikute töölevõtmiseks või valimiseks, eelkõige sihipäraste töökuulutuste avaldamiseks, tööle kandideerimise taotluste analüüsimiseks ja filtreerimiseks ning kandidaatide hindamiseks;

b) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks selleks, et teha otsuseid, mis mõjutavad tööga seotud suhteid, edutamist ja tööga seotud lepinguliste suhete lõpetamist, et jagada isiku käitumise või isikuomaduste või erijoonte põhjal tööülesandeid või tegeleda selliste suhete kontekstis inimeste töötulemuste ja käitumise seire ja hindamisega

5. Oluliste erateenuste ning oluliste avalike teenuste ja hüvede kättesaadavus ja kasutamine:

a) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks ametiasutustele või nende nimel, et hinnata füüsiliste isikute vastavust oluliste avalike hüvede ja teenuste, sealhulgas tervishoiuteenuste saamise tingimustele, samuti selleks, et selliseid hüvesid ja teenuseid anda, vähendada, tühistada või tagasi nõuda;

b) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks selleks, et hinnata füüsiliste isikute krediidikõlblikkust või anda neile krediidihinnang, välja arvatud tehisintellektisüsteemid, mida kasutatakse finantspettuste avastamiseks;

c) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks füüsiliste isikutega seotud riskihindamiseks ja hinnakujunduseks elu- ja tervisekindlustuse puhul;

d) tehisintellektisüsteemid, mis on ette nähtud füüsiliste isikute hädaabikõnede hindamiseks ja liigitamiseks või kasutamiseks kiirabi ja päästeteenistuse, sealhulgas politsei, tuletõrje ja arstiabi väljasaatmiseks ja väljasaatmisprioriteetide seadmiseks ning erakorralise arstiabi patsientide triaaži süsteemide tööks.

6. Õiguskaitse, kui selliste süsteemide kasutamine on lubatud asjakohase liidu või riigisisese õigusega:

a) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutustele või nende nimel või liidu institutsioonidele, organitele või asutustele õiguskaitseasutuste toetamiseks või nende nimel, et hinnata füüsilise isiku riski langeda kuriteo ohvriks;

b) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutustele või nende nimel või liidu institutsioonidele, organitele või asutustele õiguskaitseasutuste toetamiseks valedetektori või sarnase vahendina;

c) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutustele või nende nimel või liidu institutsioonidele, organitele ja asutustele õiguskaitseasutuste toetamiseks, et hinnata tõendite usaldusväärsust kuritegude uurimise või nende eest vastutusele võtmise käigus;

d) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutustele või nende nimel või liidu institutsioonidele, organitele ja asutustele õiguskaitseasutuste toetamiseks, et hinnata füüsilise isiku poolt õigusrikkumise või korduva õigusrikkumise toimepanemise riski mitte üksnes füüsiliste isikute profiilianalüüsi põhjal, nagu on osutatud direktiivi (EL) 2016/680 artikli 3 punktis 4, või hinnata füüsiliste isikute või rühmade isikuomadusi, erijooni või varasemat kuritegelikku käitumist;

e) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutustele või nende nimel või liidu institutsioonidele, organitele ja asutustele õiguskaitseasutuste toetamiseks, et teha kuritegude avastamise, uurimise või nende eest vastutusele võtmise käigus füüsiliste isikute profiilianalüüsi, nagu on osutatud direktiivi (EL) 2016/680 artikli 3 lõikes 4.

7. Rände-, varjupaiga- ja piirikontrollihaldus, kui selliste süsteemide kasutamine on lubatud asjakohase liidu või riigisisese õigusega:

a) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks pädevatele asutustele või nende nimel või kasutamiseks liidu institutsioonidele, organitele või asutustele valedetektorite ja muude samalaadsete vahenditena;

b) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks pädevatele ametiasutustele või nende nimel või liidu institutsioonidele, asutustele ja organitele, et hinnata riske, sh julgeolekuriski, ebaseadusliku rände riski või terviseriski, mille põhjustab füüsiline isik, kes kavatseb siseneda või on sisenenud liikmesriigi territooriumile;

c) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks pädevatele ametiasutustele või nende nimel või liidu institutsioonidele, organitele või asutustele, et abistada pädevaid ametiasutusi varjupaiga-, viisa- ja elamisloataotluste ja nendega seotud kaebuste läbivaatamisel seoses sellist staatust taotlevate füüsiliste isikute vastavusega asjakohastele tingimustele, hõlmates sellega seotud tõendite usaldusväärsuse hindamine;

d) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks pädevatele ametiasutustele või nende nimel või liidu institutsioonidele, organitele või asutustele rände-, varjupaiga- või piirikontrollihalduse kontekstis, füüsiliste isikute avastamiseks, ära tundmiseks või tuvastamiseks, välja arvatud reisidokumentide kontrollimine.

8. Õigusemõistmine ja demokraatlikud protsessid:

a) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õigusasutustele või nende nimel, et abistada õigusasutusi faktide ja seadustega tutvumisel ja nende tõlgendamisel ning õiguse rakendamisel konkreetse faktide kogumi suhtes, või mida kasutatakse sarnasel viisil vaidluste kohtuväliseks lahendamiseks;

b) tehisintellektisüsteemid, mis on ette nähtud kasutamiseks selleks, et mõjutada valimiste või rahvahääletuste tulemusi või füüsiliste isikute hääletamiskäitumist valimistel või rahvahääletustel. See ei hõlma tehisintellektisüsteeme, mille väljundiga füüsilised isikud otseselt kokku ei puutu, näiteks vahendid, mida kasutatakse poliitiliste kampaaniate korraldamiseks, optimeerimiseks või struktureerimiseks halduslikust või logistilisest seisukohast.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden

Veelgestelde vragen

Welke AI-systemen staan in Bijlage III van de AI Act?

Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.

Is mijn AI-systeem hoog-risico volgens Bijlage III?

Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.

Welke AI-systemen in HR en werving zijn hoog-risico?

Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.

Vallen AI-systemen in de bankensector onder Bijlage III?

Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.

Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?

Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.

Welke biometrische AI-systemen zijn hoog-risico?

Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.

Vallen AI-systemen bij de overheid onder Bijlage III?

Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.

Is AI voor emotieherkenning hoog-risico?

Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.

Welke AI in het onderwijs is hoog-risico?

Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).

Is AI voor noodoproepen hoog-risico?

Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.

Kan de Europese Commissie Bijlage III uitbreiden?

Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.

Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?

Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.

Valt AI voor verzekeringen onder Bijlage III?

Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.

Is AI-gestuurde CV-screening hoog-risico?

Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.

Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?

De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.