Responsible AI Platform

Annex III AI Act

class="oj-doc-ti" id="d1e38-127-1">LIITE III

Officiële tekst

id="anx_III"> LIITE III 6 artiklan 2 kohdassa tarkoitetut suuririskiset tekoälyjärjestelmät Tämän asetuksen 6 artiklan 2 kohdan mukaisia suuririskisiä tekoälyjärjestelmiä ovat seuraavilla aloilla luetellut tekoälyjärjestelmät:

1. Biometriset tunnisteet, jos niiden käyttö on sallittua asiaa koskevan unionin tai kansallisen lainsäädännön nojalla:

a) Biometriset etätunnistusjärjestelmät. Tähän ei lueta tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi biometriseen todennukseen ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi biometriseen luokitteluun arkaluonteisten tai suojattujen ominaisuuksien tai ominaispiirteiden mukaisesti kyseisten ominaisuuksien tai ominaispiirteiden päättelyn perusteella;

c) Tekoälyjärjestelmät, jotka on tarkoitettu tunteiden tunnistamiseen.

2. Kriittinen infrastruktuuri: Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi turvakomponentteina kriittisen digitaalisen infrastruktuurin, tieliikenteen tai vesi-, kaasu-, lämmitys- tai sähköhuollon hallinnassa ja toiminnassa.

3. Yleissivistävä ja ammatillinen koulutus:

a) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi määritettäessä luonnollisten henkilöiden pääsyä tai hyväksymistä yleissivistäviin ja ammatillisiin oppilaitoksiin kaikilla tasoilla tai osoitettaessa luonnollisia henkilöitä niihin;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi arvioitaessa oppimistuloksia, myös silloin kun kyseisiä tuloksia käytetään luonnollisten henkilöiden oppimisprosessin ohjaamiseksi yleissivistävissä ja ammatillisissa oppilaitoksissa kaikilla tasoilla;

c) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi sen asianmukaisen koulutustason arviointiin, jonka henkilö saa tai johon hän voi päästä yleissivistävissä ja ammatillisissa oppilaitoksissa tai niiden yhteydessä kaikilla tasoilla;

d) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi opiskelijoiden tarkkailuun ja kielletyn käyttäytymisen havaitsemiseen kokeiden aikana yleissivistävissä ja ammatillisissa oppilaitoksissa tai niiden yhteydessä kaikilla tasoilla.

4. Työllistäminen, henkilöstöhallinto ja itsenäisen ammatinharjoittamisen mahdollistaminen:

a) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi luonnollisten henkilöiden rekrytoinnissa tai valinnassa, erityisesti kohdennettujen työpaikkailmoitusten esittämiseen, työhakemusten analysointiin ja suodattamiseen sekä hakijoiden arviointiin;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi työsuhteen ehtoja, uralla etenemistä ja työhön liittyvien sopimussuhteiden päättämistä koskevien päätösten tekemiseen, tehtävien jakamiseen yksilöllisen käytöksen tai personallisuuspiirteiden tai henkilön ominaisuuksien perusteella tai tällaisissa suhteissa olevien henkilöiden suorituksen ja käyttäytymisen seurantaan ja arviointiin.

5. Välttämättömien yksityisten palvelujen ja välttämättömien julkisten palvelujen ja etuuksien saatavuus ja käyttö:

a) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi viranomaisten toimesta tai viranomaisten puolesta sen arviointiin, ovatko luonnolliset henkilöt oikeutettuja välttämättömiin julkisen avun etuuksiin ja palveluihin, kuten terveydenhuollon palveluihin, sekä tällaisten etuuksien ja palvelujen myöntämiseen, vähentämiseen, peruuttamiseen tai takaisin perimiseen;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi luonnollisten henkilöiden luottokelpoisuuden arviointiin tai heidän luottopisteytyksensä määrittämiseen, lukuun ottamatta tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi talouspetosten havaitsemiseen;

c) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi luonnollisia henkilöitä koskevaan riskinarviointiin ja hinnoitteluun sairaus- ja henkivakuutusten tapauksessa;

d) Tekoälyjärjestelmät, joilla on tarkoitus arvioida ja luokitella luonnollisten henkilöiden soittamia hätäpuheluja tai jotka on tarkoitettu käytettäviksi pelastus- ja ensihoitopalvelujen lähettämisessä tai tärkeysjärjestyksen määrittämisessä, mukaan lukien poliisi, palokunta ja lääkintäapu, sekä kiireellistä sairaanhoitoa tarvitsevien potilaiden luokittelussa.

6. Lainvalvonta, jos niiden käyttö on sallittua asiaa koskevan unionin tai kansallisen lainsäädännön nojalla:

a) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi tai niiden puolesta arvioitaessa luonnollisen henkilön riskiä joutua rikoksen uhriksi;

b) Tekoälyjärjestelmät, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi;

c) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi todistusaineiston luotettavuuden arvioinnissa rikostutkinnassa tai rikosoikeudellisissa menettelyissä;

d) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi luonnollisen henkilön rikokseen tai rikoksen uusimiseen syyllistymisen riskin arvioinnissa muutenkin kuin direktiivin (EU) 2016/680 3 artiklan 4 kohdassa tarkoitetun luonnollisten henkilöiden profiloinnin perusteella, tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja persoonallisuusominaisuuksien tai aiemman rikollisen käyttäytymisen arvioinnissa;

e) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi direktiivin (EU) 2016/680 3 artiklan 4 kohdassa tarkoitetussa luonnollisten henkilöiden profiloinnissa rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä.

7. Muuttoliikkeen hallinta, turvapaikka-asiat ja rajavalvonta, jos niiden käyttö on sallittua asiaa koskevan unionin tai kansallisen lainsäädännön nojalla:

a) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten tai unionin toimielinten, elinten, toimistojen ja virastojen toimesta tai niiden puolesta valheenpaljastimina ja vastaavina välineinä;

b) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta arvioitaessa luonnollisen henkilön, joka aikoo tulla tai on tullut jäsenvaltion alueelle, aiheuttamaa riskiä, mukaan lukien turvallisuusriski, sääntöjenvastaisen maahanmuuton riski ja terveysriski;

c) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta toimivaltaisten viranomaisten avustamiseen turvapaikka-, viisumi- ja oleskelulupahakemusten ja niihin liittyvien valitusten käsittelyssä asemaa hakevien luonnollisten henkilöiden kelpoisuuden tarkastamiseksi, mukaan lukien todistusaineiston luotettavuuden arviointi;

d) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten tai unionin toimielinten, elinten, toimistojen tai virastojen, toimesta tai niiden puolesta luonnollisten henkilöiden havaitsemiseen, tunnistamiseen tai henkilöllisyyden määrittämiseen muuttoliikkeen hallinnan, turvapaikka-asioiden tai rajavalvonnan yhteydessä, pois lukien matkustusasiakirjojen tarkastaminen.

8. Oikeudenhoito ja demokraattiset prosessit:

a) Tekoälyjärjestelmät, joita on tarkoitus käyttää oikeusviranomaisen toimesta tai oikeusviranomaisen puolesta sen avustamiseksi tosiseikkojen tai lainsäädännön tutkimisessa ja tulkinnassa sekä lainsäädännön soveltamisessa konkreettisiin tosiseikkoihin tai joita on tarkoitus käyttää vastaavalla tavalla vaihtoehtoisessa riidanratkaisussa;

b) Tekoälyjärjestelmät, joita on tarkoitus käyttää vaikuttamaan vaalin tai kansanäänestyksen tulokseen tai luonnollisten henkilöiden äänestyskäyttäytymiseen heidän äänestäessään vaaleissa tai kansanäänestyksissä. Tähän ei lueta tekoälyjärjestelmiä, joiden tuotokselle luonnolliset henkilöt eivät suoraan altistu, kuten välineet, joita käytetään poliittisten kampanjoiden järjestämiseen, optimointiin tai jäsentämiseen hallinnollisesti ja logistiselta kannalta.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden

Veelgestelde vragen

Welke AI-systemen staan in Bijlage III van de AI Act?

Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.

Is mijn AI-systeem hoog-risico volgens Bijlage III?

Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.

Welke AI-systemen in HR en werving zijn hoog-risico?

Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.

Vallen AI-systemen in de bankensector onder Bijlage III?

Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.

Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?

Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.

Welke biometrische AI-systemen zijn hoog-risico?

Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.

Vallen AI-systemen bij de overheid onder Bijlage III?

Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.

Is AI voor emotieherkenning hoog-risico?

Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.

Welke AI in het onderwijs is hoog-risico?

Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).

Is AI voor noodoproepen hoog-risico?

Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.

Kan de Europese Commissie Bijlage III uitbreiden?

Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.

Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?

Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.

Valt AI voor verzekeringen onder Bijlage III?

Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.

Is AI-gestuurde CV-screening hoog-risico?

Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.

Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?

De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.