Responsible AI Platform

Annex III AI Act

class="oj-doc-ti" id="d1e38-127-1">LIITE III

Official text

id="anx_III"> LIITE III 6 artiklan 2 kohdassa tarkoitetut suuririskiset tekoälyjärjestelmät Tämän asetuksen 6 artiklan 2 kohdan mukaisia suuririskisiä tekoälyjärjestelmiä ovat seuraavilla aloilla luetellut tekoälyjärjestelmät:

1. Biometriset tunnisteet, jos niiden käyttö on sallittua asiaa koskevan unionin tai kansallisen lainsäädännön nojalla:

a) Biometriset etätunnistusjärjestelmät. Tähän ei lueta tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi biometriseen todennukseen ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi biometriseen luokitteluun arkaluonteisten tai suojattujen ominaisuuksien tai ominaispiirteiden mukaisesti kyseisten ominaisuuksien tai ominaispiirteiden päättelyn perusteella;

c) Tekoälyjärjestelmät, jotka on tarkoitettu tunteiden tunnistamiseen.

2. Kriittinen infrastruktuuri: Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi turvakomponentteina kriittisen digitaalisen infrastruktuurin, tieliikenteen tai vesi-, kaasu-, lämmitys- tai sähköhuollon hallinnassa ja toiminnassa.

3. Yleissivistävä ja ammatillinen koulutus:

a) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi määritettäessä luonnollisten henkilöiden pääsyä tai hyväksymistä yleissivistäviin ja ammatillisiin oppilaitoksiin kaikilla tasoilla tai osoitettaessa luonnollisia henkilöitä niihin;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi arvioitaessa oppimistuloksia, myös silloin kun kyseisiä tuloksia käytetään luonnollisten henkilöiden oppimisprosessin ohjaamiseksi yleissivistävissä ja ammatillisissa oppilaitoksissa kaikilla tasoilla;

c) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi sen asianmukaisen koulutustason arviointiin, jonka henkilö saa tai johon hän voi päästä yleissivistävissä ja ammatillisissa oppilaitoksissa tai niiden yhteydessä kaikilla tasoilla;

d) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi opiskelijoiden tarkkailuun ja kielletyn käyttäytymisen havaitsemiseen kokeiden aikana yleissivistävissä ja ammatillisissa oppilaitoksissa tai niiden yhteydessä kaikilla tasoilla.

4. Työllistäminen, henkilöstöhallinto ja itsenäisen ammatinharjoittamisen mahdollistaminen:

a) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi luonnollisten henkilöiden rekrytoinnissa tai valinnassa, erityisesti kohdennettujen työpaikkailmoitusten esittämiseen, työhakemusten analysointiin ja suodattamiseen sekä hakijoiden arviointiin;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi työsuhteen ehtoja, uralla etenemistä ja työhön liittyvien sopimussuhteiden päättämistä koskevien päätösten tekemiseen, tehtävien jakamiseen yksilöllisen käytöksen tai personallisuuspiirteiden tai henkilön ominaisuuksien perusteella tai tällaisissa suhteissa olevien henkilöiden suorituksen ja käyttäytymisen seurantaan ja arviointiin.

5. Välttämättömien yksityisten palvelujen ja välttämättömien julkisten palvelujen ja etuuksien saatavuus ja käyttö:

a) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi viranomaisten toimesta tai viranomaisten puolesta sen arviointiin, ovatko luonnolliset henkilöt oikeutettuja välttämättömiin julkisen avun etuuksiin ja palveluihin, kuten terveydenhuollon palveluihin, sekä tällaisten etuuksien ja palvelujen myöntämiseen, vähentämiseen, peruuttamiseen tai takaisin perimiseen;

b) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi luonnollisten henkilöiden luottokelpoisuuden arviointiin tai heidän luottopisteytyksensä määrittämiseen, lukuun ottamatta tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi talouspetosten havaitsemiseen;

c) Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi luonnollisia henkilöitä koskevaan riskinarviointiin ja hinnoitteluun sairaus- ja henkivakuutusten tapauksessa;

d) Tekoälyjärjestelmät, joilla on tarkoitus arvioida ja luokitella luonnollisten henkilöiden soittamia hätäpuheluja tai jotka on tarkoitettu käytettäviksi pelastus- ja ensihoitopalvelujen lähettämisessä tai tärkeysjärjestyksen määrittämisessä, mukaan lukien poliisi, palokunta ja lääkintäapu, sekä kiireellistä sairaanhoitoa tarvitsevien potilaiden luokittelussa.

6. Lainvalvonta, jos niiden käyttö on sallittua asiaa koskevan unionin tai kansallisen lainsäädännön nojalla:

a) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi tai niiden puolesta arvioitaessa luonnollisen henkilön riskiä joutua rikoksen uhriksi;

b) Tekoälyjärjestelmät, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi;

c) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi todistusaineiston luotettavuuden arvioinnissa rikostutkinnassa tai rikosoikeudellisissa menettelyissä;

d) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi luonnollisen henkilön rikokseen tai rikoksen uusimiseen syyllistymisen riskin arvioinnissa muutenkin kuin direktiivin (EU) 2016/680 3 artiklan 4 kohdassa tarkoitetun luonnollisten henkilöiden profiloinnin perusteella, tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja persoonallisuusominaisuuksien tai aiemman rikollisen käyttäytymisen arvioinnissa;

e) Tekoälyjärjestelmät, joita on tarkoitus käyttää lainvalvontaviranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi direktiivin (EU) 2016/680 3 artiklan 4 kohdassa tarkoitetussa luonnollisten henkilöiden profiloinnissa rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä.

7. Muuttoliikkeen hallinta, turvapaikka-asiat ja rajavalvonta, jos niiden käyttö on sallittua asiaa koskevan unionin tai kansallisen lainsäädännön nojalla:

a) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten tai unionin toimielinten, elinten, toimistojen ja virastojen toimesta tai niiden puolesta valheenpaljastimina ja vastaavina välineinä;

b) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta arvioitaessa luonnollisen henkilön, joka aikoo tulla tai on tullut jäsenvaltion alueelle, aiheuttamaa riskiä, mukaan lukien turvallisuusriski, sääntöjenvastaisen maahanmuuton riski ja terveysriski;

c) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten toimesta tai niiden puolesta tai unionin toimielinten, elinten, toimistojen tai virastojen toimesta toimivaltaisten viranomaisten avustamiseen turvapaikka-, viisumi- ja oleskelulupahakemusten ja niihin liittyvien valitusten käsittelyssä asemaa hakevien luonnollisten henkilöiden kelpoisuuden tarkastamiseksi, mukaan lukien todistusaineiston luotettavuuden arviointi;

d) Tekoälyjärjestelmät, joita on tarkoitus käyttää toimivaltaisten viranomaisten tai unionin toimielinten, elinten, toimistojen tai virastojen, toimesta tai niiden puolesta luonnollisten henkilöiden havaitsemiseen, tunnistamiseen tai henkilöllisyyden määrittämiseen muuttoliikkeen hallinnan, turvapaikka-asioiden tai rajavalvonnan yhteydessä, pois lukien matkustusasiakirjojen tarkastaminen.

8. Oikeudenhoito ja demokraattiset prosessit:

a) Tekoälyjärjestelmät, joita on tarkoitus käyttää oikeusviranomaisen toimesta tai oikeusviranomaisen puolesta sen avustamiseksi tosiseikkojen tai lainsäädännön tutkimisessa ja tulkinnassa sekä lainsäädännön soveltamisessa konkreettisiin tosiseikkoihin tai joita on tarkoitus käyttää vastaavalla tavalla vaihtoehtoisessa riidanratkaisussa;

b) Tekoälyjärjestelmät, joita on tarkoitus käyttää vaikuttamaan vaalin tai kansanäänestyksen tulokseen tai luonnollisten henkilöiden äänestyskäyttäytymiseen heidän äänestäessään vaaleissa tai kansanäänestyksissä. Tähän ei lueta tekoälyjärjestelmiä, joiden tuotokselle luonnolliset henkilöt eivät suoraan altistu, kuten välineet, joita käytetään poliittisten kampanjoiden järjestämiseen, optimointiin tai jäsentämiseen hallinnollisesti ja logistiselta kannalta.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.