Responsible AI Platform

Annex III AI Act

class="oj-doc-ti" id="d1e38-127-1">III. MELLÉKLET

Official text

id="anx_III"> III. MELLÉKLET A 6. cikk (2) bekezdésében említett nagy kockázatú MI-rendszerek A 6. cikk (2) bekezdése szerinti nagy kockázatú MI-rendszerek a következő területek bármelyikén felsorolt MI-rendszerek:

1. biometria, amennyiben annak használatát a releváns uniós vagy nemzeti jog megengedi:

a) távoli biometrikus azonosító rendszerek. Ez nem terjed ki a biometrikus ellenőrzéshez való felhasználásra szánt azon MI-rendszerekre, amelyek kizárólagos célja annak megerősítése, hogy egy adott természetes személy azonos azzal a személlyel, akinek állítja magát;

b) érzékeny vagy védett tulajdonságok vagy jellemzők szerint, ilyen tulajdonságokból vagy jellemzőkből levont következtetések alapján való biometrikus kategorizáláshoz való használatra szánt MI-rendszerek;

c) érzelemfelismeréshez való használatra szánt MI-rendszerek;

2. kritikus infrastruktúra: a kritikus digitális infrastruktúrák, a közúti forgalom, vagy a víz-, gáz-, fűtési vagy villamosenergia-szolgáltatás irányításában és működtetésében biztonsági alkotórészekként való használatra szánt MI-rendszerek;

3. oktatás és szakképzés:

a) minden szintre kiterjedő oktatási és szakképzési intézményekbe való bejutás vagy felvétel meghatározásához, illetve természetes személyek ilyen intézményekhez történő hozzárendeléséhez való használatra szánt MI-rendszerek;

b) tanulási eredmények értékeléséhez való használatra szánt MI-rendszerek, beleértve azon eseteket is, amikor ezeket az eredményeket a minden szintre kiterjedő oktatási és szakképzési intézményekben tanuló természetes személyek tanulási folyamatának irányítására használják;

c) valamennyi szinten az oktatási és szakképzési intézményekkel összefüggésben vagy azokon belül azon oktatás megfelelő szintjének felmérése céljából való használatra szánt MI-rendszerek, amelyet az egyén kapni fog, vagy amelyhez hozzá fog tudni férni;

d) valamennyi szinten az oktatási és szakképzési intézményekkel összefüggésben vagy azokon belül a vizsgák során a tiltott tanulói magatartás figyelemmel követéséhez és észleléséhez való használatra szánt MI-rendszerek;

4. foglalkoztatás, a munkavállalók irányítása és az önfoglalkoztatáshoz való hozzáférés:

a) természetes személyek felvételéhez vagy kiválasztásához való használatra szánt MI-rendszerek, különösen célzott álláshirdetések elhelyezése, a jelentkezések elemzése és szűrése, valamint a jelöltek értékelése céljából;

b) a munkával kapcsolatos jogviszonyok feltételeit, az előléptetést vagy a munkával kapcsolatos szerződéses jogviszonyok megszüntetését érintő döntések meghozatalához, egyéni magatartáson vagy személyes vonásokon vagy jellemzőkön alapuló feladatkiosztáshoz, vagy az ilyen jogviszonyokban álló személyek teljesítményének és magatartásának nyomon követéséhez és értékeléséhez való használatra szánt MI-rendszerek;

5. alapvető magán- és közszolgáltatásokhoz és ellátásokhoz való hozzáférés és ezek igénybevétele:

a) hatóságok általi vagy hatóságok nevében való használatra szánt MI-rendszerek, természetes személyek állami segítségnyújtási ellátásokra és szolgáltatásokra, köztük egészségügyi szolgáltatásokra való jogosultságának értékelése, valamint az ilyen ellátások és szolgáltatások biztosítása, csökkentése, visszavonása vagy visszaigénylése céljából;

b) a természetes személyek hitelképességének értékeléséhez vagy hitelpontszámuk megállapításához való használatra szánt MI-rendszerek, kivéve a pénzügyi csalás észlelésére használt MI-rendszereket;

c) a természetes személyek vonatkozásában egészség- és életbiztosítás esetén a kockázatértékeléshez és az árképzéshez való használatra szánt MI-rendszerek;

d) természetes személyek segélyhívásainak értékeléséhez és osztályozásához, vagy a sürgősségi segélyszolgálatok – többek között a rendőrség és a tűzoltók által biztosított ilyen szolgáltatások és orvosi segítségnyújtás – kirendeléséhez vagy a kirendelési prioritás megállapításához, valamint a sürgősségi egészségügyi ellátásban alkalmazott betegosztályozási rendszerekhez való használatra szánt MI-rendszerek.

6. bűnüldözés, amennyiben azok használatát a releváns uniós vagy nemzeti jog megengedi:

a) a bűnüldöző hatóságok által vagy nevében, vagy a bűnüldöző hatóságok támogatása érdekében uniós intézmények, szervek, hivatalok vagy ügynökségek által vagy nevében való használatra szánt, annak értékelésére szolgáló MI-rendszerek, hogy egy természetes személy esetében fennáll-e annak kockázata, hogy bűncselekmény áldozatává válik;

b) a bűnüldöző hatóságok által vagy nevében, vagy a bűnüldöző hatóságok támogatása érdekében uniós intézmények, szervek, hivatalok vagy ügynökségek által például poligráfként vagy hasonló eszközként való használatra szánt MI-rendszerek;

c) bűncselekményekkel kapcsolatos nyomozás vagy büntetőeljárás alá vonás során a bizonyítékok megbízhatóságának értékelése céljából a bűnüldöző hatóságok által vagy nevében, vagy a bűnüldöző hatóságok támogatása érdekében uniós intézmények, szervek, hivatalok vagy ügynökségek általvaló használatra szánt MI-rendszerek;

d) a bűnüldöző hatóságok által vagy nevében, vagy a bűnüldöző hatóságok támogatása érdekében uniós intézmények, szervek, hivatalok vagy ügynökségek által való használatra szánt MI-rendszerek annak értékeléséhez, hogy egy természetes személy esetében fennáll-e bűncselekmény elkövetésének vagy ismételt elkövetésének kockázata, nem kizárólag az (EU) 2016/680 irányelv 3. cikkének 4. pontjában említett, természetes személyekre vonatkozó profilalkotás alapján, vagy természetes személyek vagy csoportok személyiségjegyeinek és személyes jellemzőinek, vagy múltbeli bűnözői magatartásának értékeléséhez;

e) bűncselekmények felderítése, bűncselekményekkel kapcsolatos nyomozás vagy büntetőeljárás alá vonás során az (EU) 2016/680 irányelv 3. cikkének 4. pontjában említett, természetes személyekre vonatkozó profilalkotás céljából a bűnüldöző hatóságok által vagy nevében, vagy a bűnüldöző hatóságok támogatása érdekében uniós intézmények, szervek, hivatalok vagy ügynökségek által való használatra szánt MI-rendszerek;

7. migráció, menekültügy és határigazgatás, amennyiben azok használatát a releváns uniós vagy nemzeti jog megengedi:

a) az illetékes hatóságok vagy az uniós intézmények, szervek, hivatalok vagy ügynökségek által vagy nevében poligráfként vagy hasonló eszközként való használatra szánt MI-rendszerek;

b) a valamely tagállam területére belépni szándékozó vagy oda belépett természetes személy által jelentett kockázat – többek között biztonsági kockázat, irreguláris migrációs kockázat vagy egészségügyi kockázat – értékelését célzó, illetékes hatóságok által vagy nevében, vagy uniós intézmények, szervek, hivatalok vagy ügynökségek által való használatra szánt MI-rendszerek;

c) menedékjog iránti kérelmek, vízumkérelmek vagy tartózkodási engedély iránti kérelmek, valamint jogállást kérelmező természetes személyek jogosultsága tekintetében az ezekkel összefüggő panaszok kivizsgálásához – beleértve a bizonyítékok megbízhatóságának kapcsolódó értékeléseihez – az illetékes hatóságok által vagy nevében, vagy az illetékes hatóságok támogatása érekében uniós intézmények, szervek, hivatalok vagy ügynökségek által való használatra szánt MI-rendszerek;

d) a migrációval, a menekültüggyel vagy a határigazgatással összefüggésben – az úti okmányok ellenőrzése kivételével – a természetes személyek felderítése, felismerése vagy azonosítása céljából az illetékes hatóságok vagy az uniós intézmények, szervek, hivatalok vagy ügynökségek által vagy nevében való használatra szánt MI-rendszerek;

8. igazságszolgáltatás és demokratikus folyamatok:

a) igazságügyi hatóság által vagy nevében való használatra szánt MI-rendszerek, amelyek célja, hogy segítsék az igazságügyi hatóságokat a ténybeli és a jogi elemek kutatásában és értelmezésében, valamint a jog konkrét tényekre történő alkalmazásában, illetve hogy alternatív vitarendezés keretében hasonló módon használják őket;

b) választások vagy népszavazások eredményének vagy a természetes személyek választásokon vagy népszavazásokon tanúsított szavazási magatartásának befolyásolásához való használatra szánt MI-rendszerek. Nem tartoznak ide azok az MI-rendszerek, amelyek kimenete nem érint közvetlenül természetes személyeket, mint például a politikai kampányok adminisztratív vagy logisztikai szempontból való megszervezéséhez, optimalizálásához vagy strukturálásához használt eszközök.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

Which AI systems are listed in Annex III of the AI Act?

Annex III contains eight categories of high-risk AI systems: (1) biometrics, (2) critical infrastructure, (3) education and vocational training, (4) employment and workers management, (5) essential services, (6) law enforcement, (7) migration and border control, and (8) administration of justice and democratic processes.

Is my AI system high-risk according to Annex III?

Check whether your AI system falls under one of the eight categories in Annex III. The system must be 'intended to be used' for the stated purpose. Classification depends on the intended use, not the underlying technology.

Which AI systems in HR and recruitment are high-risk?

Under Annex III, point 4: AI for (a) recruitment and selection, including targeted job ads, filtering applications and evaluating candidates, and (b) decisions on working conditions, promotion, termination, task allocation and monitoring performance.

Do AI systems in the banking sector fall under Annex III?

Yes, if the AI system is used for creditworthiness assessments or establishing credit scores of natural persons (point 5b). Exception: AI systems for detecting financial fraud are excluded.

Are AI systems in healthcare high-risk under Annex III?

Yes, under point 5a: AI used by or on behalf of public authorities to evaluate eligibility for essential public services, including healthcare. AI for emergency triage (point 5d) is also high-risk.

Which biometric AI systems are high-risk?

Under Annex III, point 1: (a) remote biometric identification systems, (b) biometric categorisation based on sensitive characteristics, and (c) emotion recognition. Biometric verification (confirming someone is who they claim to be) is excluded.

Do government AI systems fall under Annex III?

Yes, multiple categories are relevant for government: AI for public services (point 5a), law enforcement (point 6), migration and border control (point 7), and administration of justice (point 8). AI in education (point 3) is also relevant for public institutions.

Is AI for emotion recognition high-risk?

Yes, AI systems intended for emotion recognition are explicitly listed in Annex III, point 1c. Note: emotion recognition in the workplace and education is even prohibited under Article 5.

Which AI in education is high-risk?

Annex III, point 3 lists four categories: (a) admission to educational institutions, (b) evaluating learning outcomes, (c) assessing the appropriate education level, and (d) monitoring prohibited behaviour during tests (proctoring).

Is AI for emergency calls high-risk?

Yes, Annex III, point 5d classifies AI systems that evaluate and classify emergency calls, or are used for dispatching emergency services (police, fire, ambulance) and emergency healthcare triage as high-risk.

Can the European Commission expand Annex III?

Yes, Article 7 empowers the Commission to add new high-risk AI applications to Annex III through delegated acts, provided they pose comparable risks to fundamental rights as the existing categories.

Do AI systems for election influence fall under Annex III?

Yes, Annex III, point 8b classifies AI systems intended to influence the outcome of elections or referenda, or voting behaviour, as high-risk. Logistical campaign tools not directly exposed to citizens are excluded.

Does AI for insurance fall under Annex III?

Yes, Annex III point 5c classifies AI systems used for risk assessment and pricing in relation to natural persons for life and health insurance as high-risk. AI for claims detection and fraud prevention in insurance does not automatically fall under this category.

Is AI-powered CV screening high-risk?

Yes, Annex III point 4a explicitly classifies AI systems for filtering and evaluating job applications as high-risk. This includes automated CV screening, AI-powered candidate matching and automated assessments in recruitment processes.

How do I know if my AI system is 'intended to be used' for an Annex III purpose?

Classification depends on the intended purpose as determined by the provider, not on technical capabilities. If an AI system is technically capable of an Annex III purpose but not intended for it, it is not automatically high-risk. However, repurposing for an Annex III purpose can lead to reclassification.