Annex III AI Act
Sisteme de IA cu grad ridicat de risc menționate la articolul 6 alineatul (2)
Officiële tekst
Sisteme de IA cu grad ridicat de risc menționate la articolul 6 alineatul (2) Sistemele de IA cu grad ridicat de risc conform articolului 6 alineatul (2) sunt sistemele de IA aparținând oricăruia dintre următoarele domenii:
1. Biometrie, în măsura în care utilizarea acesteia este permisă în temeiul dreptului Uniunii sau intern relevant:
(a) sisteme de identificare biometrică la distanță. Acestea nu includ sistemele de IA destinate a fi utilizate pentru verificarea biometrică al cărei unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este;
(b) sisteme de IA destinate a fi utilizate pentru clasificarea biometrică, în funcție de atribute sau caracteristici sensibile ori protejate, pe baza deducerii acestor atribute sau caracteristici;
(c) sisteme de IA destinate a fi utilizate pentru recunoașterea emoțiilor.
2. Infrastructură critică: sisteme de IA destinate a fi utilizate drept componente de siguranță în gestionarea și exploatarea infrastructurii digitale critice, a traficului rutier sau a aprovizionării cu apă, gaz, încălzire ori energie electrică.
3. Educație și formare profesională:
(a) sisteme de IA destinate a fi utilizate pentru a stabili accesul ori admisia sau pentru a repartiza persoane fizice la instituțiile de învățământ și formare profesională la toate nivelurile;
(b) sisteme de IA destinate a fi utilizate pentru a evalua rezultatele învățării, inclusiv atunci când acestea sunt utilizate pentru a orienta procesul de învățare al persoanelor fizice în instituțiile de învățământ și formare profesională la toate nivelurile;
(c) sisteme de IA destinate a fi utilizate în scopul evaluării nivelului adecvat de educație pe care o persoană îl va primi sau îl va putea accesa, în contextul sau în cadrul instituțiilor de învățământ și formare profesională la toate nivelurile;
(d) sisteme de IA destinate a fi utilizate pentru monitorizarea și detectarea comportamentului interzis al elevilor și studenților în timpul testelor, în contextul sau în cadrul instituțiilor de educație și formare profesională la toate nivelurile.
4. Ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente:
(a) sisteme de IA destinate a fi utilizate pentru recrutarea sau selectarea persoanelor fizice, în special pentru a plasa anunțuri de angajare direcționate în mod specific, pentru a analiza și a filtra candidaturile pentru locuri de muncă și pentru a evalua candidații;
(b) sisteme de IA destinate a fi utilizate pentru a lua decizii care afectează termenii relațiilor legate de muncă, promovarea și încetarea relațiilor contractuale legate de muncă, pentru a aloca sarcini pe baza comportamentului individual sau a trăsăturilor ori caracteristicilor personale sau pentru a monitoriza și evalua performanța și comportamentul persoanelor aflate în astfel de relații.
5. Accesul la servicii private esențiale și la servicii și beneficii publice esențiale, precum și posibilitatea de a beneficia de acestea:
(a) sisteme de IA destinate a fi utilizate de autoritățile publice sau în numele autorităților publice pentru a evalua eligibilitatea persoanelor fizice pentru prestații și servicii de asistență publică esențiale, inclusiv servicii de îngrijiri de sănătate, precum și pentru a acorda, a reduce, a revoca sau a recupera astfel de prestații și servicii;
(b) sisteme de IA destinate a fi utilizate pentru a evalua bonitatea persoanelor fizice sau pentru a stabili punctajul lor de credit, cu excepția sistemelor de IA utilizate în scopul detectării fraudelor financiare;
(c) sisteme de IA destinate a fi utilizate pentru evaluarea riscurilor și stabilirea prețurilor în ceea ce privește persoanele fizice în cazul asigurărilor de viață și de sănătate;
(d) sisteme de IA destinate pentru a evalua și a clasifica apelurile de urgență efectuate de persoane fizice sau pentru a distribui ori pentru a stabili prioritatea în distribuirea serviciilor de primă intervenție de urgență, inclusiv de către poliție, pompieri și asistența medicală, precum și în cadrul sistemelor de triaj de urgență pentru pacienți.
6. Aplicarea legii, în măsura în care utilizarea lor este permisă în temeiul dreptului Uniunii sau intern relevant:
(a) sisteme de IA destinate a fi utilizate de către sau în numele autorităților de aplicare a legii sau de către instituțiile, organele, oficiile ori agențiile Uniunii în sprijinul autorităților de aplicare a legii sau în numele acestora pentru a evalua riscul ca o persoană fizică să devină victima unor infracțiuni;
(b) sisteme de IA destinate a fi utilizate de către sau în numele autorităților de aplicare a legii ca poligrafe sau instrumente similare sau de către instituțiile, organele, oficiile ori agențiile Uniunii în sprijinul autorităților de aplicare a legii;
(c) sisteme de IA destinate a fi utilizate de către sau în numele autorităților de aplicare a legii sau de instituțiile, organele, oficiile ori agențiile Uniunii în sprijinul autorităților de aplicare a legii pentru a evalua fiabilitatea probelor în cursul investigării sau al urmăririi penale a infracțiunilor;
(d) sisteme de IA destinate a fi utilizate de către autoritățile de aplicare a legii sau în numele acestora de către instituțiile, organele, oficiile sau agențiile Uniunii în sprijinul autorităților de aplicare a legii pentru evaluarea riscului ca o persoană fizică să comită infracțiuni sau să recidiveze, nu doar pe baza creării de profiluri ale persoanelor fizice, astfel cum se menționează la articolul 3 alineatul (4) din Directiva (UE) 2016/680, sau pentru a evalua trăsături și caracteristici de personalitate ori comportamentul infracțional anterior al unor persoane fizice sau grupuri;
(e) sisteme de IA destinate a fi utilizate de către sau în numele autorităților de aplicare a legii sau de către instituțiile, organele, oficiile ori agențiile Uniunii în sprijinul autorităților de aplicare a legii pentru crearea de profiluri ale persoanelor fizice, astfel cum se menționează la articolul 3 alineatul (4) din Directiva (UE) 2016/680, în cursul depistării, investigării sau urmăririi penale a infracțiunilor.
7. Migrație, azil și gestionare a controlului la frontiere, în măsura în care utilizarea lor este permisă în temeiul dreptului Uniunii sau intern relevant:
(a) sisteme de IA destinate a fi utilizate de către sau în numele autorităților publice competente sau de către instituțiile, organele, oficiile ori agențiile Uniunii drept poligrafe sau instrumente similare;
(b) sisteme de IA destinate a fi utilizate de către sau în numele autorităților publice competente sau de către instituțiile, organele, oficiile ori agențiile Uniunii pentru evaluarea unui risc, inclusiv a unui risc de securitate, a unui risc de migrație ilegală sau a unui risc pentru sănătate din partea unei persoane fizice care intenționează să intre sau care a intrat pe teritoriul unui stat membru;
(c) sisteme de IA destinate a fi utilizate de către sau în numele autorităților publice competente sau de către instituțiile, organele, oficiile ori agențiile Uniunii pentru a asista autoritățile publice competente în examinarea cererilor de azil, de viză sau de permise de ședere și a plângerilor aferente în ceea ce privește eligibilitatea persoanelor fizice care solicită un statut, inclusiv în evaluările conexe ale fiabilității probelor;
(d) sisteme de IA destinate a fi utilizate de către sau în numele autorităților publice competente sau de către instituțiile, organele, oficiile sau agențiile Uniunii, în contextul migrației, azilului sau gestionării controlului la frontiere, în scopul detectării, recunoașterii sau identificării persoanelor fizice, cu excepția verificării documentelor de călătorie.
8. Administrarea justiției și procesele democratice:
(a) sisteme de IA destinate a fi utilizate de către sau în numele unei autorități judiciare pentru a asista o autoritate judiciară în cercetarea și interpretarea faptelor sau a legii, precum și în aplicarea legii la un set concret de fapte sau destinate a fi utilizate în mod similar în soluționarea alternativă a litigiilor;
(b) sisteme de IA destinate a fi utilizate pentru a influența rezultatul unei alegeri sau al unui referendum ori comportamentul de vot al persoanelor fizice în exercitarea votului lor la alegeri sau referendumuri. Acestea nu includ sistemele de IA la ale căror rezultate nu sunt expuse direct persoane fizice, cum ar fi instrumentele utilizate pentru organizarea, optimizarea sau structurarea campaniilor politice din punct de vedere administrativ sau logistic.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Welke AI-systemen staan in Bijlage III van de AI Act?
Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.
Is mijn AI-systeem hoog-risico volgens Bijlage III?
Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.
Welke AI-systemen in HR en werving zijn hoog-risico?
Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.
Vallen AI-systemen in de bankensector onder Bijlage III?
Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.
Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?
Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.
Welke biometrische AI-systemen zijn hoog-risico?
Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.
Vallen AI-systemen bij de overheid onder Bijlage III?
Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.
Is AI voor emotieherkenning hoog-risico?
Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.
Welke AI in het onderwijs is hoog-risico?
Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).
Is AI voor noodoproepen hoog-risico?
Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.
Kan de Europese Commissie Bijlage III uitbreiden?
Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.
Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?
Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.
Valt AI voor verzekeringen onder Bijlage III?
Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.
Is AI-gestuurde CV-screening hoog-risico?
Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.
Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?
De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.