Artikel 7
Artikel
EU AI Act — Official text (explorer)
1.
bijlage III door hieraan gebruiksgevallen van AI-systemen met een hoog risico toe te voegen of te wijzigen wanneer aan
beide van de volgende voorwaarden is voldaan:
a)de AI-systemen zijn bedoeld om te worden gebruikt op een van de gebieden als bedoeld in bijlage III;
b)de AI-systemen vormen een risico op schade voor de gezondheid en veiligheid, of nadelige effecten op de grondrechten,
en dat risico is gelijk aan of groter dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen
met een hoog risico die reeds zijn opgenomen in bijlage III.
NL
PB L van 12.7.2024
54/144ELI: http://data.europa.eu/eli/reg/2024/1689/oj
2.
a)het beoogde doel van het AI-systeem;
b)de mate waarin een AI-systeem is gebruikt of waarschijnlijk zal worden gebruikt;
c)de aard van en de hoeveelheid gegevens die het AI-systeem verwerkt en gebruikt, met name of bijzondere categorieën
persoonsgegevens worden verwerkt;
d)de mate waarin het AI-systeem autonoom handelt en de mogelijkheid voor een mens om beslissingen of aanbevelingen
die tot schade kunnen leiden terzijde te schuiven;
e)de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid of nadelige effecten op de
grondrechten heeft veroorzaakt of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met de waarschijnlijkheid
van dergelijke schade of nadelige effecten, zoals aangetoond bijvoorbeeld door verslagen of gedocumenteerde
beweringen die zijn ingediend bij de nationale bevoegde autoriteiten of, in voorkomend geval, door andere verslagen;
f)de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en
de mogelijkheid dat meerdere personen worden getroffen of dat een bepaalde groep personen onevenredig wordt
getroffen;
g)de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een
AI-systeem geproduceerde uitkomst, met name omdat het om praktische of juridische redenen niet redelijkerwijs
mogelijk is om van deze uitkomst af te zien;
h)de mate waarin sprake is van een onevenwichtige machtsverhouding, of de potentieel geschade of nadelig getroffen
personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiksverantwoordelijke van een AI-systeem, met
name als gevolg van status, autoriteit, kennis, economische of sociale omstandigheden of leeftijd;
i)de mate waarin de geproduceerde uitkomst waarbij een AI-systeem betrokken is niet gemakkelijk kan worden rechtgezet
of omgekeerd, rekening houdend met de beschikbare technische oplossingen om die uitkomst recht te zetten of om te
keren, waarbij van uitkomsten die nadelige effecten hebben op de gezondheid, veiligheid of grondrechten, niet wordt
beschouwd dat zij eenvoudig kunnen worden rechtgezet of omgekeerd;
j)de omvang en waarschijnlijkheid van het voordeel dat het inzetten van het AI-systeem voor natuurlijke personen,
groepen of de samenleving in het algemeen, met inbegrip van mogelijke verbeteringen op het gebied van
productveiligheid, met zich meebrengt;
k)de mate waarin in het bestaande Unierecht is voorzien in:
i)doeltreffende maatregelen om beroep aan te tekenen in verband met de risico’s van een AI-systeem, met uitzondering
van vorderingen tot schadevergoeding;
ii)doeltreffende maatregelen om deze risico’s te voorkomen of aanzienlijk te beperken.
3.
bijlage III door AI-systemen met een hoog risico te schrappen wanneer aan beide van de volgende voorwaarden is voldaan:
a)het betrokken AI-systeem met een hoog risico vormt, rekening houdend met de in lid 2 vermelde criteria, geen
significant risico voor de grondrechten, de gezondheid of de veiligheid;
b)de schrapping leidt niet tot een lager algeheel beschermingsniveau wat betreft de gezondheid, de veiligheid en de
grondrechten uit hoofde van het Unierecht.
AFDELING 2
Eisen voor AI-systemen met een hoog risico