Artikel 55
Artikel
EU AI Act — Officiële tekst (verkenner)
1.
doeleinden met een systeemrisico:
a)een modelevaluatie uitvoeren overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de
techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van
kwetsbaarheden van het model met als doel om systeemrisico’s in kaart te brengen en te beperken;
b)mogelijke systeemrisico’s op Unieniveau beoordelen en beperken, met inbegrip van de bronnen daarvan, die kunnen
voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden
met een systeemrisico;
c)relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen bijhouden, documenteren en
onverwijld rapporteren aan het AI-bureau en, in voorkomend geval, aan de nationale bevoegde autoriteiten;
d)zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden met
een systeemrisico en de fysieke infrastructuur van het model.
2.
in de zin van artikel 56 om de naleving van de in lid 1 van dit artikel vastgestelde verplichtingen aan te tonen, totdat er een
geharmoniseerde norm is gepubliceerd. Door Europese geharmoniseerde normen na te leven genieten aanbieders een
vermoeden van overeenstemming, voor zover die normen ook die verplichtingen dekken. Aanbieders van AI-modellen
voor algemene doeleinden met een systeemrisico die zich niet aan een goedgekeurde praktijkcode houden of niet voldoen
aan een Europese geharmoniseerde norm, tonen alternatieve passende wijzen van naleving aan die door de Commissie
moeten worden beoordeeld.
3.
overeenkomstig de in artikel 78 vastgelegde vertrouwelijkheidsverplichtingen.
AFDELING 4
Praktijkcodes