Overweging 115 AI Act
Officiƫle tekst
Aanbieders van AI-modellen voor algemene doeleinden met systeemrisicoās dienen mogelijke systeemrisicoās te beoordelen en te beperken. Indien er zich als gevolg van deĀ ontwikkeling of het gebruik van een AI-model voor algemene doeleinden die systeemrisicoās kan inhouden een ernstig incident voordoet, ondanks inspanningen om met het model verband houdende risicoās te identificeren en te voorkomen, moet de aanbieder van het AI-model voor algemene doeleinden onverwijld het verdere verloop van het incident beginnen te volgen en de Commissie en de nationale bevoegde autoriteiten alle relevante informatie en mogelijke corrigerende maatregelen melden. Bovendien moeten aanbieders zorgen voor een passend niveau van cyberbeveiliging voor het model en de fysieke infrastructuur ervan, indien van toepassing, gedurende de gehele levenscyclus van het model. Bij de cyberbeveiliging in verband met systeemrisicoās als gevolg van kwaadwillig gebruik of aanvallen, moet terdege rekening worden gehouden met onopzettelijke modellekken, ongeoorloofde vrijgave, omzeiling van veiligheidsmaatregelen, alsmede met bescherming tegen cyberaanvallen, ongeoorloofde toegang, en modeldiefstal. Die bescherming kan worden geboden door modelwegingen, algoritmen, servers en datasets te beveiligen, bijvoorbeeld met operationele beveiligingsmaatregelen voor informatie, specifiek cyberbeveiligingsbeleid, passende technische en bewezen oplossingen, alsmede met controles op cyber- en fysieke toegang, afgestemd op de relevante omstandigheden en risicoās.
Bron: EUR-Lex, Verordening (EU) 2024/1689 ā tekst ongewijzigd overgenomen.
š¬ AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
Aanmelden