Responsible AI Platform
Recital 115 of 18064%

Recital 115 AI Act

Official text

id="rct_115">

(115)

Poskytovatelé obecných modelů AI se systémovými riziky by měli posuzovat a zmírňovat možná systémová rizika. Pokud navzdory úsilí o identifikaci a prevenci rizik souvisejících s obecným modelem AI, která mohou představovat rizika systémová, vývoj nebo používání modelu způsobí závažný incident, měl by poskytovatel obecného modelu AI bez zbytečného odkladu incident sledovat a oznámit veškeré relevantní informace a případná nápravná opatření Komisi a příslušným vnitrostátním orgánům. Poskytovatelé by dále během celého životního cyklu daného modelu měli zajišťovat náležitou úroveň ochrany jeho kybernetické bezpečnosti a případně jeho fyzické infrastruktury. Ochrana kybernetické bezpečnosti související se systémovými riziky spojenými se zneužitím nebo útoky by měla řádně zohledňovat nahodilý únik modelu, neoprávněné zpřístupnění, obcházení bezpečnostních opatření a obranu před kybernetickými útoky, neoprávněným přístupem nebo krádeží modelu. Tato ochrana by mohla být usnadněna zajištěním modelových vah, algoritmů, serverů a datových souborů, například prostřednictvím provozních bezpečnostních opatření pro bezpečnost informací, specifických politik kybernetické bezpečnosti, odpovídajících technických a zavedených řešení a kontrol kybernetického a fyzického přístupu, které odpovídají příslušným okolnostem a souvisejícím rizikům.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe