Responsible AI Platform
Recital 115 of 18064%

Recital 115 AI Act

Official text

id="rct_115">

(115)

Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi arvioitava ja lievennettävä mahdollisia systeemisiä riskejä. Jos yleiskäyttöisen tekoälymallin, johon voi liittyä systeemisiä riskejä, kehittäminen tai käyttö aiheuttaa vakavan vaaratilanteen huolimatta pyrkimyksistä tunnistaa ja ehkäistä malliin liittyviä riskejä, yleiskäyttöisen tekoälymallin tarjoajan olisi ilman aiheetonta viivytystä seurattava vaaratilannetta ja raportoitava merkityksellisistä tiedoista ja mahdollisista korjaavista toimenpiteistä komissiolle ja kansallisille toimivaltaisille viranomaisille. Tarjoajien olisi lisäksi varmistettava mallin ja tarvittaessa sen fyysisen infrastruktuurin kyberturvallisuussuojan riittävä taso mallin koko elinkaaren ajan. Kyberturvallisuussuojassa, jolla torjutaan vihamieliseen käyttöön tai hyökkäyksiin liittyviä systeemisiä riskejä, olisi otettava asianmukaisesti huomioon tahaton mallivuoto, luvattomat julkaisut, turvallisuustoimenpiteiden kiertäminen sekä suojautuminen kyberhyökkäyksiltä, luvattomalta pääsyltä tai mallivarkauksilta. Suojaamista voitaisiin helpottaa turvaamalla mallipainokertoimet, algoritmit, palvelimet ja tietokokonaisuudet esimerkiksi tietoturvaa koskevilla operatiivisilla turvallisuustoimenpiteillä, erityisillä kyberturvallisuusperiaatteilla, asianmukaisilla teknisillä ja vakiintuneilla ratkaisuilla sekä kyberkäytön ja fyysisen pääsyn valvonnalla asiaankuuluvista olosuhteista ja riskeistä riippuen.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe