Responsible AI Platform

Annex XIII AI Act

Kritēriji atzīŔanai par vispārÄ«ga lietojuma MI modeli ar sistēmisku risku, kas minēts 51.Ā pantā

Officiƫle tekst

id="anx_XIIIĀ "> XIIIĀ PIELIKUMS Kritēriji atzīŔanai par vispārÄ«ga lietojuma MI modeli ar sistēmisku risku, kas minēts 51.Ā pantā Lai noteiktu, vai vispārÄ«ga lietojuma MI modelim ir spējas vai ietekme, kas ir lÄ«dzvērtÄ«ga 51.Ā panta 1.Ā punkta a)Ā apakÅ”punktā minētajām spējām vai ietekmei, Komisija ņem vērā Ŕādus kritērijus:

a) modeļa parametru skaits;

b) datu kopu kvalitāte vai lielums, piemēram, mērot ar datsegmentiem;

c) modeļa apmācÄ«bai izmantotais skaitļoÅ”anas resursu apjoms, mērÄ«ts peldoŔā punkta operācijās vai izteikts ar citu mainÄ«go lielumu kombināciju, piemēram, apmācÄ«bas lēstās izmaksas, lēstais apmācÄ«bai nepiecieÅ”amais laiks vai lēstais enerÄ£ijas patēriņŔ apmācÄ«bai;

d) modeļa ievades un izvades modalitātes, piemēram, no teksta uz tekstu (lielie valodu modeļi), no teksta uz attēlu, multimodalitāte un jaunākās robežvērtÄ«bas augstas ietekmes spēju noteikÅ”anai katrai modalitātei, un konkrētais ievaddatu un iznākumu veids (piemēram, bioloÄ£iskās sekvences);

e) modeļa spēju kritēriji un izvērtēŔanas, tostarp ņemot vērā uzdevumu skaitu bez papildu apmācÄ«bas, spēju pielāgoties jaunu, atŔķirÄ«gu uzdevumu apguvei, tā autonomijas pakāpi un mērogojamÄ«bu, rÄ«kus, kuriem tam ir piekļuve;

f) vai tam ir liela ietekme uz iekŔējo tirgu tā tvēruma dēļ – to tā pieņem, kad modelis ir darÄ«ts pieejams vismaz 10Ā 000 reÄ£istrētu komerciālo lietotāju, kas iedibināti SavienÄ«bā;

g) reģistrēto galalietotāju skaits.

ELI: http://data.europa.eu/eli/reg/2024/1689/oj ISSN 1977-0715 (electronic edition)

////////////////////////$(document).ready(function(){generateTOC(true,'', 'Uz paŔu augŔu','false');scrollToCurrentUrlAnchor();});

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

šŸ“¬ AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden

Veelgestelde vragen

Wat regelt Bijlage XIII van de AI Act?

Bijlage XIII beschrijft de criteria die de Europese Commissie gebruikt om te bepalen of een GPAI-model een systeemrisico vormt, conform artikel 51. Deze criteria bepalen of extra verplichtingen van toepassing zijn.

Welke criteria bepalen of een GPAI-model systeemrisico heeft?

Zeven criteria: (a) aantal parameters, (b) kwaliteit/grootte dataset, (c) hoeveelheid rekenkracht voor training, (d) input/output-modaliteiten en state-of-the-art drempels, (e) benchmarks en evaluaties, (f) impact op de interne markt (10.000+ zakelijke gebruikers), en (g) aantal geregistreerde eindgebruikers.

Is er een drempel voor het aantal parameters?

Bijlage XIII noemt het aantal parameters als criterium (punt a), maar stelt geen vaste drempel. Artikel 51, lid 1, punt a) noemt wel een drempel van 10^25 FLOP aan rekenkracht voor training als vermoeden van systeemrisico.

Wanneer wordt een model verondersteld systeemrisico te hebben?

Artikel 51, lid 2, bepaalt dat een model wordt verondersteld systeemrisico te hebben als de cumulatieve rekenkracht voor training meer dan 10^25 FLOP bedraagt. De Commissie kan deze drempel aanpassen via gedelegeerde handelingen.

Telt het aantal gebruikers mee voor systeemrisico?

Ja, punt f bepaalt dat hoge impact op de interne markt wordt vermoed als het model beschikbaar is gesteld aan ten minste 10.000 geregistreerde zakelijke gebruikers in de EU. Punt g verwijst ook naar het aantal eindgebruikers.

Zijn multimodale modellen sneller systeemrisico?

Bijlage XIII, punt d, noemt specifiek de input/output-modaliteiten (tekst-naar-tekst, tekst-naar-beeld, multimodaal) als criterium, met state-of-the-art drempels per modaliteit. Multimodale mogelijkheden kunnen dus bijdragen aan de classificatie.

Wie bepaalt of een model systeemrisico heeft?

De Europese Commissie bepaalt dit op basis van de criteria in Bijlage XIII en artikel 51. De aanbieder kan ook zelf melden dat zijn model systeemrisico heeft. De drempel van 10^25 FLOP creƫert een wettelijk vermoeden.

Wat zijn de gevolgen van classificatie als systeemrisico?

Aanbieders van GPAI-modellen met systeemrisico moeten extra verplichtingen naleven: modelevaluatie, adversarial testing, incidentrapportage aan het AI-bureau, en adequate cybersecuritybescherming (artikel 55).