Annex XIII AI Act
Criterii pentru desemnarea modelelor de IA de uz general cu risc sistemic menționate la articolul 51
Official text
Criterii pentru desemnarea modelelor de IA de uz general cu risc sistemic menționate la articolul 51 Pentru a stabili dacă un model de IA de uz general are capabilitățile prevăzute la articolul 51 alineatul (1) litera (a) sau un impact echivalent acestora, Comisia ia în considerare următoarele criterii:
(a) numărul de parametri ai modelului;
(b) calitatea sau dimensiunea setului de date, de exemplu, măsurate în tokenuri;
(c) volumul de calcul utilizat pentru antrenarea modelului, măsurat în operații în virgulă mobilă sau indicat printr-o combinație de alte variabile, cum ar fi costul estimat al antrenării, timpul estimat necesar pentru antrenare sau consumul estimat de energie pentru antrenare;
(d) modalitățile de intrare și de ieșire ale modelului, cum ar fi text către text (modele lingvistice de mari dimensiuni), text către imagine și multimodalitatea, și pragurile conform celui mai avansat stadiu al tehnologiei pentru determinarea capabilităților cu impact ridicat pentru fiecare modalitate, precum și tipul specific de date de intrare și de ieșire (de exemplu, secvențe biologice);
(e) valorile de referință și evaluările capabilităților modelului, inclusiv luând în considerare numărul de sarcini posibile fără antrenare suplimentară, adaptabilitatea la învățarea de sarcini noi și distincte, nivelul său de autonomie și scalabilitate, instrumentele la care are acces;
(f) dacă are un impact ridicat asupra pieței interne din cauza amplorii utilizării sale, care este prezumat atunci când a fost pus la dispoziția a cel puțin 10 000 de utilizatori comerciali înregistrați stabiliți în Uniune;
(g) numărul de utilizatori finali înregistrați.
ELI: http://data.europa.eu/eli/reg/2024/1689/oj ISSN 1977-0782 (electronic edition)
////////////////////////$(document).ready(function(){generateTOC(true,'', 'Sus','false');scrollToCurrentUrlAnchor();});
Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.
📬 AI Act Weekly
Get the most important AI Act developments in your inbox every week.
SubscribeFrequently asked questions
What does Annex XIII of the AI Act regulate?
Annex XIII describes the criteria the European Commission uses to determine whether a GPAI model poses systemic risk, under Article 51. These criteria determine whether additional obligations apply.
Which criteria determine if a GPAI model has systemic risk?
Seven criteria: (a) number of parameters, (b) dataset quality/size, (c) amount of compute for training, (d) input/output modalities and state-of-the-art thresholds, (e) benchmarks and evaluations, (f) internal market impact (10,000+ business users), and (g) number of registered end-users.
Is there a threshold for the number of parameters?
Annex XIII lists number of parameters as a criterion (point a), but does not set a fixed threshold. Article 51(1)(a) does mention a threshold of 10^25 FLOP of compute for training as a presumption of systemic risk.
When is a model presumed to have systemic risk?
Article 51(2) provides that a model is presumed to have systemic risk if cumulative compute for training exceeds 10^25 FLOP. The Commission may adjust this threshold through delegated acts.
Does the number of users count for systemic risk?
Yes, point f states that high impact on the internal market is presumed when the model has been made available to at least 10,000 registered business users in the EU. Point g also references the number of end-users.
Are multimodal models more likely to be systemic risk?
Annex XIII, point d, specifically mentions input/output modalities (text-to-text, text-to-image, multimodal) as a criterion, with state-of-the-art thresholds per modality. Multimodal capabilities can therefore contribute to the classification.
Who determines whether a model has systemic risk?
The European Commission determines this based on the criteria in Annex XIII and Article 51. The provider may also self-declare that their model has systemic risk. The 10^25 FLOP threshold creates a legal presumption.
What are the consequences of systemic risk classification?
Providers of GPAI models with systemic risk must comply with additional obligations: model evaluation, adversarial testing, incident reporting to the AI Office, and adequate cybersecurity protection (Article 55).