Annex XI AI Act
Documentația tehnică menționată la articolul 53 alineatul (1) litera (a) – documentația tehnică pentru furnizorii de modele de IA de uz general
Official text
Documentația tehnică menționată la articolul 53 alineatul (1) litera (a) – documentația tehnică pentru furnizorii de modele de IA de uz general Secțiunea 1 Informații care trebuie furnizate de toți furnizorii de modele de IA de uz general Documentația tehnică menționată la articolul 53 alineatul (1) litera (a) conține cel puțin următoarele informații, în funcție de dimensiunea și profilul de risc al modelului:
1. O descriere generală a modelului de IA de uz general, incluzând:
(a) sarcinile pe care modelul este destinat să le îndeplinească, precum și tipul și natura sistemelor de IA în care acesta poate fi integrat;
(b) politicile de utilizare acceptabile aplicabile;
(c) data eliberării și metodele de distribuție;
(d) arhitectura și numărul de parametri;
(e) modalitatea (de exemplu, text, imagine) și formatul datelor de intrare și de ieșire;
(f) licența.
2. O descriere detaliată a elementelor modelului menționate la punctul 1 și informații relevante privind procesul de dezvoltare, incluzând următoarele elemente:
(a) mijloacele tehnice (de exemplu, instrucțiuni de utilizare, infrastructură, instrumente) necesare pentru integrarea modelului de IA de uz general în sistemele de IA;
(b) specificațiile de proiectare ale modelului și ale procesului de antrenare, inclusiv metodologiile și tehnicile de antrenare, principalele opțiuni de proiectare, inclusiv justificarea și ipotezele formulate; ce anume este proiectat să optimizeze modelul și relevanța diverșilor parametri, după caz;
(c) informații privind datele utilizate pentru antrenare, testare și validare, după caz, inclusiv tipul și proveniența datelor și metodologiile de organizare (de exemplu, curățare, filtrare etc.), numărul de puncte de date, domeniul de aplicare și principalele caracteristici ale acestora; modul în care au fost obținute și selectate datele, precum și toate celelalte măsuri de detectare a caracterului inadecvat al surselor de date și metode de detectare a prejudecăților identificabile, după caz;
(d) resursele de calcul utilizate pentru antrenarea modelului (de exemplu, numărul de operații în virgulă mobilă), timpul de antrenare și alte detalii relevante legate de antrenare;
(e) consumul de energie cunoscut sau estimat al modelului.
În ceea ce privește litera (e), în cazul în care consumul de energie al modelului este necunoscut, consumul de energie se poate baza pe informații privind resursele de calcul utilizate.
Secțiunea 2 Informații suplimentare care trebuie furnizate de furnizorii de modele de IA de uz general cu risc sistemic
1. O descriere detaliată a strategiilor de evaluare, inclusiv a rezultatelor evaluării, pe baza protocoalelor și instrumentelor de evaluare publice disponibile sau a altor metodologii de evaluare. Strategiile de evaluare includ criterii de evaluare, indicatori și metodologia de identificare a limitărilor.
2. După caz, o descriere detaliată a măsurilor puse în aplicare în scopul efectuării de testări contradictorii interne și/sau externe (de exemplu, testare de tipul „echipa roșie”) și de adaptări ale modelelor, inclusiv aliniere și calibrare.
3. După caz, o descrierea detaliată a arhitecturii sistemului, care explică modul în care componentele de software se bazează una pe alta sau se susțin reciproc și se integrează în prelucrarea generală.
Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.
📬 AI Act Weekly
Get the most important AI Act developments in your inbox every week.
SubscribeFrequently asked questions
What does Annex XI of the AI Act regulate?
Annex XI describes the technical documentation that providers of general-purpose AI (GPAI) models must prepare under Article 53(1)(a). It has two sections: one for all GPAI providers and an additional section for models with systemic risk.
What must be in the technical documentation of a GPAI model?
Section 1 requires: (1) general description including tasks, usage policies, architecture, parameters, modalities and licence, and (2) detailed description of development, training methodologies, data, computational resources and energy consumption.
Do I need to document my AI model's energy consumption?
Yes, point 2e of Section 1 requires the known or estimated energy consumption of the model. If exact consumption is unknown, an estimate based on computational resources used may be provided.
What extra documentation is required for GPAI with systemic risk?
Section 2 requires three additional elements: (1) detailed evaluation strategies with results and methods, (2) description of adversarial testing (red teaming), alignment and fine-tuning, and (3) description of system architecture.
Do I need to describe my training data?
Yes, point 2c of Section 1 requires information on training, testing and validation data, including type, provenance, curation methods, number of data points, scope, characteristics, and bias detection measures.
How does Annex XI differ from Annex IV?
Annex IV is for high-risk AI systems (Article 11), while Annex XI is specifically for GPAI models (Article 53). Annex XI focuses more on model architecture, training data and compute, while Annex IV is broader with requirements for risk management and human oversight.
What is red teaming and why is it required?
Red teaming is adversarial testing where the model is attacked to discover vulnerabilities. Section 2, point 2 requires this for GPAI models with systemic risk, including description of alignment and fine-tuning measures.
How many parameters must my model have to fall under Annex XI?
Annex XI applies to all GPAI models regardless of size. The number of parameters must be documented (point 1d), but there is no minimum threshold. The extra Section 2 requirements only apply to models with systemic risk (Article 51).