Responsible AI Platform

Annex XI AI Act

Documentația tehnică menționată la articolul 53 alineatul (1) litera (a) – documentația tehnică pentru furnizorii de modele de IA de uz general

Officiële tekst

Documentația tehnică menționată la articolul 53 alineatul (1) litera (a) – documentația tehnică pentru furnizorii de modele de IA de uz general Secțiunea 1 Informații care trebuie furnizate de toți furnizorii de modele de IA de uz general Documentația tehnică menționată la articolul 53 alineatul (1) litera (a) conține cel puțin următoarele informații, în funcție de dimensiunea și profilul de risc al modelului:

1. O descriere generală a modelului de IA de uz general, incluzând:

(a) sarcinile pe care modelul este destinat să le îndeplinească, precum și tipul și natura sistemelor de IA în care acesta poate fi integrat;

(b) politicile de utilizare acceptabile aplicabile;

(c) data eliberării și metodele de distribuție;

(d) arhitectura și numărul de parametri;

(e) modalitatea (de exemplu, text, imagine) și formatul datelor de intrare și de ieșire;

(f) licența.

2. O descriere detaliată a elementelor modelului menționate la punctul 1 și informații relevante privind procesul de dezvoltare, incluzând următoarele elemente:

(a) mijloacele tehnice (de exemplu, instrucțiuni de utilizare, infrastructură, instrumente) necesare pentru integrarea modelului de IA de uz general în sistemele de IA;

(b) specificațiile de proiectare ale modelului și ale procesului de antrenare, inclusiv metodologiile și tehnicile de antrenare, principalele opțiuni de proiectare, inclusiv justificarea și ipotezele formulate; ce anume este proiectat să optimizeze modelul și relevanța diverșilor parametri, după caz;

(c) informații privind datele utilizate pentru antrenare, testare și validare, după caz, inclusiv tipul și proveniența datelor și metodologiile de organizare (de exemplu, curățare, filtrare etc.), numărul de puncte de date, domeniul de aplicare și principalele caracteristici ale acestora; modul în care au fost obținute și selectate datele, precum și toate celelalte măsuri de detectare a caracterului inadecvat al surselor de date și metode de detectare a prejudecăților identificabile, după caz;

(d) resursele de calcul utilizate pentru antrenarea modelului (de exemplu, numărul de operații în virgulă mobilă), timpul de antrenare și alte detalii relevante legate de antrenare;

(e) consumul de energie cunoscut sau estimat al modelului.

În ceea ce privește litera (e), în cazul în care consumul de energie al modelului este necunoscut, consumul de energie se poate baza pe informații privind resursele de calcul utilizate.

Secțiunea 2 Informații suplimentare care trebuie furnizate de furnizorii de modele de IA de uz general cu risc sistemic

1. O descriere detaliată a strategiilor de evaluare, inclusiv a rezultatelor evaluării, pe baza protocoalelor și instrumentelor de evaluare publice disponibile sau a altor metodologii de evaluare. Strategiile de evaluare includ criterii de evaluare, indicatori și metodologia de identificare a limitărilor.

2. După caz, o descriere detaliată a măsurilor puse în aplicare în scopul efectuării de testări contradictorii interne și/sau externe (de exemplu, testare de tipul „echipa roșie”) și de adaptări ale modelelor, inclusiv aliniere și calibrare.

3. După caz, o descrierea detaliată a arhitecturii sistemului, care explică modul în care componentele de software se bazează una pe alta sau se susțin reciproc și se integrează în prelucrarea generală.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden

Veelgestelde vragen

Wat regelt Bijlage XI van de AI Act?

Bijlage XI beschrijft de technische documentatie die aanbieders van AI-modellen voor algemene doeleinden (GPAI) moeten opstellen conform artikel 53, lid 1, punt a). Het bevat twee secties: een voor alle GPAI-aanbieders en een extra sectie voor modellen met systeemrisico.

Wat moet in de technische documentatie van een GPAI-model?

Sectie 1 vereist: (1) algemene beschrijving inclusief taken, gebruiksbeleid, architectuur, parameters, modaliteiten en licentie, en (2) gedetailleerde beschrijving van ontwikkeling, trainingsmethodologieën, data, rekenkracht en energieverbruik.

Moet ik het energieverbruik van mijn AI-model documenteren?

Ja, punt 2e van Sectie 1 vereist het bekende of geschatte energieverbruik van het model. Als het exacte verbruik onbekend is, mag een schatting gebaseerd op gebruikte rekenkracht worden gegeven.

Welke extra documentatie is vereist voor GPAI met systeemrisico?

Sectie 2 vereist drie extra onderdelen: (1) gedetailleerde evaluatiestrategieën met resultaten en methoden, (2) beschrijving van adversarial testing (red teaming), alignment en fine-tuning, en (3) beschrijving van de systeemarchitectuur.

Moet ik mijn trainingsdata beschrijven?

Ja, punt 2c van Sectie 1 vereist informatie over trainings-, test- en validatiedata, inclusief type, herkomst, curatiemethoden, aantal datapunten, omvang, kenmerken, en maatregelen voor bias-detectie.

Verschilt Bijlage XI van Bijlage IV?

Ja, Bijlage IV is voor hoog-risico AI-systemen (artikel 11), terwijl Bijlage XI specifiek is voor GPAI-modellen (artikel 53). Bijlage XI focust meer op modelarchitectuur, trainingsdata en rekenkracht, terwijl Bijlage IV breder is met eisen voor risicobeheer en menselijk toezicht.

Wat is red teaming en waarom is het vereist?

Red teaming is adversarial testing waarbij het model wordt aangevallen om kwetsbaarheden te ontdekken. Sectie 2, punt 2 vereist dit voor GPAI-modellen met systeemrisico, inclusief beschrijving van alignment en fine-tuning maatregelen.

Hoeveel parameters moet mijn model hebben om onder Bijlage XI te vallen?

Bijlage XI geldt voor alle GPAI-modellen ongeacht grootte. Het aantal parameters moet worden gedocumenteerd (punt 1d), maar er is geen minimumdrempel. De extra eisen van Sectie 2 gelden alleen voor modellen met systeemrisico (artikel 51).