Responsible AI Platform

Annex XI AI Act

class="oj-doc-ti" id="d1e38-141-1">PRILOGA XI

Official text

id="anx_XI"> PRILOGA XI Tehnična dokumentacija iz člena 53(1), točka (a) – tehnična dokumentacija za ponudnike modelov UI za splošne namene Oddelek 1 Informacije, ki jih predložijo vsi ponudniki modelov UI za splošne namene Tehnična dokumentacija iz člena 53(1), točka (a), vsebuje vsaj naslednje informacije, odvisno od velikosti in profila tveganja modela:

1. splošni opis modela UI za splošne namene, vključno z:

(a) nalogami, ki naj bi jih model opravljal, ter vrsto in naravo sistemov UI, v katere se lahko vključi;

(b) veljavnimi politikami glede sprejemljive uporabe;

(c) datumom, na katerega je bil objavljen, in metodami distribucije;

(d) arhitekturo in številom parametrov;

(e) načinom (npr. besedilo, slika) ter obliko vhodnih in izhodnih podatkov;

(f) licenco;

2. podrobni opis elementov modela iz točke 1 in ustrezne informacije o postopku razvoja, vključno z naslednjimi elementi:

(a) tehničnimi sredstvi (npr. navodila za uporabo, infrastruktura, orodja), potrebnimi za vključitev modela UI za splošne namene v sisteme UI;

(b) specifikacijami zasnove modela in postopkom učenja, vključno z metodologijami in tehnikami učenja, ključnimi odločitvami glede zasnove, tudi utemeljitev in predpostavke; informacijami o tem, kaj naj bi model optimiziral in kako pomembni so različni parametri, kot je ustrezno;

(c) informacijami o podatkih, uporabljenih za učenje, testiranje in validacijo, kadar je primerno, vključno z vrsto in izvorom podatkov ter metodologijami urejanja (npr. čiščenje, filtriranje itd.), številom podatkovnih točk, njihovim obsegom in glavnimi značilnostmi; načinom pridobitve in izbire podatkov ter po potrebi vsemi drugimi ukrepi za odkrivanje neprimernosti virov podatkov in metod za zaznavanje prepoznavnih pristranskosti;

(d) računalniškimi viri, ki se uporabljajo za učenje modela (npr. število operacij s plavajočo vejico), čas učenja in druge pomembne podrobnosti v zvezi z učenjem;

(e) znano ali ocenjeno energetsko porabo modela.

Kadar energetska poraba modela iz točke (e) ni znana, lahko energetska poraba temelji na informacijah o uporabljenih računalniških virih.

Oddelek 2 Dodatne informacije, ki jih predložijo ponudniki modelov UI za splošne namene s sistemskim tveganjem

1. podrobni opis strategij ocenjevanja, vključno z rezultati ocenjevanja, na podlagi razpoložljivih javnih protokolov in orodij za ocenjevanje ali drugih metodologij za ocenjevanje. Strategije ocenjevanja vključujejo merila za ocenjevanje, metrike in metodologijo za opredelitev omejitev;

2. kadar je ustrezno, podrobni opis ukrepov, sprejetih za izvajanje notranjega in/ali zunanjega preskušanja po načelu kontradiktornosti (npr. etični heking) in prilagoditve modela, vključno z uskladitvami in izpopolnitvami;

3. kadar je ustrezno, podrobni opis arhitekture sistema, ki pojasnjuje, kako se sestavni deli programske opreme medsebojno nadgrajujejo ali navezujejo in kako so vključeni v celotno obdelavo.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe

Frequently asked questions

What does Annex XI of the AI Act regulate?

Annex XI describes the technical documentation that providers of general-purpose AI (GPAI) models must prepare under Article 53(1)(a). It has two sections: one for all GPAI providers and an additional section for models with systemic risk.

What must be in the technical documentation of a GPAI model?

Section 1 requires: (1) general description including tasks, usage policies, architecture, parameters, modalities and licence, and (2) detailed description of development, training methodologies, data, computational resources and energy consumption.

Do I need to document my AI model's energy consumption?

Yes, point 2e of Section 1 requires the known or estimated energy consumption of the model. If exact consumption is unknown, an estimate based on computational resources used may be provided.

What extra documentation is required for GPAI with systemic risk?

Section 2 requires three additional elements: (1) detailed evaluation strategies with results and methods, (2) description of adversarial testing (red teaming), alignment and fine-tuning, and (3) description of system architecture.

Do I need to describe my training data?

Yes, point 2c of Section 1 requires information on training, testing and validation data, including type, provenance, curation methods, number of data points, scope, characteristics, and bias detection measures.

How does Annex XI differ from Annex IV?

Annex IV is for high-risk AI systems (Article 11), while Annex XI is specifically for GPAI models (Article 53). Annex XI focuses more on model architecture, training data and compute, while Annex IV is broader with requirements for risk management and human oversight.

What is red teaming and why is it required?

Red teaming is adversarial testing where the model is attacked to discover vulnerabilities. Section 2, point 2 requires this for GPAI models with systemic risk, including description of alignment and fine-tuning measures.

How many parameters must my model have to fall under Annex XI?

Annex XI applies to all GPAI models regardless of size. The number of parameters must be documented (point 1d), but there is no minimum threshold. The extra Section 2 requirements only apply to models with systemic risk (Article 51).