Responsible AI Platform

Annexe XI AI Act

Documentation technique visée à l'article 53, paragraphe 1, point a) – documentation technique pour les fournisseurs de modèles d'IA à usage général

Officiële tekst

Documentation technique visée à l'article 53, paragraphe 1, point a) – documentation technique pour les fournisseurs de modèles d'IA à usage général Section 1 Informations devant être fournies par tous les fournisseurs de modèles d'IA à usage général La documentation technique visée à l'article 53, paragraphe 1, point a), contient au moins les informations ci-après, en fonction de la taille et du profil de risque du modèle:

1. Une description générale du modèle d'IA à usage général, y compris:

a) les tâches que le modèle est censé accomplir ainsi que le type et la nature des systèmes d'IA dans lesquels il peut être intégré;

b) les politiques applicables en matière d'utilisation acceptable;

c) la date de publication et les méthodes de distribution;

d) l'architecture et le nombre de paramètres;

e) les modalités (p. ex.: texte, image) et le format des entrées et des sorties;

f) la licence.

2. Une description détaillée des éléments du modèle visés au point 1, et des informations pertinentes sur le processus de développement, y compris les éléments suivants:

a) les moyens techniques (p. ex.: notice d'utilisation, infrastructure, outils) nécessaires à l'intégration du modèle d'IA à usage général dans les systèmes d'IA;

b) les spécifications de conception du modèle et du processus d'entraînement, y compris les méthodes et techniques d'entraînement, les principaux choix de conception, y compris le raisonnement et les hypothèses retenues; ce que le modèle est conçu pour optimiser, ainsi que la pertinence des différents paramètres, le cas échéant;

c) des informations sur les données utilisées pour l'entraînement, les essais et la validation, le cas échéant, y compris le type et la provenance des données et les méthodes d'organisation (p. ex.: nettoyage, filtrage, etc.), le nombre de points de données, leur portée et leurs principales caractéristiques; la manière dont les données ont été obtenues et sélectionnées, ainsi que toutes les autres mesures visant à détecter l'inadéquation des sources de données et les méthodes permettant de détecter les biais identifiables, le cas échéant;

d) les ressources informatiques utilisées pour entraîner le modèle (p. ex.: nombre d'opérations en virgule flottante), le temps d'entraînement et d'autres détails pertinents liés à l'entraînement;

e) la consommation d'énergie connue ou estimée du modèle.

En ce qui concerne le point e), lorsque la consommation d'énergie du modèle est inconnue, la consommation d'énergie peut être estimée en s'appuyant sur des informations concernant les ressources informatiques utilisées.

Section 2 Informations devant être fournies par les fournisseurs de modèles d'IA à usage général présentant un risque systémique

1. Une description détaillée des stratégies d'évaluation, y compris les résultats de l'évaluation, sur la base des protocoles et outils d'évaluation publics disponibles ou d'autres méthodes d'évaluation. Les stratégies d'évaluation comprennent des critères, des indicateurs et les méthodes d'évaluation pour l'identification des limites.

2. Le cas échéant, une description détaillée des mesures mises en place pour effectuer des essais contradictoires internes et/ou externes (p. ex.: méthode de l'équipe rouge), des adaptations de modèles, y compris l'alignement et le réglage fin.

3. Le cas échéant, une description détaillée de l'architecture du système expliquant la manière dont les composants logiciels s'utilisent et s'alimentent les uns les autres ou s'intègrent dans le traitement global.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden

Veelgestelde vragen

Wat regelt Bijlage XI van de AI Act?

Bijlage XI beschrijft de technische documentatie die aanbieders van AI-modellen voor algemene doeleinden (GPAI) moeten opstellen conform artikel 53, lid 1, punt a). Het bevat twee secties: een voor alle GPAI-aanbieders en een extra sectie voor modellen met systeemrisico.

Wat moet in de technische documentatie van een GPAI-model?

Sectie 1 vereist: (1) algemene beschrijving inclusief taken, gebruiksbeleid, architectuur, parameters, modaliteiten en licentie, en (2) gedetailleerde beschrijving van ontwikkeling, trainingsmethodologieën, data, rekenkracht en energieverbruik.

Moet ik het energieverbruik van mijn AI-model documenteren?

Ja, punt 2e van Sectie 1 vereist het bekende of geschatte energieverbruik van het model. Als het exacte verbruik onbekend is, mag een schatting gebaseerd op gebruikte rekenkracht worden gegeven.

Welke extra documentatie is vereist voor GPAI met systeemrisico?

Sectie 2 vereist drie extra onderdelen: (1) gedetailleerde evaluatiestrategieën met resultaten en methoden, (2) beschrijving van adversarial testing (red teaming), alignment en fine-tuning, en (3) beschrijving van de systeemarchitectuur.

Moet ik mijn trainingsdata beschrijven?

Ja, punt 2c van Sectie 1 vereist informatie over trainings-, test- en validatiedata, inclusief type, herkomst, curatiemethoden, aantal datapunten, omvang, kenmerken, en maatregelen voor bias-detectie.

Verschilt Bijlage XI van Bijlage IV?

Ja, Bijlage IV is voor hoog-risico AI-systemen (artikel 11), terwijl Bijlage XI specifiek is voor GPAI-modellen (artikel 53). Bijlage XI focust meer op modelarchitectuur, trainingsdata en rekenkracht, terwijl Bijlage IV breder is met eisen voor risicobeheer en menselijk toezicht.

Wat is red teaming en waarom is het vereist?

Red teaming is adversarial testing waarbij het model wordt aangevallen om kwetsbaarheden te ontdekken. Sectie 2, punt 2 vereist dit voor GPAI-modellen met systeemrisico, inclusief beschrijving van alignment en fine-tuning maatregelen.

Hoeveel parameters moet mijn model hebben om onder Bijlage XI te vallen?

Bijlage XI geldt voor alle GPAI-modellen ongeacht grootte. Het aantal parameters moet worden gedocumenteerd (punt 1d), maar er is geen minimumdrempel. De extra eisen van Sectie 2 gelden alleen voor modellen met systeemrisico (artikel 51).