Anexo XI AI Act
Documentación técnica a que se refiere el artículo 53, apartado 1, letra a) — documentación técnica para proveedores de modelos de IA de uso general
Official text
Documentación técnica a que se refiere el artículo 53, apartado 1, letra a) — documentación técnica para proveedores de modelos de IA de uso general Sección 1 Información que deben presentar los proveedores de modelos de IA de uso general La documentación técnica a que se refiere el artículo 53, apartado 1, letra a), incluirá como mínimo la siguiente información en función del tamaño y perfil de riesgo del modelo:
1. Una descripción general del modelo de IA de uso general que incluya:
a) las tareas que el modelo vaya a realizar y el tipo y la naturaleza de los sistemas de IA en los que puede integrarse;
b) las políticas de usos aceptables aplicables;
c) la fecha de lanzamiento y los métodos de distribución;
d) la arquitectura y el número de parámetros;
e) la modalidad (por ejemplo, texto, imagen) y el formato de las entradas y salidas;
f) la licencia.
2. Una descripción detallada de los elementos del modelo a que se refiere el punto 1 e información pertinente sobre el proceso de desarrollo que incluya los siguientes elementos:
a) los medios técnicos (por ejemplo, instrucciones de uso, infraestructura, herramientas) necesarios para integrar el modelo de IA de uso general en los sistemas de IA;
b) las especificaciones de diseño del modelo y el proceso de entrenamiento, incluidos los métodos y las técnicas de entrenamiento, las decisiones clave de diseño, incluidas la justificación lógica y los supuestos de los que se ha partido; aquello que el modelo está diseñado para optimizar y la pertinencia de los diversos parámetros, según proceda;
c) información sobre los datos utilizados para el entrenamiento, las pruebas y la validación, cuando proceda, incluidos el tipo y la procedencia de los datos y los métodos de gestión (por ejemplo, limpieza, filtrado, etc.), el número de puntos de datos, su alcance y sus principales características; cómo se obtuvieron y seleccionaron los datos, así como cualquier otra medida que permita detectar que las fuentes de datos no son idóneas y los métodos para detectar sesgos identificables, cuando proceda;
d) los recursos computacionales utilizados para entrenar el modelo (por ejemplo, número de operaciones de coma flotante, el tiempo de entrenamiento y otros detalles pertinentes relacionados con el mismo;
e) el consumo de energía conocido o estimado del modelo.
A propósito de la letra e), cuando se desconozca el consumo de energía del modelo, podrá hacerse una estimación del consumo de energía a partir de la información relativa a los recursos computacionales utilizados.
Sección 2 Información adicional que deben presentar los proveedores de modelos de IA de uso general con riesgo sistémico
1. Una descripción detallada de las estrategias de evaluación, con los resultados de la misma, sobre la base de los protocolos y herramientas de evaluación públicos disponibles o de otros métodos de evaluación. Las estrategias de evaluación incluirán los criterios de evaluación, los parámetros y el método de detección de limitaciones.
2. Cuando proceda, una descripción detallada de las medidas adoptadas para realizar pruebas adversarias internas o externas (por ejemplo, utilización de «equipos rojos») y adaptaciones de los modelos, incluida su alineación y puesta a punto.
3. Cuando proceda, una descripción detallada de la arquitectura del sistema, con una explicación de la manera en que se incorporan o enriquecen mutuamente los componentes del software y de la manera en que se integran en el procesamiento general.
Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.
📬 AI Act Weekly
Get the most important AI Act developments in your inbox every week.
SubscribeFrequently asked questions
What does Annex XI of the AI Act regulate?
Annex XI describes the technical documentation that providers of general-purpose AI (GPAI) models must prepare under Article 53(1)(a). It has two sections: one for all GPAI providers and an additional section for models with systemic risk.
What must be in the technical documentation of a GPAI model?
Section 1 requires: (1) general description including tasks, usage policies, architecture, parameters, modalities and licence, and (2) detailed description of development, training methodologies, data, computational resources and energy consumption.
Do I need to document my AI model's energy consumption?
Yes, point 2e of Section 1 requires the known or estimated energy consumption of the model. If exact consumption is unknown, an estimate based on computational resources used may be provided.
What extra documentation is required for GPAI with systemic risk?
Section 2 requires three additional elements: (1) detailed evaluation strategies with results and methods, (2) description of adversarial testing (red teaming), alignment and fine-tuning, and (3) description of system architecture.
Do I need to describe my training data?
Yes, point 2c of Section 1 requires information on training, testing and validation data, including type, provenance, curation methods, number of data points, scope, characteristics, and bias detection measures.
How does Annex XI differ from Annex IV?
Annex IV is for high-risk AI systems (Article 11), while Annex XI is specifically for GPAI models (Article 53). Annex XI focuses more on model architecture, training data and compute, while Annex IV is broader with requirements for risk management and human oversight.
What is red teaming and why is it required?
Red teaming is adversarial testing where the model is attacked to discover vulnerabilities. Section 2, point 2 requires this for GPAI models with systemic risk, including description of alignment and fine-tuning measures.
How many parameters must my model have to fall under Annex XI?
Annex XI applies to all GPAI models regardless of size. The number of parameters must be documented (point 1d), but there is no minimum threshold. The extra Section 2 requirements only apply to models with systemic risk (Article 51).