Anhang XIII AI Act
Kriterien für die Benennung von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko gemäß Artikel 51
Officiële tekst
Kriterien für die Benennung von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko gemäß Artikel 51 Um festzustellen, ob ein KI-Modell mit allgemeinem Verwendungszweck über Fähigkeiten oder eine Wirkung verfügt, die den in Artikel 51 Absatz 1 Buchstabe a genannten gleichwertig sind, berücksichtigt die Kommission folgende Kriterien:
a) die Anzahl der Parameter des Modells;
b) die Qualität oder Größe des Datensatzes, zum Beispiel durch Tokens gemessen;
c) die Menge der für das Trainieren des Modells verwendeten Berechnungen, gemessen in Gleitkommaoperationen oder anhand einer Kombination anderer Variablen, wie geschätzte Trainingskosten, geschätzter Zeitaufwand für das Trainieren oder geschätzter Energieverbrauch für das Trainieren;
d) die Ein- und Ausgabemodalitäten des Modells, wie Text-Text (Große Sprachmodelle), Text-Bild, Multimodalität, Schwellenwerte auf dem Stand der Technik für die Bestimmung der Fähigkeiten mit hoher Wirkkraft für jede Modalität und die spezifische Art der Ein- und Ausgaben (zum Beispiel biologische Sequenzen);
e) die Benchmarks und Beurteilungen der Fähigkeiten des Modells, einschließlich unter Berücksichtigung der Zahl der Aufgaben ohne zusätzliches Training, der Anpassungsfähigkeit zum Erlernen neuer, unterschiedlicher Aufgaben, des Grades an Autonomie und Skalierbarkeit sowie der Instrumente, zu denen es Zugang hat;
f) ob es aufgrund seiner Reichweite große Auswirkungen auf den Binnenmarkt hat — davon wird ausgegangen, wenn es mindestens 10 000 in der Union niedergelassenen registrierten gewerblichen Nutzern zur Verfügung gestellt wurde;
g) die Zahl der registrierten Endnutzer.
ELI: http://data.europa.eu/eli/reg/2024/1689/oj ISSN 1977-0642 (electronic edition)
// // // // // // // // // // // // $(document).ready(function(){generateTOC(true,'', 'Seitenanfang','false');scrollToCurrentUrlAnchor();});
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Wat regelt Bijlage XIII van de AI Act?
Bijlage XIII beschrijft de criteria die de Europese Commissie gebruikt om te bepalen of een GPAI-model een systeemrisico vormt, conform artikel 51. Deze criteria bepalen of extra verplichtingen van toepassing zijn.
Welke criteria bepalen of een GPAI-model systeemrisico heeft?
Zeven criteria: (a) aantal parameters, (b) kwaliteit/grootte dataset, (c) hoeveelheid rekenkracht voor training, (d) input/output-modaliteiten en state-of-the-art drempels, (e) benchmarks en evaluaties, (f) impact op de interne markt (10.000+ zakelijke gebruikers), en (g) aantal geregistreerde eindgebruikers.
Is er een drempel voor het aantal parameters?
Bijlage XIII noemt het aantal parameters als criterium (punt a), maar stelt geen vaste drempel. Artikel 51, lid 1, punt a) noemt wel een drempel van 10^25 FLOP aan rekenkracht voor training als vermoeden van systeemrisico.
Wanneer wordt een model verondersteld systeemrisico te hebben?
Artikel 51, lid 2, bepaalt dat een model wordt verondersteld systeemrisico te hebben als de cumulatieve rekenkracht voor training meer dan 10^25 FLOP bedraagt. De Commissie kan deze drempel aanpassen via gedelegeerde handelingen.
Telt het aantal gebruikers mee voor systeemrisico?
Ja, punt f bepaalt dat hoge impact op de interne markt wordt vermoed als het model beschikbaar is gesteld aan ten minste 10.000 geregistreerde zakelijke gebruikers in de EU. Punt g verwijst ook naar het aantal eindgebruikers.
Zijn multimodale modellen sneller systeemrisico?
Bijlage XIII, punt d, noemt specifiek de input/output-modaliteiten (tekst-naar-tekst, tekst-naar-beeld, multimodaal) als criterium, met state-of-the-art drempels per modaliteit. Multimodale mogelijkheden kunnen dus bijdragen aan de classificatie.
Wie bepaalt of een model systeemrisico heeft?
De Europese Commissie bepaalt dit op basis van de criteria in Bijlage XIII en artikel 51. De aanbieder kan ook zelf melden dat zijn model systeemrisico heeft. De drempel van 10^25 FLOP creëert een wettelijk vermoeden.
Wat zijn de gevolgen van classificatie als systeemrisico?
Aanbieders van GPAI-modellen met systeemrisico moeten extra verplichtingen naleven: modelevaluatie, adversarial testing, incidentrapportage aan het AI-bureau, en adequate cybersecuritybescherming (artikel 55).