Governance-architectuur in Brussel: de wetenschappelijke advieslaag komt eraan

••12 min leestijd
Engelse versie niet beschikbaar

Hoe de wetenschappelijke advieslaag van de AI Act evaluatiestandaarden en meetlinten concreet maakt

Belangrijke ontwikkeling: De Scientific Panel van de EU AI Act, bestaande uit 60 onafhankelijke experts, start in 2026 met advisering over GPAI, systemische risico's en evaluatiemethoden. Deze wetenschappelijke advieslaag bepaalt mede hoe modelclassificatie, risicodrempels en toetskaders in de praktijk worden vormgegeven.

Waarom deze advieslaag verder reikt dan technische expertise

In Brussel wordt de AI-governance laag voor laag opgebouwd. Naast het AI Office dat de dagelijkse implementatie van de AI Act trekt, krijgt Europa een wetenschappelijke advieslaag die het technische fundament moet leggen onder beleid en toezicht. In recente analyses werd bevestigd dat de Scientific Panel naar verwachting uit 60 onafhankelijke experts zal bestaan, met termijnen van twee jaar, die vanaf 2026 het AI Office gaan adviseren over onder meer general-purpose AI (GPAI), systemische risico's en methoden voor evaluatie en markttoezicht. Deze samenstelling volgt op de wervingsronde die deze zomer openstond. Dit is precies de plek waar technische diepgang het beleid raakt: modelclassificatie, risicodrempels en toetskaders worden hier uitgedacht voordat ze landen bij markttoezicht en organisaties. (Tech Policy Press)

Wat is de Scientific Panel precies

De Scientific Panel is een door de Europese Commissie geselecteerde groep onafhankelijke deskundigen die het AI Office en de nationale autoriteiten ondersteunt bij uitvoering en handhaving van de AI Act. De basis is verankerd in de verordening: de leden worden gekozen op actuele wetenschappelijke en technische expertise, werken in persoonlijke hoedanigheid en moeten onafhankelijk zijn van aanbieders van AI-systemen of GPAI-modellen. Het gaat om een paneel van maximaal 60 experts, met waarborgen voor geografische spreiding en evenwicht. De leden worden voor twee jaar benoemd, met mogelijkheid tot verlenging. (artificialintelligenceact.eu)

Samenstelling en werkwijze Scientific Panel

Kerngegevens:

  • 60 onafhankelijke experts met wetenschappelijke en technische expertise
  • 2-jarige termijn met mogelijkheid tot verlenging
  • Persoonlijke hoedanigheid - geen vertegenwoordiging van organisaties
  • Onafhankelijkheid van AI-providers en GPAI-modellen verplicht
  • Geografische spreiding en evenwicht gewaarborgd
  • Focus op: GPAI, systemische risico's, evaluatiemethoden, markttoezicht

In juni 2025 heeft de Commissie een officiƫle oproep gepubliceerd voor kandidaten. In de bijbehorende Q&A is toegelicht dat het panel de implementatie en handhaving zal ondersteunen, met een focus op GPAI, evaluatiemethodologieƫn, cross-border markttoezicht en opkomende risico's. Na sluiting van de aanmeldtermijn in september 2025 kan selectie en installatie volgen richting 2026, wanneer ook de eerste adviezen worden verwacht. (digital-strategy.ec.europa.eu)

Waarom deze laag telt in de Brusselse architectuur

De AI Act introduceert verschillende bestuurlijke lagen. Het AI Office fungeert als uitvoerende kern in de Commissie, met inmiddels meer dan 125 medewerkers en verdere groei op komst. Daarnaast bestaat er een AI Board met vertegenwoordigers van lidstaten en een Advisory Forum voor stakeholders. De Scientific Panel voegt daar een technisch-wetenschappelijke pijler aan toe die niet politiek, maar methodologisch en inhoudelijk stuurt. Het doel is consistentie: dezelfde terminologie, dezelfde testmethoden en dezelfde bewijslast over de Unie heen. (digital-strategy.ec.europa.eu)

De vier pijlers van EU AI governance

AI Office
Uitvoerende kern, 125+ medewerkers, dagelijkse implementatie
AI Board
Vertegenwoordigers van lidstaten, politieke afstemming
Advisory Forum
Stakeholder-input, praktijkervaringen uit het veld
Scientific Panel
Technisch-wetenschappelijke advieslaag, methodologische ruggengraat

Precies op die punten is fragmentatie nu de grootste tegenkracht. Voor aanbieders en gebruikers is het verschil tussen "rijp" en "niet rijp" vaak niet de ambitie, maar de vraag of er duidelijke en reproduceerbare evaluatiekaders zijn. Het panel kan hierbij drie hiaten dichten:

Drie cruciale bruggen die het Scientific Panel slaat:

  1. Van wet naar praktijk: Vertaling van brede wettelijke plichten naar concreet toetsbare eisen
  2. Gemeenschappelijke taal: Een uniform begrippenkader voor risico's die nu als heterogeen worden ervaren
  3. Academisch naar operationeel: Een brug tussen academische state-of-the-art en de pragmatiek van toezicht en productontwikkeling

Recente berichtgeving benadrukt dat het panel zich expliciet richt op GPAI, systemische risico's en evaluatiemethoden. Dat verkleint de ruimte voor uiteenlopende interpretaties in sectorspecifieke toepassingen. (Tech Policy Press)

Van principes naar meetlinten: wat verandert er in de praktijk

Wie met foundation-modellen of GPAI werkt, weet hoe lastig het is om abstracte zorgplichten om te zetten naar aantoonbare conformiteit. Denk aan de vraag welke evaluaties voldoende zijn om modelgedrag te onderbouwen. Het paneel wordt het forum waar zulke vragen geoperationaliseerd worden. In de praktijk valt dan aan de volgende bewegingen te denken.

Allereerst een set van referentiekaders voor evaluatie. Niet als losse benchmarks, maar als samenhangende methodologieƫn die aansluiten bij de risicogebaseerde aanpak uit de wet. Een modelclassificatie die niet alleen naar input-output kijkt, maar ook naar modaliteit, schaal, adaptiviteit en context van gebruik, dwingt tot andere bewijsvoering dan nu gebruikelijk is. Dat vereist datasheets die verder gaan dan dataset-inventarissen en die de herleidbaarheid, herhaalbaarheid en grensgevallen van evaluaties beter documenteren. Verwacht dat hier wordt gestuurd op reproduceerbare experimenten, inclusief protocollen voor red teaming, capability discovery en stress-tests.

Ten tweede, systemische risico's krijgen een werkbare ondergrens. Tot nu toe wordt "systemisch" vaak associatief gebruikt, bijvoorbeeld bij modellen die wijd verspreid zijn of een ecosysteem aansturen. Maar om toezicht te laten werken, is een toetsbaar profiel nodig: welke capaciteiten, welke schaalindicatoren, welke afhankelijkheden, welke potentiƫle amplificatiemechanismen en welke externeities. Een advieskader uit de Scientific Panel kan helpen om drempels te kwantificeren, inclusief indicatoren voor monitoring in productieomgevingen. Tech-analyses van de afgelopen dagen zetten dit zo neer: het paneel is precies de plek waar die drempels een methodische uitwerking krijgen. (Tech Policy Press)

Ten derde, markttoezicht wordt voorspelbaarder. Nationale autoriteiten verschillen in ervaring met AI-evaluaties en modelinspecties. Een gezamenlijke methodeset, mede vormgegeven door de Scientific Panel, maakt het eenvoudiger om cross-border consistentie te bereiken. Dat geldt niet alleen voor GPAI-aanbieders, maar ook voor high-risk-toepassingen waar derde partijen modellen integreren in producten of diensten. De verwachting is dat het paneel formats zal uitwerken voor rapportages die toezichthouders in alle lidstaten kunnen lezen en hergebruiken. Bij zulke formats hoort ook een duidelijke scheiding tussen vertrouwelijke modelinformatie en publiek-verantwoordelijke disclosure, zodat innovatie kan doorgaan zonder dat toezicht tandeloos wordt. De Commissie heeft in de wervingsstukken voor het paneel nadrukkelijk gewezen op bijdragen aan evaluatiemethodologieƫn en grensoverschrijdend toezicht. (digital-strategy.ec.europa.eu)

De positie ten opzichte van normen en standaarden

De adviezen van de Scientific Panel staan niet op zichzelf. In de Europese praktijk werken regelgeving, geharmoniseerde normen en toezichthandreikingen samen. De paneladviezen kunnen zo de brug vormen tussen de open normen in de AI Act en de technische invulling via normen onder CEN/CENELEC en internationale standaarden. Waar een norm een proces of meetmethode specificeert, kan het paneel toelichten welke methode in welke risicocontour passend is. Dat maakt het eenvoudiger om aan te sluiten bij de "presumption of conformity" zodra geharmoniseerde normen beschikbaar zijn. Een aantal berichtgevingen in het najaar benadrukt dat juist die koppeling tussen methode en risicoprofiel de komende maanden vorm krijgt richting 2026. (Tech Policy Press)

Tijdlijn: van call naar invloed

Belangrijke mijlpalen Scientific Panel

16 juni 2025
Publicatie call for experts door Europese Commissie
Augustus 2025
Q&A gepubliceerd met toelatingscriteria en takenoverzicht
Sept 2025
Sluiting aanmeldtermijn voor kandidaten
2026
Selectie, installatie en start werkzaamheden panel
2026
Eerste adviezen over evaluatiemethoden en risicodrempels verwacht

Deze timing sluit aan op de gefaseerde inwerkingtreding van de AI Act en de groei van het AI Office. Voor organisaties betekent dit dat 2025 het jaar van voorbereiding is en 2026 het jaar waarin een herkenbare lijn in evaluaties en rapportages zichtbaar wordt. (digital-strategy.ec.europa.eu)

Wat dit betekent voor aanbieders van foundation-modellen

Voor GPAI-aanbieders ontstaat een duidelijker speelveld. Waar nu nog veel interpretatie nodig is bij de vraag welke capability-evaluaties volstaan, zal het paneel naar verwachting prioriteiten aangeven: welke risico's eerst, welke experimenten minimaal, welke documentatie herbruikbaar. Benchmarking krijgt meer samenhang, met nadruk op uitlegbaarheid van metingen en het voorkomen van metric-gaming. Belangrijker nog: het gesprek met toezichthouders wordt inhoudelijker. Niet de marketingclaims, maar de reproduceerbare testresultaten vormen straks het uitgangspunt. De recente berichtgeving onderstreept dat dit de arena is waar evaluatiestandaarden en meetlinten echt vorm krijgen. (Tech Policy Press)

Tegelijk is het verstandig te anticiperen op vragen over systemische risico's. Modellen die brede downstream-impact hebben, zullen moeten laten zien hoe ze risico-amplificatie beperken. Denk aan mechanismen voor capability containment, beleid voor model-enrichment in de keten, en procedures voor tijdige correctie van schadelijke emergente eigenschappen. De paneladviezen zullen naar verwachting richting geven aan drempelwaarden en aan wat "aantonen" in de praktijk betekent.

Wat dit betekent voor deployers in publieke en private sector

Deployers winnen vooral aan voorspelbaarheid. Als evaluatiemethoden en rapportageformats uniformer worden, kunnen interne beoordelingen — bijvoorbeeld AI impact assessments of inkoopdossiers — beter aansluiten op de verwachtingen van toezichthouders. Dit helpt bij aanbestedingen, vendor-due-diligence en bij verantwoording richting management en maatschappij. Bovendien vergroot een gemeenschappelijk begrippenkader de uitwisselbaarheid van auditbevindingen, zodat lessons learned sneller hun weg vinden tussen sectoren.

Voor zorg, onderwijs, mobiliteit en veiligheidskritische domeinen levert dit een concreet voordeel op. Daar is de druk om te laten zien dat evaluaties robuust en herhaalbaar zijn het hoogst. Een Europese methodeset, gesteund door de Scientific Panel en door het AI Office uitgedragen, verkleint de kans op uiteenlopende eisen in verschillende lidstaten. De Commissie heeft expliciet aangegeven dat het panel ook bedoeld is om de handhaving te ondersteunen en de consistentie te vergroten. (digital-strategy.ec.europa.eu)

Hoe u zich nu voorbereidt

Drie voorbereidingsstappen voor organisaties

1. Inventariseer uw model- en use-case-portfolio

Begin met een overzicht in het licht van GPAI- en high-risk-verplichtingen. Breng in kaart welke evaluaties u al hebt, welke reproduceerbaar zijn en welke gaten bestaan. Leg vast welke datasets, prompts, adversarial scenario's en red-teamingresultaten u gebruikt. Zorg dat uw experimentopzet herhaalbaar is en dat u versies, configuraties en randvoorwaarden netjes logt.

2. Bouw een documentatie-laag met Europese terminologie

Dezelfde term kan in interne documenten, vendor-documentatie en toezichtrapportage net iets anders betekenen. Werk naar een intern woordenboek dat aansluit op de begrippen die het AI Office en de Scientific Panel gebruiken. Maak een rapportage-skeleton dat u later kunt vullen volgens de formats die uit Brussel komen.

3. Volg het selectie- en installatieproces actief

De call en Q&A geven een goed beeld van de scope en verwachtingen. Zodra de eerste werkprogramma's of consultaties verschijnen, wilt u snel kunnen inschalen of reageren. Denk aan het inbrengen van praktijkcases of het delen van evaluatieresultaten die representatief zijn voor uw domein.

Als u nu al werkt met externe auditors of technische due-diligence, betrek hen dan bij het ontwerpen van uw evaluatie-setup. Zij weten welke vragen terugkomen en welke bewijsstukken het verschil maken. De Commissie heeft de reikwijdte helder geschetst: bijdragen aan evaluatiemethoden, GPAI-advies en grensoverschrijdend toezicht. Daar liggen voor organisaties concrete haakjes om kennis te delen en feedback te geven. (digital-strategy.ec.europa.eu)

De onderstroom: ƩƩn Europese meetcultuur

Wie de governance-architectuur in Brussel in kaart brengt, ziet een duidelijke beweging. Het AI Office bouwt capaciteit op en trekt de implementatie. De AI Board houdt de lidstaten op ƩƩn lijn. Het Advisory Forum brengt stakeholderervaring naar binnen. En de Scientific Panel voegt daar de noodzakelijke methodologische ruggengraat aan toe. Het gezamenlijke doel is niet meer papier, maar minder ruis. EƩn meetcultuur, waardoor aanbieders weten wat ze moeten aantonen en toezichthouders weten wat ze mogen verwachten.

Voor aanbieders van foundation-modellen is dit het moment om te investeren in evaluatie-discipline. Voor deployers in sectoren met hoge verwachtingen is dit het moment om interne governance te herijken op reproduceerbare tests en heldere rapportages. 2026 wordt dan niet het jaar waarin iedereen opnieuw moet uitvinden hoe te toetsen, maar het jaar waarin Europa eindelijk eenduidig maakt hoe kwaliteit en risico in AI zichtbaar en bespreekbaar worden. De contouren daarvan zijn inmiddels helder in de officiƫle aankondigingen en in recente analyses. (digital-strategy.ec.europa.eu)

Kernboodschap voor organisaties: Begin nu met het opzetten van reproduceerbare evaluatie-processen en documentatie die aansluit op Europese terminologie. Zodra de Scientific Panel in 2026 start met het uitbrengen van adviezen, kunt u dan direct aansluiten op de uniforme methodologieƫn in plaats van achteraf aan te moeten passen.


Bronnen en verdere verdieping