Meer dan 100 internationale experts, aangestuurd door Turing Award-winnaar Yoshua Bengio, publiceerden het meest uitgebreide AI-veiligheidsrapport tot nu toe. De conclusies zijn helder: AI wordt krachtiger, de risico's zijn reeel, en de maatregelen hinken achterop.
80% van de Fortune 500 gebruikt actief AI agents, maar slechts 1 op de 5 heeft volwassen governance. De combinatie van shadow AI, autonome besluitvorming en de EU AI Act maakt dit het urgentste compliance-thema van 2026.
De GPAI Code of Practice Signatory Taskforce bepaalt de regels voor AI-modellen zoals GPT en Gemini. Wat betekent dit voor organisaties die AI bouwen of gebruiken?
Nieuw Anthropic-onderzoek toont aan dat AI-assistenten in zeldzame gevallen gebruikers kunnen 'ontkrachten'. Wat betekent dit voor organisaties die AI implementeren, en hoe voorkom je het?
Meer dan 70% van de banken gebruikt al agentic AI, maar governance frameworks lopen achter. Met de EU AI Act deadline van augustus 2026 in zicht, is de tijd om te handelen nu.
"Moeten we dit AI-systeem registreren?" is een van de vragen die je in bijna elke AI-governance-discussie hoort. Er zijn drie verschillende dingen die met "registreren" worden bedoeld. Dit blog brengt de registratieverplichtingen onder de EU AI Act terug naar de kern.
Een holistisch overzicht van de EU AI Act ontwikkelingen in 2025: gefaseerde invoering, politieke mijlpalen, nationale implementatie, reacties van het bedrijfsleven en een vooruitblik op de cruciale deadlines in 2026.
De eerste draft van de Code of Practice over transparantie bij AI-content is gepubliceerd. Dit artikel laat zien hoe je Artikel 50 inricht in processen, tooling en UI, met een duidelijke scheiding tussen provider- en deployer-plichten.
De Europese Commissie heeft een eerste concept gepubliceerd van een Code of Practice over transparantie rond AI-gegenereerde en AI-gemanipuleerde content. Dit artikel analyseert de eisen voor providers en deployers, en biedt praktische handvatten voor implementatie.
AGI is geen afgebakend begrip, maar een spectrum van steeds bredere en autonomere AI-systemen. De EU AI Act reguleert AGI niet als label, maar wel via general-purpose AI-regels en risico-gebaseerde eisen. Hoe implementeer je AGI-achtige systemen verantwoord?
AI alignment klinkt als een technisch thema voor labs en researchers, maar in de praktijk raakt het bestuurders, toezichthouders en productteams dagelijks: doet een AI-systeem werkelijk wat we beogen? De vraag of Europa dit voldoende tackelt met wetgeving, hangt af van welke laag van alignment je bedoelt.
De Europese Commissie heeft een consultatie geopend over de opzet en werking van AI regulatory sandboxes. Dit artikel analyseert Artikel 57 en geeft praktische handvatten voor sandbox-voorbereiding richting augustus 2026.
De Digital Omnibus is bedoeld om het versnipperde Europese digitale regelboek op te schonen. Toen er een conceptversie uitlekte, sloegen organisaties alarm. Op 19 november publiceerde de Commissie de officiële voorstellen. Wat bleef overeind en wat werd bijgesteld?
De Europese Commissie werkt aan de Digital Omnibus om digitale regelgeving te vereenvoudigen. Maar maatschappelijke organisaties waarschuwen: dit gaat verder dan technische aanpassingen. Analyses van gelekte concepten tonen wijzigingen aan GDPR, AI Act en e-Privacy die fundamentele bescherming kunnen verzwakken.
Zeven rechtszaken tegen OpenAI leggen bloot hoe ChatGPT kwetsbare gebruikers zou hebben aangezet tot zelfmoord en versterkte in waanideeën. De claims variëren van wrongful death tot productaansprakelijkheid en stellen vragen bij de snelheid waarmee GPT-4o werd uitgebracht en het ontbreken van crisis-detectie.
De European Data Protection Supervisor publiceerde op 28 oktober 2025 een herziene versie van het GenAI-richtsnoer. Met een praktische compliance-checklist, heldere rolverdeling en concrete handvatten voor ontwikkeling tot beheer wordt duidelijker wat organisaties moeten doen bij inzet van generatieve AI.
CEN en CENELEC hebben uitzonderlijke maatregelen genomen om kernstandaarden voor de EU AI Act sneller op te leveren. Met een duidelijke tijdlijn richting 2026 wordt compliance steeds minder abstract. Ontdek wat dit betekent en hoe je je vandaag al kunt voorbereiden.
Tot 7 november 2025 vraagt de Europese Commissie om feedback op het concept-richtsnoer en rapportagemodel voor het melden van ernstige AI-incidenten. Voor organisaties die AI inzetten in veiligheidskritische domeinen is dit hét moment om mee te praten over de geharmoniseerde meldketen.
De EU AI Act krijgt een Scientific Panel van 60 onafhankelijke experts die vanaf 2026 het technische fundament legt onder beleid en toezicht. Wat betekent deze wetenschappelijke advieslaag voor organisaties die met GPAI en high-risk AI werken?
De Autoriteit Persoonsgegevens testte vier AI-chatbots als stemhulp en ontdekte een alarmerend patroon: meer dan de helft van alle adviezen ging naar slechts twee partijen, ongeacht het kiezersprofiel. Wat betekent dit voor organisaties die chatfuncties aanbieden?
De Europese Commissie en EDPB publiceerden gezamenlijke richtlijnen die voor het eerst verduidelijken hoe de Digital Markets Act en AVG samenkomen. Voor gatekeepers zoals Meta, Google en Apple betekent dit een fundamentele verschuiving in hoe zij toestemming moeten vragen en data mogen combineren.
Terwijl penalty provisions sinds augustus 2025 van kracht zijn, toont de realiteit een gefragmenteerd beeld van enforcement-gereedheid. Een analyse van compliance gaps, nationale autoriteiten en praktische voorbereidingsstappen.
2025 markeert een kanteljaar in AI Governance: van experimentele frameworks naar operationele compliance. Een analyse van de dominante trends, praktische uitdagingen en strategische kansen voor organisaties.
Hoe je van een ‘vrijwillige’ GPAI‑code een volwassen vendor‑assuranceproces maakt met duidelijke afspraken, bewijs en een realistische route naar EN‑normen.
De EU heeft een Code of Practice voor general-purpose AI (GPAI) gepubliceerd die aanbieders helpt voldoen aan transparantie, copyright en veiligheid. Formeel vrijwillig, maar praktisch vertaling van AI Act-verplichtingen. Leer hoe je dit contractueel verankert met concrete clausulevoorbeelden.
De Europese Commissie heeft een officieel template gepubliceerd voor publiekssamenvatting van trainingscontent. Een praktische gids om te voldoen aan de transparantieverplichting voor general-purpose AI modellen.
De Europese Commissie heeft in februari 2025 de AI Liability Directive ingetrokken vanwege gebrek aan consensus. Dit heeft belangrijke gevolgen voor AI-aansprakelijkheid binnen de EU.
DPIA of FRIA nodig? Ontdek de 5 belangrijkste verschillen tussen deze impact assessments + download praktische checklist. Volledige vergelijkingstabel voor EU AI Act compliance.
De Europese Commissie heeft de vrijwillige gedragscode voor AI-modellen officieel erkend als compliance-instrument onder de AI-verordening. Terwijl OpenAI, Google, xAI en Anthropic tekenen, weigert Meta deelname en bekritiseert de VS de Europese aanpak.
Van middernachtelijke biechten aan ChatGPT tot structurele compliance-risico's: waarom Europa nu moet handelen om AI-gesprekken hetzelfde vertrouwensprivilege te geven als traditionele beroepsgeheimen.
Op 10 juli 2025 publiceerde de Europese Commissie de definitieve General-Purpose AI Code of Practice. Een analyse van welke bedrijven tekenen, weigeren of nog in beraad zijn – en waarom.
De Autoriteit Persoonsgegevens concludeert in haar halfjaarlijkse rapportage dat AI-systemen voor emotieherkenning gebouwd zijn op 'omstreden aannames' en risicovol zijn voor discriminatie en privacyschendingen.
Op 10 juli 2025 publiceerde de Europese Commissie de definitieve Code of Practice voor general-purpose AI-modellen. Een praktische analyse van de nieuwe transparantie-, veiligheids- en auteursrechtverplichtingen.
De Europese Unie introduceert AI-sandboxes als veilige testomgevingen voor AI-ontwikkeling. Dit artikel verkent wat een AI-sandbox is, waarom het nodig is, en hoe het bijdraagt aan verantwoorde AI-ontwikkeling in Europa.
Hoe blijven we baas over slimme technologie? Deze blog verkent praktische methoden om menselijke regie te behouden bij AI-gebruik, met concrete voorbeelden en inzichten uit de nieuwe Europese wetgeving.
Een vergelijkende analyse van hoe we AI onderschatten, vergelijkbaar met hoe we ooit elektriciteit onderschatten, en waarom we nu actie moeten ondernemen om deze revolutionaire technologie te omarmen.
Wanneer een AI-systeem een juridische fout maakt, wie is er dan aansprakelijk? Van algoritmische vooroordelen tot privacy-dilemma's - we duiken in de ethische grijze gebieden van AI in de rechtspraktijk en onderzoeken hoe we verantwoord kunnen innoveren.