Responsible AI Platform

LinkedIn AI en AP-waarschuwing: wat je moet weten

··8 min leestijd

Let op: LinkedIn is per 3 november 2025 daadwerkelijk gestart met het gebruik van gebruikersdata voor AI-training. De opt-out-instelling kan nog steeds worden aangepast, maar data die al in modellen is verwerkt kan niet worden teruggedraaid. De Ierse DPC onderzoekt de kwestie nog.

Op 24 september 2025 trok de Nederlandse Autoriteit Persoonsgegevens (AP) aan de bel over LinkedIn's plannen om gebruikersdata te gebruiken voor het trainen van kunstmatige intelligentie. Het is niet zomaar een waarschuwing: de AP spreekt van "grote zorgen" en roept actief gebruikers op om hun instellingen aan te passen. Maar wat speelt er precies, en waarom is deze situatie zo problematisch vanuit privacy-perspectief?

De kern van de controverse ligt in LinkedIn's aanpak om vanaf 3 november 2025 automatisch alle gebruikersdata, inclusief profielinformatie tot 2003, in te zetten voor AI-training, tenzij gebruikers expliciet bezwaar maken. Deze opt-out-benadering, gecombineerd met het beroep op "gerechtvaardigd belang" onder de GDPR, zorgt voor juridische en ethische discussie.

Het LinkedIn AI-plan: wat gebeurt er precies?

LinkedIn heeft aangekondigd dat het vanaf 3 november 2025 gebruikersdata gaat inzetten voor het trainen van AI-modellen. Het gaat daarbij om een breed scala aan informatie: profielgegevens zoals naam, foto, huidige functie, werkervaring, opleiding, locatie en vaardigheden. Ook openbare content zoals posts, artikelen, reacties en polls worden gebruikt. Private berichten blijven volgens LinkedIn buiten schot.

Wat de situatie extra gevoelig maakt, is de tijdspanne. LinkedIn wil data gebruiken die teruggaat tot 2003, het jaar dat het platform werd opgericht. Dit betekent dat decennia aan professionele informatie die gebruikers hebben gedeeld, plotseling wordt ingezet voor een doel waarvoor het oorspronkelijk niet was bedoeld.

De standaardinstelling staat op "aan", wat betekent dat alle LinkedIn-gebruikers automatisch meedoen tenzij zij actief de instelling uitschakelen. Deze opt-out-benadering vormt een belangrijk deel van de kritiek van toezichthouders.

Tijdlijn LinkedIn AI-training

  • September 2025: AP waarschuwt Nederlandse gebruikers om opt-out in te stellen
  • 3 november 2025: LinkedIn start automatisch met AI-training op gebruikersdata
  • Bereik: Alle historische data vanaf 2003 wordt gebruikt
  • Lopend: Samenwerking AP-DPC Ierland voor juridische beoordeling

Waarom slaat de AP alarm?

Monique Verdier, vicevoorzitter van de AP, verwoordde de zorgen helder: "LinkedIn wil gegevens gebruiken die teruggaan tot 2003, terwijl mensen die informatie destijds hebben gedeeld zonder te voorzien dat ze voor AI-training zouden worden ingezet." Dit raakt de kern van informed consent: gebruikers stemden destijds in met het delen van hun professionele informatie voor netwerken en carrieredoeleinden, niet voor het voeden van AI-systemen.

De AP wijst op een fundamenteel controleverlies zodra data eenmaal in AI-modellen zit. Anders dan bij traditionele databases, is het praktisch onmogelijk om specifieke informatie uit getrainde modellen te verwijderen. Dit maakt eventuele schade of misbruik moeilijk omkeerbaar.

Bijzonder zorgwekkend zijn de bijzondere categorieen persoonsgegevens die kunnen worden afgeleid uit LinkedIn-profielen. Hoewel LinkedIn zegt geen gevoelige data te gebruiken, kunnen AI-systemen uit ogenschijnlijk neutrale informatie zoals werkgeschiedenis, netwerk en posts, gevoelige kenmerken afleiden over gezondheid, etniciteit, religie of politieke voorkeur.

De juridische puzzel van "gerechtvaardigd belang"

LinkedIn rechtvaardigt de dataverwerking onder artikel 6(1)(f) van de GDPR, het zogenaamde "gerechtvaardigd belang". Deze rechtsgrond vereist een zorgvuldige belangenafweging: het belang van LinkedIn bij AI-ontwikkeling moet worden afgewogen tegen de privacy-impact op gebruikers.

Deze rechtvaardiging is echter omstreden. Juridische experts betwijfelen of LinkedIn kan aantonen dat AI-training noodzakelijk is voor hun bedrijfsvoering, en of het belang zwaarder weegt dan de privacy-rechten van miljoenen gebruikers. De schaal van de verwerking - decennia aan data van alle Europese gebruikers - maakt de proportionaliteitstoets extra relevant.

De situatie wordt gecompliceerd door de jurisdictie-kwestie. LinkedIn valt onder toezicht van de Ierse privacytoezichthouder (DPC) omdat het bedrijf zijn Europese hoofdkantoor in Dublin heeft. De Nederlandse AP kan wel waarschuwen en klachten behandelen, maar formele handhaving ligt bij de DPC. Deze versnippering van toezicht vormt een structureel probleem binnen de GDPR-handhaving.

LearnWize2 minuten, geen account nodig

Leer de EU AI Act door te doen

Geen slides. Geen saaie e-learning. Probeer een interactieve module.

Interactive ChallengePowered by LearnWize LearnWize

Probeer het zelf

3 interactieve oefeningen. Verdien XP. Ontdek waarom dit beter werkt dan lezen.

FlashcardsMatchingAudit

De bredere context: big tech en AI-honger

De LinkedIn-situatie staat niet op zichzelf. Meta kondigde eerder vergelijkbare plannen aan voor Facebook en Instagram data, wat leidde tot soortgelijke bezwaren van Europese toezichthouders. Deze trend toont de groeiende "data-honger" van techbedrijven voor het trainen van steeds geavanceerdere AI-systemen.

De timing is significant. Nu de EU AI Act gefaseerd wordt geimplementeerd en foundation models onder strengere regelgeving vallen, zoeken bedrijven naar manieren om hun AI-ontwikkeling voort te zetten binnen de juridische kaders. Het gebruik van bestaande gebruikersdata lijkt een logische oplossing, maar botst op privacy-principes die zijn gebaseerd op doelbinding en transparantie.

Raakvlak met de EU AI Act

De EU AI Act stelt aanvullende eisen aan aanbieders van GPAI-modellen, waaronder transparantie over trainingsdata. Artikel 53 verplicht een "voldoende gedetailleerde samenvatting" van de trainingsdata. Dit raakt direct aan de discussie rond LinkedIn: als gebruikersdata wordt ingezet voor modeltraining, moet de aanbieder hierover transparant zijn. Lees meer over deze verplichtingen in onze AI Act Explorer.

Praktische gevolgen en bescherming

Voor LinkedIn-gebruikers die bezwaar hebben tegen AI-training met hun data, is actie nodig. De instelling kan worden aangepast via het privacy-menu onder "Data voor het verbeteren van generatieve AI-functies". Dit moet per account gebeuren; er is geen bulk-optie voor bedrijfsaccounts.

De opt-out is echter niet waterdicht. LinkedIn behoudt het recht om de voorwaarden te wijzigen, en het is onduidelijk hoe lang de opt-out geldig blijft. Bovendien beschermt het alleen tegen toekomstig gebruik: data die al in AI-modellen zit, kan niet worden teruggedraaid.

Voor organisaties die LinkedIn voor professionele doeleinden gebruiken, ontstaan nieuwe dilemma's. Hoe balanceer je de voordelen van zakelijk netwerken tegen de privacy-risico's van AI-training? Sommige bedrijven overwegen het aanscherpen van hun social media-beleid of het beperken van informatie die medewerkers op professionele platforms delen.

De toekomst van consent in het AI-tijdperk

De LinkedIn-controverse illustreert een breder probleem: hoe moet consent werken in een wereld waarin data voor steeds nieuwe doeleinden wordt gebruikt? De huidige GDPR-principes van doelbinding en transparantie lijken niet altijd toereikend voor de realiteit van AI-ontwikkeling, waarin de toepassingsmogelijkheden van data bij verzameling vaak nog onbekend zijn.

Dit roept fundamentele vragen op over de toekomst van platformeconomie en privacy. Moeten bedrijven gebruikers opnieuw om toestemming vragen voor elke nieuwe toepassing van hun data? Of is een bredere, meer flexibele vorm van consent nodig die ruimte biedt voor innovatie zonder gebruikers machteloos te maken?

De uitkomst van de LinkedIn-zaak, of de DPC uiteindelijk de "gerechtvaardigd belang"-rechtvaardiging accepteert, zal precedentwerking hebben voor andere techbedrijven met soortgelijke plannen. Het vormt een testcase voor de balans tussen AI-innovatie en privacy-bescherming in Europa.

Voor nu blijft de boodschap van de AP helder: gebruikers die controle willen behouden over hun data moeten actief handelen. Want in de wereld van AI-training geldt meer dan ooit: wie zwijgt, stemt niet per se toe, maar verliest wel de controle.

Veelgestelde vragen

⚖️ Genoemde wetgeving

Op LearnWize:EU AI Act ComplianceProbeer het gratis

Leer hoe de AI Act en AVG samenwerken en wat dat betekent voor jouw dataverwerkingen.

Doe de gratis AI challenge