Spring naar content

Twee verschillende dingen: AI-training versus AI gebruik

Allereerst is het belangrijk om onderscheid te maken tussen het trainen van de AI-modellen van platformen en zichtbaar worden in AI-functies.

  1. AI-training op content
    Hierbij gebruikt een platform jullie posts om zijn AI-modellen slimmer te maken. Denk aan teksten, beelden, reacties en metadata die in datasets belanden voor modeltraining of fine tuning. Dit gebeurt meestal op basis van platformvoorwaarden en kan per regio verschillen. Meta is in de EU bijvoorbeeld weer gestart met training op openbare Facebook en Instagram content, met een bezwaaroptie op basis van gerechtvaardigd belang.
  2. AI-functies die content tonen of citeren
    Dit gaat niet om trainen, maar om het hergebruiken of samenvatten van bestaande content in AI-producten. Bijvoorbeeld een AI zoekassistent die jullie pagina noemt, of een gegenereerd antwoord waarin een post wordt aangehaald. Dat kan gebeuren ook als je niet expliciet toestemt met training, omdat het platform content mag indexeren of weergeven binnen de eigen dienst.

Het is belangrijk om dit onderscheid scherp te houden, want toestemming voor training is dus geen voorwaarde om zichtbaar te blijven in AI zoek of antwoordfuncties.

Levert toestemming geven meer bereik op?

Platformen koppelen hun AI-trainingsbeleid doorgaans los van hun ranking, bereik of advertentie algoritmes. Meta en LinkedIn gebruiken training vooral om hun modellen te ontwikkelen, niet om individuele accounts te belonen. Er is dus geen garantie dat meer content delen, of toestemming geven, leidt tot hogere posities in zoekresultaten of meer organisch bereik. In het kort: op dit moment is dit nog niet aantoonbaar.

Wat blijft:

Actieve en consistente content draagt bij aan autoriteit
Regelmatige zichtbaarheid, een herkenbaar merkverhaal, relevante interactie en aantoonbare expertise zijn duidelijke kwaliteitssignalen. Die signalen helpen de platformalgoritmes en externe zoekmachines om jullie account te zien als een betrouwbare bron binnen je niche.

E-E-A-T blijft leidend
Experience, Expertise, Authoritativeness, Trustworthiness. Dit begrip komt uit SEO maar sluit steeds meer aan op hoe generatieve systemen bronnen selecteren voor antwoorden (GEO).

Praktisch: blijf posten omdat het bijdraagt aan reputatie en vindbaarheid, niet omdat trainingstoestemming je extra bereik belooft.

Wat zijn de risico’s van toestemming voor AI-training?

Hier spelen drie soorten risico’s:

  1. Controleverlies over context
    Eigen content kan terechtkomen in een trainingsset en later indirect terugkomen in outputs van anderen. Meestal geaggregeerd en niet letterlijk, maar soms wel herkenbaar. Je kunt niet volledig sturen hoe dat gebeurt.
  2. Privacy en AVG-risico’s
    Als posts persoonsgegevens bevatten (namen, foto’s, verhalen, bijzondere categorieën), dan kan AI-training een extra verwerkingsdoel zijn. Dat betekent dat daarvoor ook een grondslag nodig is. In de EU baseren platformen AI-training vaak op de grondslag gerechtvaardigd belang, maar dat ligt onder vuur omdat het bij platformen gaat om grootschalig hergebruik van persoonsgegevens gaat en mensen alleen kunnen bezwaar maken in plaats van vooraf toestemming te geven. Meta pauzeerde de trainingsplannen na ingrijpen van de Ierse toezichthouder DPC, en startte opnieuw vanaf 27 mei 2025 met een opt-out procedure en extra waarborgen onder blijvend toezicht van DPC. Voor LinkedIn geldt iets vergelijkbaars: gebruikers en pagina’s worden standaard meegenomen tenzij je opt out instelt.
  3. Reputatie en governance
    Zeker voor maatschappelijke organisaties kan het gevoelig liggen dat content bijdraagt aan commerciële AI-systemen. Het risico is niet alleen juridisch, maar ook perceptie: “helpen wij big tech trainen met verhalen of beelden van onze doelgroep?”

Foto’s met herkenbare personen: wat betekent dit voor quitclaims?

Juridisch verandert AI-training niets aan de basisregel: als iemand herkenbaar in beeld is, heb je meestal toestemming vanwege het privacyrecht en portretrecht van die persoon. Die toestemming cover je bijvoorbeeld met een quitclaim of toestemmingsformulier.

Wat wel verandert is de transparantie die je moet bieden. Het Europese onafhankelijk orgaan boven alle nationale privacytoezichthouders (de EDPB) benadrukt in haar AI-opinie dat betrokkenen duidelijk moeten weten voor welke AI-doeleinden hun data worden gebruikt en dat zij effectief bezwaar moeten kunnen maken.

Aanbevelingen:

  1. Voeg AI-training expliciet toe aan je quitclaim
    Bijvoorbeeld: “Deze beelden kunnen ook door het platform worden gebruikt voor het trainen en verbeteren van AI-systemen van dat platform.”
  2. Update je privacyverklaring
    Leg uit dat social platforms mogelijk openbare content, inclusief foto’s, kunnen gebruiken voor AI-training en hoe betrokkenen daartegen bezwaar kunnen maken.
  3. Hanteer dezelfde interne afweging als bij publicatie zelf
    Als je het niet verantwoord vindt dat een foto publiek op Instagram staat, dan vind je het meestal ook niet verantwoord dat diezelfde foto in een AI trainingsset terechtkomt.

Hoe maak je als organisatie een keuze?

Een werkbare aanpak voor management en teams.

  1. Breng je contenttypen in kaart
    • Informatieve posts zonder persoonsgegevens: laag risico
    • Verhalen met doelgroepdata, casussen, quote cards, portretten: hoger risico
    • Foto’s van kinderen of kwetsbare groepen: zeer hoog risico, extra terughoudend
  2. Kies per platform je default
    • LinkedIn: controle via instellingen en beleid rond data delen met Microsoft AI. Overweeg opt out als je veel persoonsverhalen deelt.
    • Meta (Facebook, Instagram): EU-training loopt voor openbare content met bezwaaroptie. Overweeg bezwaar voor accounts met gevoelige content.
  3. Leg de afweging vast
    Zet in je privacybeleid:
    • wanneer je wel of geen toestemming geeft
    • wie beslist
    • hoe je opt out of bezwaar procedures uitvoert
    • hoe je transparantie richting betrokkenen borgt
  4. Blijf werken aan autoriteit met E-E-A-T
    • deel expertise vanuit eigen praktijk
    • wees consistent in thema’s
    • onderbouw claims met bronnen
    • laat echte mensen van de organisatie zichtbaar zijn (met goede toestemming)

Conclusie

Content delen op social media blijft natuurlijk erg belangrijk voor zichtbaarheid en autoriteit. Maar toestemming geven voor AI-training levert nu geen direct voordeel op in bereik of vindbaarheid. Het is vooral een keuze over data governance, privacy en reputatie. Organisaties zullen dus interne afwegingen moeten maken hierover.

Wil je hierover sparren? Stuur dan gerust een mail naar legal@ddma.nl.

Allisha Hosli

Legal Counsel

Ook interessant

Lees meer
AI Act |

AI-training op socials: geef je als bedrijfsaccount toestemming of niet?

Toestemming geven voor AI-training op social media is ineens een strategisch onderwerp geworden. Platformen zoals LinkedIn, Facebook en Instagram bouwen generatieve AI-functies die leren van enorme hoeveelheden content. En precies…
Lees meer
AI Act |

Wat de Digital Omnibus voor jou verandert: AVG (3/4)

De Europese Commissie heeft op 19 november 2025 een pakket aan wijzigingen gepresenteerd om de regels voor het digitale domein te vereenvoudigen, ook wel Digital Omnibus genoemd. In deze korte…
Lees meer
AI Act |

Wat de Digital Omnibus voor jou verandert: Cookiewet (2/4)

De Europese Commissie heeft op 19 november 2025 een pakket aan wijzigingen gepresenteerd om de regels voor het digitale domein te vereenvoudigen, ook wel Digital Omnibus genoemd. In deze korte…