Want wie is eigenlijk de maker van AI-content? En misschien nog relevanter: wie draagt het risico? In een nieuwe aflevering van Shaping the Future gaat host Lucas Bos daarover in gesprek met Allisha Hosli en Isa Nieuwstad, Legal Counsels van DDMA. Samen ontleden ze een vraagstuk waar de praktijk sneller beweegt dan de regels kunnen bijhouden. Hun conclusie is helder, maar weinig comfortabel: zekerheid is schaars.

Creativiteit zonder maker bestaat niet
De kern van het debat over AI-gegenereerde content ligt bij auteursrecht. Wanneer is iets juridisch beschermd? Daarvoor gelden twee voorwaarden: er moeten creatieve keuzes zijn gemaakt én het werk moet een persoonlijke stempel dragen van de maker. Precies daar wringt AI.Een recente Duitse rechtszaak – relevant voor Nederland – maakte dat scherp. Logo’s die met uitgebreide prompts waren gegenereerd, bleken niet auteursrechtelijk beschermd.
‘Prompting is in de ogen van de rechter vooral een technisch middel om tot een resultaat te komen’, zegt Allisha Hosli. ‘Maar dat betekent niet dat je als maker daadwerkelijk creatieve keuzes hebt gemaakt in het eindproduct’. Hoeveel tijd of moeite je ook in een prompt stopt, de output blijft in essentie een black box. En dat schuurt met hoe veel marketeers AI gebruiken. Wie urenlang finetunet voelt zich al misschien eigenaar, maar juridisch ligt dat anders.
🎧 Luister de aflevering via de player hieronder of in je favoriete podcast-app
Of luister via Apple Podcasts of Spotify.
Prompting is geen Photoshop
De vergelijking met bestaande tools helpt. Fotografie en aanvullend gebruik van Photoshop werden ooit ook als ‘te makkelijk’ gezien. Toch erkent de wet daar auteursrecht, omdat de maker controle heeft over het resultaat.
Bij AI ontbreekt die directe controle. Je stuurt, maar bepaalt niet. ‘Bij fotografie of Photoshop maak je zelf keuzes over compositie, licht of bewerking’, zegt Isa Nieuwstad. ‘Bij AI weet je nooit precies wat er uitkomt. Je hebt invloed, maar geen controle’. Dat lijkt een nuance, maar is fundamenteel. Het systeem genereert, de mens selecteert. En selecteren alleen is juridisch onvoldoende.
De praktische realiteit: sleutelen of risico lopen
Wat betekent dit voor marketeers? Het advies van de juristen is opvallend praktisch: gebruik AI, maar maak het vervolgens van jezelf.Bewerk output, voeg elementen toe, neem zichtbare beslissingen. Niet omdat het ‘creatief voelt’, maar omdat je daarmee aantoont dat jij de maker bent. ‘Zorg dat je zelf nog iets toevoegt aan wat eruit komt’, aldus Nieuwstad. ‘Pas elementen aan, gebruik andere tools. Dan leg je je eigen stempel op het werk’.
Daarnaast groeit het belang van documentatie. Een paper trail, van prompts tot bewerkingen, kan helpen om aan te tonen dat je zorgvuldig hebt gewerkt.
Transparantie: verplicht of overdreven?
Moet je als merk melden dat content met AI is gemaakt? Het antwoord is genuanceerd. Transparantie is verplicht bij misleiding, bijvoorbeeld bij deepfakes of wanneer AI een product mooier maakt dan realistisch is. Ook bij politieke of maatschappelijk gevoelige content gelden strengere regels. Maar in veel marketingcases is het niet verplicht. Sterker nog, overlabelen kan weer averechts werken.
‘Als je overal bij zet dat iets met AI is gemaakt, verliest dat label zijn waarde’, zegt Hosli. ‘Het gaat erom of een consument misleid kan worden’. Die grens wordt duidelijk bij concrete voorbeelden. Denk aan een goed doel dat AI-beelden gebruikt van een rampsituatie die nooit heeft plaatsgevonden. Dan is het probleem niet zo zeer dat AI is gebruikt, maar dat de werkelijkheid is verdraaid.
Trainen op andermans werk: grijs gebied
Een ongemakkelijk punt blijft de vraag hoe AI-modellen worden getraind. Dat gebeurt veelal aan de hand van bestaand, auteursrechtelijk beschermd werk.Is dat automatisch een overtreding? Nee. Maar het risico is er wel degelijk.
De nuance zit in het verschil tussen stijl en kopie. ‘Stijl is niet beschermd, een concreet werk wel’, legt Hosli uit. ‘Als output te dicht tegen een bestaand werk aanligt, kom je al snel in de gevarenzone’. En precies daar zit het probleem: als gebruiker heb je beperkt zicht op de herkomst van dat wat je krijgt.
Niet verlammen, maar organiseren
De grootste valkuil bij de inzet van AI-gegenereerde content is misschien niet juridisch, maar organisatorisch. Bedrijven vertragen of vermijden AI uit angst voor regels die nog niet uitgekristalliseerd zijn.Volgens de DDMA-experts is dat onnodig.‘Haak legal zo vroeg mogelijk aan’, zegt Nieuwstad. ‘Niet pas als de campagne al af is. Dan kun je nog bijsturen in plaats van achteraf repareren’.
De oplossing ligt dus niet in afwachten, maar in organiseren. En in het blijven zien van AI als middel, niet als maker.
Tot slot: dit gesprek is nog niet klaar
Zolang wetgeving en rechtspraak zich ontwikkelen, blijft één principe overeind: gezond verstand. Zou een consument zich misleid voelen? Lijkt de output te veel op bestaand werk? Heb je zelf aantoonbaar keuzes gemaakt?
Wie zulke vragen serieus neemt, zit zelden volledig fout. Maar eenvoudig wordt het niet. Want onder de oppervlakte speelt een grotere vraag. Als AI geen maker is, maar ook geen neutrale tool meer, waar ligt dan straks het eigenaarschap? In de podcast gaat het gesprek daar nog een stap verder. Over deepfakes, stemmen en de vraag of ‘stijl’ het nieuwe juridische strijdtoneel wordt.
Ook interessant
Podcast Shaping the future: AI-content: handig, maar van wie is het?
Uitspraken van de maand | maart 2026