Transparantie
Wetgeving & richtlijnen
AI-gegenereerde foto’s kunnen prima worden gebruikt op websites, productpagina’s en in advertenties, maar er zijn een paar belangrijke juridische aandachtspunten.
De AI Act, die sinds 1 augustus 2024 van kracht is en waarvan de regels gefaseerd worden ingevoerd, bevat ook verplichtingen rondom transparantie. Aanbieders van generatieve AI, dus de ontwikkelaars, moeten ervoor zorgen dat hun systemen geen misleidend realistische output geven zonder waarschuwing. Voor diegenen die AI inzetten, de gebruikers, is het belangrijk om te weten dat bepaalde AI-content duidelijk gelabeld moet worden:
- Deepfakes: realistisch audio-, video- of beeldmateriaal dat iemand iets laat doen of zeggen wat niet echt is. In zulke gevallen is labeling altijd verplicht, aangezien het risico bestaat dat de consument wordt misleid.
- Publiek relevante content: vooral bij politieke of maatschappelijke communicatie is expliciete transparantie verplicht.
Voor commerciële marketinguitingen geldt: als AI-gebruik kan leiden tot misleiding, moet er openheid worden gegeven. Richtlijnen zeggen dat wanneer het gebruik van AI een essentieel onderdeel is van de inhoud op een manier die misleidend kan zijn voor consumenten, merken mogelijk AI-vermeldingen moeten toevoegen, zoals “Advertentie gemaakt met hulp van AI”.
Zelfregulering en branche initiatieven
In de Nederlandse Reclame Code bestaan er nog geen specifieke bepalingen over het labelen van AI-gebruik. De bestaande regels in de codes zijn van toepassing, ongeacht hoe een advertentie tot stand komt. Net als bij traditionele technieken – denk aan Photoshop of CGI – is een aparte vermelding (voor alsnog) niet nodig, zolang de uiting niet misleidend is.
De Nederlandse Reclame Code kent dus weinig restricties rondom AI, alleen in de Reclamecode Cosmetische Producten 2023 staat: “Je mag AI niet misleidend toepassen om je reclame-uitingen te ondersteunen. Denk aan het gebruiken van kunstmatig gegenereerde beelden voor de prompt ‘perfecte huid’ om de zogenaamde resultaten van je huidverzorgingscrème te promoten.” Deze line of thought is interessant: het is niet de bedoeling om AI in te zetten om de werking van producten veel perfecter te laten lijken. Ook al zou hier een komische boodschap achter zitten of een bepaalde marketingstrategie om te overdrijven, alsnog in zulke gevallen er in ieder geval duidelijk bij vermelden dat AI is gebruikt.
De Britse Reclame Autoriteit (ASA) adviseert om per geval te beoordelen of vermelding nodig is. Met andere woorden: transparantie is belangrijk, maar moet altijd in verhouding staan tot het risico op misleiding. Volgens hen helpen deze twee vragen adverteerders om te bepalen of zo’n vermelding nodig is:
- Zou het publiek waarschijnlijk misleid worden als niet wordt vermeld dat AI is gebruikt?
- Helpt een vermelding de boodschap te verduidelijken, of maakt deze het juist verwarrender?
Belangrijk daarbij: een AI-label mag nooit dienen om een fundamenteel misleidende boodschap goed te praten. Een disclosure lost geen probleem op als de kern van de uiting misleidend is.
In het Verenigd Koninkrijk zijn er ook andere branche-initiatieven. Zo publiceerden de International Securities Business Association en het Institute of Practitioners in Advertising in 2023 twaalf principes voor verantwoord gebruik van generatieve AI. Eén van de kernprincipes: wees transparant als AI een prominente rol speelt in een advertentie en dit niet vanzelfsprekend is voor de consument.
Wanneer dan geen vermelding?
- Algemeen gebruik: AI inzetten om een achtergrond te genereren of een productfoto mooier te maken, zonder dat de werking van het product zelf wordt aangedikt, hoeft niet per se een AI-label te krijgen. Je zou er wel transparant over kunnen zijn in de algemene voorwaarden of colofon.
- Journalistiek: de AI Act bevat uitzonderingen voor journalistieke toepassingen om redactionele onafhankelijkheid te beschermen. Daarnaast kent de AI Act ook uitzonderingen voor artistieke en creatieve expressie. Dit betekent dat campagnes die nadrukkelijk een kunstzinnige of creatieve boodschap brengen, mogelijk niet onder de strikte transparantieplicht vallen. Voor marketeers in sectoren als fashion, entertainment of cultuur kan dat relevant zijn.
Social media
Social media platformen leggen zelf al regels op in hun beleid:
- Meta (Instagram & Facebook) labelt automatisch content die door AI is gemaakt of aangepast. Bij AI-gegeneerde video’s, stemmen of realistische beelden verschijnt een AI-label. Bij lichte bewerkingen wordt vaak alleen metadata toegevoegd.
- TikTok verplicht creators om realistisch ogende AI-beelden en audio te labelen. Niet-gelabelde AI-content kan worden verwijderd. TikTok gebruikt ook metadata (“Content Credentials”), zodat AI-content herkend blijft wanneer het elders wordt gedeeld.
Kortom: zelfs als er juridisch geen harde plicht is, kunnen platforms je dwingen tot labeling.
Vergeet bij AI-gegenereerde foto’s ook nooit de auteursrechten van de fotograaf! Heb je toestemming van de fotograaf om zijn of haar foto’s met AI te bewerken? Als de foto’s ingrijpend worden aangepast, rusten de auteursrechten dan nog wel bij de fotograaf? Wil je hier meer over weten, lees dan ons artikel: AI & Auteursrecht: prompts, input en output – wie heeft de rechten? – DDMA of stel je vraag aan ons via legal@ddma.nl.
Andere landen
Spanje en Frankrijk lopen voorop met nationale wetsvoorstellen die nóg strengere vermeldingsplichten kennen in vergelijking met de AI Act. Sinds 1 september 2025 hanteert China al zeer vergaande regels waarbij elk AI-beeld zichtbaar én in metadata gemarkeerd moet zijn.
Hoe denken we er bij DDMA over?
Het internationale landschap maakt duidelijk dat de trend richting meer transparantie gaat. Voor marketeers is het verstandig hierop vooruit te lopen, maar wél met mate. Het is aan de wetgever om te waken voor overregulering.
In Europa en Nederland is er geen algemene verplichting om alle AI-gegenereerde content te labelen. En dat is terecht: AI is in wezen een nieuw creatief middel, wat vergelijkbaar kan worden ingezet als bestaande beeldbewerkingsmethoden. Volledige transparantie over elke toepassing zou creativiteit onnodig beperken. Net als bij traditionele bewerktechnieken is een aparte vermelding niet nodig, zolang d e uiting niet misleidend is. Productfoto’s – denk aan de glanzende foto’s van voedsel – zijn al decennialang geen exacte weergave van de werkelijkheid. Waarom zouden we dan ineens strenger zijn voor AI-gegenereerde content.
Transparantie is wél cruciaal als AI wordt ingezet op een manier die de consument een verkeerd beeld geeft van een product of dienst. Als een crème niet echt zorgt voor een “perfecte huid”, mag je dat effect niet suggereren met AI. Daar moet je eerlijk over zijn. Dus het is belangrijk om consumenten te beschermen, maar niet door te schieten. AI is baanbrekend, maar moet net als eerdere technieken beoordeeld worden op het effect: leidt het tot misleiding of niet? Transparantie is in die zin geen doel op zich, maar een middel om eerlijkheid in marketing te waarborgen.
Ook interessant

Gebruik van AI-foto’s op websites, printed folders of socials? Vermelden of niet?

Digital Humans in Marketing: Wettelijke kaders voor inzet vóór en achter de schermen
