Spring naar content

Dit artikel is ook verschenen op Emerce.

De nieuwe kansen van AI brengen ook risico’s voor consument en maatschappij met zich mee. Denk hierbij aan bias en onbedoelde discriminatie vanwege de gebruikte trainingsdata, én de impact van het trainen – door de gebruikte rekenkracht van datacenters – van een AI-model op het milieu. In dit artikel geven wij onze visie op AI en 3 cruciale richtlijnen om er verantwoord mee om te gaan.

Visie van DDMA op de inzet van Responsible AI

DDMA staat voor succesvolle en verantwoorde toepassingen van AI in je data-driven marketing, oftewel: innovatie met aan de basis Responsible AI. Onze visie op Responsible AI is niet geheel nieuw, maar een concretisering van onze gedachten over ‘verantwoorde data-driven marketing’:

“DDMA staat voor succesvolle en verantwoorde data-driven marketing. Marketing die mensen in beweging brengt, door data, technologie en creatie elkaar te laten versterken. Verantwoord omgaan met data en technologie is daarbij essentieel. Voor het vertrouwen van consumenten én de toekomst van de marketingsector.”

Het gebruik van AI voor succesvolle marketing draait volgens DDMA om het neerzetten van een goede klantervaring. AI is daarbij het hulpmiddel en niet het doel op zich. In feite bekijken we AI dus als elke andere toepassing met data, technologie en creatie. Wél ziet DDMA de huidige (gen)AI-trend als een disruptieve innovatie (vergelijkbaar met de komst van het internet) vanwege de ontelbare mogelijkheden die het biedt en waardoor extra aandacht voor juist de verantwoorde toepassing op zijn plaats is.

Om leden te helpen hebben we 3 cruciale richtlijnen opgesteld, die leden kunnen gebruiken als kaders om AI verantwoord in te zetten.

Richtlijn 1: Een verantwoorde inzet van AI begint met de juiste organisatiecultuur

Het op een verantwoorde manier toepassen van AI is niet alleen een vraag voor een compliance expert, een data scientist of een securityspecialist. De definitie van wat ‘verantwoord’ is, is deels ook een kwestie van perspectief. Zo zal een jurist wellicht zeggen dat ‘verantwoorde AI’ staat voor het naleven van regels, maar een CMO heeft het eerder over het beschermen en versterken van het imago of brand van de organisatie. Om echt te versnellen met innovatie is het daarom van belang om de juiste expertises bij elkaar te brengen. Met als doel elkaars belangen en taal beter te begrijpen, om vervolgens concrete oplossingen uit te werken. Afhankelijk van de grote van je organisatie gaat het onder meer om marketing, legal, security, ethiek en IT. De vorm waarin de samenwerking plaatsvindt is vrij, maar dit kan bijvoorbeeld al één expertgroep in je organisatie zijn.

Nu is geen organisatie hetzelfde. De invulling van de juiste organisatiecultuur voor de inzet van AI is ook afhankelijk van de sector waarin je opereert. Zo wordt er binnen een bank waarschijnlijk anders (samen)gewerkt dan bij een non-profit. Stem de samenwerking daarom vooral ook af op wat past bij de organisatie, maar zorg dat je relevante teams wel met elkaar laat samenwerken op een continue basis. Het perspectief over wat de klant, jouw organisatie, maar ook de samenleving ‘verantwoord’ vindt, verandert over tijd.

De juiste organisatiecultuur legt niet alleen de basis om verantwoord te innoveren. Het geeft ook (deels) uitvoering aan een belangrijk toekomstige vereiste dat terugkomt in de AI Act: het bevorderen van ‘AI Literacy’ onder medewerkers. Met AI Literacy wordt straks vereist dat organisaties het kennisniveau van medewerkers over AI verbeteren en op peil houden. Een medewerker moet namelijk geïnformeerde keuzes over de inzet van AI kunnen maken, zodat eventuele risico’s zoveel mogelijk worden vermeden. De opleidingseis geldt dus niet alleen voor de ontwikkelaar die het AI-systeem maakt, maar ook voor een marketeer die ermee werkt. Met de juiste organisatiecultuur als basis kan je het kennisaspect per definitie beter borgen, want alle teams leren in feite van elkaar. Door risico’s met behulp van AI Literacy te mijden, bevordert een organisatie bovendien de verantwoorde inzet van AI.

Richtlijn 2: Houd je aan de regels, zoals AI Act, privacy en auteursrechten

De ontwikkeling van AI kent een dynamisch en exponentieel karakter. Daarom zijn veel zaken nog niet helder op juridisch gebied. Toch zijn er zeker al regels waar rekening mee dient te worden gehouden. Denk bijvoorbeeld aan het intellectueel eigendom (met name auteursrecht), het privacyrecht (de AVG), het contractenrecht, consumentenrecht, mensenrechten of sectorspecifieke regelgeving.  Ook zijn zeer recent de AI specifieke regels door Europa goedgekeurd: de AI Act. Het is van belang dat je als organisatie kennis hebt van deze regels en deze naleeft.

Meer weten over de regels bij het toepassen van AI? Bekijk dan ook de volgende artikelen en pagina’s

Richtlijn 3: Responsible AI gaat verder dan alleen het volgen van de regels, want het gaat juist óók om de ethische kaders

Als het gaat over Responsible AI dan komen organisaties meestal uit op een aantal principes. Het vaststellen van zo’n kader is maatwerk per organisatie, daarom is het voor ons als branchevereniging niet het doel een kant en klaar ‘AI-principe raamwerk’ te delen. Maar we moedigen onze leden aan om de richtlijnen als een startpunt voor een eigen ‘AI en marketing kader’ te gebruiken.

Een goed startpunt voor zo’n kader is het opzetten van de AI-organisatiecultuur beschreven in de eerste richtlijn, want ieder vakgebied heeft een eigen kijk op ‘Responsible AI’. Zo kom je min of meer op een natuurlijke wijze tot een lijst van principes die past bij jouw organisatie of specifieke use-case. Om toch een idee te geven bij de (ethische) AI kaders, het gaat binnen de marketing om onderwerpen als:

  • Brand: Puur vanuit een marketingbril is het beschermen van imago en versterken van je brand altijd een goed startpunt. Zeker bij leden die leunen op hun merkidentiteit is het van belang om de impact van de ingezette AI op hun brand en imago voor livegang grondig te beoordelen. Dit vereist enige kennis en begrip van de risico’s die in meer detail in andere onderwerpen aan bod komen. We benadrukken daarom wederom het belang van een goede organisatiecultuur!
  • Personalisatie en consumentvertrouwen: Om de verantwoorde inzet van AI te bevorderen kunnen organisaties ook streven naar een evenwicht tussen personalisatie en privacy, waarbij het vertrouwen van de consument centraal staat. Wij zien transparantie en controle door de gebruiker als essentiële elementen om dit vertrouwen te bouwen en te behouden.
  • Vertrouwelijkheid: Medewerkers (en eventueel consumenten) hebben soms ook richtlijnen nodig over waarvoor AI wel of niet geschikt is. Dit is zeker relevant als het gaat om toepassingen als ChatGPT, waarin medewerkers ook vertrouwelijke bedrijfsinformatie als input kunnen gebruiken.
  • Bias en discriminatie: DDMA benadrukt het belang van het actief voorkomen van bias en discriminatie in AI-toepassingen. Organisaties dienen voortdurend hun AI-modellen te evalueren en bij te stellen om eerlijkheid en inclusiviteit te garanderen, terwijl ze innovatie blijven nastreven.
  • Uitlegbaarheid en controleerbaarheid: Transparantie in AI-besluitvorming is essentieel. Wij adviseren onze leden om ‘black box’-technologieën te vermijden en te zorgen voor begrijpelijke en controleerbare AI-systemen, die bijdragen aan vertrouwen en begrip bij zowel interne stakeholders als consumenten. Het bijhouden van logs kan helpen om besluiten uitlegbaar te maken, maar draagt ook bij aan de controleerbaarheid (door consumenten).
  • Transparantie: Consumenten hebben recht en behoefte aan heldere informatie over de inzet van AI, inclusief hoe persoonsgegevens worden gebruikt. Deze transparantie versterkt het vertrouwen en faciliteert een verantwoorde interactie met AI-technologieën.
  • Robuust en veilig: De nadruk op de robuustheid en veiligheid van AI-systemen is van het grootste belang. Bij het ontwikkelen van eigen AI is het van belang om maatregelen te implementeren om AI-oplossingen te beschermen tegen fouten, aanvallen en datalekken, waarbij de integriteit en betrouwbaarheid van systemen worden gewaarborgd.
  • Bewaak menselijk vakmanschap en toezicht: Het is belangrijk om het belang van menselijk toezicht en vakmanschap bij de ontwikkeling, implementatie en gebruik van AI-systemen te erkennen. Dit principe benadrukt óók dat de uiteindelijke besluitvorming en ethische overwegingen bij mensen moeten liggen. Dit waarborgt dat AI-systemen menselijke waarden weerspiegelen. DDMA stelt bij dit principe ook vakmanschap centraal. Want hoe waarborg specialistisch vakmanschap (van bijvoorbeeld een CRO’er) wanneer je ChatGPT taken laat overnemen (en moet je dit überhaupt willen).
  • Accountability en data governance: Óókverantwoording en governance rond AI en data zijn van belang. Organisaties kunnen ervoor kiezen om duidelijke richtlijnen te hanteren voor het beheer van AI en data, met als doel transparantie en verantwoording af te leggen aan alle belanghebbenden. Het inrichten van data governance is ook van belang voor de kwaliteit van AI. Zeker wanneer je AI ontwikkelt, is het van belang om je realiseren dat kwaliteit van output staat of valt met het op orde brengen van datastrategie.
  • Duurzaamheid en maatschappelijke impact: Het is ook belangrijk om rekening te houden met de bredere sociale en ecologische impact van AI-technologieën. Het trainen van AI (modellen) kan een aanzienlijke impact hebben op het milieu (vanwege energieverbruik). Ook kan AI van invloed zijn op medewerkers, wanneer hun baan inhoudelijk veranderd of overbodig wordt.

Meer weten over de (ethische) kaders voor AI? Bekijk dan ook de volgende artikelen en pagina’s:

Gebruik de richtlijnen om je eigen kader op te stellen

Het voorgaande overzicht is een fundamentele illustratie van principes die kunnen worden meegenomen in het vormen van een solide kader om AI verantwoord in te zetten.  Let wel op dat de omvang van het kader per organisatie behoorlijk kan verschillen. Als je bijvoorbeeld zelf een eigen AI ontwikkelt, brengt dat meer verantwoordelijk met zich mee dan ‘slechts’ het gebruik van genAI-tools als ChatGPT om efficiëntie te verhogen. Bij de ontwikkeling van eigen AI moet er ook goed worden nagedacht over met welke data er wordt getraind. En bij ChatGPT gaat het in essentie ‘enkel’ om het waarborgen van vertrouwelijkheid, waarbij de regel ‘gebruik geen bedrijfsinformatie en persoonsgegevens in ChatGPT’ wellicht voldoende is. In de kern hangt het dus per case af van of AI intern als tool wordt gebruikt óf klanten zelf direct interacteren met AI.

Frank de Vries

Team lead legal | Senior legal counsel

Ook interessant

Lees meer
AI Act |

Europese Commissie publiceert concept van ‘code of practice’ voor gebruik LLM’s

De Europese Commissie heeft op 14 november de eerste conceptversie van de Code of Practice voor General Purpose AI modellen (Code) gepubliceerd. De Code moet straks meer invulling geven aan…
Lees meer
AI Act |

Nieuwe marketinggids Responsible AI voor de verantwoorde inzet van AI in marketing

VIA Nederland, DDMA en bvA, drie brancheverenigingen in de marketingsector, hebben vandaag met trots de Marketinggids Responsible AI gepresenteerd. Deze gids, ontwikkeld als een ‘levende’ leidraad, biedt marketeers concrete richtlijnen…
Lees meer
AI Act |

De AI Act is van kracht: Een blik vooruit op verantwoord en innovatief gebruik van AI

Vanaf 1 augustus 2024 is de AI Act in werking getreden! Deze wetgeving, die al lange tijd in de maak was, is een verordening opgesteld door de Europese Unie om…