Dit artikel is ook verschenen op Emerce.
De nieuwe kansen van AI brengen ook risico’s voor consument en maatschappij met zich mee. Denk hierbij aan bias en onbedoelde discriminatie vanwege de gebruikte trainingsdata, én de impact van het trainen – door de gebruikte rekenkracht van datacenters – van een AI-model op het milieu. In dit artikel geven wij onze visie op AI en 3 cruciale richtlijnen om er verantwoord mee om te gaan.
Visie van DDMA op de inzet van Responsible AI
DDMA staat voor succesvolle en verantwoorde toepassingen van AI in je data-driven marketing, oftewel: innovatie met aan de basis Responsible AI. Onze visie op Responsible AI is niet geheel nieuw, maar een concretisering van onze gedachten over ‘verantwoorde data-driven marketing’:
“DDMA staat voor succesvolle en verantwoorde data-driven marketing. Marketing die mensen in beweging brengt, door data, technologie en creatie elkaar te laten versterken. Verantwoord omgaan met data en technologie is daarbij essentieel. Voor het vertrouwen van consumenten én de toekomst van de marketingsector.”
Het gebruik van AI voor succesvolle marketing draait volgens DDMA om het neerzetten van een goede klantervaring. AI is daarbij het hulpmiddel en niet het doel op zich. In feite bekijken we AI dus als elke andere toepassing met data, technologie en creatie. Wél ziet DDMA de huidige (gen)AI-trend als een disruptieve innovatie (vergelijkbaar met de komst van het internet) vanwege de ontelbare mogelijkheden die het biedt en waardoor extra aandacht voor juist de verantwoorde toepassing op zijn plaats is.
Om leden te helpen hebben we 3 cruciale richtlijnen opgesteld, die leden kunnen gebruiken als kaders om AI verantwoord in te zetten.
Richtlijn 1: Een verantwoorde inzet van AI begint met de juiste organisatiecultuur
Het op een verantwoorde manier toepassen van AI is niet alleen een vraag voor een compliance expert, een data scientist of een securityspecialist. De definitie van wat ‘verantwoord’ is, is deels ook een kwestie van perspectief. Zo zal een jurist wellicht zeggen dat ‘verantwoorde AI’ staat voor het naleven van regels, maar een CMO heeft het eerder over het beschermen en versterken van het imago of brand van de organisatie. Om echt te versnellen met innovatie is het daarom van belang om de juiste expertises bij elkaar te brengen. Met als doel elkaars belangen en taal beter te begrijpen, om vervolgens concrete oplossingen uit te werken. Afhankelijk van de grote van je organisatie gaat het onder meer om marketing, legal, security, ethiek en IT. De vorm waarin de samenwerking plaatsvindt is vrij, maar dit kan bijvoorbeeld al één expertgroep in je organisatie zijn.
Nu is geen organisatie hetzelfde. De invulling van de juiste organisatiecultuur voor de inzet van AI is ook afhankelijk van de sector waarin je opereert. Zo wordt er binnen een bank waarschijnlijk anders (samen)gewerkt dan bij een non-profit. Stem de samenwerking daarom vooral ook af op wat past bij de organisatie, maar zorg dat je relevante teams wel met elkaar laat samenwerken op een continue basis. Het perspectief over wat de klant, jouw organisatie, maar ook de samenleving ‘verantwoord’ vindt, verandert over tijd.
De juiste organisatiecultuur legt niet alleen de basis om verantwoord te innoveren. Het geeft ook (deels) uitvoering aan een belangrijk toekomstige vereiste dat terugkomt in de AI Act: het bevorderen van ‘AI Literacy’ onder medewerkers. Met AI Literacy wordt straks vereist dat organisaties het kennisniveau van medewerkers over AI verbeteren en op peil houden. Een medewerker moet namelijk geïnformeerde keuzes over de inzet van AI kunnen maken, zodat eventuele risico’s zoveel mogelijk worden vermeden. De opleidingseis geldt dus niet alleen voor de ontwikkelaar die het AI-systeem maakt, maar ook voor een marketeer die ermee werkt. Met de juiste organisatiecultuur als basis kan je het kennisaspect per definitie beter borgen, want alle teams leren in feite van elkaar. Door risico’s met behulp van AI Literacy te mijden, bevordert een organisatie bovendien de verantwoorde inzet van AI.
Richtlijn 2: Houd je aan de regels, zoals AI Act, privacy en auteursrechten
De ontwikkeling van AI kent een dynamisch en exponentieel karakter. Daarom zijn veel zaken nog niet helder op juridisch gebied. Toch zijn er zeker al regels waar rekening mee dient te worden gehouden. Denk bijvoorbeeld aan het intellectueel eigendom (met name auteursrecht), het privacyrecht (de AVG), het contractenrecht, consumentenrecht, mensenrechten of sectorspecifieke regelgeving. Ook zijn zeer recent de AI specifieke regels door Europa goedgekeurd: de AI Act. Het is van belang dat je als organisatie kennis hebt van deze regels en deze naleeft.
Meer weten over de regels bij het toepassen van AI? Bekijk dan ook de volgende artikelen en pagina’s
- Lees meer over de systematiek van de AI Act op onze dossierpagina
- Regels bij gebruik van AI: 4 juridische tips voor marketeers
- Generative AI en Large Language Models Explained: Wat zijn mogelijke gevaren en hoe zet je het compliant in?
- Europa bereikt een politiek akkoord over de AI Act: wat betekent dit voor de marketingsector?
Richtlijn 3: Responsible AI gaat verder dan alleen het volgen van de regels, want het gaat juist óók om de ethische kaders
Als het gaat over Responsible AI dan komen organisaties meestal uit op een aantal principes. Het vaststellen van zo’n kader is maatwerk per organisatie, daarom is het voor ons als branchevereniging niet het doel een kant en klaar ‘AI-principe raamwerk’ te delen. Maar we moedigen onze leden aan om de richtlijnen als een startpunt voor een eigen ‘AI en marketing kader’ te gebruiken.
Een goed startpunt voor zo’n kader is het opzetten van de AI-organisatiecultuur beschreven in de eerste richtlijn, want ieder vakgebied heeft een eigen kijk op ‘Responsible AI’. Zo kom je min of meer op een natuurlijke wijze tot een lijst van principes die past bij jouw organisatie of specifieke use-case. Om toch een idee te geven bij de (ethische) AI kaders, het gaat binnen de marketing om onderwerpen als:
- Brand: Puur vanuit een marketingbril is het beschermen van imago en versterken van je brand altijd een goed startpunt. Zeker bij leden die leunen op hun merkidentiteit is het van belang om de impact van de ingezette AI op hun brand en imago voor livegang grondig te beoordelen. Dit vereist enige kennis en begrip van de risico’s die in meer detail in andere onderwerpen aan bod komen. We benadrukken daarom wederom het belang van een goede organisatiecultuur!
- Personalisatie en consumentvertrouwen: Om de verantwoorde inzet van AI te bevorderen kunnen organisaties ook streven naar een evenwicht tussen personalisatie en privacy, waarbij het vertrouwen van de consument centraal staat. Wij zien transparantie en controle door de gebruiker als essentiële elementen om dit vertrouwen te bouwen en te behouden.
- Vertrouwelijkheid: Medewerkers (en eventueel consumenten) hebben soms ook richtlijnen nodig over waarvoor AI wel of niet geschikt is. Dit is zeker relevant als het gaat om toepassingen als ChatGPT, waarin medewerkers ook vertrouwelijke bedrijfsinformatie als input kunnen gebruiken.
- Bias en discriminatie: DDMA benadrukt het belang van het actief voorkomen van bias en discriminatie in AI-toepassingen. Organisaties dienen voortdurend hun AI-modellen te evalueren en bij te stellen om eerlijkheid en inclusiviteit te garanderen, terwijl ze innovatie blijven nastreven.
- Uitlegbaarheid en controleerbaarheid: Transparantie in AI-besluitvorming is essentieel. Wij adviseren onze leden om ‘black box’-technologieën te vermijden en te zorgen voor begrijpelijke en controleerbare AI-systemen, die bijdragen aan vertrouwen en begrip bij zowel interne stakeholders als consumenten. Het bijhouden van logs kan helpen om besluiten uitlegbaar te maken, maar draagt ook bij aan de controleerbaarheid (door consumenten).
- Transparantie: Consumenten hebben recht en behoefte aan heldere informatie over de inzet van AI, inclusief hoe persoonsgegevens worden gebruikt. Deze transparantie versterkt het vertrouwen en faciliteert een verantwoorde interactie met AI-technologieën.
- Robuust en veilig: De nadruk op de robuustheid en veiligheid van AI-systemen is van het grootste belang. Bij het ontwikkelen van eigen AI is het van belang om maatregelen te implementeren om AI-oplossingen te beschermen tegen fouten, aanvallen en datalekken, waarbij de integriteit en betrouwbaarheid van systemen worden gewaarborgd.
- Bewaak menselijk vakmanschap en toezicht: Het is belangrijk om het belang van menselijk toezicht en vakmanschap bij de ontwikkeling, implementatie en gebruik van AI-systemen te erkennen. Dit principe benadrukt óók dat de uiteindelijke besluitvorming en ethische overwegingen bij mensen moeten liggen. Dit waarborgt dat AI-systemen menselijke waarden weerspiegelen. DDMA stelt bij dit principe ook vakmanschap centraal. Want hoe waarborg specialistisch vakmanschap (van bijvoorbeeld een CRO’er) wanneer je ChatGPT taken laat overnemen (en moet je dit überhaupt willen).
- Accountability en data governance: Óókverantwoording en governance rond AI en data zijn van belang. Organisaties kunnen ervoor kiezen om duidelijke richtlijnen te hanteren voor het beheer van AI en data, met als doel transparantie en verantwoording af te leggen aan alle belanghebbenden. Het inrichten van data governance is ook van belang voor de kwaliteit van AI. Zeker wanneer je AI ontwikkelt, is het van belang om je realiseren dat kwaliteit van output staat of valt met het op orde brengen van datastrategie.
- Duurzaamheid en maatschappelijke impact: Het is ook belangrijk om rekening te houden met de bredere sociale en ecologische impact van AI-technologieën. Het trainen van AI (modellen) kan een aanzienlijke impact hebben op het milieu (vanwege energieverbruik). Ook kan AI van invloed zijn op medewerkers, wanneer hun baan inhoudelijk veranderd of overbodig wordt.
Meer weten over de (ethische) kaders voor AI? Bekijk dan ook de volgende artikelen en pagina’s:
Gebruik de richtlijnen om je eigen kader op te stellen
Het voorgaande overzicht is een fundamentele illustratie van principes die kunnen worden meegenomen in het vormen van een solide kader om AI verantwoord in te zetten. Let wel op dat de omvang van het kader per organisatie behoorlijk kan verschillen. Als je bijvoorbeeld zelf een eigen AI ontwikkelt, brengt dat meer verantwoordelijk met zich mee dan ‘slechts’ het gebruik van genAI-tools als ChatGPT om efficiëntie te verhogen. Bij de ontwikkeling van eigen AI moet er ook goed worden nagedacht over met welke data er wordt getraind. En bij ChatGPT gaat het in essentie ‘enkel’ om het waarborgen van vertrouwelijkheid, waarbij de regel ‘gebruik geen bedrijfsinformatie en persoonsgegevens in ChatGPT’ wellicht voldoende is. In de kern hangt het dus per case af van of AI intern als tool wordt gebruikt óf klanten zelf direct interacteren met AI.
- Laatste legal updates in je mailbox? Meld je aan voor de DDMA Legal Nieuwsbrief.
- Ben je lid en heb je een vraag? Je kunt ons bereiken via 020 4528413 en legal@ddma.nl.
- Nog geen lid? Bekijk hier alle voordelen van het DDMA-lidmaatschap.