Spring naar content

Er kleven ook nadelen aan Generative AI en Large Language Models

Als je weleens met een Large Language Model als ChatGPT hebt geëxperimenteerd, weet je dat het verbluffende resultaten kan generen. Je moet echter wel uitkijken want er kleven ook een aantal substantiële nadelen aan de wondere wereld van generative AI en LLMs. We moeten de gegenereerde resultaten daarom altijd kritisch bekijken.

  1. Misinformatie
    LLMs kunnen feiten ‘hallucineren’ en teksten genereren die gewoonweg niet kloppen. Door hun gebruiksgemak en de oppervlakkige vloeiendheid van de gegenereerde tekst kunnen ze worden gebruikt om snel grote hoeveelheden tekst te creëren die fouten en misinformatie bevatten.

    Vanwege de vloeiendheid van deze modellen en de manier waarop het fouten kan generen hebben experts hun bezorgdheid geuit over de massaproductie van valse informatie met behulp van deze modellen. Mensen kunnen ten onrechte geloven dat deze modellen de output hebben geproduceerd. Essays, tweets en nieuwsartikelen kunnen vals of misleidend geproduceerd worden met behulp van modellen als GPT-3. Zelfs OpenAI’s CEO Sam Altman waarschuwde hiervoor:

    “It’s a mistake to be relying on [ChatGPT] for anything important right now. We believe in shipping early & often, with the hope of learning how to make a really useful and reliable AI through real-world experience and feedback.”
  • Vooringenomenheid
    LLMs genereren tekst in een vergelijkbare stijl als waarop ze zijn getraind. Zelfs wanneer LLMs zijn getraind op een grote verscheidenheid aan internettekst, is het nog steeds zo dat de modeloutput sterk afhankelijk is van de trainingsgegevens, zelfs als dit niet meteen duidelijk is in de tekst die ze genereren.

    Het is vooral problematisch wanneer de trainingsgegevens meningen en opvattingen bevatten die controversieel of beledigend zijn. Er zijn veel voorbeelden van LLMs die beledigende tekst genereren. Het is vooralsnog niet haalbaar om een neutrale trainingsset te construeren.
  • Intellectueel eigendom
    Generatieve AI heeft potentie om inbreuk te maken op intellectueel eigendom en legt een last op IP-houders om hun IP-rechten te bewaken en handhaven. De technologie vereist dat bedrijven die AI produceren en beheren, passende normen en beleidsmaatregelen vaststellen om zich te beschermen tegen IP-inbreuken door generative AI.

    Een recente rechtszaak tegen GitHub Copilot, een tool die automatisch werkende code schrijft wanneer een programmeur begint te typen, kan de toekomst van generative AI en het auteursrecht veranderen. In deze rechtszaak beweerde een programmeur dat GitHub de open-source licenties van Microsoft en OpenAI zou schenden. De definitieve uitspraak hiervan zou breed impact kunnen hebben op de wereld van AI. GitHub wordt aangeklaagd wegens schending van het auteursrecht omdat het geen attributie, de vermelding van de auteursrechthebbende, geeft wanneer open-source code wordt gedekt door een licentie die dit vereist. De advocaat van de eiser verklaarde:

    “This is the first step in what will be a long journey. As far as we know, this is the first class-action case in the US challenging the training and output of AI sys­tems. It will not be the last. AI systems are not exempt from the law. Those who create and operate these systems must remain accountable.”
  • Trainingskosten
    Het trainen van AI-systemen brengt aanzienlijke milieu- en financiële kosten met zich mee. Het gebruik van energieverslindende chips voor machine learning-training wordt nu al verbonden aan een toename van CO2-uitstoot.

De aankomende AI Act: houd de juridische ontwikkelingen in de gaten

Naast de nadelen, is het belangrijk om te weten dat er op dit moment nieuwe Europese regels voor AI worden ontwikkeld. In april 2021 publiceerde de Europese Commissie een voorstel voor de AI Act, die ervoor moet zorgen dat eventuele “nieuwe risico’s of negatieve gevolgen voor individuen of de samenleving” zo veel mogelijk worden beperkt. Naast het gebruik van AI-systemen (zoals generatieve AI) door burgers, vallen ook het gebruik binnen kritieke infrastructuren (zoals ziekenhuizen en energiecentrales) onder de AI-wet. In haar voorstel streeft de Europese Commissie naar een balans, aangezien innovatie en ontwikkeling ook moeten worden gestimuleerd. Zoals de Europese Commissie het verwoordt:

“Het is in het belang van de EU om haar technologische leidende positie te handhaven en ervoor te zorgen dat Europeanen kunnen genieten van nieuwe technologieën die zijn ontwikkeld en werken volgens de waarden, fundamentele rechten en beginselen van de Unie.”

In de praktijk zal de AI-wet nieuwe regels en verplichtingen vaststellen voor providers, importeurs, distributeurs en gebruikers (niet eindgebruikers) van een AI-systeem. Afhankelijk van de kwalificatie van de gebruikte generatieve AI (hoog risico of niet), kan het nodig zijn om deze nieuwe regels en verplichtingen te volgen. Dus als generatieve AI wordt gebruikt binnen jouw organisatie, is het belangrijk de ontwikkelingen rondom de AI Act goed te volgen.

Zorg voor de juiste juridische basis

Als je persoonlijke gegevens verwerkt van Europeanen of binnen Europa, moet je voldoen aan de Algemene Verordening Gegevensbescherming (AVG). In sommige gevallen kan de data die je invoert of die door generatieve AI wordt geproduceerd, worden gekwalificeerd als persoonsgegevens onder de AVG. Denk bijvoorbeeld aan het invoeren van contactgegevens om een e-mail op te zetten of het ontvangen van een reactie met persoonlijke informatie.

Als dit het geval is, moet je je dus houden aan de regels die zijn vastgelegd in de AVG en moet je aan 3 dingen voldoen.

  1. Je moet een een ‘juridische basis’ moet hebben voor de verwerking (bijvoorbeeld toestemming krijgen)
  2. Je moet een duidelijk doel hebben voor waarom je de persoonsgegevens verwerkt
  3. Je moet informatie verstrekken aan de persoon van wie je persoonsgegevens verwerkt (de ‘gegevenssubject’).

In de praktijk worden deze punten echter zelden behandeld bij het gebruik van generatieve AI.

Daarnaast kent de AVG bepaalde verantwoordelijkheden. Als je persoonsgegevens invoert in generatieve AI, wordt u waarschijnlijk gezien als een ‘verwerkingsverantwoordelijke’. Dit betekent dat jij verantwoordelijk bent voor de verwerking die wordt uitgevoerd door de aanbieder van de generatieve AI die de persoonsgegevens ontvangt (de ‘verwerker’). In geval van een datalek ben jij dan ook aansprakelijk zijn voor de schade die is opgetreden bij de personen. Maar alleen voor het deel van de verwerking dat de generatieve AI namens jij uitvoert. Voor de verwerking die de provider zelf uitvoert (bijvoorbeeld het trainen van het model), worden zij zelf gezien als een verwerkingsverantwoordelijke.

Ook verplicht de AVG je als verwerkingsverantwoordelijke om een bepaalde set overeenkomsten met de verwerker op te zetten over de verwerking (ook wel bekend als een ‘gegevensdelingsovereenkomst’). Dus bij het gebruik van generatieve AI moet je controleren of er overeenkomsten zijn gesloten over de verwerking. Deze overeenkomsten zijn nog belangrijker bij het gebruik van generatieve AI met een server die zich buiten de EU bevindt. In dat geval is het noodzakelijk om extra waarborgen in te stellen om ervoor te zorgen dat het beschermingsniveau gelijk blijft.

Tot slot

Onder aan de streep wordt duidelijk dat er veel bij komt kijken als je generative AI binnen je bedrijfspraktijk wil inzetten. Het kan veel opleveren en de resultaten zijn verbluffend, maar er schuilen ook veel nadelen aan LLMs. Bovendien verschilt dit ook per marketingdiscipline. Waar de ene LLMs gebruikt als experiment kan de ander het wellicht structureler inzetten. Een echt volwassen inzet van de nieuwe technologie blijft in ieder geval nog uit.

Dit artikel is ontstaan vanuit een samenwerking met de volgende auteurs: Lee Boonstra (Google), Marike van de Klomp (ABN AMRO), Robin Hogenkamp (VodafoneZiggo) en Romar van der Leij (DDMA). Met bijdragen van Martijn van Vreeden, Kevin Duijndam (KLM), Didric van den Borne (Merkle), Jimmy de Vreede (Springbok Agency), Daan Aussems (SDIM) en Andries Hiemstra ([ah]consulting).

Meer over Generative AI en Large Language Models? Luister dan naar de eerste aflevering van het tweede seizoen van de DDMA Podcast: Shaping The Future, over de positieve én negatieve implicaties van de technologie voor het marketingvak. 

Lee Boonstra

Applied AI Engineer and Developer Advocate bij Google

Marike van de Klomp

Lead Product Owner Digital Channels & Conversational AI bij ABN AMRO

Robin Hogenkamp

Senior Business Consultant CX | VodafoneZiggo (commissievoorzitter)

Romar van der Leij

Voormalig Legal counsel | DDMA

Ook interessant

Lees meer
AI Act |

Europese Commissie publiceert concept van ‘code of practice’ voor gebruik LLM’s

De Europese Commissie heeft op 14 november de eerste conceptversie van de Code of Practice voor General Purpose AI modellen (Code) gepubliceerd. De Code moet straks meer invulling geven aan…
Lees meer
AI Act |

Nieuwe marketinggids Responsible AI voor de verantwoorde inzet van AI in marketing

VIA Nederland, DDMA en bvA, drie brancheverenigingen in de marketingsector, hebben vandaag met trots de Marketinggids Responsible AI gepresenteerd. Deze gids, ontwikkeld als een ‘levende’ leidraad, biedt marketeers concrete richtlijnen…
Lees meer
Artificial Intelligence |

Best of DDMA Research & Insights 2024

In een marketingtijdperk waarin data, technologie en consumentengedrag continu veranderen, is gedegen onderzoek cruciaal. Door middel van uitgebreide (consumenten)onderzoeken en benchmarks bieden we onze leden grip op deze veranderingen. In…