Of luister op Spotify of Apple Podcasts.
Waar komen Large Language Models vandaan en hoe werken ze?
De Text Transformer die Google al in 2017 introduceerde wordt door velen gezien als de voorloper van Large Language Models (LLMs). Deze zette men vooral in om tekst te vertalen, wat tot dan toe nog erg letterlijk en glitchy gebeurde, legt Lee uit. ‘Een large language model is een heel groot model dat goed is in het begrijpen en genereren van tekst. Waarbij bij traditionele, neurale netwerken je een aantal gelabelde voorbeelden geeft, is een LLM getraind op een hele grote corpus. Hierdoor weet een LLM alles van taal, en daardoor zal het ook weten hoe het je vraag moet begrijpen of hoe het tekst kan genereren.’
Op de vraag of LLMs simpel zijn, antwoordt Lee met een duidelijke ‘Ja’. Volgens haar is een LLM namelijk een eenvoudige tekstgenerator. Lee: ‘Een LLM voorspelt de kans op het volgende woord op basis van wat het model ooit aan data heeft gezien. Daarin schuilt meteen een groot nadeel van LLMs. Als een LLM getraind is op data met vooroordelen of onwaarheden, dan bestaat er de kans dat een LLM dit ook genereert. Daarnaast kunnen LLMs niet omgaan met concepten als intellectueel eigendom en copyright. Aan de andere kant zijn de mogelijkheden eindeloos. Er zijn inmiddels veel interessante use cases van AI-genereerde samenvattingen, rapporten, vertalingen, zoekmachine content, muziek, afbeeldingen, etc.’
Gaat AI ons werk af- of overnemen?
Binnen de marketingsector speelt de angst dat AI veel van ons werk gaat afnemen. Waar komt die angst precies vandaan? Wij hebben technologie immers altijd gebruikt om ons als mens te ontzien. Denk maar aan de auto, of de lopende band, legt Saskia uit. ‘Het verschil zit ‘m in het feit dat we nu de capaciteiten van onze hersenen aan het digitaliseren zijn, zoals snel denken en emoties. Mijn visie hierop is dat de echte, menselijke vaardigheden cruciaal geen zijn in relatie tot LLMs. Een aantal skills blijven heel belangrijk: (1) dat we durven dromen en verbeelden wat we precies willen, en vervolgens (2) de capaciteit om dat te vertalen naar vragen die we kunnen stellen aan technologie. Daarna moet je kijken of dat wat er uit technologie rolt, overeenkomt met wat je voor ogen had.’
Voor marketeers geldt dit ook. Die moeten gaan kijken naar hoe hun eruit gaan zien binnen alle technologische ontwikkelingen, aldus Saskia. ‘Neem het voorbeeld van de buschauffeur. Straks hebben we zelfrijdende bussen. Wil je dan nog iemand die alles in de gaten houdt, een host die eventueel kan ingrijpen? Met andere woorden, we moeten op alle vlakken gaan nadenken wat we als uitgangspunt nemen en vervolgens bepalen welke taken zijn weggelegd voor technologie en wat de mens daar vervolgens in kan betekenen. In de experimenten waar ik bij betrokken ben geweest, is de aanvankelijke angst voor LLM uiteindelijk omgeslagen in een omarming.’
De vraag is wel of iedereen meteen mee kan met de AI-beweging. Angst heeft een vertragende rol of organisaties zitten zo vast in hun routines dat revolutionaire veranderingen niet zomaar gedaan zijn. Saskia voorspelt eigenlijk wat ze altijd ziet bij grote verschuivingen: de 20/60/20-regel. ‘20% van de mensen begint meteen met Generative AI als early adopter. 60% kijkt naar die leidende groep en gaat er vervolgens zelf mee aan de slag. 20% gaat door op de manier zoals ze dat altijd hebben gedaan. Dat betekent echter niet dat ze het niet kunnen.’
De marketeer zal altijd nodig zijn, maar wel met andere taken
Ook als je kijkt naar de prompts – het stukje tekst dat een gebruiker aan een LLM voert met als resultaat een AI-gegenereerde tekst, plaatje, muziek, etc. – merk je dat marketeers zeker niet gaan verdwijnen, claimt Lee. ‘Het is zelden zo dat een gebruiker in één keer de goede prompt invoert om het gewenste resultaat te behalen. Prompt engineering is vooralsnog dus een vak apart. De output is ook iedere keer anders. Daarnaast is het ook zo dat IT en developers moeten afwegen of ze zelf een LLM gaan ontwikkelen, of bestaande modellen aanpassen. Marketeers en developers zullen daarom altijd nodig zijn om dit soort keuzes te maken.’
Uiteindelijk werken we toe naar een wereld waarin LLMs geïntegreerd zijn in software, zonder dat je er nog over na hoeft te denken. Zoals dat ook gegaan is met machine learning, legt Lee uit. ‘Denk bijvoorbeeld aan spamfilters, Youtube- of Spotify-voorkeuren en filevoorspellingen op Google Maps. Je staat niet meer stil bij het feit dat AI dit mogelijk maakt. Dit zal ook gebeuren met Generative AI. Denk bijvoorbeeld aan office tools: het opstellen van draft versies van e-mails, het bouwen van chatbots, het schrijven van draft-artikelen, het creëren van plaatjes en SEO-content.’
Uiteraard blijft de rol van de marketeer hierbij relevant. Alles wat je met AI maakt, moet je goed interpreteren en checken, benadrukt Lee. ‘Het is voor iedereen belangrijk om de drafts die je laat genereren, goed naloopt en er je eigen versie van maakt. Je moet het nu meer zien als hulptool, niet als middel om een volledig kloppend artikel te schrijven.
Stel je gaat hier niet in mee, wint concurrentie dan terrein?
Een belangrijke vraag is of concurrentie een onoverbrugbare voorsprong krijgt op het moment dat je – om wat voor reden dan ook – LLM links laat liggen? Nee, stelt Saskia: ‘Iedereen moet eerst goed nadenken wat LLMs voor hun organisaties kunnen betekenen. Wat is je propositie? In die zin bieden LLMs ons binnen de marketingwereld een mooie kans om vraag-gestuurd te gaan nadenken over je klanten. Op dit moment zijn we vooral bezig met het creëren van customer journeys zoals we zelf denken dat ze verlopen. LLMs geven ons echt een mogelijkheid om eindelijk die écht gepersonaliseerde content te creëren. Maar… daar moet je wel voor vertragen en goed weten waarvoor je het wil inzetten. Bedenk de toegevoegde waarde en maak het verschil ten opzichte van anderen door na de denken over hoe je wil dat klanten bepaalde dingen ervaren. Zo gaan we terug naar waar het marketingvak oorspronkelijk voor bedoeld is.’
Ondanks de verbluffende resultaten, moeten we kritisch blijven op LLMs
LLMs zijn niet zonder (privacy)risico’s. Ze hebben immers data nodig om goed te werken en daar moet je als organisatie goed over nadenken, aldus Saskia: ‘Er zijn een aantal punten waar je rekening mee moet houden, als organisatie maar ook als gebruiker. Je hebt de privacy- en bias-aspecten, waar regelgeving voor nodig is. Maar ten tweede gaat het ook over common sense. Nog een punt dat ik in deze context interessant vindt is dat wij als mensen geneigd zijn snel te geloven wat een computer uitspuugt, terwijl we onze collega’s, vrienden en familie al snel in twijfel trekken. Ook tegen computers moeten we kritisch zijn.’
LLMs hebben niks met feiten te maken, stelt Lee, instemmend knikkend, en benadrukt nogmaals de onwaarheden die een LLM kan verspreiden.Als een LLM op de vraag “wat is 1 + 1” als antwoord “2” geeft, en ik zeg volgens “Nee hoor, dat is niet zo, 1+1 is 3.” dan krijg je een excuus als “Excuus, ik ben maar een Large Language Model”. Het checkt dus geen feiten. Los gezien van LLMs in zoekmachines zoals Bard. Het gebruik van LLMs voor content generatie is een geweldige use case, maar om bijvoorbeeld in je contactcenter on-the-fly antwoorden direct aan je gebruikers te laten generen, dan loop je grote risico’s.’
Al met al moet je LLMs simpelweg niet voor lief nemen, stelt Saskia. ‘Ondanks de verbluffende resultaten die Generative AI kan genereren, moet je het altijd blijven bevragen.’