Luister naar Menno Zevenbergen in de Voice Pioniers podcast met Maarten Lens-FitzGerald (DDMA). In deze aflevering vertelt Zevenbergen over de opkomst en mogelijkheden van digital humans. Te beluisteren via elke podcast-app (zoals Spotify en Apple) of Soundcloud.
Een visuele merkidentiteit
Je kan een digital human het beste vergelijken met een chatbot van een klantenservice. Net als bij chatbots zijn conversaties tussen klanten en human agents overgenomen door een bot. Alleen bij een digital human is er ook een visueel aspect aan toegevoegd, legt Zevenbergen uit: “Klanten praten daadwerkelijk met een virtueel opgebouwd gezicht of zelfs met een heel lichaam. Op deze manier verbinden merken een visuele identiteit aan hun organisatie. In Tv-reclames zie je dit al gebeuren, bijvoorbeeld bij Albert Heijn die hetzelfde personage, de supermarktmanager (gespeeld door Randy Fokke), continu laat terugkomen. Dit zou je ook virtueel kunnen toepassen in de klantenservice zodat klanten uit heel Nederland direct met dezelfde supermarktmanager kunnen communiceren.”
Snelle implementatie en niet ‘echt’ VS. realtime en levensecht
Een van de meest recente projecten van Greenhouse was het creëren van een digital human voor een intern event van ICI PARIS XL. De opdracht: ze wilden een virtuele identiteit die het event kon hosten. Het resultaat: digital human ‘Paris’. Voor ICI PARIS XL was dit een ideale test of een digital human ook kon worden ingezet voor communicatie met klanten, aldus Zevenbergen. Maar een digital human maken kan op verschillende manieren.
“De manier waarop je een digital human maakt moet afhankelijk zijn van je doelstellingen. Je kan net als ICI PARIS XL kiezen voor een partij als Metahuman van Unreal Engine, hierin kun je zelf een eigen persona creëren. Een andere optie is Synthersia, waarbij je simpelweg een video met jouw gekozen identiteit uploadt. Vervolgens wordt er een gezicht op geplakt dat veel op het gezicht in de video lijkt. Het probleem hiermee is wel dat je bij dit soort digital humans ziet dat het geen ‘echte’ mensen zijn. Als je dat wil, kan je er ook voor kiezen om via een platform als Uneeq zelf je gehele digital human op te bouwen. Zo organiseerden we van de zomer een Hackathon over Swapfiets. Dat was echt indrukwekkend. Je kont echt het gesprek aangaan met een levensechte digital human, die in realtime terugpraat. De ontwikkeling van dit soort digital humans neemt echter veel meer tijd in beslag.”
Kort gezegd hangt de trajecttijd af van hoever je wil gaan, legt Zevenbergen uit. “Wil je een persoonlijk gezicht? Moet het realtime werken? Als je een standaard gezicht kiest en alles van tevoren opneemt, dan kun je binnen een paar weken de eerste testen doen, weliswaar nog niet een echte implementatie. Als je geavanceerder te werk wil gaan en een eigen digital human wilt opbouwen heb je meer tijd nodig. Je moet dan ook je merkteam bij het traject betrekken. Daarnaast brengt een technische implementatie van deze schaal ook de nodige hobbels met zich mee. Je zet namelijk als het ware een continue livestream op je website en dat heeft een grote impact op de vindbaarheid van je website.”
SSML en gezichtsuitdrukkingen
In principe werken digital humans niet anders dan voice applicaties, legt Zevenbergen uit. In het geval van Swapfiets hebben we een chatbouwplatform gekoppeld aan de gebruikte digital human platformen. Het gesprek is dus nog steeds net zo goed als dat van een voicebot. Net als bij voicebots gebruik je SSML (Speech Synthesis Markup Language) om toonhoogte, uitspraak en pitch te bepalen, alleen bepaal je nu de gezichtsuitdrukkingen en de emoties die daarmee gepaard gaan. Op basis van reacties die iemand geeft stel je die emoties in. Op deze manier kun je echt een relatie met klanten opbouwen. Tot nu is het mogelijk 6 tot 7 gezichtsuitdrukkingen in je digital human te verwerken. Het zou gek zijn als het hierbij zou blijven. Wij laten als mensen misschien wel 1000 verschillende uitdrukkingen zien. Daar valt dus nog veel te behalen.”
Digital humans en spoofing
Spoofing gebeurt steeds meer. En volgens Zevenbergen zal dat alleen nog maar toenemen: “We kunnen alles steeds meer humanlike fabriceren: of het nu gaat om stem, inhoud, of het gezicht. We kunnen heel ver gaan, waardoor het verschil tussen echt en nep steeds moeilijk te onderscheiden is. Het is echt aftellen totdat we het verschil niet meer kunnen zien. Er zal uiteindelijk wel technologie bedacht worden om spoofing digital humans te herkennen. We zouden eigenlijk moeten gaan werken met geverifieerde businessaccounts, zoals dat nu ook gebeurt bij WhatsApp.”
Digital humans: waar begin je?
Om een digital human te creëren heb je kennis nodig vanuit verschillende disciplines, geeft Zevenbergen aan. “Het is belangrijk dat je vanaf het begin iemand betrekt vanuit het conversational team, het merkteam en iemand uit het contactcenter. Daarnaast moet je op zoek gaan naar een partij met 3D-skills, bijvoorbeeld een gaming- of AR-club. En afhankelijk van hoeveel in-house conversational kennis je hebt, ook een conversational partij. Tot slot moet je nog een weloverwogen keuze maken voor het platform waarmee je de human agent gaat maken en het kanaal waarvoor je het wil inzetten. Web is naar mijn idee voor de meeste organisaties de meest logische stap.”
Dit is deel 7 van de podcastserie Voice Pioniers, een podcast met koplopers op het gebied van voice-applicaties- en assistenten. Dit artikel is ook verschenen op Emerce.
Deel 1: Sascha Fokker (Zorgbalans): “Bij het ontwikkelen van een voice-applicatie moet je groot denken, maar houd altijd de eindgebruiker in gedachten”.
Deel 2: Cindy Bake (AVROTROS): ‘Reserveer genoeg tijd om je voice-applicatie te testen’
Deel 3: Marike van de Klomp (Vattenfall): ‘Start met het opbouwen van kennis over conversational kanalen’
Deel 4: Justin Meijer (Rabobank): “De klantenservice is hét gedeelte van organisaties waar je met voice het meeste succes kan behalen”
Deel 5: Badal Marhé (Interpolis): “De meeste voice actions zijn eendagsvliegen”
Deel 6: Bram Beckmans (WWF): “baken je doelen af en betrek experts om het verhaal te vertellen”