Spring naar content

De DDMA Commissie AI organiseerde in mei een ‘Elite’-sessie over het ethisch gebruik van data – voor het eerst virtueel, maar gelukkig nog steeds onder het genot van een stukje kaas en wijn. Met Jaap van den Herik, Hoogleraar Recht en Informatica aan de Universiteit Leiden en voorzitter van de Board of Directors van het Leiden Centre of Data Science (LCDS), als gastspreker discussieerden we met twintig experts over uitlegbaarheid, verantwoordelijkheid en de maatschappelijke acceptatie van AI.

Steeds complexere systemen

De ontwikkelingen op het gebied van AI gaan razendsnel. Systemen worden steeds complexer. Tegelijkertijd zorgt dit er ook voor dat het aantal mensen dat een systeem volledig kan begrijpen en overzien steeds kleiner wordt. Zeker met de trend richting ‘deep learning’ wordt het steeds lastiger om te begrijpen, en uit te leggen, waarom een systeem een bepaalde uitkomst heeft. Er wordt veel gesproken over ‘explainability’, het ontwerpen van AI-systemen die niet alleen een goede uitkomst hebben, maar ook nog kunnen uitleggen hoe ze tot die uitkomst gekomen zijn. Het is echter de vraag of uitlegbaarheid niet vooral zorgt voor extra complexiteit in algoritmes, zonder dat dit daadwerkelijk het onderliggende probleem oplost.

Explainability is niet de oplossing

Gastspreker Jaap van den Herik stelt dat explainability geen geschikte oplossing is. Het onderliggende probleem is of een AI-systeem een goede uitkomst heeft, in de ethische zin van het woord ‘goede’. Veel aandacht rond ethiek en onderzoek naar explainability van AI draait daarbij om bias. Er zijn slechte voorbeelden voor het gebruik van algoritmes en AI, waarin blijkt dat bias zorgt voor onwenselijke uitkomsten. Bias kan verschillende bronnen hebben: het ontwerp van het systeem kan een bias bevatten, maar ook de (vaak door mensen gegenereerde) data waarop het systeem getraind wordt, kan al een duidelijke bias bevatten die door het gebruik als trainingsdata zichtbaar wordt. Empirisch is de grootste oorzaak van bias de input-data voor het systeem: in plaats van te letten op uitlegbaarheid van systemen, zou hier meer aandacht voor moeten zijn.

Professor Van den Herik illustreert aan de hand van een aantal voorbeelden uit de rechtspraak dat het gebruik van menselijke beslissingen als trainingsdata de bias van deze mensen zichtbaar maakt in het algoritme. Het gebruik van AI-systemen maakt dit extra goed zichtbaar, doordat een algoritme met dezelfde input steeds dezelfde output heeft, en dat bias dus gemeten kan worden.

Algoritmes kunnen niet accountable zijn

Verschillende deelnemers aan de discussie dragen bij dat ‘biased’ menselijke keuzes vaak achteraf anders worden uitgelegd. Deze uitleg van een menselijke keuze wordt eerder geaccepteerd dan een keuze door algoritmen. Zo is het maatschappelijk geaccepteerd dat menselijke bestuurders van auto’s fouten maken waarbij ongevallen gebeuren. Een belangrijke factor die hieraan gerelateerd wordt is accountability, het principe dat er iemand verantwoordelijk is en aangesproken kan worden op foute beslissingen. Doordat een algoritme niet accountable gehouden kan worden is vrijwel 100% correctheid nodig voordat het algoritme geaccepteerd wordt.

Leg verantwoordelijkheid bij mensen

Een van de deelnemers geeft aan dat hier ook mogelijkheden zijn voor een “right to appeal”, de mogelijkheid om als gedupeerde van een door AI genomen beslissing als het ware in beroep te gaan bij een menselijke beslisser. Professor Van den Herik ziet in deze menselijke verantwoordelijkheid ook de basis voor een toekomstige verschuiving in de maatschappelijke acceptatie van AI. Een logische start van deze acceptatie is een mens die de beslissingen neemt, maar met ondersteuning van de algoritmes. Hiermee is ‘de mens’ nog steeds volledig verantwoordelijk voor alle uitkomsten, maar kan een systeem hierin ondersteunen. De volgende fase is dan een systeem dat zelfstandig beslissingen kan nemen, maar waar beslissingen van het systeem door een mens gereviewed worden. Dit zorgt ervoor dat er nog steeds verantwoordelijkheid voor het systeem is, en er dus geen algoritme in de cloud over van alles kan beslissen.

Aansluiten bij een volgende Elite over dit onderwerp? Stuur een mailtje naar erikmolkenboer@ddma.nl.

Tomas Salfischberger

Founder & Chief Strategy Officer | Relay42

Kevin Duijndam

Manager Performance Insights & Analytics | Air France-KLM (voorzitter)

Ook interessant

Lees meer
AI Act |

Wat de Digital Omnibus voor jou verandert:Data Act (4/4)

De Europese Commissie heeft op 19 november 2025 een pakket aan wijzigingen gepresenteerd om de regels voor het digitale domein te vereenvoudigen, ook wel Digital Omnibus genoemd. In deze korte…
Lees meer
AI Act |

AI-training op socials: geef je als bedrijfsaccount toestemming of niet?

Toestemming geven voor AI-training op social media is ineens een strategisch onderwerp geworden. Platformen zoals LinkedIn, Facebook en Instagram bouwen generatieve AI-functies die leren van enorme hoeveelheden content. En precies…
Lees meer
Artificial Intelligence |

DDMA Barometer 2025: The Dutch are reducing their digital media use, what does this mean for marketing in 2026?

A significant proportion of the Dutch population is working to reduce their digital media use. 35% of the Dutch population wants to reduce their digital media use or is already…