27 november 2018 Open en Transparant

Interview: Mona de Boer. “Laat de algoritmes zelf maar uitleggen hoe ze werken”

  • Follow us on Facebook
  • Follow us on LinkedIn
  • Follow us on Twitter

Mona de Boer is auditor van systemen bij PwC. Ze opent en ontleed systemen en maakt ze begrijpbaar en betrouwbaar voor gebruikers. “Als kind wilde ik hersenchirurg worden. Door onder de hersenpan te kijken, zou ik mensen begrijpen. Nu kijk ik onder de motorkap van complexe digitale systemen; neurologische, zelflerende netwerken. Je zou kunnen zeggen dat ik via een omweg toch ben gekomen waar ik wil zijn.”

De kern van wat alle accountants doen is het verkleinen van de informatie-asymmetrie die bestaat tussen het bestuur van een bedrijf en de aandeelhouders. Dit is essentieel voor de aandeelhouders om zeker te weten dat hun geld goed terecht komt; kan ik als externe partij investeren in een bedrijf? Kan ik ze vertrouwen?

Maar een aspirerend hersenchirurg houd je niet tevreden met een simpele activa-passiva balans. Het is de snel toenemende digitalisering van de informatie waarop beslissingen worden gebaseerd en de automatisering van deze beslissingen die deze rol uitdagend maakt. Soms dermate uitdagend dat de Boer nieuwe methodes moet ontwikkelen om aan de vraag van betrouwbaarheid te kunnen blijven voldoen.

“In de recente jaren zien we drie essentiële factoren bij elkaar komen: dataficatie; steeds meer ‘dingen’ worden gemeten en als data opgeslagen, digitalisatie; al deze data wordt voornamelijk (en meestal uitsluitend) in digitale vorm opgeslagen, en rekenkracht; de techniek om met deze bergen, nu digitale, data ook daadwerkelijk iets te doen is voorhanden.”

Dit heeft ons in staat gesteld prachtige zelflerende systemen te ontwikkelen die telkens beter in staat zijn om patronen te analyseren, voorspellingen te doen en ons te helpen grip te houden op complexiteit.

Echter de uitdaging zit ‘m in het uitleggen. Dát iets werkt is niet genoeg. We willen weten hóe het werkt.

Zo werken scholen steeds vaker met algoritmes om advies te geven over het niveau van de vervolgopleiding. Als je zoon- of dochterlief VMBO in plaats van HAVO krijgt, dan willen we weten waar dit op gebaseerd is.

Met relatief eenvoudige algoritmes kunnen we het al uitleggen; Hendrik gaat naar het VMBO omdat hij altijd onvoldoendes haalt, 15% van de lessen mist en nog nooit een boek heeft geleend. Maar als de complixiteit toeneemt, zoals met neurale netwerken, nadert de uitlegbaarheid al snel nul: Susana gaat niet naar het VWO op basis van haar scholier-score. Deze is gegeven door een zelflerende AI die gebruikt maakt van een database van 1,5 miljoen Nederlandse leerlingen met 1.500 datapunten waaronder: gezinsomvang, reisgedrag, sociale media posts en BKR registratie.

Zijn dit soort complexe, zelflerende, en zichzelf verbeterende algoritmes nog wel uit te leggen? Kan je nog vertrouwen creëeren als niemand meer weet hoe de blackbox werkt?

“Ja, dat kan en dat moet”, denkt de Boer. “Theoretisch is alles uitlegbaar. Ook neurale netwerken, maar of het altijd in de praktijk haalbaar is… kan je je afvragen. Het uitleggen van een zeer complex systeem kost tijd en inzet. En deze kosten maken we niet graag.”

Wellicht is nog de beste optie dat we het uitleggen van de systemen aan de systemen zelf overlaten. Op deze mogelijkheden zal de Boer zich de komende jaren in haar PhD onderzoek richten: “Ik denk dat binnen 10 jaar een neuraal netwerk zichzelf met grote zekerheid kan uitleggen. Dit zal nog niet economisch rationeel zijn voor alle algoritmes. We zullen dus keuzes moeten maken welke we uitlegbaar willen en kunnen hebben.”

Ook in de niet zo nabije toekomst kunnen we dus niet verwachten van elk systeem dat het uitlegbaar is. We zullen keuzes moeten maken. Daar waar we verplicht worden, door wet of door ethiek, zullen zowel bedrijven als overheden hierin moeten investeren.