5 juni 2018 Menselijke Maat

Tada in de praktijk – Jim Stolze en Aigency

Douwe Schmidt
  • Follow us on Facebook
  • Follow us on LinkedIn
  • Follow us on Twitter

“Over 15 jaar wil ik mijn zoon kunnen uitleggen wat wij deden om kunstmatige intelligentie begrijpelijk te houden, zodat ook zijn generatie zeggenschap zal hebben over de systemen die dan beslissingen nemen.” aan het woord is Jim Stolze, de medeoprichter van Aigency: een platform dat studenten met bedrijven verbindt die met kunstmatige intelligentie aan de slag willen. Naast AI voor bedrijven “zorgen we, via AI for Good, dat Ai ook gebruikt kan worden door NGO’s en gemeentes.” zegt Stolze, “want Ai is te belangrijk om alleen aan bedrijven over te laten, dan wordt het een perversie.”

Zoals de meeste nieuwe technologieën is ook kunstmatige intelligentie slechts toegankelijk voor een elite. Kunstmatige intelligentie is afhankelijk van grote datasets en complexe analyse technologie. Hierdoor zijn de barrières tot toetreding hoog en er is risico op de vorming van platform monopolies.

Stolze erkend dat dit nu zo is, maar dit verandert erg snel: “Uiteindelijk kan zelfs de bakker op de hoek aan de slag met kunstmatige intelligentie. Zowel het bronmateriaal, de datasets, als de tools worden snel bereikbaarder. Vrijwel iedereen kan er binnen vijf jaar gebruik van maken. ”

“Sinds kort gebruiken we de tool OpenML. Dat is een nieuwe geautomatiseerde vorm van data wetenschap waarmee we nu analyses in een half uur doen waar we vroeger een maand voor nodig hadden.” Maar vaak wat je aan tijd wint, verlies je aan begrip. Een oplossing van een Ai is niet altijd begrijpbaar en dat is, volgens Stolze, wel een vereiste.

“De ontwikkelingen op Ai-vlak gaan op dit moment zo snel, dat we uit de bocht dreigen te vliegen. Rekenkracht en datasets groeien wel exponentieel, maar menselijk aanpassingsvermogen niet. Als we nu niet een aantal goede kaders en principes hanteren voor Ai, racen we de verkeerde kant op.”

“Tegen studenten zeg ik dat, omdat ze geen maand maar slechts een half uur kwijt zijn aan analyse, ze best twee weken kunnen gaan besteden aan het uitzoeken en uitleggen waarom hun oplossing werkt. Een oplossing is geen oplossing als je niet begrijpt hoe het werkt. Je moet altijd kunnen uitleggen waarom een Ai iets ontdekt heeft.”

Nadenken over de ethiek, het waarom, het hoe en of het wel een goed idee is, is nu de grootste uitdaging in de wereld van Machine Learning en kunstmatige intelligentie volgens Stolze. “Ik was gisteren bij een symposium over kunstmatige intelligentie op het Paleis op de Dam. Aanwezig waren naast het koningspaar ook wetenschappers en mensen uit het bedrijfsleven. De discussie ging vooral over techniek, of over gevaren van heel ver weg (na 2040). Op de een of andere manier wordt de discussie over wat we vandaag kunnen doen in Nederland nauwelijks gevoerd.”

Een goed voorbeeld uit de praktijk vind ik ING. Zij hebben een ethical board die een keer per maand bij elkaar komt en ook echt het mandaat heeft om projectvoorstellen af te keuren. We hebben meer van dit soort voorbeelden nodig.

Daarom ben ik ook supporter van Tada. Tada is een kompas en een begin van een conversatie, en elk bedrijf zou hier een eigen invulling aan moeten geven. Simpelweg Don’t be evil zeggen is niet meer genoeg.


Kijk verder:

 

Geef een reactie