Hoe ga je verantwoord om met AI?

Stefan Buijsman is assistant professor bij de TU Delft en doet onderzoek naar de verklaarbaarheid van AI algoritmes en hoe AI verantwoord en voordelig gebruikt kan worden. Hoe ga je verantwoord om met AI? 

Hoe ga je verantwoord om met AI?

Discriminerende algoritmes, zelfsturende wapens waar niemand meer controle over heeft, beslissingen die gemaakt worden zonder uitleg of mogelijkheid tot bezwaar, het zijn risico’s die meekomen met kunstmatige intelligentie. Die willen we het liefste vermijden, en dat kunnen we tot op zekere hoogte ook. Door actief in het ontwerp van algoritmes en onze omgang ermee te kijken naar waarden, zoals eerlijkheid, uitlegbaarheid en transparantie kan je ze meenemen tijdens het bouwen. Zo kan je met infraroodcamera’s drukte meten, in plaats van met gewone camera's. Dan weet je wel hoe veel mensen ergens lopen, maar niet wíe er loopt. Hetzelfde geldt voor kunstmatige intelligentie: door goed na te denken over wat het doel is en welke waarden het systeem moet realiseren kunnen we voor verantwoorde uitkomsten zorgen.   

Natuurlijk is dat makkelijker gezegd dan gedaan. Het kan lastig zijn om in te schatten wie de gevolgen ondervinden van een AI systeem, en al helemaal wat die gevolgen gaan zijn. Discriminatie is bijvoorbeeld alleen op te merken in een systeem als je er actief op test. Tegelijkertijd kunnen we er niet altijd iets aan doen: als de basis, de data waar een systeem van leert, oneerlijke beslissingen bevat dan is het lastig om een computer eerlijke patronen aan te leren. We hebben dus een actieve aanpak nodig die kijkt naar de betrokkenen en hun waarden vertaald naar de techniek. Daarna kunnen we oplossingen uitproberen en is het belangrijk het systeem in de gaten blijven houden voor het geval we toch iets gemist hebben. Want ook met de beste intenties maken we fouten.