Wie is straks verantwoordelijk voor een crash?

Filippo Santoni de Sio is assistant professor bij de TU Delft en doet onderzoek naar de morele verantwoordelijkheid bij opkomende technologieën, in het bijzonder neurotechnologieën en robotica. Een voorbeeld hiervan is zelfrijdende auto's. Een techniek die veelvuldig wordt getest. Maar als het straks fout gaat, wie is dan verantwoordelijk voor de crash?

Wie is straks verantwoordelijk voor een crash?

Opeens remt je zelfrijdende auto af voor een Burger King bord, waardoor het een ongeluk veroorzaakt. Wiens schuld is het dan? Wettelijk gezien is dat heel makkelijk te zeggen, want in de contracten staat nu nog dat de bestuurder altijd verantwoordelijk is. Maar dat voelt niet bepaald eerlijk. We zouden liever naar de computer wijzen, die besloot om opeens af te remmen. Toch werkt ook dat niet echt; je geeft je rekenmachine ook niet de schuld voor een rekenfout, maar wel de programmeur van de software. Net zo goed heeft de computer niet echt een besef van de beslissingen die genomen worden, kan je hem niet straffen en kan hij geen verantwoording afleggen. De verantwoordelijkheid zal verdeeld moeten worden tussen de bestuurder en de ontwerpers en programmeurs van de zelfrijdende auto. Die programmeurs hadden beter op moeten letten met Burger King borden.

Het vervelende aan kunstmatige intelligentie is dat ook dat niet zo makkelijk te stellen is. De systemen zijn zo complex dat die programmeurs niet redelijkerwijs alle fouten aan zien komen. Het wordt een kat en muis spel tussen de bestuurder, die lastig kan ingrijpen als de computer opeens iets geks doet, en de programmeur die niet alle fouten eruit kan halen. Uiteindelijk zou de verantwoordelijk moeten liggen bij degene die controle heeft over de uitkomsten, maar ook dat is weer een uitdaging op zich. Universitair Hoofddocent Filippo Santoni de Sio vertelt er meer over in het onderstaande filmpje.

Bekijk de video: Hoe houden we robots onder controle? [Engelstalig]