Betwistbare AI geeft burgers meer controle over slimme technologie

Nieuws - 30 augustus 2023

Een opiniestuk door Kars Alfrink

Het gebruik van AI neemt sterk toe in onze samenleving, ook bij overheden. AI wordt bijvoorbeeld gebruikt in de scanauto’s die door onze steden rijden. Die gebruiken beeldherkenning om de openbare ruimte te monitoren. Overheden gebruiken AI om dienstverlening efficiënter te maken. Maar kunnen wij, als burgers, de beslissingen ervan wel vertrouwen? Betwistbare AI is het idee dat we slimme technologie zo kunnen ontwerpen dat burgers er grip op houden. Zo kunnen we het vertrouwen in AI die door de overheid wordt gebruikt versterken.

Ik vind het al heel lang interessant om te zien hoe technologie de stedelijke omgeving beïnvloed. Wat vaak ‘smart cities’ genoemd worden. Een actueel voorbeeld zijn de zogenaamde scanauto’s die rondrijden in steden als Amsterdam, Delft en Rotterdam. Scanauto's controleren voertuigen: zijn ze correct geparkeerd? Hebben ze de juiste vergunning? Nu overwegen steden om deze scanauto's ook in te zetten om andere aspecten van de openbare ruimte te controleren. Staan er vuilcontainers zonder vergunning? Ligt er afval? En hoe zit het met verkeersborden en straatverlichting? Heeft de gemeente de openbare ruimte juist in kaart?

Scanauto's hebben veel functies die een gemeente efficiënter doen werken. Ze maken gebruik van artificiële intelligentie (AI) om deze taken uit te voeren, zoals bijvoorbeeld beeldherkenning.

Maar, voelt iedereen zich daar wel senang bij? Sommige inwoners vrezen dat ze te veel gecontroleerd zullen worden, terwijl anderen denken machteloos te zijn als een systeem hen benadeelt. 

Je kan deze zorgen voor een deel wegnemen door de werking van AI-systemen uit te leggen en te rechtvaardigen. Maar is transparantie wel genoeg? Wat heb je aan een uitleg als je het niet eens bent met hoe de AI werkt?

Je kan de zorgen voor een deel wegnemen door de werking van AI-systemen uit te leggen en te rechtvaardigen. Maar is transparantie wel genoeg? Wat heb je aan een uitleg als je het niet eens bent met hoe de AI werkt?

― Kars Alfrink

En hoe praat je als burger mee over vragen zoals: hoe worden die AI-systemen gebouwd? Wie bepaalt hoe ze ontwikkeld worden? Wat gebeurt er als een systeem schadelijk blijkt te zijn?

Van transparantie naar betwistbaarheid

Verantwoording afleggen is belangrijker dan ooit voor overheden. Het vertrouwen in de overheid is in Nederland al enige tijd aan het afnemen. Veertig procent van de Nederlanders zegt bijvoorbeeld weinig tot zeer weinig vertrouwen te hebben in hun lokale overheid.

Ook scanauto's zijn niet onbesproken. Je herinnert je misschien de ophef over het scannen van mensen tijdens de coronapandemie in Rotterdam. Tijdens de lockdown moesten mensen in de openbare ruimte anderhalve meter afstand van elkaar houden. De Rotterdamse politie zette scanauto's in om deze noodregel te handhaven. In december 2022 kreeg de politie een berisping voor deze praktijk omdat het in strijd was met de privacywetgeving.

De kans om te tegenmacht te bieden

Ik ben gefascineerd door hoe mensen technologie naar hun hand zetten op vaak onvoorziene wijze. Met Betwistbare AI ontwerpen we AI-systemen die openstaan voor tegenspraak gedurende hun hele ‘levenscyclus’, dus niet alleen na de uitrol, maar ook tijdens de ontwikkeling ervan.

Met Betwistbare AI ontwerpen we AI-systemen die openstaan voor tegenspraak gedurende hun hele ‘levenscyclus’, dus niet alleen na de uitrol, maar ook tijdens de ontwikkeling ervan.

― Kars Alfrink

Bij de ontwikkeling van een AI-systeem moeten er mogelijkheden zijn voor burgers om als volwaardig gesprekspartner meningen en ideeën uit te wisselen over het systeem, het gebruik en het doel ervan. Daarnaast moet de gekozen technologie altijd omkeerbaar en aanpasbaar zijn, omdat het onmogelijk is om alle gevolgen vooraf te voorzien. Onze samenleving verandert immers voortdurend.

De tweede pijler van Betwistbare AI is dat burgers AI-beslissingen kunnen aanvechten. De gegevens en procedures waarop een beslissing is gebaseerd - zoals in het geval van een boete - moeten op een begrijpelijke en toegankelijke manier beschikbaar worden gemaakt. Bovendien moeten burgers middelen krijgen om zich uit te spreken en om op voet van gelijkheid met ambtenaren in gesprek te gaan.

Een interessant voorbeeld is Amsterdam. De scanauto's van de hoofdstad controleren of voor een parkeerplaats betaald is. Tegelijkertijd voeren ze extra gegevenscontroles uit. Of het voertuig als gestolen aangegeven staat, bijvoorbeeld. Af en toe wordt een bestuurder ten onrechte bekeurd. Als een burger denkt dat een boete niet klopt, kan zij naar een website gaan en de beelden van de gescande auto bekijken voordat zij beslist om de boete wel of niet aan te vechten. De totstandkoming van deze voorziening was een leerproces voor Amsterdam, deels aangejaagd door de boven gemiddeld mondige Amsterdammer.

We moeten rekening houden met zowel technologie als maatschappij. Design heeft veel te bieden op dit vlak, omdat het verschillende soorten kennis kan combineren.

― Kars Alfrink

AI ontwerpen voor een complexe wereld 

Wij, als ontwerpers, moeten verantwoordelijkheid nemen voor de gevolgen van de systemen die we helpen bouwen. Ethische uitdagingen rond AI kunnen niet worden opgelost met puur technische oplossingen. We moeten rekening houden met zowel technologie als maatschappij. Design heeft veel te bieden op dit vlak, omdat het verschillende soorten kennis kan combineren. Ontwerpers zijn bovendien bedreven in het vinden van nieuwe oplossingen, zelfs bij zeer complexe situaties.

Als burgers willen we een overheid met een menselijk gezicht. Om dat te bereiken moeten overheden burgers betrekken bij beslissingen over AI. Voor, tijdens, en na de implementatie van nieuwe systemen. Dit is niet eenvoudig, maar het is cruciaal als we als samenleving over écht betrouwbare AI willen beschikken.
 

Bekijk de conceptvideo over betwistbare AI: