Menu

Zoek op
rubriek
Data&Privacyweb
0

Marlies van Eck: “Elk geautomatiseerd beslissysteem moet een Kafka-knop hebben”

Om snel en efficiënt besluiten te kunnen nemen maakt de overheid vaak gebruik van geautomatiseerde besluitvorming. Doordat de beslissystemen complex zijn valt echter moeilijk te toetsen of deze in overeenstemming zijn met de wet, waardoor het gevaar van schending van mensenrechten op de loer ligt. Bij een fout moet de burger het veelal op een procedure laten aankomen om zijn recht te halen. Hoe kan burgers rechtsbescherming geboden worden bij geautomatiseerde besluitvorming? Data&Privacyweb sprak erover met Marlies van Eck. Zij schreef een proefschrift over rechtsbescherming bij geautomatiseerde ketenbesluiten van de overheid.

27 sep 2021

Een valkuil bij geautomatiseerde besluiten is dat sommige feiten en omstandigheden niet kunnen worden meegewogen in het besluit. Hoe valt dat te verklaren?

“Een computer kan alleen met harde normen werken. Alleen kent de wet ook veel open normen. Stel dat er in een wetsartikel staat dat iemand juridisch gezien in een gemeente woont als deze daar grotendeels verblijft. Een computer kan niets met een term als ‘grotendeels’. Zo’n term zal dus moeten worden vertaald in een harde norm, bijvoorbeeld ‘80 procent van de tijd’.
Wanneer een computer vervolgens op basis van zo’n vaste norm gaat beslissen, valt de nuance weg. In gevallen waarin de situatie niet direct helder is ontstaat dan een probleem. Iemand kan voor zijn werk bijvoorbeeld afwisselend wel en niet in het buitenland wonen. Dat laat zich lastig vertalen in een harde norm.”

Maar de burger kan bij een gemaakte fout toch bezwaar aantekenen?

“Dat klopt. Volgens artikel 22 van de Algemene Verordening Gegevensbescherming (AVG) moeten er bij geautomatiseerde besluiten voldoende waarborgen voor de betrokkene zijn. Volgens de wetgever heeft Nederland aan deze plicht voldaan doordat de overheid een bezwaar- en beroepsprocedure kent. Uit mijn onderzoek blijkt dat de bezwaar-en beroepsprocedures onvoldoende rechtsbescherming bieden. Het gebeurt nu nog te vaak dat iemand belt om een situatie recht te zetten en dat diegene van de medewerker te horen krijgt ‘ik kan er niets aan doen, ik heb het systeem ook niet gemaakt’. Dat zou anders moeten.”

Hoe kan dit gebrek worden opgevangen?

“Hoe hard de wet ook is, er zullen altijd uitzonderingssituaties zijn. Computerprogramma’s moeten dus zo gemaakt worden, dat het mogelijk is om af te wijken wanneer iemand beroep doet op een uitzonderingssituatie. Elk geautomatiseerd beslissysteem moet een ‘Kafka-knop’ hebben.”

Bij ketenbesluiten is het risico op kafkaëske taferelen nog groter. Welke waarborgen zijn hier nodig?

“De dienstverlening van de overheid is door de uitwisseling van data heel geavanceerd. Het is fantastisch dat je een auto kunt kopen en binnen een dag het kentekenbewijs ontvangt. Maar als er iets fout gaat wordt de last vaak bij de burger neergelegd. In de praktijk moet de burger, om zijn recht te halen, het vaak op een procedure laten aankomen. Een oplossing waar de regering nu aan werkt, is het ‘geen verkeerde deur’-principe. Dit houdt in dat de burger met een probleem zich bij de overheid kan melden en vervolgens niet meer naar een ander loket gestuurd mag worden. De overheid heeft dan de plicht om alle ketens langs te lopen en uit te zoeken wat er verkeerd is gegaan. Bij slachtoffers van identiteitsfraude is hier een beginnetje mee gemaakt- de overheid biedt dan hulp. Het zou beter zijn als de overheid actief fouten op een centraal punt herstelt.”

Een tweede valkuil is dat beslissystemen vaak dusdanig complex zijn dat ze voor de gemiddelde mens niet te begrijpen zijn. Wie toetst of zo’n systeem wel in overeenstemming is met de wet?

“Ook hier zie je dat het vaak op het bordje van de burger terechtkomt. Pas wanneer een burger een rechtszaak aanspant, gaat de rechter in theorie toetsen of het beslissysteem wel rechtmatig is. Het is een vreemd idee dat zowel de burger als de rechter zouden moeten snappen hoe die onderliggende algoritmen in elkaar steken, want dat is gewoon een vak apart. Het zou beter zijn als de overheid een zorgplicht krijgt en verantwoording moet afleggen over welke systemen zij heeft ingevoerd en wat de eventuele risico’s daarvan zijn. Vervolgens zou een toezichthouder moeten toetsen of de ingevoerde systemen ook daadwerkelijk een goede uitvoering van de toepasbare wetten vormen. Dit geeft de burger die met een besluit te maken krijgt het vertrouwen dat het systeem recentelijk is getoetst en er geen rariteiten zijn aangetroffen. Vervolgens kan de rechter, wanneer er toch een fout in het besluit zit, naar dit individuele besluit kijken zonder het systeem zelf te hoeven toetsen.”

Hoe kan de burger inzage verkrijgen in het besluitvormingsproces?

“Op grond van de AVG heeft een betrokkene al recht op uitleg hoe het geautomatiseerde proces werkt. Zelf zie ik dit wel bij verzekeraars die je als aanvrager informeren. Dit zou de overheid ook kunnen doen. Er wordt al geëxperimenteerd met bijvoorbeeld een kijkwijzer voor algoritmen. Het is dus al in opkomst, maar het zou veel beter moeten.”

Zijn er nog andere partijen die een steentje bij kunnen dragen aan de rechtsbescherming bij geautomatiseerde besluiten?

“Als het gaat over geautomatiseerde besluiten is er vrijwel geen advocaat op het gebied van het bestuursrecht die de link legt met de AVG. Andersom wordt er, wanneer over de AVG wordt geprocedeerd, bijna nooit een link gelegd naar het besluitbegrip en het bestuursrecht - terwijl er ongelofelijk veel verbanden zijn. Ik zou advocaten dan ook willen oproepen om hiermee aan de slag te gaan. Er kan immers alleen jurisprudentie ontstaan als er advocaten zijn die deze weg weten te bewandelen.”

Marlies van Eck is momenteel werkzaam de Radboud Universiteit Nijmegen en Hooghiemstra en Partners, waar zij werkt aan een evaluatie van de Uitvoeringswet Algemene Verordening Gegevensbescherming.

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.