Menu

Filter op
content
PONT Data&Privacy

0

Algoritmes in de rechtspraak

In de NRC Next van dinsdag 28 augustus 2018 stond een interessant stuk over het gebruik van algoritmes in de rechtspraak in de VS. Volgens het artikel worden in bijna alle Amerikaanse staten verdachten beoordeeld met behulp van algoritmes. In New Jersey wordt daarbij gebruik gemaakt van de Public Safety Assessment (PSA) dat aan elke verdachte een risicoscore geeft. Aan de hand van de score wordt bepaald of de verdachte voorlopig vrijgelaten kan worden in afwachting van zijn proces.

5 september 2018

De PSA houdt rekening met 9 verschillende factoren zoals de leeftijd en of de verdachte al eerder veroordeeld is voor een geweldsdelict. De score is slechts een advies en niet bindend. De PSA moet menselijke vooroordelen uit het strafrecht halen. Onderzoek toont namelijk aan dat rechters over het algemeen milder zijn voor witte dan voor zwarte verdachten, aldus het artikel. De PSA moet tegenwicht bieden aan deze vooroordelen.

Advocaten in New Jersey zijn over het algemeen positief over de PSA. De komst van de PSA heeft namelijk geleid tot het afschaffen van de borgsom. Op basis van de PSA kan besloten worden cliënten in vrijheid hun proces te laten afwachten. In het oude systeem was dit alleen mogelijk als er een borgsom werd betaald. Voor arme cliënten was een dergelijke borgsom echter niet te betalen.

Ondanks het wijdverspreid gebruik van deze algoritmes binnen het strafrecht in de VS zijn experts kritisch. Zij vrezen dat vooroordelen juist worden bevestigd. Een bekend voorbeeld komt uit de politiewereld waar algoritmes worden gebruikt voor predictive policing. Hiermee wordt geprobeerd om te voorspellen waar nieuwe misdrijven zullen plaatsvinden. Maar deze algoritmes maken vaak gebruik van historische gegevens waar vooroordelen al zijn ingebakken. In het verleden zijn in zwarte wijken bijvoorbeeld meer mensen voor drugsbezit opgepakt omdat daar ook meer is gepatrouilleerd. Als het algoritme dit niet mee neemt in de berekening, ontstaat een onjuist beeld.

Bij het algoritme COMPAS is dat in de VS al eerder fout gegaan. In 2016 bleek dat het algoritme veel vaker ten onrechte een lagere risicoscore aan zwarte mensen toewees dan aan witte mensen. Hoe dit kan is niet bekend omdat de werking van het algoritme bedrijfsgeheim is. Ondanks al deze gebreken, hebben Amerikaanse rechtbanken het gebruik gewoon goedgekeurd.

Vanwege deze incidenten is er een roep om meer transparantie. Maar zelfs als duidelijk is welke data er wordt gebruikt, is niet altijd te beoordelen of dit ook eerlijk gebeurt. Naast transparantie zouden daarom ook onafhankelijke audits moeten plaatsvinden en zou een onafhankelijke toezichthouder vooraf algoritmes moeten goedkeuren.

Het stuk geeft mooi aan dat het gebruik van algoritmes in de rechtspraak positieve gevolgen kan hebben maar dat het gebruik van gebrekkige algoritmes en/of gekleurde data juist tot ongewenste uitkomsten kan leiden. Alleen als vertrouwd kan worden op de uitkomst van het algoritme, heeft de inzet meerwaarde.

In Europa bestaat specifieke regelgeving voor het gebruik van algoritmes, althans als dat tot geautomatiseerde individuele besluitvorming leidt. Voor de vervolging van strafbare feiten en de tenuitvoerlegging van straffen is dat Richtlijn 2016/680 (welke overigens nog niet is omgezet in Nederlands recht). Deze Richtlijn sluit voor een deel aan bij de bepalingen uit de AVG, maar de AVG is niet van toepassing.

De Richtlijn bepaalt in artikel 11 dat geautomatiseerde besluitvorming in beginsel verboden is wanneer dit volledig zonder menselijke tussenkomst geschiedt en voor zover de besluiten voor betrokkenen nadelige rechtsgevolgen hebben of hen in aanmerkelijke mate treffen. De besluiten uit het stuk in het NRC worden echter niet uitsluitend op de uitkomst van de geautomatiseerde besluitvorming gebaseerd. Het gebruik van algoritmes in de rechtspraak is op basis van dit artikel in de Richtlijn dan ook niet verboden.

Hierbij dient te worden opgemerkt dat in aanvulling op artikel 11 ook aan de andere voorwaarden uit de Richtlijn dient te worden voldaan. In dat kader lijkt een (doorlopende) controle van de werking en eerlijkheid van het algoritme door een onafhankelijke autoriteit, een belangrijke voorwaarde voor gebruik.

Dit artikel is ook te vinden in het dossier Digitale transformatie

Meer artikelen van SOLV Advocaten

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.