De Utrecht Data School en prof. Janneke Gerards ontwikkelden het Impact Assessment Mensenrechten en Algoritmes (IAMA), een assessment dat zorgvuldige beslissingen over de inzet van algoritmes mogelijk maakt. De motie van Kamerleden Kauthar Bouchallikh (GroenLinks) en Hind Dekker-Abdulaziz (D66), om het gebruik van IAMA te verplichten, is dinsdag door de Tweede Kamer aangenomen.
Algoritmes lijken misschien onbevooroordeeld, maar dat zijn ze niet. Om ze in de toekomst in te kunnen zetten voor de ondersteuning van overheden en bedrijven bij het uitvoeren van wettelijke verplichtingen, moet onzorgvuldigheid, ineffectiviteit of, erger nog, inbreuk op de mensenrechten uitgesloten worden. Een herhaling van het schandaal rondom het etnisch profileren van de Belastingdienst, de toeslagenaffaire, moet koste wat het kost voorkomen worden.
Daarvoor ontwikkelden Mirko Schäfer, Arthur Vankan en Iris Muis van Utrecht Data School en hoogleraar Fundamentele rechten Janneke Gerards, op verzoek van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK), het IAMA. De aangenomen motie maakt de weg vrij om impactassessments verplicht in te zetten voordat algoritmes worden toegepast bij het evalueren van en nemen van beslissingen over mensen.