De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De FRA constateert dat begrip en kennis over hoe AI concreet invloed heeft op grondrechten nog beperkt zijn. Dit is zorgwekkend nu de EU wereldwijd de grootste publieke investering in AI heeft aangekondigd en de AI Act expliciet bedoeld is om grondrechten te beschermen. In de onderzochte praktijk blijken risicobeoordelingen vaak te blijven steken bij privacy en non‑discriminatie. Andere rechten – zoals toegang tot een effectief rechtsmiddel, goede administratie of kinderrechten – worden zelden systematisch meegenomen. Dat wijst op een smal begrip van wat ‘menselijke tussenkomst’ werkelijk inhoudt: niet alleen een controle achteraf, maar een bewuste en goed geïnformeerde dialoog tussen mens en systeem.
Volgens de FRA worstelen organisaties met de vraag of hun systeem onder de AI‑definitie valt en of het als hoog‑risico moet worden beschouwd. Respondenten gebruiken uiteenlopende interpretaties en hanteren soms irrelevante criteria – zoals het ontbreken van persoonsgegevens of het gebruik van “simpele” technieken – om een systeem niet als hoog‑risico te classificeren. De waakhond waarschuwt dat de filterclausule in artikel 6 van de AI Act, die bepaalde Annex‑III‑systemen uitzondert, kan leiden tot onder‑classificatie, juist in gevoelige domeinen. Dat onderstreept de noodzaak dat menselijke beoordelaars beter worden ondersteund bij deze complexe inschattingen.
Omdat aanbieders zelf moeten bepalen of hun systemen ‘significante risico’s’ opleveren, bestaat een reëel risico op te optimistische inschattingen. Waar documentatieplichten en registratie gelden, is externe controle vaak beperkt – vooral in domeinen als rechtshandhaving en migratie. De FRA benadrukt dat dit model alleen werkt als menselijke deskundigheid buiten de ontwikkelorganisatie – zoals onafhankelijke toezichthouders met kennis van grondrechten – stevig is ingebed in het proces. Human‑AI‑samenwerking verliest aan legitimiteit als ze uitsluitend binnen de muren van de aanbieder plaatsvindt.
In de onderzochte praktijk – van AI‑selectietools tot risico‑inschattingen in sociale zekerheid – domineren technische en privacy‑impactanalyses. Organisaties voeren DPIA’s uit, testen op bias en vertrouwen op menselijke tussenkomst, maar erkennen ook dat dit niet automatisch tot grondrechtconforme resultaten leidt. Menselijk toezicht blijkt pas effectief als mensen voldoende kennis hebben van de werking en beperkingen van het systeem waarmee ze samenwerken. Zonder die expertise vervaagt de menselijke rol tot formaliteit.
De FRA roept de Europese Commissie en lidstaten op om te investeren in een systematische kennisbasis over grondrechtenrisico’s en effectieve mitigatiepraktijken. Daarvoor is niet alleen technische innovatie nodig, maar ook versterking van de menselijke vaardigheden en verantwoordelijkheden in het AI‑ecosysteem. Concreet pleit de FRA voor praktische richtsnoeren en modellen voor grondrechten‑effectbeoordelingen (FRIA’s), die beter aansluiten bij bestaande initiatieven zoals de Nederlandse FRAIA. Daarnaast vraagt de instantie om voldoende middelen en mandaten voor toezichthouders, zodat de menselijke component in toezicht en verantwoording daadwerkelijk gestalte krijgt.
De kernboodschap van het rapport is dat de bescherming van grondrechten niet enkel afhangt van regels of algoritmes, maar van een goede samenwerking tussen mens en AI: met kritisch, deskundig en onafhankelijk toezicht dat even technisch als normatief is.
Download hier het rapport
