Menu

Filter op
content
PONT Data&Privacy

0

Aan welke verplichtingen moeten aanbieders van AI-systemen met een hoog risico voldoen?

Europese Commissie 12 dec 2023

Vraag & Antwoord

ANTWOORD

Alvorens een AI-systeem met een hoog risico in de EU in de handel te brengen of anderszins in gebruik te nemen, moet de aanbieder dat systeem aan een conformiteitsbeoordeling onderwerpen. Zo kunnen zij aantonen dat hun systeem voldoet aan de bindende eisen voor betrouwbare AI (bv. gegevenskwaliteit, documentatie en traceerbaarheid, transparantie, menselijk toezicht, nauwkeurigheid, cyberbeveiliging en robuustheid). Deze beoordeling moet worden herhaald als het systeem of het doel ervan ingrijpend wordt gewijzigd.

AI-systemen die fungeren als veiligheidscomponenten van producten die onder sectorale wetgeving van de Unie vallen, vormen een hoog risico wanneer op grond van de sectorale wetgeving voor de conformiteitsbeoordeling een beroep moet worden gedaan op een derde partij. Ook voor biometrische systemen is altijd een conformiteitsbeoordeling door een derde partij vereist.

Aanbieders van Ai-systemen met een hoog risico zullen ook kwaliteits- en risicobeheersystemen moeten toepassen om ervoor te zorgen dat zij aan de nieuwe eisen voldoen en om de risico's voor gebruikers en betrokkenen zoveel mogelijk te beperken, ook nadat een product in de handel is gebracht.

AI-systemen met een hoog risico die door overheidsinstanties of namens hen optredende entiteiten worden uitgerold, moeten worden geregistreerd in een openbare EU-databank, tenzij die systemen worden gebruikt voor rechtshandhaving en migratie. Deze gegevens moeten worden geregistreerd in een niet-openbaar deel van de databank dat alleen toegankelijk zal zijn voor de betrokken toezichthoudende autoriteiten.

De markttoezichtautoriteiten zullen de monitoring na het in de handel brengen ondersteunen door middel van audits en door aanbieders de mogelijkheid te bieden ernstige incidenten of de schending van verplichtingen inzake de grondrechten waarvan zij kennis hebben gekregen, te rapporteren. Elke markttoezichtautoriteit kan om uitzonderlijke redenen dat een specifiek AI-systeem in de handel wordt gebracht.

In geval van een inbreuk kunnen de nationale autoriteiten op grond van de eisen toegang krijgen tot de informatie die zij nodig hebben om te onderzoeken of het gebruik van het AI-systeem in overeenstemming was met de wet.

Dit is een vertaald bericht.

KENNISPARTNER

Martin Hemmer