Menu

Filter op
content
Data&Privacyweb
0

De nieuwe AI Act op hoofdlijnen

Afgelopen juni stemde het Europees parlement in met de nieuwe AI Act. Dat betekent dat vertegenwoordigers van het EP met de Raad van de EU (de Raad van Ministers) gaan onderhandelen over de definitieve tekst. De verwachting is dat dit geen grote aanpassingen zal opleveren. In deze blog nemen we daarop vast een voorschotje door de belangrijkste regels door te nemen. Dit is de nieuwe AI-act op hoofdlijnen

PrivacyGuru 11 juli 2023

Nieuws-persbericht

Nieuws-persbericht

Achtergrond

AI heeft de afgelopen jaren een enorme vlucht genomen. AI-systemen worden al gebruikt in diverse sectoren, van gezondheidszorg tot transport en entertainment. Het gebruik van AI brengt echter ook nieuwe risico’s met zich mee.  AI-systemen kunnen bijvoorbeeld bevooroordeeld zijn, privacy schenden en de autonomie van individuen aantasten. Eerder schreven we al een blog over de privacyrisico’s van de AI toepassing ChatGTP.

Om ervoor te zorgen dat AI op een verantwoorde en ethische manier wordt ontwikkeld en toegepast, is de AI Act gemaakt. Dit artikel gaat in op De nieuwe AI act op hoofdlijnen.

Voor wie geldt de Act?

In principe is de reikwijdte van de AI Act heel breed. De regels gelden onder meer voor ontwikkelaars van AI-systemen, importeurs en distributeurs van AI-systemen, partijen die reeds ontwikkelde AI in hun eigen softwarediensten opnemen, gebruikers die dergelijke diensten inzetten. Iedereen die dus op welke wijze dan ook AI gebruikt, moet zelfstandig kunnen aantonen dat hun AI aan de Act voldoet

Ook de zogenaamde basismodellen vallen onder de reikwijdte van de Act. Basismodellen zijn modellen die niet voor een specifieke toepassing zijn ontwikkeld. Zij bevatten grote hoeveelheden data, maar ondanks hun complexiteit zijn ze vrij eenvoudig te tweaken naar een specifieke toepassing. Vergelijk het met ChatGPT dat als basismodel specifiek geschikt gemaakt wordt voor juridische toepassingen.

De nieuwe AI act op hoofdlijnen: de belangrijkste uitgangspunten

  1. Verantwoordelijkheid: de verantwoordelijkheid wordt bij de ontwikkelaars en gebruikers van AI-systemen gelegd. Zij moeten kunnen aantonen dat hun systemen betrouwbaar, veilig en ethisch zijn. Dat betekent dat de ontwikkelaar van een specifieke toepassing op basis van een basismodel dus ook de werking hiervan moet kennen. In het geval van schade of negatieve gevolgen door AI, kunnen zij aansprakelijk worden gesteld

  2. Transparantie: AI-systemen moeten transparant zijn over hun functionaliteit en besluitvormingsprocessen. De gebruikers moeten begrijpen hoe het AI-algoritme tot bepaalde uitkomsten komt en welke data er worden gebruikt.

  3. Privacy: Privacybescherming is een essentieel aspect van de wetgeving. AI-systemen moeten voldoen aan strikte regels met betrekking tot het verzamelen, opslaan en gebruiken van persoonlijke gegevens. Dit helpt de privacy van individuen te waarborgen en misbruik van gegevens te voorkomen.

  4. Menselijke controle: De Nieuwe AI Act benadrukt het belang van menselijke controle over AI-systemen. Hoewel AI veel taken efficiënter kan uitvoeren dan mensen, moet de uiteindelijke besluitvorming in handen blijven van menselijke operators. Dit voorkomt ongewenste afhankelijkheid van AI en waarborgt menselijke waarden en ethiek.

Risico gestuurde classificatie

De AI Act op hoofdlijnen. De Act onderscheidt verschillende risicocategorieën.

Onacceptabele risico’s. Systemen die een onacceptabel risico voor de rechten en vrijheden van het individu vormen, zijn verboden. Voorbeelden daarvan zijn social scoring en zogenaamde manipulatieve AI-systemen. De Act beschrijft manipulatieve systemen als systemen die bijvoorbeeld gebruik maken van de kwetsbaarheid van een specifieke groep personen zoals leeftijd of handicap om het gedrag op schadelijke wijze te verstoren.

Hoog risico AI-systemen met een hoog risico krijgen een aantal nieuwe verplichtingen. Deze komen naast bestaande verplichtingen uit bijvoorbeeld de Algemene Verordening (AVG). De nieuwe verplichtingen moeten er voor zorgen dat de risico’s aantoonbaar beheerst worden. Zo moet onder andere inzichtelijk worden gemaakt met welke data het systeem getraind wordt,  waar komen die vandaan komen, hoe zijn biasses en discriminatie uitgesloten. In een bijlage bij de AI Act zijn de hoog risico systemen opgesomd.

Laag risico Daarnaast bevat de AI Act transparantieverplichtingen voor AI-toepassingen die een beïnvloedend karakter (kunnen) hebben zoals chatbots of deepfakes. Die transparantie moet er voor zorgen dat niemand denkt met een mens van vlees en bloed van doen te hebben.

Het toezicht hierop zal in Nederland worden neergelegd bij de Autoriteit Persoonsgegevens.

Invoering

De onderhandelaars gaan nu met de AI Act naar de Raad van Ministers. Hier wordt over de tekst onderhandeld. De verwachting is dat er niet vele wijzigingen aangebracht zullen worden waardoor de Act op 1 januari 2024 inwerking zou kunnen treden.

 

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.