Er lijkt geen maat te staan op de opkomst van Artificial Intelligence (‘AI’). Door de opkomst van ChatGPT is AI in een korte tijd bekend geworden bij een breed publiek, maar AI omvat veel meer dan chatbots. Denk aan toepassingen op het gebied van gezondheid (zoals het detecteren van kanker), werkgelegenheid, videogames en jouw YouTube feed. AI komt terug in bijna alle facetten van het dagelijkse leven. Reden genoeg dus om stil te staan bij het juridisch kader van AI. In deze blogreeks behandelt het Holla AI-team verschillende juridische vraagstukken op het gebied van AI. Onderstaande blog is deel 2 van de reeks en gaat in op de toepasselijkheid van de Algemene Verordening Gegevensbescherming (‘AVG’) bij de inzet van AI.
De AVG is van toepassing op vrijwel iedere verwerking van persoonsgegevens. Persoonsgegevens betreffen alle gegevens over een natuurlijke persoon, zoals een naam, identificatienummer, adres, nationaliteit en geboortedatum. Met deze persoonsgegevens kunnen verschillende handelingen worden verricht, waaronder het verzamelen, ordenen, versturen, gebruiken of ter beschikking stellen. Dit zijn verwerkingen.
De AVG is niet van toepassing op anonieme gegevens. Anonieme gegevens zijn namelijk niet terug te voeren op een natuurlijke persoon, maar in de praktijk blijkt het soms lastig te zijn om gegevens volledig te anonimiseren. De AVG is dan ook snel van toepassing.
Ook bij de ontwikkeling en inzet van AI, kan al snel sprake van een verwerking van persoonsgegevens. Denk hierbij aan:
Persoonsgegevens die worden gebruikt om een AI-systeem te trainen. Ter illustratie: AI-systemen worden doorgaans getraind door grote datasets te analyseren. Deze datasets kunnen veel persoonsgegevens bevatten. Het gebruik van anonieme gegevens – bijvoorbeeld alleen gegevens op geaggregeerd niveau – is vaak lastig bij het trainen van een AI-systeem. Persoonsgegevens zullen namelijk nodig zijn om bepaalde uitkomsten van het AI-systeem te kunnen valideren.
Persoonsgegevens die worden geregistreerd door een AI-systeem, bijvoorbeeld van de gebruiker van het systeem of als “bijvangst”. Ter illustratie: wanneer iemand een zelfrijdende auto bestuurt, registreert die auto doorgaans veel gegevens van en over de bestuurder, zoals locatiegegevens en wellicht biometrische gegevens. Daarnaast registreert deze zelfrijdende auto mogelijk ook gegevens van personen in de omgeving, zoals kentekenplaten of wanneer iemand door een rood licht rijdt.
Persoonsgegevens die worden gebruikt door een AI-systeem om een geautomatiseerde beslissing te nemen over een natuurlijk persoon. Ter illustratie: wanneer een AI-systeem (zelfstandig) besluit of een sollicitant wel of niet op gesprek mag komen. Of wanneer een AI-systeem de kredietwaardigheid van een persoon bepaalt, waardoor diegene wel of niet in aanmerking komt voor een hypotheek.
Kortom, de AVG is snel van toepassing bij de ontwikkeling en inzet van AI-systemen. Dit betekent dat veel AI-systemen op dit moment al moeten voldoen aan de voorschriften die gelden onder de AVG, naast de aankomende voorschriften uit de AI-verordening (zie eerdere blog).
Welke verplichtingen gelden, is afhankelijk van de rol die een organisatie heeft ten aanzien van de verschillende verwerkingen via het AI-systeem. De AVG kent namelijk verschillende rollen.
De verwerkingsverantwoordelijke is de partij die het doel en de middelen van de verwerking bepaalt. In andere woorden: waarom en hoe worden persoonsgegevens verwerkt via het AI-systeem? Omdat deze partij verantwoordelijk is, gelden voor deze partij veruit de meeste verplichtingen onder de AVG. Denk hierbij aan het vaststellen van een doel en grondslag, het uitvoeren van effectbeoordelingen en het waarborgen van rechten van betrokkenen.
Een verwerker is een partij die namens de verwerkingsverantwoordelijke persoonsgegevens verwerkt en dit slechts onder de instructies van die verwerkingsverantwoordelijke doet. De verwerker mag de persoonsgegevens niet voor eigen doeleinden gebruiken. Zo is doorgaans de aanbieder van een softwaresysteem enkel de verwerker.
Ook het ontwikkelen en trainen van een AI-systeem zal in de praktijk regelmatig worden uitbesteed aan een (software)leverancier, in opdracht en met de data van een opdrachtgever. Interessant is dan de vraag of deze leverancier slechts een verwerker is ten aanzien van de persoonsgegevens in het AI-systeem of dat de leverancier “van kleur verschiet” naar een verwerkingsverantwoordelijke.
Wanneer een leverancier het AI-systeem ontwikkelt en traint alleen in opdracht van een opdrachtgever en volledig als verwerker, dan is hierbij van groot belang dat duidelijke afspraken worden gemaakt in een verwerkersovereenkomst. De leverancier mag de persoonsgegevens in dat geval niet voor eigen doeleinden gebruiken. De opdrachtgever als verwerkingsverantwoordelijke zal duidelijke en strikte instructies moeten geven wat de leverancier wél en niet mag met de dataset. Na het ontwikkelen van het AI-systeem, is het van belang dat de leverancier de dataset verwijdert, anonimiseert of teruggeeft en in ieder geval niet voor eigen doeleinden gaat gebruiken. Dit betekent dat de leverancier de dataset ook niet mag gebruiken voor het verder optimaliseren van het AI-systeem of het ontwikkelen van een ander AI-systeem, zonder instructies van de opdrachtgever.
Bij een AI-systeem zullen echter doorgaans de persoonsgegevens niet alleen worden gebruikt om het systeem te trainen en intelligente voorspellingen te doen, maar (juist) ook om het AI-systeem voortdurend te verbeteren. Daarnaast kan het systeem ontwikkeld worden met persoonsgegevens uit publiek toegankelijke bronnen. Dit betekent dat ook snel sprake kan zijn van een verwerking voor eigen doeleinden, voor zowel de aanbieder als de gebruiker van het AI-systeem. In dat geval zijn partijen (gezamenlijk) verwerkingsverantwoordelijken en gelden alle verplichtingen uit de AVG zelfstandig voor hen.
Naast het vaststellen van de rollen en grondslagen, kent de AVG ook algemene beginselen die van toepassing zijn op iedere verwerking. Een aantal van deze algemene beginselen komt ook terug in de aankomende AI-verordening, zoals transparantie, rechtmatigheid en veiligheid. Bij de ontwikkeling en inzet van een AI-systeem is dan ook onder meer van belang om:
De rechtmatigheid te toetsen: de verwerkingsverantwoordelijke moet een geldige reden hebben om de persoonsgegevens te mogen verwerken met het AI-systeem, een zogenoemde grondslag. Voor een leverancier kan dit nog wel eens lastig zijn wanneer deze bij het AI-systeem van kleur verschiet van verwerker naar verwerkingsverantwoordelijke. Wij denken hiervoor graag met u mee.
De noodzakelijkheid te toetsen: naast de grondslag moet ook de noodzakelijkheid worden getoetst: is het binnen het AI-systeem noodzakelijk dat deze persoonsgegevens worden gebruikt, verzameld, gecombineerd, geanalyseerd, etc.? Of zou hetzelfde doel ook kunnen worden bereikt op een andere manier of met minder persoonsgegevens?
Juistheid gegevens te toetsen: een AI-systeem wordt regelmatig gezien als een ‘black box’, waarbij het lastig is om de juistheid van de (trainings)data te controleren. Het is dan ook van belang om een AI-systeem te trainen en te gebruiken met correcte gegevens. Daarmee kan discriminatie en ongelijkheid mogelijk (ook) worden voorkomen.
Passende beveiligingsmaatregelen te treffen: de technische, organisatorische en contractuele maatregelen moeten een passend niveau van bescherming bieden bij het trainen en inzetten van het AI-systeem. Denk hierbij aan versleuteling van de persoonsgegevens, dataminimalisatie, een aangepast informatiebeveiligingsbeleid, toegangsrechten, etc.
Transparant te zijn: over zowel het trainen als de inzet van het AI-systeem moeten de betrokkenen worden geïnformeerd, bijvoorbeeld via de privacyverklaring of een separate flyer. Bij AI-systemen kan het in sommige gevallen zelfs verplicht zijn dat ook informatie wordt verstrekt over de onderliggende logica en de te verwachten gevolgen van het AI-systeem.
Risico’s te beoordelen: naar alle waarschijnlijkheid dient voor het AI-systeem een Data Protection Impact Assessment (‘DPIA’) uitgevoerd te worden. Met een DPIA kunnen privacyrisico’s voor de betrokkenen in kaart worden gebracht. Aan de hand van de uitkomsten van de DPIA kunnen vervolgens maatregelen worden getroffen om de risico’s te minimaliseren. Ook de aankomende AI-verordening kent een risicobeoordeling, namelijk de Fundamental Rights Impact assessment (‘FRIA’) en de momenteel reeds bestaande Impact Assessment Mensenrechten en Algoritmes (‘IAMA’) (zie hier). Het verschil met de DPIA is dat de FRIA en IAMA een breder toetsingskader hebben dan alleen gegevensbescherming; hierbij worden namelijk ook andere mensenrechten betrokken. De DPIA kan wel als uitgangspunt worden genomen. Wij komen hier in een latere blog op terug.
Te documenteren: de gegevensverwerkingen via het AI-systeem moeten worden opgenomen in het verwerkingsregister; een overzicht dat bedoeld is om verwerkingen binnen een organisatie vast te leggen.
Tot slot is nog van belang te benoemen dat onder de AVG de betrokkenen een aantal rechten hebben, zoals het recht van inzage en het recht op gegevenswissing. Ook hebben betrokkenen het recht niet te worden onderworpen aan een uitsluitend geautomatiseerd besluit waaraan voor hen rechtsgevolgen zijn verbonden of besluiten die hen anderszins in aanmerkelijke mate treffen. Dit is een algemeen verbod, waarop enkele uitzonderingen gelden. Denk aan uitdrukkelijke toestemming van de betrokkene.
In die uitzonderingsgevallen moet de verwerkingsverantwoordelijke passende maatregelen treffen om de rechten, vrijheden en belangen van de betrokkene te beschermen. Hieronder valt ten minste het recht op een menselijke blik, het recht van de betrokkene om zijn standpunt kenbaar te maken en het recht om het besluit aan te vechten.
Op dit moment worden AI-systemen al regelmatig ingezet om besluiten te nemen over personen. Het is dan ook van belang altijd te toetsen aan dit verbod en de geldende verplichtingen bij de uitzonderingsgevallen.