Op 18 december vorig jaar publiceerde de European Data Protection Board (EDPB), het comité van alle nationale gegevensbeschermingsautoriteiten van de EU, Opinion 28/2024. Deze opinie heeft betrekking op de werking van de Algemene Verordening Gegevensbescherming (AVG) binnen de context van AI-modellen.
In deze bijdrage lees je de belangrijkste punten van deze opinie. Lees vooral verder in de volgende gevallen:
Je werkt voor een organisatie die overweegt AI op de werkvloer in te zetten
Je bent nieuwsgierig in ontwikkelingen op het gebied van AI en AI-wetgeving
Je wil weten hoe je privacy beschermd wordt in een wereld vol AI-toepassingen
Opinies van de EDPB hebben – zoals de naam doet vermoeden – geen kracht van wet. Dat betekent echter niet dat ze onbelangrijk zijn! Ze geven namelijk richting aan hoe de AVG dient te worden toegepast. Dat is bij nieuwe technologieën als AI best handig; zo is snel duidelijk hoe we in Europa verantwoord kunnen innoveren.
Een laatste opmerking: in deze bijdrage lees je geen juridisch volledige vertaling van de opinie. Voor de originele tekst, die veel meer informatie bevat dan dat ik hier kwijt kan, kun je deze link gebruiken.
De eerste vraag die in de opinie aan bod komt, is wanneer een AI-model als anoniem beschouwd kan worden. Dit vraagstuk is van groot belang. De AVG is namelijk niet van toepassing op anonieme gegevens, en onder deze noemer vallen ook persoonsgegevens die dusdanig anoniem zijn gemaakt dat deze niet langer terug te leiden zijn naar een bepaald persoon.
Allereerst merkt de EDPB op dat sommige typen AI-modellen nooit anoniem kunnen zijn. Als voorbeeld valt te denken aan een model dat de stem van een bepaald persoon nabootst (zoals dat van zangeres Grimes, die in 2023 een AI-model van haar eigen stem uitbracht) of een model dat gemaakt is om bepaalde persoonsgegevens vrij te geven. Is echter geen sprake van zo’n type model, dan moet per geval apart worden beoordeeld of een AI-model als anoniem beschouwd kan worden, en wel aan de hand van de volgende vraag: is de kans dat persoonsgegevens uit het AI-model worden teruggehaald verwaarloosbaar klein (‘insignificant’)?
Deze vraag laat zich niet makkelijk beantwoorden. Factoren die mee kunnen spelen, zijn onder andere:
Het ontwerp van het model: hoe zijn de datasets samengesteld? Welke bronnen zijn gebruikt om het model te trainen? Is geprobeerd om (overbodige) persoonsgegevens uit de dataset te verwijderen?
De analyse van het model: zijn er interne en/of externe audits uitgevoerd?
De tests op het model: is het model op weerbaarheid getest, bijvoorbeeld door te proberen om het persoonsgegevens te laten prijsgeven?
Documentatie over het model: staat dit alles (en meer) op papier?
Kan de maker van het AI-model niet bewijzen dat het AI-model als anoniem beschouwd kan worden, dan is de AVG van toepassing.
Een van de belangrijkste beginselen van de AVG is dat persoonsgegevens alleen verwerkt mogen worden op basis van een wettelijke grondslag. Makers van AI-modellen zullen zich vaak alleen kunnen beroepen op de grondslag ‘gerechtvaardigd belang’, maar heeft zo’n beroep ook echt kans van slagen?
Kenmerkend aan de grondslag ‘gerechtvaardigd belang’ is de zogeheten ‘driestappentoets’, waarin de geldigheid van een beroep op deze grondslag in drie stappen wordt beoordeeld.
De eerste stap is om na te gaan of er een gerechtvaardigd belang bestaat. Zolang dit belang daadwerkelijk bestaat, duidelijk is omschreven en niet in strijd is met de wet, zal deze stap geen problemen opleveren. De EDPB noemt als voorbeeld: ‘het ontwikkelen van een chatbot-dienst om gebruikers te helpen’ – dit is blijkbaar al specifiek genoeg!
De tweede stap is om zeker te weten dat de verwerking noodzakelijk is om dit belang te behartigen. Als de zojuist genoemde chatbot net zo goed ontwikkeld kan worden met minder (of zelfs helemaal geen) persoonsgegevens, dan moet daarvoor worden gekozen.
De derde stap omvat een belangenafweging: wegen de privacybelangen van degenen van wie persoonsgegevens verwerkt worden niet toch zwaarder dan het gerechtvaardigd belang omschreven in stap 1 (het ontwikkelen van de chatbot-dienst)? De EDPB plaatst op deze stap de nadruk: waar de eerste en tweede stap in nog geen drie pagina’s beschreven worden, neemt de derde stap maar liefst zeven pagina’s in beslag. Factoren die onder andere meespelen bij de belangenafweging, zijn:
De belangen, grondrechten en fundamentele vrijheden van betrokkenen: welke belangen, rechten en vrijheden spelen een rol? Het recht op vrijheid van meningsuiting? Het discriminatieverbod? Financiële belangen?
De gevolgen van de verwerking voor de betrokkene: zorgt het AI-model voor positieve, of juist negatieve gevolgen? Zorgt het model voor privacyrisico’s en/of voor risico’s voor andere rechten en vrijheden? Hoe ernstig zijn deze risico’s, en hoe groot is de kans dat deze zich voordoen?
De redelijke verwachtingen van de betrokkene: mocht de betrokkene verwachten dat diens persoonsgegevens op deze manier verwerkt zouden worden?
Eventueel genomen maatregelen om de privacy-impact te minimaliseren: wat heeft de maker van het AI-model gedaan om de privacy van de betrokkene te beschermen?
Als de privacybelangen uiteindelijk het zwaarst blijken te wegen, is een verwerking op de grondslag ‘gerechtvaardigd belang’ niet toegestaan. Dan moet innovatie dus wijken voor de bescherming van de (privacy)belangen, rechten en vrijheden van de betrokkene.
Wat nu als blijkt dat de maker van het AI-model diens model in strijd met de AVG heeft ontwikkeld (bijvoorbeeld als uit de zojuist beschreven belangenafweging blijkt dat deze zich onterecht op de gerechtvaardigd belang-grondslag heeft beroepen)? Om deze vraag te beantwoorden, maakt de EDPB onderscheid tussen drie soorten gevallen:
Scenario 1: De persoonsgegevens blijven aanwezig in het model, en de maker van het model verwerkt deze persoonsgegevens vervolgens opnieuw. Volgens de EDPB moeten deze gevallen individueel beoordeeld worden.
Scenario 2: De persoonsgegevens blijven aanwezig in het model, en een andere partij zet dit model vervolgens in – denk aan een webwinkel met een chatbot ‘powered by ChatGPT’. De EDPB meent in dit geval dat de andere partij – de webwinkel – er goed aan doet om van tevoren onderzoek te doen naar de maker van het model om te controleren of het model niet is ontwikkeld in strijd met de AVG.
Scenario 3: De maker van het AI-model zorgt ervoor dat het model volledig wordt geanonimiseerd voordat het verder wordt gebruikt. In dat geval, aldus de EDPB, is de onwettigheid tijdens het ontwikkelen van het AI-model niet van invloed op de verwerkingen die na anonimisering plaatsvinden.
Uit deze opinie blijkt goed hoeveel waarde wij in Europa hechten aan verantwoord innoveren. Vooral het principe van verantwoordingsplicht (accountability) neemt een centrale rol in:
- Pas als de maker van het AI-model kan aantonen dat de kans dat persoonsgegevens worden teruggehaald verwaarloosbaar klein is, is de AVG niet op dit model van toepassing;
- Pas als de maker van het AI-model kan aantonen dat diens belangen zwaarder wegen dan de privacybelangen van betrokkenen, kan deze zich op de gerechtvaardigd belang-grondslag beroepen;
- Pas als de maker van het AI-model kan aantonen dat diens onrechtmatig ontwikkelde AI-model volledig is geanonimiseerd voordat het verder wordt gebruikt, is de onwettigheid van de eerdere verwerkingen sowieso niet van invloed op de latere verwerkingen.
De rode draad: voor innovatie zonder verantwoordelijkheid is in Europa geen plek.