Menu

Zoek op
rubriek
Data&Privacyweb
0

Jouw gezicht in een deepfake: hoe zit dat AVG-technisch?

Grote kans dat je tijdens het scrollen weleens een deepfake voorbij hebt zien komen: Op het internet zijn veel komische voorbeelden te vinden, zoals de deepfake waarin Mark Rutte en Hugo de Jonge al dansend ‘viraal’ gingen. Deepfakes kennen echter ook een schaduwzijde. De persoon waarvan het gezicht in een deepfake ongewild wordt gebruikt kan bijvoorbeeld te maken krijgen met reputatieschade. Biedt de AVG hulp bij ongewenste verspreiding van een deepfake? Redacteur Emmaly van Ettikhoven zocht het uit.

16 mrt 2022

Juridische artikelen

Juridische artikelen

Update: Recentelijk is er een deepfake verschenen van de Oekraïnse president Zelensky , waarin de indruk wordt gewekt dat Zelensky zijn soldaten oproept de wapens in de strijd tegen Rusland neer te leggen. Het is een gevaarlijk voorbeeld van de inzet van deepfake video’s in politieke context.

Met deepfakes kan de indruk gewekt worden dat iemand iets heeft gezegd of gedaan wat in werkelijkheid niet heeft plaatsgevonden. De bekendste vorm van deepfakes is faceswapping. (1) Hierbij wordt het gezicht van het ene persoon vervangen door het gezicht van een ander. Bij de creatie van deepfakes wordt gebruikt van een specifieke vorm van artificiële intelligentie: deep learning. Bij deep learning krijgt een neuraal netwerk een grote hoeveelheid visueel beeldmateriaal toegediend. Het netwerk kan zich op basis van dat beeldmateriaal zelfstandig trainen tot het maken van een zo’n realistisch mogelijke deepfake. (2)

Na talloze pogingen van mislukte deepfakes komt het neurale netwerk uiteindelijk tot een realistische deepfake van een ‘dansende’ Rutte en De Jonge. Of tot bijvoorbeeld de pornografische deepfake van nieuwslezeres Dionne Stax. Naast vermakelijke en pornografische deepfakes komt ook de politieke deepfake voor. Een voorbeeld van zo’n deepfake is de ‘KlimaatRutte’-deepfake, waarin de AI-versie van Rutte zich voor de slechte politieke aanpak van de klimaatcrisis verontschuldigd en aangeeft dat hij een wetsvoorstel heeft ingediend voor ‘daadwerkelijke’ aanpak van de klimaatcrisis.

Steeds realistischer én steeds meer

Deepfakes worden steeds realistischer. Deep learning systemen hebben door verbeteringen van gezichtsherkenningstechnologieën en de opkomst van video- en fotoplatforms steeds meer data om zichzelf te trainen in het maken van realistische deepfakes. (3) Hierdoor worden deepfakes steeds moeilijker van echt te onderscheiden.

De toegang tot deepfake-technologie wordt bovendien steeds laagdrempeliger, omdat het maken van een realistische deepfake makkelijker en goedkoper wordt. (4) Op korte termijn zal zelfs een leek een overtuigende deepfake kunnen maken. (5) Hierdoor verwacht men dat er een massaproductie aan deepfakes zal ontstaan, ook omdat deepfakes door hun sensationele karakter veel media-aandacht kunnen trekken. (6)

De AVG: Een wapen tegen deepfakes?

Deepfakes zullen dus steeds meer voorkomen, wat de kans vergoot dat ook jouw gezicht op een bepaald moment in een deepfake zal verschijnen. De AVG kan mogelijk helpen bij verzet tegen verspreiding van een deepfake op een platform. Deze wetgeving legt verwerkingsverantwoordelijken zoals Facebook namelijk verschillende plichten op die moeten bijdragen aan een juiste gang van zaken rondom persoonsgegevensverwerking. Zo moet een platform voldoen aan een verwijderverzoek van een betrokkene indien er geen rechtmatige grondslag is voor gegevensverwerking. Voor een geslaagd beroep op verwijdering van persoonsgegevens dient kortweg aan twee vereisten te worden voldaan: Het moet gaan om persoonsgegevensverwerking én de persoonsgegevensverwerking moet onrechtmatig zijn.

Persoonsgegevensverwerking

Is een gezicht in een deepfake een persoonsgegeven? Die vraag zal in veel gevallen bevestigend beantwoord worden. Met een gezicht kun je iemand immers identificeren. Bovendien speelt de identificatie een essentiële rol in een deepfake. De boodschap van de ‘KlimaatRutte’ deepfake zal immers een stuk minder goed zijn overgekomen als er een gezicht van een onbekend persoon was gebruikt. Identificatie speelt ook een grote rol bij bijvoorbeeld pornografische deepfakes, nu de maker van de deepfake juist de reputatie van dit specifieke persoon heeft willen schaden.

Onrechtmatigheid

Persoonsgegevens mogen niet verwerkt worden als er geen grondslag voor de verwerking is. Hoewel toestemming een veelgebruikte grondslag is, brengt dit niet direct met zich mee dat bij het ontbreken hiervan een deepfake offline moet worden gehaald. De AVG kent namelijk een zogeheten restgrondslag, ook wel de gerechtvaardigd belang grondslag genoemd. Deze grondslag houdt in dat persoonsgegevensverwerking is toegestaan indien dit noodzakelijk is voor de gerechtvaardigde belangen van het platform of van een derde. Hierbij mogen de privacybelangen van het individu niet zwaarder wegen. Wanneer de belangen van het individu zwaarder wegen, is de persoonsgegevensverwerking onrechtmatig en kan de betrokkene een verwijderverzoek indienen.

Bij de beoordeling van onrechtmatigheid moet naar verschillende factoren worden gekeken. Belangrijk is ten eerste welke boodschap de maker met de deepfake heeft willen overbrengen. Daarin is toonzetting en woordkeuze ook relevant. Makers hebben, net als overigens ieder andere inwoner van Nederland, recht op de vrijheid van meningsuiting (uitingsvrijheid). (7) Dit recht heeft een brede omvang: Wij vinden het belangrijk dat iedereen zich moet kunnen uiten, of dit nu via spraak, kunst en/of technologie is. Daarin mag je ook best overdrijven, provoceren en beledigen. (8) Uitingen die bijdragen aan het maatschappelijke debat, zoals het aan de kaak stellen van een maatschappelijk probleem, krijgen bovendien extra bescherming. (9) De grens ligt bij wat het Europees Hof van de Rechten van de Mens (EHRM) hate speech noemt. Haatdragende uitingen, zoals een heftige aanval op een religieuze groepering waarbij geïmpliceerd wordt dat de groep zich schuldig heeft gemaakt aan een ernstige terroristische daad, vallen niet onder de uitingsvrijheid. (10)

Andere factoren die het EVRM bij beoordeling van de onrechtmatigheid van een uiting naloopt zijn bijvoorbeeld: de persoon om wie het gaat (bekende personen moeten meer kunnen ‘pikken’ dan onbekende personen (11) ), het type publiek die de deepfake te zien krijgt (12) (begrijpt men dat het om een deepfake gaat?), hoeveel bereik de plaatser van de deepfake heeft (13) (hoeveel volgers), hoe de persoon zich in het verleden in de media heeft opgesteld (14) (zoekt hij uit zichzelf ook de media op?) en de gevolgen van de deepfake-verspreiding (reputatieschade, verlies van (baan)kansen voor de persoon in de deepfake).

Een eenduidig antwoord op de vraag of de deepfake verwijderd dient te worden op een platform is dus niet te geven, omdat dit sterk afhangt van de inhoud en de context van de deepfake. Over het algemeen kan wel gezegd worden dat een deepfake met weinig maatschappelijke relevantie alleen verspreid met het doel een ander (reputatie)schade toe te brengen onrechtmatig zal zijn. In dat geval zal een persoon tegenover het platform beargumenteren dat zijn privacybelangen zwaarder moeten wegen en er zodoende geen rechtmatige grondslag is voor gegevensverwerking.

Wat als je niet kunt bewijzen dat een deepfake ‘fake’ is?

In dit kader moet wel gewezen op de hoge mate van realisme bij deepfakes. Wanneer een platform niet overtuigd is dat een deepfake nep is, kan dit ervoor zorgen dat een platform anders zal beslissen over een verwijderverzoek. Denk bijvoorbeeld aan een deepfake waarin een politicus zich kritisch uitlaat over een andere politicus. Wanneer een platform niet ‘gelooft’ dat de video nep is, kan het deze toelaten op zijn platform met de gedachte dat de uiting een bijdrage aan het publieke debat oplevert. Dit terwijl het privacybelang van het individu voor het platform misschien zwaarder had gewogen als het platform overtuigd was van de kunstmatige aard van de deepfake. Het is voor het individu ook lastig te bewijzen dat de video nep is. (15)

Het wetsvoorstel Digital Service Act legt in dit kader extra moderatieverplichtingen op voor grote platforms als het gaat om onrechtmatige uitingen in het algemeen. Platforms moeten bijvoorbeeld elk jaar een risicoanalyse uitvoeren over de verspreiding van illegale inhoud via hun diensten en de negatieve effecten op het privéleven. (16) Hierin zou een verhoogde aandacht kunnen komen voor deepfakes.

Praktische oplossingen raken al snel aan de uitingsvrijheid en privacybelangen. Automatische gezichtsherkenning kan bijvoorbeeld helpen bij het effectief verwijderen van onrechtmatige deepfakes, maar inzet van deze technologie is zeer omstreden. (17) Het als een deepfake labelen van video’s (‘Dit is een deepfake’) is ook geen ideale oplossing, nu dit kan raken aan onze brede (artistieke) uitingsvrijheid. Over de impact van deepfakes is het laatste woord nog niet gezegd.

Kansen en bedreigingen van artificiële intelligentie

De discussie rondom deepfakes is een mooi voorbeeld van de kansen en bedreigingen van artificiële intelligentie. In de masterclass Privacy in Perspectief wordt ingegaan op de kansen en bedreigingen van onder meer artificiële intelligentie, big data en gezichtsherkenning. Hier leert u hoe u deze mogelijkheden van digitale technologie in uw organisatie benut, terwijl u tegelijkertijd de privacybelangen van individuen respecteert. Klik hier om u aan te melden voor de Masterclass Privacy in Perspectief.

Voetnoten

(1) https://decorrespondent.nl/10687/zo-werkt-de-technologie-achter-deepfakes/520424839-a3c50367.

(2) Dit is een sterk gesimplificeerde uitleg. Voor een gedetailleerde beschrijving zie https://www.sciencedirect.com/science/article/abs/pii/S0007681319301600.

(3) https://www.rathenau.nl/sites/default/files/2021-08/tackling_deepfakes_in_european_policy_STOA.pdf.

(4) https://www.realinstitutoelcano.org/en/analyses/the-weaponisation-of-synthetic-media-what-threat-does-this-pose-to-national-security/.

(5) https://www.rathenau.nl/nl/digitale-samenleving/digitale-dreigingen-voor-de-democratie

(6) https://www.rathenau.nl/sites/default/files/2021-08/tackling_deepfakes_in_european_policy_STOA.pdf.

(7) Art. 10 van het Europees Verdrag voor de Rechten van de Mens (EVRM).

(8) EHRM 7 december 1976, 5493/72 (Handyside).

(9) EHRM 8 juli 1986, 9815/82 (Lingens).

(10) EHRM 16 november 2004, 23131/03 (Norwood vs UK).

(11) Rb. Limburg 22 januari 2019, ECLI:NL:RBLIM:2019:515.

(12) EHRM 23 september 1994, 15890/89 (Jersild).

(13) EHRM 30 maart 2004, 53984/00 (Radio France v Frankrijk).

(14) EHRM 7 februari 2012, 40660/08 en 60641/08 ( Caroline von Hannover/Duitsland II).

(15) https://weblogs.arsaequi.nl/redactioneel/2021/03/10/hoofdpersoon-tegen-wil-en-dank-hoe-bewijs-je-dat-iets-een-deepfake-is/#:~:text=Gelukkig%20bieden%20soms%20zogenoemde%20deepfake,intelligentie%20tot%20stand%20is%20gekomen.

(16) Art. 25-27 van het Voorstel voor een VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD betreffende een eengemaakte markt voor digitale diensten (wet inzake digitale diensten) en tot wijziging van Richtlijn 2000/31/EG.

(17) Joint Opinion 5/2021 on the proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.