De afgelopen maanden hebben we meerdere malen kunnen zien hoe ingewikkeld de positie van sociale media zijn geworden als hoeders van een gezond publiek debat. In juni barstte de discussie los over de vraag of president Trumps boodschap om geweld in te zetten tegen demonstranten mocht blijven staan op Facebook, Twitter, Snapchat en Instagram. In juli werden de vier CEO’s van de grote techbedrijven (Alphabet, Facebook, Amazon en Apple) aan de tand gevoeld door het Amerikaanse congres, onder andere over hun rol als ‘poortwachters’ van informatie, nieuws en opinie. En in augustus maakte Facebook bekend dat zij voortaan stereotype afbeeldingen van zwarte figuren (Zwarte Piet) en karikaturen van joden gaan verwijderen van hun platforms Instagram en Facebook.
Nu sociale media wereldwijd zo’n enorme macht hebben gekregen, is de ruimte voor ‘stemmingmakerij’ levensgroot. De vrijheid van meningsuiting, inclusief het recht om diverse informatie te ontvangen, dient een democratisch belang: de vrije uitwisseling van ideeën in een publiek debat waarin burgers en politici op gelijke voet participeren. Die vrijheid kan echter niet bestaan zonder verantwoordelijkheid. Daarom hebben eigenaren van media- en communicatiekanalen de maatschappelijke taak om bedreigingen van de democratie, zoals het aanzetten tot geweld en haat, zo goed mogelijk te temperen.
Eenvoudig is dat niet. Het probleem is drieledig: socialmediaplatforms hebben geen duidelijke status in de wetgeving; ieder bedrijf stelt eigen regels vast voor wat wel en niet kan op het eigen platform; en nu gaan platforms ook nog ieder voor zich hun eigen toezicht organiseren.
Om met het eerste te beginnen: dat elk socialmediaplatform een eigen modus zoekt in de moderatie van het publieke debat is een signaal dat hun bevoegdheden onduidelijk zijn. Die vaagheid is het gevolg van sectie 230 van de Amerikaanse Communications Decency Act (CDA) uit 1996, die platforms ontslaat van aansprakelijkheid voor content die gebruikers op het platform plaatsen, maar niet vrijwaart van hun rol in het beschermen van democratische- en mensenrechten. In juli werd deze wetsbepaling door Trump per decreet aangepakt. Het opheffen van dit grijze gebied is op zich een prima initiatief. Met duidelijkere regels zullen platforms beter kunnen optreden tegen geweldsaanstichting of misinformatie.
Maar als Sectie 230 wegvalt, rijzen er existentiële vragen: wat is een socialmediaplatform eigenlijk en waarvoor moeten eigenaren zorgdragen? Is het een mediabedrijf dat verantwoordelijk is voor alle content? Of is het een telecombedrijf dat wettelijk toelaatbare informatie moet doorsluizen? Socialmediabedrijven geven elk een andere invulling aan hun verantwoordelijkheid als beheerder van een platform en komen elk met een eigen set regels. Sommigen gedragen zich als een nieuwsorganisatie, anderen wijzen dat expliciet af. Burgers zouden gebaat zijn bij meer duidelijkheid over de maatschappelijke rol van platforms in het modereren van het publieke debat. Dat gaat bijvoorbeeld over welke uitingen al dan niet toegelaten worden (gatekeeping), maar ook over de vraag of en hoe bepaalde stemmen wijder verspreid worden dan andere (freedom of reach).
En dat brengt me op het derde punt: het belang van toezicht om contentmoderatie transparant te maken. Om dreigende overheidsregulering voor te zijn stellen platforms nu hun eigen ‘toezichtsorganen’ in. Zo richtte Facebook enkele maanden geleden een eigen Oversight Board op. Deze reageert op bezwaren tegen onterecht verwijderde content en later ook tegen berichten die onterecht gehandhaafd zijn op het sociale netwerk. De komende jaren zal de Board als een soort ‘ombudspersoon’—sommigen noemen het een ‘hooggerechtshof’- gemotiveerde uitspraken doen over specifieke gevallen van al dan niet verwijderde berichten.
Het is op zich een goed signaal dat Facebook serieus werk wil maken van het bestrijden van misinformatie en haatzaaierij. Maar als ieder platform dit afzonderlijk doet, dan wordt het speelveld er niet transparanter op. Een Oversight Board kan natuurlijk nooit een substituut zijn voor nationale reguleringsinstanties. Ook kan het geen vervanging zijn voor wettelijke instrumenten die internationale organisaties (waaronder de EU) proberen te ontwikkelen om bijvoorbeeld misinformatie te beteugelen. Een recent EU-rapport van de European Regulators Group on Audiovisual Media (ERGA) laat zien zelfregulering ten aanzien van het bestrijden van misinformatie niet werkt.(1) Waarom niet? Onder andere omdat het een ratjetoe aan ‘eigen’ regels oplevert, waardoor niemand inzicht krijgt in wie wat doet en wat effectief is.
Het complexe probleem is niet eenvoudig op te lossen. Het is van levensbelang voor de democratie dat de regels voor contentmoderatie transparant zijn, dat wil zeggen voor iedere gebruiker inzichtelijk. Elk platform mag verschillend zijn, maar als algemene richtlijnen ontbreken over aan welke kernwaarden en verantwoordelijkheden ze moeten voldoen, komen we niet verder. Daarom zullen eerst de existentiële vragen beantwoord moeten worden, niet alleen in de VS maar juist ook in Europa.
Dit is een bewerking van drie columns die eerder zijn gepubliceerd in Het Financieele Dagblad.
(1) https://erga-online.eu/wp-content/uploads/2020/05/ERGA-2019-report-published-2020-LQ.pdf