Op 7 en 8 november 2024 organiseerden het International Centre for Counter-Terrorism (ICCT), het Institute of Security & Global Affairs van de Universiteit Leiden en de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) gezamenlijk de ‘Blue-Sky’ Workshop over Terroristisch Misbruik van Kunstmatige Intelligentie (AI) in Den Haag.
Tijdens dit besloten evenement kwamen 26 experts op het gebied van terrorisme, nationale veiligheid, terrorismebestrijding en technologie samen. Deze experts, afkomstig uit de academische wereld, de industrie, de opsporingsdiensten en beleidsvorming, vertegenwoordigden elf verschillende landen. Het doel was om te bespreken en te onderzoeken hoe terroristen en gewelddadige extremisten zich kunnen aanpassen aan de opkomst van AI en deze technologieën mogelijk zouden kunnen misbruiken. De tweedaagse workshop werd geleid door Dr. Joana Cook (ICCT, Universiteit Leiden), Dr. Bàrbara Molas (ICCT) en Dr. Graig R. Klein (Universiteit Leiden).
De workshop hanteerde een unieke aanpak die deelnemers aanmoedigde om in een ‘blue-sky’-manier te denken. Blue-sky thinking verwijst naar het proces van het genereren van creatieve, verbeeldingsrijke en out-of-the-box ideeën, zonder beperkingen of grenzen. Kort gezegd is het een brainstormformaat waarin deelnemers worden gestimuleerd om vrij over een onderwerp na te denken, mogelijke scenario’s te verkennen en te anticiperen op toekomstige ontwikkelingen. Met deze proactieve aanpak wilde de workshop de veelgehoorde kritiek op (contra)terrorismestudies, namelijk dat deze te reactief zijn, aanpakken door deelnemers in staat te stellen creatief na te denken over nieuwe dreigingen.
Ter voorbereiding op het evenement werden de deelnemers uitgenodigd om een inleidende conceptnota te lezen. Deze nota gaf een overzicht van hoe terroristen al gebruik hebben gemaakt van kunstmatige intelligentie (AI) en zorgde voor een gedeeld begrip van de belangrijkste concepten binnen het veld van AI en terrorisme.
De deelnemers werden vervolgens verdeeld in drie groepen, elk bestaande uit een diverse samenstelling van experts uit verschillende deelgebieden en beroepsgroepen die verband houden met terrorisme en AI, en één workshoporganisator die de discussies begeleidde. Elke groep nam onafhankelijk deel aan een reeks van vijf rondtafeldiscussies, waarbij de focus lag op specifieke aspecten van mogelijke aanpassingen door terroristen aan, en het misbruik van, AI.
De eerste dag begon met discussies over de mogelijke operationele toepassingen van AI binnen terrorisme. De deelnemers onderzochten hoe AI de productie van wapens kan verbeteren en vergemakkelijken, evenals de risico’s van gedecentraliseerde AI bij het verstrekken van instructies buiten de controle van contentmoderatie om. Dit leidde vanzelf tot een debat over de huidige juridische kaders en nieuwe mogelijkheden om AI-geoptimaliseerde wapens tegen te gaan. De tweede sessie richtte zich op het misbruik van gedecentraliseerde en open-source AI. Deelnemers bespraken de toenemende decentralisatie van grote taalmodellen en de impact hiervan op contentcreatie, radicaliseringsprocessen en interacties met extremistische chatbots.
Op de tweede dag onderzocht sessie drie de levenscyclus en verspreiding van door AI gegenereerde extremistische online content. De deelnemers vergeleken gedecentraliseerde, laagdrempelige en gecentraliseerde AI met ‘traditionele’ online extremistische content. Vragen over hoe AI cross-platformmigratie kan faciliteren en de algehele zichtbaarheid en impact van extremistische content kan vergroten, stonden hierbij centraal. In de vierde sessie overwogen de deelnemers hoe opkomende AI-technologieën staten in staat kunnen stellen om niet-statelijke actoren, zoals terroristische en gewelddadig-extremistische groeperingen, te ondersteunen. Daarnaast werd besproken hoe deze groepen hun tactieken kunnen aanpassen als zij AI-producten, -wapens en -tools van staatssponsors ontvangen. Belangrijke onderwerpen in dit debat waren onder meer hoe AI kan helpen bij doelidentificatie, de technische capaciteiten van groepen kan verbeteren, en de invloed van AI op de communicatie tussen staatssponsors en niet-statelijke groepen.
De laatste ronde van discussies moedigde deelnemers aan om hun creatieve grenzen te verleggen en scenario’s te overwegen waarin AI volledig autonoom kan opereren. Er werden uiteenlopende ideeën besproken over hoe AI kan worden ingezet om automatisch extremistische content te creëren en te verspreiden, terwijl de huidige juridische en moderatiekaders worden omzeild. Ook werden risico’s geanalyseerd waarbij AI zich zou kunnen ontwikkelen tot een volledig oncontroleerbaar wapen.
Na elke sessie vulden deelnemers werkformulieren in waarin zij potentiële doelen, methoden, daders, middelen, contexten, omstandigheden en reacties identificeerden voor toekomstig terroristisch misbruik van AI. Op basis van de vijf discussies en de ingevulde werkformulieren presenteerden de moderatoren van de workshop een samenvatting van de inzichten van hun groep tijdens een afsluitende rondetafelbijeenkomst.
De workshop resulteerde in waardevolle inzichten, dreigingsanalyses en zowel hoopvolle als dystopische scenario’s rondom het gebruik van AI door terroristen en gewelddadige extremisten. Dankzij de open ‘blue-sky’-aanpak konden deelnemers een breder scala aan onderwerpen en scenario’s verkennen, wat tal van mogelijkheden biedt voor toekomstig onderzoek en samenwerking. De diversiteit aan input van experts uit verschillende vakgebieden benadrukte nogmaals het belang en de behoefte aan dit soort samenwerkingsinitiatieven en illustreerde het succes van deze tweedaagse bijeenkomst.