Chinese, Russische, Iraanse en Noord-Koreaanse staatshackers misbruiken AI-applicaties als ChatGPT om cyberaanvallen uit te voeren. Ze gebruiken de AI-mogelijkheden onder meer om vooronderzoek te verrichten en social engineering aanvallen uit te voeren. Ook moeten we bedacht zijn op het feit dat toekomstige technologieën misbruikt kunnen worden om slachtoffers te maken. Dat schrijven Microsoft (1) en OpenAI (2), die gezamenlijk onderzoek deden naar hackersgroepen en misbruik van zogeheten Large Language Models (LLM’s) als ChatGPT.
OpenAI zegt in haar persverklaring dat het bedrijf AI-tools ontwikkelt om levens te verbeteren en oplossingen te bedenken voor complexe problemen. Tegelijkertijd erkent het Amerikaanse techbedrijf dat haar tools als ChatGPT voor kwaadaardige doeleinden, zoals het bevorderen van cyberaanvallen. “Onder deze kwaadwillende actoren kunnen aan een staat gelieerde groepen, die toegang hebben tot geavanceerde technologie, grote financiële middelen en bekwaam personeel, unieke risico’s vormen voor het digitale ecosysteem en het menselijk welzijn”, zo schrijft OpenAI.
Samen met Microsoft Threat Intelligence heeft OpenAI vijf hackersgroepen geïdentificeerd die LLM’s misbruiken om digitale aanvallen uit te voeren. Het gaat om Charcoal Typhoon, Salmon Typhoon (beiden uit China), Crimson Sandstorm (Iran), Emerald Sleet (Noord-Korea) en Forest Blizzard (Rusland), dat ook wel bekendstaat als APT28 en Fancy Bear.
Deze groepen gebruikten diensten van OpenAI om open source informatie te vinden en vertalen, het opsporen van coderings- en programmeerfouten in softwareapplicaties en het uitvoeren van basale coderingstaken. Uit het onderzoek van OpenAI en Microsoft blijkt verder dat de AI-tools ingezet werden om scripts te creëren voor phishingcampagnes, onderzoek te verrichten naar manieren om malwaredetectie te omzeilen, social engineering aanvallen uit te voeren en verkenningsonderzoek te doen naar specifieke technologieën en kwetsbaarheden in ecosystemen.
“Hoewel de mogelijkheden van onze huidige modellen voor kwaadaardige cybersecuritytaken beperkt zijn, geloven we dat het belangrijk is om belangrijke en evoluerende bedreigingen voor te blijven”, zo schrijft OpenAI. Het technologiebedrijf neemt om die reden allerlei maatregelen om misbruik van haar tools tegen te gaan.
Om te beginnen heeft OpenAI alle accounts opgeschort die gekoppeld waren aan de genoemde hackersgroepen. Daarnaast investeert het bedrijf in technologie om hackers te monitoren en hun activiteiten te verstoren. Samenwerking met partners die in dezelfde sector werkzaam zijn, is een ander speerpunt. Dan moet je denken aan informatie-uitwisseling en het bevorderen van collectieve acties.
Tot slot zegt OpenAI te werken aan bewustwordingscampagnes om potentieel misbruik van kunstmatige intelligentie onder de aandacht te brengen van het grote publiek. “Wij geloven dat het delen van informatie en transparantie leiden tot een groter bewustzijn en een betere paraatheid onder alle belanghebbenden, wat op zijn beurt leidt tot een sterkere collectieve verdediging tegen tegenstanders die zich steeds verder ontwikkelen.”
OpenAI eindigt haar blog met de constatering dat de overgrote meerderheid haar tools gebruikt voor positieve doeleinden. Het is ‘een handjevol kwaadwillende actoren die voortdurend aandacht nodig heeft zodat iedereen kan blijven genieten van de voordelen’. “Hoewel we werken aan het minimaliseren van potentieel misbruik door dergelijke hackersgroepen, zullen we niet in staat zijn om elk geval te stoppen. Maar door te blijven innoveren, onderzoeken, samenwerken en delen, maken we het moeilijker voor kwaadwillende actoren om onopgemerkt te blijven in het digitale ecosysteem en verbeteren we de ervaring voor anderen”, zo belooft OpenAI.
Microsoft zegt zich in te blijven zetten voor ‘verantwoorde AI-innovatie’ en geeft prioriteit aan de veiligheid en integriteit van haar technologieën ‘met respect voor mensenrechten en ethische normen’. Het hard- en softwarebedrijf belooft het gebruik van AI en LLM’s door hackers te blijven bestuderen. Microsoft Threat Intelligence volgt meer dan driehonderd hackersgroepen en andere bedreigingsactoren.
Het is niet de eerste keer dat instanties waarschuwen voor de gevaren van kunstmatige intelligentie en LLM’s. Europol noemde ChatGPT afgelopen jaar een ‘handige tool voor hackers’ (3). “Het vermogen van taalmodellen om taalpatronen te detecteren en reproduceren, vereenvoudigt niet alleen phishing en online fraude, maar kan in het algemeen ook gebruikt worden om de spreekstijl van specifieke personen of groepen te imiteren. Dit vermogen kan op grote schaal worden misbruikt om potentiële slachtoffers te misleiden en hun vertrouwen in de handen van criminelen te leggen”, zo zei de Europese handhavings- en opsporingsorganisatie.
Samantha Reilly, sectorspecialist Technologie, Media en Telecommunicatie (TMT) en Duurzame Energie en Business Banking bij ING, voorspelde in de zomer van 2023 dat ChatGPT het voor hackers een stuk eenvoudiger maakt om cyberaanvallen uit te voeren (4) en vertrouwelijke gegevens te stelen. Ze zei dat de overheid actiever en op een laagdrempelige manier het midden- en kleinbedrijf (mkb) moet bijpraten over de risico’s van ChatGPT.
Ondernemers hebben volgens Reilly eveneens een eigen verantwoordelijkheid. Zij moeten hun werknemers extra trainen en bewust maken van het belang van een goede cyberhygiëne. Verder moeten bedrijven en organisaties hun bedrijfsnetwerk zodanig inrichten dat ze minder kwetsbaar zijn voor phishing.
(1) https://www.microsoft.com/en-us/security/blog/2024/02/14/staying-ahead-of-threat-actors-in-the-age-of-ai/
(2) https://openai.com/blog/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-actors
(3) https://www.vpngids.nl/nieuws/europol-chatgpt-handige-tool-voor-hackers/
(4) https://www.vpngids.nl/nieuws/chatgpt-faciliteert-cybercrime-meer-cyberaanvallen-verwacht/