AI-gegenereerd aas maakt phishing nog gevaarlijker

Al eerder werd gewaarschuwd: generatieve artificiële intelligentie (AI) heeft grote implicaties voor de toekomst van cybersecurity. En uit onderzoek van Cornell University blijkt nu: AI-taalmodellen zijn bijzonder goed in het opbouwen van overtuigende spearphishing e-mails. Er is nauwelijks nog menselijke supervisie voor nodig. En dat is een probleem.

Header bij artikel over spearphishing

Het onderzoek richtte zich specifiek op het zogenaamde spearphishing: e-mails die niet massaal verstuurd worden maar doelgericht worden opgesteld om specifieke doelwitten om de tuin te leiden. Bij spearphishing gebruiken oplichters en cybercriminelen openbaar beschikbare informatie om e-mails op te stellen die specifiek geschreven zijn om zo aantrekkelijk mogelijk te zijn voor het doelwit. Het kan dan bijvoorbeeld gaan om een werknemer die op privé-social media veel berichten plaatst over mountainbiken. Een spearphishing e-mail zou dan bijvoorbeeld verkleed kunnen zijn als een advertentie voor een webshop die goedkoop fietsaccessoires verkoopt.

Bij het onderzoek werden vier categorieën van phishing e-mails gebruikt: Een steekproef van willekeurige e-mails, e-mails die door menselijke experts zijn geschreven en e-mails die door AI zijn gegenereerd zonder en met menselijke supervisie. Bij de willekeurige phishing e-mails werd in 12% van de gevallen geklikt. Het succes in andere gevallen was veel hoger. De menselijke experts hadden resultaten die niet zo goed waren als die van AI-gegenereerde mails zonder supervisie, met 54%. Bij AI-gegenereerde mails die door mensen geredigeerd werden was het slagingspercentage zelfs 56%.

Ook bij het opstellen van profielen voor het gebruik in spearphishing bleek AI het bijzonder goed te doen. Bij een steekproef waarin een AI-model werd gevraagd om profielen op te stellen van 51 individuen op basis van openbaar beschikbare informatie werd in 88% van de gevallen een kloppend en bruikbaar profiel gemaakt. 8% van de profielen was wel kloppend maar niet bruikbaar, en 4% van de profielen bleek fouten te bevatten.

Snel en laagdrempelig

De AI-modellen blijken niet alleen nauwkeurig te werken, ze waren ook zeer snel. Het verzamelen van de benodigde informatie en het opstellen van een e-mail op basis hiervan kostte de AI gemiddeld twee minuten en eenenveertig seconden. Ter vergelijking: de menselijke experts die meewerkten aan het onderzoek hadden voor dezelfde taak gemiddeld bijna vierendertig minuten nodig. De AI was dus over de breedte genomen 92% sneller in het opstellen van een phishing e-mail die bovendien een vergelijkbare slagingskans had.

En dat toont aan hoe gevaarlijk het gebruik van AI in spearphishing is. De e-mails die door de AI zijn aangemaakt zijn niet alleen net zo goed als die van mensen, de AI kan ze ook veel sneller aanmaken. Daarnaast neemt de AI ook de vereiste technische kennis weg. Om een overtuigende doelgerichte e-mail te schrijven is kennis nodig. Al eerder werd melding gemaakt van malafide actoren die volledige softwarepakketten verkopen waarmee iedereen zelf online oplichter kan worden.

AI versus AI

De onderzoekers hebben ook gekeken naar de andere kant van het verhaal - hoe goed is een AI in het herkennen van phishing e-mails? Dit is een feature die steeds meer cybersecurity-producten aanbieden. Er werden twee modellen getest, gebaseerd op ChatGPT en Claude. Beide modellen konden in ongeveer 97% van de gevallen een door AI gegenereerde phishing e-mail herkennen. Dit betekent dus dat AI geen volledige bescherming biedt tegen deze nieuwe vorm van phishing, zeker gezien de hoeveelheid berichten die een AI in korte tijd kan versturen.

Bovendien zien de onderzoekers ook een ander gevaar - prompt injection, letterlijk het injecteren van opdrachten aan een AI in de e-mail. Dit betekent kortweg dat binnen de phishing e-mail voor de mens onzichtbare instructies worden gebruikt die opdrachten kunnen geven aan de AI die de phishing e-mails moet onderscheppen, bijvoorbeeld om de e-mail te negeren, of om uitgaande links in de e-mail niet te blokkeren.

Veiligheidsmaatregelen

Bedrijven die AI-modellen aanbieden, verzekeren hun gebruikers ervan dat deze zo zijn ontworpen dat ze niet gebruikt kunnen worden voor criminele doeleinden. In de praktijk blijkt dat lang niet altijd het geval te zijn. De onderzoekers stelden vast dat het ze zeer weinig moeite kostte om de door hen gebruikte openbaar beschikbare modellen aan het werk te zetten in het opstellen van de spearphishing e-mails die in het onderzoek gebruikt werden.

Het is daarom belangrijk om goed in de gaten te houden welke informatie u online deelt. Ook blijft het belangrijk dat leden van uw organisatie getraind zijn in het herkennen van phishing mails. Een goede manier om dit te toetsen is de Phishing Quiz van het Digital Trust Center. Aanvallen doormiddel van (spear)phishing zijn uiteindelijk afhankelijk van menselijk falen om te slagen. Daarom blijft het altijd belangrijk om waakzaam te zijn.