Een clownsneus als fraudepreventie

Dat cybersecurity constante waakzaamheid vereist is natuurlijk al bekend. Maar de laatste maanden is het spectrum van veiligheidsdreigingen in rap tempo aan het veranderen, en dat zal in de toekomst alleen nog maar sneller gaan. Met name generatieve artificiële intelligentie (AI) zorgt voor allerlei nieuwe uitdagingen in het veilig houden van uw organisatie. Zo kan ChatGPT hele goede phishing e-mails schrijven, en kunnen AI-modellen steeds overtuigender telefoon- of videogesprekken nabootsen. Daarom is het belangrijk om ook analoog te denken.

Header artikel AI fraude

Een vaak onderschat aspect van de vooruitgang in generatieve AI is dat het niet alleen steeds meer mogelijk maakt, maar dat het ook steeds laagdrempeliger wordt in het gebruik, zowel op het gebied van de vereiste kennis als de hardware. De eerste AI-toepassingen vereisten vaak zeer sterke computers, waarbij met name de grafische kaart een belangrijke bottleneck vormde. De laatste jaren zijn er echter steeds meer AI-diensten opgekomen die gebruikers via het internet de opdrachten kunnen laten uitvoeren op de hardware van de aanbieder. Daarnaast wordt er ook hard gewerkt aan het optimaliseren van AI-algoritmes voor het gebruik op minder krachtige computers.

Ook het aansturen van de software wordt steeds makkelijker gemaakt. Het gebruik van bijvoorbeeld Stable Diffusion, het meest gebruikte open source model voor het maken van afbeeldingen met AI, vereiste ooit zeer specifieke kennis. Tegenwoordig zijn er tientallen open source pakketten beschikbaar waarin grafische interfaces worden aangeboden waardoor de kennisdrempel steeds lager wordt gemaakt. Dat maakt ook het gebruik van generatieve AI voor fraude steeds makkelijker.

Beeld en geluid

Een bekend voorbeeld is de casus uit Hong Kong in januari 2024. Oplichters stuurden een e-mail aan een medewerker van een bedrijf uit naam van de CFO, met het verzoek om snel geld over te maken. Dat is een zeer bekende vorm van fraude. Wat deze zaak echter anders maakte was dat de werknemer het niet vertrouwde, maar dat de persoon die zich als CFO voordeed de medewerker uitnodigde voor een videogesprek. Op basis van de stem en video dacht de medewerker dat ze inderdaad met de CFO sprak, en maakte uiteindelijk ruim €24 miljoen over.

Sindsdien zijn er op het open source softwareplatform Github een aantal projecten verschenen die het mogelijk maken om op basis van een enkele foto de live feed wan een webcam te bewerken zodat het lijkt alsof niet de persoon voor de camera maar de persoon in de gekozen foto het woord voert. Deze software vereist slechts 8GB video RAM, iets wat zelfs een grafische kaart van minder dan €100 al heeft. Daarnaast komt de software met een installatieprogramma en een ingebouwde grafische interface die ervoor zorgt dat dit al met enkele muisklikken kan.

Ook stemgeluid is steeds makkelijker na te bootsen. Met open source algoritmes kunnen opnames van stemmen worden geanalyseerd en omgezet worden naar een model waarbij het stemgeluid gebruikt kan worden om van alles te zeggen. Dit was een van de eerste voorbeelden van generatieve AI voor deepfakes. Al in 2018 publiceerde Buzzfeed News een video waarin president Obama zijn mening leek te geven over de Black Panther film en Donald Trump beledigde, ter illustratie van het gevaar van deepfakes. De video was niet heel overtuigend, maar in de afgelopen zes jaar is de software die hiervoor gebruikt wordt alleen maar beter geworden.

De menselijke factor

De generatieve AI die zal proberen om u of leden van uw organisatie om de tuin te leiden met frauduleuze doeleinden wordt dus steeds slimmer, en kan ook steeds makkelijker gebruikt worden. Er zijn al voorbeelden bekend van criminele netwerken die complete software-abonnementen verkopen waarmee iedereen een phishing-netwerk kan opzetten. Er is alleen een computer en een internetverbinding nodig, de AI doet de rest.

Maar net zoals bij oudere vormen van fraude is ook bij fraude met behulp van generatieve AI de menselijke factor doorslaggevend. Het onderzoek van Cornell is hier een goed voorbeeld van. Bij dat onderzoek werd aangetoond dat ChatGPT net zo effectief is in het schrijven van doelgerichte phishing e-mails waar mensen op klikken als menselijke experts, en dat ze dat bovendien sneller doen. Er is echter een belangrijke onderliggende les in het onderzoek te vinden: De AI weet alleen dingen over het doelwit die online terug zijn te vinden, bijvoorbeeld op social media en op de website van uw organisatie.

Vermoedt u dat u benaderd wordt door generatieve AI, dan is de meest verstandige aanpak om de verbinding te verbreken en contact op te nemen met de IT-afdeling. Maar weet u het niet zeker, dan is het belangrijk om in te kunnen schatten wat de AI wel en niet over u en de persoon als wie de AI zich voordoet weet. Vraag bijvoorbeeld even hoe het bij de laatste nieuwjaarsborrel was, of wat de soep van de dag in de bedrijfskantine is. In dat soort gevallen zal de AI proberen te improviseren, maar kan het verschil tussen een menselijk of AI-gegenereerd antwoord makkelijker te onderscheiden zijn.

Ook bij videogesprekken is het belangrijk om te weten wat de AI wel en niet weet. De technologie is namelijk zeer slecht in improviseren. Software die een videogesprek genereert op basis van een foto kan niets genereren dat niet in die foto is vastgelegd. Vermoedt u dat de collega met wie u in een videogesprek denkt te zitten niet daadwerkelijk echt is? Vraag dan om de even bril af te zetten, een rondje te draaien of een clownsneus op te zetten. Dat zijn dingen die generatieve AI (nog) niet na kan bootsen.