“AI-tools zoals ChatGPT veroveren de wereld. Opportunistische cybercriminelen gebruiken de technologie. Dit om te profiteren van beveiligingsgaten van ondernemingen,” legt Jon Clay, VP threat intelligence bij Trend Micro uit. In de eerste helft van 2023 blokkeerde de security-specialist 73 miljard bedreigingen voor zijn wereldwijde klanten. Dat betekende een stijging van 16% tegenover dezelfde periode vorig jaar.
Omvangrijk dreigingslandschnap
Deze cijfers illustreren de groeiende kracht van de detectie-capaciteiten voor bedreigingen. En tonen ook de enorme omvang van het huidige dreigingslandschap. Criminelen bouwen kwaadaardige AI-tools zoals WormGPT en FraudGPT bovenop open-source generatieve AI-platformen. Dit om cybercriminaliteit te democratiseren. Ook maken ze hackers productiever. En is de slaagkans van aanvallen groter.
Deepfakes
Onderzoek van Trend Micro onthulde hoe cybercriminelen AI-technologie voor het klonen van stemmen, bekend als ‘deepfakes’, combineren met generatieve AI in ‘virtuele kidnapping’-aanvallen. Men filtert met ChatGPT grote datasets. En voegt die samen om slachtoffers te selecteren. Deepfakes worden ingezet om deze slachtoffers te laten geloven dat hun kind is ontvoerd om zo losgeld te eisen.
AI ondersteunt hackers
Een ander onderzoek van Trend Micro onthult hoe generatieve AI kan worden gebruikt om aspirant-hackers te helpen trainen en ondersteunen. De technologie kan worden gebruikt om:
· schadelijke polymorfe code te schrijven;
· malware te maken die eerder onopgemerkt blijft;
· zeer overtuigende phishingberichten, webpagina’s en scam e-mails (voor BEC) te maken in meerdere talen;
· hacking-tools te maken;
· kwetsbaarheden te vinden;
· criminelen te leren coderen en hacken;
· en gegevens te vinden die kunnen worden gebruikt voor fraude.
Security-teams onder druk
Criminelen verbeteren dergelijke inspanningen door tools als abonnement aan te bieden om de toegangsdrempel nog verder te verlagen. De ontwikkeling en inzet van zulke kwaadaardige AI zet beveiligingsteams steeds meer onder druk om bedreigingen in een vroeg stadium te detecteren en erop te reageren, zodat ze kunnen worden ingedamd voordat er echte schade wordt aangericht.
Polymorf karakter
Trend Vision One maakt zelf gebruik van generatieve AI in de vorm van de virtuele assistent Companion. Die helpt SOC-analisten de snelheid en het polymorfe karakter van AI-gestuurde aanvallen te evenaren. De functies:
· Een workbenchfunctie die gebruikers helpt waarschuwingen beter te begrijpen, waardoor ze minder tijd verliezen door het onderzoeken van bedreigingen. Gemiddeld bespaart dit drie minuten per waarschuwing, wat kan oplopen tot enkele uren per gebruiker per week.
· Een opdrachtregelfunctie die analisten nog meer tijd bespaart door complexe scripts te vereenvoudigen. Gebruikers kunnen tot 40 minuten productiviteitswinst boeken ten opzichte van handmatig zoeken en het gebruik van gespecialiseerde tools.
· Een zoekopdrachtgenerator die tot een uur kan besparen door gebruikers te helpen bij het opstellen van de juiste zoekopdrachten om veldnamen, operatoren en waarden te vinden.