Techbedrijven willen een watermerk ontwikkelen voor kunstmatige intelligentie (AI). Gebruikers kunnen zo zien dat een video door AI is geproduceerd. Maar zolang er geen eenvoudig toepasbare en realtime technologie bestaat om deepfakes te detecteren en mensen te waarschuwen, moeten werkgevers hun medewerkers onderwijzen in de gevaren van deepfakes.
Dat zegt Jelle Wieringa, Security Awareness Advocate, Knowbe4. Hij reageert daarmee op een artikel in NRC: Techbedrijven spreken intenties uit over AI-watermerk.
Wantrouwen
Volgens hem is een een gezond gevoel van wantrouwen op dit moment de beste bescherming. “Natuurlijk is de intentie van techbedrijven om zo’n watermerk te ontwikkelen goed. Het probleem zit hem vooral in hoe ze kunnen afdwingen dat ook een groep die kwaadwillend is, gebruikmaakt van dit soort middelen. Cybercriminelen die generatieve AI willen gebruiken om cyberaanvallen zoals phishing effectiever te maken houden zich zelden aan wet- en regelgeving. Technologie die hun eigen operatie ondermijnt zullen ze ook liever links laten liggen.”
Wieringa wijst erop dat technologie om deepfakes te produceren steeds geavanceerder en toegankelijker wordt. Dat geldt voor video, maar zeker ook voor audio. “Daarom verwacht ik dat we dit jaar een aanzienlijke groei gaan zien in Business Email Compromise (BEC)-aanvallen waarbij een cybercrimineel door AI gemaakte spraakberichten gebruikt. Bij dit soort aanvallen ontvangt een werknemer zogenaamd een voice-berichtje van zijn of haar directeur om zo snel als mogelijk vertrouwelijke informatie te sturen.”
Technologie om deepfakes in real-time te detecteren en stoppen is vandaag de dag nog niet volwassen. Daarom telt Wieringa dat werkgevers hun medewerkers moeten blijven onderwijzen in de gevaren van BEC en deepfakes. “Ze zorgen hiermee voor een gezond gevoel van wantrouwen, waardoor de kans kleiner wordt dat cybercriminelen die een BEC-aanval uitvoeren slagen.”
Lees ook:
- Een wereld zonder waarheid
- Hoe beheers je bedrijfs- en beroepsaansprakelijkheid in het digitale tijdperk?