Een Nederlandse hartslagtest kan deepfakes ontmaskeren, maar echte veiligheid begint bij mensen. Security awareness moet op de schop.
Het Nederlands Forensisch Instituut heeft een baanbrekende methode ontwikkeld om deepfake-video’s te detecteren door hartslagpatronen in gezichten te analyseren. De techniek komt op een cruciaal moment: onderzoeksorganisatie Gartner voorspelt dat 30 procent van alle ondernemingen tegen 2026 biometrische verificatiesystemen als onbetrouwbaar zal beschouwen door AI-gegenereerde deepfakes.

Zeno Geradts, forensisch digitaal onderzoeker bij het NFI en bijzonder hoogleraar Forensic Data Science aan de Universiteit van Amsterdam, presenteert de methode deze week op de European Academy of Forensic Science-conferentie in Dublin. “Voor zover ik weet wordt dit nergens gebruikt in forensisch onderzoek,” aldus Geradts. “We zijn nog bezig met de wetenschappelijke validatie, maar het is een veelbelovende aanvulling op de methodes die er al zijn”, zegt hij in een achtergrondartikel op de website van het NFI, dat vooruitkijkt naar de conferentie.
Miljoenenschades door deepfake-fraude
De urgentie is hoog. Onderzoek van beveiligingsbedrijf Regula toont aan dat 50 procent van alle organisaties wereldwijd te maken heeft gehad met deepfake-fraude, met gemiddelde schades van 450.000 dollar per incident. Voor financiële dienstverleners loopt dit op tot meer dan 600.000 dollar. Het gaat niet meer om toekomstscenario’s, maar om dagelijkse realiteit.
Dat ervoer ook de bunq bank aan den lijve. In mei 2024 ontving een medewerker een e-mail die afkomstig leek van CEO Ali Niknam, met daarin een uitnodiging voor een videogesprek. In deze video vroeg ‘Niknam’ met spoed om een aanzienlijk geldbedrag over te maken. De deepfake was zo overtuigend dat Niknam zelf aangaf verbaasd te zijn over de kwaliteit ervan. Gelukkig werd de fraude snel herkend door interne controleprocessen en werd de aanval binnen enkele minuten door het hele bedrijf opgemerkt, waardoor er geen geld verloren ging.

“Financiële instellingen en organisaties die zwaar leunen op biometrische authenticatie moeten echt oppassen,” waarschuwt Martin Kraemer, security awareness advocate bij KnowBe4. “Het is nu mogelijk om met minimaal videomateriaal of foto’s een deepfake van een persoon te maken die gebruikt kan worden voor multi-factor authenticatie of face ID-verificatie.”
Juist tegen dat soort misbruik komt nu vanuit het NFI een veelbelovende verdedigingslinie. Forensisch expert Geradts presenteert deze week een nieuwe detectiemethode die deepfakes kan ontmaskeren via een biologisch principe. Bij elke hartslag zetten kleine adertjes in het gezicht uit door verhoogde bloedtoevoer, wat subtiele kleurveranderingen veroorzaakt die meetbaar zijn met high-resolution video. Deze biologische ‘vingerafdruk’ ontbreekt volledig in AI-gegenereerde beelden.
“Vooral de adertjes rond de ogen, het voorhoofd en de kaak zijn geschikte plekken om die verwijding te meten, omdat de bloedvaten daar dicht onder de huid liggen,” legt Geradts uit. Het idee ontstond al in 2012 tijdens forensisch onderzoek naar gewelddadige ‘snuff-films’, toen Geradts een MIT-publicatie tegenkwam over hartslagmeting via gezichtsadertjes.
Dertien jaar lang was de techniek niet toepasbaar vanwege beperkte beeldcompressie. “Bij die verkleining verdween het kleurverschil dat bij iedere hartslag zichtbaar is,” verklaart Geradts. “Maar de beeldkwaliteit van camera’s is verbeterd, waardoor we nu zelfs die uiterst subtiele verkleuring door bloedstroom kunnen detecteren.”
NFI-onderzoeker Sanne de Wit valideerde de methode door proefpersonen te filmen die zowel smartwatch als hartslagmeter droegen. Ze analyseerde 79 punten in het gezicht waar kleurverschillen per hartslag meetbaar zijn, onder drie omstandigheden: stilzitten, veel beweging, en weinig licht. De data bevestigden sterke correlaties tussen gemeten hartslag en zichtbare kleurverschillen in het gezicht.
Geradts erkent realistisch dat zijn methode geen eeuwigdurende oplossing biedt. “Ik heb nog geen deepfakes gezien waarbij de hartslag waarneembaar is in het gezicht. Of die er na publicatie van ons onderzoek wel gaan komen? Het zou kunnen. Maar de komende twee jaar kunnen we hier zeker mee vooruit. In dit vak maak je geen tools voor de eeuwigheid.”
Van techniek naar psychologie
De Nederlandse doorbraak biedt organisaties tijdelijk ademruimte, maar de werkelijke uitdaging ligt volgens Kraemer elders. “Deepfake audio en video is eigenlijk gewoon een nieuwe technologische vorm voor oude bedreigingen en oude oplichting. De oplichting is nog steeds hetzelfde. Het is nog steeds basis social engineering.”
Deze fundamentele waarheid verandert hoe organisaties hun security awareness training moeten inrichten. Waar medewerkers vroeger werden getraind om te letten op grammaticale fouten in phishing-mails of verdachte afzenderadressen, moeten ze nu hun emotionele intelligentie ontwikkelen.
“We hebben die triggers verloren waarop we konden vertrouwen,” erkent Kraemer. “Emails zijn nu perfect geschreven in elke taal, volledig gepersonaliseerd. Het gaat nu om het herkennen van emotionele manipulatie: urgentie, exclusiviteit, het spelen op emoties zoals hebzucht of de behoefte anderen te helpen.”
Nieuwe werkelijkheid vereist nieuwe aanpak
De implicaties reiken veel verder dan alleen phishing-mails. Video-calls zijn niet meer te vertrouwen, stemmen kunnen worden nagebootst, en biometrische verificatie wordt steeds kwetsbaarder. Volgens onderzoeksorganisatie Gartner zal 30 procent van alle ondernemingen tegen 2026 biometrische verificatiesystemen als onbetrouwbaar beschouwen door AI-gegenereerde deepfakes.
“We moeten terug naar de basis,” stelt Kraemer. “Mensen trainen om een goed gevoel en intuïtie te ontwikkelen voor wanneer ze emotioneel gemanipuleerd worden. En dan leren ze die intuïtie te vertrouwen en alles eromheen op zijn plaats te zetten.”
Dit betekent een fundamentele shift in security awareness training. Waar de focus voorheen lag op het herkennen van technische signalen, moet nu de nadruk komen te liggen op het ontwikkelen van menselijke intuïtie en verificatieprocessen.
Die nieuwe realiteit vereist een ’trust but verify’-mentaliteit die veel verder gaat dan voorheen. “Verificatie moet gebeuren via een tweede kanaal,” benadrukt Kraemer. “Als iemand je belt met een urgent verzoek, bel dan terug via een bekend nummer. Stel onverwachte vragen waarop alleen de echte persoon het antwoord kan weten.”
Voor organisaties betekent dit dat technische maatregelen moeten worden gecombineerd met procesmatige veranderingen. “Niemand zou biometrische authenticatie moeten gebruiken zonder liveness detection,” waarschuwt Kraemer. “En verificatie-apps moeten gebruikers vragen hun paspoort te draaien zodat glans zichtbaar wordt, of specifieke bewegingen te maken.”
Holistische verdediging als overlevingsstrategie
Het Nederlands Forensische Instituut hanteert bewust een gecombineerde aanpak die verder reikt dan alleen bloedstroomdetectie. “Het combineren en blijven verbeteren van al deze methodes, dát is onze kracht,” aldus Geradts op de website van het NFI. Geradts ontwikkelde in samenwerking met de UvA al eerder baanbrekende technieken zoals Electric Network Frequency, die kan bepalen wanneer een video is opgenomen, met behulp van het hertzsignaal en de flikkeringen van het licht in de video, en Photo Response Non-Uniformity, een techniek die analyseert hoe pixels zich bij een bepaalde hoeveelheid licht in een camera gedragen om te achterhalen of de beelden uit die camera afkomstig zijn.
Deze technische veelzijdigheid illustreert wat organisaties nodig hebben: niet één wonderoplossing, maar een breed spectrum aan verdedigingsmechanismen. “Het blijft een kat-en-muisspel,” erkent Geradts. “We zullen steeds opnieuw onderzoek moeten doen en nieuwe methodes ontdekken om criminelen voor te blijven.”
Organisatiecultuur als verdedigingslijn
De grootste uitdaging ligt mogelijk in het creëren van een organisatiecultuur waarin verificatie en gezonde scepsis normaal worden. “Als je mensen vertelt dat ze gebroken zijn en gefixed moeten worden omdat ze niet alles herkennen, zullen ze nooit volledig meewerken,” stelt Kraemer. “We moeten ze juist opbouwen en aanmoedigen.”
Dit vraagt om een positieve benadering van security awareness training, waarin medewerkers worden gestimuleerd om hun bijdrage aan de organisatieveiligheid te zien als waardevol. “We noemen het collectieve verantwoordelijkheid. Dat wordt bereikt doordat mensen herkennen dat hun individuele bijdrage aan de veiligheid van de organisatie ertoe doet.”
De ontwikkelingen gaan razendsnel. Kraemer verwacht dat organisaties binnenkort te maken krijgen met ‘agentic AI’ – autonome AI-systemen die meertraps-aanvallen kunnen uitvoeren. “Cybercriminelen gaan profiteren van schaalvoordelen. Ze kunnen binnenkort gepersonaliseerde deepfake-aanvallen op grote schaal uitvoeren.”
Voor organisaties betekent dit dat ze nu moeten handelen. Het gaat niet meer om het afwachten van perfecte technische oplossingen, maar om het fundamenteel herdenken van hoe medewerkers worden voorbereid op een wereld waarin niets meer vanzelfsprekend echt is.
De Nederlandse voorsprong in deepfake-detectie koopt organisaties tijd. Maar de echte uitdaging ligt in het herdefiniëren van wat het betekent om veilig te zijn in een wereld waarin de waarheid steeds moeilijker te onderscheiden wordt van fictie. Dat is een race waarin technologie en menselijke intuïtie hand in hand moeten gaan.