Bedrijven hebben vandaag gemiddeld 66 generatieve AI-toepassingen in hun omgeving. Maar één op de tien daarvan houdt een hoog risico in. Dat blijkt uit onderzoek van cybersecurityspecialist Palo Alto Networks bij meer dan 7.000 geanonimiseerde klanten wereldwijd — ook uit België en Nederland. “Het aantal gebruikte AI-apps gaat alleen maar toenemen. Bedrijven ondernemen hiervoor best actie.”
Bij die 66 GenAI-apps die bedrijven gebruiken, zitten uiteraard de bekende namen als OpenAI (ChatGPT), Google (Gemini) en Claude (Anthropic). Microsoft Copilot (en Copilot Studio) wordt vandaag bijvoorbeeld al gebruikt door zowat de helft van alle organisaties wereldwijd (49%).
Die 66 is het gemiddelde over de hele organisatie. “Het geeft aan dat er ook een aantal minder bekende AI-apps in omloop zijn”, kadert Steven De Pauw, system engineering manager BeLux bij Palo Alto Networks.
Daar zijn de AI-apps
De opmars van generatieve AI is alvast gigantisch als je er de cijfers op naslaat: het netwerkverkeer via GenAI-toepassingen steeg het afgelopen jaar met maar liefst 890%.
Veruit de meeste toepassingen (84%) zijn schrijfassistenten, gespreksbots, zoekfuncties en codeerplatformen. “Dat zijn echt de vier grote use cases in bedrijven”, beaamt Steven De Pauw.
En… de incidenten
Die snelle adoptie heeft ook zijn keerzijde. Naarmate AI breder ingeburgerd raakt, neemt ook het aantal incidenten toe waarbij data misbruikt wordt via generatieve AI. In 2025 steeg dat cijfer met een factor 2,5. Intussen kan 14% van alle cyberincidenten wereldwijd gelinkt worden aan een lek in een AI-model.
En dan is er nog dat percentage van 10%: van alle AI-apps die bedrijven gebruiken, vormt één op tien een hoog risico. Wat is dat risico dan? “Dat gaat dan om AI-apps die jouw data gebruiken om hun model te trainen. Op die manier lek je natuurlijk data vanuit je organisatie”, haalt Steven De Pauw aan. “Maar er zijn ook modellen die jou als gebruiker bijvoorbeeld zomaar malicious websites teruggeven.”
Daar zijn de molotovcocktails
Soms is het ook omgekeerd. “Veel van die modellen zijn makkelijk te jailbreaken. Prompt injection is vaak een probleem”, geeft De Pauw mee. Uit het rapport blijkt dat een groot deel van de geteste AI-tools eenvoudig te misleiden zijn — bijvoorbeeld om instructies te geven voor het maken van een Molotovcocktail.
Het probleem is, zo benadrukt De Pauw, dat veel modellen ook verbonden zijn met andere applicaties. “Bovendien zal het aantal gebruikte AI-apps alleen maar toenemen. Daar kan je van op aan.” De system engineering manager ziet bijvoorbeeld een toenemende wildgroei aan kleine AI-modellen. “Die zijn dan bijvoorbeeld gericht op één toepassingsvorm: presentaties, audio of video. Maar al te vaak vormen dergelijke AI-apps een risico.”
Het SaaS-fenomeen
Voorlopig is de AI-wereld het Wilde Westen, vindt Steven De Pauw. “Net zoals we dat tien jaar geleden zagen bij de opkomst van SaaS”, vergelijkt hij. “De meeste bedrijven hebben totaal geen zicht op welke AI-tools hun medewerkers gebruiken. In België zien we beperkt gebruik van on-premise AI-modellen, vooral dan in specifieke omgevingen en sectoren als farma. Maar de meeste bedrijven gebruiken publieke modellen, met alle risico’s van dien.”
Als organisatie moet je in eerste instantie vat krijgen op het AI-gebruik. “Je moet vooreerst zichtbaarheid hebben op je omgeving en medewerkers een helder kader aanbieden. Je kan bijvoorbeeld met enkele van de grote en bekende AI-toepassingen afspraken maken inzake dataconfidentialiteit en die aanbieden aan je medewerkers. Andere apps kan je dan bijvoorbeeld wel toelaten, maar het gebruik beperken zodat je er geen financiële of personeelsinfo mee kan doorsturen”, suggereert hij.
Volgens De Pauw hoeft het zeker niet superrestrictief te zijn richting je medewerkers. “Maar apps die malafide informatie aanbieden, kan je best weren.”
AI policy blijft dode letter
Vandaag hebben de meeste grote bedrijven wel een AI policy, al blijft die dode letter en wordt die niet opgevolgd. Zelfs bij grote Belgische (publieke) bedrijven zie je, volgens De Pauw, heel veel Shadow AI. “Ik krijg dan vaak te horen: ‘Onze gebruikers zijn braaf’, als ik dat voorleg aan organisaties. Maar zelfs brave gebruikers, die AI aanwenden voor hun eigen productiviteit, kunnen veel schade veroorzaken. Vaak zonder dat ze het zelf beseffen.”
De bevindingen staan te lezen in het State of GenAI-rapport van Palo Alto Networks.