Steeds meer Nederlanders gebruiken generatieve AI- en Large Language Model (LLM)-tools zoals ChatGPT en Google Bard op het werk. Dit is niet verwonderlijk, stelt Pieter Jansen, Senior Vice President of Cyber Innovation bij Darktrace. “AI is een krachtige tool die de menselijke creativiteit vergroot en de productiviteit kan verhogen.” Wel moeten bedrijven oppassen dat werknemers geen gevoelige informatie invoeren, meent Jansen
Onverantwoord gebruik
De tools zijn zeer toegankelijk en gemakkelijk te gebruiken. En daarin schuilt ook het gevaar dat mensen ze onverantwoord gebruiken. Wanneer ze bijvoorbeeld privacygevoelige informatie van hun werkgever invoeren zonder dat ze zich daarvan bewust zijn, ontstaat het risico op verlies van intellectueel eigendom en datalekken. Jansen: “We hebben de gevaren hiervan al gezien binnen ons eigen klantenbestand. In mei detecteerde en verhinderde onze technologie een upload van meer dan 1 GB aan gegevens naar een generatieve AI-tool vanuit een van onze klantomgevingen.”
Als het gaat om het delen van gegevens met een externe organisatie, werken bedrijven normaal gesproken samen met een provider die de geüploade gegevens beschermt. Of ze hosten deze gegevens intern, op servers die ze zelf bezitten of beheren.
Vermijd invoeren van gevoelige informatie
ChatGPT is een van die services die nooit echt is ontworpen om volledige gegevensprivacybescherming te bieden, legt Jansen uit. “Dit betekent niet dat bedrijven de technologie moeten verbieden, maar werknemers moeten er wel zorgvuldig mee omgaan en ervoor zorgen dat ze geen gevoelige informatie in deze tools invoeren.”
Bedrijven moeten intern beleid ontwikkelen en werknemers onderwijzen over de informatie die ze in deze tools kunnen uploaden, aangezien alle informatie die ze invoeren in hun ‘prompts’ (de vragen en instructies die mensen invoeren in ChatGPT) wordt opgeslagen in de datasets van het bedrijf achter de LLM. “Met die gegevens traint de LLM zichzelf, waardoor hij steeds slimmer wordt. En als gevolg daarvan kan het die informatie ook gebruiken in output voor andere mensen.”
Zorg voor monitoring
Een andere cruciale stap is dat bedrijven beschikken over de juiste technologieën om activiteiten en verbindingen met generatieve AI en LLM-tools te monitoren, adviseert Jansen. “En zo instaat zijn om, indien nodig, erop te reageren. Technologie die bedrijven een volledig beeld van hun organisatie biedt en waar generatieve AI in past, zorgt ervoor dat de productiviteit wordt verhoogd door generatieve AI, zonder dat ze zich zorgen hoeven te maken over de potentiële beveiligingsrisico’s.”