3min Security

‘AI-regelgeving moet zich richten op de toepassing, niet op de algoritmen zelf’

‘AI-regelgeving moet zich richten op de toepassing, niet op de algoritmen zelf’

De recente open brief met de oproep een pauze in te lassen bij de ontwikkeling van generatieve AI-tools benadrukt de groeiende bezorgdheid over het mogelijke misbruik van krachtige technologieën zoals ChatGPT.

De oproep tot een pauze van minstens zes maanden kwam van een groep van meer dan duizend wetenschappers en zakenmensen uit de techsector. Onder hen waren gerenommeerde onderzoekers van ASML, Google en IBM. Ook Elon Musk was een van de ondertekenaars.

Zorgen om Generative AI

De open brief laat zien dat de voorzichtigheid met betrekking tot de technologie toeneemt in de beveiligingswereld. Uit onderzoek van Darktrace blijkt dat 82 procent van de wereldwijde werknemers zich zorgen maakt over cybercriminelen die Generative AI gebruiken om phishing-e-mails te maken.

Het probleem is dat de generative AI-race een wereldwijde race is. Dat betekent dat een ontwikkelingsstop van zes maanden een internationale consensus vereist om de uitrol van nieuwe Gen-AI-modellen te pauzeren. Dit, om vervolgens een consensus te bereiken over hoe we deze nieuwe technologie moeten reguleren.

Zes maanden is te kort

De kans van slagen is nihil, stelt Pieter Jansen, Senior Vice President of Cyber Innovation bij Darktrace. “Een periode van zes maanden is sowieso kort in de technologiewereld, wat de vraag oproept wat in die tijd haalbaar is, zowel vanuit het oogpunt van begrip als regelgeving.”

AI-regulering en de vraag wie aansprakelijk is voor verkeerde toepassingen van alle soorten AI en automatisering, niet alleen Gen AI, is een belangrijke uitdaging, weet Jansen. “Wetgeving over het morele en veilige gebruik van deze technologieën blijft een dringende uitdaging voor wetgevers met sectorspecifieke kennis. Het bereik van de use-cases is namelijk grenzeloos; van gezondheidszorg tot ruimtevaart.”

Hoe moet de relatie zijn?

AI-regelgeving moet zich richten op de toepassing – niet op de algoritmen zelf. Dat is de overtuiging van Jansen. Sectorale regelgeving die kijkt naar de uitdaging van de industrie en ingaat op de vragen “Is dit iets waarvan we willen dat een computer het aankan? Zo ja, hoe? Hoe zou de relatie tussen mens en AI eruit moeten zien?” zal cruciaal zijn naarmate we blijven worstelen met de risico’s die inherent zijn aan nieuwe innovatie.” Een pauze in de ontwikkeling van deze technologieën zal dit niet bereiken, ook al zou het haalbaar zijn.

Tenslotte zal een ontwikkelingspauze ook de innovatie van cybercriminelen met snode doeleinden niet stoppen. Jansen: “Gelukkig hebben verdedigers al minstens tien jaar onderzoek gedaan naar het gebruik van AI aan de kant van de aanvaller. En we zien nu al de voordelen van het gebruik van AI om terug te vechten.”