De implementatie van AI-agents markeert een keerpunt in hoe organisaties over automatisering nadenken. Waar bedrijven twee jaar geleden nog breed experimenteerden met genAI, bekijken bedrijven nu massaal de mogelijkheden van meer gerichte, autonome systemen die complexe processen kunnen beheren. Welke kansen en verantwoordelijkheden neemt dit met zich mee voor CIO’s?
Het recent gepubliceerde ‘CIO playbook 2026: the race for enterprise AI’ van Lenovo en IDC schets hoe de experimenteerfase van AI in bedrijven ongeveer voorbij is. Bedrijven geven niet meer massaal geld om maar iets van AI in hun bedrijf te krijgen, maar gaan veel gerichter te werk om te bekijken in welke processen AI nu werkelijk nut kan hebben.
94 procent van de organisaties gelooft dat AI op deze manier een positieve ROI zal opleveren of dat dit momenteel reeds gebeurt. Vanaf volgend jaar zullen er nog meer voordelen gelinkt kunnen worden aan de implementatie van AI-agents, zoals een hogere werktevredenheid, aldus het rapport.
Kritischere houding
Deze rijpere benadering komt deels voort uit lessen die organisaties hebben geleerd bij eerdere AI-implementaties. Ongeveer de helft van de pilotprojecten is inmiddels in productie gegaan, een enorme stijging ten opzichte van de tien procent uit het vorige rapport. Tegelijkertijd is het totaal aantal pilotprojecten gedaald, wat niet wijst op terughoudendheid maar juist op meer discipline. Bedrijven denken nu veel kritischer na over welke processen zich lenen voor AI-interventie en waar de technologie werkelijk verschil maakt.
De grootste verwachtingen van bedrijven liggen bij cybersecurity- en data analytics-projecten. Die focus op cybersecurity is geen toeval. CIO’s die succesvol AI hebben geïmplementeerd, benadrukken keer op keer dat sterke beveiligingsfundamenten essentieel zijn voor elke vorm van AI-adoptie, maar des te meer voor autonome agents.
Zoals een CIO uit de productiesector dit verwoordt in het rapport: “Als je honderd agents bouwt, bouw je honderden werknemers. Maar het beheren van zoveel agents betekent ook het creëren van de juiste waarborgen, want zonder sterk toezicht kan hun autonomie snel nieuwe risico’s introduceren.”
Deze waarschuwing raakt de kern van wat AI-agents anders maakt dan eerdere automatiseringsvormen. Waar traditionele systemen binnen strak gedefinieerde parameters werken, nemen agents beslissingen, passen zich aan en ondernemen acties binnen bredere kaders. Die flexibiliteit is precies wat ze waardevol maakt, maar creëert tegelijkertijd nieuwe kwetsbaarheden.
Momenteel kansen bij repetitief werk
CIO’s focussen zich momenteel nog op automatisering van taken die repetitief en goed gedefinieerd zijn. Cybersecurity staat bovenaan de lijst van implementaties, gevolgd door kwaliteitscontrole en onderhoud, klantenservice, productontwikkeling en financiële analyse.
Voor een succesvolle AI-implementatie moet verder nog rekening worden gehouden met het personeel en hun sentiment rondom AI. Medewerkers moeten het gevoel krijgen dat ze worden ondersteund, niet vervangen. Dit vereist dat CIO’s en hun teams een helder beeld hebben van welke taken wekelijks terugkeren en hoe deze exact kunnen worden geautomatiseerd zonder de menselijke expertise en oordeelskunde te elimineren die in veel processen cruciaal blijft.
Duidelijke regels
De technische complexiteit van het integreren van AI-agents in bestaande systemen wordt door 26 procent van de respondenten als grootste uitdaging genoemd, evenals security en privacy risico’s. Anders dan standalone applicaties moeten agents verbinding maken met meerdere systemen, data uit verschillende bronnen combineren en beslissingen nemen die impact hebben op downstream processen. Dit vereist niet alleen robuuste technische architectuur, maar ook heldere governance frameworks die bepalen wat agents wel en niet mogen doen.
Deze grenzen moeten niet alleen technisch worden geïmplementeerd, maar ook organisatorisch worden verankerd. Dat betekent dat legal-, compliance-, security- en data-teams vanaf het begin betrokken moeten zijn bij het goedkeuringsproces van nieuwe agent use-cases. Zij moeten hierin ook nadenken over de stappen die ondernomen dienen te worden bij AI-agents die onverwacht gedrag vertonen of hallucineren. Net als over regels voor werknemers die met AI aan de slag gaan.
De governance rondom AI in het algemeen en agents in het bijzonder verkeert nog in een vroeg stadium bij veel organisaties. Slechts 15 procent van de bedrijven heeft comprehensive policies op het gebied van AI governance, security, privacy en data sovereignty die actief worden gehandhaafd en regelmatig worden herzien. De meerderheid, 56 procent, is bezig met het ontwikkelen van dergelijk beleid, terwijl 27 procent nog ad-hoc maatregelen heeft. Opvallend is dat slechts 2 procent helemaal geen aandacht besteedt aan dit thema. Deze cijfers suggereren dat organisaties het belang inzien van governance, maar worstelen met het vinden van de juiste balans tussen controle en innovatiesnelheid.
Lees ook: Onderzoek: AI-beveiligingsincidenten stijgen met 43 procent
Waaruit bestaat een governance framework voor AI-agents?
Lenovo en IDC delen in het rapport welke componenten een dergelijk framework moet bevatten. Ten eerste is er behoefte aan een unified responsible AI policy die transparantie, eerlijkheid, data lineage en menselijk toezicht borgt. Ten tweede moeten er verplichte goedkeuringsstappen zijn waarbij verschillende disciplines betrokken zijn. Ten derde is monitoring essentieel, niet alleen van de technische performance maar ook van de wijze waarop agents worden gebruikt en welke beslissingen ze nemen. Documentation en audit trails zijn daarbij onmisbaar voor zowel compliance als interne verantwoording. Tot slot moeten leiders en teams buiten IT worden getraind in de risico’s, beperkingen en veilige gebruikspraktijken van AI, zodat governance niet theoretisch blijft maar operationeel wordt geborgd.
Datakwaliteit cruciaal
Een cruciaal element dat vaak wordt onderschat, is de kwaliteit van de onderliggende data. Autonome agents zijn alleen zo goed als de informatie waarop ze hun beslissingen baseren. Als data incomplete, inconsistent of verouderd is, zullen agents fouten maken of suboptimale keuzes maken. Organisaties die deze les hebben geleerd, besteden aanzienlijke middelen aan het opschonen van data, het standaardiseren van formats en het opzetten van processen die data kwaliteit waarborgen over tijd.
Lees ook: Nieuwe benchmark zet vraagtekens bij inzet van AI agents op kantoor