De afgelopen tijd nam het inzicht van bedrijven in artificial intelligence (AI) en de bijbehorende voordelen enorm toe. Door dat diepgaande inzicht zijn bedrijven is er ook steeds meer aandacht voor het evenwicht tussen die voordelen en de potentiële risico’s van AI. Dit geldt ook voor het ethische aspect. Verschillende experts gaan in op responsible AI.
Opbouwen van vertrouwen
“Een van de grootste uitdagingen bij het adopteren van AI-oplossingen is het opbouwen van vertrouwen in de technologie”, zegt Cristina Fonseca, Head of AI bij Zendesk. “Uit het CX Trends Report 2023 blijkt dat meer dan een derde van de ondervraagden zich zorgen maakt over kwaadwillig of negatief gebruik van AI. En bijna de helft vreest dat bots en geautomatiseerde systemen vooringenomenheid tonen tegenover bepaalde groepen mensen.”
Zakelijke leiders delen een soortgelijke ongerustheid. 73 procent van hen zei dat het een belangrijke prioriteit is om ervoor te zorgen dat AI en bots niet bevooroordeeld zijn tegen specifieke soorten klanten.
Openheid belangrijk
Fonseca vervolgt: “Om vertrouwen in de technologie op te bouwen is openheid essentieel. Zowel naar klanten als eindklanten. Bijvoorbeeld: niet alle AI-voorspellingen zijn hetzelfde met betrekking tot kwaliteit. Soms hebben modellen veel vertrouwen in het uitvoeren van een bepaalde taak, terwijl in andere scenario’s het vertrouwen laag is en AI gewoon zijn best doet. Door open te zijn over de kwaliteit van AI-voorspellingen, kunnen gebruikers daar rekening mee houden en dienovereenkomstig handelen, terwijl ze vertrouwen in de technologie opbouwen.”
Opstellen van ethisch kompas
“AI en Machine Learning (ML) gaan niet over het vervangen van menselijke besluitvormers. Integendeel. AI- en ML-aangedreven applicaties doen voorspellingen. Die helpen, in combinatie met menselijk oordeel, om betere beslissingen te nemen. Maar het succes van AI en ML hangt, net als elke andere opkomende technologie, af van vertrouwen. En dat vertrouwen bestaat alleen als bedrijven zich houden aan verantwoorde, ethische praktijken.” Dat zegt Hette Mollema, VP Benelux bij Workday.
“Dankzij de integratie van AI en ML zijn mensen productiever en beter geïnformeerd, en kunnen zij problemen oplossen die eerder onoplosbaar leken. Dat is de belofte van AI en ML. En ik ben enorm benieuwd naar de verdere impact op de toekomst van werk. In het licht van zo’n ingrijpende technologische en maatschappelijke verandering is het echter essentieel dat bedrijven zich inzetten voor een ethisch kompas.”
Diversiteit in data-teams zorgt voor eerlijkere AI
Rik van der Wansem is Account Director Public Sector bij Dataiku, en stelt dat de samenstelling van het datateam een belangrijke rol speelt in de ontwikkeling van eerlijke AI-modellen. “Hoe diverser het team dat de algoritmen en pijplijnen ontwerpt, hoe beter oneerlijke vooroordelen zijn te voorkomen bij het nemen van steekproeven, het labelen en het ontwikkelen van de pijplijn. Diversiteit is de basis voor eerlijke AI-modellen en dus voor Responsible AI.”
Als voorbeeld geeft hij de inrichting van steekproeven om modellen te trainen. “Deze steekproeven moeten de behoeften weerspiegelen van de mensen die uiteindelijk door die modellen worden bediend. Een bekend voorbeeld van waar dit niet goed is gegaan zijn de algoritmes voor gezichtsherkenning. Hoewel deze zeer accuraat kunnen zijn voor mensen met een lichte huidskleur, is uit onderzoek gebleken dat zij slecht presteren bij mensen met een donkere huidskleur. Een van de redenen hiervoor is dat de modellen werden getraind op degenen waarvoor het uiteindelijk het beste werkte, waardoor ze voor alle anderen nadelig uitpakten.”
Modellen trainen
Dit komt ook terug bij het labelen. “Een centraal onderdeel van het trainen van modellen is het labelen. Dit houdt in het observeren van de inputs van het model en het handmatig bewerken van het eerste X aantal daarvan om de labelnauwkeurigheid van het model te helpen verbeteren. Als het team dat het model traint een sterk overeenkomstig wereldbeeld heeft over de categorieën die het gebruikt, kan het zijn dat er belangrijke, uiteenlopende perspectieven gemist worden.” aldus Van der Wansem. “Als eenvoudig voorbeeld: een model trainen of iets wel of geen soep is, lijkt overzichtelijk. Maar een een team met een meer gediversifieerd perspectief, nuanceert dit beeld bijvoorbeeld door stoofschotels en soepen van elkaar te onderscheiden. Hierdoor ontstaat een genuanceerder en kritischer labelsysteem.”