Hoe staat AI ervoor in verkiezingsprogramma’s?

Hoe staat AI ervoor in verkiezingsprogramma’s?

De Tweede Kamerverkiezingen van 22 november 2023 staan voor de deur. Ze brengen een golf van vernieuwing met zich mee. Tegelijkertijd wijzen wereldwijde ontwikkelingen op de dringende behoefte om bij de tijd te blijven, zeker op het gebied van technologie.

Nu inmiddels alle verkiezingsprogramma’s beschikbaar zijn kunnen we dieper ingaan op de vraag: hoe positioneren de Nederlandse politieke partijen zich ten opzichte van technologische vooruitgang, en in het bijzonder, AI en algoritmen?

Al in 2021, stelt de Wetenschappelijke Raad voor Regeringsbeleid (WRR) AI als nieuwe systeemtechnologie. “Als Nederland zich op deze fundamentele verandering niet goed voorbereidt, is er niet alleen het risico dat kansen worden gemist, maar ook dat de samenleving opgescheept wordt met een technologie die onze belangen niet dient.” [link].

Naast dat veel mensen al hebben geprobeerd een rijm, mop andere gimmicks te vragen in ChatGPT heeft AI ook een zeer serieuze kant. Zo bevestigt de meest recente jaarlijkse wereldwijde enquête van McKinsey (zomer 2023) een explosieve groei van generatieve AI (gen AI) bij bedrijven en organisaties. De verwachte zakelijke verstoring door gen AI is aanzienlijk, en respondenten voorspellen ingrijpende veranderingen in hun personeelsbestand.

Staan partijen stil in het AI-tijdperk, of kiezen ze actief een koers?

Allereerst dan een kwantitatieve analyse. De verkiezingsprogramma’s staan vol moet opmerkingen, aandachts- en standpunten. Ze verschillen van mening – en dat is goed: Nederland heeft iets om te kiezen – maar het is ook nuttig om te kijken waar niet over wordt gesproken, onderwerpen waar partijen geen leiding willen nemen.

Als je alle programma’s er op naslaat dan zie je duidelijk een verschil: Volt spant de kroon met visie en een heel hoofdstuk over AI, daarna BIJ1, GL-PVDA, D66, NSC, CU, BBB, PvdD, DENK en VVD met meer en mindere maten een AI visie, CDA en SP reppen een paar keer een kritische nood en als laatste PVV, FVD, SGP en JA21 zwijgen AI dood.

Voor partijen die er over spreken, wat zeggen ze over AI in hun verkiezingsprogramma’s?

“De naderende Tweede Kamerverkiezingen beloven een nieuwe fase voor Nederland in te luiden. De technologische vooruitgang en de rol van AI moet niet worden genegeerd. De verschillende verkiezingsprogramma’s geven inzicht in de diverse visies en standpunten op dit gebied. Terwijl sommige partijen de kansen benadrukken die AI biedt voor innovatie en verbetering, waarschuwen anderen voor de inherente risico’s, vooral op het gebied van discriminatie en ethiek,” aldus Casper Rutjes, CTO bij ADC.

“Nederland staat op een kruispunt, en de keuzes die nu worden gemaakt zullen bepalend zijn voor hoe we als land navigeren in het AI-tijdperk. De uitdaging is groot, maar met gezamenlijke inspanning, overleg en leiderschap kunnen we een toekomst vormgeven die zowel technologisch geavanceerd als menselijk blijft.”

VVD – voorbij AI pilots, context afhankelijke AI inzet en meting boven model
De VVD ziet een prominente rol weggelegd voor AI binnen Nederland en Europa en wil dit potentieel maximaal benutten, waarbij zorgvuldigheid en het onderkennen van risico’s essentieel zijn. Hierbij streeft de VVD naar internationale samenwerking over het AI-gebruik door bedrijven en overheden.

Ze benadrukken het belang van transparantie in data en algoritmegebruik, waarbij burgers controle behouden over hun gegevens. In de natuur- en milieusector pleiten ze voor directe metingen boven modellen, om daadwerkelijke impact te monitoren. In de zorgsector zien ze digitalisering en AI als cruciale tools voor efficiëntie en werkplezier. Tegelijkertijd willen ze online polarisatie en extremisme tegengaan door algoritmen op sociale media aan banden te leggen. De nadruk ligt op daadwerkelijke implementatie boven proeftuinen en pilots, gezien de overtuiging dat technologie al bewezen heeft waardevol te zijn.

Volt – bespreekt uitgebreid AI, ziet kansen en wil verantwoordelijk doorpakken
Volt ziet in AI-systemen zoals ChatGPT immense kansen voor de samenleving, maar benadrukt dat deze niet blindelings aan de vrije markt overgelaten kunnen worden. De partij pleit voor ethisch AI-beleid op zowel nationaal, Europees als internationaal niveau.

Opvallend is hun voorstel om elke inwoner kosteloos een eigen AI-chatbot te geven, gebaseerd op open-source en betrouwbare data. Volt benadrukt het belang van veiligheid en onderwijs: AI-systemen moeten door een onafhankelijke partij als veilig worden bestempeld en schoolkinderen moeten basisonderwijs in AI krijgen, inclusief codering en ethiek. Transparantie staat hoog in het vaandel, met verplichte openbaarmaking van gegevensbronnen door AI-aanbieders. Bovendien zet Volt in op een ondersteunend AI-ecosysteem, met aandacht voor klimaatimpact, en dringt aan op actieve Nederlandse deelname aan internationale samenwerking voor ethische AI.

GL-PVDA – zet vooral in op technologisch onderzoek, digitale infrastructuur en AI toezicht
GL-PVDA benadrukt een ethische en duurzame benadering van AI. Ze pleiten voor transparante, veilige AI-systemen die mensenrechten respecteren en energiezuinig zijn.

Forse EU-investeringen in technologisch onderzoek worden aangemoedigd, evenals de ontwikkeling van een Europese digitale infrastructuur als alternatief voor Big Tech. Met een focus op digitale duurzaamheid en een Europees toezichtsorgaan voor AI, waarbij Nederland het voortouw neemt in verantwoordelijke AI-initiatieven op wereldniveau. Het bewust verslavend ontwerpen van sociale media wordt aan banden gelegd.

D66 – ziet volop kansen maar met sterke nadruk op transparantie, ethiek en open onderzoeksdata.
D66 ziet een groot potentieel in technologie en AI, zoals drones voor duurzame landbouw, algoritmes voor eerlijke verdeling van voorzieningen en AI voor medische innovaties. De partij benadrukt het belang van transparantie, ethiek en rechtvaardigheid bij technologische ontwikkelingen.

Opmerkelijk, D66 pleit voor het openbaar maken van onderzoeksdata om wetenschappelijke vooruitgang te versnellen en betaalmuren te voorkomen. Tegelijkertijd dringen ze aan op verplichte toetsing van algoritmes, bestrijding van discriminatie en kritische beoordeling van het verdienmodel van sociale mediabedrijven, vooral vanwege hun mogelijke negatieve impact op kinderen.

NSC – toont zich kritisch op het gebruik van algoritmen en het blindelings vertrouwen op (AI) modellen. NSC is kritisch over het gebruik van algoritmen, met name binnen de overheid. Ze benadrukken de risico’s van geautomatiseerde besluitvorming en het belang van transparantie en verantwoordelijkheid. Ze waarschuwen tegen blindelings vertrouwen op AI-modellen, verwijzend naar crises waarin dergelijke modellen een twijfelachtige rol speelden. De NSC pleit voor wetenschappelijke standaarden voor het wel of niet gebruiken van modellen in beleidsvorming. Ze uiten ook hun zorgen over de afhankelijkheid van grote Amerikaanse techbedrijven en de dominantie in AI en cybersecurity. De partij is van mening dat er in Nederland en de EU een impuls moet worden gegeven aan de techindustrie om deze afhankelijkheid te verminderen.

CU – Bezinning op AI, regulering van algoritmes en versterkt toezicht op digitale veiligheid
De CU pleit voor een diepgaande reflectie op de rol van AI, vooral in relatie tot het onderwijs en de ontwikkeling van jongeren. Organisaties die algoritmes hanteren, dienen transparant te zijn over de gebruikte data en de genomen maatregelen om discriminatie te voorkomen.

CU wil de Autoriteit Persoonsgegevens omvormen tot een krachtige waakhond voor digitale veiligheid, met bijzondere aandacht voor kinderbescherming. Binnen de gezondheidszorg ziet CU mogelijkheden voor AI, vooral als hulpmiddel voor artsen in diagnostiek, maar benadrukt de arts als eindverantwoordelijke en het cruciale belang van patiënten privacy en het voorkomen van commercieel datagebruik.

BBB – zet in op voorlichting en onderwerp, bij besluiten: meten en praktijkervaring boven (AI) modellen. BBB hecht groot belang aan het vroegtijdig voorlichten over de digitale samenleving, zowel op basisonderwijsniveau als verder. Ze waarschuwen voor de vorming van ‘echokamers’ aangewakkerd door AI en algoritmen. Terwijl AI’s potentie wordt erkend, wordt ook de kritiek geuit op het blinde vertrouwen in modellen.

Voor BBB moet de menselijke besluitvorming altijd centraal staan en modellen mogen alleen ter ondersteuning dienen, niet ter vervanging van feitelijk onderzoek. Ze benadrukken dat een land niet geleid moet worden door modellen of spreadsheets en dat burgers geen dossiers zijn. Bij besluitvorming en beleid is voor BBB de praktische, gemeten kennis van groot belang, waarbij ze de inzichten vanuit de praktijk, zoals die van jagers en boeren, hoog in het vaandel hebben staan.

DENK – bespreekt vooral zich uit tegen digitale discriminatie met strenge regels en robuust toezicht
DENK is vastbesloten om digitale discriminatie en de mogelijke nadelige effecten van algoritmen en risicomodellen te bestrijden. Om deze uitdagingen aan te pakken, streeft DENK naar de introductie van een algoritmewet, die het gebruik van op afkomst gebaseerde gegevens in algoritmen verbiedt en voorziet in sterke waarborgen.

DENK wil de Autoriteit Persoonsgegevens versterken met meer middelen en bindende bevoegdheden om effectief toezicht te houden op algoritmen en om discriminatie en privacyschendingen te bestrijden. Op Europees niveau ziet DENK de noodzaak om de huidige regelgeving te herzien en te versterken om effectief weerstand te kunnen bieden aan grote technologiebedrijven. Opmerkelijk ziet DENK een potentieel in de ontwikkeling van een digitale racismedetector, een algoritme dat gericht is op het detecteren van discriminatie en racisme op het internet.

PvdD: In Nederland is er een sterke focus op privacy en dataveiligheid in de digitale wereld. Kunstmatige intelligentie (AI)-aanbieders moeten transparant zijn over hun gebruik van nieuwsbronnen. Er wordt gestreefd naar striktere regels voor bedrijven met nadruk op dataminimalisatie en databescherming.

Digitale inclusie en toegankelijkheid worden bevorderd. Bij de ontwikkeling van krachtige AI-systemen wordt internationale samenwerking nagestreefd, inclusief een tijdelijke pauze bij de ontwikkeling van zeer geavanceerde AI-systemen, en de invoering van veiligheidsmaatregelen.

CDA – ziet kansen en pleit voor meer transparantie en rechtsbescherming
Het CDA ziet kansen AI, mits het onze waarden en normen respecteert. Op zowel Europees als nationaal niveau moeten technologische innovaties hieraan voldoen. CDA stelt voor om de Grondwet uit te breiden met digitale grondrechten, zoals het recht op transparantie en het recht op eigenaarschap van data.

Verder bepleit het CDA voor meer transparantie en rechtsbescherming rond geautomatiseerde besluitvorming door de overheid. Ook internationale verdragen van de VN, de EU en de Raad van Europa moeten worden aangepast aan mensenrechtenbescherming in het digitale tijdperk.

SP – Rechtvaardigheid voorop: bescherming van rechten en versterking van onafhankelijke media
De SP zet zich sterk in tegen discriminatie door de overheid, zoals bij de Belastingdienst. Het gebruik van algoritmen voor fraudeopsporing moet voldoen aan mensenrechten.

Ook benadrukt de partij het belang van onafhankelijke media; bedreigingen jegens journalisten worden streng aangepakt. Verder streven ze naar toezicht op sociale media algoritmen, met speciale aandacht voor regionale en lokale media/

BIJ1 – benadrukt sterk de risico’s, zorgen en wil onmiddellijke beperking
BIJ1 benadrukt dat huidige systemen gemarginaliseerde groepen disproportioneel benadelen. Verder stelt BIJ1 een onmiddellijke stop voor op het ontwikkelen van AI voor militaire doeleinden vanwege zorgen over discriminatie in AI-data en algoritmes.

Ter bevordering van rechtvaardige AI, wordt er een toezichthoudende instantie voorgesteld die de AI-systemen toetst aan mensenrechten voordat deze op de markt komen. Daarnaast wil BIJ1 een holistische benadering om techbedrijven aan te pakken die misbruik maken van geavanceerde AI. Dit betreft onder andere het aanpakken van mis- en desinformatie, het voorkomen van discriminatie en het waarborgen van de rechten van oorspronkelijke databronnen.

Lees ook:
  • Mensen worden meer mens, dankzij AI
  • Lang leve AI, maar hoe bescherm je je organisatie tegen de risico’s?