De introductie van een nieuwe AI-tool van OpenAI zorgt voor onrust in de academische wereld. Dinsdag lanceerde het bedrijf Prism, een gratis AI-gestuurde werkomgeving voor wetenschappers. Hoewel OpenAI de tool presenteert als een manier om onderzoekers te ontlasten van tijdrovende schrijftaken, vrezen critici dat Prism juist zal bijdragen aan een verdere overstroming van wetenschappelijke tijdschriften met laagwaardige publicaties, ook wel aangeduid als ‘AI slop’.
AI-slop
Prism is geen systeem dat zelfstandig onderzoek uitvoert, maar een schrijf- en opmaaktool. De software integreert het GPT-5.2-model in een LaTeX-omgeving, de standaard voor wetenschappelijke publicaties. Onderzoekers kunnen er artikelen mee schrijven, citaties genereren, diagrammen maken op basis van schetsen en in realtime samenwerken met coauteurs. Iedereen met een ChatGPT-account kan het gratis gebruiken.
Kantelpunt
Volgens Kevin Weil, vicepresident Science bij OpenAI, markeert deze stap een kantelpunt. Hij stelt dat 2026 voor AI in de wetenschap zal zijn wat 2025 was voor AI in softwareontwikkeling. Dat ChatGPT wekelijks miljoenen berichten ontvangt over exacte wetenschappen ziet hij als bewijs dat AI een vast onderdeel wordt van de wetenschappelijke workflow.
Toch zijn de zorgen niet theoretisch. Uit een studie die eind 2025 verscheen in het tijdschrift Science bleek dat onderzoekers die grote taalmodellen gebruikten hun output met 30 tot 50 procent verhoogden. Tegelijkertijd werden deze AI-ondersteunde papers juist vaker afgewezen bij peer review. Recensenten herkenden dat verfijnde taal soms zwakke inhoud maskeerde.
Structurele verschuiving
Yian Yin, hoogleraar informatiewetenschap aan Cornell University, sprak van een structurele verschuiving in het wetenschappelijke ecosysteem die serieuze aandacht vereist. Ook een grootschalige analyse van 41 miljoen publicaties liet zien dat hoewel AI-gebruik leidt tot meer publicaties en citaties, de breedte van wetenschappelijke verkenning juist afneemt. Volgens Lisa Messeri van Yale University zouden deze bevindingen “luide alarmbellen” moeten laten afgaan.
De kern van het probleem is dat AI-tools het steeds eenvoudiger maken om professioneel ogende manuscripten te produceren, terwijl het beoordelingsvermogen van het peerreviewsysteem niet meegroeit. Anders dan traditionele referentiesoftware kunnen AI-modellen bovendien foutieve of zelfs verzonnen citaties genereren. Weil erkende tijdens een demonstratie dat onderzoekers zelf verantwoordelijk blijven voor verificatie, maar dat neemt de structurele risico’s niet weg.
Angst
De angst voor AI-slop is niet nieuw. In 2022 trok Meta al een wetenschappelijk taalmodel terug nadat bleek dat het overtuigend klinkende onzin kon produceren. Sindsdien is de technologie alleen maar krachtiger geworden. Hoofdredacteur H. Holden Thorp van Science waarschuwde begin 2026 dat geen enkel systeem, menselijk of kunstmatig, alles kan filteren.
OpenAI benadrukt dat Prism bedoeld is om wetenschap te versnellen, niet te vervangen. De vraag blijft echter of deze versnelling leidt tot meer kennis, of vooral tot meer papier. Zoals een bezorgde onderzoeker het samenvatte: we leven misschien in een tijd van overvloed, maar wat vooral overvloedig aanwezig is, is middelmatigheid die het waardevolle dreigt te verdrinken.