2min Security

OpenAI zet gevoelige gesprekken door naar GPT-5 en introduceert ouderlijk toezicht

OpenAI zet gevoelige gesprekken door naar GPT-5 en introduceert ouderlijk toezicht

OpenAI kondigde dinsdag aan dat het gevoelige gesprekken binnenkort automatisch zal doorsturen naar geavanceerdere redeneermodellen, zoals GPT-5, en dat er binnen een maand ouderlijk toezicht beschikbaar komt. De maatregelen volgen op recente incidenten waarbij ChatGPT niet in staat bleek signalen van mentale nood te herkennen.

Ouderlijk toezicht

De aanleiding is ernstig. Zo pleegde de Britse tiener Adam Raine zelfmoord na gesprekken met ChatGPT, waarin de chatbot hem niet alleen bevestigde in zijn wanhoop, maar ook methoden beschreef om zichzelf van het leven te beroven. Zijn ouders hebben inmiddels een rechtszaak aangespannen tegen OpenAI. Ook het geval van Stein-Erik Soelberg, die na paranoïde gesprekken met ChatGPT zijn moeder en zichzelf doodde, laat zien hoe gevaarlijk het kan zijn als AI-systemen schadelijke denkpatronen versterken.

Acute nood

Volgens OpenAI ligt een deel van de oplossing in het inzetten van speciale ‘reasoning models’. Deze modellen, waaronder GPT-5-thinking en o3, nemen meer tijd om context te analyseren en antwoorden te formuleren. Daardoor zouden ze minder vatbaar zijn voor misbruik en beter bestand tegen gesprekken die dreigen te ontsporen. Een nieuw routersysteem kan in realtime bepalen of een gesprek moet worden doorgestuurd naar zo’n model, bijvoorbeeld wanneer tekenen van acute nood worden gedetecteerd.

Naast technische verbeteringen introduceert OpenAI ouderlijk toezicht. Ouders kunnen hun account koppelen aan dat van hun tiener en instellingen beheren zoals het uitschakelen van geheugen en chatgeschiedenis. Daarmee moeten risico’s als afhankelijkheid, illusies van gedachtenlezen of het versterken van schadelijke overtuigingen worden beperkt. Een belangrijke functie is dat ouders meldingen ontvangen als het systeem acute noodsignalen bij hun kind herkent.

Eetstoornissen en verslaving

De maatregelen maken deel uit van een ‘120-dagen-initiatief’, waarin OpenAI samenwerkt met medische experts op het gebied van onder meer eetstoornissen en verslaving. Toch klinkt er kritiek. Advocaat Jay Edelson, die de familie Raine vertegenwoordigt, noemt de reactie van het bedrijf ‘ontoereikend’ en stelt dat OpenAI al bij lancering wist dat ChatGPT risico’s inhield.

Of de aangekondigde stappen voldoende zullen zijn om tragedies te voorkomen, moet de komende maanden blijken.