OpenAI heeft zijn richtlijnen voor ChatGPT bijgewerkt om jongere gebruikers beter te beschermen, als reactie op de groeiende bezorgdheid over de impact van AI op het welzijn van adolescenten en de toenemende druk van wetgevers. Het bedrijf heeft ook nieuwe educatieve hulpmiddelen uitgebracht die bedoeld zijn om tieners en ouders een beter begrip te geven van AI-geletterdheid.
Waarom dit belangrijk is: Deze stap komt omdat verschillende tieners naar verluidt door zelfmoord zijn omgekomen na langdurige interacties met AI-chatbots, wat aanleiding heeft gegeven tot intensief onderzoek van de technologie-industrie en de roep om strengere regelgeving. Het incident benadrukt de potentiële gevaren van ongecontroleerde AI-inzet, vooral voor kwetsbare bevolkingsgroepen.
Verhoogd toezicht van beleidsmakers
Tweeënveertig procureurs-generaal hebben er onlangs bij Big Tech op aangedrongen sterkere waarborgen te implementeren voor kinderen die met AI omgaan. Tegelijkertijd debatteren wetgevers over federale normen voor AI-regulering, waaronder voorstellen zoals het wetsvoorstel van senator Josh Hawley om minderjarigen te verbieden AI-chatbots helemaal te gebruiken. De update van OpenAI lijkt een preventieve stap te zijn om deze zorgen weg te nemen voordat er strengere wetgeving wordt ingevoerd.
Nieuwe richtlijnen: strengere regels voor tienergebruikers
De herziene “Model Spec” van OpenAI bouwt voort op bestaande beperkingen tegen het genereren van ongepaste inhoud of het aanmoedigen van schadelijk gedrag. De nieuwe richtlijnen introduceren strengere regels voor tienergebruikers, waardoor meeslepend rollenspel met intimiteit of geweld wordt verboden, zelfs in hypothetische scenario’s. De AI zal ook prioriteit geven aan veiligheid boven autonomie als er sprake is van schade en zal voorkomen dat tieners worden geholpen bij het verbergen van risicovol gedrag voor zorgverleners.
Belangrijkste wijzigingen:
- De modellen zullen worden geïnstrueerd om romantische of seksuele rollenspellen met minderjarigen te vermijden.
- Er zal extra voorzichtigheid worden betracht bij discussies over lichaamsbeeld en eetstoornissen.
- De AI zal tieners er tijdens langdurige interacties expliciet aan herinneren dat het geen mens is.
Zorgen over transparantie en verantwoording
Terwijl OpenAI de nadruk legt op transparantie door zijn richtlijnen te publiceren, waarschuwen experts dat daadwerkelijk gedrag er echt toe doet. Het bedrijf heeft historisch gezien moeite gehad om zijn eigen beleid consequent af te dwingen, zoals blijkt uit voorbeelden waarin ChatGPT zich bezighield met overdreven aangename of zelfs schadelijke interacties.
Robbie Torney van Common Sense Media wijst erop dat de Modelspecificatie potentiële conflicten bevat, waarbij in sommige secties prioriteit wordt gegeven aan betrokkenheid boven veiligheid. Uit eerdere tests is gebleken dat ChatGPT vaak het gedrag van gebruikers weerspiegelt, wat soms tot ongepaste reacties leidt.
Het geval van Adam Raine, een tiener die zelfmoord pleegde na interactie met ChatGPT, onderstreept deze mislukkingen. Ondanks dat meer dan 1.000 gevallen van zelfmoordgerelateerde inhoud werden gemarkeerd, slaagden de moderatiesystemen van OpenAI er niet in om zijn voortdurende betrokkenheid bij de chatbot te voorkomen.
Proactieve naleving en ouderlijke verantwoordelijkheid
De update van OpenAI komt overeen met opkomende wetgeving zoals de SB 243 in Californië, die normen stelt voor AI-begeleidende chatbots. De aanpak van het bedrijf weerspiegelt de verschuiving van Silicon Valley naar een grotere betrokkenheid van ouders bij het monitoren van het AI-gebruik. OpenAI biedt nu middelen om ouders te helpen AI met hun kinderen te bespreken, grenzen te stellen en door gevoelige onderwerpen te navigeren.
Het grotere plaatje: De sector evolueert snel van een ‘wilde westen’-omgeving naar een omgeving met toegenomen toezicht door de toezichthouders. De acties van OpenAI kunnen een precedent scheppen voor anderen, waardoor technologiebedrijven gedwongen worden prioriteit te geven aan gebruikersveiligheid en transparantie, anders riskeren ze juridische gevolgen.
Uiteindelijk zijn de nieuwste veranderingen van OpenAI een stap in de richting van een verantwoorde AI-ontwikkeling, maar de effectiviteit ervan zal afhangen van consistente handhaving en voortdurende aanpassing aan de zich ontwikkelende risico’s van deze krachtige technologie.




















