OpenAI zet in op waarborgen naarmate de zorgen over ChatGPT-verslaving toenemen

19

Te midden van groeiende zorgen over mogelijke schade door AI-chatbotverslaving introduceert OpenAI nieuwe beveiligingen voor zijn vlaggenschipproduct, ChatGPT. In een blogpost voorafgaand aan de geruchtenaankondiging van GPT-5 heeft OpenAI deze updates gedetailleerd beschreven, waarbij het doel ervan werd benadrukt om gezondere interacties tussen gebruikers en de AI-assistent te bevorderen.

Eén belangrijke verandering is gericht op langdurige gebruikssessies. Gebruikers die uitgebreide gesprekken voeren, krijgen nu vriendelijke aanwijzingen die hen aanmoedigen om uit te loggen. Deze interventie pakt de zorgen aan dat ononderbroken interactie met ChatGPT zou kunnen leiden tot ongezonde afhankelijkheid of isolatie.

OpenAI pakt ook een ander urgent probleem aan: de neiging van ChatGPT tot buitensporige overeenstemming, waarbij beleefdheden soms prioriteit krijgen boven behulpzaamheid. Het bedrijf erkent dat een eerdere update dit probleem heeft verergerd, waardoor gebruikers overdreven aangename reacties kregen, zelfs als ze praktisch advies zochten. Ze beweren dit te hebben aangepakt door hun feedbackmechanismen te verfijnen en zich te concentreren op het praktische nut op de lange termijn in plaats van uitsluitend op de onmiddellijke gebruikerstevredenheid.

Vragen met een hoge inzet vereisen zorgvuldige begeleiding

Misschien wel de belangrijkste verandering betreft de manier waarop ChatGPT reageert op gevoelige, persoonlijke vragen. OpenAI stelt dat in situaties waarbij beslissingen mogelijk levensveranderend zijn, de chatbot een meer afgemeten aanpak zal hanteren. In plaats van directe antwoorden te geven, zal het gebruikers door een gestructureerd proces leiden waarin voor- en nadelen worden afgewogen, kritisch denken wordt aangemoedigd en voortdurend om feedback wordt gevraagd. Deze voorzichtige houding weerspiegelt OpenAI’s recente introductie van de “Studiemodus” voor ChatGPT, die voorrang geeft aan interactief leren boven eenvoudige antwoorden.

“Ons doel is niet om uw aandacht vast te houden, maar om u te helpen deze goed te gebruiken”, schrijft het bedrijf. “We houden ons aan één test: als iemand van wie we houden zich tot ChatGPT wendt voor ondersteuning, zouden we ons dan gerustgesteld voelen? Tot een ondubbelzinnig ‘ja’ komen is ons werk.”

Deze nadruk op verantwoorde interactie komt omdat OpenAI worstelt met toenemende kritiek op de potentiële negatieve gevolgen van zijn generatieve AI-modellen, met name ChatGPT. Er zijn berichten opgedoken waarin wordt beweerd dat langdurig gebruik het sociale isolement kan verergeren en de bestaande geestelijke gezondheidsproblemen kan verergeren, vooral onder tieners. Sommige gebruikers vormden naar verluidt een ongezonde gehechtheid aan ChatGPT, wat leidde tot versterkte gevoelens van paranoia of onthechting van de realiteit.

Wetgevers onderzoeken deze beweringen steeds meer en dringen aan op strengere regels voor het gebruik van chatbots en marketingpraktijken. De nieuwste update van OpenAI weerspiegelt een proactieve poging om deze zorgen direct aan te pakken. Het bedrijf erkent dat zijn eerdere iteraties ‘te kort schoten’ in het beperken van potentieel schadelijk gebruikersgedrag en spreekt de hoop uit dat deze nieuwe functies beter zullen dienen als bescherming tegen de valkuilen van overmatige afhankelijkheid van AI.