W obliczu rosnących obaw związanych z potencjalnymi szkodami polegania na chatbotach opartych na sztucznej inteligencji, OpenAI wprowadza nowe zabezpieczenia dla swojego flagowego produktu ChatGPT. W poście na blogu poprzedzającym rzekome ogłoszenie GPT-5 OpenAI szczegółowo opisał te aktualizacje, podkreślając swoje zaangażowanie w promowanie zdrowszych interakcji użytkowników z asystentem AI.
Jedna z kluczowych zmian ma na celu ograniczenie długich sesji użytkowania. Użytkownicy biorący udział w długich rozmowach będą teraz otrzymywać delikatne podpowiedzi zachęcające do wylogowania się. Ta interwencja ma na celu rozwianie obaw, że ciągła interakcja z ChatGPT może prowadzić do niezdrowej zależności lub izolacji.
OpenAI rozwiązuje także inny drażliwy problem: tendencję ChatGPT do nadmiernego konsensusu i czasami przedkładania estetyki nad użyteczność. Firma przyznaje, że poprzednia aktualizacja pogorszyła ten problem, przez co użytkownicy otrzymywali zbyt przyjazne odpowiedzi, nawet gdy szukali praktycznych porad. Twierdzą, że rozwiązali ten problem, udoskonalając mechanizmy informacji zwrotnej i skupiając się na długoterminowych, praktycznych korzyściach w świecie rzeczywistym, a nie tylko na natychmiastowej satysfakcji użytkownika.
Kwestie o rosnącym znaczeniu wymagają ostrożnego przewodnictwa
Być może najbardziej znaczącą zmianą jest sposób, w jaki ChatGPT odpowiada na wrażliwe zapytania osobiste. OpenAI twierdzi, że w sytuacjach związanych z decyzjami potencjalnie zmieniającymi życie chatbot przyjmie bardziej ostrożne podejście. Zamiast dawać proste odpowiedzi, poprowadzi użytkowników przez ustrukturyzowany proces ważenia zalet i wad, zachęcając do krytycznego myślenia i prosząc o informację zwrotną na każdym kroku. To ostrożne stanowisko jest zgodne z niedawnym wprowadzeniem przez OpenAI „trybu szkoleniowego” dla ChatGPT, w którym priorytetem jest interaktywne uczenie się przed bezpośrednimi reakcjami.
„Naszym celem nie jest przytrzymanie Twojej uwagi, ale pomoc w jej efektywnym wykorzystaniu” – pisze firma. “Trzymamy się jednego kryterium: czy gdyby ktoś bliski zwrócił się do ChatGPT o wsparcie, czy czulibyśmy się spokojni? Naszym zadaniem jest osiągnięcie jednoznacznego „tak”.
Ten nacisk na odpowiedzialną komunikację pojawia się, gdy OpenAI spotyka się z rosnącą krytyką dotyczącą potencjalnego negatywnego wpływu jej generatywnych modeli sztucznej inteligencji, w szczególności ChatGPT. Istnieją doniesienia, że długotrwałe używanie może zaostrzyć izolację społeczną i pogorszyć istniejące wcześniej problemy ze zdrowiem psychicznym, szczególnie wśród nastolatków. Należy zauważyć, że niektórzy użytkownicy rozwinęli niezdrową relację z ChatGPT, co doprowadziło do zwiększonego poczucia paranoi lub wyobcowania od rzeczywistości.
Ustawodawcy coraz częściej analizują te twierdzenia i wywierają presję na rygorystyczne regulacje dotyczące korzystania z chatbotów i praktyk marketingowych. Najnowsza aktualizacja OpenAI odzwierciedla wysiłki firmy mające na celu proaktywne rozwiązanie tych problemów. Firma przyznaje, że poprzednie wersje „nie zawiodły” w zakresie łagodzenia potencjalnie szkodliwych zachowań użytkowników i ma nadzieję, że te nowe funkcje będą skuteczniejszą ochroną przed niebezpieczeństwami wynikającymi z nadmiernego polegania na sztucznej inteligencji.
