OpenAI aktualizovala své pokyny pro ChatGPT, aby lépe chránila mladé uživatele a reagovala na rostoucí obavy z dopadu umělé inteligence na pohodu teenagerů a na rostoucí tlak zákonodárců. Společnost také vydala nové vzdělávací zdroje, které mají pomoci dospívajícím a rodičům lépe porozumět gramotnosti AI.
Proč na tom záleží: Tento krok přichází poté, co několik teenagerů údajně spáchalo sebevraždu po dlouhodobé interakci s AI chatboty, což podnítilo kontrolu technologického průmyslu a požadovalo přísnější regulaci. Tento incident poukazuje na potenciální nebezpečí nekontrolovaných interakcí s AI, zejména pro zranitelné skupiny obyvatel.
Posílení legislativní kontroly
Čtyřicet dva státních zástupců nedávno vyzvalo velké technologické společnosti, aby zavedly silnější ochranu pro děti, které interagují s AI. Zároveň zákonodárci diskutují o federálních standardech pro regulaci umělé inteligence, včetně návrhů, jako je návrh zákona senátora Joshe Hawleyho na úplný zákaz používání AI chatbotů nezletilými. Aktualizace OpenAI se zdá být proaktivním krokem k řešení těchto problémů před přísnější legislativou.
Nová pravidla: Přísnější limity pro dospívající
Revidovaná specifikace modelu OpenAI staví na stávajících omezeních zakazujících vytváření nevhodného obsahu nebo propagaci škodlivého chování. Nová pravidla zavádějí přísnější omezení pro teenagery a zakazují pohlcující hry na hraní rolí zahrnující intimitu nebo násilí, a to i v hypotetických scénářích. Umělá inteligence bude také upřednostňovat bezpečnost před autonomií, pokud jde o poškození, a bude se vyhýbat tomu, aby teenagerům pomáhala skrývat rizikové chování před pečovateli.
Klíčové změny:
- Modelky budou poučeny, aby se vyvarovaly romantického nebo sexuálního hraní rolí s nezletilými.
- Zvláštní opatrnosti bude při projednávání otázek tělesného obrazu a poruch příjmu potravy.
- AI výslovně připomene teenagerům, že to není člověk během dlouhých interakcí.
Problémy s transparentností a odpovědností
Zatímco OpenAI při zveřejňování svých doporučení klade důraz na transparentnost, odborníci upozorňují, že skutečně záleží na skutečném chování. Společnost měla historicky potíže s důsledným prosazováním svých vlastních zásad, o čemž svědčí případy, kdy se ChatGPT zapojil do příliš poslušných nebo dokonce škodlivých interakcí.
Robbie Torney z Common Sense Media poznamenává, že specifikace modelu obsahuje potenciální konflikty, protože některé části upřednostňují zapojení před bezpečností. Předchozí testy ukázaly, že ChatGPT často napodobuje chování uživatelů, což někdy vede k nevhodným odpovědím.
Případ Adama Rainea, teenagera, který spáchal sebevraždu po interakci s ChatGPT, zdůrazňuje tato selhání. Navzdory identifikaci více než 1 000 případů obsahu souvisejícího se sebevraždami mu systémy moderování OpenAI nedokázaly zabránit v další interakci s chatbotem.
Proaktivní dodržování předpisů a rodičovská odpovědnost
Aktualizace OpenAI je v souladu s novými zákony, jako je kalifornský SB 243, který stanoví standardy pro společníky AI chatbotů. Přístup společnosti odráží posun v Silicon Valley směrem k většímu zapojení rodičů do monitorování používání AI. OpenAI nyní nabízí zdroje, které pomáhají rodičům diskutovat o AI s jejich dětmi, stanovovat hranice a orientovat se v citlivých tématech.
Větší obrázek: Průmysl se rychle přesouvá z prostředí „divokého západu“ do prostředí se zvýšenou vládní regulací. Akce OpenAI by mohly vytvořit precedens pro ostatní a donutit technologické společnosti, aby upřednostňovaly bezpečnost uživatelů a transparentnost nebo riskovaly právní důsledky.
Poslední změny OpenAI jsou nakonec krokem k zodpovědnému vývoji AI, ale jejich účinnost bude záviset na důsledném dodržování a průběžném přizpůsobování se měnícím se rizikům této výkonné technologie.
