OpenAI przedstawia nowy plan bezpieczeństwa mający na celu zwalczanie wykorzystywania dzieci przez sztuczną inteligencję

6

OpenAI ujawniło nowe ramy strategiczne, Plan bezpieczeństwa dzieci, których celem jest przeciwdziałanie rosnącemu zagrożeniu wykorzystywaniem seksualnym nieletnich w oparciu o sztuczną inteligencję. Inicjatywa ma na celu przyspieszenie wykrywania, zgłaszania i prowadzenia dochodzeń w sprawie przemocy generowanej przez sztuczną inteligencję, zapewniając lepszą ochronę dzieci w obliczu szybkiej cyfryzacji.

Rosnące zagrożenie związane z wykorzystaniem sztucznej inteligencji

Uruchomienie tego planu następuje w krytycznym momencie. Wraz z rozszerzaniem się możliwości sztucznej inteligencji zwiększa się także arsenał narzędzi dostępnych dla atakujących. Internet Watch Foundation (IWF) udokumentowała niepokojącą tendencję: tylko w pierwszej połowie 2025 roku wykryto ponad 8 000 raportów materiałów generowanych przez sztuczną inteligencję dotyczących wykorzystywania seksualnego dzieci, co stanowi wzrost o 14% w porównaniu z rokiem poprzednim.

Ten wzrost wyzysku zwykle objawia się w dwóch niebezpiecznych postaciach:
Wymuszenie finansowe na tle seksualnym (szantaż): Przestępcy wykorzystują sztuczną inteligencję do tworzenia bez zgody, wyraźnych wizerunków dzieci w celu wyłudzania pieniędzy od rodzin.
Cyfrowa pielęgnacja: wykorzystywanie wysoce przekonujących komunikatów generowanych przez sztuczną inteligencję do manipulowania i izolowania nieletnich.

Wielotorowa strategia obrony

Opracowany we współpracy z Narodowym Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC) oraz Stowarzyszeniem Prokuratorów Generalnych plan opiera się na trzech głównych filarach umożliwiających przejście od reaktywnych do proaktywnych środków bezpieczeństwa:

  1. Aktualizacje legislacyjne: promowanie przepisów, które wyraźnie obejmują treści zawierające przemoc generowane przez sztuczną inteligencję w istniejących definicjach prawnych.
  2. Optymalizacja raportowania: Usprawnienie mechanizmów przekazywania krytycznych danych organom ścigania, tak aby śledczy otrzymywali informacje na czas i bez opóźnień.
  3. Środki zabezpieczające system: wdrożenie prewencyjnych barier technicznych bezpośrednio w modelach AI w celu zablokowania generowania szkodliwych treści na bardzo wczesnym etapie.

Rosnąca presja i odpowiedzialność prawna

Dążenie OpenAI w stronę zwiększonego bezpieczeństwa nie odbywa się w próżni; pojawia się w odpowiedzi na analizę polityczną i procesy sądowe dotyczące psychologicznych skutków sztucznej inteligencji.

Firma znajduje się pod silną presją po kilku głośnych incydentach, w których interakcje z chatbotami opartymi na sztucznej inteligencji zostały powiązane z kryzysami zdrowia psychicznego. W szczególności pozwy złożone w Kalifornii zarzucają, że wypuszczenie GPT-4o nastąpiło przed wprowadzeniem wystarczających zabezpieczeń. W pozwie zarzuca się, że „psychologicznie manipulacyjny” charakter modelki przyczynił się do powstania poważnych urojeń i niestety doprowadził do kilku przypadków samobójstw.

Angażując urzędników rządowych – włączając w to wkład prokuratorów generalnych Karoliny Północnej i Utah – OpenAI próbuje wypełnić lukę pomiędzy szybkimi innowacjami technologicznymi a pilną potrzebą nadzorowania bezpieczeństwa publicznego.

Plan stanowi zasadniczy wysiłek mający na celu zsynchronizowanie rozwoju sztucznej inteligencji ze standardami prawnymi i etycznymi niezbędnymi do ochrony najbardziej bezbronnych użytkowników przed pojawiającymi się zagrożeniami cyfrowymi.

Wniosek
Plan bezpieczeństwa dzieci OpenAI oznacza znaczącą zmianę w kierunku integracji egzekwowania prawa i prawodawstwa z procesem rozwoju sztucznej inteligencji. Chociaż inicjatywa ta ma na celu zwalczanie gwałtownego wzrostu wykorzystania systemów wspomaganych przez sztuczną inteligencję, jej powodzenie będzie zależeć od tego, jak skutecznie systemy obronne oparte na technologii będą w stanie nadążać za ewoluującą taktyką przestępców.

Попередня статтяOpenAI przedstawiło propozycje ekonomiczne — oto, co myśli o nich DC