OpenAI odhaluje nový bezpečnostní plán pro boj proti zneužívání dětí AI

18

OpenAI odhalila nový strategický rámec, Child Safety Blueprint, jehož cílem je čelit rostoucí hrozbě sexuálního zneužívání nezletilých na základě umělé inteligence. Iniciativa si klade za cíl urychlit odhalování, nahlašování a vyšetřování násilí generovaného umělou inteligencí a poskytnout dětem větší ochranu před rychlou digitalizací.

Rostoucí hrozba využívání umělé inteligence

Spuštění tohoto plánu přichází v kritické době. S rozšiřováním schopností umělé inteligence se rozšiřuje i arzenál nástrojů, které mají útočníci k dispozici. Internet Watch Foundation (IWF) zdokumentovala znepokojivý trend: jen v první polovině roku 2025 bylo odhaleno více než 8 000 zpráv materiálu o sexuálním zneužívání dětí generovaných umělou inteligencí, což je nárůst o 14 % ve srovnání s předchozím rokem.

Tento nárůst vykořisťování se obvykle projevuje ve dvou nebezpečných formách:
Finanční sexuální vydírání (vydírání): Zločinci používají umělou inteligenci k vytváření nekonsensuálních explicitních obrázků dětí k vymáhání peněz od rodin.
Digital Grooming: Používání vysoce přesvědčivých zpráv generovaných umělou inteligencí k manipulaci a izolaci nezletilých.

Vícebodová obranná strategie

Tento plán byl vyvinutý ve spolupráci s Národním centrem pro pohřešované a zneužívané děti (NCMEC) a Aliancí generálních prokurátorů a je založen na třech hlavních pilířích s cílem přejít od reaktivních k proaktivním bezpečnostním opatřením:

  1. Aktualizace legislativy: Prosazování zákonů, které do stávajících právních definic výslovně zahrnují násilný obsah generovaný umělou inteligencí.
  2. Optimalizace hlášení: Zlepšení mechanismů pro předávání kritických údajů donucovacím orgánům tak, aby vyšetřovatelé dostávali včasné informace bez prodlení.
  3. Ochranná opatření systému: implementace preventivních technických bariér přímo do modelů umělé inteligence za účelem blokování generování škodlivého obsahu ve velmi rané fázi.

Rostoucí tlak a právní odpovědnost

Posun OpenAI směrem ke zvýšené bezpečnosti se neděje ve vzduchoprázdnu; přichází v reakci na politickou kontrolu a soudní spory týkající se psychologických účinků umělé inteligence.

Společnost je pod silným tlakem po několika vysoce sledovaných incidentech, kdy interakce s chatboty poháněnými umělou inteligencí byly spojeny s krizemi duševního zdraví. Konkrétně žaloby podané v Kalifornii tvrdí, že k vydání GPT-4o došlo dříve, než byly zavedeny dostatečné záruky. Žaloby tvrdí, že „psychologicky manipulativní“ povaha modelu přispěla k těžkým bludům a bohužel vedla k několika případům sebevražd.

Zapojením vládních úředníků – včetně příspěvků od generálních prokurátorů Severní Karolíny a Utahu – se OpenAI snaží překlenout propast mezi rychlými technologickými inovacemi a naléhavou potřebou dohlížet na veřejnou bezpečnost.

Plán představuje zásadní úsilí o synchronizaci vývoje umělé inteligence s právními a etickými standardy potřebnými k ochraně nejzranitelnějších uživatelů před vznikajícími digitálními hrozbami.

Závěr
Plán dětské bezpečnosti OpenAI představuje významný posun směrem k integraci vymáhání práva a legislativy do procesu vývoje AI. I když je tato iniciativa zaměřena na boj proti nárůstu vykořisťování za pomoci umělé inteligence, její úspěch bude záviset na tom, jak efektivně dokáže technologická obrana držet krok s vyvíjejícími se taktikami zločinců.