OpenAI odhaluje nový bezpečnostní plán pro boj proti zneužívání dětí AI

2

OpenAI odhalila nový strategický rámec, Child Safety Blueprint, jehož cílem je čelit rostoucí hrozbě sexuálního zneužívání nezletilých na základě umělé inteligence. Iniciativa si klade za cíl urychlit odhalování, nahlašování a vyšetřování násilí generovaného umělou inteligencí a poskytnout dětem větší ochranu před rychlou digitalizací.

Rostoucí hrozba využívání umělé inteligence

Spuštění tohoto plánu přichází v kritické době. S rozšiřováním schopností umělé inteligence se rozšiřuje i arzenál nástrojů, které mají útočníci k dispozici. Internet Watch Foundation (IWF) zdokumentovala znepokojivý trend: jen v první polovině roku 2025 bylo odhaleno více než 8 000 zpráv materiálu o sexuálním zneužívání dětí generovaných umělou inteligencí, což je nárůst o 14 % ve srovnání s předchozím rokem.

Tento nárůst vykořisťování se obvykle projevuje ve dvou nebezpečných formách:
Finanční sexuální vydírání (vydírání): Zločinci používají umělou inteligenci k vytváření nekonsensuálních explicitních obrázků dětí k vymáhání peněz od rodin.
Digital Grooming: Používání vysoce přesvědčivých zpráv generovaných umělou inteligencí k manipulaci a izolaci nezletilých.

Vícebodová obranná strategie

Tento plán byl vyvinutý ve spolupráci s Národním centrem pro pohřešované a zneužívané děti (NCMEC) a Aliancí generálních prokurátorů a je založen na třech hlavních pilířích s cílem přejít od reaktivních k proaktivním bezpečnostním opatřením:

  1. Aktualizace legislativy: Prosazování zákonů, které do stávajících právních definic výslovně zahrnují násilný obsah generovaný umělou inteligencí.
  2. Optimalizace hlášení: Zlepšení mechanismů pro předávání kritických údajů donucovacím orgánům tak, aby vyšetřovatelé dostávali včasné informace bez prodlení.
  3. Ochranná opatření systému: implementace preventivních technických bariér přímo do modelů umělé inteligence za účelem blokování generování škodlivého obsahu ve velmi rané fázi.

Rostoucí tlak a právní odpovědnost

Posun OpenAI směrem ke zvýšené bezpečnosti se neděje ve vzduchoprázdnu; přichází v reakci na politickou kontrolu a soudní spory týkající se psychologických účinků umělé inteligence.

Společnost je pod silným tlakem po několika vysoce sledovaných incidentech, kdy interakce s chatboty poháněnými umělou inteligencí byly spojeny s krizemi duševního zdraví. Konkrétně žaloby podané v Kalifornii tvrdí, že k vydání GPT-4o došlo dříve, než byly zavedeny dostatečné záruky. Žaloby tvrdí, že „psychologicky manipulativní“ povaha modelu přispěla k těžkým bludům a bohužel vedla k několika případům sebevražd.

Zapojením vládních úředníků – včetně příspěvků od generálních prokurátorů Severní Karolíny a Utahu – se OpenAI snaží překlenout propast mezi rychlými technologickými inovacemi a naléhavou potřebou dohlížet na veřejnou bezpečnost.

Plán představuje zásadní úsilí o synchronizaci vývoje umělé inteligence s právními a etickými standardy potřebnými k ochraně nejzranitelnějších uživatelů před vznikajícími digitálními hrozbami.

Závěr
Plán dětské bezpečnosti OpenAI představuje významný posun směrem k integraci vymáhání práva a legislativy do procesu vývoje AI. I když je tato iniciativa zaměřena na boj proti nárůstu vykořisťování za pomoci umělé inteligence, její úspěch bude záviset na tom, jak efektivně dokáže technologická obrana držet krok s vyvíjejícími se taktikami zločinců.

Попередня статтяEkonomická vize OpenAI versus politická realita: rostoucí krize důvěry