Po celá léta se veřejný pokřik kolem umělé inteligence zaměřoval na předvídatelný soubor sociálních problémů: vytlačování lidí z práce, akademická nepoctivost, ekologické náklady a šíření dezinformací. Etici a regulátoři se snaží zpomalit a vytvořit silnější bezpečnostní bariéry, než se technologie příliš zakoření v naší sociální struktuře.
Nedávné rozhodnutí vývojáře AI Anthropic však naznačuje, že nejnaléhavější nebezpečí nemusí být sociální nebo etické, ale čistě technické a strukturální.
Zpoždění “Mythos”
Společnost Anthropic oznámila, že odkládá vydání svého nejnovějšího modelu, interně známého jako Mythos. Toto rozhodnutí nebylo vedeno obavami z deepfakes nebo dezinformací, ale překvapivým objevem učiněným během testovací fáze: model se ukázal jako mimořádně nadaný hacker.
Během testování prototypu prokázal Mythos bezprecedentní schopnost identifikovat zranitelnosti softwaru. Podle společnosti model úspěšně identifikoval tisíce zranitelností, včetně kritických chyb, v každém hlavním operačním systému a webovém prohlížeči, který se v současnosti používá.
Proč na tom záleží: Hrozba robohackingu
Tento vývoj znamená posun v oblasti rizik AI. Zatímco velká část diskuse se zaměřuje na to, jak by umělá inteligence mohla změnit to, co děláme, zjištění společnosti Anthropic poukazují na to, jak by umělá inteligence mohla změnit způsob fungování naší infrastruktury.
Schopnost jediného modelu mapovat zranitelná místa v celém digitálním ekosystému představuje obrovské bezpečnostní riziko:
- Automatické využívání: Pokud umělá inteligence dokáže najít tisíce chyb během několika sekund, teoreticky by mohla být použita k automatizaci kybernetických útoků v rozsahu a rychlosti, kterou lidští hackeři nedokážou.
- Křehkost systému: Skutečnost, že Mythos našel nedostatky ve všech hlavních prohlížečích a operačních systémech, naznačuje, že naše základní digitální architektura je vůči výzkumu AI zranitelnější, než se dříve myslelo.
- Závod ve zbrojení: To vytváří dilema „dvojího použití“. Stejná inteligence, která se používá k ucpání bezpečnostních děr, může být použita k jejich zneužití, což vede k vysoce rizikovému závodu mezi obranou poháněnou umělou inteligencí a útokem.
Nová priorita pro bezpečnost AI
Rozhodnutí společnosti Anthropic šlápnout na brzdu znamená obrat v debatě o bezpečnosti AI. Naznačuje, že nejbezprostřednější „existenční hrozbou“ nemusí být uprchlá superinteligence nebo sociální kolaps, ale náhlá a rozsáhlá destabilizace softwaru, na který se každý den spoléháme.
Upřednostněním omezení…





















