OpenAI nedávno zveřejnila podrobný 13stránkový politický dokument, který nastiňuje, jak by umělá inteligence mohla změnit americký trh práce. Dokument navrhuje radikální ekonomický posun ke zmírnění dopadů vysídlení lidí z pracovní síly; autoři navrhují, že „hojnost“ vytvořená umělou inteligencí by se měla stát zdrojem financování silné sociální záchranné sítě.
Návrh: Financování post-AI ekonomiky
Plán společnosti se zaměřuje na přerozdělování bohatství vytvořeného automatizací s cílem chránit ty, kteří jsou jí ovlivněni. Mezi klíčové oblasti jejich nabídky patří:
- Zvýšení daně z kapitálových zisků: Dopad na společnosti, které nahrazují zaměstnance systémy umělé inteligence.
- Sovereign Wealth Fund: Používání zisků z umělé inteligence k udržení národní ekonomické stability.
- Dividenda za efektivitu: financování přechodu na čtyřdenní pracovní týden.
- People-Centered Transition Programs: vládní iniciativy k rekvalifikaci pracovníků na povolání, která vyžadují jedinečné lidské dovednosti.
I když tyto myšlenky přinášejí významné nové koncepty do politického diskurzu o správě AI, přicházejí v době intenzivního zkoumání podnikové etiky OpenAI.
Krize důvěry: slova versus činy
Vydání tohoto dokumentu se shoduje s hluboce kritickou zprávou z The New Yorker, která podrobně popisuje historii údajného podvodu generálního ředitele Sama Altmana. Zpráva odhaluje opakující se vzorec: OpenAI veřejně obhajuje idealistické hodnoty a bezpečnostní pravidla, zatímco soukromě pracuje na jejich podkopávání pro politický nebo finanční zisk.
Tato nesrovnalost přiměla tvůrce politik a odborníky z oboru pochybovat, zda návrhy softwaru OpenAI jsou skutečnými pokusy o regulaci, nebo jen sofistikovaným PR.
Model politického manévrování
Kritici poukazují na několik případů, kdy se zdálo, že soukromé akce OpenAI odporují jejímu veřejnému postoji:
1. Potlačení legislativy: Zatímco Altman veřejně obhajoval federální dohled nad umělou inteligencí v roce 2023, zprávy naznačují, že společnost v zákulisí pracovala na blokování konkrétních bezpečnostních zákonů v Kalifornii.
2. Agresivní právní taktika: Společnost údajně používala předvolání k zastrašování zastánců státní legislativy AI.
3. Výměna stran: Poté, co Altman úzce spolupracoval s Bidenovou administrativou na stanovení bezpečnostních standardů, úspěšně lobboval u Trumpovy administrativy, aby zrušila mnoho z iniciativ, které kdysi podporoval.
Skepse odborníků: přežije vize nápor lobbingu?
Oboroví pozorovatelé se dělí o to, zda si tech odborníci, kteří píší tyto strategie, dokážou udržet svůj vliv tváří v tvář politické mašinérii společnosti.
Malo Burgon, generální ředitel Institutu pro výzkum strojové inteligence (MIRI), poznamenává, že ačkoli papír může být produktem dobrých úmyslů výzkumníků, existuje riziko „zklamání“. Historie ukazuje, že mnoho zaměstnanců OpenAI opustilo společnost poté, co zjistili, že jednání organizace neodpovídá jejím deklarovaným hodnotám.
Stejně tak Nathan Calvin z neziskové organizace Encode pro politiku AI vyjádřil skepticismus ohledně zapojení OpenAI do demokratických procesů. Calvin uznal hodnotu technického výzkumu za návrhem, ale řekl, že skutečným testem bude, zda OpenAI dodrží tyto principy, až se přesunou z oblasti „obecných zásad politiky“ do světa těžkopádného a velkorozpočtového lobbingu.
Sečteno a podtrženo: OpenAI představila progresivní ekonomický model pro řešení vytlačování pracovních míst umělou inteligencí, ale rostoucí série politických sporů ve Washingtonu vyvolala pochybnosti o tom, zda společnost skutečně splní své sliby.





















