Wizja gospodarcza #OpenAI a rzeczywistość polityczna: narastający kryzys zaufania
OpenAI opublikowało niedawno szczegółowy 13-stronicowy dokument strategiczny opisujący, w jaki sposób sztuczna inteligencja może zmienić amerykański rynek pracy. Dokument proponuje radykalną zmianę gospodarczą w celu złagodzenia skutków wypierania ludzi z siły roboczej; autorzy sugerują, że „obfitość” wytworzona przez sztuczną inteligencję powinna stać się źródłem finansowania solidnej siatki bezpieczeństwa socjalnego.
Propozycja: Finansowanie gospodarki post-AI
Plan działania firmy koncentruje się na redystrybucji bogactwa stworzonego przez automatyzację, aby chronić osoby nią dotknięte. Kluczowe obszary ich oferty obejmują:
- Wzrost podatku od zysków kapitałowych: Wpływ na korporacje, które zastępują pracowników systemami AI.
- Sovereign Wealth Fund: Wykorzystywanie zysków ze sztucznej inteligencji w celu utrzymania krajowej stabilności gospodarczej.
- Dywidenda efektywnościowa: finansowanie przejścia na czterodniowy tydzień pracy.
- Programy przejściowe skoncentrowane na ludziach: inicjatywy rządowe mające na celu przekwalifikowanie pracowników do zawodów wymagających wyjątkowych umiejętności ludzkich.
Chociaż pomysły te wnoszą nowe, znaczące koncepcje do dyskursu politycznego na temat zarządzania sztuczną inteligencją, pojawiają się w czasie intensywnej analizy etyki korporacyjnej OpenAI.
Kryzys zaufania: słowa kontra czyny
Publikacja tego dokumentu zbiega się z głęboko krytycznym raportem „The New Yorker” szczegółowo opisującym historię rzekomego oszustwa ze strony dyrektora generalnego Sama Altmana. Raport ujawnia powtarzający się schemat: OpenAI publicznie opowiada się za idealistycznymi wartościami i zasadami bezpieczeństwa, prywatnie pracując nad ich podważeniem dla korzyści politycznych lub finansowych.
Ta rozbieżność spowodowała, że decydenci i eksperci branżowi zaczęli kwestionować, czy propozycje oprogramowania OpenAI są prawdziwą próbą regulacji, czy po prostu wyrafinowanym PR.
Model manewrowania politycznego
Krytycy wskazują na kilka przypadków, w których prywatne działania OpenAI wydawały się zaprzeczać jej publicznemu stanowisku:
1. Zniesienie ustawodawstwa: Chociaż Altman publicznie opowiadał się za federalnym nadzorem nad sztuczną inteligencją w 2023 r., raporty wskazują, że firma działała za kulisami, aby zablokować określone ustawy dotyczące bezpieczeństwa w Kalifornii.
2. Agresywne taktyki prawne: według doniesień firma korzystała z wezwań do zastraszania zwolenników ustawodawstwa dotyczącego sztucznej inteligencji na szczeblu stanowym.
3. Zmiana stron: Po ścisłej współpracy z administracją Bidena w celu ustalenia standardów bezpieczeństwa Altman skutecznie lobbował wobec administracji Trumpa, aby zlikwidowała wiele inicjatyw, które kiedyś wspierał.
Ekspercki sceptycyzm: czy wizja przetrwa atak lobbingu?
Obserwatorzy branży są podzieleni co do tego, czy eksperci technologiczni piszący te strategie będą w stanie utrzymać swoje wpływy w obliczu machiny politycznej firmy.
Malo Burgon, dyrektor generalny Instytutu Badań nad Inteligencją Maszynową (MIRI), zauważa, że chociaż artykuł może być efektem dobrych intencji badaczy, istnieje ryzyko „rozczarowania”. Historia pokazuje, że wielu pracowników OpenAI odeszło z firmy po odkryciu, że działania organizacji nie są zgodne z wyznawanymi przez nią wartościami.
Podobnie Nathan Calvin z organizacji non-profit Encode zajmującej się polityką sztucznej inteligencji wyraził sceptycyzm co do zaangażowania OpenAI w procesy demokratyczne. Uznając wartość badań technicznych leżących u podstaw propozycji, Calvin powiedział, że prawdziwym sprawdzianem będzie to, czy OpenAI będzie przestrzegać tych zasad, gdy przejdzie ze sfery „ogólnych zasad polityki” do świata brutalnego i wysokobudżetowego lobbingu.
Konkluzja: OpenAI przedstawiło przyszłościowy model ekonomiczny mający na celu rozwiązanie problemu przenoszenia miejsc pracy przez sztuczną inteligencję, ale rosnąca seria kontrowersji politycznych wzbudziła w Waszyngtonie wątpliwości, czy firma rzeczywiście dotrzyma swoich obietnic.





















