OpenAI ha recentemente pubblicato un documento politico completo di 13 pagine che delinea come l’intelligenza artificiale potrebbe rimodellare la forza lavoro americana. Il documento propone un cambiamento economico radicale per mitigare lo spostamento dei lavoratori umani, suggerendo che “l’abbondanza” generata dall’intelligenza artificiale dovrebbe finanziare una solida rete di sicurezza sociale.
La proposta: finanziare un’economia post-intelligenza artificiale
La tabella di marcia dell’azienda si concentra sulla ridistribuzione della ricchezza generata dall’automazione per proteggere le persone colpite da essa. I pilastri chiave della loro proposta includono:
- Aumento delle tasse sulle plusvalenze: mirato alle aziende che sostituiscono i dipendenti umani con sistemi di intelligenza artificiale.
- Un fondo di ricchezza pubblica: utilizzo dei profitti generati dall’intelligenza artificiale per sostenere la stabilità economica nazionale.
- Il “dividendo di efficienza”: Finanziamento della transizione verso una settimana lavorativa di quattro giorni.
- Programmi di transizione incentrati sull’uomo: iniziative guidate dal governo per riqualificare i lavoratori per ruoli che richiedono competenze esclusivamente umane.
Sebbene queste idee introducono nuovi concetti sostanziali nel discorso politico sulla governance dell’IA, arrivano in un momento di esame approfondito riguardo all’integrità aziendale di OpenAI.
La crisi di credibilità: parole contro azioni
La pubblicazione di questo articolo è coincisa con un rapporto profondamente critico del The New Yorker, che descriveva in dettaglio una storia di presunto inganno da parte del CEO Sam Altman. Il rapporto suggerisce uno schema ricorrente: OpenAI difende pubblicamente i valori idealistici e le norme di sicurezza mentre lavora privatamente per indebolirli per un vantaggio politico o finanziario.
Questa discrepanza ha portato i politici e gli esperti del settore a chiedersi se le proposte politiche di OpenAI siano autentici tentativi di governance o semplicemente sofisticate pubbliche relazioni.
Un modello di manovra politica
I critici sottolineano diversi casi in cui le azioni private di OpenAI sembravano contraddire la sua posizione pubblica:
1. Soppressione legislativa: mentre Altman sosteneva pubblicamente la supervisione federale dell’IA nel 2023, i rapporti suggeriscono che la società ha lavorato dietro le quinte per eliminare specifiche leggi sulla sicurezza in California.
2. Tattiche legali aggressive: secondo quanto riferito, la società ha utilizzato mandati di comparizione per intimidire i sostenitori della legislazione statale sulla sicurezza dell’IA.
3. Cambiamento di alleanze: dopo aver lavorato a stretto contatto con l’amministrazione Biden per stabilire standard di sicurezza, Altman ha esercitato con successo pressioni sull’amministrazione Trump affinché smantellasse molte delle stesse iniziative che un tempo sosteneva.
Scetticismo degli esperti: la visione può sopravvivere al lobbismo?
Gli osservatori del settore sono divisi sulla possibilità che gli esperti tecnici che scrivono queste politiche possano mantenere la loro influenza contro l’apparato politico dell’azienda.
Malo Bourgon, CEO del Machine Intelligence Research Institute (MIRI), osserva che sebbene il documento possa essere il prodotto di ricercatori ben intenzionati, esiste il rischio di “disincanto”. La storia mostra che molti dipendenti di OpenAI se ne sono andati dopo aver scoperto che le azioni dell’azienda non erano in linea con i valori dichiarati.
Allo stesso modo, Nathan Calvin dell’organizzazione no-profit per la politica sull’intelligenza artificiale Encode ha espresso scetticismo riguardo all’impegno di OpenAI nel processo democratico. Pur riconoscendo il merito della ricerca tecnica alla base della proposta, Calvin ha osservato che il vero test sarà se OpenAI aderirà a questi principi quando si passerà dai “principi di politica generale” al mondo ad alto rischio del lobbismo attivo.
Conclusione: OpenAI ha presentato un quadro economico visionario per gestire lo spostamento di posti di lavoro guidato dall’intelligenza artificiale, ma una crescente esperienza di incoerenza politica ha lasciato Washington scettica sul fatto che la società manterrà effettivamente le sue promesse.





















