La vision économique d’OpenAI par rapport à sa réalité politique : un écart de confiance croissant

7

OpenAI a récemment publié un document politique complet de 13 pages décrivant comment l’intelligence artificielle pourrait remodeler la main-d’œuvre américaine. Le document propose un changement économique radical pour atténuer le déplacement des travailleurs humains, suggérant que « l’abondance » générée par l’IA devrait financer un solide filet de sécurité sociale.

La proposition : financer une économie post-IA

La feuille de route de l’entreprise se concentre sur la redistribution de la richesse générée par l’automatisation pour protéger ceux qui en sont affectés. Les principaux piliers de leur proposition comprennent :

  • Augmentation des impôts sur les plus-values : Ciblage des entreprises qui remplacent les employés humains par des systèmes d’IA.
  • Un fonds de richesse publique : Utiliser les bénéfices générés par l’IA pour soutenir la stabilité économique nationale.
  • Le « Dividende d’efficacité » : Financer la transition vers une semaine de travail de quatre jours.
  • Programmes de transition centrés sur l’humain : Initiatives dirigées par le gouvernement pour recycler les travailleurs pour des rôles qui nécessitent des compétences uniquement humaines.

Bien que ces idées introduisent de nouveaux concepts substantiels dans le discours politique concernant la gouvernance de l’IA, elles arrivent à une époque où l’intégrité de l’entreprise d’OpenAI fait l’objet d’un examen minutieux.

La crise de la crédibilité : paroles contre actions

La publication de cet article a coïncidé avec un rapport profondément critique du The New Yorker, qui détaillait l’histoire d’une prétendue tromperie du PDG Sam Altman. Le rapport suggère un schéma récurrent : OpenAI défend publiquement des valeurs idéalistes et des réglementations de sécurité tout en s’efforçant en privé de les saper pour obtenir un avantage politique ou financier.

Cet écart a conduit les décideurs politiques et les experts du secteur à se demander si les propositions politiques d’OpenAI sont de véritables tentatives de gouvernance ou simplement des relations publiques sophistiquées.

Un modèle de manœuvre politique

Les critiques soulignent plusieurs cas où les actions privées d’OpenAI semblent contredire sa position publique :
1. Suppression législative : Alors qu’Altman a publiquement plaidé en faveur d’une surveillance fédérale de l’IA en 2023, des rapports suggèrent que l’entreprise a travaillé dans les coulisses pour faire échouer des projets de loi de sécurité spécifiques en Californie.
2. Tactiques juridiques agressives : La société aurait eu recours à des assignations à comparaître pour intimider les partisans de la législation nationale sur la sécurité de l’IA.
3. Changement d’allégeance : Après avoir travaillé en étroite collaboration avec l’administration Biden pour établir des normes de sécurité, Altman a réussi à faire pression sur l’administration Trump pour qu’elle démantèle bon nombre des initiatives qu’il soutenait autrefois.

Scepticisme des experts : la vision peut-elle survivre au lobbying ?

Les observateurs du secteur sont divisés sur la question de savoir si les experts techniques qui rédigent ces politiques peuvent maintenir leur influence contre l’appareil politique de l’entreprise.

Malo Bourgon, PDG du Machine Intelligence Research Institute (MIRI), note que même si le document peut être le produit de chercheurs bien intentionnés, il existe un risque de « désenchantement ». L’histoire montre que de nombreux employés d’OpenAI ont quitté l’entreprise après avoir découvert que les actions de l’entreprise ne correspondaient pas à ses valeurs déclarées.

De même, Nathan Calvin, de l’organisation à but non lucratif Encode, spécialisée dans la politique de l’IA, a exprimé son scepticisme quant à l’engagement d’OpenAI dans le processus démocratique. Tout en reconnaissant le mérite de la recherche technique derrière la proposition, Calvin a noté que le véritable test sera de savoir si OpenAI adhère à ces principes lorsqu’ils passeront des « principes de politique générale » au monde aux enjeux élevés du lobbying actif.

L’essentiel : OpenAI a présenté un cadre économique visionnaire pour gérer les suppressions d’emplois liées à l’IA, mais un historique croissant d’incohérences politiques a laissé Washington sceptique quant à la capacité de l’entreprise à tenir réellement ses promesses.

Попередня статтяLe cessez-le-feu fragile : pourquoi l’économie mondiale reste à la limite
Наступна статтяOpenAI dévoile un nouveau plan de sécurité pour lutter contre l’exploitation des enfants basée sur l’IA