L’alto costo dell’influenza: il lobbying dell’intelligenza artificiale sta soffocando la regolamentazione?

19

Sta emergendo una tensione crescente tra il rapido progresso dell’Intelligenza Artificiale e gli sforzi legislativi necessari per governarla. Mentre i principali attori del settore come OpenAI e Palantir sostengono pubblicamente una regolamentazione “attenta”, le loro azioni finanziarie suggeriscono una priorità diversa: proteggere i propri interessi opponendosi a coloro che cercano un controllo immediato e rigoroso.

La disconnessione tra retorica e realtà

Il dibattito è incentrato su una contraddizione fondamentale nel modo in cui le società di intelligenza artificiale affrontano la politica. Da un lato, i leader del settore, come il cofondatore di OpenAI Greg Brockman, affermano che essere “pro-AI” non è sinonimo di essere “anti-regolamentazione”. La loro posizione pubblica sottolinea la necessità di politiche flessibili che possano evolversi insieme alla tecnologia, con l’obiettivo di garantire benefici e mitigare i rischi.

Tuttavia, la recente spesa politica racconta una storia più aggressiva. Un potente Super PAC, sostenuto dai co-fondatori di Palantir, OpenAI e dalla società di venture capital Andreessen Horowitz, avrebbe speso milioni per opporsi a specifici candidati al Congresso.

“C’è una differenza tra ciò che dicono a fini di marketing e ciò in cui realmente credono”, secondo le recenti critiche a questi modelli di spesa.

Questa resistenza finanziaria suggerisce che, mentre le aziende richiedono quadri “attenti”, stanno lavorando attivamente per sconfiggere i legislatori che propongono proprio le strutture – come quadri nazionali e rigorosi requisiti di trasparenza – che l’industria afferma di sostenere.

Sfumature politiche: governance proattiva e governance reattiva

L’attrito non riguarda solo il denaro, ma la natura delle regole proposte. Un recente documento politico di OpenAI evidenzia una distinzione sottile ma fondamentale nel modo in cui dovrebbero essere gestiti i rischi dell’IA:

  • L’approccio industriale: si concentra su misure “reattive”, come futuri audit di terzi e disposizioni di “approdo sicuro” per settori specifici come la sicurezza dei bambini. C’è una forte enfasi sulla società che affronta i problemi dopo che si presentano.
  • L’approccio legislativo: sostiene restrizioni “proattive” per gli sviluppatori, inclusa la trasparenza immediata, un rigoroso “red teaming” (la pratica di tentare intenzionalmente di violare il software per trovare vulnerabilità) e strutture legislative stabilite prima che la tecnologia raggiunga un punto di non ritorno.

L’effetto “Morte Nera”: lezioni dalle criptovalute

C’è una crescente preoccupazione tra i politici che il settore dell’intelligenza artificiale stia seguendo un programma precedentemente visto nel settore delle criptovalute. Sfruttando ingenti quantità di capitale per finanziare i Super PAC, i giganti della tecnologia stanno creando quella che è stata descritta come una “capacità simile alla Morte Nera”, un livello di influenza politica così vasto da poter effettivamente neutralizzare gli sforzi legislativi.

Ciò crea un pericoloso paradosso: nel momento esatto in cui l’intelligenza artificiale sta diventando abbastanza potente da richiedere un’urgente supervisione da parte del Congresso, l’industria sta acquisendo il potere finanziario per impedire che tale supervisione avvenga.


Conclusione
Il conflitto tra sviluppatori di intelligenza artificiale e regolatori rivela una profonda divisione: mentre l’industria chiede una regolamentazione, allo stesso tempo usa la sua enorme ricchezza per combattere i legislatori che tentano di implementarla. Questa lotta determinerà in ultima analisi se l’intelligenza artificiale sarà governata da una politica pubblica proattiva o dagli interessi privati ​​dei suoi creatori.