Il Congresso si muove per rafforzare l’etica dell’IA nel mezzo dello scontro tra il Pentagono e l’Anthropic

11

I legislatori del Senato degli Stati Uniti stanno preparando una legislazione per limitare il modo in cui i militari utilizzano l’intelligenza artificiale, a seguito di una disputa di alto profilo tra Anthropic, uno dei principali sviluppatori di intelligenza artificiale, e il Dipartimento della Difesa. La mossa mira a codificare i confini etici attorno alle armi autonome e alla sorveglianza di massa, garantendo la supervisione umana nelle decisioni di vita o di morte. Ciò avviene dopo che l’amministrazione Trump ha inserito Anthropic nella lista nera per aver rifiutato di consentire l’applicazione militare senza restrizioni dei suoi modelli di intelligenza artificiale, una decisione che Anthropic sta ora impugnando in tribunale.

Il nocciolo del conflitto

Anthropic si è opposta pubblicamente a un accordo del Pentagono che avrebbe consentito l’uso della sua intelligenza artificiale per sistemi d’arma completamente autonomi e un’ampia sorveglianza interna. Questa posizione contrasta nettamente con OpenAI, un concorrente che ha accettato i termini. La successiva inserimento di Anthropic nella lista nera da parte dell’amministrazione ha scatenato azioni legali e ora un intervento legislativo.
La questione di fondo è il controllo: chi decide quando e come utilizzare l’intelligenza artificiale nelle applicazioni critiche, in particolare quelle che coinvolgono la forza letale o la raccolta di dati di massa? Senza regole chiare, lo sviluppo dell’intelligenza artificiale potrebbe accelerare l’uso militare incontrollato, sollevando gravi preoccupazioni per le libertà civili.

Sforzi bipartisan per impostare guardrail

Il senatore Adam Schiff (D-CA) sta guidando lo sforzo per redigere un disegno di legge che imporrebbe legalmente i limiti sulle applicazioni militari dell’IA. Ha sottolineato la necessità del coinvolgimento umano in qualsiasi decisione con conseguenze sulla vita o sulla morte, affermando: “Non vogliamo delegare questo tipo di responsabilità sulla vita e sulla morte a un algoritmo”.
La senatrice Elissa Slotkin (D-MI) ha già introdotto l’AI Guardrails Act, che limiterebbe ulteriormente il Dipartimento della Difesa dall’utilizzo dell’intelligenza artificiale per la sorveglianza di massa degli americani o armi letali autonome senza supervisione umana. Il disegno di legge consente eccezioni solo in “circostanze straordinarie”, che richiedono la notifica al Congresso.

Il ruolo dell’intelligenza artificiale nella guerra: un equilibrio delicato

Pur sottolineando il controllo umano, i legislatori riconoscono i potenziali benefici militari dell’intelligenza artificiale. L’intelligenza artificiale può elaborare le informazioni più velocemente degli esseri umani, fornendo un vantaggio tattico sul campo di battaglia. Tuttavia, il rischio di errori, ad esempio nel distinguere tra civili e combattenti, rimane significativo.
Il dibattito è incentrato su come sfruttare la velocità e l’efficienza dell’intelligenza artificiale senza rinunciare al controllo sulle decisioni di vita o di morte. La legislazione proposta cerca di trovare questo equilibrio.

Sfide politiche e passi successivi

L’approvazione di tale legislazione sarà impegnativa dato l’attuale clima politico. Con i democratici che detengono una maggioranza ristretta, il sostegno bipartisan sarà cruciale. Anche il momento è sfavorevole, poiché le elezioni di medio termine si avvicinano e lo slancio legislativo rallenta. I legislatori stanno valutando la possibilità di allegare il disegno di legge al National Defense Authorization Act (NDAA) per aumentare le sue possibilità di approvazione.
Nonostante gli ostacoli politici, Schiff ritiene che vi sia un ampio sostegno pubblico alle limitazioni dell’intelligenza artificiale. Riconosce la potenziale resistenza di alcuni colleghi che potrebbero vedere il disegno di legge come una critica all’amministrazione, ma rimane ottimista riguardo all’assicurarsi un sostegno bipartisan.

“C’è sicuramente un sostegno bipartisan da parte del pubblico per questo tipo di limitazioni”, ha detto Schiff.

Il conflitto con Anthropic ha messo in luce le vulnerabilità dell’attuale governance dell’IA e ha accelerato la spinta verso garanzie legali. Resta da vedere se il Congresso potrà agire rapidamente per prevenire l’applicazione militare incontrollata dell’intelligenza artificiale, ma il dibattito sottolinea l’urgente necessità di chiarezza etica in questo campo in rapida evoluzione.

Попередня статтяAramco potenzia la capacità di elaborazione ad alte prestazioni man mano che crescono gli investimenti nell’intelligenza artificiale in Medio Oriente
Наступна статтяSaldi di primavera Amazon 2026: gli sconti AirPods sono ora attivi 🎧