Una recente dichiarazione del tribunale rivela una netta contraddizione nella giustificazione del Pentagono per designare la società di intelligenza artificiale Anthropic come un rischio per la sicurezza nazionale. Nonostante abbia pubblicamente tagliato i legami con Anthropic a causa delle preoccupazioni sulla sua tecnologia, le comunicazioni interne mostrano che il Dipartimento della Difesa riteneva che le due parti fossero “molto vicine” all’allineamento pochi giorni prima di finalizzare la designazione. Questa discrepanza solleva dubbi sul fatto se la mossa fosse basata su reali preoccupazioni di sicurezza o su influenza politica.
Risultati chiave delle dichiarazioni della Corte
Anthropic ha presentato dichiarazioni giurate di due dirigenti chiave, Sarah Heck (responsabile della politica) e Thiyagu Ramasamy (responsabile del settore pubblico), contestando le affermazioni del Pentagono. Le dichiarazioni, presentate prima dell’udienza in tribunale del 24 marzo, affermano che il caso del governo si basa su incomprensioni e accuse mai sollevate durante i negoziati precedenti.
- Nessuna richiesta di controllo operativo: Secondo Heck, Anthropic non ha mai cercato l’approvazione per le operazioni militari, una rivendicazione centrale nei documenti del governo.
- Preoccupazioni non sollevate: La preoccupazione del Pentagono riguardo alla potenziale disabilitazione o alterazione della sua tecnologia da parte di Anthropic durante le operazioni non è stata discussa durante i negoziati ma è emersa solo nei documenti giudiziari, senza lasciare ad Anthropic alcuna possibilità di rispondere.
- Segnali contraddittori: Un’e-mail del 4 marzo del sottosegretario Emil Michael al CEO di Anthropic Dario Amodei indicava che le due parti erano quasi allineate su questioni chiave, nonostante le dichiarazioni pubbliche di Michael nei giorni successivi negassero qualsiasi trattativa attiva.
- Limiti tecnici: Ramasamy, un esperto in implementazioni di intelligenza artificiale per clienti governativi, afferma che una volta che i modelli di intelligenza artificiale di Anthropic vengono implementati in ambienti sicuri, la società non ha accesso o controllo remoto, sfatando le affermazioni di un “kill switch” o backdoor.
La cronologia degli eventi
La disputa si è intensificata alla fine di febbraio, quando il presidente Trump e il segretario alla Difesa Pete Hegseth hanno annunciato pubblicamente la fine dei legami con Anthropic dopo che la società ha rifiutato l’uso militare illimitato della sua intelligenza artificiale. Tuttavia, le comunicazioni interne suggeriscono una narrazione diversa. Appena un giorno dopo che il Pentagono aveva finalizzato la designazione dei rischi della catena di approvvigionamento contro Anthropic, il sottosegretario Michael ha inviato un’e-mail ad Amodei per dire che le due parti erano “molto vicine” sulle due questioni che il governo ora cita come prova che Anthropic è una minaccia alla sicurezza nazionale: le sue posizioni sulle armi autonome e la sorveglianza di massa degli americani.
Implicazioni legali
La causa di Anthropic sostiene che la designazione del rischio della catena di approvvigionamento – la prima mai applicata a un’azienda americana – equivale a una ritorsione del governo per le opinioni dichiarate pubblicamente dall’azienda sulla sicurezza dell’intelligenza artificiale, in violazione del Primo Emendamento. Il caso evidenzia le crescenti tensioni tra il governo e gli sviluppatori di intelligenza artificiale sul controllo e sulle considerazioni etiche nel campo in rapida evoluzione dell’intelligenza artificiale.
Le azioni del Pentagono suggeriscono la volontà di utilizzare la pressione normativa per forzare la conformità delle società di intelligenza artificiale, sollevando questioni più ampie sull’equilibrio tra sicurezza nazionale e libertà di parola nell’era digitale.
