Il Dipartimento della Difesa degli Stati Uniti (DoD) e Anthropic, uno dei principali sviluppatori di intelligenza artificiale, sono impegnati in una disputa ad alto rischio su come l’intelligenza artificiale possa essere utilizzata nelle applicazioni militari. La questione centrale non è se l’intelligenza artificiale verrà implementata, ma chi stabilisce le regole: le aziende che sviluppano la tecnologia o il governo che la implementa.
Il conflitto: limiti all’uso dell’IA
Anthropic, guidata dal CEO Dario Amodei, si rifiuta di consentire che i suoi modelli di intelligenza artificiale vengano utilizzati per due scopi chiave: sorveglianza di massa dei cittadini statunitensi e sistemi d’arma completamente autonomi che prendano decisioni letali senza la supervisione umana. Questa posizione sfida direttamente la posizione del Dipartimento della Difesa, espressa dal segretario Pete Hegseth, secondo cui qualsiasi “uso legale” della tecnologia dovrebbe essere consentito.
Il Dipartimento della Difesa sostiene che non dovrebbe essere vincolato dalle politiche di un fornitore, soprattutto quando è in gioco la sicurezza nazionale. In un brusco ultimatum, il Pentagono ha minacciato di designare Anthropic come un “rischio nella catena di fornitura” – tagliandoli di fatto fuori dai contratti governativi – a meno che non si adeguassero entro venerdì.
Perché è importante: il futuro della guerra automatizzata
Questa controversia non riguarda soltanto un singolo contratto. Riflette una tensione fondamentale nella rapida evoluzione dell’intelligenza artificiale. L’esercito americano impiega già sistemi altamente automatizzati, alcuni capaci di esercitare una forza letale. Le attuali normative consentono all’intelligenza artificiale di selezionare e coinvolgere obiettivi senza l’intervento umano diretto, a condizione che gli alti funzionari approvino. Anthropic teme che se i suoi modelli venissero utilizzati dai militari senza sufficienti garanzie, le conseguenze potrebbero essere catastrofiche.
Nello specifico l’azienda si preoccupa di:
- Decisioni letali inaffidabili: Affidare il controllo delle armi a un’intelligenza artificiale meno capace potrebbe portare a un’errata identificazione dei bersagli, a un’escalation involontaria o a errori irreversibili.
- Sorveglianza potenziata: l’intelligenza artificiale può aumentare notevolmente la portata e l’efficacia della sorveglianza domestica, sollevando preoccupazioni sulla privacy e sulle libertà civili.
- Mancanza di trasparenza: la tecnologia militare è spesso classificata, il che significa che l’intera portata dello sviluppo di armi autonome potrebbe rimanere nascosta finché non sarà operativa.
La posizione del Pentagono: pragmatismo contro principi
Il Dipartimento della Difesa insiste che il suo unico obiettivo è sfruttare l’intelligenza artificiale per scopi legali e che le restrizioni di Anthropic non sono necessarie. I funzionari affermano di non avere intenzione di condurre una sorveglianza interna di massa o di utilizzare armi autonome incontrollate. Tuttavia, la retorica del segretario Hegseth ha virato verso il territorio culturale, criticando la “risvegliata intelligenza artificiale” e sottolineando la necessità di sistemi “pronti alla guerra”, non di “chatbot per una sala facoltà dell’Ivy League”.
Il Pentagono ha l’autorità di imporre la conformità attraverso il Defense Production Act (DPA), che consente al governo di obbligare le aziende a soddisfare le proprie esigenze. Dichiarare Anthropic un rischio per la catena di approvvigionamento li inserirebbe effettivamente nella lista nera dal futuro lavoro del governo.
Il punto finale: un punto decisionale critico
La situazione di stallo rappresenta una scelta difficile per entrambe le parti. Se Anthropic rifiuta di cedere, rischia di perdere un importante flusso di entrate e potenzialmente di ostacolare la sua redditività a lungo termine. Se il Dipartimento della Difesa andasse avanti senza Anthropic, potrebbe dover affrontare un ritardo di sei-12 mesi mentre altri sviluppatori di intelligenza artificiale riescono a recuperare il ritardo: una vulnerabilità significativa in un panorama geopolitico in rapida evoluzione. Il risultato determinerà non solo il futuro dell’intelligenza artificiale in guerra, ma anche l’equilibrio di potere tra le aziende tecnologiche e il governo degli Stati Uniti.




















