Anthropic y el Pentágono: un enfrentamiento sobre el control de la IA

12

El Departamento de Defensa de EE. UU. (DoD) y Anthropic, un desarrollador líder de inteligencia artificial, están enfrascados en una disputa de alto riesgo sobre cómo se puede utilizar la inteligencia artificial en aplicaciones militares. La cuestión central no es si se implementará la IA, sino quién establece las reglas: las empresas que construyen la tecnología o el gobierno que la implementa.

El conflicto: límites al uso de la IA

Anthropic, dirigida por el director ejecutivo Dario Amodei, se niega a permitir que sus modelos de inteligencia artificial se utilicen para dos propósitos clave: vigilancia masiva de ciudadanos estadounidenses y sistemas de armas totalmente autónomos que toman decisiones letales sin supervisión humana. Esta postura desafía directamente la posición del Departamento de Defensa, expresada por el secretario Pete Hegseth, de que se debe permitir cualquier “uso legal” de la tecnología.

El Departamento de Defensa sostiene que no debería verse limitado por las políticas de un proveedor, especialmente cuando está en juego la seguridad nacional. En un contundente ultimátum, el Pentágono amenazó con designar a Anthropic como un “riesgo para la cadena de suministro”, cercándolos efectivamente de los contratos gubernamentales, a menos que cumplan antes del viernes.

Por qué esto es importante: el futuro de la guerra automatizada

Esta disputa no se trata simplemente de un contrato único. Refleja una tensión fundamental en la rápida evolución de la IA. El ejército estadounidense ya emplea sistemas altamente automatizados, algunos de ellos con capacidad letal. Las regulaciones actuales permiten que la IA seleccione y ataque objetivos sin intervención humana directa, siempre que los altos funcionarios lo aprueben. Anthropic teme que si sus modelos son utilizados por los militares sin suficientes salvaguardias, las consecuencias podrían ser catastróficas.

En concreto, a la empresa le preocupa:

  • Decisiones letales poco confiables: Poner a una IA menos capaz al control de las armas podría llevar a una identificación errónea de los objetivos, una escalada no intencionada o errores irreversibles.
  • Vigilancia potenciada: La IA puede mejorar drásticamente la escala y la eficacia de la vigilancia nacional, lo que genera preocupaciones sobre la privacidad y las libertades civiles.
  • Falta de transparencia: La tecnología militar a menudo se clasifica, lo que significa que el alcance total del desarrollo de armas autónomas podría permanecer oculto hasta que esté operativo.

La postura del Pentágono: pragmatismo versus principios

El Departamento de Defensa insiste en que su único objetivo es aprovechar la IA para fines legales y que las restricciones de Anthropic son innecesarias. Los funcionarios afirman que no tienen intención de realizar una vigilancia interna masiva o desplegar armas autónomas sin control. Sin embargo, la retórica del secretario Hegseth se ha desviado hacia el territorio cultural, criticando la “IA despierta” y enfatizando la necesidad de sistemas “listos para la guerra”, no “chatbots para un salón de profesores de la Ivy League”.

El Pentágono tiene la autoridad para forzar el cumplimiento a través de la Ley de Producción de Defensa (DPA), que permite al gobierno obligar a las empresas a satisfacer sus necesidades. Declarar a Anthropic como un riesgo para la cadena de suministro los incluiría efectivamente en la lista negra del trabajo gubernamental futuro.

Conclusión: un punto de decisión crítico

El enfrentamiento presenta una elección difícil para ambas partes. Si Anthropic se niega a ceder, corre el riesgo de perder una importante fuente de ingresos y potencialmente obstaculizar su viabilidad a largo plazo. Si el Departamento de Defensa sigue adelante sin Anthropic, puede enfrentar un retraso de seis a 12 meses mientras otros desarrolladores de IA se ponen al día, una vulnerabilidad significativa en un panorama geopolítico en rápida evolución. El resultado determinará no sólo el futuro de la IA en la guerra, sino también el equilibrio de poder entre las empresas de tecnología y el gobierno de Estados Unidos.

Попередня статтяLa BBC enfrenta críticas por la transmisión sin filtro de insultos racistas en los BAFTA
Наступна статтяNYT Strands #639: Consejos, respuestas y explicación del tema