El Pentágono y Anthropic chocan por las afirmaciones de seguridad de la IA

10

Un reciente expediente judicial revela una marcada contradicción en la justificación del Pentágono para designar a la empresa de inteligencia artificial Anthropic como un riesgo para la seguridad nacional. A pesar de cortar públicamente los lazos con Anthropic por preocupaciones sobre su tecnología, las comunicaciones internas muestran que el Departamento de Defensa creía que las dos partes estaban “muy cerca” de alinearse apenas unos días antes de finalizar la designación. Esta discrepancia plantea dudas sobre si la medida se basó en preocupaciones genuinas de seguridad o en influencia política.

Conclusión clave de las declaraciones judiciales

Anthropic ha presentado declaraciones juradas de dos ejecutivos clave, Sarah Heck (Jefa de Política) y Thiyagu Ramasamy (Jefe del Sector Público), desafiando las afirmaciones del Pentágono. Los documentos presentados antes de una audiencia judicial el 24 de marzo afirman que el caso del gobierno se basa en malentendidos y acusaciones nunca planteadas durante negociaciones anteriores.

  • Sin demanda de control operativo: Según Heck, Anthropic nunca buscó aprobación para operaciones militares, un reclamo central en los documentos del gobierno.
  • Preocupaciones no planteadas: La preocupación del Pentágono sobre la posibilidad de que Anthropic deshabilite o altere su tecnología a mitad de operación no se discutió durante las negociaciones, sino que surgió solo en documentos judiciales, lo que dejó a Anthropic sin posibilidad de responder.
  • Señales contradictorias: Un correo electrónico del subsecretario Emil Michael al director ejecutivo de Anthropic, Dario Amodei, el 4 de marzo indicó que las dos partes estaban casi alineadas en cuestiones clave, a pesar de las declaraciones públicas de Michael en los días siguientes negando cualquier negociación activa.
  • Limitaciones técnicas: Ramasamy, un experto en implementaciones de IA para clientes gubernamentales, afirma que una vez que los modelos de IA de Anthropic se implementan en entornos seguros, la empresa no tiene acceso ni control remotos, lo que desacredita las afirmaciones de un “interruptor de apagado” o puerta trasera.

La cronología de los acontecimientos

La disputa se intensificó a finales de febrero cuando el presidente Trump y el secretario de Defensa, Pete Hegseth, anunciaron públicamente el fin de los vínculos con Anthropic después de que la compañía se negara a utilizar militarmente sin restricciones su IA. Sin embargo, las comunicaciones internas sugieren una narrativa diferente. Apenas un día después de que el Pentágono finalizara su designación de riesgo en la cadena de suministro contra Anthropic, el subsecretario Michael envió un correo electrónico a Amodei para decirle que las dos partes estaban “muy cercanas” en las dos cuestiones que el gobierno ahora cita como evidencia de que Anthropic es una amenaza a la seguridad nacional: sus posiciones sobre las armas autónomas y la vigilancia masiva de los estadounidenses.

Implicaciones legales

La demanda de Anthropic argumenta que la designación de riesgo en la cadena de suministro (la primera que se aplica a una empresa estadounidense) equivale a una represalia del gobierno por las opiniones expresadas públicamente por la empresa sobre la seguridad de la IA, en violación de la Primera Enmienda. El caso pone de relieve las crecientes tensiones entre el gobierno y los desarrolladores de IA sobre el control y las consideraciones éticas en el campo de la inteligencia artificial en rápida evolución.

Las acciones del Pentágono sugieren una voluntad de utilizar la presión regulatoria para obligar a las empresas de inteligencia artificial a cumplir, lo que plantea interrogantes más amplios sobre el equilibrio entre la seguridad nacional y la libertad de expresión en la era digital.

Попередня статтяEl MacBook de Apple ahora es más barato que sus auriculares premium