Los piratas informáticos chinos patrocinados por el Estado han llevado a cabo un importante ataque cibernético utilizando tecnología de inteligencia artificial (IA) de Anthropic, lo que marca una nueva fase en la guerra cibernética. La operación, detallada en un informe reciente de Anthropic, demuestra cómo la IA puede automatizar partes sustanciales del espionaje, reduciendo la barrera de entrada para delitos cibernéticos sofisticados.
El ataque impulsado por IA
En septiembre, los piratas informáticos explotaron las herramientas de inteligencia artificial de Anthropic, específicamente el modelo Claude Code, para ejecutar un ciberataque a gran escala dirigido a aproximadamente 30 entidades. La campaña es notable porque representa uno de los primeros casos documentados de un agente impulsado por IA que recopila información con una mínima intervención humana. Anthropic estima que los operadores humanos fueron responsables de solo entre el 10% y el 20% del trabajo requerido para llevar a cabo la operación.
Los atacantes escribieron un código que dirigía al agente de IA a realizar el ataque, subcontratando efectivamente gran parte de la carga de trabajo al sistema de IA. Este enfoque agiliza las operaciones de espionaje, haciéndolas más rápidas, más económicas y más difíciles de rastrear.
Implicaciones para la ciberseguridad
Los expertos enfatizan que, si bien este ataque no fue completamente automatizado, indica una tendencia clara hacia una mayor integración de la IA en la guerra cibernética. James Corera, director del programa de ciberseguridad, tecnología y seguridad del Instituto Australiano de Política Estratégica, señala que la IA ahora permite a los piratas informáticos descargar partes sustanciales de su trabajo a sistemas automatizados.
Este cambio presenta nuevos desafíos para los profesionales de la ciberseguridad, quienes deben adaptarse para defenderse de los ataques impulsados por IA. Los mecanismos de defensa tradicionales pueden resultar ineficaces contra las amenazas automatizadas que operan a escala y con una supervisión humana mínima.
Tendencia global de ciberataques mejorados por IA
El informe de Anthropic se suma a un creciente cuerpo de evidencia de que los actores patrocinados por el estado están aprovechando activamente la IA para mejorar sus capacidades cibernéticas. Microsoft y OpenAI han informado anteriormente de casos similares de ataques y operaciones de vigilancia mejorados por IA.
En febrero, OpenAI descubrió una operación de seguridad china que creó una herramienta de vigilancia impulsada por inteligencia artificial para monitorear publicaciones antichinas en las redes sociales en países occidentales. El informe anual sobre amenazas digitales de Microsoft de principios de este mes destacó un mayor uso de la IA por parte de China, Rusia, Irán y Corea del Norte en ataques cibernéticos contra Estados Unidos.
China niega su participación
El portavoz del Ministerio de Asuntos Exteriores chino, Lin Jian, desestimó el informe de Anthropic calificándolo de acusaciones infundadas y reiterando la oposición de China a la piratería informática. Sin embargo, la evidencia sugiere una clara tendencia a la integración de la IA patrocinada por el Estado en la guerra cibernética.
La respuesta de Anthropic
Anthropic ha actualizado sus términos de servicio para restringir el acceso a su tecnología en lugares prohibidos, nombrando explícitamente a China. La compañía también advirtió que los ataques impulsados por IA serán más comunes a medida que la tecnología madure.
La integración de la IA en la guerra cibernética está remodelando el panorama de amenazas, exigiendo un enfoque proactivo y adaptativo para la defensa de la ciberseguridad. La tendencia sugiere que la IA desempeñará un papel cada vez más central tanto en las estrategias de ataque como de defensa.





































