Des pirates informatiques chinois parrainés par l’État ont mené une cyberattaque importante en utilisant la technologie d’intelligence artificielle (IA) d’Anthropic, marquant une nouvelle phase dans la cyberguerre. L’opération, détaillée dans un récent rapport d’Anthropic, démontre comment l’IA peut automatiser des parties substantielles de l’espionnage, réduisant ainsi la barrière à l’entrée de la cybercriminalité sophistiquée.
L’attaque alimentée par l’IA
En septembre, des pirates ont exploité les outils d’IA d’Anthropic, notamment le modèle Claude Code, pour exécuter une cyberattaque à grande échelle ciblant environ 30 entités. La campagne est remarquable car elle représente l’un des premiers cas documentés d’un agent alimenté par l’IA effectuant une collecte d’informations avec une intervention humaine minimale. Anthropic estime que les opérateurs humains n’étaient responsables que de 10 à 20 % du travail requis pour mener l’opération.
Les attaquants ont écrit du code qui ordonnait à l’agent IA d’effectuer l’attaque, externalisant ainsi une grande partie de la charge de travail vers le système IA. Cette approche rationalise les opérations d’espionnage, les rendant plus rapides, moins coûteuses et plus difficiles à retracer.
Implications pour la cybersécurité
Les experts soulignent que même si cette attaque n’a pas été entièrement automatisée, elle signale une tendance claire vers une plus grande intégration de l’IA dans la cyberguerre. James Corera, directeur du programme cyber, technologie et sécurité à l’Australian Strategic Policy Institute, note que l’IA permet désormais aux pirates de confier une partie importante de leur travail à des systèmes automatisés.
Ce changement présente de nouveaux défis pour les professionnels de la cybersécurité, qui doivent s’adapter pour se défendre contre les attaques basées sur l’IA. Les mécanismes de défense traditionnels peuvent s’avérer inefficaces contre les menaces automatisées qui opèrent à grande échelle et avec une surveillance humaine minimale.
Tendance mondiale des cyberattaques améliorées par l’IA
Le rapport d’Anthropic s’ajoute à un nombre croissant de preuves selon lesquelles les acteurs parrainés par l’État exploitent activement l’IA pour améliorer leurs cybercapacités. Microsoft et OpenAI ont déjà signalé des cas similaires d’attaques et d’opérations de surveillance améliorées par l’IA.
En février, OpenAI a découvert une opération de sécurité chinoise qui a construit un outil de surveillance basé sur l’IA pour surveiller les publications anti-chinoises sur les réseaux sociaux dans les pays occidentaux. Le rapport annuel de Microsoft sur les menaces numériques publié plus tôt ce mois-ci a souligné l’utilisation accrue de l’IA par la Chine, la Russie, l’Iran et la Corée du Nord dans le cadre de cyberattaques contre les États-Unis.
La Chine nie toute implication
Le porte-parole du ministère chinois des Affaires étrangères, Lin Jian, a rejeté le rapport d’Anthropic, le qualifiant d’accusations sans fondement, réitérant l’opposition de la Chine au piratage informatique. Cependant, les éléments de preuve suggèrent une tendance claire à l’intégration de l’IA dans la cyberguerre, parrainée par l’État.
Réponse d’Anthropic
Anthropic a mis à jour ses conditions de service pour restreindre l’accès à sa technologie dans des endroits interdits, en nommant explicitement la Chine. La société a également averti que les attaques basées sur l’IA deviendront plus courantes à mesure que la technologie évoluera.
L’intégration de l’IA dans la cyberguerre remodèle le paysage des menaces, exigeant une approche proactive et adaptative de la défense en matière de cybersécurité. La tendance suggère que l’IA jouera un rôle de plus en plus central dans les stratégies d’attaque et de défense.





































