Staatlich geförderte chinesische Hacker haben einen bedeutenden Cyberangriff mithilfe der Technologie der künstlichen Intelligenz (KI) von Anthropic durchgeführt und damit eine neue Phase in der Cyberkriegsführung eingeläutet. Die in einem aktuellen Bericht von Anthropic detailliert beschriebene Operation zeigt, wie KI wesentliche Teile der Spionage automatisieren und so die Eintrittsbarriere für raffinierte Cyberkriminalität senken kann.
Der KI-gestützte Angriff
Im September nutzten Hacker die KI-Tools von Anthropic, insbesondere das Claude-Code-Modell, um einen groß angelegten Cyberangriff auf etwa 30 Unternehmen durchzuführen. Die Kampagne ist bemerkenswert, weil sie einen der ersten dokumentierten Fälle darstellt, in denen ein KI-gestützter Agent die Informationsbeschaffung mit minimalem menschlichen Eingriff durchführt. Anthropic schätzt, dass menschliche Bediener nur für 10–20 % der für die Durchführung der Operation erforderlichen Arbeit verantwortlich waren.
Die Angreifer schrieben Code, der den KI-Agenten anwies, den Angriff durchzuführen, wodurch ein Großteil der Arbeitslast effektiv an das KI-System ausgelagert wurde. Dieser Ansatz rationalisiert Spionageoperationen und macht sie schneller, kostengünstiger und schwerer aufzuspüren.
Auswirkungen auf die Cybersicherheit
Experten betonen, dass dieser Angriff zwar nicht vollständig automatisiert war, aber einen klaren Trend hin zu einer stärkeren KI-Integration in die Cyberkriegsführung signalisiert. James Corera, Direktor des Cyber-, Technologie- und Sicherheitsprogramms am Australian Strategic Policy Institute, stellt fest, dass KI es Hackern jetzt ermöglicht, wesentliche Teile ihrer Arbeit auf automatisierte Systeme zu verlagern.
Diese Verschiebung stellt Cybersicherheitsexperten vor neue Herausforderungen, die sich anpassen müssen, um sich gegen KI-gestützte Angriffe zu verteidigen. Herkömmliche Abwehrmechanismen können sich gegen automatisierte Bedrohungen, die in großem Umfang und mit minimaler menschlicher Aufsicht agieren, als unwirksam erweisen.
Globaler Trend zu KI-gestützten Cyberangriffen
Der Bericht von Anthropic ergänzt die wachsende Zahl an Beweisen dafür, dass staatlich geförderte Akteure KI aktiv nutzen, um ihre Cyber-Fähigkeiten zu verbessern. Microsoft und OpenAI haben bereits über ähnliche Fälle von KI-gestützten Angriffen und Überwachungsmaßnahmen berichtet.
Im Februar deckte OpenAI eine chinesische Sicherheitsoperation auf, die ein KI-gestütztes Überwachungstool zur Überwachung antichinesischer Beiträge in sozialen Medien in westlichen Ländern entwickelte. Der jährliche Bericht über digitale Bedrohungen von Microsoft Anfang dieses Monats wies auf den verstärkten Einsatz von KI durch China, Russland, Iran und Nordkorea bei Cyberangriffen gegen die Vereinigten Staaten hin.
China bestreitet Beteiligung
Der Sprecher des chinesischen Außenministeriums, Lin Jian, wies den Bericht von Anthropic als unbegründete Anschuldigungen zurück und bekräftigte Chinas Ablehnung von Hacking. Die Beweise deuten jedoch auf einen klaren Trend zur staatlich geförderten KI-Integration in die Cyberkriegsführung hin.
Anthropics Antwort
Anthropic hat seine Nutzungsbedingungen aktualisiert, um den Zugriff auf seine Technologie an verbotenen Orten einzuschränken, und nennt dabei ausdrücklich China. Das Unternehmen hat außerdem gewarnt, dass KI-gestützte Angriffe mit zunehmender Reife der Technologie häufiger auftreten werden.
Die Integration von KI in die Cyberkriegsführung verändert die Bedrohungslandschaft und erfordert einen proaktiven und adaptiven Ansatz zur Cybersicherheitsverteidigung. Der Trend deutet darauf hin, dass KI sowohl bei Angriffs- als auch bei Verteidigungsstrategien eine immer zentralere Rolle spielen wird





































