Door de staat gesponsorde Chinese hackers hebben een aanzienlijke cyberaanval uitgevoerd met behulp van kunstmatige intelligentie (AI)-technologie van Anthropic, waarmee een nieuwe fase in cyberoorlogvoering is gemarkeerd. De operatie, gedetailleerd beschreven in een recent rapport van Anthropic, laat zien hoe AI aanzienlijke delen van spionage kan automatiseren, waardoor de toegangsdrempel voor geavanceerde cybercriminaliteit wordt verlaagd.
De AI-aangedreven aanval
In september maakten hackers gebruik van de AI-tools van Anthropic, met name het Claude Code-model, om een grootschalige cyberaanval uit te voeren, gericht op ongeveer dertig entiteiten. De campagne is opmerkelijk omdat deze een van de eerste gedocumenteerde voorbeelden vertegenwoordigt van een door AI aangedreven agent die informatie verzamelt met minimale menselijke tussenkomst. Antropische schattingen zijn dat menselijke operators slechts 10 tot 20% van het werk voor hun rekening namen.
De aanvallers schreven code die de AI-agent opdracht gaf de aanval uit te voeren, waardoor een groot deel van de werklast aan het AI-systeem werd uitbesteed. Deze aanpak stroomlijnt spionageoperaties, waardoor ze sneller, goedkoper en moeilijker te traceren zijn.
Implicaties voor cyberbeveiliging
Deskundigen benadrukken dat, hoewel deze aanval niet volledig geautomatiseerd was, deze een duidelijke trend signaleert in de richting van een grotere AI-integratie in cyberoorlogvoering. James Corera, directeur van het cyber-, technologie- en beveiligingsprogramma bij het Australian Strategic Policy Institute, merkt op dat AI hackers nu in staat stelt substantiële delen van hun werk over te dragen aan geautomatiseerde systemen.
Deze verschuiving brengt nieuwe uitdagingen met zich mee voor cyberbeveiligingsprofessionals, die zich moeten aanpassen om zich te verdedigen tegen AI-aangedreven aanvallen. Traditionele verdedigingsmechanismen kunnen ineffectief blijken tegen geautomatiseerde bedreigingen die op grote schaal en met minimaal menselijk toezicht opereren.
Mondiale trend van AI-verbeterde cyberaanvallen
Het rapport van Anthropic draagt bij aan een groeiend aantal bewijzen dat door de staat gesponsorde actoren AI actief inzetten om hun cybercapaciteiten te vergroten. Microsoft en OpenAI hebben eerder soortgelijke gevallen van AI-verbeterde aanvallen en surveillance-operaties gerapporteerd.
In februari ontdekte OpenAI een Chinese veiligheidsoperatie die een door AI aangedreven surveillance-instrument bouwde om anti-Chinese berichten op sociale media in westerse landen te monitoren. Het jaarlijkse digitale dreigingsrapport van Microsoft eerder deze maand benadrukte het toegenomen AI-gebruik door China, Rusland, Iran en Noord-Korea bij cyberaanvallen tegen de Verenigde Staten.
China ontkent betrokkenheid
Woordvoerder van het Chinese ministerie van Buitenlandse Zaken, Lin Jian, deed het rapport van Anthropic af als ongegronde beschuldigingen en herhaalde het Chinese verzet tegen hacking. Het bewijsmateriaal suggereert echter een duidelijke trend van door de staat gesponsorde AI-integratie in cyberoorlogvoering.
Reactie van Anthropic
Anthropic heeft zijn servicevoorwaarden bijgewerkt om de toegang tot zijn technologie op verboden locaties te beperken, waarbij China expliciet wordt genoemd. Het bedrijf heeft ook gewaarschuwd dat AI-aangedreven aanvallen vaker zullen voorkomen naarmate de technologie volwassener wordt.
De integratie van AI in cyberoorlogvoering hervormt het dreigingslandschap en vereist een proactieve en adaptieve benadering van de cyberbeveiligingsverdediging. De trend suggereert dat AI een steeds centralere rol zal spelen in zowel aanvals- als verdedigingsstrategieën
