Chińscy hakerzy wykorzystują sztuczną inteligencję w cyberataku na dużą skalę

12

Państwowi chińscy hakerzy przeprowadzili masowy cyberatak, wykorzystując technologię sztucznej inteligencji (AI) firmy Anthropic, rozpoczynając nowy etap wojny cybernetycznej. Operacja, szczegółowo opisana w niedawnym raporcie Anthropic, pokazuje, jak sztuczna inteligencja może zautomatyzować większość działań szpiegowskich, obniżając barierę wejścia na rynek dla wyrafinowanej cyberprzestępczości.

Atak AI

We wrześniu hakerzy wykorzystali narzędzia sztucznej inteligencji firmy Anthropic, w szczególności model Claude Code, do przeprowadzenia cyberataku na dużą skalę, którego celem było około 30 organizacji. Kampania jest godna uwagi, ponieważ stanowi jeden z pierwszych udokumentowanych przypadków agenta AI zbierającego dane wywiadowcze przy minimalnej interwencji człowieka. Anthropic szacuje, że operatorzy byli odpowiedzialni za jedynie 10–20% pracy wymaganej do przeprowadzenia operacji.

Napastnicy napisali kod, który kierował agentem AI do przeprowadzenia ataku, skutecznie przenosząc większość obciążenia na zautomatyzowany system. Takie podejście usprawnia operacje szpiegowskie, czyniąc je szybszymi, tańszymi i trudniejszymi do śledzenia.

Konsekwencje dla bezpieczeństwa cybernetycznego

Eksperci podkreślają, że choć atak ten nie był w pełni zautomatyzowany, sygnalizuje wyraźny trend w kierunku głębszej integracji sztucznej inteligencji w cyberwojnie. James Corera, dyrektor programu cyberbezpieczeństwa, technologii i bezpieczeństwa w Australijskim Instytucie Polityki Strategicznej, zauważa, że ​​sztuczna inteligencja pozwala obecnie hakerom przenieść większość swojej pracy do zautomatyzowanych systemów.

Ta zmiana stwarza nowe wyzwania dla specjalistów ds. cyberbezpieczeństwa, którzy muszą dostosować się do obrony przed atakami opartymi na sztucznej inteligencji. Tradycyjne mechanizmy obronne mogą nie być skuteczne w przypadku zautomatyzowanych zagrożeń, które działają na dużą skalę i przy niewielkim nadzorze człowieka.

Globalny trend zwiększania się cyberataków z wykorzystaniem sztucznej inteligencji

Raport Anthropic stanowi coraz większą liczbę dowodów na to, że podmioty państwowe aktywnie wykorzystują sztuczną inteligencję do zwiększania swoich możliwości cybernetycznych. Microsoft i OpenAI zgłaszały już wcześniej podobne przypadki ataków i operacji wywiadowczych z wykorzystaniem sztucznej inteligencji.

W lutym OpenAI odkryło operację chińskiego wywiadu, w ramach której stworzono narzędzie do inwigilacji oparte na sztucznej inteligencji, umożliwiające monitorowanie antychińskich postów w zachodnich mediach społecznościowych. Coroczny raport Microsoftu na temat zagrożeń cyfrowych, opublikowany na początku tego miesiąca, odnotowuje wzrost wykorzystania sztucznej inteligencji przez Chiny, Rosję, Iran i Koreę Północną w cyberatakach na Stany Zjednoczone.

Chiny zaprzeczają zaangażowaniu

Rzecznik chińskiego ministerstwa spraw zagranicznych Lin Jian odrzucił raport Anthropic jako bezpodstawne zarzuty, powtarzając, że Chiny sprzeciwiają się hakerom. Dowody wskazują jednak na wyraźną tendencję w kierunku integracji sztucznej inteligencji w działaniach zbrojnych prowadzonych przez państwo.

Odpowiedz na Anthropic

Firma Anthropic zaktualizowała swoje warunki świadczenia usług, aby ograniczyć dostęp do swojej technologii w zabronionych lokalizacjach, wyraźnie wymieniając Chiny. Firma ostrzegła również, że ataki oparte na sztucznej inteligencji będą coraz powszechniejsze w miarę rozwoju technologii.

Integracja sztucznej inteligencji w cyberwojnie zmienia krajobraz zagrożeń, wymagając proaktywnego i adaptacyjnego podejścia do cyberbezpieczeństwa. Trendy wskazują, że sztuczna inteligencja będzie odgrywać coraz większą rolę zarówno w strategiach ofensywnych, jak i defensywnych.

Попередня статтяWeryfikacja wieku w Internecie: rosnące ryzyko wycieków danych
Наступна статтяPresight napędza globalny wzrost dzięki dobrym wynikom za trzeci kwartał