Agent SOC: Dlaczego zespoły ds. bezpieczeństwa zawodzą w dobie sztucznej inteligencji

5

Krajobraz cyberbezpieczeństwa zmienił się radykalnie podczas konferencji RSA 2026, podczas której wiodący dostawcy, tacy jak CrowdStrike, Cisco i Palo Alto Networks, wprowadzili narzędzia bezpieczeństwa zarządzane przez agentów. Jednak pomimo tych postępów pozostaje zasadnicza luka: żaden dostawca nie dostarczył rozwiązania, które potrafiłoby w sposób niezawodny odróżnić legalne działanie agentów od złośliwego zachowania. Naraża to firmy na bezbronność w środowisku, w którym przeciwnicy działają obecnie z szybkością maszynową.

Zmniejszenie okna wykrywania

Szybkość współczesnych ataków rośnie. Dyrektor generalny CrowdStrike, George Kurtz, powiedział, że średni czas włamań spadł z 48 minut w 2024 r. do zaledwie 29 minut obecnie, przy czym najszybsze odnotowane naruszenia miały miejsce w czasie krótszym niż 27 sekund. Oznacza to, że obrońcy mają mniej niż minutę na reakcję, zanim zagrożenie się rozprzestrzeni. Jednocześnie eksplodowała liczba aplikacji opartych na sztucznej inteligencji działających na punktach końcowych: CrowdStrike odkrywa obecnie ponad 1800 unikalnych aplikacji AI, liczących prawie 160 milionów instancji, z których wszystkie generują zalew danych do systemów bezpieczeństwa zaprojektowanych z myślą o przepływach pracy sterowanych przez człowieka.

Nie chodzi tylko o prędkość, ale także o skalę. Problem nie polega po prostu na tym, że ataki zdarzają się szybciej, ale na tym, że złożoność zarządzania agentami AI przytłacza istniejące operacje bezpieczeństwa.

Luka w adopcji agentów

Badania Cisco pokazują znaczną rozbieżność pomiędzy zainteresowaniem przedsiębiorstw agentami AI a ich faktycznym wdrożeniem. Osiemdziesiąt pięć procent ankietowanych organizacji testuje agentów AI, ale tylko 5% wdrożyło je w środowisku produkcyjnym. To wahanie wynika z podstawowych pytań, na które zespoły ds. bezpieczeństwa nie potrafią jeszcze odpowiedzieć: Którzy agenci działają, jakie są ich uprawnienia i kto jest odpowiedzialny w przypadku ich niepowodzenia?

Ethai Maor, wiceprezes ds. analizy zagrożeń w Cato Networks, zwięźle podsumowuje problem: „Chcemy zwiększyć złożoność sztucznej inteligencji, tworząc kolejną falę problemów związanych z bezpieczeństwem, zamiast rozwiązywać istniejące”.

Nieodróżnialny agent

Jednym z głównych problemów jest to, że aktywność inicjowana przez agenta często wygląda identycznie jak zachowanie człowieka w standardowych dziennikach bezpieczeństwa. Jak wyjaśniła CrowdStrike CTO Elia Zaitsev: „Agent korzystający z przeglądarki internetowej nie różni się niczym od człowieka korzystającego z tej samej przeglądarki”. Zróżnicowanie wymaga głębokiej widoczności punktów końcowych i możliwości śledzenia aktywności aż do jej źródła – czyli możliwości, której brakuje wielu zespołom ds. bezpieczeństwa.

Luka ta została już wykorzystana. Atak na łańcuch dostaw ClawHavoc wymierzony w rejestr umiejętności ClawHub pokazał, w jaki sposób skompromitowani agenci sztucznej inteligencji mogą dostarczać złośliwe oprogramowanie, które usuwa swoje własne ślady, pozostając w stanie uśpienia do czasu aktywacji. Kurtz ostrzegał: „Twórcy zaawansowanej sztucznej inteligencji nie będą się bronić. Najpierw budują, a potem zapewniają bezpieczeństwo.”

Dwa podejścia, jeden martwy punkt

Dostawcy odpowiadają dwiema głównymi strategiami:

  • Podejście A: Agenci w SIEM. Cisco i Splunk integrują agentów AI bezpośrednio ze swoimi platformami SIEM w celu automatycznej selekcji i reagowania.
  • Podejście B: Analityka potokowa CrowdStrike przesuwa analitykę w górę potoku danych, wzbogacając zdarzenia zanim dotrą one do analityków.

Jednak żadne podejście nie eliminuje krytycznej wady: podstawowego poziomu normalnego zachowania agenta. Obydwa podejścia przyspieszają selekcję i wykrywanie, ale nie definiują, jak wygląda aktywność autoryzowanego agenta w konkretnym środowisku.

Pięć kroków do natychmiastowego działania

Pilność jest jasna. Liderzy bezpieczeństwa muszą działać już teraz, aby dostosować się do krajobrazu zagrożeń opartych na agentach. Oto, co należy zrobić:

  1. Inwentaryzacja wszystkich agentów: Zidentyfikuj każdą aplikację AI działającą na Twoich punktach końcowych.
  2. Sprawdź zróżnicowanie aktywności agenta: Upewnij się, że Twoje narzędzia potrafią rozróżnić zachowanie agenta od zachowania człowieka.
  3. Dopasuj architekturę do istniejącego SIEM: Wybierz rozwiązanie kompatybilne z Twoim obecnym stosem zabezpieczeń.
  4. Utwórz linię bazową zachowania agenta: Zdefiniuj autoryzowane działania dla każdego agenta i wykryj odchylenia.
  5. Przeprowadź test warunków skrajnych w łańcuchu dostaw: Skanuj agentów przed wdrożeniem i monitoruj ich pod kątem zagrożeń po instalacji.

Krajobraz bezpieczeństwa zasadniczo się zmienił. SOC został stworzony, aby chronić ludzi korzystających z maszyn; teraz musi chronić maszyny za pomocą maszyn. Okno decyzyjne się zawęża. Zespoły, które się nie dostosują, zostaną przytłoczone szybkością i złożonością zagrożeń ze strony człowieka.

Попередня статтяSzwecja i Polska walczą w decydującej fazie play-off mistrzostw świata 2026
Наступна статтяWielka wiosenna wyprzedaż w Amazonie: ostatnia szansa na ponad 150 najlepszych w historii cen na słuchawki Apple, Sony i nie tylko