Pierwszy exploit zero-day wygenerowany przez sztuczną inteligencję odkryty przez Google

Google ujawnia pierwszy zero-day stworzony przez AI – zagrożenie nowej ery
© B. Naumkin

Google ujawniło pierwszy znany przypadek podatności zero-day stworzonej przy pomocy sztucznej inteligencji. Odkrycia dokonał zespół cyberbezpieczeństwa GTIG. Z raportu AI Threat Tracker wynika, że atakujący wykorzystali model AI do znalezienia i wykorzystania luki w popularnym narzędziu do zarządzania stronami internetowymi opartym na otwartym kodzie źródłowym. Luka umożliwiała ominięcie uwierzytelniania dwuskładnikowego. Eksperci twierdzą, że udało się powstrzymać przygotowania do zakrojonej na szeroką skalę kampanii, zanim doszło do powszechnych ataków. Google wraz z twórcami oprogramowania szybko rozwiązali problem.

GTIG informuje, że exploit został napisany w Pythonie i z dużym prawdopodobieństwem wygenerowany przez AI. Wskazywały na to nadmierne komentarze inline, nietypowa struktura kodu, szczegółowe menu pomocy, a nawet zmyślony wskaźnik CVSS – coś, czego autorzy prawdziwego złośliwego oprogramowania zwykle nie umieszczają.

Według ekspertów luka była błędem logicznym. Twórca systemu uwierzytelniania wprowadził sprzeczność w logice sprawdzania dostępu, co umożliwiało obejście mechanizmu dwuskładnikowego. Tradycyjne skanery bezpieczeństwa tego nie wychwyciły, ale AI – analizując zarówno kod, jak i zamierzoną logikę aplikacji – tak. W raporcie szczególnie podkreślono, że atakujący nie użyli modeli Gemini od Google ani rozwiązań Anthropic.

Eksperci uznają to zdarzenie za początek nowej fazy zagrożeń cybernetycznych. O ile automatyczne narzędzia skupiały się kiedyś na błędach pamięci czy awariach dostępu, o tyle nowoczesne modele językowe potrafią analizować architekturę aplikacji i odkrywać ukryte logiczne sprzeczności, które konwencjonalne zabezpieczenia ledwie rejestrują.

John Hultquist, główny analityk GTIG, stwierdził, że wyścig podatności AI jest nie tylko nieunikniony, ale już się rozpoczął. Dodał, że na każdą podatność zero-day pochodzącą od AI prawdopodobnie przypada wiele innych.

Raport zwraca także uwagę na inne cyberataki z użyciem AI. Północnokoreańska grupa APT45 wykorzystała AI do automatycznej analizy podatności i tworzenia exploitów, podczas gdy hakerzy powiązani z Chinami przygotowywali specjalne zapytania w celu wykrycia luk zdalnego wykonania kodu w routerach TP-Link.

GTIG udokumentowało również przypadki użycia AI do generowania złośliwego kodu, tworzenia fałszywych nagrań audio oraz opracowywania backdoorów na Androida współpracujących z API Gemini.

Szczególną uwagę poświęcono atakowi na bibliotekę LiteLLM, która integruje usługi AI. Atakujący przemycili złośliwy kod do zainfekowanych pakietów PyPI, kradnąc klucze AWS i tokeny GitHub. Analitycy zauważają, że ataki te coraz częściej wymierzone są nie w same modele AI, ale w otaczającą je infrastrukturę – API, łączniki i narzędzia integracyjne.