Google odhalil první zero-day zranitelnost vytvořenou umělou inteligencí

Danny Weber

Google GTIG odhalila první zero-day exploit vytvořený AI v open-source nástroji. AI obešla dvoufaktorové ověřování. Útok byl zastaven před rozsáhlými útoky.

Společnost Google oznámila první známý případ zero-day zranitelnosti vytvořené s pomocí umělé inteligence. Objev učinila její jednotka pro analýzu kybernetických hrozeb GTIG. Podle zprávy AI Threat Tracker útočníci použili model AI k identifikaci a zneužití chyby v populárním open-source nástroji pro správu webu. Chyba umožňovala obejít dvoufaktorové ověřování. Odborníci uvedli, že zastavili přípravy na velkou kampaň dříve, než mohly začít rozsáhlé útoky. Google a vývojáři softwaru problém okamžitě vyřešili.

Podle GTIG byl exploit napsán v Pythonu a s největší pravděpodobností ho vygenerovala umělá inteligence. Charakteristické znaky zahrnovaly nadměrné inline komentáře, neobvyklou strukturu kódu, detailní nápovědy a dokonce falešné CVSS skóre – něco, co autoři skutečného malwaru obvykle nepřidávají.

Podle expertů se jednalo o logickou chybu. Vývojář autentizačního systému zavedl do logiky kontroly přístupu rozpor, který umožnil obejít dvoufaktorový mechanismus. Tradiční bezpečnostní skenery ji přehlédly, ale AI ji odhalila analýzou kódu i zamýšlené aplikační logiky. Zpráva výslovně uvádí, že útočníci nepoužili modely Gemini od Googlu ani řešení Anthropic.

Odborníci tento incident považují za začátek nové fáze kybernetických hrozeb. Zatímco dříve se automatizované nástroje zaměřovaly na paměťové chyby nebo selhání přístupu, moderní jazykové modely nyní dokážou analyzovat architekturu aplikací a odhalovat skryté logické rozpory, které konvenční obrana sotva registruje.

Hlavní analytik GTIG John Hultquist prohlásil, že závod v oblasti AI zranitelností je nejen nevyhnutelný, ale už začal. Dodal, že na každou zero-day zranitelnost spojenou s AI pravděpodobně připadá mnoho dalších.

Zpráva také upozorňuje na další kybernetické útoky řízené AI. Severokorejská skupina APT45 využila AI k automatizované analýze zranitelností a vývoji exploitů, zatímco útočníci spojení s Čínou vytvářeli speciální promptovací dotazy k prozkoumání chyb vzdáleného spouštění kódu ve směrovačích TP-Link.

GTIG dále zdokumentovala využití AI k generování škodlivého kódu, vytváření falešného zvuku a vývoji Android backdoorů komunikujících s API Gemini.

Zvláštní pozornost byla věnována útoku na knihovnu LiteLLM, která integruje AI služby. Útočníci propašovali škodlivý kód do infikovaných balíčků PyPI a kradli klíče AWS a tokeny GitHubu. Analytici poznamenávají, že tyto útoky stále častěji cílí nikoli na samotné modely AI, ale na okolní infrastrukturu – API, konektory a integrační nástroje.

Kyberzločinci také zneužívají popularity AI služeb jako návnady. Dříve výzkumníci objevili falešné webové stránky Claude AI, které prostřednictvím reklam ve vyhledávání Google šířily malware.

© B. Naumkin