Google ha reso noto il primo caso conosciuto di una vulnerabilità zero-day generata tramite intelligenza artificiale. La scoperta è stata fatta dall'unità di analisi delle minacce informatiche GTIG. Secondo il rapporto AI Threat Tracker, gli aggressori hanno utilizzato un modello di IA per identificare e sfruttare una falla in un popolare strumento di amministrazione web open-source. La vulnerabilità permetteva di aggirare l'autenticazione a due fattori. Gli esperti affermano di aver bloccato i preparativi per una campagna su larga scala prima che potessero iniziare attacchi diffusi. Google e gli sviluppatori del software hanno prontamente risolto il problema.
Il GTIG riferisce che l'exploit era scritto in Python e molto probabilmente generato dall'IA. I segni rivelatori includevano commenti inline eccessivi, una struttura del codice insolita, menu di aiuto dettagliati e persino un punteggio CVSS fittizio—qualcosa che i veri autori di malware di solito non includono.
Secondo gli esperti, la falla era un errore logico. Lo sviluppatore del sistema di autenticazione ha introdotto una contraddizione nella logica di controllo degli accessi, rendendo possibile aggirare il meccanismo a due fattori. Gli scanner di sicurezza tradizionali non l'hanno rilevata, ma l'IA l'ha individuata analizzando sia il codice che la logica applicativa prevista. Il rapporto sottolinea specificamente che gli aggressori non hanno utilizzato i modelli Gemini di Google né le soluzioni di Anthropic.
Gli esperti vedono questo incidente come l'inizio di una nuova fase nelle minacce informatiche. Mentre un tempo gli strumenti automatizzati si concentravano su errori di memoria o guasti di accesso, i moderni modelli linguistici possono ora analizzare l'architettura delle applicazioni e scoprire contraddizioni logiche nascoste che le difese convenzionali difficilmente registrano.
John Hultquist, analista capo del GTIG, ha dichiarato che la corsa alle vulnerabilità dell'IA non solo è inevitabile, ma è già iniziata. Ha aggiunto che per ogni vulnerabilità zero-day riconducibile all'IA, ce ne sono probabilmente molte altre.
Il rapporto evidenzia anche altri attacchi informatici guidati dall'IA. Il gruppo APT45 della Corea del Nord ha sfruttato l'IA per l'analisi automatizzata delle vulnerabilità e lo sviluppo di exploit, mentre gli aggressori legati alla Cina hanno creato prompt speciali per sondare falle di esecuzione remota di codice nei router TP-Link.
Il GTIG ha anche documentato l'uso dell'IA per generare codice maligno, creare audio falsi e sviluppare backdoor Android che interagiscono con l'API Gemini.
Particolare attenzione è stata dedicata a un attacco alla libreria LiteLLM, che integra servizi di IA. Gli aggressori hanno introdotto codice maligno in pacchetti PyPI infetti, rubando chiavi AWS e token GitHub. Gli analisti notano che questi attacchi sono sempre più mirati non ai modelli di IA stessi, ma all'infrastruttura circostante: API, connettori e strumenti di integrazione.
I criminali informatici stanno anche sfruttando la popolarità dei servizi di IA come esca. In precedenza, i ricercatori avevano trovato siti web falsi di Claude AI che distribuivano malware tramite annunci di ricerca Google.