Google a dezvăluit primul caz cunoscut de vulnerabilitate de tip zero-day creată cu ajutorul inteligenței artificiale. Descoperirea a fost făcută de unitatea de analiză a amenințărilor cibernetice GTIG. Conform raportului AI Threat Tracker, atacatorii au folosit un model de AI pentru a identifica și exploata o eroare într-un instrument popular de administrare web open-source. Vulnerabilitatea permitea ocolirea autentificării în doi factori. Experții susțin că au oprit pregătirile pentru o campanie majoră înainte ca atacurile să se răspândească. Google și dezvoltatorii software-ului au rezolvat rapid problema.
GTIG raportează că exploit-ul a fost scris în Python și a fost foarte probabil generat de AI. Semnele revelatoare includ comentarii inline excesive, o structură neobișnuită a codului, meniuri de ajutor detaliate și chiar un scor CVSS fabricat — lucru pe care autorii de malware reali de obicei nu îl includ.
Potrivit experților, eroarea a fost una logică. Dezvoltatorul sistemului de autentificare a introdus o contradicție în logica de verificare a accesului, făcând posibilă ocolirea mecanismului cu doi factori. Scanerele tradiționale de securitate nu au depistat-o, dar AI a observat-o analizând atât codul, cât și logica aplicației. Raportul menționează în mod specific că atacatorii nu au folosit modelele Gemini de la Google sau soluțiile Anthropic.
Experții consideră acest incident ca marcând începutul unei noi faze în amenințările cibernetice. Dacă odinioară uneltele automate se concentrau pe erori de memorie sau defecțiuni de acces, modelele lingvistice moderne pot analiza acum arhitectura aplicațiilor și descoperi contradicții logice ascunse, pe care apărarea convențională abia le sesizează.
Analistul principal GTIG, John Hultquist, a declarat că cursa vulnerabilităților AI nu este doar inevitabilă, ci a și început deja. El a adăugat că, pentru fiecare vulnerabilitate zero-day atribuită AI, există probabil mult mai multe.
Raportul evidențiază și alte atacuri cibernetice bazate pe AI. Grupul APT45 din Coreea de Nord a folosit AI pentru analiza automată a vulnerabilităților și dezvoltarea de exploit-uri, în timp ce atacatorii legați de China au creat comenzi speciale pentru a testa vulnerabilități de execuție a codului la distanță în routerele TP-Link.
GTIG a documentat, de asemenea, utilizarea AI pentru generarea de cod malițios, crearea de audio fals și dezvoltarea de backdoor-uri Android care interacționează cu API-ul Gemini.
O atenție specială a fost acordată unui atac asupra bibliotecii LiteLLM, care integrează servicii AI. Atacatorii au introdus cod malițios în pachete PyPI infectate, furând chei AWS și token-uri GitHub. Analiștii notează că aceste atacuri vizează tot mai mult nu modelele AI în sine, ci infrastructura din jur — API-uri, conectori și instrumente de integrare.
Criminalii cibernetici exploatează și popularitatea serviciilor AI ca momeală. Mai devreme, cercetătorii au descoperit site-uri false Claude AI care distribuiau malware prin anunțuri Google Search.