Danny Weber
Google rapporterar första kända fallet av en zero-day-sårbarhet skapad med AI. Sårbarheten kringgick tvåfaktorsautentisering i ett webbverktyg. Experter varnar för ny era av cyberhot.
Google har rapporterat om det första kända fallet av en zero-day-sårbarhet som skapats med hjälp av artificiell intelligens. Upptäckten gjordes av företagets cyberhotanalysenhet GTIG. Enligt AI Threat Tracker-rapporten använde angriparna en AI-modell för att hitta och utnyttja en brist i ett populärt webbadministrationsverktyg med öppen källkod. Sårbarheten gjorde det möjligt att kringgå tvåfaktorsautentisering. Experter uppger att förberedelserna för en större kampanj stoppades innan några omfattande attacker hann genomföras. Google och programvarans utvecklare åtgärdade problemet omgående.
Enligt GTIG skrevs exploateringen i Python och var med största sannolikhet AI-genererad. Tecken på detta var överdrivna inline-kommentarer, ovanlig kodstruktur, detaljerade hjälpmenyer och till och med ett påhittat CVSS-poäng – något som verkliga skadeprogramsskapare sällan inkluderar.
Experter förklarar att bristen var ett logikfel. Utvecklaren av autentiseringssystemet hade infört en motsägelse i åtkomstlogiken, vilket gjorde det möjligt att kringgå tvåfaktorsmekanismen. Traditionella säkerhetsskannrar missade problemet, men AI upptäckte det genom att analysera både koden och den avsedda applikationslogiken. Rapporten betonar att angriparna inte använde Googles Gemini-modeller eller Anthopics lösningar.
Enligt experter markerar händelsen början på en ny fas inom cyberhoten. Där automatiserade verktyg tidigare fokuserade på minnesfel eller åtkomstfel kan dagens språkmodeller analysera applikationsarkitektur och avslöja dolda logiska motsägelser som konventionella försvar knappt registrerar.
GTIG:s chefsanalytiker John Hultquist sade att AI-sårbarhetskapplöpningen inte bara är oundviklig – den har redan startat. Han tillade att för varje zero-day-sårbarhet som kan kopplas till AI finns det troligen många fler.
Rapporten tar också upp andra AI-drivna cyberattacker. Nordkoreanska APT45-gruppen utnyttjade AI för automatiserad sårbarhetsanalys och exploitutveckling, medan Kina-kopplade angripare skapade särskilda prompter för att leta efter fjärrkörningssårbarheter i TP-Link-routrar.
GTIG dokumenterade även att AI användes för att generera skadlig kod, skapa falskt ljud och utveckla Android-bakdörrar som interagerar med Gemini API.
Särskild uppmärksamhet ägnades åt en attack mot LiteLLM-biblioteket, som integrerar AI-tjänster. Angriparna smugglade in skadlig kod i infekterade PyPI-paket och stal AWS-nycklar och GitHub-tokens. Analytiker noterar att dessa attacker alltmer riktas mot den omgivande infrastrukturen – API:er, kontakter och integrationsverktyg – snarare än mot AI-modellerna själva.
Cyberkriminella utnyttjar också AI-tjänsternas popularitet som lockbete. Tidigare upptäckte forskare falska Claude AI-webbplatser som spred skadlig kod via Googles sökannonser.
© B. Naumkin