Danny Weber
La unidad GTIG de Google identificó el primer exploit de día cero generado por IA, que permitía evadir la autenticación de dos factores. Descubre los detalles.
Google ha revelado la primera vulnerabilidad de día cero conocida creada con ayuda de inteligencia artificial. El hallazgo lo hizo la unidad de análisis de amenazas cibernéticas GTIG de la compañía. De acuerdo con el informe AI Threat Tracker, los atacantes usaron un modelo de IA para identificar y explotar un fallo en una popular herramienta de administración web de código abierto. La vulnerabilidad permitía saltarse la autenticación de dos factores. Los expertos aseguran que lograron detener los preparativos de una campaña importante antes de que se produjeran ataques masivos. Google y los desarrolladores del software corrigieron el problema de inmediato.
GTIG señala que el exploit fue escrito en Python y casi con toda seguridad generado por IA. Entre las pistas evidentes se encontraban comentarios excesivos en el código, una estructura inusual, menús de ayuda muy detallados y hasta una puntuación CVSS falsa, algo que los autores de malware reales no suelen incluir.
Según los expertos, el fallo era un error de lógica. El desarrollador del sistema de autenticación introdujo una contradicción en la lógica de comprobación de acceso, lo que permitía sortear el mecanismo de dos factores. Los escáneres de seguridad convencionales no lo detectaron, pero la IA lo encontró al analizar tanto el código como la lógica prevista de la aplicación. El informe destaca específicamente que los atacantes no usaron los modelos Gemini de Google ni las soluciones de Anthropic.
Los expertos creen que este incidente marca el comienzo de una nueva etapa en las amenazas cibernéticas. Si antes las herramientas automatizadas se centraban en errores de memoria o fallos de acceso, ahora los modelos de lenguaje modernos pueden analizar la arquitectura de las aplicaciones y descubrir contradicciones lógicas ocultas que las defensas tradicionales apenas detectan.
John Hultquist, analista jefe de GTIG, afirmó que la carrera por las vulnerabilidades de IA no solo es inevitable, sino que ya ha comenzado, y añadió que por cada vulnerabilidad de día cero atribuible a la IA, probablemente haya muchas más.
El informe también menciona otros ciberataques impulsados por IA. El grupo norcoreano APT45 usó IA para el análisis automatizado de vulnerabilidades y el desarrollo de exploits, mientras que atacantes relacionados con China crearon indicaciones especiales para probar fallos de ejecución remota de código en routers TP-Link.
GTIG también documentó el empleo de IA para generar código malicioso, crear audio falso y desarrollar puertas traseras en Android que interactúan con la API de Gemini.
Se puso especial atención en un ataque contra la biblioteca LiteLLM, que integra servicios de IA. Los atacantes introdujeron código malicioso en paquetes PyPI infectados, sustrayendo claves de AWS y tokens de GitHub. Los analistas señalan que estos ataques apuntan cada vez más no a los propios modelos de IA, sino a la infraestructura circundante: API, conectores y herramientas de integración.
Los ciberdelincuentes también están aprovechando la popularidad de los servicios de IA como cebo. Anteriormente, los investigadores descubrieron sitios web falsos de Claude AI que distribuían malware mediante anuncios de búsqueda de Google.
© B. Naumkin