Danny Weber
23:31 10-02-2026
© RusPhotoBank
Stable Video Infinity es una herramienta de IA que resuelve la pérdida de coherencia temporal en vídeos generados, permitiendo clips largos y estables. Descubre cómo funciona.
Investigadores del Instituto Federal Suizo de Tecnología de Lausana (EPFL) han presentado una nueva herramienta basada en inteligencia artificial que aborda un desafío clave en la generación de vídeo: la pérdida de coherencia temporal. El sistema, denominado Stable Video Infinity (SVI), ya ha captado la atención de la comunidad tecnológica.
La mayoría de los modelos actuales de generación de vídeo solo pueden producir clips cortos, que duran desde unos segundos hasta aproximadamente medio minuto. Cuando la duración aumenta, las imágenes empiezan a distorsionarse: los personajes cambian, las escenas se vuelven inestables y la lógica de la secuencia se rompe. Conocido como "drift" o desviación, este efecto se consideraba casi inevitable desde hace tiempo.
El equipo del laboratorio VITA (Visual Intelligence for Transportation) propuso un enfoque poco convencional para entrenar modelos. En lugar de ignorar los errores que surgen durante la generación de vídeo, su nuevo método —"reentrenamiento recurrente de errores"— reintroduce deliberadamente estos fallos en el proceso de aprendizaje. En la práctica, esto significa que la IA aprende a manejar sus propias distorsiones.
El profesor Alexander Alahi, líder del proyecto, compara este enfoque con entrenar a un piloto en turbulencias severas. Aprender de los errores hace que el sistema sea más robusto y le permite mantener la estabilidad incluso durante generaciones prolongadas. Este principio sustenta Stable Video Infinity. A diferencia de las soluciones existentes, que a menudo se degradan después de 20-30 segundos, SVI puede crear vídeos coherentes y detallados que duran varios minutos o más.
El equipo también introdujo el método LayerSync, que ayuda a la IA a sincronizar la lógica interna cuando trabaja con vídeo, imágenes y audio. Juntas, estas tecnologías allanan el camino para sistemas autónomos más fiables y medios generativos a gran escala. El proyecto ya es de código abierto en GitHub, donde ha obtenido más de 2.000 estrellas, y la investigación se presentó en la conferencia ICLR 2026, lo que subraya su importancia para el futuro de las tecnologías generativas.