Los riesgos de la inteligencia artificial en el desarrollo de software

Danny Weber

La IA agiliza el desarrollo de software pero introduce nuevos riesgos. Expertos advierten sobre fugas de datos, envenenamiento de contexto y amenazas de agentes de IA.

El uso de inteligencia artificial en el desarrollo de software agiliza los procesos, pero también trae consigo nuevos riesgos. Expertos advierten de una nueva clase de amenazas ligadas a los agentes de IA, capaces de actuar en nombre del usuario e interactuar con código, archivos y sistemas externos.

El núcleo del problema es que la IA ya no se limita a procesar texto o código: ahora opera sobre infraestructuras enteras. Esto incrementa el riesgo de interrupciones accidentales, cambios de configuración o fugas de datos confidenciales fuera de la organización. Además, los canales de comunicación entre la IA y el desarrollador representan un riesgo, pues pueden ser interceptados o aprovechados por atacantes.

Según los estudios, una gran parte de las fugas de datos ya tiene su origen en empleados que introducen información corporativa en servicios públicos de IA. Esto puede abarcar fragmentos de código, documentos, datos comerciales y políticas internas. Con los agentes de IA, las apuestas son más altas, ya que no se limitan a responder preguntas: ejecutan acciones como acceder a API, leer archivos e interactuar directamente con los sistemas.

Los expertos alertan de que, si los permisos de acceso están mal configurados o no hay una supervisión adecuada, la IA podría exponer sin querer claves, tokens o datos confidenciales. También está la amenaza del envenenamiento de contexto, instrucciones maliciosas y fallos en las interacciones entre agentes.

Por otro lado, la IA se perfila como una nueva capa de vulnerabilidad en la intersección entre el desarrollo y la ciberseguridad. Se trata de cuestiones que no encajan en los modelos de seguridad tradicionales, como el envenenamiento de contexto, consultas inseguras, abuso de herramientas y cuentas de servicio con permisos excesivos.

No obstante, los expertos consideran la IA una herramienta valiosa para el análisis de código y la detección de vulnerabilidades. Puede identificar fallos comunes como inyecciones SQL y XSS con mayor rapidez, lo que añade una capa adicional de revisión.

Sin embargo, confiar únicamente en la IA para tomar decisiones de seguridad es un error. Los modelos pueden equivocarse, ignorar la lógica de negocio y crear una falsa sensación de seguridad. Los expertos recomiendan usar la IA como herramienta de apoyo, dejando las comprobaciones finales en manos de los profesionales de la ciberseguridad.

© RusPhotoBank