La última gran tendencia en el desarrollo de software se llama «vibe coding», un enfoque en el que los desarrolladores delegan cada vez más la codificación en herramientas de IA, centrándose en el ritmo por encima de la revisión minuciosa. El resultado son aplicaciones que pueden funcionar bien en la superficie, pero que conllevan brechas de seguridad ocultas que se acumulan en lo que los expertos llaman deuda de seguridad. Así lo advierte Towards Data Science en un reciente análisis del sector.
¿Qué es la deuda de seguridad y por qué el código de IA es especialmente vulnerable?
La deuda de seguridad surge cuando los atajos en el proceso de desarrollo crean vulnerabilidades que solo se descubren —y deben repararse— mucho más tarde, a menudo con un coste mucho mayor. Cuando las herramientas de IA generan código a gran velocidad, no hay garantía de que se mantengan los principios básicos de seguridad. El código puede funcionar, pero rara vez está diseñado teniendo en cuenta modelos de amenazas, control de acceso o validación de entrada y salida de datos.
El problema se ve reforzado por el auge de los agentes de IA: sistemas que actúan de forma autónoma en nombre de usuarios y organizaciones. Cuanta más libertad se les da a estos agentes, mayor es la superficie de ataque que se abre para los actores maliciosos.
Optimizar la velocidad por encima de la seguridad deja las aplicaciones vulnerables, y la factura siempre llega al final.

OWASP señala las mayores amenazas para los sistemas LLM
El Open Web Application Security Project (OWASP) actualiza continuamente su lista de las diez vulnerabilidades críticas en aplicaciones LLM. La edición de 2025 muestra claramente qué riesgos predominan a medida que las herramientas de IA se integran más profundamente en infraestructuras críticas y sistemas empresariales.
Especialmente la categoría de «autonomía excesiva» (LLM06) es relevante en el contexto del vibe coding: cuando los desarrolladores permiten que los agentes de IA operen con una supervisión mínima para ahorrar tiempo, se les da un mayor margen de maniobra a los posibles atacantes.

El NIST ofrece un marco estructurado para la gestión de riesgos
El Instituto Nacional de Estándares y Tecnología (NIST) lanzó su Marco de Gestión de Riesgos de IA (AI RMF) en enero de 2023, y el marco se actualiza continuamente. Es voluntario, pero ha ganado una gran influencia en la industria. El núcleo consta de cuatro funciones: Gobernar (Govern), Mapear (Map), Medir (Measure) y Gestionar (Manage) el riesgo de la IA a lo largo de todo el ciclo de vida del sistema.
El NIST también ha lanzado COSAIS (Control Overlays for Securing AI Systems), que adapta los estándares federales de ciberseguridad existentes a las vulnerabilidades específicas de la IA. Además, el documento NISTIR 8596 proporciona orientación sobre cómo las organizaciones pueden utilizar el marco general de ciberseguridad (CSF 2.0) para acelerar la adopción segura de la IA.
Mejores prácticas: Cómo reducir el riesgo
Los entornos profesionales señalan una serie de medidas concretas para contrarrestar la deuda de seguridad en los sistemas impulsados por IA. El principio de mínimo privilegio —que al modelo y al agente solo se les dé acceso a lo estrictamente necesario— es fundamental. Además, es crucial validar tanto los datos de entrada como los de salida, supervisar continuamente el comportamiento del modelo y asegurar los flujos de datos contra el envenenamiento.
Para las organizaciones que adoptan herramientas de vibe coding o agentes de IA, los expertos recomiendan que las evaluaciones de seguridad se integren como una parte fija del ciclo de desarrollo, no como un paso posterior. Marcos como OWASP Top 10 para LLM, NIST AI RMF y el Secure AI Framework (SAIF) de Google proporcionan puntos de partida estructurados para este trabajo.
un riesgo creciente que requiere concienciación ahora
La tendencia del desarrollo rápido impulsado por IA no es el problema en sí mismo; es la combinación de velocidad y falta de higiene de seguridad lo que crea las vulnerabilidades. A medida que los agentes de IA asumen cada vez más tareas en entornos de producción, las consecuencias de un fallo aumentan proporcionalmente. Tanto los desarrolladores como las organizaciones y los responsables de la toma de decisiones deben ser conscientes de que la deuda de seguridad que se acumula hoy puede ser muy costosa de sanear mañana.
El material de origen de Towards Data Science subraya que esta no es una amenaza futura hipotética, sino una realidad que se desarrolla en paralelo al crecimiento explosivo de las herramientas de IA para la generación de código.
