OpenAI ha publicado una revisión detallada de la arquitectura de seguridad detrás de Sora 2 y la aplicación Sora asociada. Según la compañía, la seguridad no se añadió a posteriori, sino que se integró desde cero tanto en el modelo como en las funciones sociales de la plataforma. Sin embargo, no faltan voces críticas.

Las marcas de agua y la trazabilidad revelarán el contenido de IA

Una de las medidas centrales que destaca OpenAI es el uso de marcas de agua visibles combinadas con metadatos C2PA invisibles — un estándar de la industria para etiquetar contenido como generado por IA. Además, la compañía internamente cuenta con herramientas de búsqueda que pueden rastrear videos hasta el modelo Sora, según la propia descripción de la plataforma.

Los críticos, sin embargo, señalan que las marcas de agua visibles ya pueden ser eliminadas por software de terceros fácilmente disponible, lo que socava la eficacia de este tipo de marcado como única línea de defensa.

Las marcas de agua pueden ser eliminadas por programas de terceros — el riesgo de deepfake sigue siendo significativo
OpenAI construye Sora 2 con la seguridad en su núcleo — pero los expertos advierten

Control estricto sobre el uso del rostro de personas reales

Una de las funciones más comentadas de Sora es la capacidad de crear videos basados en imágenes subidas de personas reales. OpenAI exige que los usuarios confirmen tener el consentimiento de los representados. Una función separada de «characters» también otorga a los individuos control sobre su propia apariencia y voz — incluyendo la posibilidad de revocar permisos en cualquier momento.

La generación de videos que representen a figuras públicas conocidas está, en principio, bloqueada, con la excepción de aquellos que se hayan registrado en el sistema de characters.

A pesar de esto, los expertos en seguridad creen que la función de carga de rostros sigue representando un riesgo significativo, especialmente para menores y personas que no son conscientes de que sus imágenes pueden ser utilizadas.

OpenAI construye Sora 2 con la seguridad en su núcleo — pero los expertos advierten

Medidas para usuarios jóvenes

La plataforma Sora incluye protecciones específicas dirigidas a adolescentes. Los perfiles de adultos no se recomiendan para usuarios jóvenes, y los adultos no pueden iniciar mensajes directos con menores. Los adolescentes también tienen limitaciones estándar en el desplazamiento continuo en el feed. Los padres pueden gestionar estas configuraciones a través de los controles parentales de ChatGPT.

Cómo se posicionan los competidores

El enfoque de OpenAI en la seguridad no ocurre en un vacío. Competidores como RunwayML, Pika Labs y Google Veo tienen todos sus propios esquemas, pero con diferencias marcadas.

RunwayML se destaca como relativamente sólido en seguridad de datos, con cifrado tanto durante la transmisión como el almacenamiento, así como el cumplimiento de GDPR y las regulaciones de privacidad de EE. UU. La compañía colabora con NCMEC en la denuncia de CSAM. Una debilidad clara, sin embargo, es la ausencia de controles parentales, lo que hace que la plataforma sea más adecuada para adultos.

Pika Labs, por otro lado, ha sido criticada por políticas de privacidad vagas y una moderación más débil en comparación con sus competidores. La funcionalidad que permite a los usuarios generar efectos dramáticos con la apariencia de personas reales — como «explotar» o «derretir» representaciones — ha llamado particularmente la atención en torno al uso indebido ético.

Ninguna de las principales plataformas de video con IA ha resuelto completamente el problema de los deepfakes

Evaluación de los expertos

Los entornos de investigación y seguridad señalan que incluso los sistemas de seguridad más elaborados tienen limitaciones en lo que respecta a la generación de video. El video realista de IA hace que sea especialmente difícil para niños y jóvenes distinguir entre contenido real y generado, lo que crea nuevos desafíos relacionados con el uso indebido de identidad y el consentimiento.

El material fuente del blog de OpenAI y los análisis independientes de los competidores pintan colectivamente un panorama de una industria que avanza en la dirección correcta, pero donde las lagunas regulatorias y técnicas siguen siendo significativas.

La presentación de Sora 2 por parte de OpenAI se ha tomado del propio blog de la compañía y debe leerse a la luz de que es la autopresentación de la compañía — no una auditoría de seguridad independiente.