Lo que durante mucho tiempo se ha considerado un problema de nicho o futuro, ha demostrado haberse convertido en una crisis en curso en los entornos escolares de todo el mundo. Una revisión exhaustiva realizada por la revista tecnológica estadounidense WIRED en colaboración con la plataforma de análisis Indicator documenta que cerca de 90 escuelas y más de 600 estudiantes ya están directamente afectados por imágenes falsas de desnudos generadas por IA – las llamadas imágenes deepfake de desnudos. Y el problema está creciendo.

¿Cuál es el Alcance?

Las cifras son desalentadoras. Según una investigación de Thorn – una organización sin fines de lucro que trabaja contra la explotación sexual infantil – uno de cada 17 adolescentes, equivalente a alrededor del 6 por ciento, reporta haber sido blanco de tales imágenes. Entre quienes han creado dicho contenido, uno de cada tres admite haber compartido las imágenes con compañeros de clase.

1 de cada 17
Adolescentes expuestos a deepfakes de desnudos
1.2 millones
Niños afectados globalmente el año pasado
90
Escuelas documentadas como afectadas

A nivel global, se estima que 1.2 millones de niños vieron sus imágenes manipuladas para crear contenido sexualmente explícito en un solo año, distribuidos en 11 países. En algunas regiones, la incidencia es tan alta como uno de cada 25 niños. Alrededor del 40 al 50 por ciento de los estudiantes encuestados dicen estar al tanto de que los deepfakes circulan en su escuela, según las fuentes citadas por WIRED.

Imágenes Deepfake de Desnudos Azotan Escuelas en Todo el Mundo – 600 Estudiantes Afectados

Las Escuelas No Están Preparadas

Un hallazgo recurrente es que las escuelas rara vez tienen directrices establecidas cuando ocurren estos incidentes. Riana Pfefferkorn, investigadora de políticas en la Universidad de Stanford, señala a WIRED que las escuelas suelen ser tomadas por sorpresa, y que muchos maestros y directores ni siquiera conocen la existencia de las llamadas aplicaciones 'nudify' – aplicaciones que con simples pulsaciones de teclas pueden generar imágenes falsas de desnudos de cualquier persona.

El abuso deepfake es abuso, y no hay nada falso en el daño que causa. — UNICEF

La profesora Sandra Wachter del Oxford Internet Institute es dura en su crítica a un enfoque reactivo: esperar a que los usuarios sean atrapados a posteriori es irresponsable, ya que las imágenes ya están en el mundo y las víctimas no pueden deshacer lo hecho, ha declarado según la base de investigación utilizada en el caso.

Las víctimas son predominantemente niñas. Las consecuencias son graves: daño psicológico, daño a la reputación y violaciones de la privacidad. Algunos estudiantes están tan gravemente afectados que se ven obligados a cambiar de escuela.

Imágenes Deepfake de Desnudos Azotan Escuelas en Todo el Mundo – 600 Estudiantes Afectados

La Tecnología Supera a la Legislación

Mientras la legislación se queda atrás, las herramientas están fácilmente disponibles para cualquiera con acceso a internet

UNICEF subraya en sus declaraciones que los niños no pueden esperar a que la legislación se ponga al día con el desarrollo tecnológico. Este es un punto que impacta fuertemente: en muchos países, incluido Noruega, el sistema legal todavía está en proceso de aclarar cómo se aplica la legislación existente al contenido sexual generado por IA que involucra a menores.

El experto en ciberseguridad Junade Ali argumenta que los modelos de IA pueden adaptarse para reducir el riesgo de que se produzca contenido dañino, y que los sistemas de IA secundarios pueden monitorear y filtrar solicitudes. Él cree que la colaboración entre reguladores y desarrolladores debe ocurrir temprano en el proceso, no después de que el daño ya se haya producido.

Existen Herramientas de Detección – Pero No Están Extendidas

De hecho, existen soluciones técnicas que pueden ayudar a las escuelas, aunque el campo es inmaduro. Herramientas como GAT Shield están diseñadas para monitorear dispositivos escolares y alertar a los administradores en tiempo real sobre el uso de sitios web de deepfake. Plataformas como Sensity AI reportan una precisión de detección de entre 95 y 98 por ciento para imágenes y videos manipulados, según el material de investigación del caso.

Sin embargo, el umbral para adoptar tales herramientas es alto para muchas escuelas, tanto en términos de costo como de experiencia. Melissa Stroebel, directora de investigación en Thorn, lo dice directamente: piensen en cuántos estudiantes hay en un aula promedio. Es un estudiante afectado por aula. Esto significa que cada comunidad está experimentando esto, y ya es hora de que nosotros, como sociedad, respondamos, transmite WIRED su mensaje.

¿Qué Deben Hacer Padres, Escuelas y Autoridades?

Los expertos coinciden en que la solución requiere un esfuerzo en varios niveles simultáneamente:

Para las escuelas: Establecer directrices claras y planes de preparación antes de que ocurra un incidente. Educar a maestros y directores sobre qué son las herramientas deepfake y cómo se utilizan.

Para los padres: Hablar abiertamente con niños y adolescentes sobre qué son los deepfakes, y que crear o compartir dicho contenido es un abuso – independientemente de si las imágenes son 'reales' o no.

Para las autoridades: Clarificar la legislación y asegurar que la producción y distribución de contenido sexual generado por IA que involucra a menores esté claramente criminalizada. Apoyar a las escuelas con recursos para la prevención y gestión.

La crisis es global. Las escuelas noruegas y la juventud noruega no están protegidas de las aplicaciones, los sitios web o los mecanismos sociales que impulsan la propagación. Según el análisis de WIRED e Indicator, el problema no muestra signos de disminuir por sí solo.