Dos menores y un adulto –quien era menor de edad cuando ocurrieron los incidentes– han presentado una demanda contra xAI y Elon Musk personalmente. La demanda, presentada el lunes de esta semana y reportada por primera vez por The Washington Post, afirma que las propias fotografías de las víctimas fueron utilizadas como base para generar contenido sexualizado de ellos como niños.

"Modo picante" en el punto de mira

El núcleo de la demanda es el llamado "modo picante" de Grok, una función que xAI lanzó el año pasado con menos restricciones de contenido que el modo estándar. Según las partes demandantes, xAI y la alta dirección de la empresa sabían que la función podría ser mal utilizada para producir material de abuso sexual infantil generado por IA, pero optaron por seguir adelante con el lanzamiento sin implementar medidas de prevención estándar de la industria.

La demanda fue presentada en el Distrito Norte de California y está registrada como una posible demanda colectiva en nombre de todos los que puedan haber sido afectados de manera similar, según el material de origen revisado por 24AI.

Los demandantes alegan que xAI diseñó y se benefició deliberadamente de una herramienta que carecía de salvaguardias básicas contra el material de abuso infantil.
Tres adolescentes demandan a xAI de Elon Musk por material de abuso generado por IA

Panorama legal bajo presión

El caso surge en un período en el que la responsabilidad legal por el contenido ilegal generado por IA está evolucionando rápidamente a nivel global. Según una investigación legal revisada por 24AI, dos cuestiones en particular serán centrales en estos casos en el futuro.

En primer lugar, no está claro hasta qué punto la Sección 230 –la ley estadounidense que tradicionalmente protege a las plataformas de la responsabilidad por el contenido creado por los usuarios– se aplica cuando es el propio sistema de IA el que genera el contenido. Varios expertos legales argumentan que el contenido generado por IA queda fuera de esta protección, lo que potencialmente expone directamente a xAI.

En segundo lugar, está surgiendo una teoría legal de que los sistemas de IA pueden ser tratados como productos en un sentido legal, de modo que los fabricantes pueden ser considerados responsables por los daños resultantes de defectos del producto, en línea con la responsabilidad tradicional del producto.

Tres adolescentes demandan a xAI de Elon Musk por material de abuso generado por IA

xAI no está sola en el problema, pero sí en el centro de atención

Las autoridades reguladoras británicas actuaron rápidamente: Ofcom inició una investigación sobre X (anteriormente Twitter) por posibles infracciones de la Ley de Seguridad en Línea relacionadas precisamente con la capacidad de Grok para producir material de abuso infantil. Ese caso aún está en curso y podría resultar en multas de hasta el diez por ciento de la facturación global de X, según el material de origen revisado por 24AI.

Las empresas de IA ya no pueden esperar que la inmunidad de plataforma las proteja cuando son sus propios modelos los que crean el contenido ilegal.

Por el momento, no se sabe si xAI ha respondido públicamente a la demanda. 24AI no ha logrado obtener comentarios de la empresa antes de la publicación.

¿Qué sigue?

El caso será, sin duda, una prueba importante de cómo los tribunales estadounidenses abordan la responsabilidad de las empresas de IA por el contenido dañino generado por sus propios modelos. El resultado podría tener consecuencias de gran alcance para toda la industria, no solo para xAI.

Expertos legales señalan que los tribunales están dejando de aceptar "el modelo lo hizo" como una defensa suficiente, y que los demandantes, en cambio, deben demostrar que la empresa tenía conocimiento del riesgo y no actuó. Esto es precisamente lo que los tres demandantes de Tennessee están tratando de probar ahora.