Las gafas inteligentes con inteligencia artificial incorporada se han lanzado como una tecnología discreta y futurista. Pero para Meta, la discreción ahora puede convertirse en una promesa costosa de romper.
Demanda Tras Revelación de Revisión de Contenido Privado
Meta es ahora objeto de una demanda legal después de que una investigación revelara que los subcontratistas utilizados por la compañía revisaron grabaciones de video de clientes que usan las gafas inteligentes con IA de la compañía. Según TechCrunch, el material revisado incluía desnudez, actos sexuales y otro contenido sensible.
Los abogados detrás de la demanda argumentan que los propios materiales de marketing de Meta prometían explícitamente a los usuarios el control sobre el intercambio de grabaciones, así como la protección de la privacidad. Estas promesas, según la demanda, no se cumplieron.
El marketing prometía privacidad y control del usuario, pero en realidad, el contenido privado fue revisado por terceros desconocidos.

¿Qué Sucedió Exactamente?
El núcleo del caso es que los usuarios no sabían que las grabaciones de video de sus gafas podían ser enviadas y revisadas por trabajadores humanos de subcontratistas. Esta es una práctica conocida de otros sistemas de IA, por ejemplo, en relación con los asistentes de voz, pero que rara vez se comunica claramente a los consumidores.
El método se utiliza típicamente para entrenar y mejorar modelos de IA, y a menudo se denomina anotación humana o etiquetado de datos. El problema surge cuando tales prácticas no se divulgan suficientemente en los términos de uso, y especialmente cuando el material revisado contiene contenido muy privado.

Un Problema de la Industria, No Solo un Problema de Meta
El caso contra Meta no es único; refleja un desafío generalizado en la industria de las gafas inteligentes y la IA. Una comparación de las prácticas de privacidad entre diferentes fabricantes de gafas inteligentes muestra diferencias significativas en el enfoque.
Apple, con Vision Pro, ha elegido una estrategia que denomina “privacidad por diseño”, donde la mayor parte del procesamiento de datos ocurre directamente en el dispositivo. Los datos de seguimiento ocular, la información de movimientos de las manos y el mapeo espacial se almacenan localmente y no se comparten con Apple ni con aplicaciones de terceros sin permiso explícito, según los propios documentos de la compañía. Además, una luz indicadora se enciende cuando se está grabando, alertando a las personas cercanas.
Xreal, por su parte, depende más de las aplicaciones conectadas para el procesamiento de datos, y su política de privacidad varía según el país, lo que dificulta la orientación de los consumidores.
¿Qué Significa Esto para los Consumidores?
Para quienes ya usan gafas inteligentes, o están considerando adquirir un par, el caso es un recordatorio de que las políticas de privacidad deben leerse detenidamente. No basta con confiar en las promesas de marketing de “control” y “privacidad.”
La demanda contra Meta está actualmente en curso y aún no se ha dictado sentencia. Es importante subrayar que las alegaciones de la demanda aún no han sido probadas en los tribunales. Meta no ha comentado públicamente el caso en detalle en el momento de la publicación de este artículo.
En cualquier caso, el caso ejercerá una presión adicional sobre los reguladores y los actores de la industria para que aclaren los estándares de lo que es una recopilación y revisión de datos aceptable en relación con la tecnología de IA portátil.
