Cuando la música folk Murphy Campbell revisó su perfil de Spotify en enero de 2026, encontró canciones que nunca había subido. Eran sus propias grabaciones — o al menos muy parecidas a ellas. Alguien había tomado grabaciones de audio de su canal de YouTube, creado copias vocales generadas por IA y las había distribuido a la plataforma de streaming sin su consentimiento, según The Verge.
El caso de Campbell no es una excepción aislada. Es sintomático de un fallo sistémico más profundo en la intersección de la tecnología de IA, la distribución digital y los derechos de autor.
Así funciona la estafa
El procedimiento descrito en el caso de Campbell es técnicamente sorprendentemente simple: un actor descarga grabaciones de audio disponibles públicamente, utiliza herramientas de IA para manipular la voz y luego se sirve de servicios de proveedores de música para subir las pistas a Spotify bajo el nombre del artista — o muy cerca de él.
Que esto sea posible se debe en parte a que los grandes distribuidores de música procesan inicialmente volúmenes enormes. Según información de la industria, las plataformas reciben decenas de miles de nuevas pistas diariamente, lo que hace que la revisión manual sea prácticamente imposible.
Alguien había tomado sus grabaciones de YouTube, creado copias de IA de la voz y las había distribuido a Spotify — sin que Campbell supiera nada al respecto.

Las plataformas luchan por mantenerse al día
Las plataformas de streaming son conscientes del problema, pero las soluciones son desiguales y en gran medida reactivas.
El enfoque de Spotify es sintomático del dilema de la industria: la plataforma no prohíbe la música generada por IA en general, pero se dirige al uso indebido como la clonación de voz y las tácticas fraudulentas. El problema es que la línea es difícil de aplicar en tiempo real.

Un sistema de derechos de autor que no se actualiza
El caso también revela una debilidad fundamental en la infraestructura actual de derechos de autor. Según información de la industria, en una grabación surgen dos derechos separados: uno para la composición en sí (melodía y letra) y otro para la grabación de sonido. Para artistas independientes como Campbell, que gestionan ambos por sí mismos, existen pocos mecanismos de notificación proactiva si alguien explota su material.
Distribuidores como DistroKid ofrecen herramientas como «DistroLock» — un servicio donde los artistas pueden registrar archivos de audio no publicados con huellas dactilares únicas para evitar lanzamientos no autorizados. Pero para material que ya está disponible públicamente en YouTube, la protección es mucho más débil.
Organizaciones como ASCAP y BMI administran los derechos de las composiciones musicales, y bases de datos como MusicBrainz se utilizan para rastrear el origen — pero estos sistemas fueron diseñados para una realidad analógica, no para un mundo donde la IA puede clonar una voz en minutos.
Los artistas independientes son los más vulnerables
Las grandes discográficas tienen recursos para la supervisión continua y departamentos legales. Murphy Campbell no. Para los artistas independientes, el descubrimiento depende en gran medida de la casualidad — como que uno mismo revise su propio perfil de Spotify un día cualquiera de enero.
Deezer ahora licencia su tecnología de detección de IA a otras plataformas y organizaciones, lo que podría representar un paso en la dirección correcta. Pero mientras el sistema de distribución no requiera una confirmación proactiva del titular real de los derechos antes de que se publique una pista, casos como el de Campbell seguirán apareciendo.
The Verge, que ha cubierto el caso, lo describe como un ejemplo de un doble fallo del sistema: la IA reduce drásticamente el umbral para el uso indebido, mientras que un régimen de derechos de autor obsoleto no está preparado para proteger a los artistas que debía salvaguardar.
