¿Es legal usar la voz de un cantante sin su consentimiento?

¿Es legal usar la voz de un cantante sin su consentimiento?

Foto: FreePik

La inteligencia artificial (IA) ha permitido crear videos con voces de cantantes famosos interpretando canciones que nunca han grabado; estos covers con IA se han hecho virales en plataformas como YouTube o TikTok, generando admiración, curiosidad y también controversia.
 

Pero entonces surgen las preguntas: ¿Es legal usar la voz de alguien sin su consentimiento? ¿Qué derechos tienen los artistas sobre su voz? ¿Qué riesgos implica esta tecnología para la industria musical?

 

¿Qué dice la ley?

 

La voz es un rasgo distintivo de la personalidad y, como tal, está protegida por la ley. La utilización del nombre, de la voz o de la imagen de una persona para fines publicitarios, comerciales o de naturaleza análoga requiere el consentimiento expreso de la misma.

 

Por tanto, es posible decir que en México, generar un audio con la voz de otra persona sin su permiso podría suponer una intromisión ilegítima en sus derechos.

 

Además, la voz de un cantante también puede estar sujeta a derechos de autor, si se considera que es una interpretación artística de una obra musical.

 

Según la Ley Federal del Derecho de Autor de México, los artistas intérpretes o ejecutantes tienen el derecho exclusivo de autorizar o prohibir la fijación, reproducción, comunicación pública y distribución de sus interpretaciones o ejecuciones.

 

Así, usar la voz de un cantante para crear un cover con IA podría vulnerar estos derechos, si no se cuenta con su autorización o la de sus representantes legales.

 

Aplicaciones y consecuencias

 

Sin embargo, la aplicación de estas normas no es sencilla en el ámbito digital, donde la tecnología avanza más rápido que la legislación y hoy en día existen herramientas de IA que permiten clonar o modificar la voz de cualquier persona a partir de unos pocos segundos de audio, como Voicify o Kits AI.

 

Estas plataformas ofrecen la posibilidad de crear covers con IA de forma gratuita o a bajo costo, con fines creativos o educativos, pero también abren la puerta a usos fraudulentos o malintencionados.

 

Algunos ejemplos de estos usos son el deepfake, que consiste en manipular la voz o la imagen de una persona para hacerla decir o hacer algo que no ha dicho o hecho; o el phishing, que consiste en suplantar la identidad de una persona para obtener información o dinero de forma ilícita.

 

Estas prácticas pueden afectar a la reputación, la privacidad y la seguridad de las personas, especialmente de aquellas que son figuras públicas o influyentes, como los cantantes.

 

Ante esta situación, los artistas tienen varias opciones para proteger su voz y sus derechos, como puede ser registrar su voz como una marca, lo que les otorgaría el derecho exclusivo de usarla o licenciarla para fines comerciales.

 

Otra opción es recurrir a la vía judicial, si consideran que se ha producido una violación de sus derechos o una intromisión en su intimidad.

 

También pueden apelar a las políticas de las plataformas digitales, que suelen eliminar los contenidos que infringen los derechos de autor o que suponen un engaño o una suplantación de identidad.

 

En definitiva, los covers con IA plantean un desafío legal y ético para la sociedad y la industria musical.

 

Si bien pueden ser una forma de expresión artística y de homenaje a los cantantes, también pueden suponer una amenaza para su voz y sus derechos.

 

Por ello, es necesario regular el uso de esta tecnología, respetar la voluntad de los artistas y fomentar una cultura de responsabilidad y transparencia entre los creadores y los consumidores de estos contenidos.

Notas Relacionadas