Morgan Freeman se une a Scarlett Johansson y alertan plagios con IA de su voz sin autorización

El actor de la trilogía de ‘Batman’ de Christopher Nolan cree que es un riesgo para el arte el mal uso de esta tecnología

Guardar
El aclamado actor mostró su
El aclamado actor mostró su descontento del uso inapropiado de sus habilidades. (Foto: REUTERS/Mario Anzuoni)

Morgan Freeman, el célebre actor reconocido por sus papeles en películas como “Los siete pecados capitales” y la trilogía de Batman de Christopher Nolan, lanzó una alerta sobre el uso sin autorización de su voz por una inteligencia artificial (IA).

Freeman calificó esta práctica como una “estafa” que amenaza con afectar negativamente su imagen personal y la reputación que ha adquirido a lo largo de su carrera, como también, restarle autenticidad a su labor.

Asimismo, utilizando sus redes sociales como plataforma, Freeman agradeció a sus seguidores por alertar sobre estas imitaciones generadas por inteligencia artificial que circulan sin su consentimiento.

Por qué Morgan Freeman denunció a la IA

Freeman no está conforme con
Freeman no está conforme con la forma que se está usando esta tecnología. (Foto: EFE/Etienne Laurent/Archivo)

Por medio de las redes sociales, el actor destacó lo importante de que su voz, la cuál es parte de su carrera profesional, no sea usada sin autorización, y agradeció el apoyo de sus seguidores.

Agregó que, es fundamental fortalecer la esencia de su profesión en la industria del entretenimiento. Además, el problema que enfrenta Freeman no es un caso aislado en Hollywood ni de la industria del espectáculo.

Scarlett Johansson, otra figura prominente en el cine, sobre todo en las películas de Marvel, ha manifestado su descontento en un caso similar, llegando incluso a amenazar con emprender acciones legales contra OpenAI por el uso no autorizado de su voz.

Johansson es conocida por su postura firme y su lucha por el control sobre su imagen y voz, argumentando en varias ocasiones lo inaceptable que es el abuso de derechos por parte de terceros.

Qué problemas tiene que la IA imite la voz de famosos

La actriz también alzó su
La actriz también alzó su voz contra el uso de su imagen por la IA. (Foto: REUTERS/Yara Nardi/File Photo)

Estos incidentes han sacado a la luz una problemática de fondo acerca de las implicaciones legales y éticas del uso de la inteligencia artificial en la recreación de identidades vocales, sobre todo de personajes reconocidos.

La capacidad de las herramientas de IA para replicar con gran precisión la voz de una persona plantea serias preocupaciones sobre la protección de los derechos de propiedad intelectual y la preservación de la integridad personal.

La preocupación de Freeman y Johansson refleja una creciente inquietud dentro de la industria del entretenimiento. La imitación no autorizada no solo afecta a las celebridades, sino también a los artistas en general, quienes dependen de la singularidad de sus voces para diferenciarse en un mercado competitivo.

Qué hacer para que la IA no afecte a los derechos de autor

El campo del arte pide
El campo del arte pide regulaciones de lo que hace la IA. (Imagen Ilustrativa Infobae)

Frente a esta problemática, expertos en derechos de autor y protección de la identidad, a través de varios espacios han comenzado a sugerir que se hace necesario revisar y actualizar las legislaciones vigentes, para adaptarse a las nuevas realidades tecnológicas.

Por su parte, el debate sobre el uso ético de la inteligencia artificial no se limita a la industria del entretenimiento. La posibilidad de crear “deepfakes” y otros contenidos manipulados utilizando IA plantea desafíos significativos también en el ámbito político y social.

La capacidad de hacer que alguien diga algo que nunca dijo puede tener implicaciones devastadoras para la reputación de individuos y organizaciones.

Las deepfakes son otra preocupación

Varios famosos han sido víctimas
Varios famosos han sido víctimas de ´deepfakes´. (Fotos: Reuters - Fotocomposición Infobae)

Las imágenes que imitan personajes famosos para decir información falsa son casos de alto impacto. Por ejemplo, un estudio de la empresa de ciberseguridad Kaspersky reveló que el 70% de la población latinoamericana desconoce lo que es un ‘deepfake’, y el 67% no sabe identificar cuándo un video ha sido digitalmente manipulado con esta técnica.

En respuesta, varias empresas tecnológicas como Microsoft, Adobe e Intel están desarrollando herramientas para detectar ‘deepfakes’, aunque la mayoría aún están en fases tempranas.

Compañías de redes sociales como YouTube y Meta también están etiquetando contenidos sospechosos y prohibiendo ciertos tipos de ‘deepfakes’ en sus plataformas. Sin embargo, estas medidas han demostrado ser insuficientes.

Guardar