Hace unas semanas, un viernes por la tarde, estaba en Rumania, mi país natal, visitando a mi familia con motivo de un funeral, cuando me puse a pensar: ¿habría llegado el momento de enseñar a mis hijos a hablar rumano? Llevo 15 años viviendo en el Reino Unido, donde nacieron y crecieron mis hijos. Adoran a sus abuelos rumanos, pero les cuesta comunicarse con ellos, y yo quería hacer algo al respecto.
Así que empecé a buscar soluciones. Busqué en Internet durante una hora, pero no encontré nada útil, así que volví a mi tarde. Unos días después, estaba navegando por mi feed de Instagram cuando apareció un anuncio de una aplicación para aprender idiomas. Como trabajaba para una empresa de redes sociales, sabía lo que había pasado: la empresa había rastreado mi actividad en Internet, había visto que me interesaban las aplicaciones de aprendizaje de idiomas y había decidido ponerme un anuncio. Y no pasa nada: he tenido experiencias similares en el pasado e incluso he decidido comprar productos basándome en este tipo de publicidad dirigida.
Durante los días siguientes, seguí recibiendo más y más anuncios de la misma aplicación de idiomas. Pero cuando empecé a prestar más atención, me di cuenta de que había algo más preocupante.
Mientras que en algunos anuncios aparecían personas reales animándome a descargar la aplicación y probarla “sin riesgos”, otros me resultaban extrañamente familiares. En ellos aparecían personas que me hablaban directamente en francés o chino y afirmaban haber dominado un idioma extranjero en cuestión de semanas gracias a las milagrosas capacidades de la aplicación. Sin embargo, lo que ocurría en realidad no era milagroso, sino alarmante: los vídeos estaban manipulados con tecnología deepfake, potencialmente sin el consentimiento de las personas que aparecían en ellos.
Mientras que los medios generados por IA pueden utilizarse para entretenimiento inofensivo, educación o expresión creativa, los deepfakes tienen el potencial de convertirse en armas con fines maliciosos, como difundir información errónea, fabricar pruebas o, en este caso, perpetrar estafas.
Como trabajo en IA desde hace casi una década, me di cuenta fácilmente de que las personas que aparecían en estos anuncios no eran reales, como tampoco lo eran sus conocimientos lingüísticos. En cambio, gracias a una investigación de Sophia Smith Galer, me enteré de que se había utilizado una aplicación para clonar a personas reales sin su conocimiento o permiso, erosionando su autonomía y dañando potencialmente su reputación.
Un aspecto preocupante de estos anuncios deepfake fue la falta de consentimiento inherente a su creación. Es probable que la aplicación de idiomas utilizara los servicios de una plataforma de clonación de videos desarrollada por una empresa china de IA generativa que ha cambiado de nombre cuatro veces en los últimos tres años y que no cuenta con ninguna medida para evitar la clonación no autorizada de personas ni con ningún mecanismo evidente para eliminar la imagen de alguien de sus bases de datos.
Esta explotación no sólo es poco ética, sino que mina la confianza en el panorama digital, donde la autenticidad y la transparencia ya escasean. Tomemos el ejemplo de Olga Loiek, una estudiante ucraniana propietaria de un canal de YouTube sobre bienestar. Recientemente, sus seguidores la alertaron de que habían aparecido videos suyos en China. En Internet, la imagen de Loiek se había transformado en el avatar de una mujer rusa que quería casarse con un chino.
Descubrió que su contenido de YouTube se había introducido en la misma plataforma que se utilizaba para generar los anuncios fraudulentos que había estado viendo en Instagram, y un avatar con su imagen proclamaba ahora su amor por los hombres chinos y alababa el poderío militar de Rusia en las aplicaciones de las redes sociales chinas. Esto no solo era ofensivo para Loiek a nivel personal debido a la guerra en Ucrania, sino que era el tipo de contenido en el que nunca habría aceptado participar si hubiera tenido la opción de negar su consentimiento.
Me puse en contacto con Loiek para que me contara lo que le había ocurrido. Esto es lo que dijo: “Manipular mi imagen para decir afirmaciones que nunca aprobaría viola mi autonomía personal y significa que necesitamos normas estrictas” para proteger a personas como yo de tales invasiones de la identidad”.
El consentimiento es un principio fundamental que sustenta nuestras interacciones tanto en el ámbito físico como en el digital. Es la piedra angular de la conducta ética y afirma el derecho de las personas a controlar su propia imagen, voz y datos personales. Sin consentimiento, corremos el riesgo de violar la intimidad, la dignidad y la agencia de las personas, abriendo la puerta a la manipulación, la explotación y el daño.
En mi trabajo como responsable de asuntos corporativos de una empresa de IA, he colaborado con una campaña llamada #MyImageMyChoice, que trata de concienciar sobre cómo las imágenes no consentidas generadas con aplicaciones de deepfake han arruinado la vida de miles de niñas y mujeres.
En Estados Unidos, uno de cada 12 adultos ha denunciado haber sido víctima de abusos basados en imágenes. He leído historias desgarradoras de algunas de estas víctimas que han contado cómo sus vidas fueron destruidas por imágenes o videos generados por aplicaciones de IA. Cuando intentaron retirar las aplicaciones de la DMCA, no recibieron respuesta o les dijeron que las empresas que las creaban no estaban sujetas a esa legislación.
Estamos entrando en una era de Internet en la que cada vez más los contenidos que vemos se generarán con IA. En este nuevo mundo, el consentimiento adquiere mayor importancia. A medida que avanzan las capacidades de la IA, también deben hacerlo nuestros marcos éticos y salvaguardias normativas.
Necesitamos mecanismos sólidos que garanticen la obtención y el respeto del consentimiento de las personas en la creación y difusión de contenidos generados por IA. Esto incluye directrices claras para el uso de la tecnología de reconocimiento facial y de voz, así como mecanismos para verificar la autenticidad de los medios digitales.
Además, debemos exigir responsabilidades a quienes tratan de explotar la tecnología deepfake con fines fraudulentos o engañosos y a quienes publican aplicaciones deepfake que no disponen de barandillas para evitar su uso indebido. Esto requiere la colaboración entre las empresas tecnológicas, los responsables políticos y la sociedad civil para desarrollar y aplicar normativas que disuadan a los actores maliciosos y protejan a los usuarios de los daños del mundo real, en lugar de centrarse únicamente en escenarios catastróficos imaginarios de películas de ciencia ficción.
Por ejemplo, no debemos permitir que las empresas de clonación de vídeo o voz lancen al mercado productos que creen falsificaciones de personas sin su consentimiento y durante el proceso de obtención del consentimiento, quizá también deberíamos obligar a estas empresas a introducir etiquetas informativas que indiquen a los usuarios cómo se utilizará su imagen, dónde se almacenará y durante cuánto tiempo.
Es posible que muchos consumidores pasen por alto estas etiquetas, pero puede tener consecuencias reales que una deepfake de alguien se almacene en servidores de países como China, Rusia o Bielorrusia, donde las víctimas de abusos de deepfake no disponen de recursos reales.
Por último, tenemos que dar a la gente mecanismos para optar por que no se utilice su imagen en línea, especialmente si no tienen ningún control sobre cómo se utiliza. En el caso de Loiek, la empresa que desarrolló la plataforma utilizada para clonarla sin su consentimiento no dio ninguna respuesta ni tomó ninguna medida cuando los periodistas se pusieron en contacto con ella para pedirle comentarios.
Hasta que se establezca una mejor regulación, tenemos que crear una mayor conciencia pública y esfuerzos de alfabetización digital para capacitar a las personas a reconocer la manipulación y salvaguardar sus datos biométricos en línea. Debemos capacitar a los consumidores para que tomen decisiones más informadas sobre las aplicaciones y plataformas que utilizan y reconozcan las posibles consecuencias de compartir información personal, especialmente datos biométricos, en espacios digitales y con empresas propensas a la vigilancia gubernamental o a la violación de datos.
Las aplicaciones de IA generativa tienen un atractivo innegable, especialmente para los más jóvenes. Pero cuando las personas suben a estas plataformas imágenes o videos que contienen su imagen, se exponen sin saberlo a un sinfín de riesgos, como la violación de la intimidad, la usurpación de identidad y la posible explotación.
Aunque tengo la esperanza de que un día mis hijos puedan comunicarse con sus abuelos con la ayuda de la traducción automática en tiempo real, me preocupa profundamente el impacto de la tecnología deepfake en la próxima generación, especialmente cuando veo lo que le sucedió a Taylor Swift, o a las víctimas que han compartido sus historias con #MyImageMyChoice, o a otras innumerables mujeres que sufren acoso y abuso sexual y que se han visto obligadas a guardar silencio.
Mis hijos están creciendo en un mundo en el que el engaño digital es cada vez más sofisticado. Enseñarles sobre consentimiento, pensamiento crítico y alfabetización mediática es esencial para ayudarles a navegar por este complejo panorama y salvaguardar su autonomía e integridad. Pero eso no basta: tenemos que exigir responsabilidades a las empresas que desarrollan esta tecnología.
También debemos presionar a los gobiernos para que tomen medidas más rápidamente. Por ejemplo, el Reino Unido pronto empezará a aplicar la Ley de Seguridad en Línea, que tipifica como delito las falsificaciones profundas y debería obligar a las plataformas tecnológicas a tomar medidas y eliminarlas. Más países deberían seguir su ejemplo.
Y, sobre todo, en la industria de la IA no debemos tener miedo de hablar y recordar a nuestros colegas que este enfoque libre para la creación de tecnología de IA generativa no es aceptable.
(c) 2024, Fortune