Los organizadores de la Feria del Libro de Madrid pidieron disculpas esta semana tras detectarse que una campaña lanzada en redes sociales para alentar a asistir a la próxima edición del evento había sido diseñada por Inteligencia Artificial (IA) y que se había prescindido para elaborarla del trabajo de ilustradores profesionales, lo que disparó reacciones aireadas del colectivo que agrupa a estos artistas y visibilizó la contradicción entre los fantasmas que alientan el avance de esta tecnología y la tentación que implica su utilización.
El conflicto se desencadenó cuando comenzó a circular la imagen que promociona la próxima edición del emblemático evento librero -que tendrá lugar recién a partir del 31 de mayo del 2024- y la guionista española Diana Rojo detectó que se había realizado mediante IA al observar la ausencia de extremidades en alguna de las figuras humanas de la ilustración, que muestra a tres niños comiendo helado, pero con proporciones erróneas o deformidades y donde también se ve a dos personas caminando, una de ellas con la cara desfigurada.
La Asociación de Ilustradores de Madrid (APIM) se posicionó rápidamente por el uso de esta imagen. “Lamentable que desde la Feria del libro se contribuya a sustituir el trabajo de profesionales por una herramienta que se dedica (a) robarles el trabajo”, escribió en su cuenta de la plataforma X (antes Twitter) el pasado viernes.
La polémica fue escalando en estos días tras sumar nuevas adhesiones y los responsables de la Feria, organizada por el Gremio de Librerías de Madrid, publicó el lunes un comunicado en su cuenta de Instagram, en el que admiten que comprenden “la preocupación de estas tecnologías, cuyo uso está aún sin regular y ponen en riesgo el trabajo de muchos”.
También la APIM se pronunció sobre esta “marcha atrás” de los organizadores del evento. “Esperemos que esto sirva para que mucha gente entienda que las IA generativas se nutren de imágenes que han robado sin pedir permiso a los creadores, es decir, un ataque a la propiedad intelectual”.
Eva Orúe, la directora del evento, explicó luego al periódico elDiario.es que “la idea era sumarse a una tendencia que le pareció, en primera instancia, bien al equipo de redes y a otros miembros de la directiva”, aunque aclaró que es “comprensible” la reacción de los ilustradores porque toca “una fibra” que no era su intención tocar.
Lo que ocurrió ilustra que pese a las distintas manifestaciones de sectores que se sienten amenazados por la poderosa capacidad de la IA para generar contenido propio a partir de otros preexistentes que alimentan los mecanismos de generación automática de textos o imágenes, la herramienta comienza a ser utilizada también por algunos de los rubros que cuestionan su uso, a riesgo de que el resultado final contenga errores que el trabajo humano no dejaría pasar.
En el caso de la imagen que disparó la polémica, esas falencias fueron las que permitieron detectar la presencia de las nuevas herramientas tecnológicas: las distorsiones que exhiben notorias diferencias de escala son indicios habituales de las imágenes generadas por IA y son de alguna manera el recurso que tienen los creadores de contenidos para subrayar los puntos ciegos de estas tecnologías que permiten resolver cuestiones de manera rápida y económica pero que no tienen la precisión necesaria para arrojar trabajos de calidad.
El debate sobre las IA está en un punto clave.
A la vez que se presenta como herramienta innovadora para poder rescatar una canción perdida en un viejo archivo y darle una nueva producción, como ha sucedido con el tema inédito de The Beatles publicada recientemente, también es una fuente de conflictos judiciales y económicos. El uso sin permiso de contenido protegido ha llevado a la actriz Scarlett Johansson a iniciar acciones legales contra una app que utiliza su voz y su imagen y al actor Tom Hanks a señalar a una empresa de salud dental que ha hecho lo mismo con su imagen.
Asimismo, los traductores profesionales ven en peligro su trabajo y en Hollywood es uno de los asuntos prioritarios en la negociación con los estudios para los intérpretes y guionistas.
A finales de octubre, el G7 (conformado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) aprobó el pacto denominado “Proceso de IA de Hiroshima” (la ciudad en la que ha sido ratificado), el primer código de conducta global para los desarrolladores de algoritmos de nueva generación con el que espera “promover una IA segura y digna de confianza en todo el mundo”.
Fuente: Télam S. E.
[Créditos de las imágenes: Miguel Calero Ilustrador]