En la mañana del 23 de enero, mientras los incendios, intensificados por el fenómeno de El Niño, devastaban extensas áreas boscosas en toda Colombia, Nicolás Caballero compartió en su cuenta de X una serie de “fotografías” en las que se veía uno de los incendios.
Las imágenes mostraban llamas de proporciones impresionantes, acompañadas de la consigna “Fotografías del Incendio en los Cerros Orientales en Bogotá - 23 de Enero”. Esta publicación de Caballero rápidamente captó la atención de los usuarios y ciudadanos preocupados por la emergencia ambiental que continúa en la capital. Su post acumula, hasta ahora, más de 1,3 millones de vistas.
Ahora puede seguirnos en WhatsApp Channel y en Google News.
Sin embargo, la veracidad de las fotografías fue puesta en duda por personas del medio y por los conocedores de los cerros orientales, quienes se dieron cuenta que no eran imágenes reales, sino construcciones generadas con ayuda de inteligencia artificial (IA). Esta desinformación generó confusión en redes sociales.
“Las personas eran susceptibles a creer que la emergencia ambiental era aún más catastrófica de lo que realmente estaba ocurriendo en la ciudad. Una persona puede ver eso y le da un paro cardiaco”, dijo la fotoperiodista Luisa Fernanda González a este medio, quien trabaja para la agencia de noticias Reuters.
Infobae Colombia se contactó con Nicolás Caballero, quien admitió que compartió estas imágenes de forma intencional y que su trabajo se ha caracterizado por este tipo de creaciones. Caballero aclaró que usualmente indica que son hechas con inteligencia artificial; sin embargo, esta vez no lo hizo porque “hace parte del ejercicio”.
“Siempre he querido abrir el debate sobre los riesgos que puede traer la inteligencia artificial”, mencionó Caballero. Agregó que en su medio, que es la ficción, esta herramienta ayuda a construir imágenes, pero es indispensable el talento humano.
“Esto debe ser un debate público y político. Siempre lo he puesto, en esta ocasión no lo puse; era una especie de anzuelo, con ciertas pistas, en algún momento lo iban a descubrir...”, detalló el ilustrador. Incluso, mencionó que en parte había generado el efecto que estaba buscando, pues, dice él, “era una conversación que casi no se había dado en Colombia”.
César Melgarejo, fotoperiodista, reportero gráfico de El Tiempo y profesor en la Universidad del Rosario, explicó a Infobae Colombia que el problema no radica en el uso de inteligencia artificial per se, sino en la falta de comunicación inicial sobre la naturaleza ficticia de las imágenes.
“Hay una mala intención por parte de quien difundió las imágenes: la idea era querer confundir a las audiencias y a los medios de comunicación. No son fotografías, son imágenes sintéticas”, precisó Melgarejo.
Además, sobre la intención de crear ese “anzuelo”, Melgarejo comentó: “¿Qué descubrió? que las fake news existen y que se puede engañar a la gente en las redes. Estamos cansados de contenido que desinforma”.
Así se dieron cuenta de que no eran fotografías reales
El fotoperiodista destacó la importancia de observar detalles y contextos para discernir la veracidad de las imágenes. Al referirse a las del “apocalipsis” en los cerros, señaló: “Tan pronto yo veo ese siervo, digo: eso no es de aquí y no es real. La geografía y la vegetación no corresponde con la zona”.
En esto coincide Caballero, quien asegura que “la culpa de todo esto es el ciervo. Yo había subido unas antes, que transmitieron una emoción; pero al ver al siervo, empezaron a dudar”.
La fotoperiodista González asegura que se puede descubrir si una imagen es real al detallar el contexto de la misma. Sobre este caso puntual, comenta: “Si bien existen venados en la geografía colombiana, no se encuentran tan cerca de la ciudad y menos en los cerros orientales”, menciona la documentalista gráfica.
No obstante, Caballero se mantiene en que no desinformó pues retrató, de forma artística, algo que efectivamente está ocurriendo en Bogotá: “No desinformé, no puse un camón de bomberos incendiándose ni nada de eso. Lo que mostré es un hecho real, hay animales desplazados de su ecosistema por el incendio, eso también es real”, expresó a este medio.
El debate sobre la influencia de la IA en el contenido gráfico
“No es un ataque al uso de imágenes generadas por inteligencia artificial. En el ámbito periodístico de la salud, por ejemplo, no es factible capturar una fotografía real de una bacteria, allí se podría utilizar”, precisó la reportera González. Sin embargo, mencionó que esto debería ser notificado a las audiencias de forma explícita y como un acompañamiento que ilustre, más no que reemplace la realidad.
Por su parte, Nicolás Caballero mencionó que entiende el inconformismo de los fotoperiodistas, según él porque “es el gremio que más se aleja de conocer la IA y genera miedo para ellos”. Dijo también que sentía que lo estaban atacando a él, pero que más allá de sentirse “funado” (es decir, atacado masivamente), buscaba ampliar la conversación al respecto del uso de IA.
Usuarios en redes sociales compararon lo hecho por Nicolás Caballero con lo que ocurrió semanas atrás, cuando la ilustradora Geraldine Fernández aseguró que había hecho 25.000 fotogramas del filme El Niño y la Garza, producción de Studio Ghibli nominada a varios reconocimientos internacionales, cuando su participación no había sido real.