En un entorno digital en constante evolución, detectar noticias falsas generadas por inteligencia artificial se ha convertido en un desafío crucial, especialmente tras la proliferación de imágenes falsas, vídeos deepfake y tecnologías como ChatGPT.
De hecho, la IA se ha convertido en un actor dual en el campo de la información, debido a que así como detecta noticias falsas, también las genera; planteando un dilema para la veracidad de lo que se lee y comparte en la web y plataformas sociales.
Incluso la planeación de las estrategias de detección de noticias falsas, también se ven enfrentadas a esta paradoja en la que es la misma inteligencia artificial la que contribuye a producir los engaños y ofrece alternativas para combatirlos.
Lo que para algunos expertos ha desatado una carrera armamentista entre las tecnologías que buscan descubrir la desinformación con el desarrollo y uso de herramientas efectivas que permitan identificar la autenticidad de un contenido, frente a aquellas que los fabrican.
Esto en un contexto en el que no solo los artículos pueden ser falseados, sino también datos críticos como información médica, fotografías y grabaciones de voz; potenciando el impacto de la desinformación que puede esparcirse rápidamente al tocar las emociones y los sesgos de los individuos.
Herramientas de detección de noticias falsas
Herramientas como filtros de spam y programas especializados que operan bajo esquemas de aprendizaje automático para identificar y marcar contenido engañoso en plataformas digitales han ganado relevancia en el escenario digital.
Ejemplo de esto es la extensión para el navegador Chrome llamada The Factual, que califica la credibilidad de los artículos en línea basándose en su contenido, y Grover, una IA diseñada para identificar noticias falsas con una alta tasa de éxito del 90%.
Ambos programas utilizan el análisis de texto y evaluación de fuentes para marcar contenidos potencialmente falaces.
Además, los filtros de correo electrónico que cotidianamente clasifican los mensajes como spam están comenzando a operar bajo un principio similar a de estas herramientas de IA, analizando titulares y contenido de los mensajes para analizar y señalar posibles noticias falsas.
No obstante, estos avances no son infalibles y requieren de constante supervisión y actualización para enfrentar tácticas de desinformación siempre cambiantes.
De hecho, aunque es importante considerar su uso como parte de una estrategia de verificación más amplia, no deben ser vistas no como soluciones definitivas.
El trabajo de detección no se limita a señalar errores obvios, sino que implica una revisión meticulosa en busca de señales que sugieran manipulación, como inconsistencias en datos o en el comportamiento de personajes en vídeos sintéticos.
Y es aquí donde la capacidad crítica de las personas frente a un entorno cargado de desinformación se hace esencial para hacer un escrutinio minucioso de la información y verificar los hechos de manera exhaustiva.
Evaluación crítica y contexto: dos herramientas clave
Es claro que además de los avances tecnológicos, los humanos también juegan un papel clave en la identificación de la falsedad, al analizar las fuentes y la forma en la que se presenta información.
Por esta razón, al analizar artículos sospechosos, es clave cuestionar el contexto y la intención del contenido compartido.
Una cita fuera de contexto, especialmente si es incendiaria, puede utilizarse para manipular la percepción del lector.
Mientras que verificar si la cita se encuentra en el texto original y entender el posible impacto emocional del titular son acciones importantes para evaluar el verdadero propósito de un artículo.
La desinformación tiende a explotar la capacidad de las noticias negativas de volverse virales, por esta razón se alienta al público a ejercitar un escepticismo saludable y a preguntarse sobre las intenciones detrás de los contenidos más fuertes.