Una firma multimillonaria en Hong Kong perdió 200 millones de HKD (dólar de Hong Kong) equivalentes a casi 26 millones de dólares, después de que un deepfake del Director Financiero lograra engañar a un empleado para autorizar una transferencia fraudulenta.
Este incidente marca un hito al ser una de las primeras veces que se involucran múltiples identidades falsificadas creadas con inteligencia artificial (IA) en una sola estafa, complicando aún más la tarea de distinguir entre lo real y lo falso en el mundo.
La estafa se llevó a cabo mediante una videoconferencia, en la que el empleado fue convencido por varios participantes generados por IA, incluyendo una recreación convincente del CFO (Chief Financial Officer o Director de finanzas), lo que llevó a bajar su guardia.
Según reportes de medios locales, este incidente no es aislado, y la Oficina de Ciberseguridad, Tecnología y Delincuencia de Hong Kong ha observado un incremento en fraudes similares.
El superintendente, Baron Chan, detalló la sofisticación creciente de estos ataques, enfatizando la dificultad de protegerse contra ellos.
La tecnología deepfake ha demostrado su capacidad para generar contenido falso indistinguible de la realidad, lo que resalta la urgencia de mejorar las medidas de seguridad y regulaciones en torno a la IA.
La proliferación de deepfakes no se limita a fraudes financieros. En New Hampshire, Estados Unidos, personas recibieron llamadas falsas usando la voz del presidente de ese país, Joe Biden, y en Baltimore, se generó un clip de audio falso del director de un instituto con declaraciones racistas.
Además, la cantante, Taylor Swift, fue objetivo de creaciones deepfake con contenido explícito. Estos incidentes subrayan la capacidad de esta tecnología para influir en la política, socavar reputaciones y generar desinformación.
Expertos, como el profesor Hany Farid de la Universidad de California, Berkeley, señalan la creciente dificultad para detectar este tipo de contenido.
Él también cuestiona la falta de regulaciones que enfrentan las empresas que desarrollan estas tecnologías. La necesidad de legislación que evolucione al ritmo de estos avances es evidente, así como la implementación de métodos de detección más eficaces y accesibles.
Con la inteligencia artificial avanzando a pasos agigantados, la sociedad se ve ante el reto de adaptarse y encontrar formas de coexistir de manera segura y ética con estas tecnologías.
Los incidentes recientes recalcan la importancia de una vigilancia y escepticismo saludables ante el contenido digital, especialmente en lo que respecta a figuras públicas y decisiones críticas.
El caso de la empresa en Hong Kong y otros similares demuestran la vulnerabilidad ante la manipulación digital y la necesidad urgente de actuar para protegerse contra estas amenazas emergentes.
Cómo reconocer un deepfake o información falsa
Según el centro cibernético de Kaspersky, reconocer un ‘deepfake’ puede ser complicado ya que las técnicas de manipulación digital evolucionan constantemente. Estos son algunos de los consejos que puedne funcionar para evitar ser víctima de estas suplantaciones:
-Anomalías faciales y corporales: es clave buscar incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Por ejemplo, desalineaciones en los ojos, la boca u otras partes de la cara.
-Sincronización labial y expresiones: se debe comprobar que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas con el contexto del video.
-Iluminación y sombreado: evaluar si la iluminación del rostro corresponde con el entorno. Las incoherencias en la iluminación pueden indicar manipulación.
-Conciencia y educación: tener interés sobre este tema y aprender sobre las tecnologías de manipulación digital.
-Cuidado con los sitios web falsos: si hay dudas sobre un sitio web o una aplicación, no se deben escribir datos ni realizar pagos.
-Utilizar soluciones que protejan los equipos.