Roban 26 millones de dólares a una empresa con la técnica de engaño deepfake: de qué se trata

La ciberseguridad enfrenta un desafío monumental ante el crecimiento de estafas sofisticadas, impulsando revisiones urgentes en las medidas de protección

(Imagen Ilustrativa Infobae)

Una firma multimillonaria en Hong Kong perdió 200 millones de HKD (dólar de Hong Kong) equivalentes a casi 26 millones de dólares, después de que un deepfake del Director Financiero lograra engañar a un empleado para autorizar una transferencia fraudulenta.

Este incidente marca un hito al ser una de las primeras veces que se involucran múltiples identidades falsificadas creadas con inteligencia artificial (IA) en una sola estafa, complicando aún más la tarea de distinguir entre lo real y lo falso en el mundo.

La estafa se llevó a cabo mediante una videoconferencia, en la que el empleado fue convencido por varios participantes generados por IA, incluyendo una recreación convincente del CFO (Chief Financial Officer o Director de finanzas), lo que llevó a bajar su guardia.

La sofisticación creciente de estos ataques han hecho que sea imposible protegerse de los mismos (Imagen Ilustrativa Infobae)

Según reportes de medios locales, este incidente no es aislado, y la Oficina de Ciberseguridad, Tecnología y Delincuencia de Hong Kong ha observado un incremento en fraudes similares.

El superintendente, Baron Chan, detalló la sofisticación creciente de estos ataques, enfatizando la dificultad de protegerse contra ellos.

La tecnología deepfake ha demostrado su capacidad para generar contenido falso indistinguible de la realidad, lo que resalta la urgencia de mejorar las medidas de seguridad y regulaciones en torno a la IA.

La proliferación de deepfakes no se limita a fraudes financieros. En New Hampshire, Estados Unidos, personas recibieron llamadas falsas usando la voz del presidente de ese país, Joe Biden, y en Baltimore, se generó un clip de audio falso del director de un instituto con declaraciones racistas.

La cantante, Taylor Swift, fue objetivo de creaciones de deepfake con contenido explícito - (Foto Jordan Strauss/Invision/AP)

Además, la cantante, Taylor Swift, fue objetivo de creaciones deepfake con contenido explícito. Estos incidentes subrayan la capacidad de esta tecnología para influir en la política, socavar reputaciones y generar desinformación.

Expertos, como el profesor Hany Farid de la Universidad de California, Berkeley, señalan la creciente dificultad para detectar este tipo de contenido.

Él también cuestiona la falta de regulaciones que enfrentan las empresas que desarrollan estas tecnologías. La necesidad de legislación que evolucione al ritmo de estos avances es evidente, así como la implementación de métodos de detección más eficaces y accesibles.

Detrás de los engaños hay miles de bots hechos con IA (Imagen ilustrativa Infobae)

Con la inteligencia artificial avanzando a pasos agigantados, la sociedad se ve ante el reto de adaptarse y encontrar formas de coexistir de manera segura y ética con estas tecnologías.

Los incidentes recientes recalcan la importancia de una vigilancia y escepticismo saludables ante el contenido digital, especialmente en lo que respecta a figuras públicas y decisiones críticas.

El caso de la empresa en Hong Kong y otros similares demuestran la vulnerabilidad ante la manipulación digital y la necesidad urgente de actuar para protegerse contra estas amenazas emergentes.

La necesidad urgente de actuar para protegerse contra estas amenazas emergentes es una inquietud mundial (Imagen ilustrativa Infobae)

Cómo reconocer un deepfake o información falsa

Según el centro cibernético de Kaspersky, reconocer un ‘deepfake’ puede ser complicado ya que las técnicas de manipulación digital evolucionan constantemente. Estos son algunos de los consejos que puedne funcionar para evitar ser víctima de estas suplantaciones:

-Anomalías faciales y corporales: es clave buscar incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Por ejemplo, desalineaciones en los ojos, la boca u otras partes de la cara.

Cada mensaje en Internet debe tener duda por parte de quien lo recibe para confirmar luego la realidad, preferiblemente con un humano - (Imagen Ilustrativa Infobae)

-Sincronización labial y expresiones: se debe comprobar que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas con el contexto del video.

-Iluminación y sombreado: evaluar si la iluminación del rostro corresponde con el entorno. Las incoherencias en la iluminación pueden indicar manipulación.

-Conciencia y educación: tener interés sobre este tema y aprender sobre las tecnologías de manipulación digital.

-Cuidado con los sitios web falsos: si hay dudas sobre un sitio web o una aplicación, no se deben escribir datos ni realizar pagos.

-Utilizar soluciones que protejan los equipos.