A inicios del 2020, el Director del banco de Emiratos Árabes Unidos recibió una llamada del que parecía ser un empresario con el que ya había tenido un contacto previo, sin sospechar que estaba siendo víctima de la estafa de un grupo de ciberdelincuentes que valiéndose de la tecnología de “voz profunda” lograron clonar la voz del cliente y hacerse con 35 millones de dólares de manera ilegal.
Así lo asegura Forbes citando el documento legal del caso, donde también se expone que el hombre detrás de la llamada dijo que su empresa estaba a punto de realizar una adquisición, por lo que necesitaba que el banco autorizara algunas transferencias por valor de 35 millones de dólares. Para ello se había contratado a Martin Zelner, un abogado que sería el encargado de coordinar las transacciones.
De acuerdo a lo pactado, el banco recibió varios correos electrónicos de Zelner y del empresario donde se confirmaba la cantidad de dinero a mover y a dónde debía enviarse. Lo legítimo que parecía el trámite dio confianza al Director del banco quién no dudó en dar luz verde a las operaciones, que más tarde confirmarían se trataba de un fraude.
La Fiscalía de Dubai, sostiene que este elaborado plan involucró al menos 17 personas quiénes repartieron el dinero robado en cuentas bancarias de diferentes países del mundo, lo que los ha llevado a buscar el apoyo de investigadores estadounidenses para rastrear al menos 400.000 dólares que ingresaron a cuentas con sede en Estados Unidos vinculadas al Centennial Bank.
El documento publicado no da muchos más detalles, ni proporciona ninguno de los nombres de las víctimas.
Este es sólo el segundo caso registrado de estafadores que usan herramientas de modelado de voz para llevar a cabo un atraco de esta magnitud. El primero fue en 2019 cuando un grupo de estafadores utilizaron esta tecnología para hacerse pasar por el director ejecutivo de una empresa de energía del Reino Unido, en su intento por robar 240.000 dólares según reporta el Wall Street Journal.
Estos casos evidencian cuán peligrosas pueden llegar a ser las estafas mediadas por Inteligencia artificial como lo aseguró a Forbes Jake Moore, un ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido, “las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”
“Manipular audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y el conocimiento de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes”, agregó.
Cada vez son más las empresas que se encuentran desarrollando software que hace posible la clonación de voz especialmente para fines de entretenimiento. Recientemente causó revuelo la revelación de que el difunto Anthony Bourdain tenía su voz sintetizada para un documental sobre su vida. Mientras tanto, reconociendo el potencial de uso malintencionado de la IA, también ha surgido otro puñado de empresas, como la firma de seguridad Pindrop, que ahora afirman que pueden detectar voces sintetizadas y así prevenir fraudes.
Hoy cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web, es susceptible de que su voz sea doblada sin que lo sepa.
SEGUIR LEYENDO