Clonan tu voz y la de tus amigos con IA para hacer robos millonarios: Esta es la estafa

Fraudes a empresas y padres de familia están siendo frecuentes en distintas partes del mundo por el desconocimiento de las formas que pueden atacar los ciberdelincuentes

Guardar
Esta tecnología es capaz de crear patrones de comportamiento humano de forma automática. (Imagen Ilustrativa Infobae)
Esta tecnología es capaz de crear patrones de comportamiento humano de forma automática. (Imagen Ilustrativa Infobae)

El desarrollo de la inteligencia artificial (IA) ha abierto nuevas puertas para la innovación, pero ha generado preocupaciones en torno a su uso malintencionado. Una de las tendencias más alarmantes es la clonación de voz, una práctica que los estafadores están explotando con creciente habilidad y que ha dado lugar a fraudes millonarios.

Un reciente estudio en el Reino Unido reveló que el 46% de los adultos desconocen este tipo de estafas, lo que resalta la necesidad urgente de aumentar la conciencia pública sobre este peligroso fenómeno.

Esta forma maliciosa de usar la IA está destinada a perfeccionarse en los próximos años, lo que aumentará el riesgo para los individuos y las organizaciones que manejan grandes cantidades de datos y recursos económicos.

Cómo pueden clonar una voz con inteligencia artificial

Mediante programas presentes en la web se puede ir replicando el tono y otro registros. (Imagen Ilustrativa Infobae)
Mediante programas presentes en la web se puede ir replicando el tono y otro registros. (Imagen Ilustrativa Infobae)

La clonación de voz con IA es una técnica que permite replicar con sorprendente precisión la voz de una persona, utilizando grabaciones previas de su habla. Aunque la mayoría de personas piensan que necesitaría horas de grabación para imitar una voz, la realidad es que solo son necesarios tres segundos de audio para crear una réplica convincente.

Con estas grabaciones breves, la tecnología de IA puede analizar y replicar las características vocales de cualquier individuo, produciendo un archivo de voz artificial que resulta, en ciertos casos, indistinguible del original.

Este tipo de tecnología, que ha avanzado rápidamente desde 2023, es accesible para cualquiera con las herramientas adecuadas, lo que plantea un grave riesgo de seguridad. Los estafadores pueden hacer uso de IA para imitar la voz de una persona conocida por la víctima y realizar llamadas telefónicas en las que se solicita información confidencial o transferencias bancarias.

Las víctimas, convencidas de que están hablando con un amigo o familiar, suelen ceder a las demandas de los delincuentes sin cuestionar la autenticidad de la llamada.

Cuánto dinero pueden robar al clonar una voz con IA

Compañías globales han perdido millones de dólares por este tipo de estafas. (Imagen Ilustrativa Infobae)
Compañías globales han perdido millones de dólares por este tipo de estafas. (Imagen Ilustrativa Infobae)

El impacto de estas estafas ha sido significativo. Un ejemplo destacado es el robo de 51 millones de dólares australianos a una empresa en los Emiratos Árabes Unidos. En este caso, los fabricantes utilizaron la clonación de voz para hacerse pasar por un alto ejecutivo y convencer a la empresa de realizar una transferencia masiva de fondos.

Este tipo de fraude no es un incidente aislado. Los informes sobre estafas similares han surgido en diversas partes del mundo, desde América del Norte hasta Europa y Asia.

Otro caso que ha generado conmoción involucra a estafadores que utilizan la clonación de voz para hacer creer a los padres que sus hijos han sido secuestrados. En estas situaciones, los delincuentes imitan la voz de los hijos para pedir un rescate, causando terror en los padres y obligándolos a actuar bajo presión.

La sofisticación de estos fraudes ha crecido rápidamente, y las víctimas a menudo no tienen forma de verificar la autenticidad de la llamada en el momento.

Qué pasará en el futuro con este tipo de estafas con IA

El desarrollo de la IA seguirá y será más complicado identificar riesgos. (Imagen Ilustrativa Infobae)
El desarrollo de la IA seguirá y será más complicado identificar riesgos. (Imagen Ilustrativa Infobae)

Varios informes en ciberseguridad advierten que estos delitos están en aumento y se espera que continúen evolucionando. A medida que la tecnología avanza, los estafadores también mejorarán sus técnicas, haciendo que estos fraudes sean aún más difíciles de detectar y prevenir.

También, la facilidad con la que los estafadores pueden acceder a herramientas de clonación de voz es motivo de gran preocupación. En la actualidad, cualquier persona con un mínimo de conocimiento técnico puede acceder a programas de IA capaces de realizar esta clase de fraude.

Además, las plataformas de redes sociales y otros medios donde las personas comparten audios o vídeos con su voz proporcionan el material necesario para los estafadores.

Cómo evitar estafas con voces creadas con IA

Es importante nunca contestar una llamada de un número desconocido. (Imagen Ilustrativa Infobae)
Es importante nunca contestar una llamada de un número desconocido. (Imagen Ilustrativa Infobae)

La lucha contra estos delitos requiere un enfoque integral que combine la tecnología, la legislación y la educación pública. Es crucial que las empresas y los ciudadanos sean conscientes de la existencia de este tipo de fraude y tomen medidas.

La implementación de tecnologías de verificación más robustas, como el reconocimiento biométrico, podría ser una solución a largo plazo para detectar estas imitaciones de voz.

Por otro lado, los gobiernos y las empresas tecnológicas deben trabajar en conjunto para establecer regulaciones que limiten el acceso a las herramientas de clonación de voz y refuercen las sanciones contra quienes las utilizan de manera fraudulenta.

Algunos consejos útiles incluyen ser cauteloso al recibir llamadas inesperadas que solicitan información confidencial, verificar la identidad de la persona que llama a través de otros medios (como un mensaje de texto o una videollamada) y no compartir grabaciones de voz en redes sociales o plataformas públicas. sin un propósito claro.

Guardar