Karol G en problemas financieros: la estafa que se hace viral en WhatsApp y Facebook

Con inteligencia artificial es posible copiar la voz de la cantante colombiana, una modalidad que está en crecimiento

Las estafas que usan inteligencia artificial son cada vez más complejas e imperceptibles. Una de las modalidades que más impacto genera es el deepfake, que consiste en copiar y suplantar la voz o imagen de alguien. Un formato ideal para replicar los rostros y voces de personajes famosos, para crear engaños, para robar información o dinero.

Un concepto que ha tomado el influencer argentino Mariano Bondar, para mostrar, a través del humor, cómo es posible que esta tecnología cree engaños que luzcan reales y difíciles de distinguir, especialmente por aquellos usuarios que no prestan atención a los detalles y confían rápidamente en lo que ven y oyen.

Karol G y un ejemplo más de cómo funcionan los deepfake

Los usuarios deben asumir que dentro del contenido que ven en redes sociales, hay una posibilidad de que lo que vean no sea real y haya una inteligencia artificial detrás generando un video, imagen o audio que lo haga parecer.

Con este video de la cantante colombiana, Bondar toma una situación bastante imposible de que suceda: Karol G está en problemas económicos y para solucionarlo empezará a vender postres en internet, por lo que le puede a los usuarios los datos de su tarjeta de crédito para que la apoyen.

Si bien este puede ser un escenario que muchos detecten como falso, es solo un ejemplo de cómo a través de IA la voz de la cantante colombiana es posible copiarla y generar un contenido que parezca real, si los ciberdelincuentes se lo proponen.

El influencer tiene más videos de este estilo, como en el que Gokú, el protagonista de Dragon Ball, pide dinero para ayudar a Vegeta, que se encuentra en problemas económicos. En este caso, la voz copiada es la de Mario Castañeda, quien hace el doblaje para Latinoamérica.

El crecimiento de los deepfake y las estafas

Kaspersky, empresa de ciberseguridad, reveló un alarmante incremento del 120% en los intentos de estafa a través de mensajes falsos en Colombia durante 2024. En el período de julio de 2023 a julio de 2024, se registraron cerca de 397 millones de bloqueos de phishing en América Latina, con un total de 697 millones de intentos bloqueados en toda la región, lo que representa un aumento de 2.4 veces respecto al informe anterior. Esto equivale a 1,326 intentos de phishing por minuto.

Usan inteligencia artificial, copian la voz de Karol G para pedir datos personales a los usuarios. (Imagen ilustrativa Infobae)

Entre los países más atacados destacan Brasil, México, Perú, Colombia y Ecuador. Asimismo, los mayores aumentos de actividad de phishing se observaron en Bolivia, Perú, Argentina, Guatemala y Brasil, con incrementos que alcanzaron hasta el 400%.

El informe resalta una evolución en las tácticas de los delincuentes, quienes ahora emplean inteligencia artificial para crear contenidos manipulados, como deepvoice y deepfake. Estos materiales, que incluyen voces e imágenes de celebridades, se difunden en redes sociales para atraer a las víctimas hacia falsos sitios de inversión.

Además, el dominio “.ai” se ha convertido en una herramienta común para crear páginas fraudulentas, capitalizando el creciente interés en la inteligencia artificial que tienen empresas reales para establecer sus negocios en la red. Por lo que los ciberdelincuentes quieren aprovechar esta tendencia para tomar un lugar y engañar a los usuarios.

Usan inteligencia artificial, copian la voz de Karol G para pedir datos personales a los usuarios. (Imagen Ilustrativa Infobae)

Aunque casos como el video de Karol G o el de Gokú son contenidos de humor para redes sociales, son muestras de lo fácil que es crear este tipo de engaños, que sí son más elaborados y enfocados, pueden generar un impacto negativo en los usuarios que no verifiquen la información, la fuente desde donde les llega o la información que están solicitando, que en su mayoría son datos personales o financieros de tarjetas de crédito.