En una declaración emitida el jueves 28 de marzo, el Banco de la República advirtió a la ciudadanía sobre una nueva modalidad de estafa que está siendo perpetrada en su nombre. Según el comunicado oficial, la entidad financiera fue informada sobre la circulación de un video en redes sociales, supuestamente proveniente de Noticias Caracol, que presenta un falso audio modificado con inteligencia artificial, atribuido al gerente general, Leonardo Villar.
El video en cuestión utiliza imágenes del gerente de la entidad con el objetivo de persuadir a la población para que participe en inversiones financieras ilegales; sin embargo, el Banco de la República desmintió categóricamente cualquier vinculación con dicho material.
Ahora puede seguirnos en nuestro WhatsApp Channel y en Facebook.
“Queremos informar a la ciudadanía que este video es fraudulento y queremos advertir sobre los riesgos de caer en el engaño de estas publicaciones falsas”, expresó la entidad bancaría por medio de sus redes sociales.
Riesgos de caer en la desinformación
El Banco de la República, entidad responsable de la política monetaria y cambiaria del país, hizo hincapié en la importancia de la verificación de la información antes de compartirla o actuar en consecuencia. Advierte sobre los riesgos significativos que implica caer en la trampa de estas publicaciones falsas, que pueden tener repercusiones financieras y legales, graves para quienes se dejen engañar por ellas.
Entre los riesgos más destacados se encuentran:
1. Pérdida financiera: Invertir en esquemas fraudulentos puede llevar a la pérdida total o parcial de los fondos de los inversores, dejándolos en una situación económica precaria.
2. Riesgo legal: Participar en actividades financieras ilegales puede acarrear consecuencias legales severas, incluyendo multas y procesos judiciales.
3. Robo de identidad: Al proporcionar información personal en enlaces no confiables, las personas corren el riesgo de ser víctimas de robo de identidad, lo que puede tener consecuencias devastadoras para su seguridad financiera y personal.
4. Daño a la reputación: Ser asociado con actividades ilegales puede dañar la reputación de una persona o entidad, afectando su credibilidad y relaciones comerciales.
Recomendaciones del Banco de la República
Ante esta situación, el Banco de la República emite las siguientes recomendaciones a la ciudadanía:
- Verificar la fuente de información: Antes de compartir o actuar con base en cualquier contenido en línea, es fundamental verificar la autenticidad de la fuente y la veracidad de la información.
- No proporcionar datos personales en enlaces no confiables: Evitar diligenciar información personal en sitios web o enlaces cuya seguridad no esté garantizada.
- Consultar los canales oficiales del Banco de la República: Para corroborar cualquier información relacionada con el Banco de la República, se recomienda utilizar exclusivamente los canales oficiales de la entidad. Estos incluyen el portal corporativo, así como las cuentas en redes sociales en YouTube, Facebook, Twitter, Instagram y LinkedIn.
El avance de la inteligencia artificial y el surgimiento de la clonación de voz
La Inteligencia Artificial (IA) continúa expandiéndose como una de las tecnologías más influyentes de nuestro tiempo, impactando diversos aspectos de la sociedad. Desde la atención médica hasta el transporte, la IA se encuentra presente en prácticamente todos los ámbitos de nuestras vidas, prometiendo eficiencia y avance. No obstante, junto con estas promesas, también surgen desafíos significativos que deben abordarse como sociedad.
Una de estas nuevas preocupaciones es la clonación de voz mediante inteligencia artificial, una modalidad de estafa en ascenso que preocupa a autoridades y expertos en seguridad cibernética. Esta técnica, que replica con precisión la voz de cualquier individuo, está siendo empleada por ciberdelincuentes para perpetrar fraudes de diversas índoles.
El modus operandi de esta estafa implica la obtención de grabaciones de voz de la víctima, las cuales suelen ser obtenidas de redes sociales u otras fuentes públicas. Estos registros son luego procesados por software de deep fake, una rama de la inteligencia artificial, que genera archivos de audio que imitan fielmente la voz del individuo. Con estas reproducciones, los estafadores realizan llamadas telefónicas para solicitar dinero o información confidencial, haciéndose pasar por conocidos de la víctima.
Autoridades y medios especializados instan a ciudadanos y empresas a elevar su nivel de desconfianza ante llamadas sospechosas para prevenir engaños. Se aconseja evitar revelar datos personales por teléfono y verificar la identidad del interlocutor por otros medios confiables. Además, se enfatiza la importancia de mantener un alto grado de precaución ante solicitudes urgentes o inusuales por teléfono.