PNP advierte que ya robaron en Perú más de 1 millón de soles imitando voz con inteligencia artificial (IA)

La Dirección Nacional de Investigación Criminal (Dirincri) brindó consejos para no ser engañados por personas inescrupulosas.

Guardar

Nuevo

Roban más de 1 millón de soles imitando voz con inteligencia artificial. (VÍDEO: Latina Noticias)

La inteligencia artificial (IA) fue creada para facilitarle la vida al ser humano, sin embargo, ha comenzado a darles más problemas que soluciones. En Perú, tras la masificación del uso de Chat GPT, esta clase de herramienta tecnológica ya genera controversia debido al mal empleo que le dan sus usuarios, al punto de utilizarlo para robar grandes cantidades de dinero.

A la fecha, se han registrado más de 94 casos de estafa gracias a la ayuda de la IA, la cual es aplicada en buscar de suplantar la identidad de otras personas. De acuerdo con la Dirección Nacional de Investigación Criminal (Dirincri), de la Policía Nacional del Perú (PNP), bajo esta modalidad se ha logrado sustraer más de 1 millón de soles de las víctimas.

En ese sentir, el jefe de la División de Investigación de Delitos de Alta Tecnología (Divindat), coronel PNP Luis Huamán, advirtió que la forma que más utilizan los malhechores para robar la identidad de otras personas es a través de voces que simulan ser de familiares o amigos.

“Hay personas que, de repente, reciben una llamada telefónica y alguien se hace pasar como su hijo o un familiar que está en apuros. Este pide dinero para que pueda solucionar un problema y la voz es muy similar”, declaró Huamán en entrevista con Latina Televisión.

“Tienen el patrón de la voz. El software tiene una parte donde tú tecleas el texto y es recreada por la voz que has obtenido de la persona que vas a suplantar”, añadió.

Nueva modalidad de estafa en la mira de la PNP. (Foto: Captura Latina Noticia)
Nueva modalidad de estafa en la mira de la PNP. (Foto: Captura Latina Noticia)

Asimismo, tal como lo hacen con la voz, los delincuentes pueden simular el rostro de una persona en un vídeo falso gracias a la inteligencia artificial. Esta práctica es conocida como deepfake.

Ante ello, el director de la División de Investigación de Delitos de Alta Tecnología exhortó a los ciudadanos a planificar diversas estrategias entre sus familiares para reconocer si uno de sus seres queridos necesita ayuda o desea comunicarse.

“Se debe hacer una previa concentración con el familiar o con los amigos de una palabra clave para saber que efectivamente se trata de la persona con quien está conversando”, manifestó.

PNP advierte sobre nueva modalidad de estafa orquestada gracias a inteligencia artificial. (Foto: Andina)
PNP advierte sobre nueva modalidad de estafa orquestada gracias a inteligencia artificial. (Foto: Andina)

Escolares editan fotos con inteligencia artificial

Hace unas semanas, en Chorrillos, se denunció que un grupo de escolares editaron fotos de sus compañeras de clases. Con la ayuda de la inteligencia artificial, colocaron los rostros de las alumnas en cuerpos ajenos para venderlas sin su consentimiento. Según varios expertos, este actuar configura como comercializar con pornografía infantil.

Las madres y padres de familia revelaron que se tratarían de jovencitas de tercero, cuarto y quinto de secundaria, quiénes serían las víctimas de este caso que enciende las alarmas por la forma en cómo se están empezando a usar las IA.

“Las fotos han sido editadas empleando inteligencia artificial, colocando cuerpos de mujeres desnudas, para venderlas a través de packs tanto en la institución como en fuera del colegio”, precisó una de los adultos.
Escolares que modificaron fotos de sus compañeras con IA no serán expulsados. (Foto: Composición Infobae)
Escolares que modificaron fotos de sus compañeras con IA no serán expulsados. (Foto: Composición Infobae)

En declaraciones con Canal N, los padres de familia exigieron que este nuevo caso de violencia contra la mujer no quede impune y que los menores sean castigados y expulsados. Cabe mencionar que uno de los menores implicados empujó a otra compañera agraviada porque se enteró de que habían realizado la denuncia en su contra.

La institución en donde ocurrieron estos actos, St George’s College, informó que los alumnos señalados solo fueron separados del plantel educativo mientras se realizan las diligencias correspondientes, más no serán expulsados.

“Ante nosotros se presenta un problema inédito en la educación en el Perú y como comunidad entendemos el reto de proponer medidas preventivas y de protección a nuestros niños que sean un ejemplo futuro que permitan enfrentar situaciones como ésta”, reza una parte del texto.

Guardar

Nuevo

Más Noticias

MÁS NOTICIAS