Mientras que la tecnología para el desarrollo de la inteligencia artificial como herramienta avanza, los cibercriminales han empezado a utilizarla como un medio para mejorar la calidad de sus ataques. La capacidad de generar voces artificiales por medio de este tipo de software ya empezó a cobrar varias víctimas, quienes han llegado a perder su dinero por medio de estafas.
Un método utilizado por varios años fue el engaño del familiar en problemas, que consistía en llamar al teléfono de una persona e imitar la voz de un miembro cercano de la familia para pedir “ayuda económica” para pagar algún tipo de deuda. Aunque antes era posible identificar las estafas por las diferencias en la voz de los criminales, con la inteligencia artificial esta posibilidad se reducirá aún más.
La generación de estas voces tampoco requeriría de mucho esfuerzo por parte de los cibercriminales, pues solo necesitarían una muestras de la voz del supuesto familiar, algo que es posible por medio de publicaciones en redes sociales. Con esta información, tendrían la capacidad de entrenar a una inteligencia artificial y hacer que siga un guion creado por los delincuentes que genere una sensación de urgencia y provoque la disposición de la víctima de realizar un pago con su dinero.
Le puede interesar: Cibercriminales están robando datos de Gmail por medio de Chrome y Microsoft Edge
Pese a que las voces creadas por inteligencia artificial son altamente similares a las de una persona real (dependiendo de la calidad del software), sí es posible reconocer cuándo se está tratando de una estafa. La recomendación en este tipo de situaciones, según la Comisión Federal de Comercio de Estados Unidos, es el establecimiento de una palabra o frase de seguridad que solo conozcan los familiares.
Esta palabra solo podrá ser utilizada en un contexto de peligro o emergencia real, por lo que deberá ser un término que no forme parte de las conversaciones normales entre los familiares. En caso de que se realicen este tipo de llamadas, preguntar por la palabra clave sería el factor diferencial entre una inteligencia artificial que imite la voz de la persona y la víctima real. Si se ha dado una respuesta incorrecta, el paso siguiente debería ser el de terminar la llamada inmediatamente para evitar que el criminal pueda ejercer mayor presión.
Otra alternativa viable para los familiares que reciben este tipo de llamadas es terminarla inmediatamente e intentar comunicarse directamente con el celular del contacto en supuesto peligro. Sin embargo, este método solo debería utilizarse si se tiene una gran certeza sobre su ubicación, de forma que se evite ignorar un pedido genuino de ayuda.
Le puede interesar: Cómo saber a qué información de mi celular Android accede cada aplicación
En el caso de que ninguna de las opciones anteriores sea viable, las víctimas al otro lado de la línea telefónica deberán prestar atención al pedido del supuesto familiar en peligro. Ya que los cibercriminales no desean ser identificados, los métodos de pago que solicitará será en criptomonedas o tarjetas de regalo que puedan ser canjeadas por productos en establecimientos comerciales.
Una vez que alguno de estos términos sean mencionados, serán las víctimas quienes decidan si tiene sentido que su familiar solicite ayudas económicas de este tipo. En caso de que la respuesta a esta pregunta sea negativa, lo más seguro será finalizar la llamada.
Le puede interesar: Cinco prácticas de ciberdelincuencia que pueden crecer con la inteligencia artificial
Si alguien se encuentra en un escenario similar, es preferible evitar mencionar más datos relevantes que puedan ser utilizados posteriormente por los cibercriminales para un ataque por otros medios como el phishing o el hackeo. Información como números de identificación, nombres completos, direcciones o contactos adicionales no deberán ser mencionados en la conversación.