VaakEye: el sistema de inteligencia artificial que detecta robos antes de que sean cometidos

Según especialistas, su implementación plantea problemas morales

Guardar
Se está usando un nuevo
Se está usando un nuevo software de inteligencia artificial para revisar el lenguaje corporal de los compradores (Foto: Especial)

Japón es una de las ciudades más importantes en innovaciones tecnológicas en el mundo y desde el mes pasado se está usando un nuevo software de inteligencia artificial para revisar el lenguaje corporal de los compradores y buscar indicios de posibles robos; sin embargo, su implementación plantea problemas morales para especialistas en el tema.

Vaak es la startup basada en Tokio que se encargó de desarrollar esta tecnología, pero es distinta a otros sistemas, los cuales funcionan haciendo coincidir las caras con los antecedentes penales, ya que VaakEye se basa en el comportamiento para predecir una conducta criminal.

También se diferencia de programas como Patternizr, el cual se implementó en Nueva York y funciona estableciendo patrones entre diferentes crímenes, teniendo en cuenta factores como los objetos sustraídos o el método de asalto. Esto lo hace analizando miles de archivos que sus creadores introdujeron en el sistema a lo largo de una década de trabajo.

Por su parte, VaakEye se lanzó el mes pasado y desde entonces se ha implementado en 50 tiendas de todo Japón y, según la compañía, las pérdidas por robo en las tiendas bajaron un 77%. Esta tecnología podría contribuir a reducir los costos globales por hurto en las tiendas, los cuales alcanzaron los 34.000 millones de dólares en 2017, según el Global Shrink Index.

Ryo Tanaka explicó que su
Ryo Tanaka explicó que su equipo dotó al algoritmo de 100.000 horas de datos de vigilancia para entrenarlo a monitorear todo (Foto: Especial)

El fundador de la compañía, Ryo Tanaka, explicó que su equipo dotó al algoritmo de 100.000 horas de datos de vigilancia para entrenarlo a monitorear todo, desde las expresiones faciales de los compradores hasta sus movimientos y ropa.

Ante el hecho de que este tipo de tecnología recolecta numerosos datos muy significativos de las personas, especialistas en el tema como Hannah Couchman, oficial de políticas y defensa de Liberty, una organización en defensa de los derechos humanos, se preguntan si "la gente está al tanto de lo que está pasando, ¿dan su consentimiento? ¿Es un consentimiento significativo? ¿Qué pasa con los datos? ¿Cómo se protegen?".

Michelle Grant, analista de Euromonitor, dijo para CNN Business que los consumidores están dispuestos a sacrificar algo de privacidad por conveniencia, como el uso del reconocimiento facial para la autenticación de pagos, pero sólo cuando saben para qué se está utilizando la tecnología.

Al respecto, Tanaka fue contundente: "Debería haber un aviso antes de que ellos (los clientes) entren a la tienda para que puedan optar por no participar", dijo. Además, destacó la importancia de los gobiernos en este asunto: "Deberían aplicar reglas que obliguen a las tiendas a revelar información: dónde y qué analizan, cómo la utilizan, cuánto tiempo la utilizan".

Otras de las preocupaciones que
Otras de las preocupaciones que surge a partir de este tipo de software es el caráctrer discriminatorio que pudiera provocar (Foto: iStock)

Otras de las preocupaciones que surgen a partir de este tipo de software es el carácter discriminatorio que pudiesen provocar, pues aunque su incentivo es prevenir el robo, Grant se cuestiona "si es legal o incluso moral impedir que alguien entre en una tienda basada en este software".

La respuesta de Tanaka ante este planteamiento es que su software sólo proporciona información de una imagen sospechosa. "Nosotros no decidimos quién es el criminal, la tienda decide quién es el criminal", expuso.

Por otro lado, un estudio del Centro de Georgetown para la Privacidad y la Tecnología asegura que los softwares de reconocimiento facial utilizados por varios departamentos policiales tienen mucho más margen de error con afroamericanos. No obstante, Tanaka explica que Vaak se basa en el comportamiento más que en la raza o el género, por lo que el aspecto racial no debería ser un problema.

Las legislaciones en materia de tecnología de reconocimiento facial son escasas alrededor del mundo. De hecho, hace unos días se aprobó en San Francisco la primera ley que prohíbe el uso de estos programas, pues la junta de supervisores del Ayuntamiento de la ciudad decidió que "debe primar el derecho a la privacidad y a la protección de las minorías, especialmente si esa herramienta es usada por agencias del orden".

Guardar