Imagina ser detenido sin entender por qué. Das tus documentos. Sin embargo, algo te dice que no quedará ahí. Automáticamente, haces un repaso de todo lo que te pudo llevar a esa situación y, aunque no exista nada, te pones nervioso, no sabes a ciencia cierta qué pasará, lo que alerta a la Policía de que va por buen camino, pese a que es todo lo contrario.
Abraham Nina Márquez, Jorge Chávez Cárdenas, Daniel Távara Cárdenas y César Cavero Saavedra, probablemente ya no forman parte del recuerdo de la mayoría de peruanos, pero estos ciclistas pasaron por eso al ser sindicados como integrantes de una agrupación llamada ‘Los malditos de Larcomar’. Su detención no solo fue televisada, sino que contó con la participación del entonces alcalde y el jefe policial del distrito. ¿El delito? Tener rasgos físicos parecidos a las personas que los efectivos buscaban.
Aunque este claro ejemplo de discriminación pasó hace poco más de 15 años, lejos de pensar que la historia ya no podría repetirse, para Dania Coz y Fatima Toche, especialistas en derechos humanos y nuevas tecnologías, estaría más cerca de lo que se cree y, esta vez, de la mano de un software llamado Face PSIM de inteligencia artificial adquirido por la Municipalidad Metropolitana de Lima que busca implementarse, progresivamente, a las 4.300 cámaras de seguridad instaladas en distintas partes de la ciudad.
“Lo descarto por completo. […] Nosotros estamos recogiendo la base de datos de los más buscados, del Ministerio del Interior. Entonces, el software no está mirando color, raza, sexo, orientación… Es la foto de una persona que ha transgredido las leyes nacionales y que ha sido sentenciada por un delito. Por lo tanto, lo único que va a hacer el robot de la inteligencia artificial es buscar en las fotos de las personas que caminan”, asegura Martí Reyes, jefe del Centro Integrado de Comunicaciones de la Gerencia de Seguridad Ciudadana de Lima Metropolitana.
Y prosigue: “Al momento de barrer, la cámara va sacando una fotografía. Y esa fotografía, en un milisegundo, está siendo contrastada con la base de datos. Si encuentra una similitud, te va a lanzar una alerta. Si no, continúa su patrullaje y no pasó absolutamente nada”. Pero, ¿realmente no pasa nada? Aunque asegura que el único fin es atrapar delincuentes, lo cierto es que, para ello, necesita contrastar con inocentes y, como todo sistema operativo, existe un margen de error que, en este caso, te podría llevar a ser intervenido o detenido.
“Imagina que logras identificarte en ese momento como que no eres el requisitoriado, igual se te restringió momentáneamente el derecho al libre tránsito. Y en caso no pudieras, digamos, porque ese día saliste sin tu DNI o lo que sea, te pueden llevar a la comisaría y te pueden retener para hacerte un control de identidad policial y se estaría cortando también la libertad personal”, advirtió Coz, jefa del área de derecho constitucional y derechos fundamentales de Iriarte & Asociados.
“Otro tema es que los rasgos del rostro son datos personales, que, si se accede indebidamente a ellos, pueden generar también muchos problemas, como suplantaciones de identidad, fraudes, y otros. […] Hasta el momento no sabemos qué problemas tiene, qué nivel de seguridad tiene, porque no han publicado ningún informe, cuando claramente para mapear los rostros de los delincuentes necesitan mapear el de las demás personas”, comentó Toche, especialista en protección de datos y derecho digital.
Al respecto, ambas hicieron mención de que, en Europa, que está por aprobar su normativa sobre inteligencia artificial, se han prohibido estos mapeos masivos, con la única excepción de que se hagan con mandato judicial. Tal es así que, el Tribunal Europeo de Derechos Humanos sacó una sentencia diciendo que la aplicación de estos sistemas sin regulación es una clara violación de los derechos humanos.
Según Reyes, “existe una efectividad entre el 60% y 75%” y “la sospecha no determina detención”, pero, en la práctica, todas las personas que se parezcan en estos porcentajes a delincuentes podrán ser intervenidas, detenidas y trasladadas. Además, que no hay forma de constatar que realmente se eliminen los datos de los demás peatones, por más que lo aseguren.
“Yo estoy de acuerdo que un problema grave es la inseguridad ciudadana, pero no creo que sea proporcional someter a todos los ciudadanos a este barrido biométrico, cuando hay otros mecanismos para combatir la inseguridad”, explica Toche.
Mientras que Reyes tiene otro punto de vista. “A mí me deja muy tranquilo. Por ejemplo, si tenemos la noticia criminal de que hay una motocicleta color rojo que está robando en diferentes distritos de una mancomunidad, a mí me dejaría tranquilo que exista en una cámara un software que me diga ‘ah, esta moto puede ser’, y que sea identificada inmediatamente por un efectivo policial. Ahí estoy incorporando la tecnología en la persecución y el delito. Ese es el futuro”, asegura.
El software no está aplicado en un 100% todavía, pero es un plan en camino. Pese a las distintas posiciones, todos instan al Congreso de la República que discuta sobre inteligencia artificial aplicada a la vida de la sociedad en materia de seguridad ciudadana, pues si bien no podemos ser ajenos al uso de tecnologías, sí se necesita establecer garantías de que los derechos humanos serán respetados. Sobre todo cuando esta clase de sistema de vigilancia también puede ser utilizada para otros fines, como perseguir a opositores o personas “incómodas para el poder” y presentar casos de discriminación.
¿Qué podrían hacer los ciudadanos?
De acuerdo a Toche, todas las personas pueden presentar una denuncia ante la Autoridad de Protección de Datos Personales, donde la municipalidad podría recibir una sanción de hasta 100 UIT, y recurrir a una acción de amparo, porque en el entendido se está vulnerando sus derechos fundamentales, como a la protección de datos personales, intimidad de la privada, libre tránsito, etc.
Si bien el pasado 13 de junio el Gobierno promulgó la Ley 31814, ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país, hasta el momento es meramente declarativa y no existe un camino claro sobre cómo implementarla en favor de los ciudadanos.