Estas ciudades prohíben la tecnología de reconocimiento facial. La policía aún encontró formas de acceder a ella

Restricciones locales fueron eludidas por cuerpos de seguridad mediante la colaboración con agencias externas que aún cuentan con acceso a tecnologías de identificación, permitiendo la detección de sospechosos sin romper leyes municipales

Guardar
Policía de Austin, sin autorización, recurrió al software Clearview AI para identificación. (Infobae/Archivo)
Policía de Austin, sin autorización, recurrió al software Clearview AI para identificación. (Infobae/Archivo)

A medida que ciudades y estados impulsan restricciones en el uso de tecnologías de reconocimiento facial, algunos departamentos de policía han encontrado una forma de continuar utilizando estas herramientas al recurrir a otras agencias que aún tienen acceso.

Oficiales en Austin y San Francisco, dos de las ciudades más grandes donde la policía tiene prohibido usar la tecnología, han solicitado repetidamente a la policía de ciudades vecinas que revisen fotos de sospechosos a través de sus programas de reconocimiento facial, según una revisión de documentos policiales realizada por The Washington Post.

En San Francisco, este método no parecía ser útil. Desde que la prohibición entró en vigor, el Departamento de Policía de San Francisco ha pedido a agencias externas que realicen al menos cinco búsquedas de reconocimiento facial, pero no obtuvieron coincidencias, según un resumen de esos incidentes presentado al Consejo de Supervisores del condado el año pasado.

El portavoz de la SFPD, Evan Sernoffsky, dijo que estas solicitudes violaron la ordenanza de la ciudad y no fueron autorizadas por el departamento, pero la agencia no enfrentó consecuencias por parte de la ciudad. Se negó a decir si algún oficial fue disciplinado, ya que se trataría de asuntos de personal.

Los oficiales de policía de Austin recibieron los resultados de al menos 13 búsquedas faciales de un departamento de policía vecino desde la prohibición y aparentemente obtuvieron coincidencias en algunos de ellos, según documentos obtenidos por The Post a través de solicitudes de registros públicos y fuentes que los compartieron bajo condición de anonimato.

“¡Es él! Muchas gracias”, escribió un oficial de policía de Austin en respuesta a una serie de fotos enviadas por un oficial en Leander, Texas, que realizó una búsqueda de reconocimiento facial, indican los documentos. El hombre en las fotos, John Curry Jr., fue acusado posteriormente de asalto agravado por supuestamente atacar a alguien con un cuchillo y actualmente está en la cárcel esperando juicio. El abogado de Curry se negó a comentar.

Sin embargo, al menos un hombre atrapado por las búsquedas argumentó que la policía debería ser juzgada con los mismos estándares que los ciudadanos comunes.

“Nosotros debemos seguir las leyes. ¿Por qué ellos no?”, dijo Tyrell Johnson, quien fue identificado por una búsqueda de reconocimiento facial en agosto como sospechoso de un robo a mano armada en un 7-Eleven de Austin, según los documentos. Johnson dijo que es inocente, aunque los fiscales dijeron en documentos judiciales que él tiene el mismo tatuaje en la mano y fue visto en un video en las redes sociales vistiendo la misma ropa que la persona captada en la cinta cometiendo el crimen. Él está esperando juicio.

Una portavoz del Departamento de Policía de Austin dijo que estos usos del reconocimiento facial nunca fueron autorizados por funcionarios del departamento ni de la ciudad. Dijo que el departamento revisaría los casos por posibles violaciones de las normas de la ciudad.

“Cuando se presentan acusaciones contra cualquier miembro del personal del departamento, seguimos un proceso constante”, dijo la portavoz en un comunicado enviado por correo electrónico. “Hemos iniciado ese proceso para investigar las reclamaciones. Si la investigación determina que se violaron políticas, APD tomará las medidas necesarias.”

El Departamento de Policía de Leander se negó a comentar.

Tecnología de reconocimiento facial detuvo erróneamente a siete inocentes, seis de ellos negros. (James Martin/CNET)
Tecnología de reconocimiento facial detuvo erróneamente a siete inocentes, seis de ellos negros. (James Martin/CNET)

Los esfuerzos de los oficiales de policía para eludir estas prohibiciones no habían sido reportados previamente y subrayan el desafío de controlar el uso policial del reconocimiento facial. La poderosa pero imperfecta tecnología de inteligencia artificial ha jugado un papel en la detención errónea de al menos siete estadounidenses inocentes, seis de los cuales eran negros, según demandas presentadas por cada una de estas personas después de que los cargos fueron desestimados.

Las preocupaciones sobre la precisión de estas herramientas, que se ha encontrado que son peores al escanear a personas de color, según un estudio federal, han provocado una ola de prohibiciones locales y estatales sobre la tecnología, especialmente durante las reformas policiales aprobadas tras las protestas de Black Lives Matter.

Pero hacer cumplir estas prohibiciones es difícil, dijeron los expertos, porque las autoridades a menudo ocultan su uso de reconocimiento facial. Incluso en lugares sin restricciones sobre la tecnología, los investigadores rara vez mencionan su uso en informes policiales. Y porque las búsquedas de reconocimiento facial no se presentan como prueba en los tribunales —las autoridades legales afirman que esta información se trata como una pista investigativa, no como prueba de culpabilidad—, en la mayoría de los lugares los fiscales no están obligados a decirles a los acusados criminales que fueron identificados usando un algoritmo, según entrevistas con abogados defensores, fiscales y jueces.

“La policía lo está usando pero no están diciendo que lo están usando”, dijo Chesa Boudin, exfiscal de distrito de San Francisco, quien dijo que era cauteloso al procesar casos que podrían haber dependido de la información obtenida por SFPD en violación de la prohibición de la ciudad.

Los algoritmos de reconocimiento facial han sido utilizados por algunos policías durante más de una década para identificar a sospechosos criminales. La tecnología analiza una “imagen de prueba” — tomada tal vez de una foto de la escena del crimen o video de vigilancia— y rápidamente escanea una base de datos de millones de imágenes para localizar rostros con características similares. La efectividad de la tecnología puede depender de la calidad de la imagen de prueba y los sesgos cognitivos de los usuarios humanos, que tienen la tarea a veces difícil de seleccionar una posible coincidencia entre docenas de candidatos que pueden ser devueltos por un algoritmo.

El primer arresto falso conocido vinculado al reconocimiento facial fue el de un hombre negro en Detroit. Su arresto fue tema de un artículo publicado en junio de 2020, un mes después del asesinato de George Floyd a manos de la policía de Minneapolis, que avivó protestas nacionales sobre las tácticas de la policía en comunidades minoritarias.

Ese mismo mes, Austin aprobó su prohibición sobre el reconocimiento facial, como parte de una resolución del consejo de la ciudad que también restringía el uso de gases lacrimógenos, estrangulamientos, equipo militar y órdenes de allanamiento sin previo aviso por parte de la policía.

“Las protestas fueron tan grandes en ese momento”, dijo Chris Harris, director de políticas de la Austin Justice Coalition, un grupo sin fines de lucro de derechos civiles. Una larga lista de reformas policiales que la comunidad había discutido durante años, dijo, “de repente se hicieron posibles.”

El consejo de la ciudad de Jackson, Mississippi, pronto siguió su ejemplo, diciendo que la tecnología “ha demostrado identificar erróneamente a personas de color, mujeres y niños: lo que amplifica la discriminación.” Portland, Maine, aprobó su propia prohibición, afirmando que “el uso de reconocimiento facial y otras vigilancias biométricas impactaría desproporcionadamente los derechos y libertades civiles de las personas que viven en vecindarios altamente vigilados.”

En total, 21 ciudades o condados y Vermont han votado para prohibir el uso de herramientas de reconocimiento facial por parte de las fuerzas del orden, según la Security Industry Association, un grupo comercial con sede en Maryland.

Boudin, el exfiscal de distrito de San Francisco, dice que vio evidencia de que SFPD comúnmente empleaba una solución alternativa que les daba una negación plausible: compartir carteles de “estar atentos” con imágenes de sospechosos con otras agencias policiales en el Área de la Bahía, quienes podrían decidir por su cuenta ejecutar las fotos a través de su software de reconocimiento facial y devolver cualquier resultado.

Sernoffsky, el portavoz de SFPD, calificó la afirmación de Boudin como una “teoría de conspiración descabellada”, y agregó que cualquier afirmación de que “SFPD rutinariamente se involucraba en esta práctica más allá de los casos que hicimos públicos es absolutamente falsa.”

Prohibiciones locales difícilmente se cumplen por ocultamiento del uso de la tecnología. (Shutterstock)
Prohibiciones locales difícilmente se cumplen por ocultamiento del uso de la tecnología. (Shutterstock)

En septiembre de 2020, el San Francisco Chronicle informó que SFPD había acusado a un sospechoso de disparar ilegalmente un arma después de que fue identificado a través de un resultado de búsqueda de reconocimiento facial. La pista fue proporcionada por el Centro Regional de Inteligencia del Norte de California o NCRIC, una instalación multijurisdiccional que sirve a las agencias de aplicación de la ley en la región. En ese momento, SFPD le dijo al Chronicle que no había solicitado a NCRIC que realizara la búsqueda y que habían identificado al sospechoso a través de otros medios.

Mike Sena, director ejecutivo de NCRIC, dijo que sus analistas siempre envían pistas de sospechosos a las agencias cuando obtienen una coincidencia. “No estamos tratando de obligar a nadie a violar sus políticas, pero si identifico a un posible sospechoso de asesinato, no vamos a quedarnos callados”, dijo Sena.

En los cinco casos que el departamento de policía informó al Consejo de Supervisores de la ciudad, dos oficiales de SFPD explícitamente pidieron a un “centro de fusión de aplicación de la ley estatal y local” que los ayudaran a identificar sospechosos de robo, asalto agravado y apuñalamiento. y uno de ellos pidió ayuda al Departamento de Policía de Daly City para identificar un sospechoso de apuñalamiento. La divulgación fue parte de un informe anual en el que SFPD está obligado a enumerar cómo usó cualquier tecnología de vigilancia.

Un funcionario de la policía de Daly City dijo que no tenía comentarios inmediatos.

SFPD le dijo al Consejo de Supervisores que los cinco incidentes habían sido examinados por los investigadores internos de SFPD, pero no especificaron si se había tomado alguna medida disciplinaria.

“SFPD no está tomando en serio la prohibición del reconocimiento facial”, dijo Brian Hofer, director ejecutivo de Secure Justice, una organización de vigilancia de la vigilancia policial que compartió el documento de San Francisco con The Post. “Lo han violado repetidamente y se necesitan consecuencias más fuertes.”

Sernoffsky dijo que SFPD sigue todas las leyes de la ciudad y las políticas del departamento, e investiga a fondo cualquier acusación de violaciones políticas.

Los departamentos de policía pueden estar profundamente entrelazados con sus vecinos encargados de hacer cumplir la ley, especialmente cuando se trata de compartir información que podría ayudar a atrapar criminales. El Rev. Ricky Burgess, exmiembro del consejo de la ciudad de Pittsburgh, advirtió a sus colegas cuando aprobaron una prohibición de reconocimiento facial que la medida probablemente sería ineficaz porque la policía frecuentemente colabora con agencias vecinas y estatales.

“En este momento, la ciudad de Pittsburgh está utilizando reconocimiento facial a través del estado de Pensilvania, y no tenemos control sobre eso en absoluto”, dijo Burgess en ese momento, según un video de la reunión archivado por la base de datos de registros públicos Quorum. “Esta es una ley simplemente para la galería”.

Un portavoz de la policía de Pittsburgh dijo que el departamento no utiliza tecnología de reconocimiento facial.

El consejo de la ciudad de Austin intentó prevenir tales vacíos legales. Su resolución prohíbe a los empleados de la ciudad utilizar reconocimiento facial, así como “información obtenida” de la tecnología. Las excepciones para casos de “amenaza o peligro inminente” requieren la aprobación del administrador de la ciudad.

Después de que la prohibición entró en efecto, la policía de Austin descubrió que sus colegas en Leander, un suburbio a unos 48 kilómetros al norte de Austin, tenían acceso a Clearview AI, uno de los proveedores más populares de software de reconocimiento facial para agencias policiales. La base de datos de Clearview incluye miles de millones de imágenes recopiladas de redes sociales y otros sitios web, imágenes que, según defensores de la privacidad, fueron recolectadas sin el consentimiento adecuado.

Entre mayo de 2022 y enero de 2024, los oficiales de policía de Austin enviaron correos electrónicos a la policía de Leander al menos seis veces, pidiéndoles explícitamente que ejecutaran fotos a través del reconocimiento facial, según documentos. En al menos otros siete casos, la policía de Leander proporcionó resultados de reconocimiento facial a la policía de Austin, incluso si no estaba claro que se les hubiera pedido explícitamente hacerlo. La mayoría de las búsquedas fueron realizadas por un oficial de Leander, David Wilson, cuyo nombre circulaba entre las filas de la policía de Austin como alguien que podía ayudarlos a ejecutar búsquedas faciales, según correos electrónicos revisados por The Post. Wilson figuraba en el contrato de Leander con Clearview como el “influencer” de la agencia para la tecnología.

“Hola señor, fui referido a usted por nuestra Unidad de Robos, quienes me informaron que usted puede hacer reconocimiento facial”, escribió un detective de Austin en un correo electrónico a Wilson, obtenido por The Post. “Estoy trabajando en un caso donde estoy tratando de identificar a un sospechoso y me preguntaba si podría ayudarme con eso.”

Wilson no respondió a las solicitudes de comentarios.

Policía de Austin, sin autorización, recurrió al software Clearview AI para identificación. (Shutterstock)
Policía de Austin, sin autorización, recurrió al software Clearview AI para identificación. (Shutterstock)

Clearview prohíbe a sus clientes de las fuerzas del orden compartir su acceso a la plataforma con personas ajenas a su agencia. Pero el software permite a los clientes exportar fácilmente los resultados de las búsquedas de reconocimiento facial. El año pasado, el CEO de Clearview, Hoan Ton-That, envió un correo electrónico a los clientes diciendo que comenzarían a restringir esta función, citando preocupaciones sobre la excesiva compartición de información que podría perjudicar el negocio de la compañía y aumentar el potencial de errores.

“Compartir resultados con otros que no están capacitados en el uso y las mejores prácticas del reconocimiento facial puede llevar a una mayor probabilidad de errores en estas investigaciones,” dijo Ton-That en el correo electrónico.

La carta no dijo nada sobre compartir resultados de Clearview a través de métodos más rudimentarios, como copiar y pegar imágenes en correos electrónicos, el método que Wilson parecía usar varias veces, incluso después de que Clearview dijo que estaba limitando el compartir, muestran los correos electrónicos.

Clearview no respondió a solicitudes de comentarios.

(c) 2024 , The Washington Post

Guardar