La IA que todo lo ve: ¿podrán las normas ISO proteger nuestra privacidad?

Aunque los sistemas de Inteligencia Artificial pueden mejorar la seguridad, sin regulaciones claras podrían convertirse en herramientas de control que amenacen las libertades individuales

Guardar
Los sistemas de vigilancia actuales pueden identificar personas en multitudes, analizar patrones y hasta predecir conductas (Imagen Ilustrativa Infobae)
Los sistemas de vigilancia actuales pueden identificar personas en multitudes, analizar patrones y hasta predecir conductas (Imagen Ilustrativa Infobae)

La inteligencia artificial (IA) ha transformado nuestra vida cotidiana, desde asistentes virtuales hasta sistemas avanzados de vigilancia que monitorean calles, comercios y espacios públicos. Sin embargo, este avance plantea preguntas profundas sobre privacidad: ¿quién controla nuestra información? ¿Hasta dónde llega la vigilancia antes de que la privacidad y libertad individual estén en riesgo?

Hoy en día, gobiernos de todo el mundo están implementando de forma masiva IA en sistemas de vigilancia. Un estudio de Carnegie Endowment for International Peace reveló que, de 176 países, 75 ya emplean tecnologías de IA para vigilancia, abarcando desde reconocimiento facial hasta análisis de datos en tiempo real. De estos, 74 países usan reconocimiento facial, y 56 han desarrollado sistemas de “ciudades seguras” que monitorean el entorno en busca de riesgos.

China lidera este despliegue con 540 millones de cámaras de vigilancia, casi una por cada dos habitantes. Esta infraestructura de vigilancia sustenta el sistema de “crédito social” chino, que puntúa el comportamiento de los ciudadanos y afecta su acceso a beneficios. Empresas chinas como Huawei y ZTE han exportado esta tecnología a 63 países, consolidando la influencia de China en la vigilancia mundial.

Incluso en democracias avanzadas, como Estados Unidos y la Unión Europea, el uso de IA en vigilancia ha crecido aceleradamente. En Estados Unidos, se estima que más del 50% de las agencias de seguridad locales usan reconocimiento facial. En Europa, la vigilancia se utiliza principalmente en aeropuertos y fronteras, donde gobiernos han adoptado tecnologías de “análisis de multitudes” que identifican patrones de comportamiento.

La tecnología detrás de la vigilancia total

Los sistemas de vigilancia actuales pueden identificar personas en multitudes, analizar patrones y hasta predecir conductas. Según Global Market Insights, el mercado global de IA en vigilancia crecerá a una tasa anual del 36,8% hasta 2030, alcanzando un valor superior al billón de dólares.

¿Quién controla nuestra información? ¿Hasta dónde llega la vigilancia antes de que la privacidad y libertad individual estén en riesgo?

Sin embargo, esta tecnología plantea temores sobre una vigilancia masiva que recuerda la distopía de 1984 de George Orwell. En países como Israel, Singapur y Rusia, la IA ya se emplea para monitorear redes sociales y controlar reuniones públicas en busca de contenidos “peligrosos”. Además de China y Estados Unidos, el uso de IA en vigilancia se ha expandido a regiones donde el control social es prioritario. En el Golfo Pérsico, Emiratos Árabes Unidos y Arabia Saudita han invertido en IA para vigilancia. En América Latina, ciudades como Buenos Aires y Ciudad de México implementan sistemas de “ciudades seguras” con IA, aunque a menudo sin regulaciones que protejan la privacidad de los ciudadanos.

Normas ISO: un posible freno a los excesos de la IA en vigilancia

Aquí es donde las normas ISO, como ISO 27001 (seguridad de la información) y ISO 26000 (responsabilidad social), pueden jugar un papel crucial. La ISO 27001 establece estándares para la protección de datos sensibles, y aunque es común en banca y salud, aún no se aplica en muchos sistemas de vigilancia a nivel gubernamental. La ISO 26000, por su parte, orienta a las organizaciones hacia prácticas éticas, respetando la privacidad individual.

La adopción de estas normas podría limitar el uso excesivo de la IA en vigilancia, balanceando seguridad y privacidad. Sin embargo, su implementación es voluntaria, lo que significa que depende de la voluntad política y una ciudadanía informada que exija protección de sus derechos. En contextos donde la privacidad no es prioridad, la adopción de estas normas es poco probable, mientras que gobiernos y empresas priorizan el control social.

El futuro del control digital: entre regulación y libertad

La expansión de la IA en vigilancia es uno de los dilemas éticos más relevantes de nuestro tiempo. El mercado de la IA podría alcanzar los 1,35 billones de dólares para 2030, impulsado por su adopción en sectores públicos y privados.

Incluso en democracias avanzadas, como Estados Unidos y la Unión Europea, el uso de IA en vigilancia ha crecido aceleradamente

Aunque los sistemas de IA pueden mejorar la seguridad, sin regulaciones claras podrían convertirse en herramientas de control que amenacen las libertades individuales.

Para mitigar este riesgo, se necesita una combinación de voluntad política, adopción de normas ISO y una ciudadanía que exija un uso responsable de la IA. Aunque las normas ISO no son una solución definitiva, pueden ser un primer paso hacia un uso ético de la inteligencia artificial en vigilancia, evitando que el “Gran Hermano” digital pase de ser una metáfora a convertirse en realidad.

El autor es Director Regional de G-CERTI Global Certification

Guardar