Las mejores novelas futuristas del siglo pasado imaginaron un porvenir metálico, lleno de pantallas y altas velocidades de desplazamiento. Imaginaban armas de destrucción masiva, naves espaciales, computadoras que ocupaban un cuarto entero. Sin embargo, como se suele decir, la realidad es más creativa que la ficción: nadie vio que el futuro no estaba en lo grande sino en lo pequeño, y que el poder no sería de quien tuviera los aparatos más voluminosos sino de quien dominara la mayor cantidad de datos.
Con la llegada del COVID-19, quedó en evidencia que vivíamos en el futuro y no lo sabíamos. En el mercado mundial, los respiradores resultaron ser igual de codiciados que los reactivos para realizar tests de contagio: todo mandatario sabe que un Estado tiene mayor margen de maniobra si está bien informado de lo que pasa entre los ciudadanos. De hecho, en pleno siglo XXI, lo único que demostró viajar más rápido que el COVID-19 es la información.
Curvas de contagio, estadísticas de muertes y recuperaciones en todo el globo minuto a minuto, algoritmos que predicen escenarios de acuerdo a los datos recolectados de un presente cada vez más escurridizo, aplicaciones móviles que miden las zonas calientes y frías de circulación de personas y lo vuelcan en un mapa en tiempo real, todos estos son hechos del presente que se parecen mucho más al futuro que las grandes naves de la película 2001: Odisea del espacio. En este escenario, todo parece indicar, al menos en principio, que estamos más preparados que antes para combatir una enfermedad global.
¿Qué medir?
El análisis de grandes volúmenes de datos contribuye al diseño de modelos estadísticos que arrojan luz sobre el comportamiento humano en determinada situación, y, en estos casos, también del comportamiento del virus: vías de contagio más comunes, velocidad de proliferación, población más vulnerable, hábitos culturales que abren puertas al contagio.
En Occidente, diversas iniciativas del sector privado hicieron aportes sobre la base de datos recolectados de los usuarios, o bien de otros sitios web. En ambos casos, el recorrido de la información requiere de tres partes: recolección, predicción y política pública. Para sorpresa de muchos, el primer sitio creado exclusivamente para seguir de cerca el coronavirus fue realizado por un estudiante de secundaria en Seattle, Estados Unidos. La dirección es Ncov219.live y funciona con la tecnología web scraping: recopila, de manera automática, datos de diferentes fuentes de todo el mundo y muestra el último número de casos de COVID-19, muertos y recuperados.
En ese entonces, era diciembre, había solo mil casos confirmados en Wuhan, China, pero algunos ya auguraban un crecimiento importante. Ese día, Avi Schiffmann, que pasaba el fin de semana con su familia en un centro invernal, perdió una jornada de ski y lo dedicó a desarrollar un sitio web casero para rastrear el movimiento del coronavirus. Desde ese momento, el sitio ncov2019.live tiene más de 100 millones de visitas. “Solo quería que los datos fueran fácilmente accesibles, pero nunca pensé que terminaría siendo tan grande”, dijo el estudiante de secundaria por FaceTime.
Otro desarrollo privado es Grandata, una empresa que existe desde antes de la pandemia y brinda servicios de datos a empresas. Dadas las circunstancias, la marca desarrolló un sitio web en el que se puede ver el nivel de acatamiento de la cuarentena en cada provincia argentina en función de los movimientos geográficos de la población. El desplazamiento se mide con el registro de la ubicación que manda la app del celular de cada usuario. Vale aclararlo: pocos saben que al dar permiso a una aplicación como Whatsapp o Instagram para usar nuestra ubicación, también les damos permiso para que brinden esos datos a terceros, información que figura en los Términos y Condiciones, sección famosa por la omisión de su lectura. De este modo, sabemos que, desde el comienzo, Catamarca fue la provincia con menor acatamiento de la reclusión domiciliaria, con un 16% de aceptación, mientras que la Ciudad de Buenos Aires promedió el 40% al finalizar la segunda semana de aislamiento.
Ahora bien, cabe preguntarse qué hay detrás de estos datos. En primer lugar, Catamarca era una de las pocas provincias que no registraba casos de coronavirus, con lo cual era esperable que la preocupación en aquella zona fuese menor que en áreas más afectadas, como la ciudad y provincia de Buenos Aires. Otros aspectos que también se analizan son los relacionados a las consecuencias sociales y económicas del coronavirus: picos de demanda de servicios durante la cuarentena en cada zona, como las horas diarias de consumo de internet, consumo de plataformas de entretenimiento, como Netflix, visitas de sitios de recetas de cocina, entre otros. En cualquier caso, es necesario destacar la importancia del aspecto metodológico. Por ejemplo, en el mapa de acatamiento, debe considerarse que en ciertas áreas se cuenta con más smartphones que en otras, o que en algunas provincias hay que realizar recorridos más largos para llegar a un almacén o supermercado. Lo mismo sucede en un nivel aún más determinante: los reactivos para testear casos de COVID-19 en la población son fundamentales.
Es probable que en un país desarrollado se registren más contagios, pero que eso se deba a que se realizan más tests, mientras que en un país con pocos tests la cantidad de infectados va a figurar en cantidades menores. Otro aspecto metodológico es considerar las muertes con etiquetas relacionadas a enfermedades previas tales como la hipertensión y la diabetes.
El jardín de los contagios que se bifurcan
Como el oráculo de Delfos, la inteligencia artificial mira el pasado para conocer los designios del destino. En pocas palabras, podemos definir un algoritmo como la herramienta informática que toma datos de una fuente de información y los utiliza para predecir comportamientos futuros. Por ejemplo, hay algoritmos que permiten predecir cómo se va a comportar la acción de determinada compañía luego de registrar su variación en el último año o el último lustro. De la misma manera, y para que se note que el fenómeno no es ajeno al lector, las publicidades en redes sociales y plataformas de entretenimiento como Netflix están pobladas de algoritmos que intentan descifrar la mente del usuario sobre la base de sus elecciones pasadas.
Si alguien mira videos de guitarristas en Instagram y luego se une en Facebook a un grupo de músicos, es muy probable que luego el usuario reciba publicidades de venta de guitarras y de eventos musicales de los alrededores. O bien, alguien que mira películas de acción en Netflix está dejando un registro para que luego el sistema sugiera películas similares. En una palabra, la informática intenta, a fuerza de datos, penetrar en la caja negra que es la mente humana.
Ahora bien, con la llegada del coronavirus, el “usuario” que descifra la inteligencia artificial no es un ser humano sino un virus que se propaga, se mueve, se estabiliza y tiene sus propias pautas de comportamiento. El poder de la inteligencia artificial en este caso ya fue demostrado: el 31 de diciembre pasado, un algoritmo desarrollado por una empresa canadiense especializada en monitorear la proliferación de enfermedades infecciosas ya había descubierto el brote y avisado de la noticia a sus clientes, según la revista Wired. Ese mismo día, China había comunicado 27 casos a la Organización Mundial de la Salud (OMS), aunque el organismo no anunció la existencia del brote hasta diez días después.
La empresa detrás del sistema que predijo el coronavirus es BlueDot, una startup que desde hace años se dedica a confeccionar informes para organismos oficiales en Estados Unidos. Su estrategia para hacer una predicción sobre la dispersión del virus se basa en recopilar y analizar información de noticias publicadas en medios informativos en más de 30 idiomas. Es decir, la inteligencia artificial permitió no solo recopilar datos de distintas fuentes, sino también sortear el obstáculo del idioma para generar información uniforme y lista para ser analizada. El sistema ya funcionó en brotes anteriores: BlueDot lo utilizó durante la epidemia del virus del Zika. En esa oportunidad, el modelo tomaba itinerarios de pasajes aéreos, mapas de temperatura, densidades de población y presencia de mosquitos transmisores del virus como fuente de información. Por ejemplo, su mapa de riesgos reveló que Florida recibía grandes contingentes de Brasil y tenía el clima y los mosquitos adecuados para la transmisión de la enfermedad. La revista médica The Lancet dio cuenta de lo acertadas que resultaron las predicciones.
Sin embargo, el uso de big data para la detección de enfermedades no es perfecto. En 2014, Google cerró las persianas de Google Flu Trends, servicio que había lanzado en 2009 con el objetivo de predecir la incidencia de la gripe en cada región. Al principio, basándose en las consultas de los usuarios en el buscador, la iniciativa funcionó. Pero luego, comenzó a fallar en todos sus pronósticos, hasta que medios, como The Nature, se burlaron y expresaron su desconfianza hacia las aplicaciones de procesamiento de datos masivos. El avance del COVID-19, además de la búsqueda de la vacuna en todo el mundo, supuso el desarrollo, a fuerza de prueba y error, de herramientas con la capacidad de hacer predicciones. En este sentido, investigadores italianos implementaron un sistema llamado “modelo suavizado” en la plataforma Tableau, una herramienta que ofrece técnicas de visualización para explorar y analizar bases de datos. Los datos utilizados para este modelo fueron los suministrados por fuentes oficiales sobre contagios y muertes diarias en China, del 23 de enero hasta el 2 de febrero.
A pesar de la cantidad reducida de datos, el modelo se propuso predecir el número de contagios y de muertes en China, del 3 al 19 de febrero. Para el 17 de febrero, se pronosticaron 62.814 casos y 1.565 muertes; el dato real fue de 72.436 y 1.868, respectivamente; no del todo acertado, pero mucho más cerca de lo que cualquiera hubiera imaginado. En el caso del coronavirus, el principal obstáculo radica en que, a diferencia de enfermedades que llevan años entre nosotros, son pocos los datos que se pueden recolectar para establecer patrones futuros con un nivel de certeza suficiente y tener en cuenta a la hora de diseñar políticas públicas.
Pese a ello, vale la pena considerarlos: al fin y al cabo, la tecnología, que siempre fue el gran enemigo del hombre, hoy es su principal aliada. Los diseños que presentan países desarrollados, como China y Estados Unidos, son alentadores: un algoritmo que predice en qué pacientes el contagio de coronavirus significará un problema pulmonar grave, un algoritmo que predice la evolución de curvas de contagio en determinadas regiones de acuerdo a la manipulación de variables específicas. Por ejemplo: cantidad de infectados y muertos en Brasil en un escenario en el que no se implementó la cuarentena obligatoria, o cantidad de casos en Brasil en un escenario en el que no se implementó la cuarentena obligatoria y además no se realizaron testeos a personas asintomáticas, etc. Como en el cuento de Borges “El jardín de los senderos que se bifurcan”, el algoritmo predice cientos de futuros posibles con un mínimo cambio de factores en la situación inicial.
Tecnología y política
Si el primer paso fue la recolección masiva de datos y el segundo fue la predicción, el tercer y último paso en el recorrido de la big data es la interpretación de la información y la implementación de políticas públicas. Y, como el lector podrá imaginar, en el término “políticas públicas,” la clave está en la palabra “política”. Las diferencias idiosincráticas entre culturas resulta determinante en el margen que tienen los gobiernos para recolectar y usar datos de los ciudadanos.
Una de las razones por las que, en los países asiáticos, se controló mejor la proliferación del COVID-19 es que allí la barrera entre lo público y lo privado tiene otros parámetros. Si en Corea y en Taiwán no hizo falta obligar a los ciudadanos a la reclusión obligatoria fue porque la población es más obediente que en Occidente y confía más en el Estado. De acuerdo con el filósofo coreano Byung-Chul Han, no solo en China, sino también en Corea y en Japón, la vida cotidiana está organizada mucho más estrictamente que en Europa. Sobre todo, para enfrentarse al virus, los asiáticos apuestan fuertemente por la vigilancia digital.
Según el autor, en Asia, no existe nada parecido a la protección de datos personales, y el Estado dispone abiertamente de recursos para recolectar datos de cada movimiento de cada individuo y los procesa para tomar medidas. Con los primeros casos de coronavirus, en Taiwán, el Estado enviaba simultáneamente a todos los ciudadanos un SMS para localizar a las personas que tuvieron contacto con infectado o para informar acerca de los lugares y edificios donde hubo personas contagiadas. Quien se aproximaba en Corea a un edificio en el que estuvo un infectado, recibía una señal de alarma a través de una app oficial. Es lo que los occidentales llamamos “seguimiento vertical”: un equipo de expertos lleva registro exhaustivo de personas contagiadas y se encarga de protegerlas de su entorno. Es difícil llevar a cabo algo así en los países latinoamericanos, no solo por falta de recursos sino porque, al igual que en Europa, muchos usuarios no permiten que el Estado tenga esos niveles de intervención en su vida privada.
El filósofo romano Giorgio Agamben, ciertamente más occidental que Byung-Chul Han, publicó un artículo en el que criticaba la medida de cuarentena obligatoria en Italia, ya que la consideraba parte de lo que él llama “Estado de excepción”: un Estado que quiere controlar a sus ciudadanos, seguir todos sus pasos e inmiscuirse en sus libertades individuales necesita una excusa, una excepción impulsada por razones de fuerza mayor, para que la ciudadanía acepte ceder parte de sus derechos. Para Agamben, la manera en que los Estados promueven la educación en línea no es más que una excusa para controlar todo intercambio entre alumnos y profesores; del mismo modo, en el fondo, el cierre de fronteras es un intento de recuperar la soberanía estatal.
Naomi Klein, activista y escritora canadiense, presenta una tesis en su famosa obra La doctrina del shock: las más virulentas políticas de libremercado se impusieron en momentos en los que un desastre impedía la participación ciudadana. Su primer ejemplo es la educación pública de Nueva Orleans: antes del huracán Katrina había 123 establecimientos públicos; después, 4. Se había impuesto el sistema privado subsidiado. Si bien Agamben y Klein presentan quejas por razones ideológicas que en principio parecen opuestas, ambos coinciden en el diagnóstico: las catástrofes son excusas para implementar políticas que perjudican al grueso de la población.
Con este paisaje conceptual de fondo, el uso que los gobiernos occidentales pueden hacer de la big data, ya sea recolectada por empresas o por vías estatales, todavía es acotado, lo cual significa que queda mucho camino por recorrer. Si pensamos en las posibles consecuencias del coronavirus a largo plazo, más allá del plano sanitario, es probable que ya no miremos con los ojos de la distopía los avances tecnológicos basados en datos masivos, y, no menos importante, tal vez nos espera un cambio en la línea que separa lo público de lo privado.
LEA MÁS