Los riesgos de la inteligencia artificial

Inteligencia artificial (istock)

La inteligencia artificial ya llegó y tiene un impacto sustancial en nuestra vida cotidiana. La usamos cuando hacemos una búsqueda en internet, cuando nos taggean en una foto en redes sociales o cuando viajamos y traducimos un cartel o el título de un diario con el celular. Pero también se utiliza en sectores más sensibles para la sociedad y para cada individuo como, por ejemplo, la seguridad pública, la salud, el transporte y las investigaciones judiciales. Esto no solo abrirá la puerta a posibilidades, sino también a serios riesgos.

La inteligencia artificial genera la posibilidad de analizar grandes cantidades de datos de diferentes fuentes para entender patrones de comportamiento y ayudar a los especialistas humanos a tomar mejores decisiones. Además, puede ayudar a incrementar los niveles de productividad de la economía y generar mayores ganancias en las empresas, entre otras. El Estado debe impulsar e incentivar el desarrollo de tecnologías que ayuden a mejorar áreas estratégicas de la gestión pública, pero siempre teniendo en cuenta los potenciales riesgos asociados.

Uno ineludible son los accidentes y las fallas propias de un sistema en constante desarrollo y perfeccionamiento. Este tipo de problema puede provocar desde el colapso de una sistema masivo de energía hasta un mal diagnóstico médico. Sin embargo, se trata de un riesgo esperable y, en consecuencia, puede ser limitado con planificación, formación profesional y control constante.

El segundo potencial riesgo es más complejo ya que es imprevisible: el ciberterrorismo. Puede ser un sabotaje desde adentro del sistema, un ataque de terceros o una manipulación de la información y la tecnología. En todos los casos, con la explícita intención de provocar daños. En este punto no es necesario plantear escenarios apocalípticos. Un ejemplo reciente han sido las denuncias en Estados Unidos y Europa por la manipulación de los datos privados de usuarios en las redes sociales con fines electorales.

En el mundo actual, el ciberterrorismo gana cada vez más espacio en las agendas de seguridad de las potencias mundiales como Estados Unidos, pero también de países menos centrales como Argentina. Todo desarrollo e implementación de inteligencia artificial deberá incluir sistemas de seguridad acordes a las nuevas amenazas y esto demandará, para el Estado, una mayor cooperación técnica con los países que hace años vienen preparándose.

El tercer riesgo es económico. Las grandes empresas están en mejores condiciones de invertir en sistemas de inteligencia artificial que les permitan mejorar su productividad. Esto, a su vez, podría cimentar su posición privilegiada en el mercado y hasta crear o consolidar monopolios y oligopolios. Además, el desarrollo de estos sistemas podría reemplazar el trabajo humano y contribuir al desempleo tecnológico.

Teniendo en cuenta todos estos riesgos, los gobiernos nacionales y locales deben comenzar a pensar, diseñar e implementar estrategias para permitir e incentivar un desarrollo responsable de los sistemas de inteligencia artificial en las áreas sensibles y necesarias para la sociedad. Esto significa, por un lado, estar preparado para proteger los intereses nacionales y los derechos individuales de los ciudadanos. Por otro lado, también supone crear un marco legal y las condiciones de mercado para capitalizar las posibilidades y limitar los riesgos asociados a este tipo de innovación tecnológica, tanto en el ámbito público como en el privado.

Países como China, Canadá, Francia, Reino Unidos, Corea del Sur, Finlandia, Dinamarca e India, entre otros, lanzaron sus estrategias nacionales para el desarrollo de la inteligencia artificial hace dos años y Estados Unidos se sumó hace unos meses. Sus planes incluyen, en primer lugar, inversiones en capital humano como maestrías y doctorados, programas de formación y becas para especializarse en inteligencia artificial. En segundo lugar, incentivos para el desarrollo empresarial como créditos fiscales para investigación, la creación de parques industriales para el sector e infraestructura digital pública.

Finalmente, desarrollaron herramientas de gestión de riesgos como normas de ética, regulaciones, esfuerzos concretos para acotar el sesgo de los algoritmos utilizados para implementar los sistemas de inteligencia artificial, y están fomentando mayor cooperación internacional para avanzar en la gobernanza de los sistemas de inteligencia artificial y garantizar la seguridad colectiva.

El mundo está discutiendo esto. Líderes y referentes de distintas ciudades se dan cita este mes en Barcelona en la Smart City Expo World Congress para compartir y debatir sobre sus experiencias. Desde Argentina, tenemos que participar de esta discusión y prepararnos para este desarrollo tecnológico inevitable.

La autora es directora ejecutiva del Centro para la Evaluación de Políticas basadas en la Evidencia (CEPE) de la Universidad Torcuato Di Tella y presidirá la sesión de Inteligencia artificial de la Smart City Expo World en Barcelona (19-21 noviembre).