La inteligencia artificial: principios básicos para un uso ético

Hernán Elman

Guardar

La inteligencia artificial ya no es ciencia ficción. Tampoco es patrimonio de centros de investigación. La mayoría de los celulares puede hoy aprender la rutina de su dueño y recomendarle cuándo salir de su casa para llegar a tiempo al trabajo, sugerirle la ruta más conveniente teniendo en cuenta el tráfico en tiempo real, reconocer cuándo ha llegado a casa o ponerse en silencio durante una clase o una reunión que agendó leyendo los mails, es capaz incluso de elegir el momento más agradable para despertarnos de acuerdo con el análisis que hace de nuestro sueño, desde la mesa de luz, mientras dormimos. Puede también reservar por teléfono una mesa en un restaurante, sin que el interlocutor sospeche que habló con una IA, superando sin mayor esfuerzo el test de Turig —la que juzga si las respuestas de una máquina son distinguibles de las de un ser humano. El teléfono, las tv y los parlantes inteligentes, e incluso los vehículos con reconocimiento de voz, además, escuchan todo el tiempo, pudiendo registrar e interpretar nuestro comportamiento.

Desde 1936, cuando el matemático inglés Alan Turig diseñó una máquina universal que demostró la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido, la capacidad de procesamiento de las computadoras no se ha detenido. En 1997, cuando el campeón mundial de ajedrez Gari Kaspárov perdió ante la computadora autónoma Deep Blue, quedó claro que en el futuro cercano ya no podríamos seguir el ritmo de la curva de aprendizaje las máquinas.

Hoy ya no es viable programar a una IA, caso contrario, no se diferenciaría en nada de la computación tradicional. La inteligencia artificial debe aprender por sí misma. El machine learning o aprendizaje automático, clave para enseñar a las computadoras a pensar y entender el mundo de la manera que nosotros lo hacemos, potenciado por paradigmas de aprendizaje automático como el de las redes neuronales —inspirado en las neuronas de los sistemas nerviosos de los animales—, y el desarrollo de algoritmos de aprendizaje profundo o deep learning, están llevando la inteligencia artificial a otro nivel, una dimensión totalmente nueva para la humanidad, cada vez más sorprendente y más lejana a nuestra propia capacidad, que además avanza a una velocidad vertiginosa.

En 2017 los especialistas de Facebook probaban un sistema que ellos mismos crearon para que un "chatbot", es decir, una suerte de robot virtual de conversación, pudiera aprender a negociar y hacerse pasar por un humano en una negociación. Olvidaron indicarle que debía comunicarse en inglés y el resultado fue tan asombroso como desconcertante: los técnicos descubrieron que el sistema inventó su propio lenguaje, más eficiente y directo, y comenzó a dialogar con otro bot en su propia lengua, por lo que la compañía decidió desconectarlo. Siendo que ninguna máquina ha logrado hasta ahora el más mínimo grado de conciencia y autonomía, esta omisión humana mostró que aún desconocemos el verdadero potencial de las máquinas.

Hoy las aplicaciones de inteligencia artificial pueden entender un texto y el ánimo de su autor, pueden componer música, diagnosticar enfermedades, conducir vehículos, manejar el tránsito, reconocer a una persona ya no por sus datos biométricos sino por su forma de caminar, hacer bromas políticas como @DeepDrumpf —un robot que se hace pasar por Donald Trump en Twitter—, crear noticias y también videos con noticias falsas, conocer nuestros intereses y proponer todo tipo de contenidos en relación con ellos —posiblemente la tecnología que más utilizamos a diario sin saber que se basa en IA—, generar comentarios masivos en redes sociales, y hasta diferenciar una vaca de otra por su rostro. Ello sin mencionar el análisis de grandes volúmenes de datos para la toma de decisión y los múltiples usos militares, en la prevención del delito, la agricultura, y la previsión de catástrofes naturales, entre otros.

Hace dos años un grupo de expertos aprobó los llamados principios de Asilomar, como resultado de una conferencia organizada por el Future of Life Institute. Se trata de 23 pautas generales (algunas demasiado generales) que deberían tenerse en cuenta con el fin de establecer las bases del desarrollo de las futuras plataformas de inteligencia artificial, y evitar los riesgos que podría suponer para la humanidad el desarrollo de esa tecnología —pensando en la posibilidad de que un día las máquinas tomen el control—, una suerte de extensión de las conocidas tres leyes de la robótica de Asimov, hasta ahora patrimonio de la literatura fantástica.

Los principios han sido apoyados por más de 1200 figuras relacionadas con la innovación tecnológica y científica como Stephen Hawking y Elon Musk, junto a más de ochocientos investigadores especializados en IA de los más reconocidos institutos y universidades del mundo, muchos de los cuales vienen advirtiendo —algunos con mucha preocupación— sobre la necesidad de legislar en la materia.

Curiosamente, mientras todo esto sucede frente a nuestros ojos, y distintos países como China y los Emiratos Árabes Unidos, país que cuenta con un ministro de IA, pretenden liderar a nivel mundial el avance de la inteligencia artificial para 2030, no existe en ninguna parte del mundo una ley que las regule.

Uno de los más implicados en la regulación ética de la inteligencia artificial es el Reino Unido, donde el Comité de Inteligencia Artificial de la Cámara de los Lores de Gran Bretaña acaba de proponer cinco principios básicos para su uso ético. También la Unión Europea designó a un "grupo de expertos de alto nivel" para que ayude a regular el avance de la inteligencia artificial, mientras Estados Unidos avanza en el mismo sentido.

Posiblemente los organismos multilaterales de cooperación sean un ámbito propicio para el desarrollo de normas éticas de carácter general sobre el desarrollo y la regulación de estas tecnologías, pero resulta también necesario comenzar a pensar en cada país cuál es la mejor manera de proteger los derechos de las personas en el derecho positivo.

Oren Etzioni, director del Instituto Allen para la Inteligencia Artificial, propuso tres reglas que parecen muy oportunas como base de cualquier sistema normativo: un sistema con inteligencia artificial debe someterse al amplio espectro de leyes a las que se somete su operador humano, debe exponer con claridad que no es humano y no puede guardar ni difundir información confidencial sin la aprobación explícita de la fuente.

A medida que las nuevas tecnologías avancen en autonomía, resultará también necesario en nuestro país revisar, entre otros aspectos, lo previsto por el Código Civil y Comercial de la Nación en relación con la atribución de la responsabilidad por daños producidos por sistemas de IA. También se volverá más borroso el límite a la responsabilidad por omisión que establece su artículo 1710, es decir, cuando no se hayan adoptado las medidas razonables para evitar que se produzca un daño, vista a veces la indeterminable capacidad predictiva de estos sistemas.

La legislación habitualmente no precede las necesidades de la sociedad, sino que las regula una vez que están presentes. Reconocer que la inteligencia artificial ya es parte de nuestra vida, y entender los riesgos que presupone que la normativa no esté adaptada a ello, parece un buen punto de partida.

El autor es director del Centro Digital de Documentación Judicial del Consejo de la Magistratura (CENDDOJ).

Guardar