Ni inteligente ni artificial

Está limitada por la programación y los datos con que trabaja y se entrena

Guardar
La inteligencia artificial detecta los patrones que impactan en el cerebro (Unsplash)
La inteligencia artificial detecta los patrones que impactan en el cerebro (Unsplash)

El término “Inteligencia Artificial (AI)” se ha popularizado pasando desde los ámbitos científicos y académicos hasta el lenguaje corriente. Ya es un lugar común, una denominación que parece ser irreversible, la que en todo caso no creo que pueda ser cambiada, porque ya está instalada. Me interesa hacer unas precisiones y llamar la atención acerca de la naturaleza de esta herramienta, que asumimos casi irreflexivamente como inteligente y artificial sin serlo. A mi juicio, es lo que la hace más peligrosa. Lo que la AI tiene de peligrosa es, justamente, que no es inteligente ni es artificial.

La denominación ha resultado útil y de fácil comprensión para designar una herramienta, un sistema de informática avanzada, basada en una “ciencia e ingeniería que hace que las máquinas actúen de manera inteligente”, según la definición clásica de quien la introdujo hace sesenta y siete años, el científico y matemático norteamericano John McCarthy, considerado uno de sus padres. En 1956 se reunió en el Dartmouth College, New Hampshire, un grupo de científicos y expertos, convocados para explorar la posibilidad de crear máquinas que pudieran tener un comportamiento inteligente “similar al humano”.

Hay que tener claro que se trata de una herramienta de automatización de tareas y procesamiento de datos a gran escala, utilizable en las más distintas manifestaciones de nuestra vida. Está compuesta de un conjunto de técnicas y de tecnologías que se diseñan para realizar tareas específicas con mayor velocidad, precisión y alcance que si las realiza un ser humano. Pero está limitada por la programación y los datos con que trabaja y se entrena. Por cierto, produce resultados asombrosos y facilita la toma de decisiones, la investigación científica, la ciencia de datos, medicina, derecho, arte, acceso a la información, transporte en vehículos autónomos aéreos o terrestres, construcción, agricultura, asistentes virtuales, robots colaborativos, y muchas más aplicaciones actuales y por venir. Cada vez más utilizada en la educación, la creación artística y la academia. Con el desarrollo de la IA generativa, la IA abierta, cuya expresión más popularizada es el ChatGPT en sus distintas versiones, su impacto se ha vuelto rápidamente masivo. Pero también la proliferación de peligrosas fakenews orales, escritas y de imágenes. Su cuestionada aplicación al desarrollo de armamento nuclear sofisticado y “autónomo”, es una de las mayores preocupaciones que genera este instrumento.

¿Por qué no es inteligente ni artificial?

Conforme a la definición generalmente aceptada, es una ciencia e ingeniería que “hace” que las máquinas -léase los computadores- actúen “de manera inteligente”. Es decir, que pudieran tener un comportamiento inteligente “similar al humano”. Claramente, entonces, no es lo mismo que la inteligencia humana. Veamos.

Primero, si nos atenemos a lo que la comunidad científica y el pensamiento filosófico consideran los atributos de la inteligencia, podemos apreciar que aquellos fundamentales que distinguen a los seres humanos no están presentes en la herramienta informática que denominamos “Inteligencia Artificial”. En efecto, consideremos algunos de los principales atributos característicos de la inteligencia humana: autoconciencia, es decir, la comprensión de uno mismo, tener conciencia de sí y su relación con el mundo; capacidad de efectuar juicios informados sobre situaciones reales; resolución de problemas de diferentes grados de complejidad; pensamiento lógico; capacidad de aprender, memorizar, acumular y procesar conocimientos y experiencias; adaptabilidad; capacidad de abstracción; desarrollo del lenguaje como expresión de ideas propias; creatividad para generar ideas originales y novedosas; emocionalidad; habilidades sociales.

Algunos de estos atributos de la inteligencia pueden estar presentes en la IA, como, por ejemplo, resolución de problemas complejos; capacidad de aprender, memorizar, acumular y procesar conocimientos (no así experiencias); desarrollo del lenguaje (pero no para expresión de ideas propias). Sin embargo, no cuenta ni puede contar con los fundamentales, como la autoconciencia, capacidad de abstracción, generación de ideas originales, emocionalidad y habilidades sociales.

Segundo: tampoco podemos decir que se trata de un tipo de inteligencia “artificial”, ya que todo lo que genera es producto de una deliberada acción humana, que pretende unos determinados resultados. La IA puede parecer inteligente para realizar determinadas funciones, incluso con mayor velocidad, precisión y amplitud que si las realiza un ser humano, pero carece de la comprensión profunda, la conciencia y la creatividad propias de la inteligencia humana, ya que todo lo que la IA genera proviene y depende de la programación, los datos, el software con que es alimentada y el hardware que la aloja. Incluso si la capacidad del software y hardware (por ejemplo, la computación cuántica) tienen en sí mismos la potencialidad de generar unos desarrollos continuos progresivos de la herramienta (“aprender de los datos”), siempre dependerá de la programación y la alimentación de datos que le sean proporcionados por los humanos.

La inteligencia artificial aplicada al arte (AP)
La inteligencia artificial aplicada al arte (AP)

¿Por qué entonces consideramos la IA peligrosa y potencialmente amenazante para la humanidad?

Primero, porque si se entregan a la IA determinadas funciones para que sean realizadas de manera automática y autónoma -por ejemplo, su aplicación para el uso de armamento nuclear en determinadas circunstancias prefijadas, como la cuestionada introducción en el tipo de armamento LAWS (Lethal autonomous weapons)- armamento autónomo que al carecer de discernimiento, racionamiento y emocionalidad, inclusive de intuición, no sería capaz de tomar una decisión diferente a la prefigurada si las circunstancias cambiaran en el último momento. Cabe recordar aquí el caso de Stalislav Petrov, oficial ruso que evitó una guerra nuclear con Estados Unidos, al intuir que eran erróneos los datos que estaban entregando los sistemas rusos de alerta nuclear temprana, sobre un misil supuestamente lanzado por Estados Unidos contra territorio soviético. La información habilitaba para una respuesta soviética mediante misiles nucleares contra territorio estadounidense, lo que habría desencadenado una hecatombe. Petrov dudó de la información, basado en su intuición y racionamiento lógico, y decidió no informar hasta reconfirmar los datos, lo que finalmente permitió evitar la respuesta automática de la URSS. Es conocido como “el caso del hombre que salvó al mundo”. Con el sistema LAW, se habría producido dicha hecatombe nuclear.

Lo mismo podría ocurrir en intervenciones quirúrgicas robotizadas, en alertas de desastres, en procesamiento de datos, administración de ciudades, etc. si las decisiones son entregadas a máquinas que no son inteligentes, sin el control y la intervención humana.

Segundo, porque los sistemas y datos con que funciona la herramienta son producto de decisiones humanas, de intencionalidad humana, con toda su carga de juicios y prejuicios, incluso sin que sean deliberadamente introducidos así. Ya se ha probado por ejemplo en los sistemas de reconocimiento facial con fines de detección de criminalidad, que fallan hasta en un 95% , o en la aplicación de pruebas de selección, etc. La máquina actúa con los mismos parámetros éticos, prejuicios, animosidades y discriminación presentes en la información entregada por los programadores. Como señalan Roser Martínez y Joaquín Rodríguez, de la Universidad Autónoma de Barcelona (“El lado oscuro de la Inteligencia artificial” mayo 2020, Revista Idees, del Centro de Estudios de Temas Contemporáneos de la Generalitat de Catalunya), hay un mito de que las máquinas pueden adoptar comportamientos éticos-morales si estos son correctamente codificados. Pero es evidente que una máquina no puede tener ni ética ni moral ni intuición propia. En todo caso podrá tener la ética de quien lo ha codificado. Será una simulación de la ética del programador, una réplica del ingeniero o una combinación de los datos que encuentre en la nube.

¿Dónde poner el foco de la gobernanza y la regulación?

Considerando los riegos, las amenazas, pero también las potencialidades positivas de esta herramienta, resulta complejo acertar en el tipo de gobernanza y el grado de regulación que, en todo caso, es a todas luces necesario acometer. A este análisis de fondo están abocados expertos, académicos, científicos, políticos de diferentes organizaciones, universidades y centros de pensamiento. El Millennium Project acaba de emitir un informe con ideas y opiniones de 55 expertos y líderes del sector, el Senado de EEUU se está ocupando del tema en clave regulatoria, la UE está en ello también, el Consejo de Seguridad y el Secretario General de las Naciones Unidas alientan la creación de una Agencia o un sistema de gobernanza de la IA, para lo que se ha convocado a un grupo de estudios que perfile esta iniciativa y se adopte una decisión en la Cumbre del Futuro de 2024. Desde el sector privado, las plataformas Google, Microsoft y OpenAI, en un intento de autoregulación, acaban de anunciar la formación del Frontier Model Forum para orientar el desarrollo de esta herramienta.

Hay conciencia del peligro de una herramienta de tanto impacto y potencialidad. Las advertencias de que podría desbordarse, tomar decisiones por sí misma y superar la inteligencia humana no son plausibles. Lo que puede desbordarse y constituir una amenaza estratégica y existencial, es su programación equívoca y perversa, junto con su utilización contraria a la seguridad y los derechos humanos. O sea, por decisión humana. Por eso, hay que atinar donde poner el foco de la gobernanza y la regulación, teniendo clara su naturaleza, un sistema automático con alimentación humana, que no es inteligente ni artificial, al que debería estar prohibido encargar ciertas tareas críticas y sensibles, y estar debidamente reguladas las demás aplicaciones. Eso significa que la investigación y desarrollo del sistema debe contar con parámetros precisos, suficientes, vinculantes y supervisados, con base en un consenso internacional de la comunidad científica, académica, política y social en el marco de las Naciones Unidas.

Guardar