Yuval Noah Harari: “Hitler y Stalin no podían controlar a la gente todo el tiempo, la Inteligencia Artificial puede”

El autor de “Sapiens” dialogó con la prensa en español para presentar “Nexus”, su nuevo libro sobre los peligros que podrían venir. Explicó por qué es diferente de todas las tecnologías anteriores, qué implicaría su autonomía, cómo amenaza la privacidad y qué podría hacerle a nuestra psicología y nuestras estructuras sociales

En su nuevo libro, Nexus, Yuval Noah Harari alerta sobre los peligros de la inteligencia artificial (IA), que es “un agente”, es decir una entidad con capacidad de actuar en el mundo, no ya una mera herramienta del ser humano. “Es un agente independiente”, repitió en diálogo con periodistas de América Latina y España. “Por eso es diferente de cualquier tecnología anterior que hayamos inventado”. Como si la bomba atómica pudiera ser capaz de decidir dónde cae y mejorar su propia tecnología por sí misma.

La IA puede. “Empieza produciendo textos, imágenes, código informático. Y en última instancia podría crear una IA más poderosa”, explicó. Una explosión de la IA que quedaría fuera del control humano.

“La gente del sector está atrapada en esta mentalidad de carrera armamentística, algo extremadamente peligroso”, subrayó. La idea de desarrollar la IA tan rápido como se pueda y luego, en el camino, a medida que aparezcan los problemas, ir viendo cómo se pueden resolver, le resulta descabellada. “Es como si alguien pusiera en la carretera un automóvil sin frenos y te dijera: ‘Nos centramos en que vaya todo lo rápido que pueda, y si hay algún problema en el camino, buscamos la manera de inventar unos frenos e instalarlos”, ironizó. “No funciona así en los coches”. Y difícilmente vaya a funcionar con la IA, cree el autor de Sapiens.

book img

Nexus

Por Yuval Noah Harari

eBook

$14,99 USD

Comprar

En un hotel de los Estados Unidos, donde está de gira para la presentación de Nexus, que también ha salido en inglés —sus libros han vendido más de 45 millones de ejemplares en 65 idiomas—, Harari se centró en uno de los temas de su nueva obra, que toca en un punto sensible del presente: cómo afecta a la sociedad la tendencia humana a invocar poderes que luego no podemos controlar.

La IA, una inteligencia que no está basada en carbono, como el cerebro de las personas, sino en materiales inorgánicos, nace libre de muchas de las limitaciones orgánicas de nuestras neuronas. “Los chips de silicio pueden generar espías que nunca duermen, banqueros que nunca olvidan y déspotas que nunca mueren”, advirtió el profesor que dicta historia en la Universidad Hebrea de Jerusalén.

Desde luego, reconoció en la rueda de prensa, la IA “tiene un enorme potencial positivo”. Quizá no muy lejos en el siglo XXI haya una revolución en la atención de la salud, dio como ejemplo: “Hoy hay escasez de médicos en muchos países, pero podríamos tenerlos en número ilimitado, y con mucho más conocimiento que cualquier médico humano, actualizado a diario con todos los hallazgos de toda la investigación en todo el mundo. Podríamos tenerlos con nosotros las 24 horas del día dándonos consejos adaptados a nuestra biología individual. Esto es algo que los médicos humanos no pueden hacer y, además, será mucho más barato que un médico humano”.

Y, sin embargo, él eligió que Nexus se concentrara en “el lado peligroso de la IA”. La razón es sencilla, contó: “Tenemos a todas estas corporaciones extremadamente ricas y poderosas que inundan a la gente con las historias positivas, con las predicciones optimistas, e ignoran los peligros. Así que se convierte en el trabajo de los filósofos, los historiadores como yo, iluminar el otro lado”. Como hombre de ciencia, nunca se le ocurriría oponerse al desarrollo de un saber. “Sólo digo que hay que invertir más en seguridad. Asegurarse de que esta tecnología es segura, algo de sentido común en todas las demás industrias”.

ChatGPT es la ameba: ¿cómo será el dinosaurio de la IA?

Harari destacó la importancia de que la más reciente de la IA haya cobrado la capacidad de crear historias. “Ya sé que mucha gente dice que que escribe textos que no son muy buenos, que crea música que no es muy buena, que produce imágenes con errores como gente con seis dedos. Pero estos son solo los primeros pasos de la IA. Aún no hemos visto nada”.

La revolución de la IA tiene unos 10 años, estimó, y propuso una comparación con la evolución biológica: “Los sistemas de IA de hoy son sólo amebas. Son IA muy, muy simple. Recordemos que a las amebas les tomó miles de millones de años evolucionar hasta ser dinosaurios y mamíferos y humanos, porque la evolución orgánica es lenta. Pero la digital es muchísimo más más rápida. ChatGPT, la ameba IA, no tardará mil millones de años en evolucionar hacia el dinosaurio IA. Podría llevarle sólo 10 o 20 años. ¿Y cómo sería el T-Rex de la IA? ¿Qué podría hacer?”.

Lo que hacen hoy los grandes modelos de lenguaje (LLM) no es una versión ampliada de la función de autocompletar en el buscador de Google, insistió el pensador israelí, uno de los más influyentes del mundo contemporáneo. “Puede crear párrafos enteros e historias y ensayos que están llenos de errores, pero tienen sentido. Esto es algo que se les hace difícil a los humanos: como profesor universitario, leo un montón de trabajos escritos por estudiantes que tienen dificultades para escribir un ensayo coherente que cree un argumento mediante la conexión de diferentes ideas. La IA ya puede hacerlo. Ahora mismo. ¿Dónde estará dentro de cinco o diez años?”.

Es difícil también imaginar qué impacto puede tener, desde lo más superficial a lo más íntimo, en la vida de las personas, que hasta el momento hemos vivido “protegidas en el capullo de la cultura humana”, definió Harari. “Todas las historias, toda la música, todos los poemas, todas las imágenes eran producto de la mente humana. Ahora, cada vez más de estos artefactos culturales será el producto de una inteligencia ajena. ¿Qué hará esto a la sociedad humana? ¿A la psicología humana? Nadie lo sabe”.

El sueño del pibe totalitario

Ya en Homo Deus Harari había hablado sobre algunos de los riesgos que que las nuevas tecnologías de la información plantean a la humanidad. Pero, al crear un agente capaz de tener independencia, y no ya una herramienta sometida a la voluntad humana, la IA abre puertas inexploradas. Sobre todo en un momento de crisis global profundamente definida por las asimetrías y la polarización. “La conversación se está rompiendo”, señaló. “La gente no puede ponerse de acuerdo en los hechos más básicos, la gente ya no puede mantener una conversación racional”. Y Harari no puede dejar de pensar que esto sucede justo después que “estos gigantes de la tecnología crearan tecnologías de la información increíblemente sofisticadas que, según nos prometieron, nos iban a conectar”.

Sin ser determinista —”todo depende de las decisiones que tomemos”, dijo en más de una ocasión a lo largo del diálogo con los periodistas—, Harari cree que es imprescindible “comprender que en la IA hay un potencial totalitario como no hemos visto antes”.

A diferencia de los regímenes autoritarios, que controlan la esfera política pero dejan al individuo la mayor parte del tiempo, el totalitarismo necesita saber qué hace cada persona cada minuto del día. “Stalin en la Unión Soviética y Adolf Hitler en Alemania no querían solamente controlar el ejército y el presupuesto: querían controlar cada aspecto de la vida, la totalidad de la vida de la gente, cada momento. Lo que oyes, lo que ves, lo que dices, con quién te encuentras. Pero Hitler y Stalin tenían límites a la hora de controlar a sus súbditos porque no podían seguir a todo el mundo todo el tiempo”. La IA puede. No necesita descansar ni comer, no quiere salir con la pareja ni tomarse vacaciones en la montaña.

Incluso si Hitler o Stalin hubieran tenido tres agentes de inteligencia por cada ciudadano, ¿quién iba a leer y procesar todos esos informes, tres por día, sobre cada uno? “Esa información es sólo la base para el régimen totalitario, alguien necesita leer todos los papeles, analizarlos y encontrar patrones”. La IA no dejará que los prontuarios acumulen polvo en una oficina. “La IA podría hacer posible la creación de regímenes de vigilancia total que aniquilarían la privacidad”, resumió Harari. “En un país de IA, no se necesitan agentes humanos para seguir a todos los humanos a todas partes: tienes smartphones y reconocimiento facial y computadoras. Y tampoco se necesitan analistas humanos para revisar toda la información: la IA puede revisar inmensas cantidades de información (videos, imágenes, textos, audio), analizarla y reconocer patrones”.

Menos ingenuidad y más compasión

Nexus retoma ideas de Sapiens y 21 lecciones para el siglo XXI para recordar que la cooperación hizo que el módico Homo sapiens se convirtiera en lo que es hoy. “El argumento principal de este libro es que la humanidad consigue un poder enorme mediante la construcción de grandes redes de cooperación, pero la forma en que se construyen dichas redes la predispone a hacer un uso imprudente del poder”.

Un tema central es lo que llama ”la ideología semioficial de la era de la informática y de internet”, según la cual a mayor información, más conocimiento. Esa falacia, o “visión ingenua, que domina lugares como Silicon Valley” confunde información con verdad. Pero información es el material en bruto: “La verdad es un subconjunto raro dentro de la información”. La mayor parte de la información del mundo, enfatizó, “es basura, no es verdad”. Es muy fácil crear y diseminar información falsa. En cambio, “la verdad es costosa, requiere tiempo, dinero y esfuerzo”.

La visión ingenua sería, en el fondo, curiosamente anticientífica. Después de todo, según esta perspectiva —ilustra en el libro— un racista es una persona mal informada a la que hay que darle más datos sobre la biología y la historia. Esto, se sabe, no se verifica en la vida real.

“Esa visión ingenua justifica la búsqueda de tecnologías de la información cada vez más potentes” y la liberación en las carreteras de automóviles sin frenos. A la vez, se complementa de una manera perniciosa con la mirada más cínica de la humanidad, una concepción donde “históricamente se encuentran la extrema derecha y la extrema izquierda”, opinó. “Comparten una profunda desconfianza en las instituciones que son garantes de la verdad. Lo que se oye tanto en la extrema derecha como en la extrema izquierda es la sospecha de todas las instituciones que tradicionalmente fueron establecidas por la sociedad humana para identificar y promover la verdad, de los medios de comunicación a las universidades, pasando por los tribunales”.

¿Por qué? “Tanto la extrema derecha como la extrema izquierda comparten una visión muy cínica del mundo, según la cual la única realidad es el poder: a los seres humanos sólo les interesa ganar poder y todas las interacciones humanas son luchas de poder”.

Para cerrar con un tono más amable, Harari recordó que no es la única perspectiva. “Deberíamos recordarnos a nosotros mismos que existe una visión más compasiva de los humanos. No todo el mundo está obsesionado con el poder. No siempre que alguien me dice algo está intentando manipularme. ¿Existe la corrupción? Sí, y para eso tenemos varias instituciones que se equilibren entre sí. Pero la idea de que todo el periodismo es sólo una camarilla elitista para manipular a la gente, que toda la ciencia es sólo una conspiración. Esta visión tan cínica está destruyendo la confianza y la democracia”.