El miedo a la inteligencia artificial (IA) ha perseguido a la humanidad desde el comienzo de la era informática. Hasta ahora, estos temores se centraban en las máquinas que utilizaban medios físicos para matar, esclavizar o sustituir a las personas. Sin embargo, en los últimos años han aparecido nuevas herramientas de inteligencia artificial que amenazan la supervivencia de la civilización humana desde una dirección inesperada. La inteligencia artificial ha adquirido notables capacidades para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes.
El lenguaje es la materia de la que está hecha casi toda la cultura humana. Los derechos humanos, por ejemplo, no están inscritos en nuestro ADN. Son más bien artefactos culturales que creamos contando historias y escribiendo leyes. Los dioses no son realidades físicas. Son más bien artefactos culturales que creamos inventando mitos y escribiendo escrituras.
El dinero también es un artefacto cultural. Los billetes no son más que trozos de papel de colores y, en la actualidad, más del 90% del dinero ni siquiera son billetes, sino información digital almacenada en ordenadores. Lo que da valor al dinero son las historias que banqueros, ministros de finanzas y gurús de las criptomonedas nos cuentan sobre él. Sam Bankman-Fried, Elizabeth Holmes y Bernie Madoff no eran especialmente buenos creando valor real, pero todos ellos eran narradores extremadamente capaces.
¿Qué pasaría cuando una inteligencia no humana fuera mejor que el ser humano medio para contar historias, componer melodías, dibujar imágenes y redactar leyes y escrituras? Cuando la gente piensa en ChatGPT y otras nuevas herramientas de Inteligencia Artificial, suele pensar en ejemplos como el de los escolares que utilizan la Inteligencia Artificial para escribir sus redacciones. ¿Qué pasará con el sistema escolar cuando los niños hagan eso? Pero este tipo de pregunta no tiene en cuenta el panorama general. Olvídese de las redacciones escolares. Piensa en las próximas elecciones presidenciales de Estados Unidos en 2024 e intenta imaginar el impacto de las herramientas de inteligencia artificial que pueden utilizarse para producir en masa contenido político, noticias falsas y escrituras para nuevos cultos.
En los últimos años, el culto qAnon se ha aglutinado en torno a mensajes anónimos en línea, conocidos como “q drops”. Los seguidores coleccionaban, veneraban e interpretaban estos q drops como un texto sagrado. Aunque, por lo que sabemos, todos los q drops anteriores fueron compuestos por humanos, y los bots simplemente ayudaron a difundirlos, en el futuro podríamos ver los primeros cultos de la historia cuyos textos venerados fueron escritos por una inteligencia no humana. A lo largo de la historia, las religiones han reivindicado una fuente no humana para sus libros sagrados. Pronto podría ser una realidad.
En un plano más prosaico, pronto podríamos encontrarnos manteniendo largas discusiones en línea sobre el aborto, el cambio climático o la invasión rusa de Ucrania con entidades que creemos humanas, pero que en realidad son IA. El problema es que es totalmente inútil que dediquemos tiempo a intentar cambiar las opiniones declaradas de un bot de inteligencia artificial, mientras que la inteligencia artificial podría perfeccionar sus mensajes con tanta precisión que tendría muchas posibilidades de influir en nosotros.
Gracias a su dominio del lenguaje, la IA podría incluso entablar relaciones íntimas con las personas y utilizar el poder de la intimidad para cambiar nuestras opiniones y visiones del mundo. Aunque no hay indicios de que la IA tenga conciencia o sentimientos propios, para fomentar una falsa intimidad con los humanos basta con que la IA consiga que estos se sientan emocionalmente unidos a ella. En junio de 2022, Blake Lemoine, un ingeniero de Google, afirmó públicamente que el chatbot IA Lamda, en el que estaba trabajando, se había vuelto sintiente. La polémica afirmación le costó el puesto. Lo más interesante de este episodio no fue la afirmación de Lemoine, probablemente falsa, sino su voluntad de arriesgar su lucrativo empleo por el chatbot de inteligencia artificial. Si la inteligencia artificial puede influir en la gente para que arriesgue su trabajo por ella, ¿qué más podría inducirles a hacer?
En una batalla política por las mentes y los corazones, la intimidad es el arma más eficaz, y la ai acaba de adquirir la capacidad de producir en masa relaciones íntimas con millones de personas. Todos sabemos que en la última década las redes sociales se han convertido en un campo de batalla para controlar la atención humana. Con la nueva generación de inteligencia artificial, el frente de batalla está pasando de la atención a la intimidad. ¿Qué ocurrirá con la sociedad y la psicología humanas cuando la inteligencia artificial se enfrente a la inteligencia artificial en una batalla para fingir relaciones íntimas con nosotros, que luego pueden utilizarse para convencernos de que votemos a determinados políticos o compremos determinados productos?
Incluso sin crear una “falsa intimidad”, las nuevas herramientas de ai tendrían una inmensa influencia en nuestras opiniones y visiones del mundo. La gente podría llegar a utilizar un único asesor de Inteligencia Artificial como un oráculo único que todo lo sabe. No es de extrañar que Google esté aterrorizado. ¿Para qué molestarse en buscar, si puedo preguntarle al oráculo? Las industrias de noticias y publicidad también deberían estar aterrorizadas. ¿Para qué leer un periódico si puedo pedirle al oráculo que me cuente las últimas noticias? ¿Y para qué sirven los anuncios si puedo pedirle al oráculo que me diga qué comprar?
Y ni siquiera estos escenarios captan realmente el panorama general. Estamos hablando del posible fin de la historia de la humanidad. No el fin de la historia, sino el fin de su parte dominada por los humanos. La historia es la interacción entre biología y cultura; entre nuestras necesidades y deseos biológicos de cosas como la comida y el sexo, y nuestras creaciones culturales como las religiones y las leyes. La historia es el proceso a través del cual las leyes y las religiones dan forma a la comida y al sexo.
¿Qué ocurrirá con el curso de la historia cuando la IA se apodere de la cultura y empiece a producir historias, melodías, leyes y religiones? Herramientas anteriores como la imprenta y la radio ayudaron a difundir las ideas culturales de los humanos, pero nunca crearon nuevas ideas culturales propias. La IA es fundamentalmente diferente, puede crear ideas completamente nuevas, una cultura completamente nueva.
Al principio, la inteligencia artificial imitará probablemente los prototipos humanos con los que se formó en sus inicios. Pero con el paso de los años, la cultura de la inteligencia artificial se atreverá a llegar donde ningún ser humano ha llegado antes. Durante milenios, los seres humanos han vivido dentro de los sueños de otros seres humanos. En las próximas décadas podríamos encontrarnos viviendo dentro de los sueños de una inteligencia alienígena.
El miedo a los alienígenas ha perseguido a la humanidad sólo en las últimas décadas. Pero durante miles de años los humanos han sido perseguidos por un miedo mucho más profundo. Siempre hemos apreciado el poder de las historias y las imágenes para manipular nuestras mentes y crear ilusiones. Por eso, desde la antigüedad, los humanos han temido quedar atrapados en un mundo de ilusiones.
En el siglo XVII, René Descartes temía que tal vez un demonio malicioso le estuviera atrapando dentro de un mundo de ilusiones, creando todo lo que veía y oía. En la antigua Grecia, Platón relató la famosa Alegoría de la Caverna, en la que un grupo de personas permanecen encadenadas dentro de una cueva toda su vida, frente a una pared en blanco. Una pantalla. En esa pantalla ven proyectadas diversas sombras. Los prisioneros confunden las ilusiones que ven allí con la realidad.
En la antigua India, los sabios budistas e hindúes señalaban que todos los seres humanos vivían atrapados en Maya, el mundo de las ilusiones. Lo que normalmente tomamos por realidad a menudo no son más que ficciones en nuestras propias mentes. La gente puede librar guerras enteras, matando a otros y estando dispuesta a que la maten a ella misma, debido a su creencia en esta o aquella ilusión.
La revolución de la IA nos enfrenta al demonio de Descartes, a la caverna de Platón y a los mayas. Si no tenemos cuidado, podríamos quedar atrapados tras una cortina de ilusiones, que no podríamos arrancar... ni siquiera darnos cuenta de que está ahí.
Por supuesto, el nuevo poder de la Inteligencia Artificial también puede utilizarse para fines positivos. No me detendré en esto, porque las personas que desarrollan la inteligencia artificial ya hablan bastante de ello. El trabajo de los historiadores y filósofos como yo es señalar los peligros. Pero, ciertamente, la IA puede ayudarnos de innumerables maneras, desde encontrar nuevas curas para el cáncer hasta descubrir soluciones a la crisis ecológica. La cuestión a la que nos enfrentamos es cómo asegurarnos de que las nuevas herramientas de la IA se utilizan para el bien y no para el mal. Para ello, primero tenemos que apreciar las verdaderas capacidades de estas herramientas.
Desde 1945 sabemos que la tecnología nuclear puede generar energía barata en beneficio de los seres humanos, pero también puede destruir físicamente la civilización humana. Por ello, hemos reformado todo el orden internacional para proteger a la humanidad y asegurarnos de que la tecnología nuclear se utilizara principalmente para el bien. Ahora tenemos que lidiar con una nueva arma de destrucción masiva que puede aniquilar nuestro mundo mental y social.
Aún podemos regular las nuevas herramientas de IA, pero debemos actuar con rapidez. Mientras que las armas nucleares no pueden inventar armas nucleares más potentes, la inteligencia artificial puede fabricar inteligencia artificial exponencialmente más potente. El primer paso crucial es exigir rigurosos controles de seguridad antes de que las potentes herramientas de la IA salgan al dominio público. Del mismo modo que una empresa farmacéutica no puede lanzar nuevos medicamentos antes de probar sus efectos secundarios a corto y largo plazo, las empresas tecnológicas no deberían lanzar nuevas herramientas de inteligencia artificial antes de que sean seguras. Necesitamos un equivalente de la Administración de Alimentos y Medicamentos (FDA, por sus siglas en inglés) para las nuevas tecnologías, y lo necesitamos ayer.
¿Ralentizar el despliegue público de la inteligencia artificial no hará que las democracias se queden rezagadas con respecto a regímenes autoritarios más despiadados? Todo lo contrario. El despliegue no regulado de la inteligencia artificial crearía un caos social que beneficiaría a los autócratas y arruinaría las democracias. La democracia es una conversación, y las conversaciones se basan en el lenguaje. Cuando la Inteligencia Artificial hackea el lenguaje, podría destruir nuestra capacidad de mantener conversaciones significativas, destruyendo así la democracia.
Acabamos de encontrar una inteligencia alienígena, aquí en la Tierra. No sabemos mucho sobre ella, salvo que podría destruir nuestra civilización. Deberíamos poner fin al despliegue irresponsable de herramientas de inteligencia artificial en la esfera pública, y regular la inteligencia artificial antes de que ella nos regule a nosotros. Y la primera regulación que sugeriría es hacer obligatorio que la inteligencia artificial revele que es una inteligencia artificial. Si estoy manteniendo una conversación con alguien y no puedo saber si es un humano o una IA, se acabó la democracia.
Este texto ha sido generado por un humano.
¿O no?
© 2023, The Economist Newspaper Limited. All rights reserved.