En 1950, el informático Alan Turing propuso lo que hoy llamamos la “prueba de Turing” de la inteligencia artificial, según la cual una máquina podría estar “pensando” si puede hacerse pasar por humana en una charla mecanografiada. Aunque se conozca esta historia, quizá no se sepa que Turing imaginó empezar su prueba con una petición literaria: “Por favor, escriba un soneto sobre el puente de Forth”. Predijo una respuesta evasiva pero muy humana de algún futuro ordenador: “No cuenten conmigo. Nunca he podido escribir poesía”. Eso es justo lo que diría mi padre.
Te puede interesar: Le pidieron a Chat GPT que hiciera un poema al estilo de García Lorca: ¿lo logró?
La semana pasada envié la misma petición a ChatGPT, el último chatbot de inteligencia artificial de OpenAI. “Sobre el estuario del Forth se alza un puente”, empezaba. En menos de un minuto, el programa había creado íntegramente un soneto de Shakespeare rimado. Con la excepción de temas ofensivos o controvertidos que sus filtros de contenido bloquean, ChatGPT compondrá versos originales sobre cualquier tema: amor perdido, medias perdidas, empleos perdidos por la automatización. Herramientas como ChatGPT parecen dispuestas a cambiar el mundo de la poesía -y muchas otras cosas-, pero los poetas también tienen mucho que enseñarnos sobre la inteligencia artificial. Si los algoritmos son cada vez mejores escribiendo poesía, en parte es porque la poesía siempre ha sido un negocio algorítmico.
Incluso los poetas más rebeldes siguen más reglas de las que les gustaría admitir. Un buen poeta entiende las normas gramaticales y cuándo romperlas. Algunos poemas riman siguiendo un patrón, otros de forma irregular y otros no. Las reglas más sutiles de la poesía parecen difíciles de programar, pero sin algunas normas básicas sobre lo que es un poema, nunca podríamos reconocer o escribir uno. Cuando a los escolares se les enseña a imitar la estructura de un haiku o el ritmo del pentámetro yámbico, están aprendiendo a seguir restricciones algorítmicas. ¿Debería sorprendernos que las computadoras también puedan hacerlo?
Pero teniendo en cuenta cómo funciona ChatGPT, su capacidad para seguir las reglas de los sonetos parece un poco más impresionante. Nadie le enseñó esas reglas. Una tecnología anterior, llamada IA simbólica, consistía en programar computadoras con axiomas para temas específicos, como la biología molecular o la arquitectura. Estos sistemas funcionaban bien en ámbitos concretos, pero carecían de una capacidad de adaptación más general. ChatGPT se basa en un nuevo tipo de IA conocido como modelo de lenguaje de gran tamaño (LLM). Simplificados hasta el extremo, los LLM analizan enormes cantidades de escritura humana y aprenden a predecir cuál debería ser la siguiente palabra de una cadena de texto, basándose en el contexto. Este método de adivinación de palabras permite a la IA escribir redacciones coherentes de admisión a la universidad, borradores de guiones cinematográficos e incluso sonetos sobre puentes en Escocia, nada de lo cual se programa directamente.
¿Quién está detrás de la escritura?
Una crítica frecuente a los LLM es que no entienden lo que escriben; sólo hacen un gran trabajo adivinando la siguiente palabra. Los resultados parecen plausibles, pero a menudo no dan en el clavo. Por ejemplo, pedí a ChatGPT que explicara este chiste: “¿Qué es lo mejor de Suiza? No lo sé, pero la bandera es una gran ventaja”. Me respondió que la “referencia a la bandera” es graciosa porque “contradice la expectativa de que la respuesta sería algo relacionado con los atributos positivos del país”. Se perdió el juego de palabras con “plus” (+, el símbolo de la bandera suiza) que es el núcleo del chiste. Algunos académicos afirman que los LLM desarrollan conocimientos sobre el mundo, pero la mayoría de los expertos dicen lo contrario: que aunque estas tecnologías escriben con coherencia, no hay nadie en casa.
Pero lo mismo ocurre con el propio lenguaje. Como nos dice el poeta modernista William Carlos Williams: “Un poema es una pequeña (o gran) máquina hecha de palabras”. Cuando un apasionado verso de Keats o Dickinson nos hace sentir que el poeta nos habla directamente, estamos experimentando los efectos de una tecnología llamada lenguaje. Los poemas están hechos de papel y tinta o, hoy en día, de electricidad y luz. No hay nadie “dentro” de un poema de Dickinson, como tampoco lo hay de ChatGPT.
Por supuesto, cada poema de Emily Dickinson refleja su intención de crear significado. Cuando ChatGPT junta palabras, no pretende nada. Hay quien sostiene que los escritos de los LLM no tienen sentido, sino sólo apariencia. Si veo una nube en el cielo que se parece a una jirafa, lo reconozco como un parecido accidental. Del mismo modo, según este argumento, deberíamos considerar los escritos de los ChatGPT como meros parecidos al lenguaje real, sin sentido y aleatorios como las formas de las nubes.
Los escritores experimentales nos han dado razones para dudar de esta teoría desde principios del siglo pasado, cuando Tristan Tzara y otros intentaron eliminar las decisiones conscientes de su trabajo. Sus técnicas parecen ahora versiones rudimentarias de los principios en los que se basan los LLM. Tzara sacaba palabras de un sombrero para componer un poema. En la década de 1950, William S. Burroughs popularizó el cut-up technique (“método del recorte”), que consiste en recortar palabras de los periódicos y recomponerlas en literatura. Por la misma época, los lingüistas desarrollaron el método de la “bolsa de palabras” para modelar un texto contando cuántas veces aparece cada palabra. Los LLM realizan análisis mucho más complejos, pero la aleatorización sigue ayudando a ChatGPT a evitar resultados predecibles, igual que ayudó a Burroughs.
La automatización no arruinó el ajedrez
Hay un viejo chiste entre los investigadores de IA: “Inteligencia artificial” es todo lo que los ordenadores aún no pueden hacer. El ejemplo clásico es el ajedrez. El sueño de automatizar el ajedrez se remonta a 1770, cuando un jugador robótico llamado “El turco” deslumbró a las cortes de Europa, gracias a un maestro de ajedrez humano escondido bajo el escritorio. En 1948, Turing escribió un programa de ajedrez, pero era demasiado complejo para funcionar con el hardware de los años cuarenta. Finalmente, en 1997, un superordenador derrotó al campeón mundial de ajedrez Garry Kasparov. Desde entonces, las computadoras han llegado a ser tanto mejores que los humanos que el actual campeón mundial, Magnus Carlsen, considera inútil y deprimente jugar contra ellas.
Los LLM representan una nueva fase en la escritura asistida por una computadora, pero los próximos pasos para la poesía de IA siguen sin estar claros. Al igual que Turing, el polímata de Internet Gwern Branwen utiliza la poesía como prueba, pidiendo a la IA que imite a Shelley, Yeats y otros. He aquí una imitación de Whitman: “¡Oh tierras! ¡Oh tierras! ¡para navegar, para navegar! / ¡Seguir visitando el Niágara, seguir, seguir!”. A medida que la IA mejora, también lo hacen estas imitaciones. Mientras tanto, la poeta futurista Sasha Stiles colabora con los LLM para anunciar una nueva era posthumana. “En diez años más”, escribe, “sabremos cómo implantar el coeficiente intelectual, / insertar idiomas enteros. Entonces seré una superpoeta, // microchipada para turboleer odas neuronales, / historia de los sonetos y aubades cerebrales”. Aunque visualmente impactante, su obra a veces pasa por alto los inconvenientes políticos, medioambientales y prácticos de estas tecnologías. El futuro de la poesía con IA aún no ha llegado, pero los LLM nos dicen que pronto lo hará.
Entre la mejor poesía reciente sobre IA se encuentra “Travesty Generator” (2019), de Lillian-Yvonne Bertram, que toma prestado su título de un programa generador de poemas que el crítico Hugh Kenner co-escribió en la década de 1980. En manos de Bertram, “travesty” también se refiere a las violentas injusticias contra los negros a las que responden estos poemas. Un trabajo como el de Bertram es especialmente urgente, ya que los investigadores estudian cómo la IA puede amplificar el racismo y otros tipos de odio que ya prevalecen en Internet.
Cuando mostré a mis amigos el soneto de ChatGPT, lo calificaron de “desalmado y estéril”. A pesar de seguir todas las reglas de los sonetos, el poema es cliché y predecible. Pero, ¿es mejor el soneto medio de un humano? Turing imaginó pedir poesía a un ordenador para ver si podía pensar como una persona. Si ahora esperamos que las computadoras escriban no sólo poemas, sino buenos poemas, entonces hemos puesto la vara muy alta.
Fuente: The Washington Post
Seguir leyendo