La Inteligencia Artificial (IA) es un conjunto de algoritmos que tiene entre sus bondades la posibilidad de procesar datos con celeridad y precisión. Como complemento de la intervención de los seres humanos, es una herramienta ideal para tomar decisiones de manera ágil y con un abanico amplio de información sobre la mesa.
Uno de los modelos de IA más utilizados es GPT, que está relacionado al uso de un “Transformador Generativo Pre-entrenado”, generando información y comunicación en base a textos. Esta herramienta suele utilizarse en la programación de chatbots, ya sea para atención al cliente o para la producción de datos que emulan a la actuación de los seres humanos.
Sin embargo, los alcances y los riesgos de esta tecnología aún están bajo el análisis de los expertos, toda vez que se trata de un avance relativamente nuevo. En ese sentido, recientemente, un estudio científico realizado por investigadores de Estados Unidos, India, Alemania e Israel planteó que el modelo GPT-3 “puede influir en las opiniones de las personas en una escala desconocida”.
Bajo estos preceptos, los autores del trabajo postularon que los “modelos de lenguajes grandes como GPT-3 se están convirtiendo cada vez más en parte de la comunicación humana. Producen un lenguaje similar al humano mediante la predicción iterativa de las próximas palabras probables en función de la secuencia de palabras precedentes. Las interacciones con esta tecnología pueden influir no solo en el comportamiento sino también en las opiniones, porque cuando producen algunas opiniones con más frecuencia que otras, pueden persuadir a sus usuarios”.
“Las aplicaciones de esta herramienta como asistente de escritura, apoyo gramatical y traducción automática inyectan la salida de los modelos en lo que la gente escribe y lee. Las arquitecturas de información, como el orden de las opciones presentadas, afectan el comportamiento de las personas”, profundizaron en el estudio, que fue publicado en el archivo digital de la Asociación de Maquinaria Computacional (ACM, por sus siglas en inglés).
Los autores pertenecen a la Universidad de Cornell, en Estados Unidos, a la Universidad de Bayreuth, en Alemania, a la Universidad de Tel Aviv, en Israel y al Instituto Indio de Tecnología de Bombay, en India.
“El uso de grandes modelos de lenguaje en nuestra comunicación diaria puede cambiar la forma en que formamos opiniones y nos influenciamos unos a otros. En las formas convencionales de persuasión, un persuasor elabora un mensaje convincente y lo entrega a los destinatarios, ya sea cara a cara o mediado a través de la tecnología contemporánea. Con la aparición de grandes modelos que producen un lenguaje similar al humano (como GPT-3), las interacciones con la tecnología pueden influir en las opiniones y el comportamiento”, sumaron los científicos.
Mor Naaman, uno de los autores de este trabajo, acuñó el término de “persuasión latente” para referirse a la influencia de la IA en la opinión de las personas. “Es posible que la persona ni siquiera sepa que está siendo influenciada. En el proceso de coescritura no siento que me estén persuadiendo; siento que estoy haciendo algo muy natural y orgánico: estoy expresando mis propios pensamientos con cierta ayuda”, advirtió en un comunicado.
Y sumó: “Nos apresuramos a implantar estos modelos de IA en todos los ámbitos de la vida, pero necesitamos comprender mejor sus implicaciones. Además de aumentar la eficiencia y la creatividad, podría haber otras consecuencias para los individuos y también para nuestra sociedad: cambios en el lenguaje y las opiniones”.
Para llegar a estas conclusiones, Naaman y sus colegas convocaron a 1506 participantes para que escribieran una reflexión sobre los beneficios de las redes sociales para las personas, utilizando la herramienta GTP-3 como asistente de escritura.
“El uso de GTP-3 afectó las opiniones expresadas en la escritura de los participantes y cambió sus opiniones en una encuesta posterior que analizó un jurado independiente”, revelaron. Según los investigadores, el algoritmo de la IA podría tener sesgos que inclinen las opiniones a la hora de plasmar los textos. “Las opiniones integradas en las tecnologías de lenguaje de IA deben monitorearse y diseñarse con más cuidado”, sugirieron.
Maurice Jakesch, otro de los autores de esta investigación, apuntó: “Cuanto más poderosas se vuelven estas tecnologías y más profundamente se incrustan en el tejido social de nuestras sociedades, más cuidado deberíamos tener sobre cómo estamos gobernando los valores, prioridades y opiniones incorporados a ellas”.
¿La IA puede leer el pensamiento?
Semanas atrás, un experimento realizado por especialistas de la Universidad de Texas, en Estados Unidos, buscó responder a una incógnita latente en el ámbito: si la herramienta GPT puede leer el pensamiento de las personas y traducirlo en palabras.
Utilizando un programa basado en Inteligencia Artificial (IA) y particularmente el GPT-1, una computadora logró decodificar y describir la esencia de las historias en formato de audio que escucharon los participantes del estudio, simplemente mirando sus resonancias magnéticas funcionales. Además, según estos resultados, que fueron publicados en la revista científica Nature Neuroscience, este descodificador -denominado “semántico”- fue capaz de verbalizar lo que pensaban y observaban las personas.
Los expertos utilizaron el programa GPT-1. Este modelo de lenguaje, desarrollado por el laboratorio de inteligencia artificial OpenAI, usa aprendizaje profundo para generar texto. En esta investigación, lo entrenaron con las imágenes fMRI del cerebro de tres personas a las que hicieron oír 16 horas de audios de un podcast del New York Times y del programa The Moth Radio Hour, logrando hacer corresponder lo que veían con su representación en la cabeza. La idea es que, cuando volvieran a oír otro texto, el sistema pudiera ir anticipándolo basándose en los patrones de lo ya aprendido.
“Nos sorprendió un poco que funcione tan bien como lo hace. He estado trabajando en esto durante 15 años así que fue impactante y emocionante cuando finalmente funcionó”, explicó Huth, el neurocientífico que dirigió el trabajo en la Universidad de Texas, en Austin.
“Se trata del GPT original, no como el nuevo [ChatGPT se apoya en la última versión de GPT, la 4]. Recopilamos una tonelada de datos y luego construimos este modelo, que predice las respuestas cerebrales a las historias”, agregó.
El decodificador podría reconstruir el habla con una precisión asombrosa mientras las personas escuchaban una historia, o incluso imaginaban una en silencio, utilizando solo datos de escaneo fMRI. Los sistemas de decodificación de idiomas anteriores requerían implantes quirúrgicos colocar una serie de electrodos directamente en el cerebro.
Pero este último avance plantea la posibilidad de nuevas formas de restaurar el habla en pacientes que luchan por comunicarse debido a un accidente cerebrovascular o una enfermedad de la neurona motora.
Seguir leyendo: