En 2023 el mundo ha sido testigo de las grandes innovaciones de inteligencia artificial (IA). Según lo que se lea, estos avances vinieron a mejorar la vida de las personas o a destruirla por completo en una especie de rebelión de las máquinas. Una de las noticias que más impactó este año fue el lanzamiento de ChatGPT, que generó entusiasmo y también temor entre las personas.
ChatGPT es parte de una nueva generación de sistemas de IA que pueden conversar, generar texto legible e incluso producir imágenes y videos novedosos con base en lo que han “aprendido” de una amplia base de datos de libros digitales, escritos en línea y otros medios.
Derek Thompson, editor y periodista en la revista The Atlantic, se hizo una serie de preguntas para saber si en realidad hay que tener temor a los nuevos avances de IA y pensar que llevan al fin de la raza humana o si son herramientas inspiradoras que mejoraran la vida de la personas.
Consultado por el medio estadounidense, el científico informático Stephen Wolfram explica que los modelos lingüísticos de gran tamaño (LLM) como ChatGPT funcionan de una forma muy sencilla: crean y entrenan a una red neuronal para crear textos que se alimentan de una gran muestra de texto que está en la web como libros, bibliotecas digitales, etc.
Si alguien le pide a un LLM que imite Shakespeare, producirá un texto con una estructura de pentámetro yámbico. O si le pide que escriba al estilo de algún escritor de ciencia ficción, imitará las características más generales de ese autor.
“Los expertos han sabido durante años que los LLM son increíbles, crean cosas ficticias, pueden ser útiles, pero son sistemas realmente estúpidos, y no son aterradores”, dijo Yann Lecun, jefe científico de IA para Meta, consultado por The Atlantic.
El medio estadounidense señala que el desarrollo de las IA se está concentrando en las grande empresas y nuevas empresas respaldadas por capital de firmas de inversión tecnológicas.
El hecho de que estos desarrollos estén concentrados en empresas y no en universidades y gobiernos pueden mejorar la eficiencia y calidad de estos sistemas de IA.
“No tengo dudas de que la IA se desarrollará más rápido dentro de Microsoft, Meta y Google de lo que lo haría, por ejemplo, el ejército de los Estados Unidos”, señala Derek Thompson.
Sin embargo, el medio estadounidense advierte que las empresas podrían caer en errores al tratar de introducir de manera rápida en el mercado un producto que no está en optimas condiciones. Por ejemplo, el chatbot de Bing (Microsoft) fue agresivo con las personas que lo usaron cuando lo lanzaron por primera vez. Hay otros ejemplos de otros errores de este tipo, como el chatbot de Google que fue un fracaso por haber sido lanzado de forma apresurada.
El filósofo Toby Ord advierte que estos avances de tecnología de IA no van a la par con el desarrollo ético sobre el uso de estas. Consultado por The Atlantic, Ord hizo una comparación sobre el uso de IA con “un prototipo de motor a reacción que puede alcanzar velocidades nunca antes vistas, pero sin mejoras correspondientes en la dirección y el control”. Para el filósofo, es como si la humanidad estuviera abordo de un poderoso jet Mach 5 pero sin el manual para dirigir la aeronave en la dirección que se desea.
Sobre el miedo de que las IA sean el comienzo del fin de la raza humana, el medio señala que sistemas como Bing y ChatGPT no son buenos ejemplos de inteligencias artificiales. Pero sí nos pueden mostrar nuestra capacidad para desarrollar una máquina súper inteligente.
Otros temen que los sistemas de IA no estén alineados con las intenciones de sus diseñadores. Sobre este tema, muchos estudiosos de ética de las máquinas han advertido sobre ese posible problema.
“¿Cómo asegurarse de que la IA que se construya, que bien podría ser significativamente más inteligente que cualquier persona que haya vivido, esté alineada con los intereses de sus creadores y de la raza humana?”, se pregunta The Atlantic.
Y el gran temor sobre el anterior interrogante: un IA súper inteligente podría ser un grave problema para la humanidad.
Otro interrogante que preocupa a expertos y es formulado por el medio estadounidense: “¿Tenemos más que temer de la IA no alineada o de la IA alineada con los intereses de malos actores?”.
Una posible solución para esto es desarrollar un conjunto de leyes y regulaciones que garanticen que las IA que se desarrollen estén alineadas con los intereses de sus creadores y que estos intereses no perjudiquen a la humanidad. Y se desarrolla una IA por fuera de estas leyes sería ilegal.
Sin embargo, van a existir actores o regímenes con intereses deshonestos que pueden desarrollar IA con comportamientos peligrosos.
Otro tema que genera preguntas es: ¿Cuánto debería cambiar la educación en relación al desarrollo de estos sistemas de de IA?
También el desarrollo de estos sistemas de IA sirve en otras industrias como las financieras o de programación. En algunas empresas, algunos sistemas de IA superan a los analistas a la hora de escoger las mejores acciones.
“ChatGPT ha demostrado buenas habilidades de redacción para cartas de demanda, alegatos y juicios de resumen, e incluso cuestiones redactadas para el interrogatorio”, dijo Michael Cembalest, Presidente de Estrategia de Mercado e Inversión para J.P. Morgan Asset Management.
“LLM no son reemplazos para los abogados, sino que pueden aumentar su productividad, particularmente cuando se utilizan bases de datos legales como Westlaw y Lexis para capacitarlos”, agregó Cembalest.
Desde hace unas décadas, se ha dicho que las IA reemplazarán a los trabajadores de algunos oficios como los radiólogos. Sin embargo, el uso de IA en la radiología sigue siendo un complemento para los médicos en lugar de un reemplazo. Al igual que en la radiología, se espera que estas tecnologías sirvan como un complemento para mejorar la vida de las personas.
Seguir leyendo: