La inteligencia artificial tiene un costado disruptivo que está generando un antes y un después en muchos sectores. Hoy ya estamos viendo importantes avances en su aplicación en salud, alimentos, en la mejora de eficiencia en las empresas y la democratización del acceso a información, por mencionar algunos ejemplos.
Pero poco se habla de la toma de conciencia sobre el día después de la aplicación de la inteligencia artificial, lo que en inglés se resume en el concepto “aftermath”.
Para poder comprender ese impacto es necesario primero entender un aspecto central del funcionamiento de la Inteligencia Artificial Generativa: su modelo de aprendizaje.
A diferencia de las personas que podemos desaprender o corregirnos cuando algo de lo que aprendimos está mal, la inteligencia artificial no puede hacerlo. Los humanos podemos volver a empezar con una hoja en blanco nuestras ideas o nuestras acciones, podemos aplicar la función CTRL+Z en nuestras vidas, la Inteligencia Artificial no.
Poco se habla de la toma de conciencia sobre el día después de la aplicación de la inteligencia artificial
¿Cuántas veces la función “Control Z” (las teclas Ctrl + Z en el teclado) nos permitió deshacer rápidamente un texto que iba por mal camino en un procesador o un cálculo mal hecho en una planilla? Incluso entre los más tecnólogos se bromea con aplicar Ctrl + Z en una charla entre amigos cuando decimos algo sin pensarlo mucho.
Muchas situaciones pueden volver atrás con un simple CTRL + Z, pero esta función no está desarrollada en el modelo de aprendizaje de la inteligencia artificial generativa. Esta tecnología, que está cambiando el mundo, está diseñada para autoabastecerse. Incorpora información, aprende, relaciona y elabora sus conceptos en forma definitiva. Pero nunca desaprende.
A partir de esto surge la pregunta clave: ¿qué sucede cuando ChatGPT o cualquier herramienta similar responde sobre la base de un concepto contrario a valores humanos? La única respuesta posible es que la interpretación y la asimilación de esas ideas dependerá de las personas.
Por eso, los líderes tecnológicos tenemos la responsabilidad de enseñar y capacitar sobre estos temas para que cada vez más personas puedan comprender el real impacto de lo que es hoy la Inteligencia Artificial Generativa y sobre todo de lo que vendrá. Porque las discusiones que vienen en el mundo de la tecnología no son sobre tecnología sino sobre valores y ética. ¿Cómo se usará la inteligencia artificial? ¿Para qué? ¿Con qué objetivo? ¿Hasta dónde?
¿Qué sucede cuando ChatGPT o cualquier herramienta similar responde sobre la base de un concepto contrario a valores humanos
La buena noticia es que entre tanta empresa corriendo la carrera por desarrollar todo rápido sobre IA, sin pensar las consecuencias, hay compañías y personas que pensamos con otra mentalidad. Porque nos planteamos una mirada que entiende que la tecnología puede cambiar realidades para bien cuando no sólo se ocupa de mejorar el negocio del cliente sino también del bienestar de las personas y del ambiente por igual. Tenemos que ser muy conscientes y responsables a la hora de aplicar la IA en nuestras empresas.
Por tal motivo allí es donde estamos trabajando fuertemente en un proyecto que en lo personal me entusiasma sobremanera que es “La liga del bien de IA”. Es un espacio que armamos en Santex junto a un grupo de especialistas de la academia, de empresas, y tecnólogos donde analizamos el impacto, las mejores prácticas y el futuro de la Inteligencia Artificial. Buscamos encontrar un nuevo mapa ético para aplicarla. Un abordaje filosófico necesario sobre el tema.
Si dejamos que sean únicamente las empresas quienes definan estos límites, la ecuación no cerrará para el usuario final. Nuestra propuesta siempre es tener las puertas abiertas para que tanto Gobierno, otras empresas y la experiencia de los usuarios generen espacios para cocrear juntos las nuevas políticas que beneficien a estos tres actores importantes de una sociedad.
El autor es CEO de Santex
Seguir leyendo: