Por qué Musk y el cofundador de Apple piden pausar desarrollos sobre inteligencia artificial

Una carta firmada por más de 1.000 personas pone en duda los avances de esta tecnología, uno de ellos es Tim Cook

Guardar
CEOs de empresas de tecnología piden regulación de la inteligencia artificial (AP).
CEOs de empresas de tecnología piden regulación de la inteligencia artificial (AP).

La inteligencia artificial ha marcado la discusión en la industria tecnológica durante este inicio de 2023, y ahora Elon Musk, Steve Wozniak (cofundador de Apple), Jaan Tallinn (cofundador de Skype) y Max Tegmark (miembro del MIT) firmaron una carta pidiendo que se pause su desarrollo.

En el documento figuran más de 1.000 personas que hablan del avance de GPT y la llegada de GPT-4, la tecnología que está detrás de ChatGPT, una de las IA que más se ha masificado.

El objetivo de la carta no es pedir que se acabe con este desarrollo, sino por el contrario, resaltar los alcances que ha logrado y el cambio que puede representar, pero para eso es importante que haya un mayor entendimiento de su funcionamiento.

Le puede interesar: Elon Musk considera que Bill Gates no entiende la inteligencia artificial

“Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo?”, aseguran en el documento.

Lo que quieren personalidades como Musk y Wozniak es dar “un paso atrás” para analizar la capacidad de estos modelos y generadores de contenido, para que los sistemas actuales “sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales” y no apresurar el avance sin antes comprender completamente lo que ya está creado.

Le puede interesar: Consejos para obtener las mejores respuestas en ChatGPT

CEOs de empresas de tecnología piden regulación de la IA para controlar su avance. (Unsplash)
CEOs de empresas de tecnología piden regulación de la IA para controlar su avance. (Unsplash)

Otro punto que resaltan en la carta es que se necesita crear estándares de seguridad para el funcionamiento óptimo de la inteligencia artificial y el funcionamiento que se le da, y de esta forma, “garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable”.

Para eso afirman que es importante crear autoridades que regulen y supervisen a la IA, con la idea de tener sistemas que distingan la realidad de las creaciones artificiales, rastrear posibles fugas de datos, sistemas de financiación política y respuestas a posibles daños.

“Las instituciones necesitan estar bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA”, afirman.

Le puede interesar: Elon Musk quiere competirle a ChatGPT con este proyecto de inteligencia artificial

CEOs de empresas de tecnología piden regulación de la IA para controlar su avance. (Reuters)
CEOs de empresas de tecnología piden regulación de la IA para controlar su avance. (Reuters)

Las críticas de Musk a GPT

En 2015, cuando nación OpenAI, la empresa dueña de ChatGPT, Elon Musk fue uno de los primeros inversores aportando 1.000 millones de dólares. Sin embargo, tres años después el empresario decidió retirarse del proyecto al considerar que había fracasado y porque su petición de tomar el control de la compañía fue rechazada.

Tras la importancia que tomó la inteligencia artificial en los últimos meses, el dueño de Tesla ha hecho público su descontento con GPT y demás plataformas.

Lo primero que hizo fue retirar el acceso de OpenAI a la base de datos de Twitter. Después criticó como la empresa pasó de ser sin ánimo de lucro a una que buscaba ingresos. Luego aseguró que se trabaja de una compañía “controlada por Microsoft”.

Musk también ha pedido regulación para estas tecnologías, afirmando que la reglamentación “tiende a ser establecida como reacción a cuando pasa algo malo. Pero si algo malo sucede con la inteligencia artificial, la reacción desde un punto de vista regulatorio puede ser muy lenta”.

Al punto de alertar del alcance desmedido que podría tener la IA. “El peligro de entrenar a la IA para que se despierte, en otras palabras, mienta, es mortal”, dijo.

Guardar