
El concepto de caja negra se ha asociado principalmente a los aviones, siendo un elemento clave para identificar detalles del funcionamiento de la nave en caso de un accidente. Un término que se traslada a la inteligencia artificial aunque con un objetivo diferente.
La idea es proteger la información que permite el desarrollo de la IA y que se debe resguardar de agentes externos, por la importancia y complejidad de los datos almacenados. Sin embargo, tiene una serie de riesgos ante el poco control de los resultados que puede generar.
La caja negra de la IA
Cualquier modelo que está detrás de una inteligencia artificial, como el caso de GPT para ChatGPT o de PaLM-2 para Bard, cuenta con miles de millones de parámetros de los que aprende para generar resultados.
Un proceso que puede ser transparente o estar oculto, como sucede con el modelo de caja negra, que genera un resultado sin mostrar cómo lo hizo, por lo que todos los procesos internos desconocidos para el usuario.
Esto se hace, en gran medida, para generar un espacio en el que se cuide la propiedad intelectual de los desarrolladores, evitando que se revele información sensible de la operación.

El uso de este modelo abre la puerta una serie de riesgos, como por ejemplo, que ni los programadores o desarrolladores tengan claro cómo es el proceso de generación de resultados, ya que ese paso a paso queda en manos del algoritmo y el usuario solo ingresas los datos de la solicitud y espera un resultado.
Un ejemplo de esta situación fue lo que sucedió con un grupo de investigadores de Google, que estaban trabajando en un software de IA y vieron cómo el sistema aprendió un nuevo idioma por sí solo. “Descubrimos que con muy pocas indicaciones en bengalí, ahora puede traducir todo el bengalí”, aseguró James Maneka, el jefe de la división de IA de la empresa.
Todo esto se da porque al recibir una gran cantidad de datos, el modelo aprende constantemente, el algoritmo interno va escalando y adquiere nuevos conocimientos sin necesidad del control humano.
“No lo entiendes del todo. No puedes decir muy bien por qué [el robot] dijo esto o por qué se equivocó en esto otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos hasta ahora”, afirmó el director ejecutivo de Google, Sundar Pichai.
Riesgos y oportunidades
El modelo de caja negra ha sido implementado en varios sistemas de inteligencia artificial actual, y si bien existes riesgos ante el poco control del proceso, los expertos aseguran que este es el inicio de un desarrollo y se debe tomar como una oportunidad.
“Tampoco creo que entendamos completamente cómo funciona la mente humana. Creo que en el desarrollo de esto debe incluirse no solo a ingenieros, sino también a científicos sociales, especialistas en ética, filósofos, etcétera. Estas son las cosas que la sociedad necesita resolver a medida que avanzamos”, dijo Pichai.

Una línea por la que también va Ian Hogarth, cofundador de la empresa tecnológica Plural, que asegura que este debe ser el momento en el que la dilución sea social, porque la IA va a transformar la vida de las personas y se debe dialogar abiertamente de este impacto.
“Creo que tiene un potencial notable para transformar todos los aspectos de nuestras vidas. Lo principal es que deberíamos tener un debate mucho más público sobre la rapidez con la que progresan estos sistemas y lo diferentes que son de las generaciones anteriores de software”, contó a la BBC.
Algunas de las ventajas de este modelo son la gran velocidad de aprendizaje y la generación de contenido, permitiendo procesar más información de la que es capaz un humano. Además, cuenta con una mejor capacidad de identificar intentos de fraude y puede predecir de mejor manera los patrones que encuentra en sus datos. Puntos que le dan a la caja negra la oportunidad para seguir siendo explorada.
Últimas Noticias
Cómo trabajar en Google desde casa y ganando en dólares: estos son los cargos disponibles
Entre los requisitos generales para trabajar en la empresa están la educación superior, el dominio del inglés y las habilidades de liderazgo

El inminente impacto de la IA en el mercado laboral: trabajos de oficina en riesgo y más desempleo, esta es la predicción
El CEO de Anthropic asegura que entre 2025 y 2028, la falta de trabajo provocada por la automatización será un tema central en debates políticos

Sam Altman, CEO de OpenAI: “Parecerá ciencia ficción, pero muy pronto veremos a los humanoides caminando por la calle”
El creador del ChatGPT reveló en entrevista con Bloomberg que incluso expertos y desarrolladores sienten ansiedad ante la velocidad e imprevisibilidad del cambio

Qué se debe conectar primero para evitar un incendio con el celular, el cargador o el teléfono
El hábito cotidiano de enchufar el cable sin seguir una secuencia específica puede activar picos de energía que afectan la integridad de los componentes internos del dispositivo

Google Fotos lanza nuevas funciones de edición con IA por su décimo aniversario: estas son las novedades
Entre las novedades destacan herramientas como Marco Automático y Reimagine, que permiten desde recortes inteligentes hasta la creación de elementos inexistentes en las imágenes
