Apple pisa el acelerador en la inversión en IA

La compañía de Cupertino invierte millones de dólares cada día en grandes módelos de lenguaje

Guardar
Los esfuerzos de Apple en
Los esfuerzos de Apple en inteligencia artificial están enfocados en su asistente de voz, Siri. REUTERS/Aly Song

Apple ha destinado una inversión significativa de millones de dólares diarios a su desarrollo en inteligencia artificial. Uno de sus objetivos es la creación de características que permitan a los usuarios de sus dispositivos automatizar tareas de múltiples pasos mediante comandos de voz.

Esto podría permitir, por ejemplo, que alguien le indique a Siri, el asistente de iPhone, que cree un GIF utilizando las últimas cinco fotos tomadas y lo envíe por mensaje de texto a un amigo, sin la necesidad de configurar manualmente cada acción por separado, según fuentes familiarizadas con este esfuerzo.

Hace cuatro años. el director de inteligencia artificial de Apple, John Giannandrea, dio luz verde a la creación de un equipo encargado de desarrollar este tipo de programas con un enfoque conversacional, específicamente modelos de lenguaje avanzados, antes de que esta tecnología se convirtiera en el centro de atención de la industria tecnológica.

La decisión parece ser visionaria a la luz del lanzamiento de ChatGPT en el año 2022 pues el chatbot desencadenó un aumento significativo en la popularidad de los modelos de lenguaje.

John Giannandrea es el vicepresidente
John Giannandrea es el vicepresidente senior de aprendizaje automático y estrategia de inteligencia artificial de Apple y reporta al director ejecutivo Tim Cook. Photographer: David Paul Morris/Bloomberg

El equipo de “Modelos Fundamentales” de Apple, que se dedica a la inteligencia artificial conversacional, está compuesto por tan solo 16 personas. Sin embargo, la inversión de la empresa en el entrenamiento de sus modelos de lenguaje asciende a millones de dólares por día.

La preparación de modelos de lenguaje de gran envergadura demanda una infraestructura de hardware significativa. A modo de referencia, Sam Altman de OpenAI mencionó que su empresa gastó más de 100 millones de dólares en GPT-4.

De acuerdo con The Information, Apple desea enfocar todos sus esfuezos de los grandes modelos de lenguaje (LLM) en Siri, asistente de voz que podría tener una automatización controlada por voz lista para usar en el futuro iOS 18.

Apple también parece contar con equipos de inteligencia artificial dedicados al desarrollo de software capaz de generar contenido visual, como videos e imágenes, así como sistemas de IA multimodal que trabajan con datos en forma de imágenes, videos y texto.

El chatbot Ajax, mencionado anteriormente y en el que Apple está involucrado, supuestamente supera en capacidades al ChatGPT 3.5 original, ya que ha sido entrenado con 200 mil millones de parámetros. No obstante, es importante destacar que los modelos más recientes de OpenAI son aún más potentes en comparación.

Apple emplea "millones de dólares
Apple emplea "millones de dólares al día" en desarrollar IA conversacional, según The Information. Photo: Peter Kneffel/dpa

El iPhone 15 integró una IA intuitiva

El celular de Apple incluye el procesador A17 Pro desarrollado por Apple con el propósito de brindar mayor capacidad de procesamiento a los algoritmos de aprendizaje automático, lo que parece ser una inteligencia artificial más intuitiva que generativa. Esta tecnología permite solucionar problemas inmediatos de los usuarios y ofrece predicciones útiles sin ser intrusiva.

Las funciones que trae esta IA desarrollada por Apple son:

1. Aislamiento de voz

Esta herramienta utiliza el aprendizaje automático para reconocer y enfocarse en el sonido de la voz del propietario del celular, silenciando el ruido de fondo en las llamadas telefónicas.

2. IA en la cámara

La cámara del iPhone 15 podrá hacer detección automática de personas, perros o gatos en un marco fotográfico para recopilar información de profundidad que ayude a convertir posteriormente cualquier imagen en un retrato.

Apple muestra las características de
Apple muestra las características de la cámara del iPhone 15. (Apple)

3. Transcripción automática de mensajes

Esta función llamada Live Voicemail fue pensada para que las personas sepan quién llama antes de contestar y para que produzcan recomendaciones de texto predictivo más completas desde el teclado del iPhone.

4. Point and Speak (Apuntar y Hablar)

Esta herramienta, que funciona a través de la aplicación de la lupa, permite que los usuarios con discapacidad visual apunten con la cámara a objetos con botones, como un microondas, y oír cómo el teléfono les indica lo que tocan con el dedo.

5. Personal Voice

Para las personas con enfermedades como la esclerosis lateral amiotrófica (ELA), que priva a una persona de la capacidad de hablar, iOS 17 creará una voz sintética similar a la suya, después de grabarse leyendo una serie aleatoria de textos durante 15 minutos.

Durante su evento "Wonderlust", Apple anunció su nuevo reloj inteligente con nuevas características.

Además de dichas funciones del iPhone 15, el Apple Watch Series 9 trajo consigo el double tap, un avance en cuanto aprendizaje automático.

Este movimiento, que consiste en acomodar el dedo índice y el pulgar, como si fuera una pinza, permite que el reloj inteligente realice funciones básicas como contestar una llamada o desactivar una alarma.

Guardar