La gran apuesta de Amazon por Anthropic parece aún más importante tras el drama de OpenAI

Durante los momentos de incertidumbre en OpenAI, más de 100 de sus clientes contactaron a Anthropic buscando alternativas en servicios de inteligencia artificial

Guardar
 Anthropic gana atención de clientes de OpenAI en medio de turbulencias organizacionales y estratégicas. (REUTERS/Dado Ruvic)
Anthropic gana atención de clientes de OpenAI en medio de turbulencias organizacionales y estratégicas. (REUTERS/Dado Ruvic)

Los expertos en tecnología y los principales medios de comunicación reaccionaron al unísono este otoño cuando Amazon anunció su inversión de 1.250 millones de dólares en Anthropic, una empresa emergente de IA generativa. Todos coincidieron en que Amazon Web Services (AWS) estaba luchando por seguir siendo relevante en el mundo post-ChatGPT, “intentando seguir el ritmo” de Microsoft y Google (New York Times) o “corriendo para alcanzarlos” (CNBC) porque “no parece el líder” (Business Insider).

No importa que AWS sea el proveedor de nube dominante en el mundo, mucho mayor que Azure de Microsoft o Google Cloud de Alphabet. La opinión generalizada era que los servicios en la nube habían entrado bruscamente en una nueva fase -la nube 2.0, en la que los gigantes deben competir en función de lo bien que su software, almacenamiento y otras herramientas soportan la IA- y que AWS no estaba preparada para ganar con las nuevas reglas.

Cuando se le pregunta si AWS está “poniéndose al día”, el CEO Adam Selipsky no lo niega explícitamente. “Estamos a unos tres pasos en una carrera de 10K”, dijo a Fortune.

“¿Qué corredor va medio paso por delante o por detrás? Esa no es realmente la pregunta importante. Lo importante es saber quiénes son los corredores. ¿Qué aspecto tiene el recorrido, qué aspecto tienen los espectadores y los oficiantes de la carrera, y hacia dónde creemos que se dirige la carrera?”, agregó.

En otras palabras, el mensaje de Selipsky a los escépticos es que dejen de hiperventilar y se centren en el largo plazo. Es exactamente el mensaje que cabría esperar de una empresa que, de hecho, parece ir medio paso por detrás en el campo de la IA. Pero también es un mensaje que Amazon ha predicado internamente con gran éxito desde su fundación: “aceptar que podemos ser incomprendidos durante largos períodos de tiempo”, por citar sus famosos Principios de Liderazgo.

Los últimos acontecimientos han puesto de relieve la idea de que es demasiado pronto para que una empresa declare la victoria. El ataque de pánico que provocó en todo el sector el despido del consejero delegado de OpenAI, Sam Altman, a mediados de noviembre -y la decisión casi inmediata de la empresa, muy influida por Microsoft, de volver a contratarle- recordó al mundo empresarial que la IA generativa está en sus años del Salvaje Oeste.

Aun así, es razonable que clientes, competidores e inversores se pregunten si la inversión de AWS en Anthropic señala un problema estratégico más amplio: en la era de la nube 2.0, ¿caerá AWS de su trono? Y a largo plazo, ¿quién será el proveedor global dominante de IA?

La apuesta de Amazon Web Services en la IA generativa refuerza su posición en el competitivo mercado tecnológico. (REUTERS/Gustavo Graf)
La apuesta de Amazon Web Services en la IA generativa refuerza su posición en el competitivo mercado tecnológico. (REUTERS/Gustavo Graf)

Para responder a estas preguntas, empecemos por Anthropic. AWS compró la startup con una participación minoritaria, pero ambas partes podían aumentar la inversión hasta USD 4 mil millones, por dos razones.

La más obvia es que Anthropic convertirá a AWS en su principal proveedor de nube, trayendo consigo a Claude, su modelo de base (una vasta red digital como la que soporta ChatGPT) y el asistente de IA del mismo nombre que la acompaña. (Anthropic presentó Claude en marzo; Claude 2 debutó en julio, y en agosto se lanzó una versión más rápida y barata llamada Claude Instant 1.2).

Las futuras versiones de Claude estarán disponibles para los clientes de AWS a través de un servicio llamado Bedrock, que ofrece acceso a muchos modelos de cimientos. AWS ha construido o adquirido acceso a varios de esos modelos, y argumenta que su ciberseguridad y su gama de servicios para esos modelos superan lo que OpenAI ofrece actualmente.

Aun así, ninguno de los modelos de AWS ha demostrado el alcance o la eficacia de la GPT-4 de OpenAI, de ahí la narrativa de “quedarse atrás”.

La razón menos obvia, al menos para los que no son expertos en tecnología, es que Anthropic utilizará los chips de IA propiedad de AWS para entrenar e implementar futuros modelos.

Esto es importante porque los clientes de AWS pueden utilizar esos modelos a un coste mucho menor que los construidos con hardware de otras empresas, como los populares y caros chips de Nvidia. (Gracias en gran parte al entusiasmo por la IA, el precio de las acciones de Nvidia se ha más que triplicado en 2023).

Brad Shimmin, analista de la firma de investigación Omdia, explica: “Si AWS puede ir a una empresa y decirle: ‘Usted podría ejecutar Anthropic por un tercio del coste de alojar OpenAI para GPT usted mismo’, van a ganar”.

El coste es un factor crítico para el futuro de la IA en general. Construir modelos de base es enormemente caro. El consejero delegado de OpenAI, Sam Altman, ha declarado que el entrenamiento de GPT-4, el último modelo, costó “más de USD 100 millones”, en parte debido a que OpenAI utiliza chips de primer nivel de Nvidia.

El consejero delegado de Amazon, Andy Jassy, ha declarado a los inversores que es “optimista” en cuanto a la posibilidad de que muchos modelos de la fundación acaben construyéndose con chips de AWS, y la escala de AWS hace que esa aspiración sea muy plausible.

Amazon Web Services apuesta por reducir la dependencia de chips externos para optimizar costes en inteligencia artificial. (AWS)
Amazon Web Services apuesta por reducir la dependencia de chips externos para optimizar costes en inteligencia artificial. (AWS)

Para hacerse una idea de las ventajas de Amazon, pensemos en la experiencia de LexisNexis, un antiguo cliente de AWS que ofrece software y servicios en línea a bufetes de abogados. Recientemente presentó un servicio llamado Lexis+ AI que puede redactar escritos y contratos, resumir decisiones judiciales y analizar los propios documentos jurídicos de un bufete, entre otras funciones.

El director de tecnología de LexisNexis, Jeff Reihl, afirmó que su empresa empezó a trabajar con Anthropic antes de que AWS invirtiera en la startup; también tenía acceso a Bedrock.

Cuando AWS y Anthropic ampliaron su relación, los astros se alinearon y la oferta combinada ofreció a Lexis+ AI la mejor versión de lo que quería. Reihl añadió: “Cualquiera que sea el mejor modelo para resolver un problema específico con el mejor rendimiento, precisión y precio es el que vamos a elegir.”

AWS está acostumbrada a ofrecer una gran cantidad de opciones y a ganar en costes. Los defensores de la nube 2.0 confunden la importancia de la IA con su efecto sobre la naturaleza básica del sector de la nube, afirma Selipsky.

Su opinión sobre la sabiduría convencional: “La IA va a ser algo muy, muy, muy grande en la nube -que lo es-, así que, ‘Oh, es una cosa diferente’.”Pero en realidad, prosigue, la IA generativa no ha cambiado los fundamentos del sector de la nube.

“En los últimos 17 años hemos demostrado que las empresas no deberían operar sus propios centros de datos, comprar sus propios servidores o preocuparse por las redes”, afirma. “El mundo llegará rápidamente a la misma conclusión con la IA generativa, que es que las empresas deben averiguar cómo utilizarla, no cómo montarla en bastidores y apilarla”.

Daniel Newman, CEO de la empresa de investigación y asesoramiento tecnológico Futurum, lleva el argumento de Selipsky un paso más allá. Los “costes masivos” de la IA significan que “la capacidad de permitirse esto a escala va a estar limitada a un número muy pequeño de empresas”, afirma. “De hecho, creo que AWS, Microsoft y Google son demasiado grandes para fracasar”.

Asociaciones como la de Anthropic con Amazon y la de OpenAI con Microsoft podrían hacer aún más probable que la predicción de Newman se haga realidad, dice Ben Recht, informático de la Universidad de California en Berkeley que sigue de cerca la industria emergente. A estas alturas, las “startups” y las “grandes tecnológicas” son todas iguales”, afirmó Recht. “Son los mismos ricos haciéndose aún más ricos unos a otros”, destacó.

Es tentador aventurar que AWS podría seguir siendo el número 1 durante mucho tiempo. Su cuota de mercado en la nube se ha mantenido estable en el rango del 31% al 33% durante una década, mientras que Microsoft y Google permanecen muy por detrás (23% y 10%, respectivamente).

Pero ambos competidores han ido ganando cuota de forma constante. Millones de empresas tienen relaciones contractuales con Microsoft a través de su uso de Office 365 y otro software de productividad; Azure podría ayudar a esos clientes a integrar la IA en Excel, Word y otros productos de Microsoft. Los informáticos de Google, por su parte, llevan años haciendo avances en IA. Para AWS, la competencia en la era de la IA no hará sino intensificarse.

La inteligencia artificial también ha acelerado drásticamente el ritmo del cambio. “Es increíble el progreso que se ha hecho en los últimos 18 meses”, observa Reihl; es probable que el año que viene traiga más sorpresas.

AWS se mantiene firme en su posición dominante en la industria de la nube mientras aborda los desafíos emergentes de la IA. (REUTERS/Salvador Rodriguez)
AWS se mantiene firme en su posición dominante en la industria de la nube mientras aborda los desafíos emergentes de la IA. (REUTERS/Salvador Rodriguez)

El ascenso de Anthropic a socio de Big Tech es un capítulo inesperado para una de las startups más inusuales de la IA. (Google anunció una inversión en Anthropic al mismo tiempo que AWS)

Dicho esto, algunos de los socios comerciales de OpenAI piensan claramente que Anthropic está más que preparado para competir en el mismo terreno de juego: Durante la disputa por el liderazgo de OpenAI, el sitio web de tecnología The Information reportó que más de 100 clientes de OpenAI se pusieron en contacto con Anthropic.

La empresa fue fundada en 2021 por antiguos empleados de OpenAI, que la abandonaron por discrepancias en torno a la asociación de OpenAI con Microsoft, entre ellas la preocupación de que OpenAI abandonara su misión de crear una IA más segura y ética y se preocupara demasiado por cuestiones comerciales.

Dario Amodei, Consejero Delegado de Anthropic, había sido Vicepresidente de Investigación de OpenAI; su hermana Daniela Amodei, Presidenta de Anthropic, era Vicepresidenta de Seguridad y Política.

Anthropic también forma parte de un grupo de empresas de inteligencia artificial que se han propuesto dar prioridad a la ética. Funciona como una corporación de beneficio público, un estatus que obliga a la empresa a sopesar su impacto social junto con sus objetivos de negocio, y a demostrar su seriedad mediante la publicación periódica de métricas sobre ese impacto. (Es la misma estructura corporativa que utilizan Patagonia, Ben & Jerry’s y Etsy).

Los fundadores de Anthropic también participan activamente en el altruismo eficaz, o EA, un movimiento filosófico y social que se centra en el uso del análisis lógico para identificar las vías más potentes para ayudar a los necesitados. Sus raíces en el AE ayudaron a Anthropic a recaudar USD 500 millones de un inversor cuyas credenciales éticas han sido revocadas desde entonces: El fundador de FTX, Sam Bankman-Fried, condenado por fraude a principios de noviembre.

Algunos de los esfuerzos de Anthropic por distinguirse por motivos éticos han suscitado cierto interés admirativo. Jim Hare, distinguido vicepresidente analista de Gartner, destacó el énfasis de la startup en la “IA constitucional”, que integra principios éticos en el proceso de entrenamiento de un modelo de IA, en parte solicitando la opinión del público e incorporando ideas de fuentes como la Declaración Universal de los Derechos Humanos de las Naciones Unidas.

Otros ven límites a las ambiciones de Anthropic. Gary Marcus, profesor emérito de ciencia cognitiva en la Universidad de Nueva York y experto en las limitaciones del “aprendizaje profundo” que subyace en la IA, señaló que Claude “sigue dependiendo en gran medida de grandes modelos lingüísticos”.

“Sabemos que los grandes modelos lingüísticos son fundamentalmente opacos, que alucinan mucho, que no son fiables, y creo que es un sustrato realmente pobre para una IA ética”, añadió.

Queda por ver cómo afectarán las nuevas asociaciones de Anthropic a sus esfuerzos por posicionarse como un actor de la IA ética. (¿Qué ocurrirá si las necesidades empresariales de AWS o Google y sus clientes difieren de las mejores prácticas de Anthropic o si surgen temores sobre la parcialidad o la privacidad de los usuarios? Dada la rapidez con la que evoluciona este campo, es posible que no tengamos que esperar mucho para obtener respuestas.

(C) 2023, Fortune

Guardar