Los CEO de empresas tecnológicas con grandes planes para la inteligencia artificial dedicaron mucho tiempo a buscar chips de Nvidia el año pasado.
Los chips del gigante de Santa Clara (California, Estados Unidos), conocidos como GPU, se convirtieron en la propiedad más caliente del boom de la IA generativa. Figuras tan poderosas como Mark Zuckerberg y Sam Altman corrieron para asegurarse el suministro de los recursos informáticos vitales necesarios para impulsar aplicaciones como ChatGPT.
Sin embargo, hay una jefa de IA que no se ha puesto a merced del multimillonario líder de Nvidia, Jensen Huang, y su imperio de GPU de 2,2 billones de dólares. Se trata de Sharon Zhou.
Esta joven de 30 años ya ha tenido una carrera impresionante.
Es la primera persona que se licenció a la vez en Filosofía y Letras y en Ingeniería Informática en Harvard. Se doctoró en IA generativa en Stanford con el pionero del aprendizaje automático Andrew Ng, se convirtió en profesora adjunta de la universidad y ha sacado tiempo para la enseñanza online y la inversión ángel. Por si fuera poco, también se le pidió que formara parte del equipo fundador de Anthropic, el rival de OpenAI que acaba de recaudar 2.750 millones de dólares adicionales de Amazon.
Sin embargo, sus ambiciones la han llevado en una dirección ligeramente diferente, ya que ahora está forjando su propio camino al hacerse cargo de su propia empresa de IA.
¿Quién necesita a Nvidia?
En abril del año pasado, Zhou y su cofundador Greg Diamos, con sede en Palo Alto (California), sacaron de la clandestinidad a su nueva startup, Lamini AI. Su principal ambición era ofrecer una plataforma que facilitara a las empresas el entrenamiento y la creación de grandes modelos lingüísticos personalizados con «solo unas pocas líneas de código».
Eso podría significar tomar un modelo básico como GPT de OpenAI y facilitar a una empresa el ajuste fino de ese modelo con sus propios datos. «Lo que estamos haciendo es que todas las empresas puedan disponer de la infraestructura de OpenAI, pero en su propia empresa», afirma Zhou.
Sin embargo, meses más tarde se produjo una revelación igualmente interesante.
En septiembre, Zhou reveló que la plataforma de Lamini había estado construyendo LLM personalizados con clientes durante el último año utilizando exclusivamente GPU del principal rival de Nvidia, AMD, el gigante del chip dirigido por la prima de Huang, Lisa Su.
Fue todo un acontecimiento, dado que casi todo el mundo parecía estar obsesionado exclusivamente con las H100, unas GPU que han sido tan demandadas que la propia Nvidia ha tenido dificultades para cumplir con las entregas pactadas ante la escasez de chips. La revelación de Lamini llegó incluso con un vídeo de Zhou en el que se burlaba de Nvidia precisamente por esa escasez.
Sin embargo, como reconoce Zhou, no fue una decisión fácil apartar la mirada de lo que todo el mundo en la IA generativa ha estado buscando desesperadamente. «El proceso de toma de decisiones fue largo», afirma. «No fue una decisión trivial ni pequeña».
Algunas cosas ayudaron a tomar la decisión. Por un lado, su cofundador Diamos desempeñó un papel clave a la hora de darse cuenta de que las GPU distintas de las de Nvidia funcionan perfectamente.
Como antiguo arquitecto de software de Nvidia, Diamos comprendió que, aunque el hardware de la GPU era vital para obtener el máximo rendimiento de los modelos de IA —después de todo, fue coautor de un artículo sobre las «leyes de escalado» que demostraba la importancia de la potencia de cálculo—, el software también era importante.
Diamos fue testigo de ello al haber trabajado en CUDA, el software desarrollado por primera vez por Nvidia en la década de 2000. Hace que el uso de modelos de IA con GPU como la H100 y el nuevo chip Blackwell de Nvidia sea tan sencillo como un sistema «conectar y usar» (plug and play).
Así que quedó claro que si otra compañía podía construir un ecosistema de software similar en torno a sus GPU, no habría razón para que no pudieran competir con Nvidia. Afortunadamente para ellos, tras consultar con Diamos, según Zhou, AMD estaba en camino de construir un sistema rival que acabarían probando.
«Greg y yo estuvimos trabajando en ello durante años y, una vez que los prototipos funcionaron, nos pusimos manos a la obra», explica Zhou.
En términos más generales, Zhou reconoce que las empresas están «entusiasmadas con el uso de las LLM», pero es posible que muchas no quieran —o simplemente no puedan— esperar a que Nvidia apuntale un suministro suficiente de sus GPU para satisfacer la demanda.
Es otra de las razones por las que AMD ha demostrado ser tan valiosa para sus ambiciones. Gracias a la mayor disponibilidad de sus GPU, Zhou confía en que Lamini pueda ofrecer «una infraestructura que haga posible satisfacer esa demanda desorbitada» de LLM.
«Esto se debe a que Lamini utiliza plenamente la computación LLM con un rendimiento 10 veces superior y permite escalar rápidamente sin limitaciones de suministro, al ofrecer opciones de computación independientes del proveedor, es decir, para los clientes es indiscernible ejecutar Lamini en GPU Nvidia y AMD», explica.
No es de extrañar que la empresa esté dispuesta a apostar por AMD. En enero, Zhou compartió una imagen en X del MI300X —el nuevo chip de AMD presentado por primera vez en diciembre por el CEO Su como el «acelerador de mayor rendimiento del mundo»— en plena producción en Lamini.
Puede que Huang, de Nvidia, lidere ahora una de las empresas más poderosas de Silicon Valley, pero la competencia va a por él. O como dijo Zhou de AMD: «Tienen otro caballo ganador en esta carrera».