Jensen Huang, Sorprendido, Dice que Elon Musk Instaló 100.000 GPU

POR REDACCIÓN

A principios del año pasado, Elon Musk se lanzó a la carrera de la inteligencia artificial (IA) con su propia empresa llamada xAI. La idea del empresario era competir con OpenAI, Microsoft o Google, pero para enfrentarse a este tipo de rivales necesitaba un supercomputador cuyo rendimiento estuviera a la altura. Tras lanzar las primeras versiones de Grok, un rival de ChatGPT, xAI estrenó el pasado mes de julio el «clúster de entrenamiento IA más potente del mundo”, una bestia con 100.000 GPU H100 de NVIDIA situada en Memphis, Tennessee.

Ahora tenemos más detalles sobre este proyecto que, como hemos podido vez, se ha estado desarrollando contrarreloj.

La información proviene de una interesante conversación que el CEO de NVIDIA, Jensen Huang, mantuvo esta semana con los presentadores del podcast BG2. El ejecutivo explicó que el equipo de xAI pasó de la etapa de concepto a la integración completa de las 100.000 unidades de procesamiento en el clúster de Memphis en solo 19 días, hito que se alcanzó con la primera tarea de entrenamiento, promocionada por Elon Musk en X.

Huang explica que el proceso implicó no solo montar las GPU, sino también equipar a las instalaciones tanto con un sistema de refrigeración líquida como con un sistema de alimentación para que los chips pudieran funcionar.

“Solo hay una persona en el mundo que podría hacer eso”, dijo el CEO de la segunda compañía más valiosa por capitalización bursátil, y añadió que gran parte del logro se debe a que sus equipos trabajaron con los “excelentes” equipos de software, redes e infraestructura de la nueva firma de IA de Musk.

Share Button

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *