CoreWeave presenta instancias de Nvidia Blackwell Cloud para un rendimiento de IA mejorado
Luisa Crawford
5 de febrero, 2025 01:57
CoreWeave ha lanzado instancias basadas en Nvidia GB200 NVL72, marcando la primera disponibilidad general de Nvidia Blackwell en la nube, ofreciendo un rendimiento y escalabilidad de IA sin precedentes.
En un avance significativo para la computación en la nube y la inteligencia artificial, CoreWeave ha anunciado la disponibilidad general de instancias basadas en NVIDIA GB200 NVL72, lo que lo convierte en el primer proveedor de servicios en la nube en ofrecer la plataforma Nvidia Blackwell a una audiencia amplia. Se espera que este lanzamiento facilite el despliegue de modelos AI avanzados a escalas sin precedentes, según un anuncio reciente de CoreWeave.
NVIDIA GB200 NVL72 en CoreWeave
La plataforma NVIDIA GB200 NVL72 es una solución a escala de estante de vanguardia, refrigerada por líquido con un dominio NVLINK de 72 GPU. Esta configuración permite que las GPU funcionen como una unidad única y masiva, mejorando significativamente la potencia computacional. La plataforma integra varios avances tecnológicos, como el NVLink de quinta generación, que proporciona 130TB/s de ancho de banda GPU, y el motor de transformador de segunda generación, que admite FP4 para un rendimiento de IA más rápido sin sacrificar la precisión.
Los servicios en la nube de CoreWeave están optimizados específicamente para Blackwell, con características como el servicio CoreWeave Kubernetes, que garantiza una programación eficiente de la carga de trabajo y un sorbo en Kubernetes (SUNK) para una distribución inteligente de carga de trabajo. Además, la plataforma de observabilidad de CoreWeave ofrece información en tiempo real sobre el rendimiento de NVLink y la utilización de GPU.
Computación acelerada de pila completa para AI
La plataforma AI de pila completa de NVIDIA combina software avanzado con infraestructura con alimentación de Blackwell, proporcionando a las empresas las herramientas necesarias para desarrollar modelos y agentes de IA escalables. Los componentes clave incluyen planos NVIDIA para flujos de trabajo personalizables, NVIDIA NIM para la implementación de modelo AI seguro y NVIDIA NEMO para capacitación y personalización de modelos. Estos elementos son parte de la plataforma de software NVIDIA AI Enterprise, que permite soluciones de IA escalables en la infraestructura de CoreWeave.
AI de próxima generación en la nube
La introducción de instancias basadas en NVIDIA GB200 NVL72 en CoreWeave subraya el compromiso de las compañías de entregar soluciones informáticas de vanguardia. Esta colaboración proporciona a las empresas los recursos necesarios para impulsar la próxima generación de modelos de razonamiento de IA. Las empresas ahora pueden acceder a estas instancias de alto rendimiento a través del servicio CoreWeave Kubernetes en la región estadounidense-oeste-01.
Para aquellos interesados en aprovechar estas potentes soluciones basadas en la nube, se pueden explorar más información y opciones de aprovisionamiento a través de los canales oficiales de CoreWeave.
Para obtener información más detallada, consulte el Blog oficial de Nvidia.
Fuente de la imagen: Shutterstock