
La IA está en el centro de las innovaciones transformadoras de la humanidad, desde el desarrollo de vacunas contra el COVID a velocidades sin precedentes y el diagnóstico del cáncer hasta la potencia de vehículos autónomos y la comprensión del cambio climático.
Prácticamente todas las industrias se beneficiarán de la adopción de la IA, pero la tecnología requerirá más recursos a medida que las redes neuronales se vuelvan más complejas. Para evitar la necesidad insostenible de generar electricidad para hacer funcionar esta infraestructura informática, la tecnología subyacente debe ser lo más eficiente posible.
La computación acelerada impulsada por las GPU NVIDIA y la plataforma NVIDIA AI ofrecen eficiencias que permiten que los centros de datos impulsen de manera sostenible la próxima generación de avances.
Y ahora, junto con el lanzamiento de los procesadores escalables Intel Xeon de cuarta generación, NVIDIA y sus socios han lanzado una nueva generación de sistemas informáticos acelerados creados para IA de bajo consumo. Cuando se combinan con las GPU NVIDIA H100 Tensor Core, estos sistemas pueden ofrecer un rendimiento significativamente mayor, una mayor escalabilidad y una mayor eficiencia que la generación anterior, lo que permite realizar más cálculos y soluciones por vatio.
Las nuevas CPU Intel se utilizan en los sistemas NVIDIA DGX H100, así como en más de 60 servidores con GPU H100 de los socios de NVIDIA en todo el mundo.
Velocidad, eficiencia y ahorro de costes para la IA empresarial
Los próximos sistemas de NVIDIA e Intel ayudarán a las empresas a ejecutar cargas de trabajo 25 veces más eficientes que los servidores de centros de datos tradicionales solo con CPU. Este increíble rendimiento por vatio significa que se necesita menos energía para hacer las cosas, lo que permite que la energía en los concentradores dados se use de la manera más eficiente posible para impulsar el trabajo más importante.
En comparación con los sistemas acelerados de la generación anterior, esta nueva generación de servidores acelerados por NVIDIA acelera el aprendizaje y la inferencia para un aumento de 3,5 veces en la eficiencia energética, lo que se traduce en ahorros de costos reales, y los centros de datos de IA con un costo total de propiedad más de 3 veces menor brindan
Las nuevas CPU Intel Xeon de cuarta generación entregan más datos para acelerar NVIDIA AI
Entre las nuevas características de la CPU Intel Xeon Gen 4 se encuentra la compatibilidad con PCIe Gen 5, que puede duplicar la velocidad de transferencia de datos desde la CPU a la GPU NVIDIA y la red. Los carriles PCIe aumentados permiten una mayor densidad de GPU y redes de alta velocidad dentro de cada servidor.
Un ancho de banda de memoria más rápido también mejora el rendimiento de las cargas de trabajo con uso intensivo de datos, como la IA, mientras que las velocidades de red (hasta 400 gigabits por segundo (Gbps) por conexión) permiten una transferencia de datos más rápida entre servidores y almacenamiento.
Los sistemas y servidores NVIDIA DGX H100 de los socios de NVIDIA con GPU H100 PCIe vienen con licencia para NVIDIA AI Enterprise, un conjunto de software de desarrollo e implementación de IA seguro, completo y basado en la nube que proporciona una plataforma completa para un mayor rendimiento. IA empresarial.
Sistemas NVIDIA DGX H100 Potente rendimiento para Supersize AI
Como la cuarta generación de la infraestructura de inteligencia artificial líder en el mundo, los sistemas NVIDIA DGX H100 brindan una plataforma totalmente optimizada impulsada por un sistema operativo de centro de datos acelerado, el software NVIDIA Base Command.
Cada sistema DGX H100 cuenta con ocho GPU NVIDIA H100, 10 adaptadores de red NVIDIA ConnectX-7 y dos procesadores escalables Intel Xeon de 4.ª generación para proporcionar el rendimiento necesario para construir grandes modelos de IA generativa, modelos de lenguaje grande, sistemas de recomendación, etc.
En combinación con las redes de NVIDIA, esta arquitectura permite una informática eficiente a escala, hasta 9 veces más rápida que la generación anterior y de 20 a 40 veces más rápida que los servidores X86 de dos sockets para entrenamiento de IA y cargas de trabajo de HPC. Si el modelo de lenguaje requería anteriormente 40 días para entrenar en un clúster de servidores solo X86, NVIDIA DGX H100 con CPU Intel Xeon y una red con tecnología ConnectX-7 puede completar la misma tarea en menos de 1 o 2 días.
Los sistemas NVIDIA DGX H100 son bloques de construcción NVIDIA DGX SuperPOD llave en mano y listos para la empresa que ofrecen hasta un exaflop de rendimiento de IA, proporcionando un salto en el rendimiento para la implementación de IA a gran escala.
Los socios de NVIDIA aumentan la eficiencia del centro de datos
Para las cargas de trabajo del centro de datos de IA, las GPU NVIDIA H100 permiten a las empresas crear e implementar aplicaciones de manera más eficiente.
Al brindar una nueva generación de rendimiento y eficiencia energética a las empresas de todo el mundo, pronto estará disponible una amplia cartera de sistemas con GPU H100 y CPU de cuarta generación de los socios de NVIDIA, incluidos ASUS, Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Intel Xeon Scalable está viniendo. Packard Enterprise, Lenovo, QCT y Supermicro.
En lo que respecta a los aumentos de rendimiento en el futuro, Lenovo ThinkSystem con NVIDIA H100 GPU del Flatiron Institute figura en la lista Green500 más reciente, y las tecnologías NVIDIA proporcionan 23 de los 30 mejores sistemas de la lista. El sistema Flatiron utiliza las CPU de la generación anterior de Intel, por lo que puede esperar incluso más rendimiento que los sistemas que se encuentran actualmente en el mercado.
Además, la conexión de servidores con redes NVIDIA ConnectX-7 y procesadores escalables Intel 4th Gen Xeon aumenta la eficiencia, reduce la infraestructura y el consumo de energía.
Los adaptadores NVIDIA ConnectX-7 admiten PCIe Gen 5 y 400 Gbps a través de una única conexión mediante Ethernet o InfiniBand, lo que duplica el rendimiento de la red entre servidores y almacenamiento. Los adaptadores admiten redes avanzadas, almacenamiento y carga de seguridad. ConnectX-7 reduce la cantidad de cables y puertos de conmutador necesarios, lo que ahorra un 17 % o más de energía para las redes de clústeres a gran escala de IA y HPC acelerados por GPU, y contribuye a mejorar la eficiencia energética de estos nuevos servidores.
El software NVIDIA AI Enterprise proporciona una solución de IA completa
Estos sistemas de próxima generación también brindan un salto adelante en la eficiencia operativa, ya que están optimizados para el paquete de software NVIDIA AI Enterprise.
Impulsado por NVIDIA H100, NVIDIA AI Enterprise acelera la canalización de la ciencia de datos y simplifica el desarrollo y la implementación de modelos predictivos de IA para automatizar procesos críticos y obtener información rápida de los datos.
Con una amplia biblioteca de software de pila completa, que incluye flujos de trabajo de IA de aplicaciones de referencia, marcos, modelos preconstruidos y optimización de infraestructura, el software proporciona la base ideal para escalar el éxito empresarial.
Para probar los flujos de trabajo y los marcos de trabajo de NVIDIA H100 AI compatibles con NVIDIA AI Enterprise, regístrese en NVIDIA LaunchPad de forma gratuita.
Vea al cofundador y director ejecutivo de NVIDIA, Jensen Huang, hablar en el evento de lanzamiento del procesador escalable Intel Xeon de cuarta generación.