Nvidia Blackwell在MLPERF培训v5.0中取得2.6倍的性能提升

NVIDIA Blackwell Achieves 2.6x Performance Boost in MLPerf Training v5.0

Luisa Crawford Jun 04, 2025 17:51

NVIDIA's Blackwell architecture showcases significant performance improvements in MLPerf Training v5.0, delivering up to 2.6x

nvidia的最新布莱克韦尔建筑在人工智能领域取得了长足的进步,在MLPERF培训v5.0 v5.0基准测试期间,性能提高了2.6倍。根据NVIDIA的说法,这项成就强调了Blackwell带来的建筑进步,尤其是在T中他要求大型语言模型(LLM)和其他AI应用程序的领域。

Blackwell的建筑创新

Blackwell与其前身Hopper Architecture相比,Blackwell引入了几种增强功能。其中包括第五代NVLINK和NVLINK开关技术,可大大增强GPU之间的带宽。这种改进对于减少训练时间和增加吞吐量至关重要。此外,Blackwell的第二代变压器引擎和HBM3E内存有助于更快,更有效的模型培训。

这些进步使NVIDIA的GB200 NVL72系统可以取得显着的结果,例如训练Llama 3.1 405b 2.2x Model 2.2X Model Bats Bat hopper Architectect offer Hopper架构。该系统最多可以达到1,960个训练吞吐量。

跨基准的性能

mlperf培训v5.0 v5.0,以其严格的基准测试而闻名,包括跨LLM预处理,文本到文本生成的各个领域的测试以及图神经网络。 Nvidia的平台在所有七个基准测试中都表现出色,以速度和效率展示了其能力。同样,稳定的扩散V2预处理基准测试的每gpu的性能提高了2.6倍,为大规模创造了新的性能记录。

含义和未来的前景

绩效的改进不仅强调了黑井建筑的功能,而且还铺平了AI模型的快速部署方式。更快的培训和微调意味着组织可以将其AI应用程序更快地推向市场,从而提高其竞争优势。

nvidia继续专注于优化其软件堆栈,包括Cublas和Cudnn等图书馆,在这些绩效增长中起着至关重要的作用。这些优化有助于有效地使用布莱克韦尔(Blackwell)增强的计算能力,尤其是在AI数据格式中。

随着这些发展,NVIDIA准备进一步领导其在AI硬件中的领导才能,提供满足不断增长的复杂和大型AI模型的需求。

对NVIDIA在MLPERF中的详细见解,访问MLPERF培训v5.0的

P. p. p. p pobl/clob flagtia。

Previous PostNVIDIA MLPERF v5.0:LLM基准的训练分数
Next Post没有了