AMD推出了Pensando AI NIC,以增强AI基础架构

AMD Introduces Pensando AI NICs for Enhanced AI Infrastructure

Joerg Hiller Apr 18, 2025 05:56

AMD unveils its Pensando AI NICs, promising scalable AI infrastructure with high performance and flexibility, meeting the demands

下一代AI工作负载中,AMD宣布发布其Pensando Pollara 400 AI NIC,旨在满足AI和机器学习工作负载的不断增长的需求。新的AI网络接口卡(NICS)承诺将提供可扩展的解决方案,以满足AI群集的性能,同时保持灵活性,并保持灵活性。P>

解决AI基础架构挑战

,随着对AI和大型语言模型的需求增加,迫切需要并行计算基础架构,这些基础架构可以有效地处理高性能要求。一个主要的挑战是阻碍GPU利用率的网络瓶颈。 AMD的新AI NIC旨在通过在数据中心优化节点内GPU-GPU通信网络,从而提高数据传输速度和整体网络效率。

Pensando ai NICS

Pensando Pollara 400 ai NICS作为该行业的第一个完全程序MI nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics nics。它们的构建是为了与新兴的Ultra Ethernet联盟(UEC)标准保持一致,从而为客户提供了使用AMD的P4架构对硬件管道进行编程的能力。这允许添加新的功能和自定义传输协议,以确保可以加速AI工作量而无需等待新硬件的新硬件。

SOMe key features include:

  • Transport Protocol Options: Supports RoCEv2, UEC RDMA, or any Ethernet protocol.
  • Intelligent Packet Spray: Enhances network bandwidth utilization with advanced packet management techniques.
  • Out-of-Order Packet Handling: Reduces buffer time by managing out-of-order packet arrivals efficiently.
  • Selective重新启动:通过仅连接丢失或损坏的数据包来提高网络性能。
  • 路径浮游的拥塞控制:优化负载平衡以保持拥塞期间的性能。
  • 快速故障检测:最小化GPU的闲置时间,以快速的失败机制为

生态系统,允许组织构建易于扩展且可用于未来需求的AI基础架构。这种方法不仅减少了资本支出云服务提供商和企业的ITURESS。

Pensando Pollara 400 AI NIC已在全球一些规模最大的数据中心中得到验证。它的可编程性,高带宽,低潜伏期和广泛的功能集使其成为希望增强其AI基础架构功能的云服务提供商的首选。

图像来源:Shutterstock

Previous PostNTOP通过AI和加速计算彻底改变了产品设计
Next Post没有了