NVIDIA的CUML通过森林推理库增强了基于树的模型推断
NVIDIA's cuML Enhances Tree-Based Model Inference with Forest Inference Library
Darius Baruo Jun 05, 2025 07:57
NVIDIA's cuML 25.04 introduces enhancements to the Forest Inference Library, boosting tree-based model inference performance with new features and优化。
nvidia作为CUML 25.04版本的一部分宣布了其森林推理库(FIL)的重大更新,旨在增强基于树的模型推断的性能。这种增强的重点是对梯度增强的树木和随机森林实现更快,更有效的推断,尤其是在接受FR的训练时根据Nvidia的说法,XGBoost,LightGBM和Scikit-Learn之类的Ameworks。
新功能和优化
其中一个关键更新包括重新设计的C ++实现,该实现支持GPU和CPU上的批量推断。更新的FIL具有用于调整推理模型的Optimize()函数,并引入了高级推理API,例如Prection_Per_Tree并应用。值得注意的是,与先前的FIL版本相比,新版本有望将GPU吞吐量提高四倍。
自动优化功能是杰出的,可以使用内置方法来简化微型性能的过程,该方法可以调整超级公制器以基于批量尺寸的最佳性能。这对于旨在利用FIL的功能而无需进行大量手动配置的用户特别有益。
性能基准
在性能测试中,CUML 25.04表现出对其前身的速度提高。跨多种模型参数ERS和批量尺寸,新的FIL版本的表现超过了75%的场景中的前一个,实现了1.16倍的中位加速度。在需要批处理1尺寸1性能和最大吞吐量的情况下,增强功能尤为明显。
与Scikit-Learn的本机执行相比,FIL的性能非常出色,取决于模型和批量尺寸,速度从13.9 x到882 x。 These improvements highlight FIL's potential to replace more resource-intensive CPU setups with a single GPU, offering both speed and cost efficiency.
Broad Applicability and Future Developments
The versatility of FIL in cuML 25.04 is underscored by its ability to operate on systems without NVIDIA GPUs, enabling local testing and deployment flexibility.该图书馆支持GPU和CPU环境,使其适用于广泛的应用程序,从高批量批处理作业到混合部署方案。
展望未来,NVIDIA计划整合THE THEESE功能能够进入Triton推理服务器的未来发行版,进一步扩大了FIL的覆盖范围和实用性。用户可以通过下载CUML 25.04版本来探索这些增强功能,即将到来的博客文章预计将对技术细节进行深入研究并提供其他基准。
以获取有关森林推论库及其功能的更多信息,感兴趣的当事方可以参考cuml file文档。