Arcee AI从AWS转变为AI,以增强灵活性和性能

Arcee AI Transitions from AWS to Together AI for Enhanced Flexibility and Performance

Peter Zhang May 05, 2025 22:08

Arcee AI migrates from AWS to Together Dedicated Endpoints, optimizing costs and performance for their specialized small language models, enhancing operational agility和效率。

Arcee AI是一家致力于简化AI采用的公司,通过将其专业的小语言模型(SLMS)从Amazon Web Services(AWS)过渡到共同专用端点,从而做出了战略性的举动。根据ai的说法,这种迁移在成本效率,绩效和ArceeAI。

在Arcee AI策略的核心优化小语言模型

的操作敏捷性是开发针对特定任务优化的专业小语言模型,通常低于720亿个参数。该公司利用专有技术来进行模型培训,合并和蒸馏,以产生高性能的模型,这些模型在编码,文本生成和高速推断等任务中出色。

随着迁移到AI的迁移,这些模型中的七个现在可以通过AI无服务器的端点访问。这些模型包括Arcee ai Virtuoso-large,Arcee ai Virtuoso-Medium,Arcee Ai Maestro,Arcee AI编码器,Arcee AI呼叫者,Arcee AI Spotlight和Arcee AI Blitz,每个闪电仪都设计为各种复杂的任务,从编码到视觉任务范围范围。乐团

此外,Arcee AI还开发了两种软件产品Arcee指挥和Arcee Orchestra,以增强其AI产品。导体是一种智能推理路由系统,根据任务要求有效地将查询指向最合适的模型。该系统不仅可以通过使用每个任务的最佳模型来降低成本,还可以提高性能基准。

arcee Orchestra专注于建筑代理工作流程,使企业能够通过与第三方服务无缝集成来自动化任务。无代码界面允许用户轻松地创建自动化的工作流,由AI驱动的功能提供动力。

AWS挑战,转移到AI

最初,Arcee AI通过AWS的AWS托管kaubernetes kubernetes服务部署了其模型。但是,这种设置提出了挑战,需要大量的工程资源和专业知识,使其繁琐且昂贵。 AWS的GPU定价和采购困难进一步复杂,促使Arcee AI寻求替代解决方案。

共同提供了专用端点GPU部署,消除了对内部基础架构管理的需求。这种过渡简化了Arcee AI的运营,提供了更大的灵活性和成本效益。迁移过程是无缝的,AI共同管理基础架构,并为ARCEE AI的模型提供了API访问。

绩效的提高和未来的前景

移民后,Arcee AI报告了其模型中的性能改进,在其秒和降低的41个Queries中实现了显着的降低。这些增强功能已定位为Arcee AI继续扩展其产品并在AI景观中进行创新。

展望未来,Arcee AI计划将其模型与Arcee Orchestra进一步整合,并增强Arcee导体与专用模式的工具和编码。 AI共同致力于优化其基础架构,以支持Arcee AI的增长,确保卓越的性能和成本效益。

这种伙伴关系反映了不断发展的动态在AI行业中,像Arcee AI这样的公司利用基于云的解决方案来完善其产品并提供更好的投资回报。有关更多详细信息,请访问ai。

图像来源:shutterstock
Previous PostCoreWeave最终将AI开发人员平台的重量和偏见敲定
Next Post没有了