为满足对企业级生成式AI日益增长的需求,JFrog Platform 集成了NVIDIA NIM,以提供 GPU 优化的AI模型服务
2024年9月18日 ——流式软件公司、JFrog 软件供应链平台的缔造者JFrog,现已通过收购 Qwak AI将业务扩展至涵盖统一 MLOps 平台,近期宣布与NVIDIA NIM 微服务(NVIDIA AI Enterprise 软件平台的一部分)进行新的产品集成。将JFrog Artifactory模型注册和NVIDIA NIM集成至JFrog Platform,有望实现在端到端软件供应链工作流中将GPU优化、预获批的AI模型与集中式DevSecOps流程相结合,使企业能够以极快的速度将安全的机器学习(ML)模型和大语言模型(LLM)投入生产,并提高透明度、可追溯性和信任度。
JFrog战略执行副总裁Gal Marder表示:“ 随着企业快速采用AI技术,落实确保效率和安全性的实践,并以负责任的方式采用AI至关重要。通过NVIDIA NIM微服务,将DevOps、安全和MLOps流程集成至端到端软件供应链工作流中,客户将能够高效地将安全模型投入生产,同时在整个流水线中保持高度的可视性、可追溯性和可控性。”
随着AI在软件应用中的兴起和市场需求的快速增长,数据科学家和ML工程师在企业环境中扩展ML模型部署时面临着多样化的挑战。碎片化的资产管理、安全漏洞、合规性问题和性能瓶颈,再加上将AI工作流与现有软件开发流程集成的复杂性,以及在各种环境中灵活、安全部署的应用需求,使问题变得更加复杂。这种复杂性的叠加可能导致部署周期漫长且成本高昂,甚至许多情况下会导致AI应用计划的失败。
NVIDIA 企业战略合作伙伴副总裁Pat Lee表示:“随着企业扩大生成式AI的部署规模,中央存储库可以帮助他们快速选择和部署已获准开发的模型。将NVIDIA NIM微服务集成到JFrog Platform,可以帮助开发人员快速获得完全合规、性能优化的模型,并迅速投入生产。”
JFrog Artifactory提供了一种单一解决方案,该方案适用于存储和管理整个软件供应链中使用的所有制品、二进制文件、软件包、文件、容器和组件。JFrog Platform与NVIDIA NIM的集成有望将容器化AI模型作为软件包纳入现有的软件开发工作流。通过将NVIDIA NGC(一个GPU优化深度学习、ML和HPC模型的中心)与JFrog Platform和JFrog Artifactory模型注册中心相结合,企业将能够为所有软件包和AI模型维护单一事实来源,同时利用企业DevSecOps最佳实践来获得对整体软件供应链的可视性、管理和控制。
JFrog Platform与NVIDIA NIM的集成有望带来多项优势,包括
●统一管理:在 JFrog Artifactory(作为模型注册表)中,对所有资产(包括专有制品和开源软件依赖项)以及 NIM 微服务容器进行集中访问控制和管理,实现与现有 DevSecOps 工作流的无缝集成。
●全面的安全性和完整性:在开发的每个环节(包括容器和依赖项)进行持续扫描,通过 JFrog 审计和使用情况统计来提供对 NIM 微服务的上下文洞察,从而促进合规性。
●卓越的模型性能和可扩展性:利用NVIDIA加速计算基础设施来优化AI应用性能,提供低延迟和高吞吐量,以便在大规模生产环境中实现具有可扩展性的LLM部署。
●灵活部署:通过 JFrog Artifactory 提供灵活的部署选项,包括自托管、多云和离线部署选项。