通过 CrewAI 工厂和 NVIDIA 开启原生代理转型
CrewAI 发布周第一天(2025年5月)
CrewAI Enterprise 使组织能够轻松地在云端构建、运行和监控代理式AI工作流,并在一开始就实现业务流程自动化。然而,实际上,大型企业通常由于安全和数据隐私要求,需要在其自己的基础设施上运行AI应用程序。
这就是为什么我们很高兴地宣布,CrewAI Enterprise 现在可以通过CrewAI Factory 部署到客户基础设施上——无论是在数据中心还是虚拟私有云中。CrewAI Factory 提供与CrewAI Enterprise 相同的优势和功能,但采用客户管理的形式,提供:
- 管理和监控
- 实时测试和跟踪
- 无代码开发
- 企业工具和连接器
- 加密通信和存储
- 安全操作(例如,SOC2/HIPPA/FedRAMP High)
随处部署
AWS/Azure VPC – 支持AWS Fargate和Azure Container Apps,使企业能够在自己的VPC上运行,并使用自己的云数据库(例如,AWS RDS/Azure Database)。
Kubernetes 集群 – 通过Helm进行Kubernetes部署,使企业能够在自己的AWS Elastic Kubernetes Service、Azure Kubernetes Service和Google Kubernetes Service集群以及Red Hat OpenShift(本地或云端)上运行。
无服务器扩展,高可用性– 无服务器、基于容器的架构不仅简化了部署,而且通过资源分配提供自动扩展,并通过持久卷和数据库副本提供高可用性。
安全认证– 与Auth0和Microsoft Entra ID原生集成,实现客户管理的企业级认证。
成为代理原生
CrewAI Factory不仅帮助企业满足AI应用程序的安全和数据隐私要求,还弥合了CrewAI的代理驱动和代理原生采用水平之间的差距。部署少量代理式工作流并看到对业务产生巨大影响的潜力是一回事。而将代理式AI作为从根本上改变业务流程和加速增长的手段则是另一回事。
借助CrewAI,企业可以实现几个数量级的扩展——从几十个代理工作流到成百上千个,从少量简单用例到跨多个团队、部门或业务单元的数百个关键用例。
成为代理原生的道路是CrewAI Factory真正的承诺。它不仅仅是一个协调代理的框架,它是一个完整的平台,旨在将代理式AI融入创新企业的DNA中。
构建AI工厂
CrewAI与NVIDIA合作,帮助企业实现这一转型,CrewAI Factory提供代理式AI平台,NVIDIA AI Enterprise通过NVIDIA NeMo和NVIDIA NIM微服务为代理提供专业模型和工具。
NIM微服务的集成使CrewAI客户能够构建和部署基于NVIDIA NeMo Retriever、NVIDIA Llama Nemotron和NVIDIA NeMO Guardrails模型的代理。通过访问这些模型和安全、高性能的推理,CrewAI Factory上的代理工作流受益于高级推理和工具使用,以及从非结构化数据中检索知识时更高的准确性。NVIDIA托管了许多参考AI蓝图,其中一个由CrewAI提交的代码文档蓝图可以在这里找到。
CrewAI Factory和NVIDIA AI Enterprise的部署为客户提供了他们自己的AI工厂,运行在他们自己的基础设施上,并且在规模和专业化方面没有限制。
“代理式AI正在赋能各行各业的组织更快地创新,CrewAI和NVIDIA正在携手合作,赋能企业协调智能的多代理系统,这些系统能够推理、规划和行动,通过智能AI队友扩展生产力。”
John Fanelli,NVIDIA企业软件副总裁。
CrewAI的第一次发布周才刚刚开始。请继续关注,我们还有更多内容要分享,并报名参加本周四的网络研讨会,了解我们如何将代理式AI提升到新的水平!
评论 ()