在过去的几年中,AI Agent 应用的开发方式经历了快速演变。生成式 AI 的高速发展,使得许多我们不久前构建的应用,很快就被视为“遗留系统”。 这正是高速变化时代的典型挑战:知识与工具的迭代频率在短期内异常剧烈,直至逐渐趋于稳定。
以我的经验为例,我们最初为 Unit Mesh 辅助研发体系从零构建了 ChocoBuilder 框架,随后转向基于 Dify/Coze + Shire 本地智能体语言的实践, 近期则进一步为客户搭建了 基于 Spring AI 的 AI Agent 框架体系。
在企业侧,AI Agent 体系的构建面临一系列的挑战,诸如于:
对以 Java 为核心的企业而言,这些挑战又有其独特性:如何将 AI 能力无缝集成到庞大的 Java/JVM 生态中,既兼顾企业既有系统的稳定性, 又能释放生成式 AI 的创新潜力。
从 2022 年的 LangChain(Chain/Tool/Agent 抽象),到 2023 年的 Semantic Kernel(Skill + Planner 模式),再到 2024 年面向 Java/Spring 生态的 Spring AI,框架演进的核心趋势是:从实验性探索逐渐走向与企业应用体系深度集成,实现从“快速原型”到 “可运维的生产级框架”的过渡。
相似的,开发人员会在不同的场景里试验和构建 AI Agent:
与开发成本巨高的特定场景 AI Agent 相比,业务部门可以直接上手、采购的 AI 平台和通用 RAG 才是主流,也就是 AI 应用平台。
在企业环境中,低代码并非对专业代码的替代,而是一种强大的倍增器。低代码平台可以快速处理 80% 的通用、重复性任务, 从而让专业开发者能够专注于 20% 的复杂、高价值和性能敏感的逻辑 。
过去,企业知识主要存储在数据中心,由专门的数据团队和平台进行管理。如今,AI 也走上了类似的路径:当需要 RAG 或模型微调时,相关流程都会集成到 AI 应用平台中,其通常具备以下能力:
从过去只是提供模型服务,到 Dify、Coze Studio、OneAgent、Copilot Studio 等大量的 B 端 AI 应用平台的崛起,它们已经承接了原来 AI 框架的功能:知识库处理、RAG:检索策略、Embedding、重排策略等,并且可以直接对外提供 AI Workflow 的接口,只需要接入即可。
随着越来越多业务直接采用基于 AI 应用平台 的方式,原本依赖 AI 框架(如 LangChain)实现的 RAG 等能力,正在逐渐由平台提供。
如今,很多 AI 应用虽然仍引入 LangChain,但往往只使用 langchain_openai
或 langchain_community
来调用模型接口,
真正的复杂能力已经被平台所吸收。另一方面,像 Copilot Studio 这样的产品,则进一步打通了 低代码与专业开发(ProCode) 之间的鸿沟,
使企业能够在快速构建和部署 AI Agent 的同时,依然保留对核心业务逻辑的精细化控制。
对比项 | AI 框架(Framework) | AI 应用平台(Platform) |
---|---|---|
代表性产品 | LangChain、Spring AI、Semantic Kernel | Dify、Coze Studio、Copilot Studio |
特点 | 偏底层,贴近开发者,需要代码式集成;提供深度集成与精细控制能力 | 偏上层,面向场景,提供可视化 / 低代码 / 编排化能力 |
适用场景 | 满足开发团队对代码可控性、安全合规、复杂场景的定制需求 | 让业务团队和非专业开发者也能快速落地,低门槛扩展 |
典型用户群体 | 开发者团队、架构师 | 业务人员、产品经理、非专业开发者 |
从实践上看,框架与平台并非替代关系,而是分层共存、互为补充:
即简单的功能可以通过内部框架快速实现,而复杂的编排、协作与落地则交由平台完成,从而实现双轨并行的最佳实践。
尽管模型能力提升明显,但在业务场景下仍无法保证 100% 的稳定与准确,因而需要通过 PoC 与渐进式迭代来降低风险。 除此,在将 AI Agent 与现有系统集成的过程中,流式交互带来了新的架构挑战:
在采用 Java 微服务架构里,对于 Python 构建 AI 服务就不存在这个问题了,而如果采用 Java 就需要面临这个挑战:AI 服务和普通应用服务是 否在同一个服务/进程里??
显然,从通用的实践里,直接使用独立服务是一个更好的选择,方便未来重写。
与两年前相比,随着模型对于 Agentic 支持的增强,诸如于推理能力,连续工具调用等。进一步推动了 Agent 向 Agentic AI 的升级,其影响的核心内容包括:
这种转变意味着 AI 不只是“回答问题”,而是成为能够主动协调资源、跨系统执行任务的智能体。在这个背景下,结合 MCP(模型上下文协议)的流行, 企业看到了越来越多的智能可能性:内部的业务服务可以直接转换 AI 能力 —— 诸如直接转换为 MCP Tool。当然,这也不是那么简单的,除了业务本身, 还需要有大量的基础设施,诸如于前面提到的 Agent 的评估与治理。
单一框架往往难以满足企业复杂多样的业务需求。例如,一个任务可能同时需要高效的数据检索(RAG)、多智能体协作和与现有业务系统的深度集成。
结合我们使用 Google DeepResearch 的 AI Agent 框架总结,其将其总结为如下的四类:
除此,随着 AI Agent 应用的普及,企业级部署对可观察性(Observability)和安全性(Security)的需求变得日益核心。 智能体的非确定性行为使得传统的调试和监控方法难以应对。因此,像 LangSmith 和 Atla 这样的专门用于跟踪、调试、评估和监控 AI Agent 行为的工具正变得至关重要
企业级并非仅指功能完备,更重要的是满足长期可持续性、安全性和可扩展性等非功能性要求。一个强大的 AI 开发框架,如果无法融入现有的企业技术栈管理, 并确保数据安全,那么它在企业环境中将会受到限制。一个理想的企业级 AI 框架和平台应遵循以下四个核心设计原则 :
构建企业级 AI 平台往往是一个渐进式、场景驱动的过程。它通常从单一成功用例起步,逐步引入管理和编排能力,最终沉淀为融合多团队经验的完整 AI 生态系统。
围观我的Github Idea墙, 也许,你会遇到心仪的项目