afumu
afumu
发布于 2025-03-19 / 5 阅读
0
0

关于MCP的未来应用思考

总结:

  1. 如果大模型本身的编排能力稳定的话,那么coze这种工作流平台以后可能就不存在

  2. 人人都可以通过自然语言的方式来编排,组合出自己想要的功能

  3. 大模型本身就要具备复杂问题分解和编排的能力,而不是依靠外部的人工进行ai agent开发再和大模型对接。

  4. 后续企业做通用智能体,你需要做的是就是将你企业知识和资源做好mcp server全部提供出来接入到大模型。剩下的事情大模型自己搞定,这是走向通用AI智能体的基础。

1. 背景与痛点:

  • 在 MCP 出现之前,大型模型(LLM)调用外部工具或 API 最常见的方式是利用模型自身的 Function Calling 功能。

  • 虽然 Function Calling 可以实现基本的功能,例如查询天气,但存在关键问题:工具难以复用。

  • 开发者编写的特定工具(如查询天气的工具)很难被其他人直接使用,往往需要重复开发或进行复杂的适配。

2. MCP 的提出与核心思想:

  • 为了解决上述问题,MCP(Model Capability Protocol)被提出。

  • MCP 的核心思想是制定一个统一的协议,使得开发者可以遵循这个协议发布自己开发的工具作为 MCP 服务端。

  • 其他用户只需要按照该协议编写客户端,即可轻松调用并复用这些工具。

3. MCP 的技术基础:

  • MCP 的实现是基于 LLM 的 Function Calling 功能的。

  • 因此,如果 LLM 本身不支持 Function Calling,实现 MCP 将会非常困难。

4. MCP 的重要意义与价值:

  • 提高工具复用性:解决了传统 Function Calling 模式下工具难以共享和复用的问题。

  • 简化外部能力集成:使得 LLM 可以更便捷地集成各种外部能力。

  • 推动智能体生态发展:预计未来各家智能体平台会陆续接入 MCP,形成更繁荣的生态。

  • 提升能力组合效率:

    • 在 LLM 出现之前,组合各种底层原子能力通常需要借助复杂的服务编排。

    • 现在,通过 MCP,用户可以直接使用自然语言轻松地组合这些能力,极大地提升了效率。

  • 支持企业私有化部署:MCP 可以本地部署,构建成企业私有的服务与能力网关。

5. MCP 与企业 AI 通用智能体:

  • 将 MCP 部署为企业私有服务是构建企业专属 AI 通用智能体的关键思路。

  • 未来的通用智能体将具备复杂问题分解和编排的能力,不再需要外部人工进行复杂的 AI Agent 开发再与 LLM 对接。

  • 企业需要做的就是将自身的知识和资源通过 MCP Server 的形式提供给 LLM。

  • 剩下的复杂问题处理和能力编排将由 LLM 自行完成,这是走向通用 AI 智能体的基础。

6. MCP 对未来工作流平台的影响:

  • 随着 LLM 本身编排能力的增强和稳定,类似 Coze 这样的工作流平台未来可能不再是必需品。

  • 用户可以通过自然语言直接编排和组合 MCP Server 提供的各种功能,实现自定义需求。

MCP 的提出旨在解决大型模型调用外部工具时存在的复用性问题。通过制定统一的协议,MCP 使得工具的开发、发布和使用更加便捷高效,为构建更强大的智能体生态和企业级通用智能体奠定了基础。随着大型模型自身能力的不断发展,MCP 有望成为连接模型与外部世界的关键桥梁。


评论