模型上下文协议(MCP)在 Endless AI 中的应用:为自主代理、智能合约与创作者经济提供去中心化 AI 编排
2025-06-09 14:35
Endless
2025-06-09 14:35
订阅此专栏
收藏此文章

作者:Amit Kumar Jaiswal 博士,Endless CTO


模型上下文协议(MCP) 是一个由 Anthropic 引入的开源通信框架,旨在标准化 AI 大模型、应用程序和去中心化系统之间的交互。它作为一个中间件层,功能类似于“通用适配器”,能够实现异构 AI 代理、API 和区块链网络之间的无缝数据交换、持久连接、上下文保持和互操作性,摆脱了传统的一次性 API 调用方式。

为什么需要 MCP?

现有的大型语言模型(LLM)驱动系统具有静态的输入 / 输出结构,难以实现实时协作和动态信息使用。由于每次交互都需要传递上下文,这些系统效率低下,且与多种工具和数据源的集成复杂且非标准化。MCP 解决了这些问题,使 LLM 能够作为对话代理,访问实时信息,主动调用外部工具,并保持上下文。

MCP 的关键特性:

标准化通信:MCP 定义了结构化协议,确保 AI 模型在交换上下文数据时不丢失语义含义。

去中心化互操作性:促进分布式环境中 AI 代理之间的交互,包括 Web3 和区块链生态系统。

上下文保持:在多轮对话和涉及多个 AI 模型的复杂工作流中保持连续性。

安全性:提供权限控制、身份验证和数据完整性。

MCP 在需要 AI 模型动态协作的场景中尤为重要,例如自主代理、去中心化 AI 市场和跨链智能合约。

MCP 的核心组件

MCP 基于客户端 - 服务器架构,支持 AI 模型与外部数据源之间的无缝通信。其主要组件包括:

1. 本地机器

  • 定义:MCP 系统运行的本地环境(用户设备或服务器)。
  • 角色:
  • 托管 MCP 客户端和主机应用程序。
  • 通过协调本地和远程 MCP 服务器执行 AI 工作流。

2. 主机

  • 定义:管理 MCP 客户端和 AI 集成的中央编排者。
  • 功能:
  • MCP 客户端管理:
  • 创建和终止 MCP 客户端(例如,每个 MCP 服务器对应一个客户端)。
  • 强制执行身份验证和会话策略。
  • 上下文聚合:合并多个 MCP 客户端的输出(例如,将 LLM 响应与数据库查询合并)。
  • 安全与合规:应用用户同意规则(例如 GDPR)和数据访问控制。
  • AI 协调:将请求路由到适当的 AI 模型(例如 Claude、GPT-4)通过 MCP 客户端。
  • 示例:Claude 聊天机器人应用、VSCode AI 插件或去中心化 AI 代理平台。

3. MCP 客户端

  • 定义:由主机创建的轻量级进程,用于与单个 MCP 服务器交互。
  • 功能:
  • 有状态会话:维护与 MCP 服务器的持久连接(例如 WebSocket)。
  • 协议协商:处理版本控制、加密(TLS)和数据序列化(JSON/Protobuf)。
  • 消息路由:主机与 MCP 服务器之间的双向通信。
  • 发布 / 订阅管理:订阅事件驱动的更新(例如,实时 AI 推理结果)。
  • 关键特性:
  • 每个 MCP 服务器对应一个客户端以实现隔离。
  • 实现故障转移机制以确保可靠性。

4. MCP 服务器

  • 定义:暴露 AI 模型、工具或数据源的专用服务器。
  • 角色:
  • 资源暴露:提供对 LLM(例如 GPT-4)、数据库或 API(例如天气数据)的访问。
  • 去中心化执行:独立运行,专注于特定职责(例如,仅限文本摘要)。
  • 采样与推理:处理 MCP 客户端请求(例如,生成 AI 响应)。
  • 安全性:根据访问策略验证请求(例如,速率限制)。
  • 消息经纪人:使用发布 / 订阅机制(例如 MQTT、Redis)进行实时 AI 代理通信。
  • 区块链集成层:智能合约可触发 MCP 请求,AI 响应可记录在链上。
  • 类型:
  • 本地服务器:运行在同一机器上(例如,本地数据源 A)。
  • 远程服务器:基于云或链接到区块链(例如,外部服务 C)。

5. MCP 协议

  • 定义:组件之间的标准化通信层。
  • 技术栈:
  • 传输层:使用 HTTP/2、WebSocket 或 libp2p(用于 P2P 网络)。
  • 安全性:端到端加密(例如 TLS、Noise 协议)。

6. 数据流示例

  • 用户请求:通过主机发送查询(例如,“获取新闻并总结”)。
  • MCP 客户端路由:主机生成两个 MCP 客户端:
  • 客户端 1:连接到 MCP 服务器 A(新闻 API)。
  • 客户端 2:连接到 MCP 服务器 B(LLM 摘要)。
  • 执行:
  • MCP 服务器 A 检索新闻数据 → 通过主机发送到 MCP 服务器 B。
  • MCP 服务器 B 生成摘要 → 返回给用户。
  • 上下文保持:context_id 确保后续查询(例如,“解释第二点”)保留历史记录。

MCP 与传统 API 的对比

MCP 通过提供持久连接会话而非离散的单次请求 - 响应交互,区别于传统应用程序接口。传统 API 需要每次请求都传递上下文,而 MCP 能够实时维护和更新上下文。这种方式通过使用单一标准协议提高可扩展性,消除了传统 API 系统中每个工具需要单独连接的需求。

MCP 是使 LLM 从单纯的文本生成器转变为实时交互系统的核心技术。它促进了 AI 与各种外部数据源、软件工具和用户界面的直接协作,从而能够执行更复杂的任务。MCP 被设想为 AI 代理生态系统的核心协议,以及“工具使用 AI”的标准通信协议,为更复杂和集成的 AI 应用铺平道路。

与 LLM 和 AI 代理的集成

  • 动态模型切换:MCP 允许在对话中途切换 LLM(例如,从 GPT-4 切换到 Claude 3)而不中断上下文。
  • 多代理工作流:AI 代理可通过 MCP 协作(例如,一个处理图像生成,另一个处理文本)。
  • 细粒度访问控制:MCP 可管理去中心化网络中 AI 模型使用的权限。

MCP 在区块链与 Web3 中的应用

MCP 通过作为链上逻辑与链下 AI 处理之间的桥梁,增强了去中心化 AI 应用。

使用场景:

  • 去中心化 AI 预言机
  • 示例:智能合约在执行交易前需要对 Twitter 数据进行情感分析。
  • MCP 工作流:
  • 智能合约向 MCP 节点发送请求。
  • MCP 将查询路由到 NLP 模型(例如 GPT-4)。
  • AI 响应通过 MCP 格式化并返回链上。
  • AI 驱动的 DAO
  • 示例:DAO 使用 AI 代理分析治理提案。
  • MCP 工作流:
  • 提案文本通过 MCP 发送到 LLM 进行摘要。
  • 摘要输出供 DAO 成员投票。
  • DeFi + AI 风险评估
  • 示例:借贷协议使用 MCP 获取 AI 生成的信用评分。
  • 技术实现:
  • MCP 获取链上交易历史 + 链下信用数据。
  • AI 模型处理后通过 MCP 返回风险评分。

在 Endless AI 生态系统中实现去中心化 AI 代理协调

Endless AI 利用 MCP 为 Endless 生态系统中的 AI 集成提供统一和标准化的方法。通过结合 MCP 与 Endless 的隐私保护机制(如零知识证明(ZKP)和 KZG 承诺),该协议确保 AI 代理在访问和利用外部上下文时的交互既可验证又符合隐私标准。这意味着 AI 代理可以利用外部数据增强性能,同时整个过程可通过链上审计,用户的隐私通过加密证明和数据隔离得到保护。

  • AI 模型作为微服务:每个模型作为一个 MCP 节点,允许无缝组合(例如,GPT-4 + Stable Diffusion)。
  • 基于区块链的货币化:
  • 用户通过加密货币支付以通过 MCP 访问 AI 服务。
  • 智能合约审计 MCP 交互以确保公平性。
  • 跨平台 AI 代理:Endless AI 的代理使用 MCP 与 Web2 和 Web3 应用交互。
  • Luffa(SocialFi 平台):MCP 连接 AI 策展者以个性化信息流,同时通过零知识证明保护隐私。
  • AI-NFT 铸造:创作者使用 MCP 验证原创性后再铸造 NFT。
  • DeFi 代理群:自主交易者使用 MCP 实时分析跨链流动性。

MCP 标准化了上下文感知交互,确保 AI 代理保留记忆、适应实时数据并跨领域协作。

A. 代理 AI 与自主 AI 代理

  • 上下文感知 AI 群:
  • MCP 允许 AI 代理跨会话共享上下文(例如,用户偏好、交易历史)。
  • 示例:DeFi 交易代理使用 MCP 记住用户的风险容忍度并动态调整策略。
  • 多代理协作:
  • 代理通过 MCP 格式化消息进行协商(例如,一个代理处理 NLP,另一个执行交易)。
  • 用例:Luffa(Endless 的 SocialFi 平台)中的 AI 审查者协作检测有害内容。

B. DeFi 与智能合约

  • AI 驱动的预言机:
  • MCP 获取链下数据(例如,市场情绪)以触发智能合约。
  • 示例:借贷协议使用 MCP 获取 AI 生成的信用评分。
  • 自主 DeFi 代理:
  • 代理通过 MCP 与流动性池交互,根据实时分析优化收益。

C. 大型语言模型与 AIGC

  • 动态模型切换:
  • MCP 将查询路由到最适合的 LLM(例如,GPT-4 用于文本,Claude 用于代码)。
  • 用例:Endless 的 NFT 市场中的艺术家通过 MCP 连接的 Stable Diffusion 生成 AI 艺术。
  • 链上 IP 归属:
  • MCP 为 AI 生成内容添加时间戳,铸造为带有版税的 NFT。

D. 去中心化 AI 训练(有用工作证明,PoUW)

  • 通过 MCP 的联邦学习:
  • AI 模型在用户拥有的数据上训练,无需集中收集(保护隐私)。
  • MCP 从分布式节点聚合模型更新。

场景:Endless AI 的 MCP 驱动聊天机器人

  • 用户查询 → MCP 路由器 → 最适合的 LLM(基于成本 / 速度)。
  • 响应通过 MCP 格式化并返回给用户。
  • 支付通过链上加密货币结算。

总结

MCP 是 AI 互操作性的变革者,特别是在区块链和 Web3 生态系统中。通过标准化 AI 通信、启用去中心化工作流和增强 LLM 协作,MCP 为下一代自主、可组合的 AI 系统奠定了基础。

Endless AI 计划扩展 MCP 以实现:

  • AI to AI 智能合约:代理自主协商交易(例如,授权 AI 艺术)。
  • 抗量子 MCP:抵御未来加密威胁。
  • 自我进化的 AI 生态系统:MCP 将使 AI 群通过去中心化学习自我优化。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

Endless
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开