MCP:人工智能时代的HTTP?探索AI通信新标准
每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
早期互联网发展的阶段,人们或许还记得那片混乱景象——各种不同的协议和访问方式交错存在。直到HTTP(超文本传输协议)的出现,这一局面才得以改变。HTTP不仅仅是一个技术协议,更是标准化了客户端(浏览器)与服务器之间的通信方式,解锁了如今人们所熟悉的互联互通的网络世界。HTTP为信息自由流动提供了共同的语言。
时至今日,在人工智能革命迅猛发展的背景下,人们正在与越来越强大的大型语言模型(LLMs)和AI代理进行交互。然而,这种交互体验往往显得割裂。模型常常面临幻觉、难以无缝整合实时信息与工具,以及在用户授权下执行有用操作的困境。每一次请求,似乎仍然是孤立地被处理。
因此,一个关键问题浮现:人类是否正处于需要一种新基础协议层来支撑AI交互的关口?像模型上下文协议(Model Context Protocol,简称MCP)这样的协议,是否有可能成为AI时代中如同HTTP之于互联网时代那般基础的存在?
什么是模型上下文协议(MCP)?
模型上下文协议(MCP)是一个开放协议,旨在标准化应用程序向大型语言模型提供上下文的方式,以及AI助手如何连接到存储数据的系统,例如内容库、商业工具和开发环境。可以将其类比为AI应用程序的“USB-C接口”,为AI模型提供一种标准化的方式,连接到各种数据源和工具。其核心目标是让LLMs和AI系统能够访问必要的上下文信息,从而生成更优质、更相关的响应。
MCP旨在解决模型与数据源孤立的问题。在过去,每接入一个新数据源,往往需要量身定制的集成工作;而通过MCP,一个统一、开放的标准将取而代之。
从技术上看,MCP促进了LLM应用程序(称为主机,例如AI聊天界面或集成开发环境)与外部数据源和工具服务器之间的无缝整合。主机应用中包含维护与这些服务器连接的客户端。通信则通过使用JSON-RPC 2.0消息的有状态连接来完成。
MCP为以下方面提供了标准化框架:
-
共享上下文信息:向语言模型或用户提供相关的数据资源。
-
暴露工具和功能:允许AI模型执行由服务器提供的功能或工具,前提是用户明确同意以确保安全。
-
构建可组合工作流:使用模板化的消息(提示词)来创建集成的工作流。
本质上,MCP希望用一种更简单、可靠且可扩展的方式,取代当前支离破碎的集成方式,为AI系统提供安全的双向数据访问与功能操作。
HTTP类比:赋能革命
HTTP的伟大之处不仅仅在于其技术规范,更在于其作为创新催化剂的角色。通过创造一种简单、标准化的方式来请求和接收网络资源,HTTP催生了整个网络生态系统。它为互联网的建设铺设了轨道。
MCP在AI领域被赋予了类似的潜力。正如语言服务器协议(LSP)标准化了编程语言在开发工具中的集成方式,MCP试图标准化上下文和工具在AI应用生态系统中的整合方式。通过标准化上下文管理与通信,MCP有望:
-
解锁有状态且强大的AI:推动AI应用超越简单的问答,发展为能够持久、上下文感知、有效利用外部数据和工具的助手与应用。
-
促进互操作性:为不同AI模型、平台和工具之间的上下文与能力通信创造共同基础,增强切换LLM提供商的灵活性。
-
加速开发进程:为开发者提供标准化的构建模块和越来越多的预制集成,而不必一遍遍发明定制解决方案。
正如HTTP让信息在互联网上得以普及,MCP有潜力通过更可持续的架构,推动复杂、集成化AI系统的普及与发展。
核心区别:起源与聚焦点
尽管潜在影响相似,MCP与HTTP之间存在明显差异:
-
起源与目的:HTTP起源于链接与检索静态超文本文档的需求;而MCP源于现代AI复杂需求,专注于让LLM应用无缝整合外部数据源与工具,获取所需上下文信息。
-
信息类型与交互模式:HTTP主要传输定义明确的资源(如HTML、JSON、图片),采用无状态的请求-响应模式;而MCP管理动态、演变的上下文信息,包括数据资源、可执行工具及工作流提示,并通过JSON-RPC 2.0建立有状态的双向连接。
-
架构设计:HTTP使用主要用于资源检索的客户端-服务器模型;而MCP采用特定的主机(LLM应用)、客户端(主机内连接器)和服务器(提供上下文与工具)架构。
-
发展路径:HTTP通过学术界及IETF等机构发展而来;而MCP由Anthropic发起并开源,并正以开放标准的形式由多个组织协作开发,灵感部分来自LSP等协议。
另一种类比:图书馆
还可以用图书馆来打比方:
HTTP就像使用老式气动传送管系统:
-
用户填写一张请求单,注明所需的特定书籍或文件(类似URL)。
-
把请求单放入传送管(发起HTTP请求)。
-
图书馆管理员在某处找到并仅将请求的物品送回(HTTP响应)。
-
若需要另一本书或其他服务,则必须再次填写并提交新请求。
而MCP则像通过现代标准化帮助台系统与图书馆管理员互动:
-
用户带着研究目标来到帮助台(AI应用或“主机”)。
-
管理员通过标准化的计算机接口(MCP)访问所有图书馆资源与工具。
-
通过这一系统,他们可以:
-
搜索主目录、专业数据库与数字档案(访问资源/上下文);
-
操作打印机、扫描仪、缩微胶片阅读器,甚至请求馆际互借(使用工具);
-
访问在线期刊和外部学术门户(连接不同服务器);
-
记录研究主题,基于持续的需求推荐相关材料(维护上下文);
-
引导完成整个研究过程(提示/工作流)。
-
关键在于,标准化的系统(MCP)让管理员(AI主机)可以无缝协调多种信息资源和工具,帮助用户完成整体目标,而不仅仅是单次信息检索。
为什么MCP对开发者至关重要?
向上下文感知型AI转变,直接影响着开发者能够构建的内容。拥抱MCP意味着:
-
更丰富的用户体验:构建能够使用外部工具和数据执行复杂任务的AI代理,打造真正互动的体验。
-
提升效率与灵活性:接入预构建的集成,避免重复造轮子,且更容易切换LLM提供商。
-
安全性最佳实践:采用最佳安全实践访问数据,确保MCP规范强调的数据安全与用户同意原则得到落实。
-
开启新型应用范式:实现生成式AI与实时数据、外部系统无缝融合的新型应用。
在Google Cloud上借助MCP构建未来
随着这些新协议和模式的出现,拥有一个强大灵活的平台变得尤为重要。Google Cloud为构建和部署下一代上下文感知AI应用提供了所需的工具与基础设施:
-
智能模型与平台:Vertex AI是Google Cloud的端到端AI平台,不仅支持训练、微调与部署强大的基础模型,还提供Vertex AI Agents等工具,具备理解上下文、语言细节与编排复杂任务的能力——这些能力对于利用MCP理念至关重要。同时,Vertex AI提供Gemini、Imagen、Veo2和Lyria等一方基础模型,以及如Claude、Llama、Gemma等丰富的第三方与开源模型库。
-
可扩展、有状态部署:在服务器端管理上下文或作为MCP中介,需要能够高效处理状态和扩展的基础设施。Google Kubernetes Engine(GKE)支持StatefulSets,非常适合需要持久身份和存储的负载,如用户会话与上下文数据库管理。
-
无缝数据与工具整合:MCP依赖于将模型连接到外部系统。Google Cloud提供了全面的数据库(如Cloud SQL、Spanner、Firestore)、消息服务(如Pub/Sub)及API管理工具,使整合这些关键组件变得轻松高效。
未来展望
MCP是否会成为新的HTTP?或许不能以字面意义理解为直接取代,但从潜在影响层面来看,二者的相似之处令人印象深刻。
AI领域对标准化上下文管理的需求已经非常明显。MCP作为一种通用、开放标准,有望取代当前碎片化的集成方式。无论未来是MCP本身,还是由一系列相关协议组成的体系,这一基础通信层对于突破当前AI的局限性至关重要。对于希望打造真正互动、集成且智能的下一代应用程序的开发者而言,理解并为这一变革做好准备,将成为不可或缺的一步。