模型上下文协议MCP
介绍
- Anthropic于2024年11月提出的开放标准协议,旨在通过标准化接口实现大型语言模型(LLM)与外部数据源、工具的深度集成,类似USB接口标准化作用。
- 解决的是数据孤岛问题,提供通用标准,取代碎片化集成。
核心架构与组件
采用客户端-服务器架构,包括三个核心组件
- MCP主机(Host):发起请求的AI应用,负责将用户需求转化为协议指令。
- MCP客户端(Client):嵌入在主机应用中,与服务器建立一对一连接,处理请求转发与结果回传。充当LLM和server的桥梁,工作流程:
- 首先从MCP server获取可用工具列表
- 将用户查询联通工具描述通过Function Calling发送给LLM
- LLM决定是否需要使用工具以及使用哪些工具
- 如果需要使用,client通过server执行相应工具调用
- 工具调用结果返回LLM
- LLM基于所有信息生成自然语言相应
- 将响应展示给用户
- MCP服务器(server):轻量级程序,通过标准化协议暴露本地或远程资源,支持动态工具发现机制。
工作机制与功能特性
- 动态山下文扩展
LLM可实时访问外部资源(文件、数据库记录、API响应),通过唯一URL标识
支持双向交互:模型不仅能检索数据,还能触发操作(修改配置、执行脚本)
- 安全与权限控制
敏感数据需用户明确授权,凭据由本地环境隔离存储,避免云端泄露.
提供工具调用审核机制,在Cursor中,每次调用外部工具需用户确认
- 标准化接口优势
替代碎片化集成:通过统一协议连接不同数据源,降低开发复杂度。
跨平台兼容性:支持python、TypeScript、Java等多语言SDK,适配不同部署环境。
应用场景
- 开发生产力提升
IDE集成:AI直接读取代码库、执行Git命令、调式时查看浏览器日志
代码补全优化:动态获取项目文件或API文档上下文,生成精准建议。
- 行业垂直应用
医疗诊断:整合电子病历、影响数据与医学文献,辅助声测会给你诊断建议
金融分析:实时连接市场数据源,提供投资策略与风险评估
- 企业服务优化
知识库检索:企业内部AI通过MCP访问私有文档,避免敏感信息外泄
自动化流程:触发工单处理、邮件发送等操作
其他技术对比
- Function Calling
仅实现结构化指令生成,实际执行依赖开发者自定义;MCP提供端到端标准化流程,支持负责工具链协调
- RAG(检索增强生成)
MCP将RAG临时检索升级成系统级集成,支持长期记忆与动态上下文管理
其他概念
- Claude Desktop:人工智能公司Anthropic开发的桌面端AI助手
- Cursor:AI 编程助手,深度集成 GPT-4o 和 Claude 3 等大模型,提供智能代码补全、错误修复、代码重构等功能
- Prompt:用户输入给 AI 模型的指令或问题,用于引导 AI 生成特定类型的响应
- AI自动化的发展过程:
- AI Chat:只提供建议,需要用户手动将response转化为行为和结果
- AI Composer:可以自动修改代码,需要用户参与和确认
- AI Agent:完全自动化,自动生产代码、读取日志、调试代码、push到Git上