当前位置: 首页 > news >正文

《重塑AI应用架构》系列: Serverless与MCP融合创新,构建AI应用全新智能中枢

在人工智能飞速发展的今天,数据孤岛和工具碎片化问题一直是阻碍AI应用高效发展的两大难题。由于缺乏统一的标准,AI应用难以无缝地获取和充分利用数据价值。

为了解决这些问题,2024年AI领域提出了MCP(Model Context Protocol模型上下文协议),这一标准化接口协议旨在打破AI模型与外部资源之间的壁垒。就像 USB-C 接口一样,为AI模型/应用与各种数据源和工具之间提供了一种通用的“即插即用”连接方式,让AI模型与外部工具与数据源之间安全双向连接,大大提高了AI开发的效率和灵活性。

随着MCP作为AI 连接数据和工具的统一标准逐渐普及,也标志着AI应用从“静态推理”向“动态执行”的转型,AI应用的全新架构也面临着灵活性、性能与安全等诸多挑战。

华为云AI原生应用运行平台+MCP,重塑 AI 应用架构新范式

为更好的适应全新AI应用架构,华为云推出AI原生应用运行平台+MCP产品组合方案,基于MCP整合Serverless 及一系列平台关键组件,为开发者提供高效、灵活、可靠的AI应用开发与部署方案,实现大模型与外部数据源的“即插即用”安全连接,助力开发者快速构建灵活扩展、安全可信的AI应用,实现AI应用的商业化。

华为云AI原生应用运行平台+MCP产品组合方案

 

AI应用架构新范式解析

  • 用户请求:用户向AI应用发起请求时,请求流量首先进入流量+ AI网关(APIG)。APIG作为应用的入口,维护管理所有AI Agent、MCP Server和LLM的路由规则,确保每个请求都能快速、准确地找到处理路径,同时支持流式响应,为用户带来更流畅的交互体验。
  • Agent托管:开发者可通过多种方式自建Agent,CAE为Agent提供了理想的Serverless应用环境,根据负载自动实现资源的动态分配,确保Agent始终处于最佳运行状态。
  • 访问MCP Server获取外部数据:MCP Server这类事件驱动型业务尤其适合部署在Serverless函数(FunctionGraph)上,通过Python/Go等语言快速构建MCP Server,实现毫秒级弹性扩缩容。
  • 现存业务接入:可经由MCP注册/配置中心(CSE)的帮助注册到Nacos上并实现自动注册发现,MCP网关可以将API转换成MCP Server,实现应用的平滑升级。
  • 通过应用中心模板快速部署Agent/MCP Server:应用中心汇聚丰富的Agent/MCP应用模板,开发者只需一键操作即可部署,实现开箱即用。华为云也会将中间件(DCS、DMS、EventGrid)等服务能力以预置MCP Server的方式上架到应用中心。
  • 异步推理:在多模态或长周期任务执行场景下,Agent往往采用异步推理的方式与LLM进行交互,消息队列不仅能够起为大模型起到削峰填谷的作用,而且支持主动推送方式提升LLM响应的实时性。

Serverless与MCP融合创新,构建AI应用全新智能中枢

从上面的整体方案我们可以看到MCP Server无疑是整个AI应用架构新范式的智能中枢,如何就保障MCP Server安全可靠运行与弹性高效扩展显得至关重要。

传统本地搭建MCP Server存在挑战:

  • 在传统的MCP Server部署模式下,资源静态分配问题尤为突出。企业在搭建MCP Server时,需要提前预估流量峰值,以确定所需的资源,但由于业务的不确定性,预估流量往往与实际流量存在较大偏差,导致资源的浪费或性能瓶颈。在业务淡季,大量的服务器资源处于闲置状态,造成了成本的浪费,而在业务高峰期,由于资源不足,MCP Server可能会出现卡顿甚至崩溃,影响用户体验。
  • 开发成本高。从底层的资源搭建到上层的MCP逻辑实现,都需要投入大量的人力和时间,仅开发部分工作量就需要几天时间,且还不包括后续的测试和部署工作。开发者还需要重复实现鉴权、日志等通用功能,进一步增加了开发的复杂性和成本。
  • 安全风险同样不容忽视。在传统的常驻服务模式下,服务进程会一直运行,这就可能导致上下文残留,增加了数据泄露的风险,一旦服务器被攻击,攻击者就有可能获取到残留的上下文信息,从而窃取敏感数据,给企业带来巨大的损失。

Serverless函数:MCP Server托管的最优解决方案

Serverless函数计算作为云上Serverless算力的典型代表,在资源弹性、开发效率、安全性等方面具备显著优势,可以为MCP Server的托管提供灵活、高效、可靠的运行时环境,直击传统搭建MCP Server的核心痛点。

  • 资源智能弹性调度,Serverless函数计算能够根据实际流量自动调整资源配置。根据函数的负载情况,通过自动化、智能化的资源扩缩容弹性机制,自动完成函数规格的调整,毫秒级弹性轻松应对突发流量冲击,确保服务的稳定运行。而在流量较低时,空闲函数会自动休眠,成本趋近于零,大大降低了企业的运营成本。
  • 极简开发部署与运维。应用中心提供了预置的MCP应用模板,如server-github等,开发者只需进行简单的配置,即可在30秒内完成MCP Server部署。Serverless函数计算还具备免运维的特性,自动处理日志、监控、扩缩容等,让开发者能够专注于业务逻辑开发,大幅度提高了开发效率和质量。
  • 运行安全保障。业务每个请求都在独立的沙箱环境中执行,执行后自动销毁实例,有效防止了上下文残留带来的数据泄露风险。同时支持细粒度权限控制,根据最小化原则授权,只赋予每个请求所需的最小权限,降低了权限滥用的风险。支持临时Token认证,进一步增强了认证的安全性和灵活性。

Serverless与MCP结合实践场景演示

传统大语言模型,就像一个有大脑会思考、有嘴巴会讲话的机器人,它可以解答我们各种问题,教我们如何完成一件事,但是它没有手和脚,不能直接去完成各种事情,现如今各种各样的MCP Server就如同大模型的手和脚,让其具备了这样的能力。这里我们以MCP官方提供的Everything MCP Server来演示如何让大模型通过调用MCP工具获取环境中的环境变量。

以大模型DeepSeek V3演示具体的工具调用,当我们没有启用MCP时,向大模型提问可以看到他只能告诉我们如何完成这件事,而不能亲自去做。

而当我们启用MCP后,可以看到大模型调用了printEnv工具并正确获取到了所有环境变量。

MCP与Serverless的创新融合,正在重塑着AI应用架构的未来格局,将为AI应用带来更高的灵活性、安全性和效率,为企业和开发者提供更便捷、高效的开发方式,赋能加速AI应用的创新和落地。

紧跟智能化时代AI技术的飞速发展,华为云AI原生应用运行平台+MCP整体产品组合方案,未来还可以与智能化研发、AI Agent开发、AIOps应用可观测、应用韧性评估体系等能力相结合,在生态方面和鸿蒙开发者平台、华为云开发者空间相结合。实现“开发-运行-运维”全链路的AI应用新范式,为AI原生应用提供一站式极简的构建能力,让开发者能够更专注于业务创新,推动AI应用的快速发展和广泛应用。 

后续我们将持续推出核心产品组件与MCP结合的系列应用场景与方案,产品能力也将逐步上线,欢迎持续关注。

相关文章:

  • LangChain4j(13)——RAG使用3
  • vscode+cmake高阶使用
  • SimVG论文精读
  • php基础
  • Nacos自动刷新配置源码解析
  • Ubuntu22.04新版本谷歌无法使用搜狗输入法/中文不显示
  • 组织级项目管理OPM
  • Spark 集群搭建:Standalone 模式详解
  • 天梯赛补题
  • Kafka 详解
  • Qt creator 16.0.1 语言家失效解决方法
  • 使用 VSCode 编写 Markdown 文件
  • Vscode已经打开的python项目,如何使用已经建立的虚拟环境
  • 局部最小实验--用最小成本确保方向正确
  • 信息学奥赛一本通 1505:【例 2】双调路径 | 洛谷 P5530 [BalticOI 2002] 双调路径
  • 03-谷粒商城笔记
  • MongoDB(docker版)备份还原
  • 八大排序——选择排序/堆排序
  • Android APP 爬虫操作
  • 海外产能达产,威尔高一季度营收利润双双大增
  • 外交部否认中美就关税问题进行磋商谈判
  • 视频丨习近平同阿塞拜疆总统会谈:两国建立全面战略伙伴关系
  • 职工疗休养如何告别千篇一律?安徽含山给出新解法
  • 中国围棋协会将不组队参加今年的LG杯世界棋王赛
  • 叶辛秦文君进校园推广阅读
  • 全国登记在册民营企业超过5700万户