从工具私有到能力服务:MCP 如何颠覆软件行业
-
2025-05-16
牛透社
编者按
在人工智能加速渗透各领域的当下,MCP 协议正以颠覆性姿态重塑软件生态与技术格局。
OpenAI 创始人 Altman 的关注,让 MCP 有望成为 AI 领域的通用协议,其核心在于打破AI模型与外部工具的集成壁垒,以标准化通信协议实现灵活调用,驱动软件从私有化授权迈向能力服务化。
企业日常运营中,软件工具的分散采购、低效部署与高昂成本饱受诟病,MCP 协议则可通过 AI 调度能力,让企业集中部署软件资源,高效响应各类需求,颠覆传统 “人机绑定” 的商业模式。
同时,MCP 与 Serverless 架构的潜在融合,将为企业IT架构注入新活力,满足 AI 智能体对计算资源的弹性需求。而 MCP 中台作为 AI 大模型的专属“应用商店”,将推动软件交互方式变革,实现以对话驱动任务、由 AI 智能调度的全新模式。
沈旸在本文中深度剖析 MCP 协议的技术内核与应用前景,从软件商业模式颠覆到技术架构融合,再到实际应用场景与安全保障,全方位展现 MCP 协议对 AI 产业的变革潜力。
正文
“大家都对 MCP 青睐有加,我们同样十分激动能够在我们的产品中提供对它的支持。现在就可以在 Agents SDK 中使用了,ChatGPT 桌面应用和 Responses API 也将很快跟进支持” 。
最近 OpenAI 的创始人 Altman 也开始拥抱 MCP 协议了,MCP 协议很可能会变成 AI 领域一个更加通用的协议。
MCP 对软件的颠覆:AI 调度软件,替代人人拥有软件
在软件产业沿袭数十年的传统授权模式中,企业每年要为各种工具类软件付费,例如图片处理、文字处理或视频编辑器软件。
这种 “人机绑定” 的商业模式有可能会被 AI 时代的 MCP 协议给颠覆掉,软件将从工具私有化转向能力服务化。
场景1:一个企业的员工需向客户发送 Demo 视频,然而原始视频文件过大,期望将其压缩至一半大小,同时要在视频左上角添加个人头像,并在背景中融入与客户相关的水印,以此避免 Demo 被二次分发。
完成这样的操作,通常需要同时使用多个工具。部分工具或许能找到免费版本,但有些则依赖商业软件。极客工程师们也可以通过部署各类开源软件来实现这些功能,然而,开源软件的部署、安装及整合,往往也需要耗费大量的时间与精力。
类似的需求还有,各种文件的转化,例如 Word 转化为长图;电商领域里的各种内容和广告制作。若为满足这类偶尔出现的需求去采购软件,采购流程繁琐复杂,效率低下,耗时极长。但如果不满足员工的这些软件需求,员工依靠人工手动操作完成任务,耗费的时间和成本,极有可能远超软件采购成本。
毕竟一套相关软件可能仅需一百美金,可缺乏软件支持导致的人力成本浪费,却可能是软件价格的数倍。
在 AI 所承担的众多工作中,所涉及的工具既有开源的,也有商业化的个人软件,还有商业版的企业软件。当员工临时需要视频压缩功能时,或许不再需要在自己电脑上长期安装一套商业版视频软件,而是在公司层面集中部署软件,能够调用 AI 以及 RPA 的能力,让 AI 依据 MCP 协议去调用相应功能。
倘若一款软件定位是工具类型,使用频率较低,例如每天使用时间不超过一小时,也不具备类似于会议系统这样的链接能力,这样的软件未来很容易被AI的调度所替代。
在这种模式下,传统的软件许可协议将面临巨大挑战。对于一家大型企业而言,有哪些软件可以做到资源共享,怎样让 AI 去更方便的调度各种工具软件,这便是未来众多企业在搭建内 IT 架构时需要考虑的问题。
MCP 与 Serverless
MCP 协议(Model Context Protocol)的核心目标是解决 AI 模型与外部工具、数据源之间的标准化集成问题。
它通过定义统一的通信协议(基于JSON-RPC),使不同 AI 模型能够动态接入各类工具(如数据库、文件系统、API 服务等),从而打破 “信息孤岛” ,实现灵活的工具调用和上下文交互。
例如,开发者只需按 MCP 规范开发一个“文件系统工具”的服务器,即可让所有支持 MCP 的 AI 模型直接调用该功能,无需重复适配。
MCP 的应用场景聚焦于 AI 代理的增强与协作:
动态工具集成:例如,金融 AI 代理通过 MCP 调用股票分析工具,实时获取市场数据并生成投资建议。
多 Agent 协同:支持跨平台智能体(如工业机器人、智能家居设备)通过统一协议共享工具和数据,实现复杂工作流。
开发者生态:开源社区推动 MCP 服务器开发(如 GitHub 已有 154 个工具),形成“工具市场”,加速 AI 应用创新。
而 Serverless 架构的核心目标则是优化资源利用和降低运维复杂度。通过将计算资源的管理完全交给云服务商,开发者仅需编写函数逻辑(Function as a Service,FaaS),无需关注服务器配置、扩展或维护。例如,AWS Lambda 按需启动函数实例,按实际使用量计费,适用于突发流量场景。
Serverless 的典型场景则更偏向轻量级、事件驱动的后端服务:
Web 应用后端:处理用户注册、文件上传等短时任务。
数据处理流水线:如实时日志分析、批量图像转码。
微服务补充:作为单体应用的补充组件,处理特定功能模块
尽管 MCP 与 Serverless 在目标上存在差异,但技术演进中可能出现交集:MCP 支持 Serverless 环境:MCP 路线图中已计划实现 “无状态操作” ,未来可能通过 Serverless 函数动态部署 MCP 服务器,提升工具服务的弹性。
结合 MCP 的标准化工具调用,Serverless 函数可作为 AI 代理的轻量级执行单元,例如实时处理工具返回的数据流。
在过去,像 Serverless 这样的技术架构在企业级的私有云环境中往往难以得到广泛应用。这是因为,对于真正具备弹性的计算需求,通常会优先考虑在云环境上运行。而且 Serverless 的调用,往往是软件工程师构建程序的时候就已经考虑好的,封装成应用后再去给用户使用。
然而,随着人工智能技术的不断进化,这一局面可能会发生显著变化。想象一下,一家企业即便员工人数只有 1000 人,但可能需要一万个 AI 智能体协同工作。人效越高的企业,人均拥有的 AI 智能体的数量会越多。
并且,随着客户需求的变化以及市场的动态发展,还会有大量新的 AI 智能体不断生成。这些源源不断涌现的 AI 智能体,对于计算资源的弹性需求将会大幅攀升。
在这种情况下,企业在私有部署的 IT 架构中,AI 对软件的调度过程中就会产生对 Serverless 技术架构的需求。
更为重要的是,借助 AI 技术,利用其编程能力还能够打造出各种各样的 Serverless 服务。这些服务将为 AI 智能体提供极大的便利,使其可以轻松调用所需资源 ,更好地完成各项工作任务。
MCP 中台的演化
MCP 中台的概念会有点像企业级的应用商店。但是跟过去的应用商店的区别是,MCP 中台并不是为人服务的,而是为 AI 大模型服务的。
过去许多年,企业应用商店以及软件商店的概念未能有效落地。超大型企业有实力采用买断方式,从软件厂商购入无限制许可的软件,以供员工使用。
但对于大多数企业而言,每新部署一套软件,不仅会产生额外费用,还需走完繁琐的商务流程。实际上,软件推广与使用的阻碍并非在于软件的自动安装与部署环节。
部分企业,特别是互联网科技企业,由于规模扩张迅速,自身的技术能力强,可能会尽量使用各类开源软件来满足业务及内部需求。但是开源社区里的软件生态大多数是偏架构层面的软件,而很少有应用层的软件。
例如 Bitnami 这样已经建设很多年的适合私有云应用商店的平台里,目前也只有两百多个的镜像,里面的大部分软件也是基础架构层面的,很难被最终用户直接使用。
Bitnami 云应用商店
而对于真正的最终用户而言,他们期望获得的是能够直接上手使用、满足自身需求的成品工具,甚至是一句命令就可以接近他们的诉求,用什么工具并非大家所关心的,更不想自己去整合搭建的零散组件。这样的需求,如今可以通过"AI大模型+MCP协议+各种工具软件调用"来实现了。
在未来的工作场景中,软件交互方式将发生重大变革。现有的多数软件交互入口可能逐渐消失,取而代之的是通过一轮对话解决一个需求。软件工具及其操作流程将深度融入对话聊天场景,甚至对用户完全隐形,一切皆由 AI 大模型智能调度。
在过去的软件设计中,采用的是瀑布式开发流程。从业务部门提出需求开始,到最终软件交付,往往需要耗费数月时间。然而,软件正式上线运营后,却发现当初提出的需求,可能有 90% 未被实际使用。
而在新的交互模式下,大部分用户借助 AI 完成任务交互。当 AI 无法完成某项任务时,该任务便会自动纳入软件工程师的需求清单。如此一来,开发资源将更精准地聚焦于实际需求,显著提升开发效率与资源利用率。
无论是部门日常业务所需,还是个人高频使用的功能,都将由 AI 助力生成高度契合个人需求的个性化入口。在用户每日与 AI 的多元对话过程中,AI 会实时分析用户意图,持续动态更新个人专属首页,使其能够更精准、高效地适配用户需求,为用户带来前所未有的便捷体验。
可以设想,在 MCP 中台之中,集中部署着开源软件镜像、商业软件镜像、RPA 工具箱,以及各类云和 SaaS 服务的 API。不同软件的功能均被向量化处理,以便 AI 进行统一调度。要充分发挥 AI 的自动化高效特性,开源应用软件的部署至关重要,毕竟任何商业流程和防御性的保护都可能降低 AI 的运行效率。
此时,传统软件的商业模式必须考虑重构了。从接口设计、自动化测试、文档编写到收费模式,都必须做出调整,使商业软件能够更好地适配 AI,更易于被 AI 调用,从而顺应时代发展的需求。
在 MCP 中台模式下,可以预见应用层开源软件将迎来爆发式增长。这些开源工具将以不同的形态深度融入智能生态:其一是作为独立的 AI Agent,完成指定的任务;其二是作为各种 AI Agent 能力增强的插件;其三是作为独立的 Serverless 功能,通过无服务器架构实现轻量化部署与调用。
大模型在其中扮演智能调度中枢的角色,能够依据用户需求动态规划工具组合,如同将不同的 “数字基因” 自由拼接,完成从基础功能到复杂任务的全流程覆盖。
这种创新模式不仅打破了传统软件的开发边界,更催生出超越传统架构的进化型软件生态。通过大模型的智能编排,开源工具的组合将呈现类似生物进化的特征 —— 适应用户需求的工具组合会被保留优化,低效组合则被淘汰。
未来最具效能的软件形态,或将不再依赖人类预设设计,而是通过这种进化机制自然涌现,形成更具竞争力的智能系统。
可信沙盒运行环境
当你使用 Cursor 这类编程工具时,会发现 AI 功能十分强大,它不仅能给出代码提示,还能直接在用户计算机中创建文件并写入代码。
以 OpenManus 项目为例,它会调用本机浏览器浏览网页获取相关信息,比如从查找旅游攻略到完成订票的整个过程。大模型能够调用计算机的资源,让其从单纯的大脑升级成一个真正的智能体。
不过,让 AI 直接操作用户桌面环境存在较大风险。倘若 AI 规划出现失误,或者未来被植入恶意逻辑,一些无法撤回的操作可能会带来极大损失。在这样的情形下,安全隔离的可信沙盒环境就显得尤为重要,也将会是 MCP 中台最重要的一环。
这种沙盒与以往的虚拟机颇为相似,但启动速度更快,且在操作系统层面就融入了更多 AI 能力。在可信沙盒中,AI 能够处理大量信息,而无需担忧对宿主机造成破坏。无论是创建文件、自动写代码编译等,还是启动浏览器、打开个人聊天工具,都能放心交由 AI 处理。
鉴于当前大多数个人使用的软件运行在 Windows、苹果 iOS、安卓等操作系统上,沙盒环境也需要具备良好的兼容性,能够适配各类应用软件,以确保 AI 可在同一环境中完成所有操作。
由于大模型具有难以被篡改的特性,在处理敏感信息方面具有显著优势。以个人或企业向金融机构申请贷款为例,以往申请时需要提交一系列敏感材料,而申请人常常担心这些信息泄露会带来潜在风险。
在客户资质方面,资质优良的客户,各金融机构对其评定标准大致相似;但对于资质稍逊的次级客户,情况则有所不同。因为每家金融机构都有自身独特的风险偏好以及擅长的优势行业领域,所以针对这类客户可能会给出截然不同的政策。
过去,实现金融机构政策与客户需求之间的适配,主要依赖大量金融中介。然而,这种模式存在较大弊端,在中介参与的过程中,极易导致客户关键信息泄露,这时候可信的 AI 沙盒就可以充当一个靠谱的中介了。
用户能够将敏感信息上传至个人计算机内的可信 AI 沙盒,比如个人银行流水、个税记录、收入证明等关键资料。可信沙盒可以调用标准的内置大模型,也可以下载金融机构认可的 AI 大模型,在离线的情况下,对这些敏感数据进行深度分析与整合。大模型凭借其强大的运算能力与专业算法,在确保数据准确性的同时,完成数据脱敏操作,最终生成一份脱敏后的资质报告。
该报告可直接发送给对应的金融机构。大模型本身难以被篡改的特性,结合可信沙盒完善的安全审计机制,能为数据处理过程提供全方位的安全保障。让以往依赖大量线下交互信息的业务场景,得以顺利实现线上化与智能化转型。
打个形象的比方,以往金融机构会派遣专业团队前往企业,实地考察企业的各项运营状况,包括财务收支、生产流程、市场份额等诸多方面,在详细调研后返回机构撰写融资信审报告。
如今,得益于可信 AI 沙盒与大模型技术,这一过程发生了显著变化。这就如同金融机构派出了一架智能无人机前往客户处。这架 “智能无人机”,也就是可信 AI 沙盒中的大模型,依据金融机构预先设定的规则,对客户上传的各类信息进行全面 “巡视”。
它以远超人力的效率和精度,自动生成一份融资信审报告,极大地提升了金融服务的智能化水平。
总结与思考
AI 大模型的进化并非呈线性发展,而是在某个关键节点实现突破后,便会引发整个体系的变革。
其中,AI 大模型对工具的调用能力堪称这一进程中极为重要的单点突破,也是 AI 走向规模化和组织化的重要环节。
回顾人类发展历程,现代人类区别于远古人类的显著特征,正是对工具的高效运用与不断革新。
原作者|沈旸
原标题:《下一代企业IT架构:MCP 中台和软件进化》
文章来自:公众号 “信息化与数字化”
-
本文作者:沈旸
责任编辑:牛透社
本文来源:信息化与数字化
-
分享到: