最近AI圈有一件挺有意思的事。

Perplexity——就是那个号称"AI搜索引擎"的产品——公开宣布要弃用MCP协议。原因很直接:Token税太高了,每次通过MCP调用一个工具,中间都要经过大模型推理一次,Token消耗像流水一样哗哗地往外流。

这件事在圈子里炸开了锅。因为MCP可是被Claude的母公司Anthropic大力推广的,一度被誉为"AI世界的USB-C接口"。 Anthropic的愿景很美好:所有AI应用、工具、数据源都通过MCP这个统一标准连接起来,互插互用,就像USB-C统一了充电接口一样。

但Perplexity的退场让很多人开始冷静下来——光有一个标准接口,真的够吗?

一、MCP的初衷是好的,但现实很骨感

我们先理解一下MCP到底在解决什么问题。

在AI应用开发中,一个很常见的场景是:你想让AI帮你查数据库、调API、读文档。这些"外部工具"怎么和AI大模型对接?以前每个厂商各搞各的,OpenAI有Function Calling,百度有文心一言的工具调用,各家协议不通,开发人员头疼得很。

MCP就是想统一这个事。它定义了一套标准协议,任何工具只要按MCP规范封装好,任何支持MCP的大模型就能直接调用。听起来很完美对吧?

但问题出在"调用方式"上。

按照MCP的标准流程,当用户说"帮我查一下上个月的销售数据"时,AI不是直接去查数据库,而是:

  1. 先用大模型理解用户的意图
  2. 再通过MCP协议把调用请求发给对应的工具
  3. 工具返回结果
  4. 大模型再理解结果,组织成自然语言回复

你看,第1步和第4步都需要大模型参与。也就是说,每一次工具调用,至少要消耗两次大模型推理的Token。如果工具调用过程中还有来回确认、参数校验,Token消耗量会成倍增加。

这就是Perplexity说的"Token税"——你为每一次操作都额外付出了大模型推理的成本。

二、为什么Token税对企业来说是个大问题

对于个人用户来说,偶尔多花几个Token不算什么。但对于企业来说,这就是另一回事了。

举个例子。假设你的企业有一个客服系统,每天要处理10000个用户咨询。其中大约60%的咨询需要查订单、查物流、查库存——这些都需要调用后端系统。

如果每次调用都要经过大模型推理,以目前主流大模型的定价来算,光是"工具调用的中间推理"这一项,每个月的Token费用可能就要几万甚至十几万。这笔钱花得冤不冤?

更关键的是,很多工具调用的逻辑是确定的。比如"查订单号12345的状态",这个过程根本不需要大模型来"思考"——直接拿订单号去数据库里查就行了,结果也是确定的。非要把一个确定性的操作绕一圈让大模型推理,既费钱又费时。

这就是问题所在:MCP把所有操作都当成了"需要AI推理的智能任务",但实际上企业的大量操作是确定性的、规则明确的。

三、企业真正需要的是什么:执行环境

Perplexity的退场,表面上是"Token税太高",实际上暴露了一个更深层的问题——企业AI缺的不是接口标准,而是执行环境。

什么是"执行环境"?简单说,就是让AI能够直接执行确定性操作的能力层。

我们来做一个类比。你用电脑的时候,插了一个U盘(USB-C接口),电脑能识别它——这是MCP做的事情。但如果你想从U盘里拷贝一个文件到桌面,你需要的是操作系统提供的文件管理能力——这就是"执行环境"。

对于企业AI来说,光让大模型"知道"有哪些工具可以调用是不够的,还需要一个完整的执行环境来:

  • 直接执行确定性操作,不绕大模型
  • 管理工具调用的权限和审计
  • 处理多步骤任务的编排和串联
  • 保证操作的可追溯性

这恰恰是目前大多数AI应用框架缺失的一环。大家都在拼命做"接入更多模型"、"支持更多协议",但很少有人认真思考:企业真正需要的是什么样的执行环境。

四、怎么解决这个问题

解决Token税的思路其实很清晰:把确定性的操作从大模型推理中剥离出来,让它们直接执行。

具体来说,一个理想的AI执行环境应该具备以下特征:

第一,确定性指令直通。对于那些规则明确、输入输出固定的操作(比如查数据库、调API、读写文件),应该封装成确定性指令,直接执行,不需要经过大模型推理。只有在需要"理解"和"决策"的环节才调用大模型。

第二,多级编排能力。一个复杂的业务场景往往包含多个步骤,有些步骤需要AI推理,有些步骤是确定性操作。好的执行环境应该能把这些步骤编排成一条链路,自动判断哪些步骤走AI、哪些步骤直通。

第三,权限和安全管控。工具调用直接关联到业务数据,必须有严格的权限控制和审计日志。不能因为有了AI就绕过企业的安全体系。

第四,可观测性。企业需要知道每个AI任务的执行过程:哪些步骤花了多少Token、调用了哪些工具、结果是否正确。这对于成本优化和问题排查至关重要。

五、从MCP争议看行业走向

MCP协议本身是有价值的,它推动了AI工具生态的标准化。但Perplexity的退场给行业提了个醒:标准化接口只是第一步,真正的难点在于如何构建高效的执行环境。

最近有一个概念开始被越来越多的人讨论——AREE(AI Runtime Execution Environment,AI运行时执行环境)。这个概念的核心思想就是:为企业AI应用提供一个完整的运行时环境,在这个环境里,确定性操作可以直接执行,只有需要智能推理的部分才走大模型。

这个思路其实和云计算的演进很像。早期大家觉得"能虚拟化就行",后来发现光虚拟化不够,还需要容器编排(Kubernetes)、服务网格(Service Mesh)、可观测性(OpenTelemetry)等一系列基础设施。AI应用也正在经历类似的演进——从"能接入大模型就行"到"需要完整的执行环境"。

对于正在做AI转型的企业来说,我的建议是:不要只盯着模型选型和接口协议,多花点时间评估执行环境的能力。一个好的执行环境,能帮你省掉大量的Token费用,同时让AI应用的稳定性和可维护性大幅提升。

MCP是"USB-C接口",但你的企业AI还需要一个"操作系统"。找到那个操作系统,才是真正解决问题的关键。

就比如JBoltAI平台在思维链编排、Function Call与MCP指令直达方面的设计,正是围绕"确定性操作不走大模型"这个思路来构建的。有兴趣的同学可以了解一下,看看实际工程中是怎么处理这个问题的。

不管怎样,Perplexity的这次"退场"对整个行业来说是一件好事。它让更多人开始思考:企业AI到底需要什么?答案正在变得越来越清晰。

Logo

更多推荐