京东美团封杀外部AI,是在自废武功
本文来自微信公众号: 版面之外 ,作者:画画
最近,科技圈两条内部消息引发了不小的讨论。
一条是美团。有内部人士透露,公司调整了大模型使用策略,不再推荐业务团队使用阿里的Qwen等大模型。如果某个团队确实有必要继续用,得写清楚理由,上报到X3级别审批。
也就是说,要惊动老板级别的人来点头。与此同时,美团明确推荐内部优先使用自研大模型LongCat(龙猫)。
京东的动作更直接。从两周前开始,京东正式在网络层面拦截员工访问豆包、通义千问、Gemini、DeepSeek、ChatGPT、Grok等外部AI平台。员工打开这些页面,会被系统自动拦截。
拦截页面里,一边是公司自研大模型JoyAI的入口,另一边保留了一个“申请通道”,有特殊业务需求可以走合规流程申请。
官方解释是:防止业务数据外泄,保障信息安全和合规。
这个解释听起来无懈可击。但如果仔细想,这两家大厂的做法,正在开一个危险的先例。
1、先承认,他们这么做不是没道理
在展开讨论之前,有必要先把对方的逻辑说清楚。数据安全的焦虑是真实存在的,不是借口。
当员工用ChatGPT处理内部文档、用DeepSeek分析业务数据、用豆包起草内部邮件,这些文本会以某种形式进入第三方服务器的处理流程。对于一家掌握着大量用户数据、商业数据、供应链数据的公司来说,这种风险不是妄想,是现实。
推动员工使用自研模型,也有其商业逻辑。大模型的能力,很大程度上靠真实使用场景来打磨。内部员工的使用反馈,是最直接的迭代信号。把员工留在自家产品里,既能提升产品成熟度,又能减少对外部厂商的依赖。
2026年3月,京东开源了JoyAI-Image-Edit图像模型,美团也推出了原生多模态LongCat-Next。从财报会上的表态看,王兴明确表示仍将坚定推进自研大语言模型LongCat的研发。
类似做法,在金融、政府、医疗等强监管行业早已有之。此前,已有超过20家券商发布内部合规提示,限制在公司网络环境中安装、使用OpenClaw等第三方AI智能体应用。某种意义上,京东美团只是在追上这些行业的数据治理水位。
但问题在于,安全可以有更好的解法,他们选择了最省事的那个。
2、封禁解决的是汇报问题,不是安全问题
真正的数据安全靠分级管理、权限控制、数据脱敏和审计日志。企业版AI工具通常提供数据不出域的私有化部署方案,OpenAI、Anthropic、阿里云都有面向企业的合规版本,合同里明确约定数据不用于模型训练,处理日志可查可审计。
这套方案当然麻烦。需要安全团队设计架构、法务审合同、IT做访问控制,可能要折腾好几个月。
而封禁呢?一条网络策略,一个拦截页面,半天搞定。汇报时也好看:我们已经采取了措施。
直接点说,封禁解决的是”能不能交差”的问题,不是”数据有没有真的安全”的问题。员工截图发微信、用个人手机访问、回家用私人电脑继续查,这些路径封禁一条都堵不住。
安全措施越粗暴,员工绕过的动机就越强,真正的风险反而从台面转入了灰区。
更难管,不是更安全。
3、保护区里长不出世界级选手
封禁带来的第二个代价,比安全问题更隐蔽,也更深远。
当员工只能用自家模型,产品团队收到的反馈就失去了参照系。这件事很好理解。一个员工同时用LongCat和GPT处理同一个任务,他能告诉你:LongCat在这个场景下慢了三秒,长文本理解差了一截,但代码补全其实还不错。这种带着对比的反馈,是产品迭代最有价值的信号。
把外部模型封掉之后,员工只会说”还行”或者”不好用”。好在哪里不知道,差在哪里也说不清。产品团队在一个没有参照物的环境里打磨,打磨出来的是数据,不是竞争力。
诺基亚的教训很近。2007年iPhone发布前几个月,诺基亚内部做过一轮可用性评测。工程师们用自家的Symbian系统完成各种任务,结论是触屏键盘打字效率太低,用户不会接受。
这个结论在诺基亚的体系里完全成立,因为评测环境里只有诺基亚的手机,参与评测的只有诺基亚的工程师。他们不是不专业,而是整个测试从一开始就缺少那个最关键的变量:让测试者同时拿着一台iPhone。
等诺基亚的人终于拿到iPhone的时候,市场已经不给他们时间了。
京东的JoyAI、美团的LongCat,当然不是诺基亚。但道理是一样的,一个模型如果在它最核心的用户群里,不是靠比较赢出来的,而是靠制度被指定的,它得到的就不是真实的市场验证,而是一种被保护的繁荣。
被审批保护的模型,很难长成世界级模型。
4、摩擦成本,足以扼杀创新
AI工具的很多价值,来自于随手一试的灵感时刻。
一个产品经理在想一个功能逻辑,打开AI聊几句,思路就捋清楚了。一个工程师在debug,把报错信息粘进去,三十秒得到方向。一个运营在写文案,用AI跑几个版本,挑一个最好的。
这些行为的共同特点是:低门槛、高频次、即时性。
申请制彻底破坏了这个特点。当员工需要填写申请理由、等待审批、说明业务场景,大多数人会在第一步就放弃。不是因为他们不需要,而是因为成本太高了。一个灵感冒出来等两天审批,黄花菜都凉了。
有研究表明,技术工具的采用曲线对摩擦极度敏感。一个多出来的确认按钮,可以让功能使用率下降30%。更遑论一套完整的申请审批流程。
美团京东的员工不是不想探索AI,他们只是被制度性地剥夺了探索的可能。
5、人才,会用脚投票
这是最容易被忽视,也可能是最深远的代价。
今天的顶尖工程师、产品经理、设计师,已经把AI工具视为工作基础设施的一部分,就像电、网络、电脑一样。
如果在某家公司上班意味着用一套受限的AI体验,而在另一家公司可以自由使用最好的AI工具,选择会怎么发生?
更别说现在很多公司免费给员工发放token了。
这一点不夸张。
工具自由度是硅谷工程师文化里的隐性福利之一。谷歌、Meta、Anthropic的员工有权使用市面上最好的AI工具,这本身就是一种吸引力。
京东美团这波操作,在人才市场上发出的信号是:来我们这里,你的工具箱会被缩小。对于最看重效率和工具的那批人来说,这是减分项。
等这个先例扩散,当更多大厂跟进,当封禁外部AI成为行业标配,中国互联网公司整体的工具环境就会系统性地落后于全球竞争对手。
6、一个比喻,一个悖论
准确地说,现在是中国大模型最关键的时刻。
DeepSeek以一鸣惊人的姿态走向全球,阿里千问、月之暗面的Kimi都在努力扩展国际用户,MiniMax、智谱上市之后,股价一路狂飙。
整个行业都在讲一个故事:中国AI不差,中国AI要走向世界。但走向世界,需要什么?
需要高频使用、真实反馈、快速迭代。需要在真实业务场景里被反复锤炼。需要用户的使用数据来打磨边界。
中国最好的练兵场,是超过10亿级用户的互联网应用,是美团、京东、阿里、腾讯、字节这些日均数亿次交互的平台。这些平台的员工和业务,本可以成为大模型迭代最好的实验室。
但现在,这些平台正在把门关上。
一边是中国大模型迫切想要走向世界,另一边是国内最重要的用户场景正在筑起高墙。这堵墙不是保护中国AI的,恰恰是在削弱它应对全球竞争的土壤。
7、真正的竞争力,长什么样?
有竞争力的策略,一定不是把门关上。应该是让员工用最好的工具,同时保护数据安全。
这两件事,并不矛盾。
企业可以谈判采购AI工具的企业版,约定数据不出域、不用于训练,甚至可以通过私有化部署,把模型运行在自己的服务器上,某些数据级别的工作只能用内部工具,其他场景自由使用。
这些方案更难,需要更多投入,需要安全、法务、IT的协同。但它们是真正解决问题的方式,而不是把问题扫到地毯下面。
把问题扫到地毯下面,员工会找到地毯的边缘继续用,只是现在是在灰色地带里偷偷用。
这个矛盾不解决,喊得越响,落差越大。
【版面之外】的话
选择封禁,本质上是用最低的管理成本,换取了最大的隐性代价。
如果这个先例扩散,如果封禁外部AI成为中国大厂的标配动作,护城河挖在自家院子里,守住的不是竞争优势。
是一潭死水。
#京东美团封杀外部AI是在自废武功