Reading view

There are new articles available, click to refresh the page.

刚刚,阿里ATH事业群甩出王炸「悟空」!企业级正规军下场,龙虾们这次真要炸了

昨晚,阿里巴巴突然宣布成立 Alibaba Token Hub(ATH)事业群,CEO 吴泳铭直接负责,这可能是阿里在 AI 时代最重要的一次组织架构调整。

Token ,AI 时代的通用货币。

吴泳铭的逻辑是:未来大量数字化工作将由「数以百亿计的 AI Agent」支撑运行,而这些 Agent 的运行,由模型产生的 Token 驱动。

创造 Token、输送 Token、应用 Token,这将是阿里新的的主线。

其中内部信中还有一个首次出现在公众视野里的名字:悟空事业部。官方对悟空事业部的定位是:「打造 B 端 AI 原生工作平台,将模型能力深度融入企业工作流。」

也就是说原来的钉钉,被提到了一个更核心的战略位置,和千问一起分别在 B 端和 C 端承载阿里 AI 的目标。

这次发布会,悟空事业部交出了成立以来的第一份作业—— AI toB 旗舰应用「悟空 WuKong」,这也是首个以企业智能体为核心的 AI 原生工作平台。

这是ATH 事业群成立第二天,阿里巴巴集团 CEO 吴泳铭也出现在今天的「悟空」发布会现场。

最近在「养龙虾」席卷社交媒体后,每个人或多或少都感受到发现 AI 真的能操控电脑、帮你干活。

然而也便随这混乱,龙虾删邮件停不下来,敏感数据被 AI 随意读取,公司 IT 部门一句「这东西不合规」,大多数企业用户就此止步。

AI Agent 走到了哪一步,能不能广泛使用,还只是个技术问题。企业组织敢不敢用,才是真正的问题

APPSO 在现场给大家快速梳理了这场发布会的要点:

  • 悟空 WuKong:全球首个以企业智能体为核心、更安全、商业可交付的 AI 原生工作平台
  • 首创 AI 原生文件系统 Real Doc:每一步操作可追溯可回退
  • 钉钉全面 CLI 化:重写底层代码,给 AI 造了一套原生操作语言,可以 CLI 原生安全地访问钉钉应用和数据
  • 十大 OPT 行业方案:一人电商、一人门店、一人知识博主……Skill 即生产力
  • AI 能力市场:企业级 Skill 生态完整体系上线,全部纳入统一的安全扫描和分级管控体系
  • AI 硬件:A1 Pro 录音卡 + Cleer H1 AI 耳机首亮相
  • 原生级企业安全架构:底层沙箱隔离与全链路审计,让企业真正敢用 AI

钉钉为 AI 打造钉钉

在理解悟空之前,先要消除一个刻板印象,它绝对不是「钉钉加了一个 AI 对话框」。这句话值得重复一遍——悟空不是钉钉加了一个 AI 功能

过去两年,我们见过太多「产品加 AI」的案例:Word 加了 Copilot,微信加了元宝,网页端加了摘要按钮。这类产品的逻辑是:原有功能不动,AI 作为辅助层叠加在上面,帮你写写文字、润色润色、总结一下。

悟空的逻辑完全不同。

悟空是一个以企业智能体为核心的 AI 原生工作平台。 它能操作我们的电脑、编辑本地文件、调用桌面应用程序、连接钉钉文档 / 审批 / 日程 / 听记等全系产品。

当你对悟空说:「帮我把上周所有客户拜访的记录整理成周报,发给张总确认一下」。

悟空不会给你写一份模板然后让你自己填,它会直接打开你电脑上的拜访记录文件夹,读取每一份记录,生成周报,保存到指定位置,然后在钉钉里发给张总发起审批。

全程,你只说了一句话。

更关键的是:手机可以远程指挥悟空唤起本地环境完成工作。不需要坐在电脑前。出门见客户的路上,发一条消息,悟空在家帮你把活干完。

这是「本地执行 + 远程可控」的 Agent 工作架构,也是悟空正在定义的新工作方式——说一句话,就能干活。

▲体验网址:https://www.dingtalk.com/wukong

悟空与 OpenClaw:解同一道题,用的是不同答卷

很多人的第一反应:这不就是「中国版 OpenClaw」吗?

表面看都在让 AI 操作电脑,但两者的关系,更接近「Linux 的开源社区」和「Red Hat 企业版」,底层技术同源兼容,但面向的战场完全不同。

OpenClaw 证明了 AI Agent 可以操控电脑这个概念,它依赖「视觉模拟」和操作系统原生命令行,让 AI 像人一样看屏幕、点鼠标。这套方案很酷,但也很脆弱,毕竟界面一更新,命令一修改,整个流程就可能崩掉。

更要命的是,OpenClaw 在本地运行时,几乎拥有与用户完全相同的系统权限。理论上,一台实习生电脑上的 OpenClaw,可以读取他不该看到的任何数据。安全机构已发现其技能市场存在数百个恶意程序,Gartner 将其企业部署评级为「不可接受的网络安全风险」。

OpenClaw 是 Agent 的「Linux 时刻」——开源、自由、极客驱动、生态繁荣,但没有企业敢直接用。

悟空要解的题不一样:兼容开源生态的全部 Skill 能力,同时从架构层面把安全内建进去,而非事后打补丁。

统一企业身份认证、专属沙箱隔离、网络代理管控、全链路审计日志——每一层安全都在回答同一个问题:让 IT 部门敢拍板,让 CEO 敢买单

这是 Enterprise Agent 和「开源 Agent 框架」的本质差距。

钉钉 CEO 无招在发布会现场表示,「今天,我们把钉钉打碎,用 AI 重建,炼出悟空。过去是人用钉钉来工作,未来是 AI 用钉钉来工作。和市面上所有的龙虾 Agent 不一样,悟空天然就长在企业组织中,可以在真实的企业环境中安全使用。

CLI 化:给 AI 造一套原生操作语言

要理解悟空为什么「真的能干活」,关键是它有一套让 AI 能「听懂」软件的语言。

过去,几乎所有的 AI Agent 都在试图模拟人类的键鼠操作。这就像是蒙着眼睛,靠别人在旁边喊「往左一点,点击」来用电脑,不仅极度低效,而且极其容易出错。

为了让悟空真正能「干活」,钉钉做了一个相当疯狂的决定:所有底层代码重写了一遍

他们将整个钉钉的既有能力体系全面 CLI 化(Command-line Interface,命令行界面),所谓 CLI 化,就是把钉钉从一个「给人用的图形界面」,变成一个「给 AI 用的命令行接口」。

AI 不再需要「看懂」按钮在哪里,而是直接通过标准化指令调用能力,这相当于给 AI 装上了神经末梢

其中,包括文档、日程、审批、会议甚至 AI 表格,所有的钉钉产品,全部重写为标准的 CLI 指令。

这意味着,悟空不再需要像人类一样去「点击」按钮,而是通过原生指令,直接调用钉钉的一切能力和数据。

不仅是钉钉应用,阿里集团旗下的淘宝、天猫、支付宝、阿里云等核心业务能力,也将逐步作为 Skill 接入悟空。悟空,正在成为整个阿里巴巴 AI 能力在企业工作场景的统一出口。

当用户说「帮我整理下周的客户拜访记录并生成周报」,悟空不是「看懂」这句话,而是直接触发一系列 CLI 指令:调取日程 API → 抓取 CRM 数据 → 运行听记解析 → 写入文档 → 发起审批流。全程没有模拟点击,没有视觉识别,只有机器对机器的精准调用。

这个逻辑,在行业报告「未来属于智能体:万亿 AI 正在重新定义软件」里有一段话说得非常准确:

你构建的一切都必须是 API 优先的。如果一个功能没有 API,它就相当于不存在。如果不能通过 CLI 或 MCP 服务器暴露,你就是处于劣势。

换言之:在 AI 智能体成为软件「主要用户」的时代,不能被 AI 原生调用的软件,等于不存在

▲图片来源:X@karpathy

钉钉理解了这个逻辑,所以选择了极其昂贵的方式——重写服务全球 8 亿用户、2700 万家企业的产品底层。钉钉全面 CLI 化之后,Agent 才能从「能聊天」变成「能干活」。

Realdoc,AI 终于有了原生的文件操作语言

但 CLI 化只解决了「AI 能不能调用钉钉」的问题。还有一个更底层、常被忽视的问题——AI 怎么操作文件

目前市面上几乎没有 AI Agent 产品专门为 AI 设计过文件系统。所有人都在用传统文件系统凑合,结果是什么?

AI 要改一份文档里的一个词,必须先把整篇文档读进内存,改完再整篇写回去。就像改一本书里的一个错别字,却要把整本书重新抄一遍——荒诞,但这就是现实。

这带来三个连锁问题。

第一是 Token 爆炸,每次操作都吞进整篇文档,成本直线飙升,有用户实测用 AI 制作一个 PPT,消耗了 2.7 亿 Token,约合 500 美元。

第二是无法回退,AI 覆盖写入即生效,改坏了没有存档可以回溯,只能从头再来;

最后是文件失控,Agent 随机创建文件,企业根本不知道 AI 在哪里生成了什么,散落的结果是既找不到,也管不住。

悟空为此专门从零搭建了一套 AI 原生文件系统 Realdoc,这是行业首次,有人专门为 AI 重新设计一套文件操作语言

在 Real Doc 里,悟空可以像外科医生一样,按行号、按关键词定位,只动需要动的地方,其他内容一字不碰。Token 消耗大幅压缩,不再因为改一个词而把整篇文档走一遍。

更关键的是版本管理。AI 每执行一步操作,Realdoc 自动保存完整快照——就像游戏里的自动存档点,每一步操作都有记录,可随时退回任意版本,还能自动对比两个快照之间的 Diff,精确到每一行的变动。

还有文件归宿的问题。Realdoc 为每个 AI Agent 分配独立的云端工作空间,AI 产出的每一份文件都有「户口」——存在哪里、谁创建的、哪个 Agent 在什么时候改过,企业管理者一目了然。

到这里,悟空做出了大多数企业级产品还没意识到的改变:不再让 AI 套用到现有工具中,要为 AI 重新造一套工具

悟空首发 十个 OPT Skills 套件,钉钉原生协同

如果说 CLI 化解决了「AI 如何干活」,那么接下来的问题是:AI 该干哪些活,谁来告诉它怎么干

答案是:Skill。

Skill 是悟空的最小生产力单元——一个封装了行业专家 SOP、可直接调用的能力模块。我们不需要懂 AI,不需要写 Prompt,一键启用,AI 团队立刻就位。

这不是一个新概念,但悟空把它推向了一个全新的量级。

悟空首批推出十大行业 OPT(One Person Team,一人团队)技能套件,覆盖一人电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大场景。每个行业包预置了若干串联 Skill,把过去需要团队协作才能完成的工作流,压缩成一个人可以独立驾驭的操作序列。

以跨境电商为例。过去,一个店主每天要在亚马逊上找爆款,去 1688 上比价,跟供应商确认库存,再想破头优化商品描述,一个人能管三个品就是极限。

现在接入悟空 OPT 方案后,「选品雷达」每天定时抓取亚马逊热榜数据写入 AI 表格;发现爆款后,「AI 找同款」瞬间完成国内供应链匹配;直接确认样品、生成产品描述、输出视频脚本,都有行业级的 Skills 辅助。从发现需求到供应链跟进,一个人用一个下午,干完了一个小团队一周的活。

「一人门店」的场景更让人感慨。街边的汽修店、美甲店老板,白天忙服务,晚上还要强打精神刷小红书学竞品写文案。现在,同样是多个 Skill 串联,AI 自动监控同行爆款,提炼出可复用的创作模板,自动生成原生网感文案并发布,甚至能 7×24 小时智能回复客户私信。

「当一个店主用 AI 运营账号的质量,比竞争对手请的代运营公司还好时——这件事就不只是效率提升了。这是小微门店生存逻辑的重写。」

这正是 Skill 即生产力的核心逻辑:把行业专家的隐性经验,变成人人可调用的标准化能力。Skill 不只是提高效率,它在重新分配能力——让不具备专业背景的人,也能获得专业级的产出。

这个逻辑的更大野心,体现在钉钉同步上线的 AI 能力市场

Anthropic 推出 Claude Skills 开放标准后,微软、OpenAI、Cursor 等巨头迅速跟进。行业共识正在形成:下一阶段的竞争,不是「谁的模型更强」,而是「谁的 Skill 生态更完整」

钉钉 AI 能力市场覆盖 Skill、Agent、Service 完整体系,从开发、审核、上架、分发到管理,全链路打通。

企业可以把资深员工的方法论固化成私有 Skill,彻底摆脱人才流失的阵痛;开源社区里数千个现成的能力,也能在企业级安全架构下被随时调用。

这是悟空最有想象力的部分,它在搭建 AI 时代的生产力基础设施——Skill 是这套基础设施里流通的「货币」,谁掌握更多高质量的 Skill,谁就掌握了 AI 时代更大的生产力。

AI 新硬件

除了软件,在这场发布会上,钉钉还发布了多款 AI 硬件。

DingTalk A1 Pro:录音卡形态,专为会议和工作场景设计,支持多麦克风阵列拾音,AI 实时转录、翻译、摘要,把「开完会还要整理纪要」的低效循环彻底斩断。

Cleer H1 AI 耳机:钉钉与 Cleer 联名推出,首款与悟空深度联动的 AI 耳机。戴上耳机,语音即可直接与悟空对话下达指令,无需打开屏幕,从而实现真正的「所想即所达」。

更值得关注的是 Real AI 硬件(Realbox):搭载 1 台 PC 环境 + 5 台手机环境,支持多人共用、多并发任务处理。企业部署一台 Realbox,可以同时为多个员工运行多个悟空实例;部署多台 Realbox,可构建 AI 计算机集群,任务并行处理,弹性扩展。

不难看出,钉钉这些 AI 硬件并不是独立存在市面上的同类产品抢夺市场,核心都是为了更好地打通 AI 工作流,成为软硬一体的 AI 原生工作平台。

OpenClaw 跑在一台电脑上,做一台电脑能做的事;悟空搭载 Realbox 集群,正式宣告:AI 算力,可以像水电一样,以基础设施的形式在企业内部流通了

AI 时代的组织生产力

在观看这场发布会时, 我想起前段时间 Sam Altman 在采访中提到的观点:「历史上第一家由一个人独立运营的十亿美元公司,即将出现。」

彼时龙虾还没火爆,一人团队(OPT)的概念也只是在 AI 圈子里。他没有解释这个人会用什么工具,会在哪里,会干哪个行业。但看完这场发布会,这句话变得具体了一些。

这个人,大概率会有一套像悟空这样的东西在身边。过去十一年,钉钉一直在让人学会用工具。悟空想做的,是逐渐让工具真正学会理解人。

当工具开始理解人,一件以前不可能的事情正在变得可能:组织生产力,第一次可以真正被数字化封装、分发和扩展。当 Skill 把行业专家的经验变成人人可调用的能力货币,当 AI 原生平台成为个体接入组织能力的操作系统,一个人或组织能做的事情的边界,将被彻底重新定义。

Sam Altman 看到的是「一人公司」这个终点,悟空要做的,是让更多普通人有机会走到那条路上。它不是专门为天才准备的工具,而是为所有「想做更多但苦于一个人精力有限」的人,提供一套 AI 时代的组织生产力基础设施。

AI 原生工作平台,正在成为这个时代最关键的组织变量。 谁先跑通它,谁就先拿到了超级个体时代的入场券。

之前有一个观点,燃烧 Token 的速度,决定了人的进化速度。而悟空的 1.0 版本,指向的就是人和组织进化的下一个版本。

文|李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

【CDT报告汇】中国AI模型国际扩张之际,三份研究显示中国AI嵌入审查机制与官方叙事(外二篇)

CDT 档案卡
标题:【CDT报告汇】中国AI模型国际扩张之际,三份研究显示中国AI嵌入审查机制与官方叙事(外二篇)
作者:中国数字时代
发表日期:2026.3.15
主题归类:CDT报告汇
主题归类:中国数字极权
主题归类:智慧城市
主题归类:西藏
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

编者按:《CDT报告汇》栏目收录和中国言论自由及其他人权问题相关的报告资讯。这些报告的来源多种多样,包括机构调查、学术研究、媒体报道和网民汇集等等。也欢迎读者向我们推荐值得关注的报告。

中国数字时代本周推荐媒体:

CHINA Books Review(中国书评):是一份在线出版物,将提供与中国图书相关的信息、见解和智慧的评论。该书评网站由中国连线 (The Wire China)亚洲协会美中关系研究中心 (Asia Society’s Center on U.S.-China Relations) 共同发起。该网站将免费提供由知名作家撰写的书评、作者访谈、编辑节选,以及更多类似《纽约书评》的一般性文章,并且将重点关注有关中国和来自中国的书籍以及更广阔的汉语世界。

一、中国AI模型国际扩张之际,审查机制与官方叙事一同向世界输出

人工智能 (AI) 正在迅速成为全球信息传播的重要渠道。在这个过程之中,中国的AI模型也逐渐走向世界,被一些西方国家的用户所接受。

然而,中国问题研究者莎拉·库克 (Sarah Cook) 近日发表了一篇文章,引用了至少三份研究报告指出,中国开发的大语言模型在输出信息时,往往同时嵌入政治宣传与内容审查机制,这种影响正随着中国AI产品的全球扩散而扩大。

img

莎拉·库克专栏UnderReported China截图

文章指出,研究者在测试中发现,这些模型在涉及政治、安全或国际议题时,经常提供带有明显倾向的回答。库克写道,这些模型“嵌入了中共的内容控制机制”,其影响范围已经超出中国国内政治议题,延伸到欧洲与美国的安全问题。比如,在爱沙尼亚外国情报局2026年发布的国际安全报告中,研究人员发现:“在讨论与爱沙尼亚安全相关的问题时,DeepSeek 会隐瞒关键信息,并在其回答中插入中国宣传内容。”

其他两份报告分别是:非营利组织“政策基因组” (Policy Genome) 对俄罗斯入侵乌克兰事件描述所做的简要审计,以及由瑞典心理防御局发布、由中国媒体项目 (CMP) 研究人员撰写的更为详细的研究报告。

作者在仔细阅读了近日发表的这三份报告后,总结了“与中国来源的大型模型相关的四个关键动态”。

首先,这些模型经常融入中国官方宣传,有时甚至是无缘无故的。例如,在涉及乌克兰战争的问题时,一些中国AI模型会重复中国政府的外交立场,对俄罗斯的责任描述含糊,甚至将部分西方国家描绘为冲突升级的主要原因。库克指出,这类回答模式并非偶然,而是源于训练数据和模型设计中的政治限制。

其次,内容控制涉及国家安全和公共安全的重要话题。“除了与乌克兰战争相关的扭曲事实外,中国的人工智能模型还会加剧网络安全风险和其他漏洞。当被问及中国技术的安全性时,DeepSeek 给出了听起来很官方、很专业的可靠性保证,却只字未提任何已记录在案的黑客攻击、网络间谍活动或跨国镇压案例。”

此外,这些影响不仅限于最初的模型,还扩展到基于这些模型构建的更广泛的应用之中。

由于中国开发的模型是开源的,而且比 OpenAI 或 Anthropic 等公司的专有模型便宜得多,因此世界各地的开发者都将其作为新工具的基础层。CMP 的研究人员报告称,在撰写本文时,13 个功能最强大的开源模型中,有 7 个来自中国公司。

最后一点,作者指出,AI 模型的回答“因语言、版本和时间范围而异”。与大多数人工智能测试一样,结果并不一致。爱沙尼亚的报告指出,随着问题越来越接近当下,关于爱沙尼亚相关话题的回答变得“越来越意识形态化、含糊其辞且晦涩难懂”。Policy Genome 的审计针对来自不同国家的六个模型(包括 DeepSeek)就乌克兰战争提出的七个问题进行了分析,发现英语和乌克兰语的回答大多准确,但 DeepSeek 的一些俄语回答却支持克里姆林宫的论调或引入了误导性细节。其结论揭示了其中的细微差别:

作者称,这种审查机制并非单纯的技术问题,而是中国信息治理体系在人工智能时代的延伸。长期以来,中国官方强调“舆论引导”,要求媒体与信息平台传播与政府政策一致的叙事,而 AI 系统正在成为新的执行工具。

库克认为,随着中国 AI 产品在全球市场的扩张,这些嵌入式的宣传和审查机制可能对国际信息环境产生更广泛的影响。她写道:“这些模型可能成为一种新的信息漏洞”,因为许多用户会把 AI 回答视为客观知识来源。

文章最后指出,这一问题对民主社会提出新的挑战。一方面,中国 AI 模型因成本低、性能强而迅速获得国际用户;另一方面,如果这些系统持续输出经过政治过滤的信息,可能在无形中塑造全球舆论环境。库克呼吁研究人员、政府和科技公司加强对 AI 模型的审计与透明度要求,以避免“审查与宣传被嵌入下一代信息基础设施”。

二、英国发展研究所:非洲“智慧城市”监控迅速扩张,中国AI监控技术成主要来源

英国发展研究所 (Institute of Development Studies,IDS) 3 月 12 日发布了一份研究报告。该报告对非洲 11 个国家的智慧城市监控系统进行了系统梳理,结果发现非洲正经历一场快速扩张的数字监控浪潮,而中国企业与金融机构在这一体系中扮演了核心角色。

img

报告封面截图

报告警告,大规模公共空间监控正在改变非洲的政治与社会环境。研究指出:“非洲大陆正在经历数字监控的大规模扩张,这种趋势正在侵犯公民的隐私权。”研究团队在阿尔及利亚、埃及、肯尼亚、卢旺达、乌干达、赞比亚等 11 个国家展开调查,发现各国政府在“智慧城市”或“安全城市”项目中投入巨大资金。仅在这 11 个国家,政府在面部识别与车牌识别技术上的支出就已超过 20 亿美元,而真实规模可能更高。

报告指出,中国正是这些监控系统的最大供应方。“中国向研究涉及的所有 11 个国家提供了智慧城市监控技术。”典型项目模式通常由中国政策性金融支持,例如中国进出口银行提供约 2.5 亿美元贷款,同时要求采购中国企业设备。监控系统通常包括成千上万台摄像头以及数据中心,由华为或中兴建设指挥控制中心,而海康威视提供摄像设备。

比如,肯尼亚是非洲最早采用中国“安全城市”系统的国家之一。2014 年,该国政府、当地电信公司萨法利通信公司 (Safaricom) 和华为合作推出了全国公共安全通信与监控系统。该系统原本旨在打击犯罪,然而许多批评人士称该系统也被用于监控示威组织者和政治反对派。

此外,尼日利亚则是非洲最大的监控技术买家之一。报告指出,该国在面部识别和自动车牌识别系统上的支出超过 4.7 亿美元。乌干达的系统规模也迅速扩大。该国在 2018 年部署华为摄像网络后,监控系统已覆盖全国主要城市,并具备面部识别、车辆追踪以及自动交通执法功能。

然而,英国发展研究所发现,这些系统并未明显降低犯罪率。报告直言:“我们没有发现任何令人信服的证据表明智慧监控减少了恐怖主义或严重犯罪。”相反,研究团队引用人权组织的话表示,这些技术很可能被用于政治控制。例如,“监控反对派领袖、和平异议人士和边缘群体,以加强执政者的权力”。

研究还发现,多数国家缺乏监管框架。许多国家虽有数据保护法,但几乎没有专门针对公共空间视频监控、面部识别或人工智能系统的法律。更严重的是,几乎所有国家在部署监控系统前都未进行正式的人权风险评估。

最后,报告表示,公共安全监控并非完全不可接受,但必须受到严格限制。研究团队建议,政府应在部署监控系统前进行人权影响评估,建立明确法律规范,并设立独立监督机构,以确保监控“合法、必要且相称”。他们警告:“如果缺乏透明度与监督,智慧城市技术可能延续殖民时期以来的监控传统——只是从人工监视升级为人工智能驱动的全天候数字监控体系。”

三、西藏之声:《民族团结进步促进法》,旨在加速同化与镇压非汉族群

3 月 12 日,中国人大通过了一项备受争议的法律——“民族团结进步促进法”。该法律一经推出就引发了国际舆论哗然,批评人士普遍认为该法律“将进一步侵蚀非汉族群体的身份认同,并可能将任何质疑这种‘统一’的人定性为可受法律惩处的分裂分子”。

img

声明封面截图

西藏之声在法律发布前夕就表示,该议案要求“少数民族”儿童从学前教育起学习普通话,并赋予政府跨境追责权,“旨在加速同化与镇压非汉族群”。

《民族团结进步促进法(草案)》共计 62 条,于 2025 年 9 月 8 日提交全国人民代表大会。国际人权团体人权观察指出,议案如获通过,藏语等非汉语言的使用空间将进一步缩小,境内外异议人士将受到更严重的打压与报复。

该法案要求少数民族儿童从学前教育起必须学习普通话,并在 15 岁前“基本掌握”。法案第 61 条赋予政府跨境打击的法律依据,要求追究境外个人或组织“破坏民族团结、煽动民族分裂”的法律责任。

人权观察表示,新法草案企图取消现行《民族区域自治法》(1984 年通过)明文保障的少数民族“使用和发展自己的语言文字”的权利,转而强调汉语普通话的主导地位。

该团体表示,这部新法将建立广泛法律框架,为中国当前从境内到境外对少数民族的镇压和强迫同化提供正当理由。一旦通过,这部法律可用来加强意识形态管控,以取消少数民族语言权利等手段打压少数民族和宗教少数群体,并促进对中国境外的控制。

类似表态还有,维吾尔人权项目在接受采访时表示,这些做法“违反了国际人权标准,并加剧了新疆正在发生的种族灭绝和反人类罪行”。

南蒙古人权信息中心主任恩格巴图·托戈乔格在一份声明中表示,要求在公共生活中掌握普通话也可能限制蒙语使用者就业的机会。他解释说:“从经济角度来看,这将使蒙人边缘化,因为汉语水平成为获得就业和晋升的门槛”。

林俊旸离开的48小时:一条朋友圈、一个小模型、和一个万亿美金的假设

「按照原来安排继续干」

离职的消息最沸沸扬扬的时候,在 Qwen 团队的核心负责人林俊旸在朋友圈发了两句话:

「Qwen 的兄弟们,按照原来安排继续干,没问题的。」

「安排好的」?这是什么?

林俊旸离开前夕,Qwen 团队刚刚发布了一件被全球开发者社区刷屏的东西。Qwen 3.5 Small 系列,参数量从 0.8B 到 9B,专为端侧设备设计,可以在普通笔记本电脑上运行。

不是一个更大的模型——而是一组更小的模型。要知道,过去三年里,AI 行业最强大的共识是「越大越好」。OpenAI 的 Sam Altman 四处筹措万亿美金建设算力基础设施,各家实验室军备竞赛般地烧钱烧卡,底层假设只有一个:模型越大,就越聪明。

这套逻辑被称为 Scaling Law,它不仅仅是一条技术规律,更像一种信仰——整个行业的融资叙事、人才分配、硬件投资都建立在这个前提之上。

但 Qwen 3.5 Small 的发布,和林俊旸的离开,同时发生。一个技术信号和一个人事信号,交织出一个更复杂的故事:小模型到底在发生什么?它为什么重要?

当 9B 打赢 120B

即便不是开发者,也可以跑分上一窥 Qwen 3.5 的战绩:

Qwen 3.5 Small 系列中,9B 参数的模型在多项基准测试中全面超越了 OpenAI 的 gpt-oss-120B——一个参数量是它 13 倍的模型。

这些不是边缘指标上的微弱优势,而是在核心推理任务上的系统性领先。一个可以装进笔记本的模型,在数学、科学、视觉推理上全面击败了一个需要数据中心级硬件才能运行的对手。

当然了,摸着良心说,gpt-oss-120B 不是 OpenAI 的旗舰产品,而是其开放权重的中端线。而且它采用 MoE 架构,标称 120B 参数,但每个 token 实际只激活约 5.1B 参数——所以参数量的对比,在工程层面并不像字面数字那么悬殊。

但这不影响趋势本身的成立。因为 Qwen 3.5 Small 并不是孤例。

同一时期,Nature 报道了一个微型递归模型(TRM),在 ARC-AGI 逻辑测试中击败了多个顶级大语言模型。Google Research 在 2026 年初发表论文,证明小模型在意图提取任务上的表现优于显著更大的模型。PNAS 上的一项研究更直接——模型规模与说服力之间呈急剧递减收益,大到一定程度之后,更大几乎不带来更好。

《华尔街日报》早在 2025 年 10 月就已经敢说,「大模型拿走了所有的关注,但小模型才真正干活的那个。」

这些信号共同指向一个判断:以小博大不是偶发事件,而是大势所趋。

那么问题来了——小模型凭什么?

才不是大模型的替身文学

直觉上,人们容易把小模型理解为「大模型的平替」,同样的方法,只是规模小一些,性能差一点,胜在便宜。

但事实恰恰相反:今天的小模型之所以能以小博大,是因为它们在技术方法论上,走了一条和大模型完全不同的路。

第一,数据质量压倒数据规模。 大模型的路线是「尽可能多地吞入互联网数据」,而小模型路线的代表——比如微软的 Phi-4 系列——走的是精筛路线:用高质量的合成数据加上严格筛选的公开数据集,让模型在更少的数据上学到更精确的能力。这背后的逻辑转变是根本性的:不是「喂得越多越聪明」,而是「吃得精才学得好」。

第二,原生多模态设计取代了适配器拼接。 传统做法是先训练一个纯文本大模型,再通过适配器模块接入图像、视频、音频等能力。Qwen 3.5 采用了完全不同的架构:将视觉 token 和文本 token 在同一个潜空间中联合训练,从底层就是多模态的。这意味着它是一个天生就同时理解文字和图像的模型。这种架构在小参数量下反而更有优势,因为不需要额外的适配器开销。

第三,量化技术带来的不只是压缩。 4-bit 量化常常被理解为「把模型压小 4 倍以节省存储」,但它真正的意义在于减少 4 倍的内存吞吐量。在端侧设备上,瓶颈往往不是存储空间,而是内存带宽,也就是数据从内存搬运到处理器的速度。量化技术让小模型在带宽受限的手机和笔记本上,获得了决定性的速度优势。

这些方法论上的突破已经开始转化为产品。3 月第一周,苹果发布了 M5 全线芯片,每颗 GPU 核心内置 Neural Accelerator,AI 性能较 M1 提升最高 8 倍。与此同时,苹果研究院公开了 Ferret-UI Lite——一个仅 3B 参数的端侧 GUI 代理,可以本地操控手机和桌面应用。加上 Apple Intelligence 约 3B 参数的端侧基础模型,苹果正在将「on-device AI」从概念推进到芯片、模型、交互三位一体的产品形态。

微软的 Phi-4 multimodal 也开始尝试商用上线 Azure,3.8B 参数,接受文本、音频和图像输入。开源社区的反馈更加直接——Reddit 上的开发者实测后认为 Qwen 3.5 的 4B 版本是「甜点级」模型:跨任务稳定、无崩溃、远快于 9B 版本。

技术路线已经被验证,产品化拐点已经到来,天边泛起鱼肚白,曙光乍现。

而就在此刻,林俊旸选择离开。

最会做小模型的公司,最没有动力让它成功

Qwen 3.5 Small 在发布后获得了开发者社区的广泛认可,开源社区的评测结果甚至超出了官方发布时的宣传。

但是,他所在的公司是阿里巴巴,阿里巴巴的商业引擎是阿里云。

大模型和云计算之间存在天然的正向循环:模型越大,推理所需的算力越多,客户就越需要购买云计算服务。对阿里云来说,大模型是完美的商业叙事——它同时推高了客户的算力需求和对云平台的依赖。

而小模型的逻辑恰恰相反。小模型的核心价值在于可以在端侧设备上运行——手机、笔记本、边缘服务器。这意味着客户可以绕开云,在本地完成推理。对用户来说,这意味着更低的成本、更好的隐私和更低的延迟。但对阿里云来说,这意味着收入被侵蚀。

Qwen 3.5 Small 做得越好,对阿里云的商业叙事就越尴尬。

这不是阿里一家的问题。放眼中国的科技巨头,几乎所有 AI 领先的公司都面临同样的结构性矛盾。百度和腾讯的处境与阿里类似——商业模式建立在云服务和平台抽成之上,小模型的端侧化趋势直接削弱了它们的价值主张。

字节跳动的豆包手机是一个有趣的例外,但字节做硬件才刚起步,远没有建立起「芯片+操作系统+模型」的垂直整合能力。

华为理论上最有条件,既有芯片,又有终端设备。但在制裁的影响下,它的算力上限本身就逼着它走小模型路线,这更多是被动的求生策略,而非主动的战略选择。至于小米、OPPO、vivo,它们有设备,却不是 AI-first 的公司,缺乏自研模型的基因和持续投入的动力。

全球范围内,真正打通端侧 AI 全栈的公司,可能只有一家:苹果。芯片、设备、操作系统、自研模型,全部自有。苹果的动力来自复合型的商业模式,这驱动它把一切计算尽可能留在设备上,因为每一次端侧 AI 体验的提升,都会转化为硬件的溢价和生态的黏性。

不过,这里需要诚实地处理一个可能的反驳:云厂商难道不能走「端云协同」的路线吗?用小模型做端侧入口,复杂的推理任务回调云端处理,两边都不耽误。

理论上可以。但这恰恰说明了问题——在端云协同的框架下,小模型对云厂商来说是「引流工具」,而不是「独立产品」。云厂商没有动力把小模型做到好到不需要云。

还有一个绕不开的反例:微软也是云厂商,但它在认真做 Phi-4 系列小模型,而且已经商用上线。这是否说明「左右互搏」的论点站不住脚?

非也。微软之所以能两条腿走路,是因为它同时拥有 Windows 和 Surface 的硬件生态、Azure 的云平台以及 Copilot 的端侧产品线。做 Phi-4 对微软来说是防御性布局:如果端侧 AI 的趋势不可逆转,为了大局,宁可壮士断腕,自折一臂,也不能把端侧市场拱手让给开源社区和苹果

但阿里没有这个选项——没有消费级操作系统、没有主流终端硬件、没有面向个人用户的 AI 产品矩阵。Qwen 做得再好,也没有自家的「最后一公里」可以落地。

动力不同,产品的天花板就不同。

这就形成了一个令人不安的画面: 小模型从实验室走向产品的真正瓶颈,不是技术能力,而是供需错位;最擅长做小模型的公司(云厂商),最没有动力让它真正成功;最需要小模型的公司(设备厂商),又缺乏独立研发的能力。

「没问题的」

回到林俊旸的那条朋友圈,「继续按照安排好的干,没问题的」。

也许技术路线确实没有问题,一切都在朝着正确的方向走。但在一家以云为重的公司里,就算做出世界级的小模型,团队的处境注定不会舒适。

这不是对阿里的批评——任何一家以云收入为生命线的公司,面对一项可能侵蚀自身收入的技术路线,都会陷入同样的两难。这是一个结构性矛盾,不是个人或管理层的选择问题。

比人事更值得关注的,是 Scaling Law 本身正在发生的变化。

过去三年,「越大越好」不仅仅是一条技术规律,它是整个 AI 行业的信条。融资叙事围绕它建立——投资人相信更大的模型意味着更强的能力,所以万亿美金涌向算力基础设施。人才分配围绕它运转——最顶尖的研究者被吸引到训练最大模型的团队。硬件投资围绕它定价——英伟达的估值建立在一个前提之上:对算力的需求会永远增长。

现在,这个前提正在松动。MIT 的研究估计,效率提升将使中等硬件上的模型在 5 到 10 年内逐步追平最大最贵的模型。芝加哥大学的研究表示,数据质量正在取代数据规模成为核心竞争维度。

产品化的方向不再只有云端,而是同时向端侧扩散。Scaling Law 正在从一条单调递增的曲线,变成一张需要在多个维度上寻找最优解的地图。

不再是「越大越好」,而是「在对的地方,用对的大小」。

林俊旸大概比大多数人更早地感受到了这个变化。他用 Qwen 3.5 Small 证明了一件事:在对的方法论下,9B 参数可以击败 120B。但他同时也撞上了另一堵墙——技术上的正确,不等于商业上的可行,更不等于组织上的舒适。

他说,没问题的。确实,技术路线已经铺好了,而剩下的问题不在实验室里,而在实验室外面。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌