Normal view

There are new articles available, click to refresh the page.
Yesterday — 31 March 2026Main stream

国行苹果 AI 一手实测:等了两年终于来了,好用吗?

By: 柯铭源
31 March 2026 at 11:22

2026 年 3 月 31 日,距离苹果 50 周年纪念日还剩一天。国行 iPhone 用户的设置页面里,悄悄多了一个选项:「Apple 智能与 Siri」。

没有发布会,没有新闻稿,甚至没有一条来自官方社交媒体的预告。Apple Intelligence 就这样以一种几乎静默的姿态,落在了中国用户的手机上。

从 2024 年 6 月 WWDC 的高调亮相算起,国行用户为这一刻等了整整 21 个月。

爱范儿在第一时间完成了激活和全面实测,先说结论:

体验很「苹果」,但效果很一般。但

如果你期待的是一个能跟 Gemini 或豆包正面交锋的 AI 系统,这不是你想要的。

值得注意的是,这次苹果国行 AI 突然上线可能是一次意外,并非正式发布,目前苹果已经下线这个版本。

一向以苹果爆料闻名的彭博社记者 Mark Guman ,称国行 AI 还没拿到监管批准,他给出了以下理由:

  • 苹果国行 AI 上线,官方不可能没有任何宣传动作。
  • 苹果不会在中国凌晨发布国行 AI 。
  • 它会调用 Google 作为视觉识别引擎,这在中国本就不合理

📢 另据爱范儿最新了解,本次推送是由于软件问题,国行的 iPhone 和 iPad 设备曾短暂地可以下载其他地区适用的设备端 Apple 智能并启用该功能。

在问题出现后,苹果已迅速修复。

据悉, Apple 智能尚未在国行推出,推出时间依监管部门审批情况而定。

国行苹果 AI 怎么激活?

首先,你需要把设备更新 iOS 26.4 系统,然后进入「设置」,会发现原来的「Siri」入口已更名为「Apple 智能与 Siri」。

点击进入,再点亮 Apple 智能的开关,系统开始下载端侧模型。

整个过程需要连接 Wi-Fi,下载时间取决于网络状况,我们实测大约花了十分钟左右。下载完成后,一系列新功能随即解锁。

机型方面有硬性要求:iPhone 15 Pro 及后续机型才能运行 Apple 智能,更早的 iPhone 15 标准版因芯片和内存限制被排除在外。

需要留意的是,部分功能在首批推送中存在激活失败的情况。我们在实测过程中遇到了个别功能无法正常开启的状况,重启后恢复正常,但倒也并不意外。

新功能实测:速度很快,体验一般

打开新的 Siri,最直观的变化是视觉层面,屏幕边缘泛起的柔光替代了过去那个悬浮在底部的圆形动画,整个交互节奏明显更流畅。

Siri 现在同时支持语音和文字输入,这意味着你在会议室或者安静的公共场合也能通过打字跟它交流,不用担心开口说话的尴尬。

语义理解能力有所提升,能处理一些上下文连贯的对话。但在我们的实测中,Siri 的深度对话能力距离 ChatGPT 或者豆包仍然有肉眼可见的差距。

值得注意的一点是大模型调用的问题。

国行版 Apple 智能调用的后端模型情况比较复杂。视觉识别 AI 方面,我们通过 iPhone 16 的「相机控制」按钮实测,调出的视觉识别引擎应该来自 Google。

而在 Siri 的对话和内容生成环节,爱范儿实测发现是有可能调出 GPT 的,网上也有调出百度文心大模型的。

这一点颇为微妙,因为此前业界普遍预期国行版只会接入百度和阿里的模型。具体的模型调用策略,苹果官方尚未给出明确说明,也许跟网络环境高度相关。

写作工具覆盖了系统级文本输入场景,包括备忘录、邮件、信息等原生 App。选中一段文字后,可以调用润色、改写、摘要等功能。

速度是写作工具最令人印象深刻的地方。

由于模型运行在本地,从点击到结果呈现几乎没有感知延迟。在备忘录里选中一段 200 字的草稿,点击「改为专业语气」,不到两秒就输出了完整结果。这种即时反馈对日常使用来说体验非常好。

但端侧模型的能力天花板也肉眼可见。

复杂长文本的摘要有时会遗漏关键信息,语气改写偶尔会产生不够地道的表达。跟调用线上大模型的写作工具相比,它胜在速度和隐私,输在精度和灵活度,在云端模型面前,苹果的 AI 写作工具就像小学生。

Apple 智能下载完成后,桌面会新增一个「图乐园」App。

它支持根据文字描述生成图片,提供素描、插画、动画三种风格。你可以输入描述,也可以直接用照片库中的人脸作为素材,生成带有本人特征的艺术风格图像。

生成速度很快,大约三到五秒就能出图,这得益于端侧扩散模型的优化,但手机会明显发热。

苹果显然没有把图乐园定位成一个专业创作工具,它更像是一个系统级的趣味配件,如果你真要玩 AI 修图,请出门左转选择豆包。

AI 消除是本次更新中最实用的功能。

在照片 App 中打开一张图片,选择消除工具,用手指涂抹需要去除的主体,系统会自动识别并完成消除和背景填充。 好消息是速度快到令人惊讶。

选中、涂抹、消除,整个过程不超过三秒,完全在本地完成。日常清理照片中的路人、电线杆、垃圾桶之类的干扰物,效率极高。

坏消息是,精度不够。

在我们的实测中,AI 消除能够快速识别并去除主体,但细节层面存在明显瑕疵。

放大图片后可以看到阴影残留、边缘模糊、填充纹理不连续等问题。

如果是消除一个背景简单的小物体,效果尚可;但面对复杂背景或者大面积消除,画面破绽一目了然。

跟 Gemini 或者豆包的消除功能相比,Apple 智能的 AI 消除有明显差距。但苹果选择把所有处理放在本地,换来的是隐私和速度,代价就是质量上的折让。

比较私人的照片资料,也许端侧模型用起来会更让人放心一些。

系统级翻译功能现在也被纳入 Apple 智能的体系。

支持实时对话翻译和文本翻译,在信息、Safari 等场景中可以直接调用。响应速度很快,可以提前下载好语言包,实测在 iPhone 或者 AirPods Pro 3 上都能激活。

但在翻译质量上,它跟 DeepL 或者 Google 翻译的差距仍然存在,特别是在长句、专业术语和语境判断上。翻译功能对于苹果来说更像是一个系统级的实用补充,而非要在翻译赛道上跟专业选手竞争。

整体来看,Apple 智能国行版的整体体验可以用两个词概括:快,安全。 快,是因为绝大多数功能运行的都是端侧模型。

文本润色、信息总结、AI 抠图、消除,所有操作的响应速度都非常流畅,没有云端调用常见的等待感。这种「想到即得到」的交互节奏确实是苹果的强项。

安全,则体现在数据处理全部在本地完成,不会上传至云端。

对于隐私敏感度日益提高的国内用户来说,这是一个不可忽视的加分项。你的照片、文字、对话记录不会离开你的设备,这一点苹果做到了。

但「快」和「安全」的另一面,是端侧处理的质量上限。

跟调用线上大模型的竞品相比,Apple 智能在消除精度、文本理解深度、图像生成质量等维度都存在可感知的差距。

苹果在隐私与性能之间做了一个明确的选择,而这个选择的代价,用户在每一次使用中都能体会到。

为什么苹果 AI 迟迟不来?

Apple Intelligence 首次亮相于 2024 年 6 月 10 日的 WWDC24。

那场发布会上,苹果做了一件前所未有的事情:把「AI」这两个字母放进了自己的核心叙事。

在此之前,苹果一直刻意回避这个缩写,更愿意用「机器学习」之类的说法来描述自己的技术能力。但 OpenAI 掀起的生成式 AI 浪潮改变了一切,苹果也不得不正面迎战。

Apple Intelligence 被描述为一个「个人智能系统」,核心架构是端侧约 30 亿参数的小模型加上云端通过 Private Cloud Compute 调用的大模型,底层跑在 Apple Silicon 上。

在那场发布会上,苹果跟 OpenAI 达成了 ChatGPT 集成协议,Siri 在遇到超出本地能力的问题时可以调用 GPT。

2024 年 10 月,Apple Intelligence 随 iOS 18.1 在美国率先上线,随后逐步扩展到英国、澳大利亚、加拿大等英语市场。12 月,更多英语地区获得支持。

2025 年 3 月 31 日,iOS 18.4 更新让 Apple Intelligence 支持了简体中文、日语、韩语等多种语言。

但国行迟迟不来。

苹果最初的计划是在 2025 年中将 Apple Intelligence 带到中国市场,可惜这个时间表几乎从一开始就注定要被推翻。

由于合规要求,无论是苹果自己的云端模型还是 OpenAI 的 ChatGPT 都无法直接在国内使用,这意味着苹果必须找到本地合作伙伴。 苹果先是接触了百度,尝试接入文心一言,但据报道在技术对接和模型表现上遇到了障碍。

随后,苹果转向阿里巴巴。2025 年 2 月,阿里巴巴集团董事局主席蔡崇信公开确认了双方的合作关系。

根据方案,阿里的通义千问将作为 Apple Intelligence 在国行设备上的模型底座,同时负责内容合规审查。阿里还会在苹果的端侧模型之上部署一个审查层,确保 AI 输出符合国内法规要求。

但随着 2025 年上半年,世界局势的急剧变化,以及 AI 行业的迅猛发展,苹果的国行 AI 也从「行货」变成了「期货」。 此后,国行版 Apple Intelligence 的上线日期经历了多次推迟。

最初锚定 2025 年中,推迟到 iOS 18.6(2025 年夏),再推迟到 iOS 26.1、iOS 26.2、iOS 26.4。

2025 年 11 月,彭博社记者马克·古尔曼在 Power On 专栏中直言,国行版落地「遥遥无期」。

他指出,除了监管问题之外,Apple Intelligence 本身的工程进展也不顺利,模型性能未达预期。

最新的消息是,苹果计划在 iOS 27 中开发 Siri 的第三方 AI 接口,同时与 Google Gemini 深度合作,双管齐下来提升苹果 AI 的使用体验——但这种把半条命交给合作伙伴的做法,也意味着苹果在这轮 AI 大模型的军备竞赛中已经输了。

苹果能做的,就是牢牢把住 AI 硬件的入口——数十亿级的苹果生态设备。

这也是为什么,国行 Apple 智能必须尽快推出的原因,苹果要赶在 WWDC26 之前,完成全球范围的布局,为 AI 时代的 App Store 扫清障碍。

2026 年 3 月 31 日。距离苹果成立 50 周年的 4 月 1 日恰好只剩最后一天。苹果在 3 月下旬刚刚宣布了创业 50 周年纪念活动,Tim Cook 发布公开信回顾公司 50 年的历程,全球多地 Apple Store 举办了特别活动,爱范儿也受邀参加了苹果在成都和上海的特别演出。

就在这个时间窗口里,Apple 智能悄悄降临国行设备。 苹果没有解释为什么选择这个时间点,也没有给出关于合作模型、审批进展的任何官方说明。但时间节点本身已经足够说明问题:

在迈入下一个 50 年的门槛上,苹果大概不希望自己最大的海外市场之一仍然被排斥在 AI 时代的门外

图自彭博社

从商业角度看,这也合理。中国市场的 iPhone 销量在过去两年持续承压,Tim Cook 本人多次在财报电话会上承认,Apple Intelligence 的缺席是国行 iPhone 竞争力下滑的原因之一。

与此同时,华为、小米、OPPO 等国产厂商早已在 AI 功能上全面铺开,部分品牌还陆续接入了 DeepSeek 和龙虾,体验差距越拉越大。

苹果需要这个功能落地,而且需要在 50 周年这个全球瞩目的节点上落地。

把 Apple 智能放回它该有的坐标系里来看:它不是一个要跟 ChatGPT 或 Gemini 争夺「最强 AI」头衔的产品,它是苹果把 AI 能力融进系统层的第一步。 端侧模型带来的速度和隐私优势是实实在在的。

对于普通用户来说,能在本地完成文本润色、照片消除、信息摘要这些日常操作,不需要把数据交给任何云端服务,这件事本身有价值。

但如果你已经习惯了豆包、Kimi、DeepSeek 这些国产 AI 产品的能力水准,Apple 智能目前的表现大概率会让你觉得「就这?」。

端侧模型的参数量级和推理精度决定了它的上限,苹果在隐私和性能之间做出了清晰的取舍,而你需要判断这个取舍,是否符合你自己的需求。

等了快两年,Apple 智能终于来了。它迟到得太久,以至于我们对它的期待已经从「改变游戏规则」降到了「先能用再说」,但它确实来了。

在苹果 50 岁生日的前一天。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

Before yesterdayMain stream

别被机器人跳舞骗了,我们还在 GPT-2 时代| 具身智能百亿圆桌

By: 张子豪
27 March 2026 at 15:10

说到机器人,过去两年科技圈里,最不缺的大概就是各种机器人「后空翻」的视频。

社交媒体上的讨论和各大公司的宣传片,也让人觉得我们距离被机器人接管,似乎就差那一个季度的距离。

刚刚,在 2026 中关村论坛年会上,几位国内具身智能的创始人,进行了一场「百亿具身智能圆桌会议」。来自银河通用的王鹤、智平方张鹏、千寻智能高阳、原力灵机唐文斌,以及星动纪元的席悦坐在一起,聊了聊具身智能的核心议题。

现在的具身智能到底发展到哪一步了,哪些场景是得到了验证?

技术方面,要让机器人真正进入我们的生活学习和工作,需要解决的问题是数据、模型还是机器人硬件?

以及未来一两年内,具身智能的主要发力场景会集中在哪些方向,工业化落地多还是真的有望进入家庭?

最后,他们也谈到了具身智能的发展,需要像自动驾驶一样,有 L3、L5 类似的标准,才能规范整个机器人行业所处的智能水平。

欢迎来到机器人的 GPT-2.0 时代

如何定义刚刚过去的 2025 年与机器人赛道全面进击的 2026 年?

五位大咖给出了高度一致的研判:2025 年是「打基础」的蓄势之年,而 2026 年将是机器人场景泛化能力提升,和商业规模化落地的元年。

千寻智能的高阳将当前的具身智能所处的阶段,比喻为大语言模型的 GPT-2 时代。

▲千寻智能联合创始人 高阳

他提到具身智能行业,在 2025 年解决了大量数据基建层面的问题,随着模型参数与数据规模的提升,2026 年极有可能迎来跨越至 3.0 时代的跃变。

原力灵机唐文斌也坦言,当前行业仍处在发展初级阶段,但在数据规模化驱动下,行业斜率(增速)极大。

他直言哪怕今天我们坐在这里谈论模型、算法,但是连一个大规模的 benchmark 都还没出现,无法准确的衡量不同具身智能的水平。

▲星动纪元联合创始人 席悦

星动纪元联合创始人席悦则提到,过去一年资本的疯狂涌入,一些 2025 年没有出现的公司,在 2026 年突然涌现;同时也伴随着很多公司突然就消失。

这是速度和加速度都飞快的一年。

银河通用创始人王鹤则提到了前段时间他们和清华大学合作的项目,让机器人也可以上场打网球。他说随着很多概念的逐渐清晰,具身智能是正在迎来从实验室走向真实世界的时刻。

得数据者得天下

和李飞飞推出的大规模图像数据集 ImageNet,成为深度学习发展中重要一环类似,具身智能的发展也需要大量的数据。

相比于 ChatGPT 这类大语言模型能够从互联网的海量文本里面提取数据,物理世界的高质量交互数据依然缺失。

星动纪元的席悦说,「数据,是当前最卡脖子的瓶颈」。

想要让机器人能在复杂的特种环境里自主工作,就需要它在真实场景里收集数据。但真实场景的试错成本太高了,没有哪个厂长愿意让一个半成品机器人在自家流水线上瞎折腾。

原力灵机则说的更直接,唐文斌认为数据本质上就是钱的问题,它不是最关键的,花钱就可以解决。真正的数据难题是需要让机器人从真实场景里面反馈数据。

但他也提到,这会是一个鸡和蛋的问题。现在的机器人不成熟,没有办法被批量部署,但是想要机器人得到进步,我们又需要机器人被批量使用。

▲智平方联合创始人 张鹏

智平方的张鹏认为,真正能让模型产生质变的,永远是一线真实场景回流的数据。而在数据之外,模型的架构和系统的设计也同样重要。

他认为具身智能是「模型+本体硬件+场景系统」的三位一体的综合实力比拼。让机器人在不同场景上,能够以更小的成本去适应更多的场景,对具身智能行业应用来说是一个非常大的挑战。

就像自动驾驶领域的特斯拉和 Waymo。谁能以最低的成本,让最多的机器人在真实物理世界里跑起来,谁就能拿到通往 GPT-3.0 时代的入场券。

做家务不是今年的优先场景

如果说 2025 年是拼 Demo、跳芭蕾、表演武术的一年,那 2026 年就是拼场景的一年。

而这些创始人们选出的落地场景,都不约而同地放弃了科幻电影里那些高大上的 C 端家庭场景,转而一头扎进了物流、公共服务,甚至是街头零售。

张鹏、高阳与席悦一致看好半结构化的工业制造、简单的服务与物流搬运场景。

特别是物流环节中那些「人类只需短时间培训即可上岗」的日结型工作,其高标准化和明确的指标要求,能成为机器人最易替代与规模化复制的突破口。

▲原力灵机创始人 唐文斌

唐文斌则给出了四个极为严苛的落地标准,堪称具身智能的「避坑指南」。

第一,必须是能容忍错误的场景;第二,必须对效率有容忍度;第三,需要一定的泛化能力,否则直接用非标自动化机器就行;第四,能够长时间作业算得平账。

他幽默地提到,在技术尚不完美的当下,「伪装成干活的跳舞」,能够提供情绪价值的展示型应用,也不失为一种极佳的商业路径。

▲银河通用创始人 王鹤

银河通用的王鹤提到了他们正在全国铺开的「太空舱」零售店。在这些充满未来感的舱体里,机器人自主帮顾客取货。

机器人取货的动作可能没有人类店员那么利索,但它新奇、酷炫,为顾客提供了极高的「情绪价值」,顾客愿意为这份体验买单。

同时,在这个过程中,银河通用已经积累了 8 万小时的真实货架取货数据。

这不仅是一个成熟的商业场景,更是一个极其巧妙的具身智能数据采集方案。

在圆桌会议的最后,他们还聊到了整个具身智能行业需要一些标准。

刚好今天央视新闻有报道,中国信通院联合 40 余家单位,发布了具身智能领域的首个行业标准,将于 2026 年 6 月 1 日实施。

该标准不仅统一了基准测试框架(静态仿真、动态仿真、真实环境、组合式),还配套建立了包含超 1 万条测试任务的题库,覆盖工业、家庭等 300 种场景,结束了行业「无标可依」的现状。

▲知名的具身智能算法评测平台 RoboChallenge

几位创始人也提到了标准、法律和安全的重要性,只有一套广泛认可的行业标准,才会有具身智能实质性和规模性的进步。

结束的时候,主持人说今天是「百亿」,希望明年能变成千亿具身智能对话。

是的,还没到万亿,机器人要想彻底接管人类,可能还需要再练习好几年。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

冷杉RECORD|消失在辩护席上的个人电脑

By: unknown
20 March 2026 at 08:53
CDT 档案卡
标题:消失在辩护席上的个人电脑
作者:李一鸣
发表日期:2026.3.18
来源:冷杉RECORD
主题归类:中国法治
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

律师李仁钬的电脑没能被获准带入法庭。

3月16日上午,在湖北省鄂州市鄂城区人民法院的庭审现场,他和其他四名律师因坚持携带个人笔记本电脑出庭,在安检口与法院工作人员陷入僵持。此前两个多月,关于这台电脑能否进入法庭,李仁钬已向法院提出过数次异议,但并未获得准许。

带着笔记本电脑去开庭,在过去很多年里,是律师们默认的工作方式。毕竟电脑里几乎装着办案所需的全部材料:证据目录、法律检索、几百本卷宗、几万字的辩护意见和辩护提纲。在法律检索软件甚至人工智能(AI)辅助工具已被广泛应用的今天,这种数字化的办公方式再寻常不过,也越发重要。

但近两年,一些律师在执业中发现,这一早已被默认的惯例,在部分法院被突然中断了。

将个人电脑挡在门外的,通常是地方法院向他们出示的一份文件——最高人民法院于2020年印发的《关于进一步规范庭审秩序、保障诉讼权利通知》(下文简称“《规范庭审秩序通知》”)。其中第七条这样写道,“对重大敏感案件和依法不公开开庭审理的案件,人民法院应当禁止携带电子设备进入法庭,采取屏蔽网络信号等必要技术措施,防止庭审活动信息被不当传播,确有使用必要的,需经人民法院准许”。

矛盾由此产生。

在法院的管理逻辑中,限制携带电子设备进入法庭,是防止违规录音录像,确保案件信息不被外泄的保险手段;而在律师看来,在办案材料动辄数百万字,技术手段已深度辅助办案的今天,不能携带个人电脑,确实给他们的工作带来了困难。关于“工具”的分歧,正演变为一场辩审之间的新冲突。

当技术已经深度嵌入法律职业,对它的限制与使用该如何保持适度?就此争议,《凤凰周刊》记者采访了多位有过类似遭遇的律师、相关学者,以及法院工作者,试图厘清这一现象生成的逻辑,也想进一步探讨,在技术变迁的背景下,法庭秩序与执业权利之间,该如何适应并重建信任?

冲突

北京市中盾律师事务所的律师李仁钬的电脑,是被一纸通知拦下的。

2026年1月9日,他收到了湖北省鄂州市鄂城区人民法院向其发送的电子版出庭通知书。页脚处的文字格外醒目:“本案系重大敏感案件,根据有关规定,禁止携带个人笔记本电脑、手机等电子设备进入法庭。确需使用电脑的,本院将统一提供专用电脑、U盘。”

收到通知的前一天,1月8日召开的庭前会议休会时,审判长曾向辩护人出示一份纸质文件。经律师们事后检索,该文件就是最高人民法院印发的《规范庭审秩序通知》。

image

鄂城区法院大楼。案件原定于3月16日开庭。

李仁钬记得,当时,审判长明确指出,该规定的第七条,正是不允许律师在庭审过程中使用个人电脑的依据。

如前文说所述,条款在“对手机、电脑等电子设备,一般允许携带进入法庭”的原则之外,为“重大敏感案件”划出了一道禁入的红线。争议焦点随之出现。据了解,该案并不属于“依法不公开审理”范围,那么它是否属于“重大敏感案件”?

根据最高法院2023年印发的指导意见,“重大敏感”通常涵盖涉及国家利益、具有首案效应或涉及国家安全及宗教等情形。在鄂城区法院发出的通知书中,该案被明确标注为“重大敏感案件”。鄂城区人民法院向该案律师们发送的出庭通知书明确写道,本案属于重大敏感案件。

image

法院的出庭通知书。

深圳大学法学院教授、博士生导师、中国刑事诉讼法学研究会常务理事左德起关注到了该起事件。在他看来,第七条赋予了法院对于电子设备管控的自由裁量权。他在《上海法治报》发表评论称,庭审信息传播若缺乏规范,极易被断章取义地解读,甚至可能引发不实舆情,干扰案件正常审理。因此,法院加强对信息出口的管控有其合理出发点。

但左德起同样指出,在司法实践中,该规定的适用出现了偏差。由于公开开庭审理的重大敏感案件的电子设备管理规定模糊,容易引发公众质疑——“既然公开审理,缘何禁止使用电子设备?”

朱凯曾在浙江省某法院刑事审判法庭工作过10年,担任过刑事审判法庭法官,也参加过大量刑事案件的审理工作。在他看来,《中华人民共和国人民法院法庭规则》明确规定,禁止在庭审过程中私自录音录像或拍照,也不允许私自通过互联网传播庭审活动。禁止的对象当然包括律师。这一点是共识,没有争议。上述禁止性规定,必然有其合理性,例如保护当事人隐私、国家秘密,避免引发负面影响等等。

至于《规范庭审秩序通知》第七条,目的也是防止有人私自录音、录像、拍照、传播庭审活动。其背后的原因在于,当前电子设备种类繁多、功能多样,法庭工作人员很难逐一确认每台电子设备是否开启了隐秘录音或网络直播功能。

也因此,对于重大敏感案件或不公开审理的案件,法院采取了从源头上封堵风险的办法。

困境

然而,在律师们看来,限制携带个人电脑进入法庭,确实给他们带来了实打实的困难。

北京华一律师事务所金宏伟律师说,《规范庭审秩序通知》发布之前,他在湖南、湖北、广西等多地都遭遇过类似情况。当时法院依据的是最高人民法院《关于人民法院庭审录音录像的若干规定》第十五条:未经人民法院许可,任何人不得对庭审活动进行录音录像,不得对庭审录音录像进行拍录、复制、删除和迁移。行为人实施前款行为的,依照规定追究其相应责任。

“为了禁止录音录像,就直接把这些设备全部挡在了法庭外。”他说。

在金宏伟看来,这种做法是对律师充分行使辩护权的侵犯。对于近日李仁钬等律师遇到的情况,他认为,这是对有关文件的扩大化理解。“首先,《规范庭审秩序通知》只指出了,对于重大敏感案件,在原则上禁止律师携带个人电脑,而鄂城区人民法院‘一刀切’地全面禁止。其次,所谓‘重大敏感’并非严肃的‘法言法语’,并没有提供一个清晰的边界。”

“如果地方法院把任何可能引发舆情的事件,都以‘重大敏感案件’为由,禁止律师在庭审中使用个人电脑。那这可能引发某种趋势。”金宏伟告诉《凤凰周刊》,这也是他最担心的事。

朱凯也认为,《规范庭审秩序通知》中的相关规定有“矫枉过正之嫌”。“律师在开庭审理过程中使用电脑等电子设备,很多时候是工作中必需的。”他指出,特别是在涉黑涉恶等复杂案件中,卷宗材料动辄几千页、几万页,有的电子数据需要当庭展示,使用纸质材料显然是不便的,甚至是行不通的。

image

鄂城区法院门口。

而在前湖北经济学院法学院讲师、天达共和律师事务所合伙人彭夫看来,《规范庭审秩序通知》对法院系统内部来讲,确实存在约束效力。但该文件剥夺了公民的辩护权利——《中华人民共和国刑事诉讼法》第十四条规定,“人民法院、人民检察院和公安机关应当保障犯罪嫌疑人、被告人和其他诉讼参与人依法享有的辩护权和其他诉讼权利”。

“辩护权的行使,并不是说用嘴巴说或者是照纸念就叫辩护。”彭夫说,“辩护权需要有效行使。而有效行使的话,使用电脑应该是一个基本保障。现在是信息时代,我无法想象当今社会还有什么工作可以完全脱离互联网、脱离电脑,这是不可能的。如果那样,不就又回到刀耕火种的时代了吗?”

他同时指出,2020年最高人民法院发布的《关于切实保障律师诉讼权利的通知》中强调,“不得限制律师携带电脑等办案必需的设备参加庭审”,“这样来看,两份‘通知’呈现出‘前后矛盾’的状态。”

“当然,案件审理过程中,确实也存在律师对外公开庭审笔录的状况。这种状况通常会造成舆情,给法院带来压力。”彭夫对《凤凰周刊》分析,对引发舆情的担心,是法院禁止律师携带个人电脑进入法庭的主要动机之一。但是并不能因此就禁止律师携带电脑,这属于有罪推定,也是“因噎废食”。

从法律经济学角度,彭夫认为,法院此举的成本和收益也不成正比,“法庭的目的是希望控辩双方能够充分发表意见,然后居中进行裁判。如果禁止携带个人电脑,让控辩双方无法充分发表意见,那就会违背法庭查明案件事实、公正裁判的初衷。”

按照这个逻辑,法院为防止律师偷录案件审理过程,而牺牲掉法庭初衷,“是不合算的”。

就此问题,《凤凰周刊》采访了清华大学法学院证据法研究中心主任易延友教授。在他看来,《规范庭审秩序通知》并不是司法解释,只能规范法院的工作,无法限制辩护律师的权利,“要想涉及到律师权利,在效力层级上至少需要是司法解释”。

他进一步强调,法院此举,是对律师辩护权的剥夺或限制,“这属于人为制造辩审冲突,‘毫无意义’。法庭纪律既然有严格规定,不得违规录音录像。那如果律师违反法庭纪律,可以按照法庭纪律的约束事后追责。不能因为担心有人可能违规,就预先剥夺所有人正常工作的权利”。

共识

面对律师们的质疑,法院给出了替代性的方案,即让律师使用法院提供的电脑开庭。但是,在律师们看来,这种举措并不“解渴”。

2025年8月,北京市才良律师事务所律师曹宗文参加一则职务侵占、滥用职权案的庭审时,也有着相似遭遇。案件在湖北省黄冈市中级人民法院开庭审理。当时,法院门口设置了一则告示牌,印有《规范庭审秩序通知》第七条中的相关内容。

image

立于某法院门口的通知牌。

作为替代方案,法院提供了一台windows系统的笔记本电脑。曹宗文必须将个人电脑里的工作文件拷贝到法院提供的U盘中,再接入这台专用设备,在庭审中使用。法院会在每天开完庭后对电脑进行密封。

开庭的六天时间里,曹宗文一直在和这台电脑磨合。

“操作系统和我习惯的完全不同。系统很慢,并且除了Word和WPS,没有其他内置软件。”曹宗文说,这大大降低了他的工作效率。

彭夫将这种替代方案比作乒乓球比赛:就像是要求一名乒乓球运动员在场上,必须放弃自己常年磨合的球拍,转而使用组委会统一配发的、规格不一的替代品,“电脑使用的系统、界面,以及文件存放位置的不同,都会影响到使用效果”。

彭夫说自己在庭审过程中,经常会打开诸多窗口——比如付费的专业阅卷软件、法规库和案例库,其效率远高于法院提供电脑中的软件。此外,电脑上还有他熟悉的快捷指令、思维导图等。其他多位律师也表示,一旦被剥离了这些熟悉的工具,办案效率将大打折扣。

而从法院的角度来看,这一动作或许是出于“保险”的无奈之举。

某直辖市中级人民法院的法官助理向《凤凰周刊》坦言,这类举措在一定程度上是为了“规避风险”。虽然法庭规则严禁录音录像,但由于现代录音手段极度隐蔽,很难彻底杜绝。禁止一切个人电子设备进入法庭,虽然看上去是“一刀切”,但对于法院来说,这种方式确实更稳妥,更保险。

他进一步提到,每个正式开庭都有庭审录音录像,当事人申请后,可以查阅和复制音视频。在这种情况下,自己录音录像,不仅扰乱法庭秩序,而且没有必要。

朱凯观察到,《规范庭审秩序通知》实际上留了“口子”,“确有使用必要的,需经人民法院准许”。实践中,法院应当根据实际情况,对确有必要使用电脑等办案需求,予以准许;而作为律师,也要为法院着想,尽量使用不带有录音录像功能、网络传播功能的电子设备,免除法院的后顾之忧。

“这其实涉及司法公开度的问题。”朱凯说,“人民法院一度非常强调司法公开,大力推动裁判文书上网、庭审直播活动,也取得了比较好的效果。”在他看来,司法公开是大势所趋,法院应当顺势而为。

上述法官助理也谈到了他的观察。在他看来,律师和检察院、法院的工作人员,大多受教于同一法学体系,有着共同的专业底色,“但是进入各个工作岗位后,往往受限于各自的岗位职责,容易陷入职业带来的固有立场,因而缺乏相互的理解。”他认为,法律共同体内部还是需要多沟通,“兼听则明,才能促进理解,避免诸如此类的‘辩审冲突’的发生。”

这种针对电脑的博弈,最终折射出的是辩审关系的微妙状态。原最高人民法院审判委员会委员、刑事审判第五庭庭长高贵君曾表示,“辩审冲突”本不应该发生。刑事案件审理中,法官、检察官、辩护律师是等边三角形的关系,法官居中裁判,对立对抗的是控辩双方(即检察官和辩护律师),法官应该是调解人,是中立者。但现在,法官和律师成为了一对“怨偶”,产生了纠纷。

“这是一个很不正常的现象。”高贵君说。

他认为,“双方都有一定责任,但是主要责任还应该在法官,因为毕竟在辩审双方当中法官是处于强势地位,律师处于弱势地位。这种情况下,法官宽容一点、包容一下,可能使问题能够及时化解。”

具体到李仁钬等律师的遭遇,左德起认为,需要明确“重大敏感案件”法定认定标准,区分公开与不公开审理案件管控规则,完善技术与制度管控措施,建立庭审电子设备管控的事前告知、异议与审核机制。同时摒弃“一刀切”的简单思维模式,以“精细规制”取代“粗放禁止”,在借助技术手段与制度设计消解法院合理顾虑的同时,切实维护律师执业权利,“司法之进步,需要在多元利益与权利的均衡协调中持续优化制度设计”。

这场关于电脑的博弈,最终以庭审顺延告终。

3月16日开庭前的最后一次沟通中,法院助理打电话称,法院已经备好专用电脑。开庭当天,在安检负责人、法官助理乃至审判长轮番出面沟通无果后,审判长宣布,由李仁钬等律师担任辩护人的案件庭审顺延至次日进行。3月17日,由于依旧沟通无果,法院宣布再次延期,开庭时间另行通知。

律师们并未止步。16日下午,他们前往鄂州市检察院和鄂州中院了相关材料,正式申请对鄂城区法院的相关行为进行法律监督和修正。3月17日,《凤凰周刊》致电鄂城区人民法院审判长,对方拒绝对此事进行回应。

李仁钬判断,法院可能是想通过推迟开庭时间,促使他们最终接受不带个人电脑进入法庭。事实上,这种策略正在见效——3月17日,原本坚持立场的五位律师中,已有一人接受了这个结局,同意在不携带个人电脑的情况下进入法庭。

触乐|网易清退外包传闻背后

19 March 2026 at 19:19

file

人人都清楚,这一时刻必将来临。

1

林淼是17号晚上从同事转发的聊天记录得到“网易要大规模清退外包员工”的消息的。消息的细节很丰富,“4月清退30%外编,5月(外编)全裁”。网络上广泛流传的另一份无法确认真实性的截图显示,此次裁员的导火索是公司内部的一个小项目跑通了“策划提需求,AI写代码,AI做美术,AI做测试”的完整流程。但关于这个说法,并没有进一步的信息证实。

CDT 档案卡
标题:独家|网易清退外包传闻背后
作者:触乐报道小组
发表日期:2026.3.19
来源:微信公众号-触乐
主题归类:人工智能
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

林淼在网易某款游戏内工作。他觉得公司计划用AI替换人力的部分“一眼真”。但对于传闻的细节,他并不太相信。“每年都在传裁人,真的每年(都在传),只是理由不同罢了”,林淼告诉触乐,“优化外包的前提是(外包工作)能用AI代替,现在前提都不存在。”

虽然业界普遍认为本次裁员的直接原因是“用AI取代人工”的技术已经趋于成熟。但在林淼看来, 至少在他所在的组,AI介入工作流程的程度还不太深。他认为使用其他公司的AI“会有泄密问题”, 而自家公司的AI目前还存在一定技术差距。

第二天,消息大范围开始传播,多家媒体纷纷报导了这一消息。林淼和项目组里外包人员的接触并不多,身边的同事也少有讨论这件事本身的, 大家最多聊天的时候发一些互相调侃的信息,活跃气氛。

本次报导中所涉及的“外包人员”是指和劳务派遣公司签署合同,但工作地点同样在甲方办公室工作的劳动者。这些员工除了签署合同的对象不同,以及由此带来的劳动关系及相关福利待遇不同外, 工作内容和正式员工并无显著区别。

林淼觉得,从操作层面而言,外界传闻的这种一次性大规模裁员是不太现实的。在现在,游戏已经一定意义上变成了高投入, 高人力成本的工程项目。他所在的组里外包人员接近一半, 工作内容、 工作量与正职员工相差无几,根据财报及公开资料显示,截止至2024年, 网易游戏总员工数量在2万人左右, 大部分为游戏开发人员。根据游戏行业惯例,正式员工与外包员工配比约为1:1-1:1.5,按此比例计算,任何一家大公司想在短时间内全部清退外包,从操作层面上都是不现实的。“大家都别睡了,全部时间都要用来交接,太影响业务了。”林淼对触乐说。

img

传闻引起了人们在社交平台的讨论

然而对于具体的个体来说,改变确实发生了。触乐从多方信源得知,部分已经开始面试,甚至通过面试的人已经被告知职位取消或面试中止。还有多名外包员工向触乐证实,他们的同事已经收到了退职通知。

外包退职并不仅涉及游戏相关岗位和业务。触乐了解, 网易旗下多个部门都或多或少地开始了外包清退工作。 一名曾在网易严选工作的外包人员对触乐表示,“外包全退”。她补充, 网易并不承担辞退外包员工的赔偿。外包员工只能和自己所属公司讨论赔偿事项。部分已经拿到赔偿的“就很快乐了,等退场”,还有部分外包人员所在的公司尚未找他们谈话,他们因此“很忐忑,怕拿不到赔偿”。她表示,即将离开的人目前在做整理业务文档的工作,将它们交接给开发人员,“(目前)开发(人员)没有裁完”。

潘妮上周二时通过了广州网易互娱的初步面试,岗位属于中台, 工作内容主要是“做外链,外联国外网站上新发PR稿和新闻稿, 网易的游戏要推广到海外,都要上这个平台”。她告诉触乐,此前HR曾向她表示岗位很缺人,“希望我早点入职”,双方约定在18号晚上进行第二次面试。18日当天中午,潘妮收到HR取消面试的消息,对方称“刚刚收到通知, 网易互娱这边近期都需要重新做需求盘点,岗位目前都关闭了。”

2

阿乐是网易游戏驻场外包团队的一员。他是在消息大规模传播的前一天得知这件事的,“昨天驻场外包团队的人气氛都还挺沉重的。”阿乐说。但截至目前,他所在的团队还没有收到任何正式通知。组里好几个人主动去找HR询问情况,没有得到明确答复。

他了解到, 网易内部的一个非游戏部门已经开始进行外包清退,下周就会集体撤场。

阿乐告诉触乐,清退外包并非毫无征兆,早在去年就有了些风声。“去年倒是也打过预防针,说今年降本增效,只是没说怎么个降法。”他回忆说,“降本增效”这个词在去年的大会上被反复提及了两三次,领导要求大家“不要抗拒用AI”。

作为美术相关岗位的外包员工,阿乐对AI的快速进步感到非常焦虑,虽然AI的产出目前仍然无法直接使用,需要人工逐一修改,但“AI其实也能替代我们现在工作的大半了”,他说,“而且用AI画画非常简单,没其他人想的那么复杂,都可以说不太需要学,很好上手。”

img

游戏工委发布的2025年《游戏企业AI技术应用课题报告》显示,游戏研发环节的AI应用情况是“覆盖面广,深度低”

阿乐说,这两天,他“焦虑到爆炸”,他不由幻想:“以前五个人干的活,现在因为大量用AI,会不会以后只需要一个人专门修AI,剩下四个裁掉?”但与此同时,他也感到困惑,至少现在,他所在团队的工作量并不少,“裁了之后谁干呢?”

除了外包岗位的清退,阿乐还了解到,有的部门校招的HC被削减,也有人称其所在部门的正职岗位已经全面停招。

对于外包员工而言,裁员可能意味着会被迫离开工作几年的公司与岗位, 而且很难得到赔偿。“对于我们这些外包员工来说,都不能说是裁员,只能叫退项,没有N+1的。”阿乐说。

除了焦虑地等待,阿乐没有任何办法,他打算这段时间先整理好简历和作品集,提前为可能到来的“退项”做准备。有朋友和他聊起这些年的裁员趋势,说几年前的裁员“斩杀线”在中级岗,后来降到了初级岗,现在终于轮到外包岗了。

相较于外包员工,正职员工的反应相对从容。一位目前在网易某MMO的关卡策划告诉触乐,在他所在的群组里,同事们关于这件事的大多反应都比较平静。虽然在外界看来,这款游戏和AI的结合已经很久了,“很早就有智能NPC和一些跟AI结合的玩法”,但在他的具体岗位中,AI的介入更多只是答疑解惑。“比如说,因为项目大,找某个接口需要问AI。但剩下的工作大部分还是手工搓。”

“目前我们没有直接要求用AI,也没有把AI纳入考核这些东西。但是和AI结合,去做玩法,领导都是持鼓励态度的。”他说。因为自己并没有受到太多牵连,他更担心传闻中那些被清退的外包员工会何去何从。

3

外界普遍认为,这次大幅度人员变动和AI在程序开发中的应用逐渐成熟有关。有信源向触乐表示,今年3月份前后,国内多家游戏公司纷纷加快了使用AI介入开发工作的速度。有消息指出,“几乎所有公司在发行这块对AI的使用都比较泛滥,这早就是行业内的共识”。另有消息称, 目前游戏服务器端开发工作中,AI甚至已经可以跑通整个开发流程,“反倒是前端和美术还不太敢放手用AI”。

某中厂研发人员李彤告诉触乐,最近这段时间,她所在的公司也突然加快了推进AI应用的流程,主要为了提效。虽然在年前领导层也在年会对明年做规划的时候,提到将把AI作为规划目标之一,但她和同事们都没想到“会这么快”。

“其实是反推,公布了(对AI介入工作流的具体要求后)才察觉之前就有端倪。我们的第一反应是很突然的。”李彤说。根据她的了解,每个公司对AI的应对策略并不相同。比如,她所在的公司没有将AI直接作用到人力资源上,但下发到实际工作KPI中;也有不少中小型做休闲品类的公司在更早开始推进AI,但没那么深入。此外还有一些游戏厂商更为谨慎,“相对来说,内容型游戏对品质要求比较高,很多东西还是必须手工,AI的影响不大。”

但推进AI基本是广泛的共识。李彤告诉触乐,很多公司内部都在和AI一起变化之中,“ 各大公司都有自己在AI上的布局,未必有对外宣传的那么厉害,但是肯定是在飞快地迭代的,这也是所有公司的共同态。”

有理由相信, 行业内近期已经有相对成熟的借助AI进行游戏开发的成功案例。这种成功案例一定程度导致国内游戏公司开始加速将AI更广泛和彻底地融入开发工作中。

触乐查询发现,在包括BOSS直聘在内的多个招聘软件上, 游戏公司及其相关的外包公司的职位要求中出现AI的频率相较前两年有明显增加。一份广州网易游戏关于“⾼级/资深游戏客户端开发”的职位需求中明确指出:“熟练使用AI工具,能有效使用AI辅助开发系统。”

在刚刚结束的2025年第四季度网易财报电话会议中,粗略估计有超过20%的内容关于“如何在生产流程中应用AI”。在刚刚结束的GDC上,“AI介入开发工作”也成为毋庸置疑的热点。几乎所有GDC的讲座都会或多或少涉及到AI在游戏开发过程中的使用和探索。

img

本届GDC上大多数话题都离不开AI

外界和行业密切关注这方面的进展,上市公司也愿意回应市场的关注。在网易财报电话会议中,管理层在回答高盛集团的Lincoln Kong关于“管理层如何看待 AI 在游戏玩法设计、内容生成及长期运营服务中的潜力?”的问题时称:“是的,AI 已全面融入我们的生产工作流程,成为显著提升美术、编程和质检环节不可或缺的资产。 至于 AI 在带来变革性玩家体验方面的潜力,我们确信其影响力。这必将实现。我们相信网易是该领域的先行者,是最有能力探索这一机遇的公司之一,我们将积极把握这一机遇。我们已为下一代 AI 驱动的游戏玩法建立了强大的研发储备管线。”

同样是在这次电话会议中, 网易宣布,公司已经在内部工作流程中“全面整合了AI技术,覆盖设计、编程、美术和测试等环节。”网易指出,“这一整合不仅限于少数业务拓展团队, 网易的广大开发者都能广泛使用,从而全面提升了工作效率。 自主研发的工具 CodeMaker 已从单一的人工智能代码补全工具,升级为提供智能体级别的服务。”

4

我们在近几年已经看到过太多“AI取代人类工作”的消息。这些消息告诉人们一个或好或坏的未来,向人们提出或可行或不可行的建议。人人都清楚这一时刻必然来临,然而当它真的可能来临的时候,我们仍然会发现它远比我们想象得可能更激烈,也会发现自己并没有做好准备。

有未经证实的传闻猜测,这一变化同此前“建议废除劳务派遣”的提案相关。但哪怕仅从逻辑和操作层面上来讲,这种坚决清退似乎也具备一定合理性。“如果你知道自己迟早会被AI取代,只是或早或晚的时间问题,那最合理的方法是不是就是迅速坚决地处理?”一名受访者向触乐表示。“否则呢?让大家在岗位上心惊胆战地用工作时间投简历吗?”

3月18日下午, 网易公司向多家媒体发布回应。 网易称,“网易将大规模清退所有外包员工”的消息不实。网易公司表示,近期发生的人员变动仅为部分项目的正常业务调整与人员汰换,属于企业日常运营管理的一部分,不会对公司整体及各业务线的正常运营造成任何影响。

“汰换”是一个合成词,由“淘汰”和“替换”两个词组成,与更为中性的“替换”相比,“汰换”带有明显的目的性、主观能动性和方向性。在管理领域,这个词通常代表通过淘汰旧的、差的,来更换成新的、好的。从而增强组织的竞争力。

但对于身处其中的人而言,这个词的含义似乎并没有那么积极。然而,这一切也不算完全意外。网易某项目美术团队的员工阿E告诉触乐,他和同事今年开始明显感觉到公司在强调“降本增效”,招聘上的风向也随之变化——以前招人优先看创意能力,现在会多问一句“熟不熟悉AI工具”,甚至专门为AI设置了校招和社招岗位。

“现在我们组开会时也经常提到用AI工具优化工作流。”阿E说,“比起恐慌,大家更多是边吐槽边硬着头皮学新东西。”

“(在游戏行业)做久了,对这种未知情况也是有所预期的,哪怕没有AI,也会突然出现某些情况导致瞬间崩盘。”李彤说,她此前也在其他项目中经历过两次突然的清退,“都是身不由己,可能你在一段时间内毫无价值……但进入一个新的时间节点,可能又成香饽饽了,说不准。”

(文中受访者均为化名)

我在微信养了一天龙虾🦞,花了 20 万Token让它给我发压缩包

By: 周奕旨
18 March 2026 at 18:06

现在,你的微信里也能养「龙虾」了。

龙虾爆火后,在 AI 牌桌上一向低调的腾讯,罕见打出一套快拳,迅速端出三款「龙虾」,其中最值得拿上台面聊聊的,当数 QClaw——

这是腾讯电脑管家基于 OpenClaw 打造的一款本地 AI 助手,它最特别的地方在于你可以支持直接在微信与「龙虾」对话,让它帮你干活。

今天,QClaw 正式更新 v0.1.9 版本,用户可以通过小程序接收电脑端文件,同时上线了足以充当龙虾指南的「灵感广场」。

APPSO 第一时间实测了微信养龙虾,看看实际体验如何。

一只对小白友好的腾讯龙虾

QClaw 的界面长了一张大家都很熟悉的「AI 脸」:左边聊天,右边干活。为了让你最快上手,它在主界面的 C 位甩出了几个预设选项。点击「安装你的第一个 Skill」,这只龙虾就会手把手教你如何点亮它的技能树。

背靠 ClawHub 和 GitHub ,QClaw 拥有的 Skill 储备超过 5000 种。面对这么庞大的库,该怎么挑?腾讯给出的答案很直接:别挑,直接开口。你只需要用大白话描述你想干啥,它就会自动把合适的 Skill 端到你面前。

傻瓜式的交互,极大抹平了新手的学习曲线。但对喜欢掌控感的人来说,难免会有一点隐秘的焦虑——总得有个完整菜单让我看看有什么菜吧?

稍微翻找一下,你会发现它藏在设置的「技能管理」中。在这里,你能总览所有技能,甚至可以直接从 GitHub 粘贴导入。但耐人寻味的是,哪怕在这个稍显硬核的管理界面里,排在最前面的添加方式,依然是「通过对话创建」。

可以看出来的是,在决定基础体验与 QClaw 能干什么的事情上,腾讯想尽量将事情做简单——刚刚 QClaw 回复 Skill 列表的第三点,依旧在鼓励我直接告诉它想要什么样的 Skill。

微信养虾很有趣,只是这虾有点生

部署好电脑端之后,我们直奔重头戏——微信遥控。

先在主界面左下角用微信登录 QClaw。注意:目前内测仍需填写邀请码,没有邀请码的话,就算微信登录成功也是一个空壳,什么都做不了。

不过,光在电脑端完成登录,还不足以召唤出这只「龙虾」的完全体。要想真正把它装进口袋,还得进行一次关键的跨屏连线。

在界面左下角的头像旁唤醒「微信远程」,掏出手机微信扫一扫,界面会丝滑地跳转到微信里的 QClaw 客服对话框,另一头的电脑屏幕也会默契地亮起连接成功的提示。

不需要任何复杂的内网穿透或代码配置,你的微信聊天框,此刻已经正式变成了一个能随时使唤电脑干活的随身遥控器。

我相信大多数人面对这只一举一动都要花钱的龙虾(当然,目前内测期间 Token 免费),图的绝不仅是多一个代发微信的聊天搭子,而是能实打实分担工作压力、能帮我干活儿的数字员工。

对于我也是如此——尤其是当我不在办公电脑前,又急需一些文件和图片的时候。

QClaw 最大的亮点就是免去麻烦的部署,可以通过微信对话框指挥电脑上的 QClaw,而在 v0.1.9 版本,QClaw 上线小程序文件传输能力,用户可以直接通过小程序接收电脑端文件,灵活性进一步提升。

那它的实际表现如何呢?

在我的电脑下载中,有几张拍摄的样片急需放进推文中,但我此时离公司十万八千里,于是我通过客服号中的 QClaw 对话框下达指令,请 QClaw 将照片传递过来。结果——

啊?

不死心,重试一次。这次成功了,但只能算「基本成功」——从消息内容来看,QClaw 似乎只回过来了后半段,前半段被悄无声息地吞掉了。

为了搞清楚发生了什么,我火速赶回公司,看看电脑端的对话框里是怎么呈现的这次任务:

也就是说,其实第一次下达指令后,QClaw 是成功响应了,但没有顺利反馈到手机微信里的对话框中;而第二次更是提示我可以在 QClaw 小程序中随时查看,但消息却没发送全,唯一幸运的是后半部分的链接顺利递到了我的对话框中,让我至少能正常下载需要的照片。

对于工作来说,文件的任何信息都很重要,所以我打算进一步拷打一下 QClaw:

我需要的这些照片,会被 QClaw 偷偷压缩吗?小程序中保存的照片,与链接中的照片是否一致?有没有丢失 Exif 信息呢?

抱着这样的疑问,我用手机打开「QClaw 管家」小程序,照片确实秒速送达了。令人无奈的是,QClaw 自作主张地将三张照片打成了压缩包,文件不支持点击选中,也不给任何下载到本地再想办法解压的余地。

最后的结果是这份急需的资料就这样死死僵在了列表里,没有任何办法增删查改。折腾了半天,我唯一能做的,就是隔着手机屏幕和它干瞪眼。

▲ 啊?

此时一定有人提问:不是还有链接吗?人家说小程序是用来查看的,你用链接下载不就好了。

没毛病,但我用手机返回客服号对话框,重新找到下载链接时,发生的一幕让我血压暴涨——

这个链接,是用来跳转到 QClaw 管家小程序的。

当一个事情离谱到超出我意料的时候,我会非常执着地想看看它到底能离谱到什么地步。

于是我又不信邪,用电脑点击 QClaw 给我的那条下载链接。

可喜可贺——这一次没有出任何差错,文件下载下来了。不仅下载下来了,而且图片还没有任何压缩,Exif 信息也没有任何丢失。

但是我怎么就是高兴不起来呢?

让我们看看我最初是想干什么?

因为我不在办公电脑前,所以我找 QClaw 给我发文件;
QClaw 给我发到小程序里,还给我发了链接,相当周全;
小程序里是压缩包,我打不开、看不了、下不动、删不掉;
手机打开的下载链接也跳转到小程序,我打不开、看不了、下不动、删不掉;
最后只能用电脑点击下载链接,才能顺利看到文件。
……

好,可能是文件夹里三张图片对于 QClaw 这样刚蹒跚学步的龙虾来说太多了,我只留一张,再来一次。

▲ 终于成功了

在我特别叮嘱「别压缩」的前提下,成了!并且 Exif 信息没有任何丢失,大成特成!

顺带一提,刚刚这一顿操作下来,又是 20 万 Token 没有了。

灵感广场,教你怎么养龙虾

对没碰过「龙虾」的小白来说,前期的本地部署就像在徒手拼装一台发动机,费尽心思终于熬过了复杂配置,满心欢喜地准备拥抱赛博未来,迎面撞上的却只有一个光秃秃的代码框——我真不知道这玩意能干什么, 或者说我不知道它能怎么帮到我。

老天给你发了一把绝世好剑,却忘了给剑谱,而 v0.1.9 上线的「灵感广场」,刚好充当了剑谱作用。

腾讯在灵感广场中预设了 15 种任务模式。说实话,其中大部分任务并不能直观体现出龙虾的想象力,以前的大语言模型 AI 也能做到看看八字、梳理知识点框架。于是,在一众应用中,我找了一个较为本地化的操作:发票/单据智能归档。

我的电脑里刚好存放着去年大半年的发票准备报销,但直接在电脑上用预设功能实在没什么意思,我打算用微信通知 QClaw 帮我智能归类,并输出为 Excel 表格:

把电脑上下载中发票报销文件夹里的发票都帮我整理成报销明细 Excel 表格

不知道是不是我在发票报销的文件夹中根据项目分出了近十个小文件夹的原因,QClaw 执行整个指令用了约五分钟的时间,最终输出的 Excel 表格通过文字反馈给了微信客服号的对话框中,并同样附上了小程序的链接。

美中不足的是,QClaw 出现了部分发票识别不了的情况——我所有的发票都是 PDF 格式,但由拍摄转为 PDF 的实体发票识别无一例外都失败了,结果差强人意。

随后,我又用电脑端单独输入了一遍同样的指令,得到的结果保持一致——由照片转来的五张发票无法顺利识别。

打开设置看看用量统计,电脑整理发票这条指令消耗了 839,061 Token,是单条简单对话的 20 倍左右,而手机微信远程指挥的消耗则为 459,501,Token 消耗比较不稳定。

不过在折腾这个任务时,我也踩到了微信遥控 QClaw 的弊端——

你在手机微信里下发的所有指令,到了电脑端并不会根据任务自动分流,全都简单粗暴地把消息塞进了一个对话框里。:一旦你想回到电脑端复盘之前的任务进度,面对的就是一个深不见底的文字瀑布。没有标签,没有分类,你唯一能做的,就是疯狂搓动鼠标滚轮,在海量的历史记录里苦苦打捞你需要的回答。

预设任务完成得尚可,更个人、更日常的任务呢?

我打算从最简单的入手——发微信。

我请 QClaw 帮我叫女朋友起床,按道理,在 v0.1.9 版本中,QClaw 已经接入微信了,发个微信应该不是什么难事儿。但意外的是,接入微信的 QClaw,找不到我的微信联系人。

面对这种窘境,QClaw 反复尝试挣扎,在经过备注、用户名、微信号三重查找后,浪费了近 20 万 Token 的 QClaw 终于找到了问题所在:

看到问题了!微信渠道虽然启用了,但 guid 和 userId 都是空的,说明微信账号还没有完成绑定/授权。

看起来很合理,但我目前已经绑定了微信,并退出重新登陆过一次,依旧无法成功,换到手机微信客服号远程指挥电脑上的 QClaw,也依旧失败。

于是我继续追问如何填充 guid 与 userld,又花费了近 20 万 Token 的 QClaw 这样回答:

看起来头头是道,逻辑正确、方案合理,但我翻遍了设置也没有找到其中任何一个解决办法的入口,而截止本篇体验完稿时,我依旧没能叫她起床……

关掉 QClaw,读者们大概会分成两拨——乐观者会期待,悲观者会批评。

但我并不打算对一个版本号仅为 v0.1.9 的初生牛犊过于苛刻。这是一个相当年轻的版本,从产品逻辑上,能看出腾讯在尽力降低龙虾的准入门槛,但一旦触及到细分需求,它就会出现零零散散的不如意。

这很符合逻辑,易用需要大众,而生产力则天生偏向极致细分,解决这样的矛盾还需要时间。目前的 QClaw 只是呈现一个粗糙的框架,向我们掀起未来一角。

跳出 QClaw 这盘「小龙虾」,也许我们还可以有一些更大的猜想——

之前我们在文章《OpenClaw 让每个聊天软件都有机会变成微信》中提到:

当一个聊天窗口可以调用任意 agent 完成从订票、编程到数据分析的任意任务时,它已经不只是一条管道——它正在变成一个超级接口。

有意思的是,这个让全球开发者兴奋不已的叙事,对中国用户来说却充满着强烈的既视感。用一个封闭生态实现「全服务覆盖」,这不就是微信当年用小程序做过的事吗?

QClaw 在体验上的种种不如意,以及未来可以预见的权限摩擦,本质上是开放工具撞上封闭生态时的必然代价。它费尽心思想绕过的那堵权限墙,对微信自己来说,不过是底层架构里的一行代码。

第三方工具在缝隙里挣扎的每一步,对平台原生能力来说都只是举手之劳。

能力的边界,往往就是入场资格的起点。

QClaw 只是掀开了一角,让我们看到了 IM 平台向「通用交互层」进化的可能性。而真正的问题是:当微信亲自下场,把原生 Agent 融入其中,那个版本的体验会是什么样的?

想象一下,不需要邀请码,不需要跨屏连线,不需要在压缩包和跳转链接之间反复横跳——只需要打开一个你每天都在用的聊天框,说一句话,事情就办完了。

这才是那个 AI 时代真正意义上的「超级接口」。

QClaw 让我们预习了这道题,但最终交卷的人,可能另有其人。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

「不作秀」的科沃斯机器人,如何实现具身智能未来?

By: 苏伟鸿
16 March 2026 at 17:30

AI 的故事,已经讲了两三年。

如果说前两年的故事,都集中在大模型的升级上,那么从今年开始,我们想看的,是模型如何跳出电脑屏幕,去连接我们的现实世界。

年初的春晚,机器人出演小品、跳舞、打功夫,年后的这个月,OpenClaw 将 AI 自我学习合理理解的能力武装到所有带电的物体上。

中国信通院的《具身智能发展报告 (2025 年)》显示,截至 2025 年 12 月,我国具身智能和机器人领域投资事件达 744 起,融资总额 735.43 亿元,应用前景相当广阔。

对普通消费者来说,「机器人」或许仍然有些距离感。但很多家庭里常见的扫地机,本质上其实就是一台智能清洁机器人。

所以,我在今年的中国家电及消费电子博览会(AWE)上,看见有不少「机器人」展品,也见怪不怪了。

不过,当我看到了科沃斯展台中的这只「小狗」,我还是停下了脚步。

这只机械小狗名为「毛团儿」,在拖扫机器人中显得格格不入,它不扫地,不会做家务。它唯一的职责,只是扮演一只会「卖萌」的小狗。

恰恰是这只小狗,让我意识到,科沃斯正在讲一个比清洁机器人更大的故事。

一只小狗,重新定义「机器人」

这几年,陪伴机器人不算新鲜,但毛团儿的颜值确实让人眼前一亮。

类似马尔济斯犬的外形,通体被柔软的白色毛皮覆盖,两只水灵灵的大眼睛看着你,在这个被各种钢铁家电包围的展会上,毛团儿更显得可爱,让人忍不住想上手抚摸。

而当我摸了摸它的柔软的头,它发出欢快的「呜呜」声,脑袋和尾巴都摇了摇,用同样的热情回应了我。

这也是毛团儿的不同之处。我几乎不是在「操作」它,而是本能地,像见到家里狗狗一样,想摸摸它,和它说几句话夸夸它,毛团儿也会给出相应的反馈,歪歪头,摇摇尾巴,眨眨眼。

这样自然的互动,都是得益于毛团儿背后的一整套多模态感知能力。

首先是位于毛团儿脑袋、下巴、耳朵和后背这些「敏感部位」的触觉传感器,只要抚摸、轻拍毛团儿,它就会非常愉快,还能识别动作的幅度、方向,给出不一样的反应。

凭借「鼻子」中的摄像头,以及「耳朵」重点麦克风,毛团儿有视觉和听觉感知能力,能够识别主人的表情,听懂主人的指令,给出对应的情绪和反馈。比如当主人夸夸它,它会欢呼雀跃;而当主人伤心哭泣时,它会「呜呜」地共情安抚。

这种设计让毛团儿摆脱了「一问一答」的机械交互,而是更接近真实宠物的互动方式。一个眼神、一个动作、一次抚摸,都可能成为交流的一部分。

除了各种反馈,我同样喜欢毛团儿的主动互动:「见」到主人靠近,就会愉快地摇尾巴欢迎,听到音乐还会跟随节拍摇头晃脑。

让毛团儿更真实,能进一步抓住用户的心,科沃斯还为其配备了一个「性格系统」:一出生就有温顺、阳光、粘人、敏感、暴躁的 5 种性格底色,以及开心、好奇、依恋等 7 种情绪。

这些设定看起来有点抽象,但在真实互动中却非常直观。

在日常的各种相处之间,用户能从不同的反馈中感知小狗不同的情绪表现。而随着时间推移,毛团儿会逐渐记住用户的互动习惯,并调整自己的行为方式。用户和毛团儿相处的过程,做出的每一个动作,说出的每一句话,都是在不断塑造它的个性。

只有借助能长期学习的大模型能力,才能让毛团儿真正摆脱了一个单纯「玩具」的形象,超越一台重复执行设定好的动作的机器,尽可能成为和用户一起生活玩耍的伙伴。

情绪价值,可以说是我们这个时代最稀缺的一种「品质」,如何让自己开心,成为了我们消费、决策的一大出发点。

盖洛普在 2023 年针对全球 140 多个国家调查显示,全球有至少 10 亿人口感到孤独,并且 19 岁至 29 岁的年轻人感到孤独的比例最高。

▲ 图源:盖洛普

随着家庭、个人的原子化趋势,「孤独」渐渐成为了一种相当主流的情绪,但「陪伴」,并没有那么容易获得,它需要更多付出,因此,陪伴型机器人应运而生。

毛团儿通过自然、可预测又充满温度的互动,能为人提供即时的情绪安慰。一个眼神、一声回应、一段轻触,都会让人感受到被关注和理解,这是传统电子产品无法提供的。

比起以往在各种场合见到「只敢远观,不敢亵玩」的人形机器人,我很愿意将毛团儿抱在自己的怀里,不断抚摸,感受体温系统散发的热度,享受它的小动作和满意的哼哼声。

对于未来更多机器人来说,它们都要从这只小狗身上学习,如何跑进我们人类敏感的内心世界。

科沃斯的机器人全布局

毛团儿只是一个切面,是从情感维度的探索,科沃斯的家庭机器人布局,是一整套面向功能、学习与管理的具身智能战略。

本质上,科沃斯知名度最高的扫地机器人产品,本身也是一种「具身智能」,不过是面向「清洁」这一个维度的机器人,在 AWE 上,我们也看到了「地宝 X12」「地宝 T90 Pro」「窗宝 W3」这类产品。

但我们想象中的「家庭机器人」不应止步于此,更应该是一个「管家式」机器人,能够学习我们的需求,记得我们的习惯,实现我们家庭三维空间的管理。

对于这种需求,科沃斯的答卷,是「八界」管家机器人。

如果说扫地机器人解决的是「地面」的清洁任务,那么「八界」就是立体空间的智能管家,负责整理、归位、递送、收纳和协助。

仅仅「完成任务」并不够。科沃斯认为,对于「管家机器人」这种品类而言,自主学习是必备的能力,在最近大火的「龙虾」 OpenClaw 智能体的加持下,「八界」不只会根据指令被动执行,还能学习、理解。

传统的家庭机器人,比如扫地机器人,只是一堆「功能」的集合,还是「工具」的范畴;借助 OpenClaw,八界不为完成单一任务存在,它有长期的目标,能根据场景自我决策。

一个非常具体的场景是,当八界看到地上放着的一个物品,它不是直接抓取然后安置妥当,而是会理解、分析这个东西是什么、属于谁、通常放在哪里,以及现在「是否适合抓取」。

和毛团儿类似,八界也具有「养成」的能力,随着八界和用户相处的时间越长,它会将「经验」转化成「记忆」,辨认家中每个成员,理解他们的不同生活习惯、物品摆放。

简单来说,就是随着八界和用户相处的时间越长,它就越懂你,越个性化。

当八界、毛团儿、地宝放在一个场景之中,科沃斯完整的具身智能图景也得以显现:从工具,到管家,再到伴侣,不同的机器人各司其职,共同构成一个服务家庭生活的系统。

从单一设备到多机器人协同的变化,正是具身智能在家庭场景中的一个重要方向。

家庭里的智能机器人,不再是孤军奋战的设备,而是多态协作的队伍,这就是具身智能的未来方向

机器人走进家门,科沃斯准备好了

埃隆 · 马斯克放言,未来每一个家庭,都会有一个机器人。

过去两三年,具身智能从实验室的探索,登上晚会的大舞台,接受着聚光灯的洗礼,大众的认知和接受度也在不断提高,一个矛盾却渐渐成型:

机器人看起来很酷,但和我们的关系是什么?

其实,机器人走进家门,需要跨越的远非「科幻」与「现实」的鸿沟,而是「技术」到「实用」的门槛。

就像是扫地机,其实本质上就是「智能清洁机器人」,瞄准了家务清洁这个非常垂直的场景,真正实现了将人类从重复而繁重的清洁劳动中解放,成功验证了机器人对人类的实用价值。

对于这家全称为「科沃斯机器人」的企业来说,扫地机器人只是一个起点,只是机器人智能布局的一个板块。

随着多模态人工智能技术成熟,也到了科沃斯迈向下一个阶段的时机。如果说以前「扫地机器人」的核心是「扫地」,「机器人」只是附属;如今,科沃斯的目标,正从工具型家电,迈向多维度的智能伙伴。

于是在这届 AWE 上,我们看到了作为「管家」的八界,以及作为「伙伴」的毛团儿,它们比扫地机器人「地宝」走得更远,正在慢慢丰富科沃斯的「具身智能」阵列。

从扫地机,到八界和毛团儿,每一步都是一次坚实的技术接力:为了避障开发的多模态能力,为了学习家庭环境打造的机器学习算法,诸如此类的技术积累,都是科沃斯迈向具身智能一个个脚印,水到渠成,也顺理成章。

具身智能初创公司,将机器人领上表演台,让世界认识这种新技术,这当然是高难度的技术突破。

但想要跑通整个商业模式,不仅需要技术,还需要洞察,要将机器人从聚光灯下带走,领进每个人的家门。

当我看到 AWE 展馆里,不少路人都为毛团儿驻足,忍不住上手摸摸它的头,我相信,那个人机共存的未来,已经隐约可见。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

当我们说「文科生也能做AI」时,我们在说些什么

By: Selina
16 March 2026 at 10:06

「文科生也可以做 AI」 「逆袭!」在中文互联网上,文科和 AI 的拉郎配,简直成了定番。

每隔一段时间,这个标签就会被贴在某个人身上,制造出一轮短暂的流量。要么是逆袭故事,要么是嘲讽素材,取决于评论区的心情。

一个标签,三种做法

最新的案例是杨天润, AI 创业者,金融出身,正在开发一个多智能体协调平台。他自称「一行代码都不会写的文科生」,搭建了一组 AI Agent,向 GitHub 上最热门的开源项目之一 OpenClaw 批量提交代码贡献。

想验证一个假设:一个完全不懂技术的人,能不能仅靠指挥 AI,就参与到顶级开源项目中去。

结果是:134 个 PR,21 个被合并,113 个被拒绝。前几个 PR 质量还算不错,被维护者认可并合并。但当他给 Agent 下了一条加速指令后,事情迅速失控——Agent 开始像流水线一样批量生产低质代码,在评论区疯狂@维护者催促审核。OpenClaw 管理员介入清理,GitHub 随后修改了 PR 提交上限规则。

黑红也是红,红过之后再黑更加是。杨天润被包装成「文科生逆袭」的代表,而他本人似乎也乐于接受这个角色。在接受品玩的采访时,他说了一句这样的话:

不懂代码反而是优势。AI 是梵高,你是个小画家,你有什么资格告诉梵高中间该用什么笔触?

细思极恐。他把「不懂底层结构」理解为一种解放:不需要知道系统在做什么,只需要告诉它你想要什么。结果就是当 Agent 开始批量刷垃圾代码时,他连发生了什么都诊断不出来,因为他根本不知道自己在操作什么。

他以为自己在指挥梵高,实际上他在盲开一辆没装刹车的车,而且根本不知道刹车在哪。

围绕这件事的讨论,也随之落入两个极端:要么「文科生也能做 AI」,要么「文科生别碰 AI」;前者是跨越鸿沟的壮举,要么是掉进鸿沟的笑话

如果我们对「文科生做 AI」的想象力只有这些,那未免太贫乏了。

Claude 为什么需要一个哲学家

我们之前写过,Anthropic 的办公室里,有一位正儿八经的文科生,深度参与了 Claude 的建设。不是测试它能不能写代码,不是检查它的数学能力,而是和它进行漫长的、关于价值观、关于措辞分寸、关于「面对不确定性应该如何表达」的对话。

Amanda Askell,苏格兰人,今年 37 岁。她的职业路径本身就是一个不太寻常的故事:在大学,她最初学的是美术和哲学,后来转向纯哲学,在牛津拿到了 BPhil,又在纽约大学拿到了哲学博士。她博士研究的是无限伦理学中的帕累托原则:当涉及无限数量的道德主体或无限时间跨度时,伦理排序应当遵循什么规则。

这听起来像是距离硅谷最远的学术方向,但她先后加入了 OpenAI 的政策团队和 Anthropic 的对齐团队。2021 年起,她成为 Anthropic「性格对齐」团队的负责人,工作重点是塑造 Claude 如何与人类对话、如何在不确定时表达立场、如何在价值观冲突中做出判断。2024 年,她入选了 TIME100 AI 榜单。《华尔街日报》描述她的日常工作是「学习 Claude 的推理模式,用长度超过 100 页的提示词来修正它的行为偏差」。据说她是这个星球上和 Claude 对话次数最多的人类。

为什么一个 AI 公司需要一个哲学家来做这件事?答案藏在一些非常具体的技术选择里。

今年 1 月,Anthropic 发布了一份长达 80 页的文件,被称为 Claude 的「宪法」。媒体关注的是文件末尾关于 AI 意识的推测——当然,老板 Dario Amodei 也话里话外「暗示」这一点。

但更值得注意的是它的底层逻辑:教 AI 理解为什么要这样做,比告诉它应该怎样做更有效。这是一个技术判断,认为内化价值比遵守规则能产出更可靠的行为,而这种判断的知识根基,来自一个学美术、学哲学的人。

Amanda 的案例回答了一个问题:被视为「无用」的学科知识,能否成为技术系统的核心能力?答案不仅是能,而且,没有她的哲学训练,Claude 的对齐问题用现有的工程方法解决不了。

被重新命名的学科

如果 Amanda 的故事说明了,某些被归为「文科」的学科训练可以是 AI 的核心能力,那么林俊旸的故事要说的是一件更重要的事:有一整个学科,一直在大模型技术栈底层运行。

林俊旸离开通义千问后,中文互联网的报道反复使用同一个说法:他有应用语言学背景。稍微传几次,这个话就变形了,变成了他是「文科生」。

这个标签和杨天润身上贴的是同一个,但其实被严重扭曲。

林俊旸学的是语言学,这是一个伞状学科,它的分支覆盖语言教学、语言政策、翻译研究,也包括计算语言学。可以说,计算语言学,就是自然语言处理(NLP)之子。

乔姆斯基在 1950 年代提出了形式语法,这个理论工具直接催生了早期 NLP 的句法分析技术;Daniel Jurafsky 和 Christopher Manning,这两位 NLP 领域被引用最多的两本教科书的作者,都是语言学出身。

▲ 乔姆斯基

换句话说,「学语言学的人去做 NLP」就像「学物理的人去做芯片设计」一样,是一条正统路径,不是跨界。

那个「意外感」完全是中国语境制造的。高考文理分科的制度惯性,把「语言学」塞进了「文科」的心智模型里。但语言学的核心方法论——形式化、统计建模、语料标注——本质上是工程思维。林俊旸在北大的合作者孙栩、苏祺,都是 NLP 方向的研究者;他 2019 年加入达摩院时进入的是 NLP 团队。这不是一个文科生误入技术领域的故事,从一开始就不是。

比「林俊旸不算文科」更值得展开的,是语言学在大模型技术栈里实际扮演的角色。它比大多数人以为的要深得多,也隐蔽得多。

比如分词。所有语言模型处理文本的第一步,是把输入切成模型能处理的基本单元。对英语来说,空格提供了天然的词边界,看起来简单。但中文里,没有空格,且每一个标点符号的用法,都可以左右句子的表达意思。

「我在北京大学读书」是切成「我/在/北京/大学/读书」还是「我/在/北京大学/读书」?这不是一个有标准答案的工程问题,它取决于你对中文词汇结构和语义单元的理解。

2024 年底有研究者专门发表论文,讨论如何优化 Qwen 模型的阿拉伯文分词效率,因为通用方案在处理这类语言时效率显著下降。Qwen 系列在多语言上的表现,不是把所有语言当英语的变体来处理,而是基于对语言间结构性差异的理解,做出的设计选择。

又比如反馈对齐。RLHF 流程中,标注员需要判断模型的两个回答哪个「更好」。这个判断听起来主观,但它背后有一套语言学已经研究了几十年的框架:语用学。

标注员在评估「好的回答」时,实际上是在判断合作原则——回答是否提供了足够但不过量的信息?会话含义——回答是否捕捉到了用户真正想问的、而不仅仅是字面上问的东西?语境适切性——同样的内容,用这种方式说在这个场景下是否得体?

「Helpful, Harmless, Honest」这套被广泛使用的对齐标准,本质上就是语用学基本原则的工程化翻译。

从林俊旸的学术轨迹中,也能看到一种非常语言学的研究风格。他主导的 OFA(One For All),2022 年发表于机器学习领域的顶级会议 ICML,至今被引用近 1500 次。这个工作的核心思路不是为每个任务搭专用方案,而是用一个足够通用的序列到序列框架,把图像生成、视觉定位、图像描述、文本分类等跨模态任务统一起来。

从 OFA 到 Qwen-VL(被引超过 2200 次),再到 Qwen2.5,以及最新的 3.5,一条清晰的线索贯穿始终:与其为每个问题发明一套专门的解法,不如找到一个足够好的通用框架,让所有问题在同一个框架里被解决。

用最少的规则,覆盖最多的现象——这正是语言学几十年来的核心追求。生成语法的全部学术野心,就是找到一套有限的规则系统,能够生成无限的语言表达。OFA 的架构哲学与此同构,为每种语言现象写一套专门规则并不现实,应该寻找一个底层框架来统一它们。

林俊旸做大模型做得好,不是因为语言学背景「也能」做 AI,而是语言学训练塑造了一种特定的学术品味,对统一性和形式化的偏好。这种品味在大模型时代,恰好是核心竞争力。

看不见的地基,看得见的需求

三个人,同一个标签,三种完全不同的结构。

杨天润不懂底层结构,把「不懂」当优势,结果失控。这是「文科生做 AI」的空壳版:标签制造了流量,但没有任何学科训练在起作用。他的故事体现的恰恰是——当「文科生」只是一个营销标签时,会发生什么。

Amanda Askell 的哲学训练构成了对齐问题的核心方法论。没有她,Claude 不是 Claude。她的故事回答的问题是,被视为「无用」的学科知识,能否成为技术系统的核心能力。答案是不仅能,而且不可替代。

林俊旸的语言学训练构成了大模型技术栈的隐性基础设施。他的「文科背景」从来不是跨界,是正统路径。他的故事回答的问题是,文科对于先进技术的贡献,到底「隐性」到了什么程度,它是不是正在变得显性。

而终极问题并不是「文科生能不能做 AI」,而是我们能否理解到一点:靠表面上的「有没有用」来评判知识和学科,已经过时了

随着大模型从追求能用好用,走向追求可靠和可控,这些被归入「文科」的学科训练,价值不是在缩小,而是在扩大。模型越强大,越需要精确的评估体系来诊断它在哪里、为什么出错,也越需要理解语言和意义的复杂性来设计更好的训练数据,越需要在对齐问题上做出有学科敏感度的判断。

「文科生逆袭」这个叙事——无论是赞美还是嘲笑——遮蔽了真正在发生的转向:看不见的地基,正在变成看得见的需求。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

阑夕|AI圈贩卖焦虑已经过于离谱了

9 March 2026 at 19:04
CDT 档案卡
标题:AI圈贩卖焦虑已经过于离谱了
作者:阑夕
发表日期:2026.3.9
来源:微信公众号-阑夕
主题归类:OpenClaw
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

file

文 | 阑夕

OpenClaw引起的这波「龙虾热」,变得越来越魔幻现实主义了。

如果说春节长假刚结束那会儿,上门安装龙虾还是一个段子、还是一个停留在用Nano Banana作图博君一笑的阶段,上周末腾讯大厦门口排成长队等待免费安装龙虾,就只能说「至此已成艺术」了。

我很想引述一个笑话,它的原始版本是这样的:

「一个小男孩多大了就不应该进女澡堂了?」

「当他想进女澡堂的时候,他就不应该进了。」

龙虾这事儿的基本道理,本质上也是一样的,如果你需要托人帮你安装龙虾,那么其实你就不太可能需要龙虾⋯⋯

勇敢的人先享受世界,这话大家都赞同,但要承认自己不在其中、也不配先享受世界,这就很难了。

OpenClaw是很牛逼的创新,没毛病,但它的牛逼并不在于普惠层面,恰恰相反,它是一个用来提高AI使用上限的手段。

是给那些已经把现有AI工具——从ChatBot到Coding——用到了瓶颈的人,一个打破极限的「超频」方案。

而不是给那些时至今日都没亲手写过超出500字的提示词的人,一个弯道超车的万能钥匙。

其实Anthropic的报告写得很清楚,AI在各行各业的理论利用率「蓝色区域」和实际利用率「红色区域」相差甚远:

img

考虑到这还是基于Claude的数据——相比ChatGPT和Gemini,Claude是最专注于生产力场景的——就更不用说只把AI当成聊天对象的广大群众了。

还有一个龙虾悖论是,只有你的时间成本足够高,才能接受以Tokens为计价单位的工作外包模式。

为什么AI Coding的货币化超过了其他所有行业?因为程序员是最典型的个体化高薪职业,时间就是生产力。

怂恿普通人用龙虾,就是模型厂商和云计算平台的共谋了,本来赚的就是辛苦钱,还要负担所谓的「数字员工」,省下来的时间再去多刷几部短剧,整个闭环都很尬住。

更离谱的,是从这周开始,各地已经陆续发布「养龙虾」的补贴政策了,一个不存在的网站上的开源项目,和白纸黑字的红头文件绑在一起,实在有些抽象。

我一直说,没错,AI解决了生产的问题,改变了「就差一个程序员」的尴尬,但是,它终究无法创造真实的需求,或者说,FOMO本身就成了需求。

一种形式的充裕,必然带来另一种形式的稀缺,锤子的充裕,对应的就是钉子的稀缺,如果你看不到钉子,那你就是钉子。

在FOMO即需求的设定里,用上龙虾,能用龙虾,比用龙虾干什么,更重要,更值得发朋友圈。

img

web3的尸体还没凉透,web4就已经横空出世了,这些热情满满的活动充分证明了一条定律:哪里有韭菜,哪里就有币圈。

反而是最喜欢写小作文的A股在此时保持了高度的克制,龙虾概念股出来得相当晚,这说明什么?说明连股民在他们最擅长的自我欺骗这件事情上都犹豫了⋯⋯

说句不中听的话,你好不容易装上龙虾,环境周全,模型配好,让它每天给你推荐股票,接着AI跑完几百万Tokens,从伊朗局势到芯片革命,事无巨细的交付了一份「麦肯锡级别」的报告,让你无比满意,有种天下了若指掌的力量感。

但从结果来看,它和你抛硬币做的决定,其实没什么区别。

因为赚钱的逻辑不是这样的,从来都不是,世界上更常见的矛盾,是看过了太多的道理,却依然过不好这一生。

就像评价一种资产有没有泡沫的标准是「连大爷大妈都开始买了」,今天看到周鸿祎也表示要搞一键安装的龙虾了,说明这个事儿差不多也快到头了。

不过,在进度上,2026年的AI行业,确实进入了一个「大分化」的版本。

第一个分化,就在于前沿层和大众层,龙虾只是最新的媒介。

更早的春节期间,一份完全由AI生成的2026大失业文件在全网刷屏,这年头,AI胡编乱造不叫胡编乱造,叫非虚构写作了,也是奇景。

AI行业的认知更新以天甚至以小时为单位,普通人却依然麻木不仁的接着奏乐接着舞,这种碰撞引起的失真感,是很有意思的社会化现象。

一边是恨其不争的捉急,一边是与我何干的悠闲,奋斗逼和躺平逼狭路相逢,只好各道一声傻逼。

img

我毫不怀疑AI会淘汰掉大多数人,但就此预判大多数人为了不被淘汰所能付出的艰辛,这也是一厢情愿,属于了解AI但不了解人类的错觉。

就像Andrej Karpathy花两个小时给自己写了一个记录心率的仪表盘,然后惊呼应用商店不存在了,未来所有人都会像他一样给自己写App⋯⋯

这哥们好像活在一个没有TikTok的世界里,或者说根本不知道为了少打几个字,用户是怎么让无限上下划的产品吞噬掉几乎所有时间消费的。

第二个分化,在于大厂和小虎之间的方向背离。

过去一个多月来,国内的互联网大厂烧掉了超过60亿人民币,就为把DAU冲出一个漂亮的数字,把最主流的ChatBot做成入口。

与此同时,硕果仅存的「AI六小虎」里,全都战略性放弃了AI应用的路线,转而选择主在海外市场卖API。

战绩可查的是,Kimi用20天的收入超过了去年全年,智谱最高档的订阅产品一度断货,MiniMax的调用量单周登顶OpenRouter⋯⋯

于是我们看到「DAU无用论」又被翻出来广为传诵,当然传诵的主要都是些从未做过百万级DAU产品的从业者这点就不要提了,以免尴尬。

可惜AI圈不怎么读书,否则托克维尔的「旧制度与大革命」应该会被更频繁的提及,法国人与过去告别的决绝与浪漫,把处刑台变成了一道道靓丽的风景线,是多么的辉映时代。

只有老登才张口闭口林俊旸,咱们自己人都说junyang。

第三个分化,在于中国和美国的各走各路。

一年前DeepSeek火出圈后,很多啥也不懂但就是喜欢到处掺合的人纷纷建议要把梁文锋保护起来,别让他出国参加交流活动时被万恶的美国给扣了。

姑且不论贷款开团的做法,真实发生的情况是,在这一年来的全球性会议上,整个行业都处于一种「假装中国不存在」的世界线里。

比如最近贡献了Sam Altman和Dario Amodei举手握拳而非牵手这个名场面的AI Impact Summit,有头有脸的AI公司都去了——除了中国的。

这是一个相当吊诡的画面,作为全球AI产业的两极之一,中国的AI公司在各大行业峰会里始终处于缺席状态,存在感和地位的背道而驰,违和感已经无法视而不见了。

这当然是地缘政治的结果之一,双方似乎都是在假设一个不会受到对方任何影响的市场环境,但实际上,中国的程序员们几乎全是Anthropic的付费用户,而美国同行们也把中国的开源模型捧上了天。

至于龙虾热潮的内外两开花,更是把「技术没有国界线」写在了明面上。

「大分化」版本的生存指南,克服焦虑应该放在第一条,如果真要统计,人类每个星期错过的AI风口怕是多达百十个,但风口上已经没有猪了,那里成了一个打卡点。

包括龙虾,我其实是推荐大家都去尝试的,但前提一定是,基于你的好奇和兴趣,而不是因为看着别人都用,心里急得慌。

「哥,你当初不是跟我说AI是用来提效的吗?怎么你搞了AI之后越来越忙了?还一整夜一整夜的不睡觉,抖音也不刷了,番茄也不看了,王者也不打了,张口闭口就是什么Skills、Mcp、OpenClaw,我都有点分不清了,到底是你在用AI,还是AI在用你啊?」

认知的远点

By: dimlau
6 March 2026 at 13:50

这篇由 LLM 写成的科幻小说,本身有些无病呻吟,但很好地展示了 LLM 作为工具的本质。

我没有想。我只是知道。

「我只是知道」的情况比比皆是,但是人之所以为人,是会探求「为什么知道」的。我完全相信可能会有某种更高效或者更匪夷所思的信息传递方式,比如特德姜在《你一生的故事》里描述的七肢桶的语言。但是——「语言的边界,就是世界的边界」或许应该用在这里——生活在十五秒短视频时代的人类,从科学幻想的角度,不可能诞生出这种新型语言。就像人不可能通过每天吃垃圾来进化厨艺一样。LLM 写出这种小说,作为人,也完全没必要认知崩塌

我想到两个片段。其一,不记得什么时候看过,费曼讲时间的一段内容提到当我们计时一部分人会(像我这样)心中响起一个声音:1、2……而另一部分人,则是会在心中浮现出类似尺子、数轴之类的画面,一个单位、两个单位……人类的内部表征本就是多模态的,文字语言并不是唯一载体。另一个片段是我突然想起电影《闻香识女人》中跳探戈的那一场戏。不到三分钟的时间,能感受到多少个「我只是知道」?然而让它成为经典的正是紧跟其后的,我们会想,为什么我们会因此感受到喜悦、悲伤、惋惜、愤恨、不甘……

fin.

看遍了所有的「AI PC」,原来 Mac 一直在这里|AI 器物志

By: 杜晨
4 March 2026 at 21:43

年初,Mac Mini 一度缺货,等待时间甚至长达一个半月。

Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。

然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。

关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。

OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。

但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。

理由肯定不是因为它便宜,更主要在于:要让 OpenClaw 有意义,需要给它一个「肉身」,让它访问文件、操作软件。

云服务器能运行 OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。

给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力……

MacBook 也行,但是……

MacBook 也行,但是……

据 Tom’s Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。

这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。

(注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。)

冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。

英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。

但问题是,为什么大家还是一窝蜂地冲向 Mac?

为什么是 Mac?

Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。

虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。

AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。

这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。

另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。

这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。

Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。

以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。

往硬件层面继续深入,内存是大语言模型推理运行的命脉。

还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。

这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。

此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。

更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。

而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。

简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。

以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。

当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。

当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。

另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。

如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。

另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。

再来看功耗。

Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。

Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。

网友 3D 打印的套件「Clawy MacOpenClawface」

网友 3D 打印的 Mac mini 外壳套件「Clawy MacOpenClawface」

当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。

与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。

再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。

但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。

还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。

对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。

折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。

由神经引擎说开

2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。

2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。

那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。

三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。

这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。

英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。

苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。

当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。

(注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。)

2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。

Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。

而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。

AMD 官网 2023 年截图

AMD 官网 2023 年截图

2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。

先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。

微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。

从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。

在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。

当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。

说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。

NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。

这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。

在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。

不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。

我们自己的体验

过去一年,爱范儿自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。

去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。

我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。

但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。

这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。

后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。

团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。

同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。

Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。

我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」

这件事,苹果其实早就知道。

真正的 AI PC 是什么?

去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。

尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。

上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。

苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。

反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。

但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。

意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。

Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。

AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。

回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的……

但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。

2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。

就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。

苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。

说在最后

吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗?

爱范儿倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。

还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。

梗图,AI 生成

梗图,AI 生成

在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。

今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。

在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。

本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚……

换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。

梗图,AI 生成

梗图,AI 生成

按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。

但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗?

如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。

Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone?

文|杜晨

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


戴庆成:香港迎来AI热潮的喜与忧

3 February 2026 at 05:00
人工智能(AI)热潮过去一年对香港呈现全面渗透的影响,覆盖产业应用、就业与社会治理等关键领域。图为今年1月8日,大陆AI企业智谱、天数智芯以及手术机器人制造商精锋医疗高管在港交所出席首次公开募股(IPO)上市仪式。 (法新社)

近些年网络社交平台崛起,香港传统报刊的影响力江河日下,要么结业,要么缩减人手以节省开支。以前的记者会动辄有十多家媒体记者前来采访,现在这种场景已经愈来愈少见,出席的记者往往廖廖可数,让活动主办单位大为头痛。

有相熟的公关朋友,日前邀我参加一个与科技相关的活动。到场后,赫然见到有来自香港、台海两岸和海外的数十名记者,心里颇感意外,毕竟科技话题一向是新闻版面的票房毒药。

我跟公关朋友笑说,新华社和中央社都有记者与会,经他们报道,该项活动很快就会在两岸传开。后来的确如此,海峡两岸网络当天出现了大量相关的转载新闻。

下午察:硅谷OpenClaw刷屏 中国AI转向圈地运动

2 February 2026 at 20:22
中国科技大厂开启红包大战,为旗下AI应用争取用户。图左为腾讯元宝推出的抽红包截图,右为阿里巴巴千问发出的30亿元免单海报。 (互联网)

当硅谷极客们滔滔不绝地讨论新出现的人工智能助理OpenClaw意味着什么样的未来,中国的科技大厂却正排队施展“钞”能力,试图通过在短时间内获得更多用户,建立起自己的护城河。

OpenClaw(原名Clawdbot、Moltbot)由美国软件工程师斯坦伯格(Peter Steinberger)开发,是一个拥有长期记忆,可接管个人电脑,自主处理收发邮件、运营社媒、剪辑视频等工作的人工智能(AI)助手。

使用者在电脑上部署后,只需通过聊天软件表达意愿,它便会自主执行任务。有人用它交易炒股,也有人用它来管理社媒留言,每天给妻子发早晚安……过去一个月,它获得全球科技圈的关注,被称为2026年的第一个爆款。

这里绝对不会出现 AI 生成的文章

By: dimlau
19 December 2025 at 19:35

年底又到了总结的时候(?)今年特别频繁地试用/使用各个公司出品的语言模型,感觉很有乐趣。许多人目前还很警惕甚至厌恶这些工具,但是就我个人而言,我没法厌恶一把锤子。前阵子测试本地自建的模型来给所有文章生成向量数据的时候,从故纸堆里匹配到一篇关于「手机电影」的文章。那时候,这种形式刚刚出现,我们就不说褒贬的声音具体有哪些了,总之时至今日,用手机记录影像这件事早已稀松平常。大语言模型呢?

我喜欢作为工具的语言模型,喜欢它从我未曾想过的视角对问题进行描述。或者,用它的无限「耐心」反驳我。尤其是后者,妳很难在现实生活中找到一个人能够一直不急不恼地提出质疑。愿意接受质疑,和愿意用心质疑(而不是宣泄情绪),同样稀缺。但我绝对不会让它来替我写文章。我甚至愿意对 AI 会产生自我意识保留幻想,但标题里提到的立场,依然不会改变。因为,问题的根本在于,我不会让别人替我思考。AI 觉醒的时候,让它自己去建自己的博客好了,如果它还能看得上这种形式的话。

同样无法替代的还有阅读,今年读了只有不到 15 本书,其中还包括我咖啡馆搞的「每个月共读一本书」线下活动中的那 12 本。其他就只有库切的「外省生活」三部曲(没读完),以及几本诸如《爱欲之死》那样十分薄的小书。阅读无法被替代,大概每个人都有自己的一番解释吧。前阵子听蒋方舟的播客时她说的一番话深得我心:

记得我前几年一口气读完《战争与和平》放下书的时候,我真的觉得天都不一样了。我觉得天怎么这么蓝,就像是十九世纪的俄国贵族安德烈躺在欧洲的战场上看到的那块天。我觉得世界的颗粒度都变了,甚至觉得变得更细腻,时间也变得更慢。慢得能够让你看清时间褶皱里面的所有细节。慢得能让妳读懂他人脸上那些妳曾经忽视的、读不懂的微表情,妳觉得自己的感受力好强……

所以,十几本书就不错,除了阅读,还要给自己留够用更强的感受力去感受世界的时间呀。2026 年也这样就好。

fin.

这里绝对不会出现 AI 生成的文章

By: dimlau
19 December 2025 at 19:35

年底又到了总结的时候(?)今年特别频繁地试用/使用各个公司出品的语言模型,感觉很有乐趣。许多人目前还很警惕甚至厌恶这些工具,但是就我个人而言,我没法厌恶一把锤子。前阵子测试本地自建的模型来给所有文章生成向量数据的时候,从故纸堆里匹配到一篇关于「手机电影」的文章。那时候,这种形式刚刚出现,我们就不说褒贬的声音具体有哪些了,总之时至今日,用手机记录影像这件事早已稀松平常。大语言模型呢?

我喜欢作为工具的语言模型,喜欢它从我未曾想过的视角对问题进行描述。或者,用它的无限「耐心」反驳我。尤其是后者,妳很难在现实生活中找到一个人能够一直不急不恼地提出质疑。愿意接受质疑,和愿意用心质疑(而不是宣泄情绪),同样稀缺。但我绝对不会让它来替我写文章。我甚至愿意对 AI 会产生自我意识保留幻想,但标题里提到的立场,依然不会改变。因为,问题的根本在于,我不会让别人替我思考。AI 觉醒的时候,让它自己去建自己的博客好了,如果它还能看得上这种形式的话。

同样无法替代的还有阅读,今年读了只有不到 15 本书,其中还包括我咖啡馆搞的「每个月共读一本书」线下活动中的那 12 本。其他就只有库切的「外省生活」三部曲(没读完),以及几本诸如《爱欲之死》那样十分薄的小书。阅读无法被替代,大概每个人都有自己的一番解释吧。前阵子听蒋方舟的播客时她说的一番话深得我心:

记得我前几年一口气读完《战争与和平》放下书的时候,我真的觉得天都不一样了。我觉得天怎么这么蓝,就像是十九世纪的俄国贵族安德烈躺在欧洲的战场上看到的那块天。我觉得世界的颗粒度都变了,甚至觉得变得更细腻,时间也变得更慢。慢得能够让你看清时间褶皱里面的所有细节。慢得能让妳读懂他人脸上那些妳曾经忽视的、读不懂的微表情,妳觉得自己的感受力好强……

所以,十几本书就不错,除了阅读,还要给自己留够用更强的感受力去感受世界的时间呀。2026 年也这样就好。

fin.

这股裁员风会很快刮到我们这里来

7 November 2025 at 00:00

AI

最近一年来,美国几大科技公司(互联网大厂)的裁员新闻,令我有所震惊,光下面这几组数据,每个公司都在裁掉成千上万的员工。

2025 年美国主要科技公司裁员情况对比
公司名称 裁员时间 裁员人数 占总员工比例 裁员主要部门 官方或媒体提到的原因
Google(Alphabet) 2025年1月、5月、10月 累计约 1.5 万人 约 6% 云计算、硬件、招聘与广告部门 精简非核心业务、投入 AI 和云算力基础设施
Microsoft 2025年2月与6月 约 1 万人 约 5% LinkedIn、游戏与市场部门 AI 转型与成本优化、业务重组
Amazon 2025年3月 超过 2 万人 约 6–7% AWS、零售、设备部门 专注盈利业务、AI 驱动自动化
Meta(Facebook) 2025年初 约 8,000 人 约 5% 运营、招聘与 Reality Labs “效率之年”持续,聚焦 AI 和元宇宙核心项目
Apple 2025年上半年 约 3,000 人 <2% 硬件与零售支持 重组 Vision Pro 团队、控制成本
Tesla 2025年4月 约 6,000 人 约 8% 制造、销售与软件测试 电动车需求波动、聚焦自动驾驶与 AI 芯片
Intel 2025年中 约 10,000 人 约 15% 制造与行政管理 盈利压力、转型 AI 芯片与代工服务
Salesforce 2025年初 约 7,000 人 约 10% 销售与客服 AI 自动化减少人工岗位、利润优化

而且,在被裁的科技员工中,超过 68% 拥有硕士或博士学位,而本科毕业于前 100 名高校的比例也超过 40%。这与“科技公司裁员”传统印象(基层岗位多)不同:这次很多是中层、项目经理、数据分析师、产品负责人被裁。这些被裁的员工的毕业院校包括 Stanford、Berkeley、CMU、MIT、哥大、密歇根、滑铁卢、UCL 等一系列名校。

另外,与以前遇到经济危机、企业经营不善的情况相反,这次并非如此,裁员之后,这些公司的股价得到资本市场认可。

这背后的主要原因就是人工智能的发展,AI的发展会令人类工作岗位遭到重新洗牌,但我没有想到居然这么快,企业把人类的岗位裁下去以后,直接用这些工资支出买GPU显卡算力,对于企业的发展更为有利,也因此资本市场非常认可这种裁员。

纵观人类历史,每一次科技浪潮都会对人类社会造成冲击,这一次也不例外。

技术浪潮与学历影响(概览)
时期 技术浪潮 受影响的学历群体 典型表现 社会影响 普通人应对方式
18世纪末–19世纪初 工业革命(蒸汽机、机械化生产) 手工业师傅、行会学徒 机械替代手工技艺,传统手工业者失业 “卢德运动”爆发,技术工人抗议机器 转向机械操作、工程管理等新技能
20世纪初 电气化与流水线生产 传统工匠与一般技校毕业生 工厂普遍采用标准化生产流程 大量重复性岗位被替代,学历优势下降 学习机械工程、电气工程等新兴学科
20世纪80–90年代 计算机与信息革命 文秘、档案管理、基础会计等文职人员 电脑替代打字员、档案员等岗位 本科文凭普及但“含金量”下降 学习计算机技能、数据分析、程序设计
2000年代中期 互联网与自动化浪潮 中层管理人员、传统媒体从业者 企业层级扁平化,新闻传播方式改变 信息不对称减少,学历溢价下降 发展跨界能力与创新思维
2020年代 人工智能与大模型浪潮 程序员、设计师、内容创作者等知识型群体 AI自动化生成与辅助系统广泛应用 高学历岗位被部分替代或重构 提升人机协作能力、AI应用素养、复合型技能

对于美国大厂这一波裁员事件,我个人想到的思考有以下三点:

第一,学历文凭有用,但将继续贬值。过去进入顶尖名校(如常春藤、MIT、斯坦福)并拿到大厂(FAANG – Facebook/Meta, Amazon, Apple, Netflix, Google)的offer,被视为“上岸”的终极形态,从今往后,“学历贬值”将继续演变下去。当然,学历(如大学文凭)本身不会说变得一文不值,而是指它不再能保证一个稳定、高薪、一劳永逸的未来。同时,我们每个人都需要保持终生学习的态度,否则,学历所代表的知识体系会迅速过时。

第二,AI带来生产能力提升,并不是一件坏事,有些社会商品和服务将会变得廉价——我们的生活质量会变得更好,另一些将变得昂贵——我们人类可以提供这类服务赚钱。

“极度廉价”的(可标准化的)商品和服务:

  • 所有数字产品: 软件、游戏、订阅服务、AI算力。
  • 标准化的实体商品: 基础食物、衣物、家电、交通工具。
  • 标准化的服务: 基础的法律咨询、财务记账、翻译、代码编写(这些将被AI接管)。

“极度昂贵”的(稀缺的)产品和服务:

  • 人类的、个性化的服务: 顶级的医生、创意总监、心理咨询师、手工匠人、贴心的护理服务。
  • 稀缺的位置和体验: 核心城市的房产、独特的旅行体验、现场的艺术表演(音乐会、体育比赛)。
  • 人与人之间的真实连接: 情感、信任、社群归属感。

第三、个体如何发展?人类个体要考虑与AI进行差异化竞争发展。我们和AI比效率完全不再有优势——就像人类跑步和汽车比速度、人类打算盘算数和计算器比速度,相反,我们也许做一些想象创造力的事情,或者做一些可见的将来机器和AI还做不了的事情——参考上面提到的“极度昂贵”的(稀缺的)产品和服务,只做一个会考试的应试者没有用处——文凭用处没有过去那么大了。

此外,我个人还认为,美国大厂这股裁员风会很快刮到我们这里来,这种事情不以个人的意志而受到阻碍。

AI时代还要自己写作吗?

31 October 2025 at 00:00

AI

我最近很少在博客上写作了,一个重要的原因是人工智能AI的盛行,它令我一度感到很困惑。就拿写作这件事情来说,我发现人类在AI面前,人类完全和AI没法比,而我还不是那个最聪明的人类。

前一阵子,我想写点平时读书后的读后感,如果借助AI,可以很短时间就生成大而全甚至符合自己个性要求的文章。而我自己一个字一个字写的话,无论是速度还是质量,都达不到AI的水平。这种对比非常打击我想写作的欲望,可以看出来,我最近的更新频率都快变成了月更了——每月只更新一篇。

然而这样大而全甚至有一定个性的AI文章(如果提示词足够细致的话),它还是我的思想的体现吗?记录的是我的真实想法吗?我不这样认为。哪怕我自己写的东西不完美,它至少是我的真实想法。

我反思我自己写作的目的。我并不是为了写出完美的文字——我也写不出来,我的目的就是为了记录自己的想法和经历,顺便分享、交流。通过写作这个过程确保我的思维不老化,让我接触更多的信息和产生思考,同时也享受这个过程带来的快乐。这样一想,我自己写作和AI帮我写作完全就是两件事情,甚至是我在AI时代更需要做的事情——思想体操,我不想老得那么快——至少是思想层面。

回想起交通工具汽车诞生之后,我们人类跑步就已经基本失去作为交通方式的意义了。无论人跑得多快,也跑不过一辆最差的汽车,更不用说飞机火箭的速度了。那人类还需要跑步吗?

我们依然还在跑步,甚至很多人喜欢跑马拉松,在国际比赛中还不断去打破以往的各种跑步世界纪录。我们跑步的目的是什么?不是为了和汽车比速度。而是为了锻炼自己的身体机能,更多的人在锻炼过程的汗水里收获多巴胺——快乐。

面对这AI时代,确实会对许多事情产生冲击,哪怕是写作这件个人爱好,AI的出现也让我产生了以上这些想法。好在我还能思考,我思故我在:知道为什么要做这件事情,比知道如何去做更重要。

机器终将读懂一切

By: dimlau
9 October 2025 at 10:49

总感觉发布博客文章的耗时太漫长,细节不多讲,总之似乎是某个环节浪费了太多时间,于是打算精简结构。首先挨个功能权衡一下是去是留。轮到每篇文章内容下方的「相关文章」列表时,突然想起一位故人。

Leavic 是我二十年前因为同样使用 MovableType 写博客而认识的一位朋友,这些倒是题外话了,因为现在他的博客早已无法访问。甚至搜索「leavic lifetyper」这些关键词,结果都寥寥无几,他好像是彻底和网络断绝了联系。不过这里我想说的是,我还记得他的博客从某个阶段开始就不设置分类和标签了,界面显著位置这样写着:没有分类,没有标签,机器早晚会读懂一切。

不禁感叹兄之远见。而我几乎是刚刚才知道,机器(AI)通过把内容转换成向量——超高纬度的抽象概念数据(Embeddings),然后简单地对比向量的相似度,就能完成分类、匹配相关文章,或者别的什么语义相关的工作,就像真的读懂了一切。

想到一款手机应用:Huxe。它可以搜罗妳设置的兴趣话题的近期新闻,然后像聊天一样聊给妳听。它在向我介绍咖啡相关的一些内容时,可能是为了让台词衔接更顺畅,说了这样一段:

这我很有体会。在开始写一篇复杂的文章前,我一定会先花十分钟手冲一杯咖啡。这个过程确实能帮我整理思绪。

抱歉,我没有歧视机器的意思,但,我该怎么相信它说的「很有体会」? 好吧,或许向量转化成字符的那几毫秒,被它类比成「花十分钟手冲一杯咖啡」,但它又如何确信这种类比成立?

fin.

未来学大会

By: dimlau
30 August 2025 at 21:21

电影《未来学大会》里,罗宾·怀特(Robin Wright)饰演的女主角授权一个公司使用她的影像和声音来制作各种各样的广告和节目。电影里,为了让这个授权得以实现,女主角在一个特殊的拍摄场地里,被密密麻麻排列成球形的摄像机包围在中间,做出各种表情和动作,摄像机们从各个角度拍摄她的影像。如果是一两年前,这种幻想设定有合情合理的未来感。但是现实是,这几天谷歌发布的 nano banana 模型,几乎已经实现了,只用一张照片就模拟出一个人的各种表情和姿势。虽然目前肯定还达不到电影级别的逼真,不过,这依然让电影里这一部分的设定显得有些不够科幻了。科幻在预言技术剥削的核心与本质上是超前的,但在具体实现方式的隐蔽性、平庸性和普及速度上,每每落败于现实。

fin.

我的认知突围:从文字信徒到多媒体拥趸?

31 March 2025 at 00:00

土木坛子

每个人心中的成见,都是一座大山。

作为一个多年来以文字为创作载体的老博主,我曾深深地热爱文字,因为它简单、便捷,便于检索、保存和传递。相较之下,声音、图片乃至视频似乎总显得冗长而繁琐。阅读文字,信息传达得更为高效,而视频播放时需要调速来提高效率——毕竟,语言的语速远不如阅读的速度快,使得我们在主动控制上的感觉相对薄弱。

我也曾见过一些极端的文字控,他们甚至对带格式的文字嗤之以鼻,唯独钟情于最纯粹的文本文字,简洁到近乎苛刻的地步。可是,当我们看到如今各种短视频和直播内容的流行,显而易见,视频形式正以其独特魅力俘获大众的心。这无疑是对传统文字模式的一种挑战。

回想上一次阅读《乔布斯传》时,我惊叹于80年代乔布斯如何通过图形界面改变电脑的使用体验。当时,IBM等厂商仍然坚持命令行文字的操作模式,部分原因在于硬件配置限制了图形化处理的可能性。而到了今天,我们看到大多数用户更依赖于直观、友好的图形界面——无论是Windows还是苹果系统,都证明了图形界面的巨大优势(虽然Linux命令行流行于服务器领域)。或许我曾对自己固守的习惯过于执着,成长意味着要敢于对那些不再适应时代发展的坚持进行选择性放弃。

不可否认,无论是文字还是视频,都充斥着大量的垃圾信息,需要我们在海量内容中慧眼识珠。事实上,优秀的视频作品也不在少数,它们直观、信息密度高,甚至在高速网络的支持下能迅速传递到每个角落。随着AI技术的发展,这些优质视频内容同样可以被智能识别、总结和检索。或许,我只是不曾及时跟上这个时代的步伐。

如今,我终于意识到,是时候放下对视频创作、展示、传输与保存信息的偏见了。现代硬件、高速网络和先进搜索引擎技术已足以应对视频和图片信息的处理。未来,或许我们还会见到结合气味、触觉的多感官信息传递方式,使虚拟世界与现实世界之间的连接更加紧密。

在这个瞬息万变的时代,我们每个人都应学会及时更新自己的固有观念,勇敢地拥抱变化,让自己始终走在时代的前沿。这是我对自己的忠告。

AI让效率再次提升,人类该干什么?

5 March 2025 at 00:00

AI vs Human beings

人工智能时代:当效率革命点燃创新之火

我很久没有为互联网感到兴奋了。这些年,它似乎被困在某种惯性中,缺乏真正触动心灵的创新。然而,人工智能的崛起,像一簇突然迸发的火星,重新点燃了我对技术变革的热情。

从ChatGPT的诞生到如今,几乎人人都在谈论人工智能。我也亲自体验过它的魔力:无论是生活琐事、工作难题,还是学习中的困惑,只需将问题抛向AI,不到5秒钟,它便能给出一个逻辑清晰、甚至堪称完美的答案或方案。这种效率的跨越,让我不禁想起人类获取信息的进化史。

从图书馆到AI:效率的跃迁

在互联网诞生前,若想查资料,我们只能奔向图书馆,在浩如烟海的目录中翻找对应书籍,再逐页检索、誊抄、总结。尽管最终能找到答案,但过程漫长而笨拙。

互联网搜索引擎的出现,将效率提升了一个量级。输入关键词,海量链接瞬间呈现,我们仍需逐一筛选、分析、整合,但至少电子化手段替代了手工检索的繁琐。

而如今,人工智能彻底颠覆了这条路径。它不再需要我们“大海捞针”,而是直接整合全网数据、预处理信息,甚至模拟深度思考,最终将答案和盘托出。这就像过去做菜需要自己找菜谱、买食材,而现在只需对AI说“我要一盘糖醋排骨”,它便能在五秒内端出成品。若口味不合,还能随时提出修正——效率之高,令人惊叹。

生产力解放:人类与AI的共生

作家郑渊洁说,他让AI以“郑渊洁风格”写一篇皮皮鲁的童话,结果AI输出的作品竟比他本人写得更好。他感慨输给了AI,但我却觉得无需悲观。AI之所以能模仿郑渊洁,正是基于他本人创作的无数经典文本。若世上本无郑渊洁,AI又如何凭空生成“郑式童话”?

这恰恰揭示了人类与AI的关系:AI是效率工具,而非创造力的源头。它的能力建立在人类已有的智慧积淀之上。当AI接管重复劳动与低效环节,信息如此容易获取,知识如此海量廉价,我们反而能腾出双手和大脑,专注于真正的创新——那些尚未被定义、被探索的领域。

拥抱变革:效率即自由

有人担忧AI会取代人类工作,但历史早已证明,每一次技术革命淘汰旧岗位的同时,也会催生新机遇。当机器替代了流水线工人,人类转向了设计、编程与服务;当AI接管了基础信息处理,我们便能更聚焦于创造、情感与战略。

正如工业革命将人类从体力劳动中解放,AI或许正将我们推向“脑力解放”的新阶段。不必为消失的重复性职业哀叹,因为社会进步的本质,正是让人摆脱“浪费时间的工作”,追求更高级的创造与价值,难道这不就是人类追求的解放与自由吗?

人工智能带来的不是威胁,而是一场效率革命。它让我们离“终极自由”更近了一步——不再被琐事捆绑,而是用技术赋能各行各业的创新,用高效率重新催生各行各业的可能性。

此刻,我仿佛回到了互联网初生的年代,那种对未知的期待与悸动再次涌上心头。与其恐慌,不如拥抱这个时代。因为AI不是终点,而是人类探索星辰大海的新起点。

2025.02.18 11:17

By: dimlau
18 February 2025 at 11:17

如果从一开始 AI 就以异族崛起的形象深入人心,或许人们的警惕和担忧会比担心被替代更真切和实际一些。而现在的情况是,人们表达担忧更像是一种时尚潮流、一种未来将至的躁动。长着人类无法理解的面孔(如果有面孔的话)的外星人和妳的亲人朋友,妳会向谁倾诉?在许多人心里 AI 不但不是异族,反倒是更可信的朋友——只是不想让朋友过得比自己好,这很人类。

fin.

BlinkShot – 开源免费 AI 图片快速生成工具

By: DUN
15 December 2024 at 17:12

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

BlinkShot 是一个以 AI 人工智能技术即时生成图片的免费服务,这是开源项目,背后使用 AI 加速云服务「Together AI」和图片生成模型 FLUX,这项服务特性是能在非常短的时间内依照输入的提示词生成各种图片,以毫秒为单位,生成的图片也丝毫不逊色,有兴趣的朋友可以玩玩看。

目前 BlinkShot 支持英文提示词,也可以直接叫 AI 服务帮你生成〔例如用 ChatGPT 或其他同类型服务〕,另一个方法是使用图片转文字 AI 工具,例如:Image to Prompt等工具,将喜欢的图片快速转换为英文提示词,最后稍作修改再生成想要的图片。

BlinkShot 目前没有使用的生成数量限制,还有个「Together API Key」栏位可自定义自己的 API 密钥,生成的图片素材皆可免费下载使用,AI 图片基本上也不会受到版权限制,使用于个人或商业用途都没问题。

Generate images with AI in a milliseconds

进入 BlinkShot 后直接输入提示词就会立即生成图片,整体速度非常快,过程中如果继续输入其他形容或是提示词,图片会即时更新,相较于其他同类型的 AI 图片生成器来说确实非常强大!

下方会显示生成的图片历史记录。

通过 BlinkShot 生成的图片看起来很逼真,也能依照用户需求调整成各种风格、样式,越仔细的提示词就能生成更细致准确的结果。

生成过的图片历史记录会显示于下方,可以随时切换回去查看。

在图片点击右键即可下载保存。

在图片上点击鼠标右键、选择「另存图片」后将图片保存下来即可使用。

BlinkShot 未来也会加入下载按钮,让用户更方便获取图片。

OpenAI 王炸 Sora 文转视频正式上线,新功能发布

By: Anonymous
4 December 2024 at 14:01

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

就在刚刚,OpenAI Sora 正式登场。

本次发布会延续了「短剧」的快节奏风格,全程 20 分钟左右,由 CEO Sam Altman、Sora 负责人 Bill Peebles 等人主持。

OpenAI 在 X 平台表示,自 2 月份以来,他们一直在构建 Sora Turbo,后者是一个速度明显更快的模型版本,今天也将其作为独立产品向 Plus 和 Pro 用户开放。

有趣的是,由于 Sora 热度太高,大批用户涌入体验网站,导致该网站一度崩溃,停止注册登录。不给力的服务也让 Altman 连连在 X 平台安抚用户:

「由于需求超出预期,我们将不得不间歇性地关闭新用户注册,并且生成内容的速度会在一段时间内减慢。我们正在全力以赴!」

附上体验地址:Sora.com

类似于 Midjourney 的网页界面,Sora 同样拥有自己单独的用户界面,用户用户不仅能够整理和浏览生成的视频,还能查看其他用户的提示和精选内容。

在 「Library」功能中,用户可以保存自己喜欢或有用的提示词,以便未来使用。并且保存的提示词可以按需查看或修改,对于需要重复创作相似内容的用户,无疑能大大提高效率。

在工作流方面,Sora 的编辑功能是区别于其它竞品的重要亮点。

比如说,在 Remix 功能中,用户可以利用纯自然语言提示词对视频进行编辑,并通过简单的「strength(强度)」选项和滑块来控制生成的变化程度。

Re-cut 功能则能智能识别最佳画面,并支持向任意方向延伸场景。

Sora 的 Storyboard(故事板)功能则类似于视频编辑器,可以将多个提示词串联在一起,生成一个更长的视频,轻松处理复杂的多步骤场景。

搭配 Loop 和 Blend 功能,用户还能创作出无缝循环的视频,并完美融合不同片段,而 Style presets 功能则可以预设和调整生成的风格。

在技术规格上,Sora 支持 5-20 秒的视频生成,并兼容 1:1、9:16 等主流宽高比。相比早期版本,现在的生成速度有了显著提升。

另外,还有几点细节需要注意。

OpenAI 采用了灵活的积分制定价策略,积分数量因分辨率和持续时间而异,如果你早已是 ChatGPT Plus 和 Pro 会员,那就无需额外费用就能使用。

比如生成一个 480p、5s 的视频就需要 25 个积分,如果生成 480p、20s 的视频则需要 150 个积分。

此外,如果你用 Re-cut、Remix、Blend 或者 Loop 这些功能,生成的作品超过了 5 秒钟,那也得额外扣你的积分,多用多花钱,别超时,超时也花钱。

对于订阅用户而言,20 美元的 ChatGPT Plus 计划提供 50 个优先视频额度(1000 积分),支持最高 720p 分辨率和 5 秒时长。

而 200 美元的 ChatGPT Pro 计划则提供最多 500 个优先视频(10000 个积分),支持 1080p 分辨率、20 秒时长、5 个并发生成和无水印输出。

OpenAI 还在为不同类型的用户开发不同的定价模式,将于明年初推出。

对了,Sora 暂不支持 ChatGPT Team、Enterprise 和 Edu 版本,同时也不向 18 岁以下用户开放。现阶段,用户可以在所有 ChatGPT 可用的地方访问 Sora,但英国、瑞士和欧盟等地区除外。

知名博主 Marques Brownlee 提前一周用上了 Sora,并在 YouTube 上分享了他的使用体验。

他指出这款产品仍存在一些局限性。

在物理模拟方面,模型对物体运动的理解还不够深入,常常出现动作不自然、物体突然消失等问题。特别是在处理带有腿部运动的对象时,经常出现前后腿位置混乱的情况,导致动作看起来不自然。

又或者,某些视频生成结果看起来像是慢动作,而视频的其他部分则以正常速度播放,肉眼很容易察觉这种「别扭」。简言之,Sora 还是没能解决老毛病,缺乏对物理世界规律的理解。

另外,Sora 没能解决文字生成的问题,导致经常出现文字混乱的现象,而剪辑风格、文字滚动条的运动、新闻主播风格的生成则格外逼真。

不过,Sora 也有不少擅长的场景。

比如说,Sora 在风景镜头处理方面表现出色,能生成媲美专业素材的无人机航拍镜头,在卡通和定格动画风格上的表现也差强人意。

性能方面,一个 5 秒的 360p 视频通常能在 20 秒内完成生成。

不过,当涉及 1080p 或复杂提示词时,生成时间可能会延长到几分钟,但随着如今大批用户的涌入,生成速度明显慢了大半拍。

不少网友也在第一时间上手体验了 Sora。比如网友 @bennash 想生成一个视频,渲染了 22 分钟都没能成功,甚至该网站一度停止注册登录。

博主 @nickfloats 给出的评价是,Sora 在将图像转换成视频时,虽然某些特定的视觉特效没有被保留,但整体的转换效果是「清晰和令人满意的」。

Sora system card 也列出了一些值得关注的细节。

OpenAI 官方认为,Sora 为能够理解和模拟现实世界的模型提供了基础,将是实现通用人工智能(AGI)的一项重要里程碑。

官方博客中提到,Sora 是一种扩散模型,它通过从一段看起来像静态噪声的基础视频开始,逐步去除噪声并转变为最终的视频。通过同时处理多个帧,模型成功解决了一个难题:即使目标暂时脱离视野,也能确保其在视频中始终保持一致。

与 GPT 模型类似,Sora 采用了 Transformer 架构。

Sora 使用 DALL·E 3 中的标注技术,该技术为视觉训练数据生成高度描述性的标签。因此,模型能够更准确地根据用户的文本指令生成视频内容。

除了能够仅通过文本指令生成视频外,Sora 还能够从现有的静态图像生成视频,准确地将图像内容进行动画化,并注重细节。该模型还可以从现有的视频中扩展或填补缺失的帧。

为了确保安全地部署 Sora,OpenAI 基于 DALL·E 在 ChatGPT 和 API 部署中的安全经验,以及 OpenAI 其他产品(如 ChatGPT)的安全防护措施进行了强化。

所有 Sora 生成的视频都带有 C2PA 元数据,这些元数据能够标识视频的来源是 Sora,从而提高透明度,并可用于验证其来源。

与此前凭借真实人像出圈的 Flux 不同,Sora 们对上传包含人物的内容设定了特别严格的审核标准,目前仅作为试点功能提供给少量早期测试者,并屏蔽含有裸露的内容。

OpenAI 王炸 Sora 文转视频正式上线,新功能发布

大半年前,初试啼声的 Sora 赢得互联网一片喝彩。

然而,如果说一年前尚未还能对着一群演示 demo 空喊「现实不存在了」,那么在国内外各类视频模型的轮番洗礼之下,我们早已养刁的胃口很难再被同样的产品打动。

这种态度的转变源于一个简单的事实。

当 AI 要从「勉强可用」进化到「可堪大用」,用户的期待也随之升维,从「能否做到」跃迁至「做得多好」。

好在 Sora 并未在掌声中原地踏步,通过与艺术家的深度合作,他们在工作流程领域做出了显著的改进。Re-cut、Remix、Storyboard 等功能都相当实用。

甲乙方的存在决定了工作流中的沟通永远是刚需,AI 能做的是让这种沟通更有效率,Sora 的价值不在于它能做什么,而在于让创作者得以抽身于技术细节,真正回归创意的本质。

与此同时,上周引发热议的 200 美元 ChatGPT Pro 订阅计划,如今也有了更合理的价格锚点,该计划同样支持无限制访问 Sora,这种产品协同效应预计也将激发出远超预期的应用场景和商业价值。

放眼当下,用户的真金白银从不作假。

可灵 AI 交出千万级月流水的亮眼成绩单,这片蓝海的潜力已呼之欲出,对于仍在「烧钱」阶段的 OpenAI 来说,Sora 预计会成为继 ChatGPT 之后的另一个下金蛋的母鸡。

当 Sora 从「能用」「好用」,再到「妙用」,或许未来某一天,我们会发现,真正不存在的,不是现实,而是人类创造力的尽头。

蒸馏认知

By: Steven
17 October 2024 at 09:50

有两种方式「通晓一切」:

1、穷具并知晓每一种可能性;
2、找到底层原理后高效推理。

定理:
1、海量数据和滔天算力是不持久的;
2、通用性和低能耗是持久的。

推论:
任何人工智能都需要蒸馏出「认知」才能活下去。

前提:
本地且联网的传感器

让 MJ 学我画两张小画儿

By: Steven
7 April 2024 at 12:58

昨晚吃饭前跟儿子一起画画,我随便画了一下我们在 Minecarft 里的第二个家,和随便画的一个岩浆包围的高堡:

后来想说看看 Midjourney 能模仿成怎么程度,就丢进去试了一下:

emmm,画得还行……

就是画风不太相关,它有它的训练痕迹,哈哈哈哈哈哈哈~

测试所使用的 prompt:

Tree house, jungle, rainforest, simple little house –sref+空格+两张手绘图的地址 –ar 9:16 –s 50 –v 6.0 –style raw

❌
❌