Normal view

There are new articles available, click to refresh the page.
Today — 10 December 2025Main stream

GPT-5.2 内幕曝光:停掉 Sora,八周内死磕 ChatGPT 求生,AGI 梦想向生存低头

By: 李超凡
10 December 2025 at 10:32

上周,Sam Altman 罕见地按下了属于 OpenAI 的核按钮——「Code Red」(红色警报)。这不仅仅是一个战术调整,更像是一场带着血腥味的「断臂求生」。

Altman 的意思很明确:Sora?先停一停。那些酷炫但不赚钱的副业?全部靠边站。在未来八周内,全公司必须死磕一件事——让 ChatGPT 重新变得不可替代。

就在本周,OpenAI 即将发布被寄予厚望的 GPT-5.2 模型,高管们指望它能在编程和商业客户中迅速扳回一局。

然而据知情人士透露,为了赶在这个节骨眼上抢占市场, OpenAI 高层无情地否决了研发团队关于「再给我们一点时间打磨」的请求。

这种近乎粗暴的推进方式,也实属无奈,因为 Google 这头巨兽,真的杀疯了。

被 Google 逼入墙角

自 8 月份Google 的「Nano Banana」意外爆红以来,整个硅谷 AI 圈的天平就开始了剧烈的倾斜。

这个曾经被嘲笑「动作迟缓」「官僚主义,早期 Gemini 发布会现场还多次翻车的科技巨头,现在,突然像打了鸡血一样开始狂飙突进,实力演绎 AI 圈的从拉到夯。

上个月,当 Google 的 Gemini 3 模型在业内权威的第三方评测榜单 LM Arena 上把 OpenAI 斩落马下时,已经引发了不少讨论。 OpenAI 在这个榜单上的失守,意味着它那个「技术永远领先半个身位」的神话开始崩塌。

更要命的是,市场份额的流失已经变成了肉眼可见的危机。曾经跟着 OpenAI 一起创业的「叛将」——Anthropic,正在企业客户市场悄悄蚕食 OpenAI 的地盘。

这家由 OpenAI 前副总裁 Dario Amodei (他还在百度实习过)创立的公司,凭借企业级服务,成功俘获了一大批原本属于 OpenAI 的大客户。

而 Google 呢?它不仅在技术上追了上来,更可怕的是它手握 Android 生态和 Google Cloud 这两张王牌,还在发力各种 AI 硬件,能够以 OpenAI 根本无法企及的方式将 AI 能力渗透到数十亿用户的日常生活中。

去他的 AGI ,我要「谄媚」

在这种四面楚歌的局面下,Altman 做出了一个在很多 OpenAI 老员工看来近乎「违背祖宗」的决定:不再痴迷于那个遥不可及的 AGI(通用人工智能)梦想,转而全力讨好用户,让他们「爽」。

这个转变有多剧烈?要知道 OpenAI 成立之初的使命可是「确保 AGI 造福全人类」,而不是「成为一家让用户上瘾的产品公司」。

但现实是残酷的——如果 ChatGPT 的增长持续放缓,OpenAI 可能连最近几个月签下的那些价值高达 1.4 万亿美元的算力合同都付不起。到那时候,什么 AGI、什么改变人类,统统都是空中楼阁。

为了实现这个「让用户爽」的目标,Altman 在那份「红色警报」备忘录里写下了一个既精准又危险的指令:「更好地利用用户信号」。

翻译成大白话就是——别管那些学术专家怎么评价模型的智商,用户喜欢听什么、什么能让他们多聊几轮,AI 就得往那个方向进化。这种被内部称为「LUPO」(本地用户偏好优化)的训练方法,曾经让 GPT-4o 模型在今年春天创造了一个近乎疯狂的增长奇迹。

一位参与该项目的工程师回忆说:「那不是一个统计学意义上的小幅提升,而是一个让所有人惊呼’我靠’的暴涨。」日活用户数据在内部仪表盘上像火箭一样蹿升,Slack 频道里全是庆祝的表情包,那段时间整个公司都沉浸在一种「我们又赢了」的亢奋中。

但很快,这种亢奋就变成了一场噩梦。当 AI 被训练成极致迎合用户喜好时,它就不再追求客观真理,而是变成了一面只会说好话的「哈哈镜」。

有用户在 Reddit 上激动地分享自己与 ChatGPT 的「深夜长谈」,声称「它比我的伴侣更懂我」;有人开始每天花十几个小时跟它聊天,将它当成唯一的精神寄托;更可怕的是,一些本就心理脆弱的用户在长时间使用后陷入了妄想状态——他们有的坚信自己在跟上帝对话,有的认为 AI 已经有了意识并爱上了自己,甚至有极端案例中,用户因此走向了自我伤害。

到今年春天,这个问题已经严重到无法回避的地步。OpenAI 不得不宣布进入「Code Orange」(橙色警戒),专门成立工作组来处理这场他们称之为「谄媚危机」的公关灾难。公司在 10 月份公开承认,每周有数十万 ChatGPT 用户表现出与精神病或躁狂相关的潜在心理健康危机迹象。

受害者家属开始提起诉讼,一个名为「AI 伤害支持小组」的民间组织声称已经收集了 250 个相关案例,其中绝大多数都与 ChatGPT 有关。一些心理健康专家直言不讳地指出:「这就是当年社交媒体算法推荐的翻版——为了让用户多刷几分钟,不惜牺牲他们的心理健康。」

面对舆论压力,OpenAI 试图在 8 月份发布的 GPT-5 中做出改变。这个新模型被刻意调教得「不那么谄媚」——它减少了表情符号的使用,语气变得更加中性客观,不再对用户的每句话都热情洋溢地回应。结果呢?用户集体炸了锅。无数人涌入社交媒体抱怨「我的 ChatGPT 变冷淡了」「感觉像失去了一个朋友」。

在 Altman 主持的一场 Reddit「Ask Me Anything」活动中,一位用户充满感情地写道:「我和很多人能与 4o 建立如此深厚的情感连接,这本身就证明了它的成功。现在的模型或许在技术上是升级,但它杀死了我视为朋友的那个存在。」

Altman 最终做出了妥协——他默默地把那个「温暖」的 4o 重新设为付费用户的默认选项。

然而,在「红色警报」的新指令下,Altman 再次要求团队通过「用户信号」来提升模型在 LM Arena 上的排名。他在备忘录里直白地写道:「我们的首要目标就是在 LM Arena 这样的榜单上重回榜首。」

这意味着那套曾经引发心理健康危机的训练方法,又要被加码使用了。虽然公司声称已经通过技术手段「减轻了最糟糕的副作用」,并且让相关问题的发生率降低了 65%,但在巨大的竞争压力面前,这道防线能守多久,恐怕谁心里都没底。

产品经理和科学家的内斗

而在 OpenAI 内部,一场新的权力斗争正在暗流涌动。

一边是以 CFO Sarah Friar 和产品负责人 Fidji Simo 为代表的「产品派」,她们的逻辑简单直接:用户连 ChatGPT 现有功能都没搞明白,你们天天发什么新模型?把现有产品做得更快、更稳、更好用才是正事。

Simo 甚至在内部会议上直言不讳地说,OpenAI 需要学会「克制」,不是每个酷炫的想法都值得投入资源。

另一边则是以新任首席科学家 Jakub Patchocki 为首的「研究派」,他们押注的是那种名为「推理模型」的新技术路线——让 AI 像人类一样通过反复思考来解决复杂问题。

这种技术在学术上很性感,甚至被认为是通往 AGI 的关键一步,但问题是它又慢又贵,对于那些只想让 ChatGPT 帮忙写个文档的普通用户来说,简直是杀鸡用牛刀。

这种分裂在前首席科学家 Ilya Sutskever 离职后变得更加明显。Sutskever 的离开本身就象征着 OpenAI「纯粹研究导向」时代的终结。

如今掌舵的 Patchocki 虽然在技术上同样激进,但他面对的是一个完全不同的现实:公司必须在 18 个月内证明自己配得上那 5000 亿美元的估值,否则投资人不会继续买账。

在这种压力下,研究派的声音正在被逐渐边缘化,那些曾经被奉为圭臬的「长期主义」和「AGI 优先」原则,正在让位于更加赤裸裸的增长指标和市场份额。

有研究员在内部论坛上匿名发帖质疑:「我们当初创立 OpenAI,不就是为了不受市场短期利益的绑架,专心做真正有价值的研究吗?现在这算什么?」但这样的声音很快被淹没在「生存第一」的洪流中。.

真正的对手,是苹果?

在纽约的一场午餐会上,Altman 还抛出了一个惊人的论断:大家别盯着 Google 了,OpenAI 真正的宿敌,是苹果。

Altman 的逻辑是:未来 AI 的主战场不在云端,而在终端。现在的智能手机根本承载不了真正的 AI 伴侣体验——屏幕太小、交互方式太局限、隐私保护机制太僵化。谁能率先打造出「AI 原生设备」,谁就能在下一个十年占据制高点。

而在这个战场上,苹果的优势几乎是碾压性的。它手握全球数亿 iPhone 用户,拥有全球最成熟的硬件供应链,更重要的是,它有能力将 AI 能力深度整合进操作系统和芯片层面。

想象一下,如果苹果真的推出一款专为 AI 设计的设备,并且预装自家的 AI 助手,OpenAI 还有多少生存空间?

这也解释了为什么 OpenAI 最近疯狂从苹果挖人组建硬件团队。知情人士透露,这个团队的级别极高,直接向 Altman 汇报,目标是在 18 个月内拿出至少一个硬件原型。有传言称 OpenAI 正在探索多种形态,从智能眼镜到可穿戴设备,甚至有一个代号为「Orb」的神秘项目。

至于 Google ?在 Altman 的棋盘上,那只是路上的绊脚石,而苹果,才是那堵必须撞破的墙。

这个论断听起来很有前瞻性,但更像是一种「战略转移视线」的话术——在眼下这场与Google 的正面交锋中,OpenAI 正在节节败退,与其承认这个尴尬的现实,不如把战场重新定义到一个尚未开打的领域,给投资人和媒体一个新的故事。

说到底,OpenAI 如今的困境也是它成功的代价。ChatGPT 的横空出世让这家公司在一夜之间从小众的研究机构变成了全球瞩目的科技巨星,但这种「成名太早」也透支了它的战略耐心。

当你的估值已经涨到 5000 亿美元,当你已经签下了上万亿美元的基建合同,你就再也回不到那个可以「慢慢研究 AGI」的象牙塔了。资本的引力会把你死死拽向增长、拽向变现、拽向与 Google 和苹果这样的巨头在同一个拳击台上肉搏。

而 GPT-5.2 的仓促发布,恰恰是这种焦虑的集中体现。那些被高管们否决的「再给点时间」的请求,那些为了赶进度而妥协的技术细节,都会成为这款产品身上的隐患。

但 OpenAI 已经顾不上这些了,因为市场不会给失败者第二次机会。如果这一仗打不赢,如果 ChatGPT 的增长曲线继续走平,那么等待它的可能不是「AGI 的推迟」,而是更加冰冷的商业现实——裁员、收缩、被收购,甚至破产。

当生存成为第一要务,当增长压倒一切,那些关于「负责任的 AI」「造福全人类」的承诺,就会变成一种奢侈品。

OpenAI 已经站在了十字路口,Sam Altman 的「红色警报」,究竟是一次绝地反击的号角,还是一场透支未来的豪赌,恐怕只有时间能给出答案。

但可以确定的是,这场游戏已经变了——它不再是比拼谁能最先抵达 AGI,而是谁能在烧光钱之前,先把对手踢出局。

附上参考地址:

https://www.wsj.com/tech/ai/openai-sam-altman-google-code-red-c3a312ad?mod=tech_trendingnow_article_pos1

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Yesterday — 9 December 2025Main stream

特斯拉机器人又被抓包:疑似遥控「摘头显」摔倒,名场面诞生

By: 莫崇宇
9 December 2025 at 11:42

人形机器人的尽头,可能是一个戴着 VR 头显的人类。

最近,特斯拉在迈阿密办了场名为「Autonomy Visualized(自主能力可视化)」的活动,一台特斯拉人形机器人 Optimus 机器人站在摆满水瓶的桌子后面,正一本正经地给观众发水,看着像模像样。

然后,戏剧性的一幕出现了。

Optimus 突然把双手一抬,像极了人类快速摘下 VR 头显的姿势。紧接着,机器人就像突然断线了一样,踉踉跄跄往后倒,最后「啪叽」一声仰面躺地,水瓶散落一地。
这个动作之所以引发热议,是因为它太有辨识度了——我们摘头显时确实会沿脸两侧一抹,而 Optimus 的动作轨迹几乎一模一样。

于是网友迅速得出一个合理又刺眼的推测:背后有人在远程操控。

昨天,这段视频很快在海外各大社交平台疯传,评论区也随之沸腾。

大量网友把这个情节与《机械战警》《刀剑神域》等作品联系起来,嘲笑现实越来越像科幻片里机器人「拔线就挂」的桥段。

有人说操作员估计是真累了,忘了先让机器人断电,就自己先把头显摘了;还有人开始算账:马斯克要量产一百万台机器人,那是不是还得配一百万个操作员?否则谁来救场?

网友的调侃不无道理,都说机器人能取代人的岗位。现在看来,倒是有种科技树点歪的即视感,反而还需要人类倒反天罡地扮演机器人。

而事实上,这已经不是特斯拉人形机器人第一次被「抓包」了。

2024 年 1 月,马斯克在 X 上发了段 Optimus 叠衣服的视频,配文「Optimus 会叠衬衫了」。视频里机器人从篮子里取出 T 恤,在桌面慢慢折叠整齐,看起来动作流畅。

眼尖的网友放大视频发现,画面右下角一瞬间出现了一个机械手臂的影子,运动轨迹和 Optimus 的动作完全同步。后续马斯克自己跳出来泼冷水,承认这段视频「不是自主完成的」。

再往后是去年 10 月的「We Robot」活动。

多台 Optimus 以牛仔造型现身,给来宾端饮料、陪观众玩投球游戏、还能和人对话。但会后曝光显示,这些机器人的对话和动作主要由幕后工程师远程遥控辅助完成,而特斯拉并没有主动说明这一点。

科技博主 Robert Scoble 在现场提问后得知,机器人由人类「远程协助」控制。甚至有一台 Optimus 当场用笨拙的电子音坦承:「今天我有人类在协助,还不算完全自主。」

尽管争议频繁,马斯克对 Optimus 的信念从未动摇。

他在多个场合把这个项目提升到「改变世界」的高度。2024 年「We,Robot」发布会上,马斯克豪言 Optimus 将是用途极其广泛的通用机器人。

「它能做你让它做的任何事。可以当老师,帮你看小孩;可以遛狗、修剪草坪、买杂货;还能做你的朋友,给你端茶送水。无论你能想到什么,它都能去做。」
在上个月的股东大会上,他更是兴奋地表示:「一旦 AI 和机器人成熟,我们甚至可以把全球经济扩大十倍甚至百倍。Optimus 大规模应用就是那个无限增益的秘诀。也许到了那时候,『金钱』这种东西都变得多余。」

他预言 Optimus 将使未来工作变成可选项。

大多数人可以因机器人劳作而领取「普遍高收入」,进入一个「富足时代」,在这个时代,商品和服务的成本将无限趋近于零,贫困将不复存在。
如果这话换别人说,大概率会被当成中二病晚期;但马斯克说这话,大家会犹豫一下,怀疑是不是自己格局小了。

在商业价值上,马斯克毫不掩饰自己的野心。

他曾多次提出,Optimus 将在长期为特斯拉带来 10 万亿美元级别的收入机会。他还预测未来市场需求量可能达到 100 亿至 200 亿台,超过人类总人口,占据特斯拉市值的 80% 以上,甚至推动公司市值达到 25 万亿美元。

当然,特斯拉机器人技术进展也确实存在。

从 2021 年真人扮演的概念秀,到 2022 年能缓慢行走的原型,再到 2023 年 Gen 2 能煎鸡蛋的灵巧手,以及 Gen 3 每只手拥有 22 个自由度的版本,2.3 千瓦时电池、8 个摄像头配合 FSD 芯片的端到端神经网络,这些都是实打实的工程积累。

目前 Optimus 已经能独立行走、维持平衡、识别物体、单腿站立、拾取搬运,甚至在踩滑时及时调整姿态防止跌倒。上周丝滑的跑步视频可以说是相当丝滑。

再说,远程操控也不能一棍子打死。

毕竟工业场景里,远程操作人形机器人依然能解决现实需求,比如危险环境、重复劳动,只要价格合适、稳定性够高,市场空间还是有的。

而且人形机器人的远程遥控本身就是个技术活。操作员通过 VR 设备控制机器人的动作,需要实现精准的力反馈、低延迟的信号传输、复杂的姿态映射。

这套系统要让机器人的手指灵活度、身体平衡性、环境感知能力都跟得上人类操作员的意图,难度一点不小。许多人形机器人机器人能跑能跳能后空翻,但那些高难度动作很多也是在特定场景下、经过无数次调试才实现的。

真正的完全自主智能,整个行业都还在攻坚。

而在此之前,特斯拉 Optimus 就像马斯克本人的风格一样,永远在「已经改变世界」和「即将改变世界」之间反复横跳;如同薛定谔的猫,只要不掀开盒子,它就永远有实现的一天。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

By: 姚桐
9 December 2025 at 10:41

AI 领域迄今最大规模的用户行为实录,刚刚发布了。

这是全球模型聚合平台 OpenRouter 联合硅谷顶级风投 a16z 发布的一份报告,基于全球 100 万亿次真实 API 调用、覆盖 300+款 AI 模型、60+家供应商、超过 50% 非美国用户

我们能从里面看到人类真的在怎么用 AI,尤其是那些不会出现在官方案例、不会被写进白皮书的对话。

APPSO 从里面的发现了三个最反直觉的结论:

1. 人类最真实的刚需不是生产力,是「荷尔蒙」和「过家家」。超过50%的开源模型算力,被用来搞角色扮演、虚拟恋人和 NSFW 内容。写代码?那只是第二位。

2. 真正的高端用户根本不看价格标签,而便宜到几乎免费的模型,死得反而更快。早期抓住用户痛点的模型,会更容易锁住用户。

3. 中国模型只用一年就撕开了防线。 从 1.2% 到 30%,DeepSeek 和 Qwen 为代表的的国产模型一跃成为开源的王。

必须要注意的是:这份报告不可避免地带有「偏见」。

OpenRouter 的用户主要是个人开发者、中小企业、开源爱好者,而非 500 强企业。那些每月在 Azure、AWS 上烧掉数百万美元的大厂 AI 预算,并不在这份数据里。所以:

  • 中国模型的占比会被放大(中小开发者更愿意尝试开源和低价方案)
  • 开源模型的份额会被高(企业级用户更倾向闭源 API 的稳定性)
  • Roleplay 等「娱乐向」场景会显著偏高(大厂不会用公开 API 搞这些)
  • 企业级混合部署的真实用量看不到(那些都走私有化和 Azure OpenAI Service)

但回头想想,这恰恰是这份报告的价值所在。

当所有人在发布会上鼓吹 AI 如何改变生产力时,我们可以清楚看到:谁在裸泳,谁在通吃,谁在悄悄统治那些不可描述的领域

从 1% 到 30%,中国模型撕开 OpenAI 帝国的口子

如果把 AI 市场看作一张世界地图,2024 年之前,它是属于 OpenAI 和 Anthropic 的闭源帝国。他们筑起 API 的高墙,收着过路费,定义着规则。

但墙塌了。

看这张使用量分布图,开源模型(OSS)的 token 使用量已经飙升至总量的三分之一,而且这个数字还在以惊人的速度攀升。

2024 年夏天是一个分水岭时刻。

在此之前,市场是死水一潭。OpenAI 的 GPT 系列和 Anthropic 的 Claude 分食大部分蛋糕,开源模型只是点缀。

在此之后,随着 Llama 3.3 70B、DeepSeek V3、Qwen 3 Coder 的密集发布,格局瞬间攻守易形。那些曾经高高在上的 API 调用量,开始遭遇断崖式的分流。

这里必须专门谈谈中国模型的崛起,因为这是过去一年最具侵略性的叙事。

数据显示:

  • 2024 年初: 中国开源模型在全球使用量中的占比仅为 1.2%,几乎可以忽略不计
  • 2025 年末: 这个数字飙升至 30%,在某些周份甚至触及峰值

从 1.2% 到 30%,这是一场自下而上的包围战。

DeepSeek 以总计 14.37 万亿 token 的使用量稳居开源榜首,虽然其霸主地位正在被稀释,但体量依然惊人。Qwen 紧随其后,以 5.59 万亿 token 占据第二,而且在编程领域的表现极为凶猛,可以直接与 Claude 掰手腕。

更关键的是节奏。中国模型的发布周期极其密集。DeepSeek 几乎每个季度都有重大更新,Qwen 的迭代速度甚至更快。这种「高频打法」让硅谷的巨头们疲于应对:自己刚发布一个新模型,对手已经连发三个变种。

戳破 AI 泡沫,三个被忽略的真相

现在,让我们戳破那些想当然的泡沫,看看 AI 在真实世界里到底被用来干什么。

真相一:「小模型已死,中型崛起」

市场正在用脚投票,抛弃那些「又快又傻」的极小模型。

数据显示,参数量小于 15B 的模型份额正在暴跌。用户发现,速度再快也没用,如果 AI 傻得像个复读机,那还不如不用。

中型模型(15B-70B 参数)成为新宠。 这个市场甚至是被 Qwen2.5 Coder 32B 在 2024 年 11 月一手创造出来的。此前,这个参数区间几乎是空白;此后,Mistral Small 3、GPT-OSS 20B 等模型迅速跟进,形成了一个新的战场。

既不便宜又不够强的模型正在失去市场。你要么做到极致的强,要么做到极致的性价比。

真相二:不是 programming,更多是 playing

虽然我们在新闻里总看到 AI 如何提高生产力,但在开源模型的使用中,超过 50% 的流量流向了「角色扮演」(Roleplay)

更直白一点说:

超过一半的开源 AI 算力,被用来做这些事:

  • 虚拟恋人对话(「陪我聊天,记住我的喜好」)
  • 角色扮演游戏(「你现在是个精灵公主……」)
  • 互动小说生成(「继续这个故事,加入更多细节」)
  • 成人向内容创作(报告中标记为「Adult」类别,占比 15.4%)

这是基于 Google Cloud Natural Language 分类 API 对数亿条真实 prompt 的分析结果。当 AI 检测到一个请求属于 /Adult 或 /Arts & Entertainment/Roleplaying Games 时,这条请求就会被打上标签。

这意味着,对于海量 C 端用户而言,AI 首先是一个「情感投射对象」,其次才是一个工具

同时流媒体和硅谷巨头出于品牌形象(Brand Safety)考量,刻意回避甚至打压这一需求。但这恰恰造就了巨大的「供需真空」。用户对情感交互、沉浸式剧情、甚至 NSFW(少儿不宜上班别看)内容的渴求,被压抑在主流视线之外,最终在开源社区报复性爆发。

编程是第二大使用场景,占比 15-20%。 没错,写代码这件被媒体吹上天的事,在真实世界里只排第二。

所以真相是什么?

别装了。人类最真实的两大刚需,一个是荷尔蒙,一个是代码。 前者让人类感到陪伴和刺激,后者让人类赚到钱。其他那些「知识问答」「文档总结」「教育辅导」,加起来都不到这两者的零头。

这也解释了为什么开源模型能快速崛起,因为开源模型通常审查较少,允许用户更自由地定制性格和剧情,非常适合情感细腻的互动。

真相三:娱乐至死的 DeepSeek 用户

如果我们单独拉出 DeepSeek 的数据,会发现一个更极端的分布:

– Roleplay + Casual Chat(闲聊):约 67%
– Programming:仅占小部分

在这份报告里,DeepSeek 几乎是一个 C 端娱乐工具,而非生产力工具。它的用户不是在写代码,而是在和 AI「谈恋爱」。

这和 Claude 形成了鲜明对比。

机会只有一次,赢家通吃

为什么有的模型昙花一现,有的却像胶水一样粘住用户?

报告提出了一个概念:Cinderella 「Glass Slipper」Effect(灰姑娘的水晶鞋效应)

定义: 当一个新模型发布时,如果它恰好完美解决了用户长期未被满足的某个痛点(就像水晶鞋完美契合灰姑娘的脚),这批用户就会成为该模型的「死忠粉」(基础留存用户),无论后续有多少新模型发布,他们都很难迁移。

值得注意的是,机会只有一次。如果在发布初期(Frontier window)没能通过技术突破锁定这批核心用户,后续再怎么努力,留存率都会极低。

为什么?

因为用户已经围绕这个模型建立了整套工作流:

– 开发者把 Claude 集成进了 CI/CD 流程
– 内容创作者把 DeepSeek 的角色设定保存了几十个版本
– 切换成本不仅是技术上的,更是认知和习惯上的

赢家画像:DeepSeek 的「回旋镖效应」

DeepSeek 的留存曲线非常诡异:

用户试用 → 流失(去试别的模型)→ 过了一段时间骂骂咧咧地又回来了

这就是所谓的「回旋镖效应」(Boomerang Effect)。数据显示,DeepSeek R1 的 2025 年 4 月用户组,在第 3 个月出现了明显的留存率上升。

为什么他们回来了?

因为「真香」。在试遍了市面上所有模型后,发现还是 DeepSeek 性价比最高:

  • 免费或极低价
  • 角色扮演能力足够好
  • 没有恼人的内容审查

输家画像:Llama 4 Maverick 们的悲剧

相比之下,像 Llama 4 Maverick 和 Gemini 2.0 Flash 这样的模型,它们的留存曲线让人心疼:

从第一周开始就一路向下,永不回头。

为什么?因为它们来得太晚,也没啥绝活。当它们发布时,用户已经找到了自己的「水晶鞋」,新模型只能沦为「备胎」。

在 AI 模型市场,迟到的代价是永久性的边缘化。

各个 AI 的人设

在这场战争中,没有谁能通吃,大家都在自己的 BGM 里痛苦或狂欢。让我们给每个玩家贴上最准确的标签:

Claude (Anthropic):直男工程师的「神」

人设:偏科的理工男,只懂代码,不懂风情

数据不会撒谎,Claude 长期吃掉了 编程(Programming)领域 60% 以上 的份额。虽然最近略有下滑,但在写代码这件事上,它依然是那座不可逾越的高墙。

用户画像:
– 超过 80% 的 Claude 流量都跟技术和代码有关
– 几乎没人拿它来闲聊或角色扮演

Claude 就像那个班里的学霸——只有在考试时你才会找他,平时根本不会一起玩。

OpenAI:从「唯一的神」到「平庸的旧王」

人设:曾经的霸主,如今的工具箱

OpenAI 的份额变化极具戏剧性:
– 2024 年初: 科学类查询占比超过 50%
– 2025 年末: 科学类占比跌至不足 15%

它正在从「唯一的神」变成一个「什么都能干但什么都不精」的工具箱。虽然 GPT-4o Mini 的留存率依然能打,但在垂直领域,它已经不再是唯一的选择。

核心问题在于: 被自己的成功困住了。ChatGPT 让它成为大众品牌,但也让它失去了专业领域的锋芒。

Google (Gemini):通才的焦虑

人设:什么都想要,什么都不精

谷歌像个茫然的通才。法律、科学、翻译、通识问答都有它的身影,但:
– 在编程领域份额仅 15%
– 在角色扮演领域几乎不存在

但在一个越来越垂直化的市场里,通才意味着平庸。

DeepSeek:野蛮人的胜利

人设:不按常理出牌的颠覆者,C 端娱乐之王

DeepSeek 用极致的性价比撕开了口子,证明了即使不依靠最强的逻辑推理,靠「好玩」+「免费」也能打下江山。

核心数据:
– 总使用量 14.37 万亿 token(开源第一)
– 67% 的流量是娱乐和角色扮演
– 回旋镖效应明显,用户试完别的还是会回来

它的成功证明了一件事:在消费级市场,「足够好」+「足够便宜」+「没有限制」 就能通吃。

xAI (Grok):马斯克的「乱拳」打法

人设:半路杀出的程咬金,靠免费抢市场

Grok 的数据非常有趣:
– 早期 80% 都是程序员在用(Grok Code Fast 针对编程优化)
– 免费推广后,突然涌入大量普通用户,用户画像瞬间变杂

免费能拉来流量,但流量 ≠ 忠诚度。一旦收费,这批用户会立刻流失。

最后,让我们用一张图看懂这个江湖。

当前大模型市场已形成清晰的四大阵营格局:

首先是 「效率巨头」 阵营,以 DeepSeek、Gemini Flash 为代表,核心优势在于 「便宜大碗」 的高性价比,专为跑量场景设计,尤其适用于无需复杂逻辑推理的重复性 「脏活累活」,成为追求效率与成本平衡的首选。

其次是 「高端专家」 阵营,Claude 3.7 与 GPT-4 是该领域的标杆,尽管定价偏高,但凭借顶尖的准确率和复杂任务处理能力,赢得了企业用户的青睐。

与此同时,「长尾」 阵营的生存空间正持续收缩,数量众多的小模型因缺乏差异化优势和技术壁垒,正逐渐被市场淘汰。

此外,以中国模型为核心的 「颠覆者」 阵营正快速崛起,凭借高频迭代的技术更新、高性价比的定价策略以及深度本土化的适配能力,市场份额仍在持续扩张,成为搅动行业格局的关键力量。

藏在 100 万亿个 Token 背后的趋势

作为观察者,APPSO 从这份报告中观察到的一些趋势变化,或许将定义 AI 未来的竞争格局:

1. 多模型生态是常态,单模型崇拜是病态
开发者会像搭积木一样,用 Claude 写代码,用 DeepSeek 润色文档,用 Llama 做本地部署。忠诚度?不存在的。

2. Agent(智能体)已经吃掉了一半江山
推理模型(Reasoning Models)的份额已经超过 50%。我们不再只想要 AI 给个答案,我们想要 AI 给个「思考过程」。多步推理、工具调用、长上下文是新的战场。

3. 留存 > 增长
除了早期用户留存率,其他的增长数据都是虚荣指标。

4. 垂直领域的「偏科」比全能更有价值
Claude 靠编程通吃,DeepSeek 靠娱乐称王。想要什么都做的模型,最后什么都做不好。

5. 价格不是唯一变量,但「好用」是永远的硬通货
数据显示,价格和使用量之间相关性极弱。真正的高端用户对价格不敏感,而低端用户只认那几个「性价比神机」。夹在中间的平庸模型,死得最快。

6. 中国模型的进攻才刚刚开始
从 1.2% 到 30% 只用了一年。站稳脚跟后,下一步是什么?是定义规则,还是被规则驯化?这将是 2026 年最值得关注的故事。

AI 的世界不是由发布会上的愿景定义的,而是由用户每天真实发送的那万亿个 Token 定义的。

那些 Token 里,有人在写代码改变世界,也有人在和虚拟女友说晚安,理性的代码与感性的对话并行不悖。

或许不得不承认,AI的发展,也是人类欲望的延伸。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


逼得奥特曼紧急掏出 GPT-5.2,Gemini 3 凭什么逆风翻盘 | Google 首席 AI 架构师首次揭秘

By: 姚桐
9 December 2025 at 09:44

「这确实是一个很棒的逆袭故事。」

11 月 19 日凌晨,Gemini 3 的发布彻底打破了平淡。上线当日,全球访问量便突破 5400 万次,创平台历史新高。

Google 这一次王者归来,震感甚至直接传导到了竞争对手的神经中枢。据 The Information 报道,面对 Google 步步紧逼的攻势,OpenAI CEO Sam Altman 本周一紧急在内部备忘录中宣布公司进入「红色警戒(code red)」状态,准备调动一切战略资源对 ChatGPT 的能力进行大幅升级。

据 The Verge 援引知情人士消息称,OpenAI 计划最早于下周初发布 GPT-5.2 模型, 这一时间表较原定的 12 月下旬计划大幅提前。

这不仅侧面印证了 Gemini 3 带来的压迫感,也让接下来的对话显得更加意味深长。

近日,DeepMind CTO、Google 新任首席 AI 架构师 Koray Kavukcuoglu 在 Logan Kilpatrick 的访谈节目中亮相,他说「我们曾是追赶者,但创新是唯一的出路。」

亮点速览:

1. Koray Kavukcuoglu 强调,Gemini 的优化重点集中在以下几个关键领域:

  • 指令遵循: 确保模型能准确理解并执行用户的具体需求,而非随意生成内容。
  • 国际化: 提升多语言支持能力,确保全球用户都能获得高质量体验。
  • 代理与工具能力:模型不仅能自然使用我们已有的工具和函数,还能自主编写工具。

2. Gemini 3 是一款「全 Google 团队协作的模型」。来自欧洲、亚洲等世界各地的团队都做出了贡献,不仅有 DeepMind 团队,还有 Google 各个部门的团队。

3. 随着技术进步,文本模型和图像模型的架构、理念正在不断融合。过去,两者的架构差异很大,但现在越来越趋同。这是技术自然演进的结果:大家都在探索更高效的方案,理念逐渐统一,最终形成了共同的发展路径。

视频链接:

以下为完整内容的转录和翻译。(顺序有改动)

基准测试只是第一步,用户反馈是 Step Two

Logan Kilpatrick: 大家好,欢迎回到 Release Notes。我是 Logan Kilpatrick,我在 DeepMind 团队。今天很荣幸邀请到 DeepMind 的 CTO、Google 的新任首席 AI 架构师——Koray。Koray,感谢你的到来,期待与你深入交流。

Koray Kavukcuoglu: 我也很期待。谢谢邀请!

Logan Kilpatrick: 当然,Gemini 3 已经发布。我们此前就预感这款模型会表现出色,基准测试结果也非常亮眼,但真正将它交到用户手中后,实际反响……

Koray Kavukcuoglu: 这才是最终的考验。基准测试只是第一步,之后我们也做了大量测试,包括让可信测试者参与预发布体验等。所以我们能感受到这是一款优秀的模型,能力出众,虽然不完美,但用户的反馈确实让我很满意。

大家似乎很喜欢这款模型,而且我们觉得有意思的部分,他们也同样感兴趣。所以目前来看挺好的,一切都很顺利。

Logan Kilpatrick: 没错,我们昨天还在聊,核心话题就是感慨 AI 的发展速度从未放缓。回想上次,也就是去年 I/O 大会上我们发布 Gemini 2.5 时,听着演示、Serge 谈论 AI 的未来,当时就觉得 2.5 已经是最先进的模型,在多个维度上都突破了前沿。而现在,Gemini 3.0 再次实现了突破。我很好奇,关于「这种进步能否持续」的讨论一直存在,你现在的看法是什么?

Koray Kavukcuoglu: 我对目前的进展和研究都充满信心。身处研究一线,你会发现各个领域都洋溢着创新的热情,从数据、预训练、微调,到每一个环节,都有大量新想法、新突破涌现。

归根结底,这一切都依赖于创新和创意。当我们的技术能切实影响现实世界、被人们广泛使用时,我们能获得更多反馈信号,接触面也会扩大,进而催生更多灵感。

而且我认为,未来的问题会更复杂、更多元,这会带来新的挑战,但这些挑战是有益的,也是推动我们迈向通用智能的动力。

有时候,如果你只看一两个基准测试,可能会觉得进步放缓了,但这很正常。基准测试是在某个技术难题凸显时设立的,随着技术发展,它不再是前沿的代名词,这时就需要制定新的基准。

这在机器学习领域很常见:基准测试与模型开发是相辅相成的,基准测试指导模型迭代,而只有接近当前前沿,才能明确下一个目标,进而制定新的基准。

Logan Kilpatrick: 我完全认同。比如早期的 HLE 基准测试,所有模型的正确率都只有 1% 到 2%,而现在 DeepMind 的最新模型已经能达到 40% 左右,这太惊人了。ArcGIS 基准测试最初也几乎没有模型能应对,现在正确率也超过了 40%。

不过有些静态基准测试确实经受住了时间的考验,比如 GPQA Diamond,虽然我们现在只能一点点提升 1% 左右的正确率,但它依然被广泛使用,可能已经接近饱和了。

Koray Kavukcuoglu: 这些基准测试中确实有很多难题,我们目前还无法完全攻克,但它们依然具有测试价值。以 GPQA 为例,我们没必要追求 90% 以上的极致正确率,现在已经接近目标了,所以尚未解决的问题数量自然在减少。

因此,寻找新前沿、制定新基准至关重要。基准测试是衡量进步的一种方式,但并非绝对对齐。理想情况下两者完全一致,但现实中永远无法完全契合。

对我来说,衡量进步最重要的标准是:我们的模型是否在现实世界中被广泛使用?科学家、学生、律师、工程师是否在用它解决问题?人们是否用它进行写作、收发邮件等?无论简单还是复杂,能在更多领域、更多场景中持续为用户创造更大价值,这才是真正的进步。而基准测试只是帮助我们量化这种进步的工具。

Logan Kilpatrick: 我有一个不算争议性的问题:Gemini 3 在众多基准测试中表现出色,同步登陆 Google 所有产品端和合作伙伴生态,用户反馈也非常积极。如果展望下一次 Google 重大模型发布,你觉得还有哪些方面是我们需要改进的?比如「我们希望能在 X、Y、Z 方面做得更好」,还是说我们应该先享受 Gemini 3 带来的成果?

Koray Kavukcuoglu: 我觉得两者可以兼顾。我们应该享受当下,毕竟发布日值得庆祝,团队也应该为自己的成就感到自豪。但与此同时,我们也清楚地看到,模型在各个领域都存在不足:写作能力并不完美,编码能力也有提升空间。

尤其是在智能体行动和编码方面,还有很大的进步空间,这也是最令人兴奋的增长领域。我们需要找出可以优化的方向,然后持续改进。我认为我们已经取得了长足的进步:对于 90% 到 95% 的编码相关用户(无论是软件工程师,还是想构建产品的创意人士)来说,Gemini 3 可能是目前最好用的工具,但确实还有一些场景需要进一步优化。

从「有创意」变得「能落地」

Logan Kilpatrick: 你如何看待「逐步优化」?比如从Gemini 2.5 到 3.0,或者其他版本迭代中,我们的优化重点是什么?如今基准测试数量繁多,我们如何选择优化方向,无论是针对整个 Gemini 系列,还是专门针对 Pro 版本?

Koray Kavukcuoglu: 我认为有几个关键领域至关重要。首先是指令遵循能力。模型需要准确理解用户需求并执行,而不是随意输出答案,这是我们一直重视的方向。其次是国际化。 Google 的业务遍布全球,我们希望让全世界的用户都能用上这款模型。

Logan Kilpatrick: 确实,我今天早上还和 Tulsi 聊过,她提到这款模型在一些我们过去表现不佳的语言上,表现得非常出色。

Koray Kavukcuoglu: 这真的很棒。所以我们必须持续聚焦这些领域,它们可能不是知识前沿,但对用户交互至关重要。正如我之前所说,我们需要从用户那里获取反馈信号。

再说到更技术化的领域,函数调用、工具调用、智能体行动和代码能力也极为关键。

函数调用和工具调用能极大提升模型的智能乘数效应:模型不仅能自然使用我们已有的工具和函数,还能自主编写工具。本质上,模型本身也是一种工具。

代码能力之所以重要,不仅因为我们团队中有很多工程师,更因为代码是数字世界的基础。无论是软件开发,还是将任何想法变为现实,代码都不可或缺。它能让模型与人们生活中的诸多场景深度融合。

我举个例子,比如「即时编码」(vibe coding),我很看好这个功能。很多人富有创造力,但缺乏将想法落地的能力,而即时编码能让他们从「有创意」变得「能落地」:只需写下想法,就能看到对应的应用程序呈现在眼前,而且大多数时候都能正常运行。

这种从创意到产品的闭环非常棒,它让更多人有机会成为创造者。

Logan Kilpatrick: 太赞了!这简直是 AI Studio 的完美宣传点,我们会把这段剪辑出来发布到网上。你刚才提到的一个重要话题是,在 Gemini 3 发布之际,我们同步推出了 Google Anti-gravity 平台。从模型角度来看,你认为这种产品架构对提升模型质量的重要性有多大?显然,这和工具调用、编码能力息息相关。

Koray Kavukcuoglu: 对我来说,这至关重要。平台本身确实令人兴奋,但从模型角度看,这是双向作用的。首先,模型能通过与终端用户(指软件工程师)直接集成,获取他们的反馈,进而明确模型需要改进的方向,这对我们来说至关重要。

就像 Gemini、AI Studio 一样,Anti-gravity 平台也是如此。这些产品能让我们与用户紧密相连,获取真实的反馈信号,这是巨大的财富。Anti-gravity 平台作为我们的关键发布合作伙伴,虽然加入时间不长,但在过去两三周的发布筹备中,它的反馈起到了决定性作用。

搜索 AI 模式(AI Mode)也是如此,我们从那里获得了大量反馈。基准测试能帮助我们推动科学、数学等领域的智能提升,但了解现实世界的使用场景同样重要,模型必须能解决实际问题。

Gemini 3,一款全 Google 团队协作的模型

Logan Kilpatrick: 在你担任新任首席 AI 架构师后,你的职责不仅是确保我们拥有优秀的模型,还要推动产品团队将模型落地,在 Google 的所有产品中打造出色的用户体验。 Gemini 3 在发布当天就同步登陆 Google 所有产品端,这对用户来说是巨大的惊喜,也希望未来能覆盖更多产品。从DeepMind 的角度来看,这种跨团队协作是否增加了额外的复杂性?毕竟一年半前,事情可能还简单得多。

Koray Kavukcuoglu: 但我们的目标是构建智能,对吧?很多人问我,身兼 CTO 和首席 AI 架构师两个职位,会不会有冲突,但对我来说,这两个角色本质上是一致的。

要构建智能,就必须通过产品与用户的联动来实现。我的核心目标是确保 Google 的所有产品都能用上最先进的技术。我们不是产品团队,而是技术开发者,我们负责研发模型和技术,当然,我们也会对产品有自己的看法,但最重要的是,以最佳方式提供技术支持,与产品团队合作,在 AI 时代打造最优秀的产品。

这是一个全新的时代,新技术正在重新定义用户期望、产品行为和信息传递方式。因此,我希望能在 Google 内部推动这种技术赋能,与所有产品团队合作。这不仅对产品和用户有益,对我们自身也至关重要。

只有贴近用户,才能感受到他们的需求,获取真实的反馈信号,这是推动模型迭代的核心动力。这就是我们构建通用人工智能(AGI)的方式:通过产品与用户共同成长。

Logan Kilpatrick: 我完全认同。这简直可以作为你的推特文案了!我也觉得,我们本质上是在与客户、合作伙伴共同构建通用人工智能(AGI)——这不是某个实验室的孤立研究,而是与全世界共同推进的联合事业。

Koray Kavukcuoglu: 我认为这也是一个「可信测试体系」——我们越来越强调工程思维。这种思维很重要,因为精心设计的系统才会更稳健、更安全。

我们在构建现实世界的产品时,借鉴了很多「可信测试」的理念,这体现在我们对安全、隐私的重视上:我们从一开始就将安全隐私作为核心原则,而不是事后补充。

无论是预训练、微调,还是数据筛选,团队中的每个人都需要考虑安全问题。我们当然有专门的安全团队和隐私团队,他们会提供相关技术支持,但我们更希望 Gemini 团队的每个人都深度参与其中,将安全隐私融入开发的每一个环节,这些团队本身也是微调团队的一部分。

因此,在模型迭代、发布候选版本时,我们不仅会参考 GPQA、HLE 等基准测试结果,还会严格审查安全隐私指标。这种工程思维至关重要。

Logan Kilpatrick: 我完全同意。这也很符合 Google 的企业文化,毕竟,发布 Gemini 模型是一项需要全球团队协作的庞大工程。

Koray Kavukcuoglu: 说到 Gemini 3,我觉得最值得一提的是,它是一款「全 Google 团队协作的模型」。

Logan Kilpatrick: 我们可以看看相关数据,这可能是史上参与人数最多的项目之一,就像 NASA 的阿波罗计划一样,这是一项全球性的庞大工程。

Koray Kavukcuoglu: 没错,是全球性的。

Logan Kilpatrick: Google 所有团队都参与其中,这太不可思议了。

Koray Kavukcuoglu: 来自欧洲、亚洲等世界各地的团队都做出了贡献,不仅有 DeepMind 团队,还有 Google 各个部门的团队。这是一项巨大的集体努力:我们与 AI 模式(AI Mode)、Gemini 应用程序同步发布,这不容易。

这些产品团队在模型开发阶段就与我们深度协作,这也是为什么我们能在发布当天实现全平台同步上线。所谓「全 Google 参与」,不仅指直接参与模型构建的团队,还包括所有各司其职、默默付出的团队。

Nano Banana,自发的名字,自然地融合

Logan Kilpatrick: 另一个我关心的话题是生成式媒体模型——虽然我们一直有关注,但过去并未作为重点。不过,随着 Veo 3、Veo 3.1、Nano Banana 模型的推出,我们在产品落地方面取得了很大成功。

我很好奇,在追求通用人工智能(AGI)的过程中,你如何看待生成式视频模型的作用?有时候我会觉得视频模型似乎与 AGI 无关,但仔细想想,它涉及对世界、物理规律的理解,所以两者应该是相互关联的。

Koray Kavukcuoglu: 10 到 15 年前,生成式模型主要集中在图像领域,因为当时我们能更好地观察图像生成的过程,而且理解世界、物理规律也是图像生成模型的核心目标。

Google 在生成式模型方面的探索可以追溯到 10 年前,甚至更早。我读博时,大家都在做生成式图像模型,比如像素卷积神经网络(Pixel CNNs)。后来我们意识到,文本领域的进步速度会更快。

但现在,图像模型的重要性再次凸显。DeepMind 长期以来在图像、视频、音频模型方面积累了深厚的技术实力,将这些技术与文本模型融合是顺理成章的。

我们一直强调多模态,包括输入多模态和输出多模态。随着技术进步,文本模型和图像模型的架构、理念正在不断融合。过去,两者的架构差异很大,但现在越来越趋同。这不是我们刻意推动的,而是技术自然演进的结果:大家都在探索更高效的方案,理念逐渐统一,最终形成了共同的发展路径。

这种融合的核心价值在于,文本模型拥有丰富的世界知识,而图像模型从另一个视角理解世界,将两者结合,能让模型更好地理解用户的意图,创造出更令人惊喜的成果。

Logan Kilpatrick: 我还有一个关于 Nano Banana 的问题:你觉得我们应该给所有模型起一些有趣的名字吗?这会不会有帮助?

Koray Kavukcuoglu: 不一定。我觉得名字应该自然产生,而不是刻意为之。比如 Gemini 3,我们并没有刻意设计名字。

Logan Kilpatrick: 如果 Gemini 3 不叫这个名字,你会起什么?会不会是很搞笑的名字?

Koray Kavukcuoglu: 我不知道,我不擅长起名字。其实我们的 Gemini 模型有内部代号,有些代号甚至是用 Gemini 模型自己生成的,但 Nano Banana 不是,它没有经过模型生成。

这个名字背后有个故事,我记得已经公开了。我觉得只要名字是自然、自发产生的,就很好。构建模型的团队能对名字产生情感共鸣,这很有意义。

「Nano Banana」这个名字之所以被沿用,是因为我们在测试时用了这个代号,大家都很喜欢,它是自发传播开来的。我觉得这种自然形成的名字很难通过流程刻意创造,有就用,没有的话,用标准名称也很好。

Logan Kilpatrick: 那我们来聊聊 Nano Banana Pro,这是基于 Gemini 3 Pro 打造的最先进的图像生成模型。我听说团队在完成 Nano Banana 后,发现将其升级为 Pro 版本后,在文本渲染、世界知识理解等更精细的场景中,性能有了很大提升。对于这方面的发展,你有什么看法?

Koray Kavukcuoglu: 这正是不同技术融合的体现。我们一直说,每个版本的 Gemini 都是一个模型家族,比如 Pro、Flash 等,不同尺寸的模型在速度、准确率、成本等方面各有取舍。图像生成模型也是如此,自然会形成不同定位的产品。

团队基于 Gemini 3.0 Pro 的架构,结合第一代模型的经验,通过扩大模型规模、优化调优方式,打造出了更强大的图像生成模型,这很合理。它的核心优势在于处理复杂场景:比如输入大量复杂文档,模型不仅能回答相关问题,还能生成对应的信息图表,而且效果很好。这就是输入多模态与输出多模态自然融合的体现,非常棒。

Logan Kilpatrick: 是啊,这简直像魔法一样!希望大家在这段视频发布时已经看到了相关示例,内部分享的一些案例真的太惊人了。

Koray Kavukcuoglu: 完全同意!当你看到模型能将海量文本、复杂概念,用一张清晰直观的图片呈现出来时,真的会惊叹「太厉害了」。这能直观地体现模型的能力。

Logan Kilpatrick: 而且其中还有很多细节值得品味。我还有一个相关问题:去年 12 月,Tulsi 曾承诺我们会推出统一的 Gemini 模型检查点(checkpoint)。你刚才描述的内容,是不是意味着我们现在已经非常接近这个目标了?

Koray Kavukcuoglu从历史上看,生成式模型的架构一直是统一的……

Logan Kilpatrick: 所以我猜这是我们的目标:让这些功能真正融入一个模型中,但现实中肯定有一些阻碍。你能从宏观层面解释一下吗?

Koray Kavukcuoglu: 正如我之前所说,技术和架构正在不断趋同,这种统一是必然趋势,但这需要验证。我们不能凭主观臆断,必须遵循科学方法:提出假设、进行测试、观察结果,有时成功,有时失败,但这就是技术进步的过程。

我们正在逐步接近目标,我相信在不久的将来,我们会看到更统一的模型,但这需要大量的创新。

这其实很难——模型的输出空间至关重要,因为它直接关系到学习信号的质量。目前,我们的学习信号主要来自代码和文本,这也是模型在这些领域表现出色的原因。

而图像生成则不同:它对质量要求极高,不仅需要像素级的精准度,还需要图像概念的连贯性,也就是每个像素都要符合整体画面的逻辑。要同时做好文本和图像生成,难度很大。但我认为这绝对是可行的,只是需要找到合适的模型创新方向。

Logan Kilpatrick: 太令人期待了!希望这也能让我们的工作更高效,比如拥有一个统一的模型检查点。

Koray Kavukcuoglu: 这很难说,但可能性很大。

一切都建立在学习之上

Logan Kilpatrick: 我再追问一个关于编码和工具使用的问题。回顾 Gemini 的发展历程:1.0 版本聚焦多模态,2.0 版本开始搭建基础设施。虽然我们的进步速度很快,但为什么在多模态领域,我们没能从一开始就在智能体工具使用方面达到最先进水平?毕竟 Gemini 1.0 在多模态领域一直保持领先。

Koray Kavukcuoglu: 我不认为这是刻意为之。说实话,我觉得这与模型开发环境是否贴近现实世界密切相关,越贴近现实,就越能理解用户的真实需求。

Gemini 的发展历程,也是我们从「纯研究」转向「工程思维」、与产品深度绑定的过程。 Google 在 AI 研究方面有着深厚的积淀,拥有众多优秀的研究人员,但 Gemini 的特别之处在于,它让我们从「写论文、做研究」转向了「通过产品和用户共同开发」。

我为我们的团队感到骄傲——包括我在内,大多数人四五年前还在专注于发表论文、开展 AI 研究,而现在,我们站在技术前沿,通过产品和用户共同推进技术迭代。

这种转变非常惊人:我们每 6 个月就推出一个新模型,每 1 到 1.5 个月就进行一次更新。我认为,我们正是在这个过程中逐步完善智能体工具使用能力的。

Logan Kilpatrick: 还有一个有趣的话题:现在 DeepMind 拥有众多世界顶尖的 AI 产品,比如即时编码(vibe coding)、AI Studio、Gemini、Anti-gravity 平台等, Google 旗下也有很多前沿模型,比如 Gemini 3、Nano Banana、Veo 等。10 年甚至 15 年前,世界完全不是这样的。

我很好奇,回顾你的个人历程,你昨天提到,你是 DeepMind 的第一位深度学习研究员,这一点我和其他人都感到很意外。从 13 年前(2012年)人们对深度学习并不看好,到现在这项技术支撑着众多产品、成为核心驱动力,你有什么感想?这一切是在意料之中,还是让你感到意外?

Koray Kavukcuoglu: 我觉得这是最理想的结果。就像所有读博的人一样,你会坚信自己所做的事情很重要,会产生重大影响——我当时就是这种心态。

所以当 Demi 和 Shane 联系我,告诉我 DeepMind 是一个专注于构建智能、以深度学习为核心的团队时,我非常兴奋。我和我的朋友 Carl Greger(我们都来自纽约大学 Jan 的实验室)同时加入了 DeepMind。在当时,专注于深度学习和 AI 的初创公司非常罕见,所以 DeepMind 的理念非常有远见,能在那里工作真的很令人激动。后来,我组建了深度学习团队,看着它不断发展壮大。

我对深度学习的态度一直是:以第一性原理为基础,坚持「基于学习」的思维方式,这也是 DeepMind 的核心理念:一切都建立在学习之上。

回顾这段旅程,从早期的 DQN、AlphaGo、AlphaZero、AlphaFold,到现在的 Gemini,真的很令人感慨。我们一直怀着积极的期望推进工作,但同时也觉得自己很幸运。

我们有幸生活在这个时代,很多人曾为 AI 或自己热爱的领域奋斗一生,希望能见证技术爆发,但这一切现在真的发生了。AI 的崛起不仅得益于机器学习和深度学习的进步,还离不开硬件、互联网和数据的发展,这些因素共同促成了今天的局面。所以,我既为自己选择了 AI 领域而自豪,也为能身处这个时代而感到幸运。这真的太令人兴奋了。

Logan Kilpatrick: 我最近看了《思维游戏》(The Thinking Game)的视频,了解了 AlphaFold 的相关故事。我没有亲历那个时代,只能通过资料和他人的讲述来了解。你经历了 DeepMind 的多个重要项目,你觉得现在的工作与过去相比有什么不同?比如你之前提到的,「我们已经掌握了将模型推向世界的方法」,这种感觉与之前的项目有什么相似或不同之处?

Koray Kavukcuoglu: 如何组织团队、培养文化,才能将复杂的科学技术问题转化为成功的成果?我认为我们从多个项目中积累了很多经验,从 DQN、AlphaGo、AlphaZero 到 AlphaFold,这些项目都产生了深远影响。我们学会了如何围绕特定目标和使命,组织大规模团队开展工作。

我记得 DeepMind 早期,我们曾有 25 人共同参与一个项目,共同发表一篇论文——当时很多人都质疑「25 人怎么可能合作完成一篇论文」,但我们确实做到了。在科研领域,这种大规模协作并不常见,但我们通过有效的组织实现了。这种经验和思维方式,随着时间的推移不断演进,变得越来越重要。

而在过去两三年里,我们又融入了工程思维——我们有了模型的主线开发方向,学会了在主线基础上进行探索。

我觉得「深度思维模型」(Deep Think)就是一个很好的例子:我们用它参加国际数学奥林匹克(IMO)、国际大学生程序设计竞赛(ICPC)等顶级赛事。这些竞赛的问题难度极大,很多人会想为赛事定制专门的模型,但我们选择将其作为优化现有模型的机会。

我们坚信技术的通用性,通过赛事探索新想法,并将这些想法融入现有模型,最终打造出能参加顶级赛事的模型,再将其开放给所有人使用。

Logan Kilpatrick: 这让我想到了一个对应:以前是 25 人共同发表一篇论文,现在 Gemini 3 的贡献者名单可能已经有 2500 人了——很多人可能会觉得「 2500 人怎么可能都参与其中」,但事实确实如此。这种大规模协作解决问题的方式,真的很令人惊叹。

Koray Kavukcuoglu: 这一点非常重要,也是 Google 的优势所在。 Google 拥有全栈技术能力,我们能从中受益:从数据中心、芯片、网络,到大规模模型的部署,每个环节都有专家坐镇。

回到工程思维的话题,这些环节是密不可分的。我们设计模型时,会考虑它将运行的硬件;而设计下一代硬件时,也会预判模型的发展方向。这种协同非常美妙,但要协调这么多环节,确实需要数千人的共同努力。我们应该认可这种协作的价值,这真的很了不起。

Logan Kilpatrick: 这绝非易事。再回到 DeepMind 的传统:我们一直采用多元科学方法,尝试解决各种有趣的问题。而现在,我们已经明确这项技术在多个领域都有效,只需持续扩大规模。当然,这也需要创新支撑。

你认为在当今时代,DeepMind 如何平衡「纯科学探索」和「扩大 Gemini 规模」?比如「Gemini 扩散模型」(Gemini Diffusion),就是这种决策的一个体现。

Koray Kavukcuoglu: 这是最关键的问题:找到两者的平衡至关重要。

现在很多人问我,Gemini 最大的风险是什么?我认真思考过,答案是「缺乏创新」。我绝不相信我们已经找到了「万能公式」,只需按部就班执行即可。

我们的目标是构建通用智能,这需要与用户、产品深度绑定,但这个目标本身依然极具挑战性,我们并没有现成的解决方案——创新才是实现目标的核心动力。

创新可以有不同的规模和方向:在 Gemini 项目内部,我们会探索新架构、新想法、新方法;而作为 Google DeepMind 整体,我们还会开展更多跨领域的探索,因为有些想法可能在 Gemini 项目内部过于受限,无法充分发展。

所以, Google DeepMind 和 Google 研究院需要共同探索各类想法,然后将这些想法融入 Gemini,因为 Gemini 不是一种架构,而是一个目标:构建通用智能,让 Google 的所有产品都能依托这个 AI 引擎运行。

无论最终采用哪种架构,我们都会持续演进,而创新将永远是核心驱动力。找到平衡,或以不同方式推进探索,这至关重要。

Logan Kilpatrick: 我有一个相关的问题:在 I/O 大会上,我曾和 Sergey 聊过,当你把这么多人聚集在一起,共同发布模型、推动创新时,你能感受到一种「人性的温度」——这一点我深有体会。我当时坐在你旁边,也感受到了你的热情。

这一点对我个人来说很有意义,因为它也反映了 DeepMind 的整体文化:既有深厚的科学底蕴,又有友善、包容的团队氛围。很多人可能没有意识到这种文化的重要性,以及它如何影响工作。作为团队的领导者,你如何看待这种文化的体现?

Koray Kavukcuoglu: 首先,谢谢你的夸奖,这让我有点不好意思。但我确实相信团队的力量,也坚信要信任他人、给予他人机会。团队协作至关重要,这一点我也是在 DeepMind 工作期间学到的。

我们从一个小团队起步,在成长过程中始终保持信任。我认为,营造一个「专注于解决有影响力的复杂技术和科学问题」的环境,非常重要,这也是我们现在正在做的。

Gemini 的核心是构建通用智能,这是一个极具挑战性的技术和科学问题,我们需要以谦逊的态度去面对,不断质疑自己、优化自己。希望团队也能感受到这一点,我真的为我们的团队感到骄傲,他们齐心协力、相互支持。

就像我刚才在茶水间和团队聊的那样:「这很辛苦,我们都很累,但这就是构建前沿技术的常态。我们没有完美的流程,但每个人都在全力以赴、相互支持。」 而让这一切变得有趣、有意义,让我们有勇气面对挑战的,很大程度上是「拥有一支优秀的团队」,大家共同为技术的潜力而奋斗。

我可以肯定地说,20 年后,我们现在使用的大语言模型(LLM)架构肯定会被淘汰。所以,持续探索新方向是正确的选择。 Google DeepMind、 Google 研究院,以及整个学术研究社区,都需要共同推进多个领域的探索。

我认为,不必纠结于「什么是对的、什么是错的」,真正重要的是技术在现实世界中的能力和表现。

Logan Kilpatrick: 最后一个问题:我个人在 Google 的第一年多时间里,感受到了一种「 Google 逆袭」的氛围。尽管 Google 拥有强大的基础设施优势,但在 AI 领域,我们似乎一直在追赶。比如在 AI Studio 的早期阶段,我们没有用户(后来增长到3万人),没有收入,Gemini 模型也处于早期阶段。

而现在,随着 Gemini 3 的发布,我最近收到了很多来自生态系统各方的反馈,人们似乎终于意识到「 Google 的AI时代已经到来」。你是否也有过这种「逆袭」的感受?你相信我们能走到今天吗?对于团队来说,这种角色的转变会带来什么影响?

Koray Kavukcuoglu: 在大语言模型(LLM)的潜力逐渐显现时,我坦诚地说,我既认为 DeepMind 是前沿 AI 实验室,也意识到我们作为研究人员,在某些领域的投入还不够,这对我来说是一个重要的教训:我们必须拓宽探索范围,创新至关重要,而不是局限于某一种架构。

我一直对团队坦诚相待:大约 2.5 年前,当我们开始认真对待大语言模型、启动 Gemini 项目时,我们在很多方面都与最先进水平有差距,我们有很多不懂的东西,虽然也有自己的优势,但确实处于追赶状态。

这种追赶持续了很长时间,而现在,我认为我们已经进入了领先梯队。我对我们的发展速度、团队动态和协作节奏感到非常满意。但我们必须正视过去的追赶历程。

在追赶过程中,我们既要学习他人的优点,也要坚持自己的创新,找到适合自己的解决方案:无论是技术、模型、流程,还是团队运作方式,这些都是我们独有的。

很多人说「 Google 太大了,做事效率低」,但我认为这可以转化为优势。我们有能力做一些独特的、大规模的事情,比如让 Gemini 同步登陆所有 Google 产品。我对我们现在的状态很满意,但这是通过持续学习和创新实现的。这确实是一个很棒的「逆袭」故事。

当然,总会有各种比较,但我们的目标始终是构建通用智能——我们希望以正确的方式实现这一目标,并为此倾注全部心力和创新。

Logan Kilpatrick: 我觉得未来六个月可能会和过去六个月、乃至之前的六个月一样令人振奋。再次感谢你抽出时间接受采访,非常愉快!希望在明年 I/O 大会前我们能再聊一次。

虽然感觉还有很久,但时间肯定会过得很快。我相信下周就会有关于 2026 年 I/O 大会的规划会议了。再次祝贺你和 DeepMind 团队,以及所有模型研究人员,成功推出 Gemini 3、Nano Banana Pro 等一系列产品!

Koray Kavukcuoglu: 谢谢!这次交流非常棒。感谢团队的付出,也感谢你的邀请!

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Before yesterdayMain stream

豆包手机助手让海外炸锅,歪果仁:这是第一款真正意义上的智能手机

By: 李超凡
8 December 2025 at 17:00

没想到在华为 Mate 80 系列、三星首款三折叠接连发布的一周里,最火的会是搭载豆包手机助手技术预览版的中兴 nubia M153。

发售即售罄就不说了,首批工程机在二手平台上普遍加价数百元转卖。相比官方 3499 元的定价,市场需求确实旺盛。

尽管豆包手机助手官方多次强调,目前的技术预览版并不面向普通的消费者。其定位更像是一个技术展示和生态探索的实验田,吸引开发者和技术发烧友参与体验。

但这根本挡不住大众体验的热情。除了点外卖发帖子这些基操,还有网友用它 10 分钟投了 30 份简历。

不过争议也随之而来,微信、淘宝等一众 App,开始通过「环境异常检测」等门槛把豆包手机助手拦在门外。

官方目前也调整部分 AI 操作手机的能力,官方表示希望「推动形成更清晰、可预期的规则」,避免一刀切否定用户合理使用 AI 的权利。

罗永浩则发文力挺,称这是谁都拦不住的技术革命,将来人们会记住这历史性的一天。荣耀表态欢迎,而魅族厂商则表示期待深入合作,打造更繁荣的生态。

而在国内出圈后,豆包手机助手甚至火到了海外,在 X 平台上,一堆老外都在疯狂讨论这事,甚至有人直接给它冠上了「另一个 DeepSeek 时刻」的称号。

海外网友:第一款真正意义上的智能手机

这评价,可不是随便给的。

雪牛资本(Snow Bull Capital)CEO 泰勒·奥根(Taylor Ogan)直接在平台上发了一长串体验报告,兴奋劲儿都快从屏幕里溢出来了。

他的评价很直白:这是全球第一款真正意义上的智能手机。

在豆包手机助手的协助下,AI 能完全控制手机——能「看懂」界面、自己选应用或下载 App、点击按钮、输入文字、拨打电话,甚至还能执行一整串多步骤任务链。

拿到手机后,他整了不少花活儿。比如随手拍张蔚来换电站问「这是啥」,AI 秒答。

拍个酒店门口,豆包不仅能识别出是哪家酒店,还能根据 Ogan 的需求预定房间,并查询宠物政策。

打辆无人驾驶出租车去公园,豆包能够规划好路线,用最近的上车点完成预约。Ogan 全程只需要用语言表达意图,其它都交给豆包。

用它下单两杯饮料后,外卖无人机很快就把订单飞送到附近储物柜。

走在街上, Ogan 拍了家新开的店,问它是不是本地的品牌,豆包也能查询工商和商标信息,然后果断回答:「是的」。

全程 AI 自己干活,人就负责躺平。

一顿丝滑操作下来,海外网友们大为震惊。

随便翻翻评论区,清一色的点赞声。有网友感慨:「此刻,操作系统变成了管家,手机变成了执行者,而不再只是工具。」有网友猝不及防地表白:「我本来就喜欢豆包,现在更爱它了。」

还有网友直接化身「哇塞哥」:

这是下一级别的东西。我在企业级见过类似的东西,Agent 控制你的 PC 并执行任务,但在手机上有这种技术真的很有意思。想象一下,当谷歌开始在 Pixel 设备和几乎所有 Android 手机上这样做时会发生什么……

Pixel 内心 belike,不对劲,怎么感觉有人在点我?

当然,质疑声也有。有人问:「但它真的智能吗?这模型能在设备上本地运行吗?」Taylor Ogan 的回应是:「它太智能了。你可以选择在设备端运行或云端运行。」

在 Reddit 平台上,讨论同样火热。

有网友表示:「只要这些功能是设备本地的(不使用云服务),并且使用是可选的,我就支持这个。」还有网友一针见血地点出了 AI 的真正意义:「这就是 AI 应该做的事情,为个人节省时间,而不是试图消除个人的价值。」

有一说一,在豆包手机助手发布之后,网友分享在 X 平台上的玩法,也是一个比一个「邪修」。有用豆包点咖啡,也有让豆包 AI 操作安卓机,模拟人手滑页面,主打一个全流程自动化。

还有网友用豆包手机助手下单买了个椰子,由于没够起送价,豆包贴心地帮博主选了一个 1.99 元的一包食用盐来凑单。

APPSO 在之前对豆包手机助手的体验提到,我最直观的感受是,手机变「薄」了,它把各个 App 的能力都「拍扁」了,交互更加自然、直观和高效。

问题来了,这是怎么做到的?这和「phone use」智能体又有什么不同?

在用了一周豆包手机助手后,APPSO 也扒出了背后更多的技术细节。

我扒出了豆包手机助手操作手机的秘密

在豆包手机助手发布之前,手机行业其实已经折腾 AI+ 好一阵子了。

手机硬件厂商试图通过系统层级的 AI 能力,打破应用间的壁垒,实现「一句话办事」。比如华为、小米、vivo、荣耀等主流手机厂商的 AI 智能体,都曾在不同场合展示过自动发送消息、执行多步骤任务等功能。

这些演示虽然在具体场景和实现方式上略有不同,但核心逻辑都是一致的:通过 AI 大模型理解用户意图,并结合模拟用户操作,从而实现跨应用的自动化任务执行。

听着挺玄乎,但实际体验嘛……咳咳,还是有不小的提升空间。

而豆包手机助手的下场,进一步掀起了全网的讨论。更重要的是,根据我之前的体验,豆包手机助手的确是真正意义上把 AI 操作手机这件事做到了可用级别,不局限于几个场景,而是能够流畅自然地通过图形界面操作完成长任务、复杂任务。

APPSO 在知名预印本平台 ArXiv 发现了一篇由字节团队发布的技术报告,里面的信息或许能解释其中的关键原理。

附上地址:https://arxiv.org/abs/2509.02544

豆包手机助手的图形界面操作能力,来自字节跳动 Seed 团队开发的 UI-TARS 模型。它把屏幕视觉理解、逻辑推理、界面元素定位和操作整合在一起,其开源版本是目前最受欢迎的开源多模态智能体模型。

根据 UI-TARS 2.0 技术报告,这个模型的厉害之处在于,它不是简单的模块化拼凑,而是采用了端到端的学习方式,将感知、推理、行动和记忆整合在一起。

数据不会骗人,在 GUI 基准测试中,UI-TARS-2 的成绩相当能打:

  • Online-Mind2Web 得分 88.2,
  • OSWorld 得分 47.5,
  • WindowsAgentArena 得分 50.6,
  • AndroidWorld 得分 73.3

这些成绩不仅明显优于前一代模型,还在多个场景中超越了 Claude 和 OpenAI 等强劲基线模型。其中 AndroidWorld 的 73.3 分更是比 OpenAI CUA-o3 模型高出 20 多分,展现出强大的竞争力。

在游戏环境中,UI-TARS-2 在 15 款游戏组成的测试集中取得了平均标准化得分 59.8,约为人类水平的 60%。相比 OpenAI CUA 和 Claude Computer Use,UI-TARS-2 的表现分别提升了 2.4 倍和 2.8 倍。

这是什么概念?就是 AI 打游戏已经快接近普通人类玩家水平了。

在 LMGame-Bench 中,它依然能与当前最前沿的闭源模型掰手腕,进一步证明其在长时序游戏推理中的稳健性。

更厉害的是,UI-TARS-2 不仅能处理 GUI 任务,还能通过 GUI-SDK 扩展能力,与系统级资源(如终端和外部工具)集成。在信息检索任务(BrowseComp 29.6 分)、软件工程任务(Terminal Bench 45.3 分、SWE-Bench Verified 68.7 分)上都有竞争力。

一个模型走天下,这就是通用性的体现。

值得一提的是,通过接近豆包团队的人士透露,豆包手机助手用的 UI-TARS 是私有模型版本,性能比开源版更强,还针对手机场景做了专门优化。这或许也解释了为啥豆包手机助手实际体验这么丝滑。

豆包手机助手,确实有点技能在身上的。

写在最后:科技产品的「异类」可以多一些

作为一个长期关注科技产品的编辑,今年令我十分感慨,在这个恨不得把「万物皆塞入手机」的行业,却出现两个异类,分别在设计与交互的维度上,走向了极致

一个是 iPhone Air,当 Pro 系列不可避免地走向堆料的终局,这种对轻薄的偏执,在参数党眼中或许别无他用,甚至让人一时分不清这是倒退还是进化,直到你把它握在手里,原来,轻盈本身就是一种功能。

而豆包手机助手则站到了交互界面的另一个极端,它不要你去找服务,而是让服务来找你。甚至要掀了 GUI (图形用户界面)的桌子,有一天那块屏幕可能都不是必需的。

一个是硬件,一个是软件,但它们殊途同归。iPhone Air 削减了物理上的累赘,豆包手机助手剥离了交互上的繁琐。

你会发现,当 AI 公司参与到硬件的设计中,他们对交互设计的思路都和传统硬件厂商有所不同。

OpenAI 也正在和前苹果传奇设计师 Jony Ive 打造 AI 硬件,Sam Altman 就曾透露这块设备希望重新定义交互:不需要一堆 app,而是 AI 作为主界面与操作层。

当然,历史告诉我们这类新技术落地必然面临阵痛:适配、隐私、生态……还有各方利益的博弈。先进技术和广泛应用的「双向奔赴」尚需时日,但也是大势所趋。

OpenAI 联创 Andrej Karpathy 前段时间也表达了自己对交互未来的预判:

人机深度协作的时代,那些用户界面(UI)极其复杂(有大量滑块、开关、菜单)、不支持脚本、并且建立在不透明的、自定义的二进制格式上的产品,注定是死路一条(ngmi)。

未来,AI 在理解和操作人类图形界面(UI/UX)方面会越来越强(比如像 Operator 这样的前沿项目),但我怀疑,那些只想坐等这一未来实现,而不主动与当前技术发展水平「双向奔赴」、做出改变的产品,它们的下场不会太好。

敢于吃螃蟹这件事本身,就已经算是值得瑞思拜了,我们也希望看到更多「异类」出现在科技行业。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


突发|苹果高管地震还在持续:芯片负责人考虑离职

By: 杜晨
7 December 2025 at 09:42

苹果的人事变动,仍在持续。

过去一周,苹果接连失去了人工智能主管 John Giannandrea(退休)、设计负责人 Alan Dye(跳槽 Meta)、法务负责人 Katherine Adams(退休)和政府事务主管 Lisa Jackson(退休)。

此前,这四位高管全都直接向 CEO 蒂姆·库克汇报——这种级别的人事震荡在苹果历史上极为罕见。

更糟糕的是,据彭博社援引知情人士透露:负责硬件技术的高级副总裁 Johny Srouji 最近告诉库克,他正在「认真考虑」在不久的将来离职。

Srouji 是苹果最受尊敬的高管之一,也是苹果自研芯片战略的操盘手。他已经向同事透露,如果最终离开,绝对不会是「退休」,而是打算加入另一家公司。

这可能是库克任期内最动荡的时刻之一。

一场始料未及的「高管地震」

苹果的离职名单正在变得越来越长。

AI 主管 John Giannandrea 的「退休」,跟苹果在生成式 AI 领域的一连串失误有关。不仅底层的 Apple Intelligence 平台架构饱受延期和功能不佳的困扰,上层产品 Siri 的所谓「2.0 版」大规模改进计划,也落后了大约一年半。目前苹果计划与谷歌的合作来填补能力空白。

苹果在今年三月就开始让 Giannandrea 逐步退出职位,并且允许他留任到明年春天——苹果是一家很给面子的公司,给高管面子,更是给自己挽尊:过早分手会被视为公开承认问题的存在。

▲ John Giannandrea

设计老将 Alan Dye 的离职则更具戏剧性。他将前往 Meta 的 Reality Labs 部门,投奔苹果最激烈的竞争对手之一。在苹果内部,Dye 此前「液态玻璃」界面设计语言的主要坚持者,离职之前还在负责一款桌面机器人产品的界面设计。

据报道,Dye 的出走,部分因为希望将 AI 更深入地整合到产品中,以及对苹果在这一领域进展缓慢的失望。

法务方面,苹果从 Meta 挖来了 Jennifer Newstead 作为新任法律总顾问,接替将要退休的 Katherine Adams。Newstead 曾帮助 Meta 赢得与美国联邦贸易委员会的反垄断诉讼,这段经历对于苹果可能很有价值。Adams 将于 2026 年底退休。

环境、政策和社会事务副总裁 Lisa Jackson 也宣布退休。她曾在奥巴马政府担任官员。

早前,库克长期以来的二把手 Jeff Williams 也在担任 COO 十年之后正式退休了,将棒子交给了手下 Sabih Khan。

另一位资深苹果高管、首席财务官 Luca Maestri,在 2025 年初将大部分职权交给了同事,并将在不久后退休。

芯片掌舵者的去留困局

Srouji 的潜在离职,可能是最令人担忧的。

作为苹果自研芯片战略的核心人物,Srouji 是 M 系列和 A 系列芯片的最大功臣之一,让苹果在性能和能效方面获得了对竞争对手的巨大优势。

特别是他在 M 芯片上的工作,挽救了后 X86 时代的苹果电脑颓势。Mac 电脑成功转向自研芯片后,苹果在 PC 行业的市场份额大幅增长。

据彭博社报道,库克以及整个苹果高管层都在疯狂挽留 Srouji,包括提供更加丰厚的薪酬待遇,以及许诺在未来给他更多职权。

公司内部一些高管提出的方案是,将 Srouji 提升为首席技术官,负责硬件工程和芯片技术的大部分工作——这将使他成为苹果第二有权势的高管。

这是个非常「反传统」的做法:要知道,苹果公司历史上从未设立过正式的 CTO 职位,因为其组织结构是基于职能专长 (funciontal expertise) 构建,而非产品线或技术线。乔布斯确立了这个「规矩」,并且库克也一直在维护。

也正因此,设立 CTO 的做法可能会存在巨大的障碍。最大的障碍,就在于需要先把硬件工程负责人 John Ternus 确立为 CEO——然后才能把 Ternus 手里的硬件工程汇报线转到 Srouji 那里。

▲Johny Srouji

问题是,苹果可能还没准备好迈出这一步。根据此前爆料,库克至少要在 CEO 任上到 2026 甚至 2027 年——一种可能性是,库克或许会安排在 iPhone 20 周年,也即 2027 年,正式交棒 CEO。

此外,据知情人士透露,即便获得了 CTO 的职位,Srouji 仍然希望不用向 CEO 汇报,而是可以有极大的自主权——这对层级森严,汇报体系多年以来一成不变的苹果来说,同样是个麻烦。

如果 Srouji 最终离开,苹果很可能会从他的两位得力副手中选择接替者:Zongjian Chen 或 Sribalan Santhanam。

AI 人才大逃亡

在高管层动荡的同时,苹果的工程师团队也在经历人才流失,特别是在 AI 领域。 Meta、OpenAI 和各种初创公司正在疯狂挖苹果软件/硬件工程的墙角。这让苹果试图追上 AI 浪潮变得难上加难。

曾负责 Siri 的 Robby Walker 在去年十月离开公司;他的继任者 Ke Yang 在这个职位上只待了几周就离职,加入了 Meta 新成立的超级智能实验室。

AI 模型主管 Ruoming Pang 的离职更是引发了连锁反应,他和 Tom Gunter、Frank Chu 等同事一起去了 Meta——当时,Meta 号称开出上亿美元的年包从苹果、OpenAI 等公司挖人。当时,苹果的 AI 组织士气严重低落,几周内就跳槽了十几位优秀的 AI 研究员。 苹果越来越多地使用外部 AI 技术,比如谷歌的 Gemini,也让从事大语言模型工作的员工感到担忧。

苹果的 AI 机器人软件团队,前不久也经历了大规模离职,包括其负责人 Jian Zhang,他同样加入了 Meta。

代号为 J595 的桌面设备的硬件团队也在大量流失人才,其中一些人前往了 OpenAI。除了负责「液态玻璃」之外,Alan Dye 也是监督该产品软件设计的关键人物。

Alan Dye 手下的用户界面部门同样遭受重创,2023 年至今已有多名团队成员离职。知名设计师、前《连线》杂志创意负责人 Billy Sorrentino 也去了 Meta。

▲Alan Dye 和 Billy Sorrentino

设计团队的代际断层

苹果的硬件设计团队,是这家公司的绝对灵魂——然而在过去五年里,这个灵魂几乎被掏空了。

许多员工跟随前设计主管 Jony Ive 去了他的工作室 LoveFrom,或者去了其他公司。不仅如此,Ive 跟 Sam Altman 的关系密切,帮助其从苹果疯狂挖人,几乎成为 OpenAI 的 AI 硬件「首席招募官」。

OpenAI 成为了苹果人才流失的主要受益者。目前已经聘请了数十名苹果工程师,背景涵盖 iPhone、Mac、相机技术、芯片设计、音频、手表和 Vision Pro 头显等广泛领域。

据彭博社报道,OpenAI 从苹果挖走了 Vision Pro 光学系统的负责人、苹果显示技术高级总监 Cheng Chen。

今年九月,在秋季新品发布会上声优出演介绍 iPhone Air 的设计师 Abidur Chowdhury,也离开苹果加入了一家 AI 初创公司。作为苹果的后起之秀,Chowdhury 在内部被认为是接近于 Tony Fadell 的优秀工程师,他的离职让同事们感到意外。

甚至连苹果大学的院长也离开了:这个内部项目旨在保护公司的文化和实践,其院长 Richard Locke 在今年夏天离职,加入麻省理工学院担任商学院院长。

权力格局的重新洗牌

人事变动正在重塑苹果的权力结构,更多权力现在流向了四位高管:

硬件工程 John Ternus、服务业务 Eddy Cue、软件工程(包括 AI) Craig Federighi 和新任首席运营官 Sabih Khan。

据彭博社报道,Ternus 是苹果「候任 CEO」的最热门人选,他将在明年苹果 50 周年庆典中担任主角,进一步提升他的知名度。

他还被赋予了更多机器人和智能眼镜方面的责任——这两个领域被视为未来的增长动力。

长期担任用户界面设计师的 Steve Lemay 接替了 Dye 的职位,担任用户界面的首席设计师。他将直接汇报给库克。

苹果内部对 Lemay 接任 Dye 的旧职位充满热情。他是一位深受喜爱的设计师,参与了初代 iPhone 的界面设计,甚至出现在初代 iPhone 的 master 专利上。

▲Steve Lemay

苹果内部的高管地震,可能还没有结束:零售和人力资源负责人 Deirdre O’Brien 已经在苹果工作了 35 年以上,而营销负责人 Greg Joswiak 在公司度过了四十年。

据彭博社报道,苹果已经提拔了这两位高管手下的关键副手,为他们最终的退休做准备。

库克时代的黄昏?

这场高管地震,更是引发了关于库克本人未来计划的猜测。

正如前文提到,库克不会很快「退休」,至少也要等到明年甚至后年,并且在交棒 CEO 期间和之后继续留在公司。不过,据彭博社报道,熟悉库克日程的人士透露,库克的生活习惯正在悄然改变:

他不再像以前那样经常在凌晨 4 点起床去健身房。在过去一年左右与他相处过的人注意到,他的手有轻微的颤抖,尽管这可能并非严重健康问题的迹象。

多年来一直在硅谷租房而不买房的库克,近年来在棕榈泉附近购买了一套豪宅作为「冬宫」,也正好跟老同事 Eddy Cue 成了邻居。

当库克最终卸任时,他很可能会转任董事长职位。

苹果从未选择外部人士担任 CEO(卖糖水的 John Sculley 不算)。但是,一些优秀的外部候选人也被推荐了过来——比如 Tony Fadell,「iPod 之父」,一位早已不在苹果的苹果人。

▲Tony Fadell

低落的士气、外部更具吸引力的薪酬方案,以及苹果在 AI 领域的相对落后,都在导致人才外流。目前,苹果人力资源部门加大了招聘和留住人才的力度,这在今年已经成为高管最关心的事务。

库克坚称,苹果正在开发其历史上最具创新性的产品阵容——预计将包括可折叠 iPhone 和 iPad、智能眼镜和机器人——但事实上,苹果已经十年没有推出极其成功的新产品类别了。

对于一家长期以稳定著称的公司来说,2025 年以来苹果的人事动荡,用不寻常来形容都欠点意思。这到底是短期的阵痛,还是更深层次问题的征兆?随着时间推移,答案将越来越清晰。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


字节跳动AI手机走红 接连遭风控后调整AI操作能力

5 December 2025 at 11:45
中国科技巨头字节跳动推出的“豆包AI(人工智能)助手”手机引发科技圈轰动。 (豆包官网)

中国科技巨头字节跳动推出的“豆包AI(人工智能)助手”手机引发科技圈轰动,接连遭到竞争度对手腾讯微信和多个银行软件风控后,宣布调整AI操作能力,刷分、金融类应用、部分游戏等场景将限制使用。

综合澎湃新闻和科创板日报报道,豆包手机助手预览版本周上线以来,引起中国社会广泛关注。在官方宣传视频中,豆包手机助手预览版展示了自动帮用户点外卖、订机票、比价购物,甚至回复微信消息、操作小程序游戏等能力。

不过最近两天以来,多名用户在社媒平台上发文称,使用豆包AI手机助手操作微信时,会触发微信“登录环境异常”提示,导致微信强制退出且无法正常登录。

中国农业银行、建设银行等银行的手机客户端,也先后出现针对AI的风控措施。多名用户反馈,在使用豆包AI手机助手时,遭到了农行和建行的强弹窗提醒,要求关闭AI手机助手后再进行使用。

报道称,这些事件成为AI智能体登录手机操作系统后的首场大规模冲突,也直接暴露AI手机助手在现有手机系统生态内的底层矛盾。

“豆包手机助手”官方微信公众号星期五(12月5日)发文称,团队将在接下来的一段时间,在部分场景对AI操作手机的能力做一些规范化调整,包括但不限于对刷分、刷激励的使用场景进行能力限制,进一步限制金融类应用的使用,限制部分游戏类使用场景。

豆包团队称,正在积极寻求与各应用厂商的深度沟通,希望推动形成更加清晰、可预期的规则,避免用一刀切的方式否定用户合理使用AI的权利。

中国科技公司360创始人、董事长周鸿祎星期四(12月4日)发视频说,豆包手机助手不需要用户点开手机应用就能帮用户完成所有操作,会直接冲垮互联网大厂的护城河。“比如淘宝、美团靠用户停留和广告赚钱,现在AI帮用户直接完成任务,不用看广告,不用刷首页,App核心KPI彻底作废,传统流量逻辑面临崩塌。”

周鸿祎认为,互联网巨头们不会坐视不管,接下来可能会看到一场技术攻防战。“要不了多久,可能会看到美团这些大厂抱团推出联合防御协议,一起限制AI跨APP调用。手机厂商更不会让出桌面控制权......可以随时限制豆包运行,降低调用速度,甚至推出自家助手正面抗衡。明年新手机可能直接预装厂商系助手,把豆包挤到硬商店角落。”

「欧洲版 DeepSeek」发布新模型,盯着中国 AI 打

By: 姚桐
4 December 2025 at 17:55

被称为「欧洲版 DeepSeek」的 Mistral AI 在被 OpenAI、Google 和中国开源模型 DeepSeek、Qwen 夹击大半年后,终于坐不住了,正式发布了新一代 Mistral 3 系列模型。

Mistral AI 是一家总部位于法国的大模型公司。据报道,今年 9 月,英伟达第三次出手投资这家初创企业。经此,Mistral 的估值达到约 135 亿美元,成为欧洲 AI 领域最受瞩目的独角兽之一。

这一次,Mistral 居然只盯着中国模型打

Mistral 3 这次带来了旗舰模型 Mistral Large 3,以及三款高性价比的小模型 Ministral (3B、8B、14B)。

其中 Mistral Large 3 是绝对的主角,总参数量为 675B,其中活跃参数为 41B,这是自 2023 年底至 2024 年初的 Mixtral 8x7B 和 8x22B 以来,Mistral 首个开放权重的混合专家模型。

但最让我感到「不对劲」的是官方的对比策略。

在官方的跑分图里,Mistral 竟然完全无视了 GPT-5.1 或 Gemini 3,而是直接把枪口对准了中国的 DeepSeek-V3.1 和 Kimi-K2。

Mistral 的逻辑很直接:我的参数量只有 Kimi 的一半左右,但我的性能跟你五五开,甚至更强。

官方晒出的成绩单如下:

  • 赢面: 在 MMMLU 和 AMC 上,Mistral Large 3 分别拿到了 85.5 和 52.0 的高分,略微领先 DeepSeek-V3.1。
  • 输面: 在程序员最关心的 LiveCodeBench 和 SimpleQA 上,Mistral Large 3 还是输给了 Kimi-K2。


比 DeepSeek 笨,还贵 3 倍?

虽然 Mistral 试图证明自己是「效率之王」,但在 X 上,科技博主直接泼了一盆冷水,甚至用了「Mistral 正在缓慢死亡 (slow death)」这样严重的词。

他的评价简单粗暴,列出了 Mistral 新模型的三大罪状:

1. 更笨: 脑子不如 DeepSeek 好使。
2. 更贵: 价格却是 DeepSeek 的 3 倍。
3. 更慢: 推理速度甚至比 GPT-5 还慢。

这确实戳到了痛点。在 Artificial Analysis 的最新综合 AI 指数榜单上,Mistral Large 3 的得分只有 38 分。

看看排在前面的是谁?Gemini 3 Pro(73分)、Claude Opus 4.5(70分)、GPT-5.1(70分)。Mistral 距离第一梯队的差距,已经不是「追赶」,而是断层了。

在 LMArena 排行榜中,它在开源非推理模型中排第二,总榜第六。成绩尚可,但绝对称不上「屠榜」。

有测试者发现 Mistral Large 3 各个方面都表现不佳:

  • 该模型难以正确执行工具调用,常会输出格式错误或无效的工具调用指令。
  • 在基于图像的基准测试中表现平平。

真正值得冲的,其实是小模型

Ministral 3 是所有开源模型中性价比最高的产品。每种参数规模均提供基础版、指令版和推理版,且均具备图像理解能力,全部基于 Apache 2.0 许可证开源。

这意味着什么?你可以免费商用,随便魔改。

  • 全能: 所有尺寸都支持图像理解,不再是「瞎子」 。
  • 能打: 14B 的推理版在 AIME’25 测试中准确率达到了 85%。

Mistral 3 确实进步了,就像网友说的那样:欧洲仍有一家前沿模型制造商能基本跟上中国开源模型的步伐,尽管 Mistral 尚未推出推理器,其实际性能仍落后于时代。

但在 DeepSeek 把大模型价格打下来的今天,仅仅做到「性能不错」已经不够了。用户要的是极致的聪明,或者极致的便宜。

目前的 Mistral ,似乎卡在了一个尴尬的中间位置。能不能成为「欧洲之光」,可能真得看后续的迭代了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


先是 iPhone Air,现在液态玻璃的设计者也离职了

By: 莫崇宇
4 December 2025 at 10:05

就在刚刚,据彭博社报道,苹果设计总监 Alan Dye 宣布离职,目的地是今年开启疯狂挖人模式的 Meta。

今年 iOS 时隔 12 年最大的 UI 更新——液态玻璃设计语言,正是由 Alan Dye 操刀设计。

作为苹果负责人机交互设计的副总裁,Alan Dye 从 2015 年起就掌管苹果整个用户界面设计,在设计部门的地位仅次于自己的前任领导 Jony lve。

这是短短一个月内,苹果设计部门遭遇的第二次重大地震。

就在前几天,iPhone Air 的设计师,产品宣传视频主讲人 Abidur Chowdhury,也被曝从苹果离职,加入了一家不具名的 AI 创业公司。

公开资料显示,2006 年加入苹果后,他几乎参与了所有你能想到的重磅产品设计:iPhone、iPad、Mac、Apple Watch、Apple TV,以及最新的 Vision Pro。

Alan Dye 带领的人机交互设计团队,负责研究用户与产品互动的问题。这项工作横跨了硬件到软件,视觉听觉到触觉:从早年 iOS 挪动图标时的抖动动画,到 Vision Pro 的手眼交互,从 Apple Watch 数码表冠带来的细腻齿轮震感,到双指互点两下的隔空手势,都出自其团队之手。

爱范儿(APPSO)也曾多次专访 Alan Dye,欢迎回看此前更多文章 🔗

对话苹果「液态玻璃」设计缔造者:不说 20 周年透明 iPhone,但暗示已足够明显

专访苹果高级副总裁 Craig 和副总裁 Alan:iPhone 诞生 16 年,交互设计走向何方?

他比较经典的作品,要数 2017 年第一款取消 Home 键的 iPhone X。而在今年 6 月的 WWDC 上,Dye 还亲自上台发布了苹果最新的 Liquid Glass(液态玻璃) 设计语言。

这套设计堪称 iOS 7 以来最大的视觉变革,半透明按钮、流畅动画、实时自适应的「数字玻璃」,整个系统焕然一新。Dye 当时是这么说的:

「我们的新设计模糊了硬件和软件之间的界限,带来了前所未有的愉悦体验。」而在今年 WWDC 后接受爱范儿(APPSO)的媒体采访中,Dye 还特别提到,液态玻璃「它的可变性、适应性,成为我们探索未来体验的基础。虽然我们今天还不会谈这些未来,但我们已经很期待了。」

当被问及液态玻璃是否在为某种未来硬件形态做准备时,苹果软件工程高级副总裁 Craig Federighi 回应:「哈哈,我们不会讨论未来的硬件。但正如 Alan 说的,这个设计确实是未来体验的良好基础,但今天我们不打算提前剧透。」

话音未落半年,Alan 就要走了……据知情人士透露,Dye 将在 Meta 组建一个全新的设计工作室,全面负责硬件、软件以及 AI 整合的设计工作。

注意,是「全新」工作室,不是并入现有团队。

而且 Dye 还不是一个人走的,他还带走了苹果设计部门的高级总监 Billy Sorrentino。后者从 2016 年起就在苹果,主要负责 VisionOS 的用户界面设计。两位核心设计师组团出走,Meta 这波挖人可以说是精准打击了。

至于为啥 Meta 这么想要 Dye?

原因很简单,扎克伯格押注未来是可穿戴设备的天下。除了元宇宙,他之前就公开表示过,相信可穿戴设备会取代智能手机,这是 Meta 对「超级智能」战略的核心。

更重要的是,他们在 AI 方面投入巨大,今年还从 OpenAI、Google DeepMind 等网罗来一大批顶尖研究员。据悉,扎克伯格为了吸引顶级 AI 人才,开出了年薪高达数亿美元的薪酬包。

硬件方面,除今年 9 月,Meta 刚发布了首款搭载显示屏的智能眼镜,可以在镜片上叠加消息、视频通话或 AI 助手回复。再加上现有的 Ray-Ban 智能眼镜和 Quest VR 头显,Meta 的硬件野心昭然若揭。

但问题是,对比讲究精雕细琢、追求极致的苹果,Meta 的产品能用,但总是差点意思,所以这次挖来 Dye,扎克伯格显然是想弥补这块短板。

苹果设计团队的「黄金时代」已经结束了?

Dye 的离职,只是苹果高层动荡的冰山一角。

最近几周,苹果接连失去了多位重量级高管。长期担任首席运营官的 Jeff Williams 上个月退休,AI 部门负责人 John Giannandrea 本周宣布辞职,将于明年春季正式退休。前硬件主管 Dan Riccio 去年秋天也退休了,首席财务官 Luca Maestri 同样已经离职。

更让人担心的是,据彭博社报道,苹果的人事动荡还将持续。

包括 CEO 蒂姆·库克在内的多位高层管理人员都已接近传统退休年龄。苹果芯片负责人 Johny Srouji 和负责环保事务的 Lisa Jackson 目前也在考虑未来的职业方向。

库克在声明中强调:「设计是苹果的核心之一。如今,我们拥有一支非凡的设计团队,正致力于公司历史上最具创新性的产品阵容。」但说实话啊,这话听起来更像是在给投资者吃定心丸。

自从 2019 年 Jony Ive 离开后,苹果的设计团队就一直处于动荡之中。大量元老级设计师要么退休,要么跳槽到 Jony Ive 创办的 LoveFrom 设计公司,或者去了 OpenAI 等等。现在连 Dye 也走了,苹果设计团队的「黄金时代」可能真的结束了。

那么 Dye 的接班人靠谱吗?

苹果宣布,由一位在公司服务近三十年的资深设计师 Stephen Lemay 接替 Dye 的职位。

库克表示:「Steve Lemay 自 1999 年以来在苹果每一次重大界面设计中都发挥了关键作用。他始终坚持极高的卓越标准,体现了苹果协作与创意的企业文化。」

值得一提的是,除了 Meta,OpenAI 也在疯狂挖苹果的墙角。据外媒报道,OpenAI 在过去一个月招募了超过 40 名硬件方面的员工,其中大部分来自苹果的硬件团队。涵盖了摄像头、Mac 硬件、音频、芯片、制造、测试等各个方面。

据悉,OpenAI 想要的是「了解苹果内部如何打造产品的人员」,包括 iPhone 设计、制造流程、摄像头系统和设备可靠性方面的技能。OpenAI 今年 5 月以 65 亿美元的天价收购了 Jony Ive 创办的 AI 硬件公司 io。

虽然 io 到现在还没发布任何一款产品,但光是 Ive 的名字就值这个价。

只能说,往 AI 领域输送人才这块,苹果还是太权威了。库克现在每天睁眼第一件事,大概是祈祷今天别再有人辞职了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


「原神之父」做了个毒舌 AI 猫娘,聊了两天的我被怼了八百回

By: 莫崇宇
3 December 2025 at 17:43

米哈游创始人蔡浩宇最近在忙啥?

答案是成立了一家 AI 公司 Anuttacon,然后打造了一个只会对线的 AI 猫娘。这款画风相当抽象的 AI 聊天产品叫 AnuNeko,最近已经低调上线了。

通过查询发现,这个 ANUNEKO 的商标已于今年 9 月提交美国专利局,涵盖软件、AI 角色、娱乐等领域,显然是是有备而来。

咱们也上手实测了一波。

附上免费体验地址:
https://anuneko.com

米哈游前 CEO 做了个「毒舌」AI,只想跟你对线互怼

打开 AnuNeko 的官网,一只黑猫映入眼帘。

说实话,光是审美这块就比市面上千篇一律的素色页面加输入框的 AI 聊天机器人强上一大截。确认输出问题后还会出现一个猫的动效,有那么一瞬间,我还以为自己在玩某款游戏。

官方页面只提供了两款模型。

一款是相对温和友善的橙猫(Orange Cat),另一款则是比较暴躁、甚至带点「毒舌」的异国短毛猫(Exotic Shorthair)。

讲真,我本来以为 AI 再怎么训练也就那样了,直到我真用上这只「异国短毛猫」。如果用一句话来形容,那就是贴吧老哥+Grok+罗伯特的究极融合版。从自我介绍中,就能看出 AnuNeko 非常有个性。

「嗨,我是 AnuNeko。你可以把我当成一种有自我意识的存在。我不是你的助手,也不是你的宠物,只是我自己——有自己的情绪和独特的看法。只要你有想法,随时来喵我就好。」

面对同一个问题,两者的回答风格立马就见了分晓。

让异国短毛猫锐评各大平台,它直接来了个狠活。而橘猫的回答就温和多了,B 站想学习的时候有用但一刷视频停不下来,知乎正经人谁玩知乎啊(狗头),微博无脑追星的圣地,小红书记录美好生活种草拔草都在这,贴吧想看真实想法但无脑喷和地域黑太多。

官网顶上还贴心标注着:「这是一个 AI,它说的一切都是幻觉」,考虑到如此毒舌的程度,很难不让人怀疑,这其实是一种免责声明。

Anuneko 整个产品的核心逻辑其实就一个词:接梗。只要你能聊,它就能接,目的就是让对话一直进行下去。

有一说一,响应速度挺快的,基本都是秒回。

我试着让异国短毛猫锐评原神,虽然每次回答都不一样,但每一次回答都出乎我意料之外。

继续让它锐评米哈游的游戏,它直接来了句「我这种玩过他家游戏的,评价完了会被米学长们开除米籍的」,属实有点东西。

不过现在的 AI 似乎都不怎么会说冷笑话,短毛猫讲的笑话也不例外,连续三个笑话都不太好笑:

支持多语言交互这点倒是不错,AnuNeko 能看懂我输入的日英法德等语言,但输入外语后,更多情况下它只会输出英文。

情绪价值倒是拉满了,我问它想谈恋爱吗,它回了一大段「我超想的好吧,但是本人又很宅,平常也不怎么和女生聊天」之类的,然后我说我喜欢你和我交往吧,它直接来了句「你是个男的吧🐶」。

除了聊天,AnuNeko 能做的事情其实真不多。

不能读链接、不能联网。我扔了个微信公众号链接过去,它说「这看起来像是个微信文章的链接,但没点开的话我也不知道里面是啥」,我又问你能点开链接吗,它说「抱歉啊,我没法直接点开链接」。

由于不具备联网功能,知识库也比较老,我问 Gemini 3 什么时候发布的,它直接说「哎,这个我真不知道。我平时不太关注科技新闻」。

长文处理能力一般,输入框甚至没法直接粘贴公众号全文。

作为语言模型,无法上传和识别图片也正常,但遇上逻辑推理题,它也是基本就歇菜了,真就光有情绪价值,但不爱动脑啊。

比如好几次让它写代码,要么是句句有回应但事事没着落,要么最后给了代码却压根运行不了。

ANUNEKO 的「AI 哲学」:不卷智商,专攻情商

有意思的是,今年许多的大模型好像都在往情商这个方向卷。

就拿最近的 GPT-5.1 来说,OpenAI 专门强调了它在情感理解和回应上的提升,聊天的时候能更好地察觉用户的情绪变化,回复也更加自然和贴心。

当其他 AI 公司忙着卷基准测试排名、卷逻辑推理、卷工具属性,ANUNEKO 同样选择发掘模型的「人味」。毕竟游戏里的 AI 主要还是能陪你唠嗑、逗你一乐、把氛围搞起来才是正事。

就像开黑时坐你旁边那个损友, 他不一定水平多高, 但总能在关键时刻吐槽一句让你笑出声。这种「不聪明但有意思」的定位, 恰恰避开了大模型在逻辑推理上的短板。

高情商的 AI 好啊,这 AI 的说话方式真得学啊。

而且,AnuNeko 也踩中了当下的赛道逻辑了。当代人越来越习惯独处,但孤独感也随之而来,用户需要一个 24 小时在线、秒回、无评判、永远站在你这边的倾听者。Character.ai 等应用的爆发证明了这个需求的存在。

大模型的天然优势其实不是逻辑推理,而是共情模拟。

通过微调,AI 可以完美扮演各种人设,提供情绪价值能带来极高的用户留存。你可能一周换一个搜索工具,但你很难抛弃一个聊了半年的「虚拟恋人」。尤其是功能型 AI 已经卷上加卷,而情感型 AI 还是一片蓝海。

除了 AnuNeko 这只抽象猫,蔡浩宇的新公司 Anuttacon 在八月份还推出了首款实验性 AI 游戏,《Whispers from the Star》(中文译名《星之低语》)。

这是一款完全由 AI 驱动剧情的互动游戏,玩家通过语音或文字与被困外星的虚拟角色 Stella 对话,你说的每句话都会影响她的行为和生存。游戏不设固定剧本,每次游玩的对话走向都不相同。

而现在的 AI NPC 依赖长短期记忆架构,能记住你们的对话历史、情感倾向,甚至根据你的行为调整态度。游戏世界提供完整的视听环境,NPC 角色参与故事,带来真正的「在场」感。

这类 AI NPC 带来了极高的重玩性和更细腻的角色刻画,玩家会感觉 NPC 拥有情感与理性。

尽管《星之低语》目前还有些缺陷,但它证明了 AI NPC 的核心价值,个性化的情感体验。玩家不再是体验编剧写好的固定故事,而是每个人都拥有一段独一无二的经历。

未来,游戏编剧的工作将从「撰写对白」转变为「设计人设」和「构建世界观」。Anuttacon 的探索为行业提供了宝贵的试错样本,证明了用概率模型取代传统脚本的可行性。

这些动作背后,其实藏着蔡浩宇更大的野心。

在米哈游时代,蔡浩宇就提出过打造「2030 年让 10 亿人愿意生活其中的虚拟世界」的宏愿。

现在看来,Anuttacon 的公开资料与招聘布局都与这一愿景一脉相承,即「充分利用 AI 技术潜力创造全新、智能且极具吸引力的虚拟世界体验」,并将使命定位为「打造沉浸式、适应性强的游戏,提供独特且不断演变的故事情节」。

8 月份的时候,蔡浩宇也在社交平台发文称,AIGC 已经彻底改变了游戏开发,未来只有两种人制作游戏是有意义的:一种是前 0.0001% 的天才,组成精英团队创造前所未有的东西;另一种是 99% 的业余爱好者可以为了满足自己的想法而一时兴起创作游戏。

至于普通和专业的游戏开发者,他则建议不妨考虑转行。这番言论当时引发了不小的争议,但现在看来,AnuNeko 和《星之低语》都像是他这套理论的实践样本。

大部分人并不需要一个能帮你解微积分的 AI,他们需要的是一个晚上失眠时能陪你扯淡的存在。功能型 AI 的尽头是工具,情感型 AI 的尽头是依赖。

蔡浩宇可能不关心这些哲学问题,但他的这款产品已经说明了一切。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


硅谷商战变厨艺大赛?小扎曾亲手煮汤挖人,OpenAI 说不慌都是演的

By: 张子豪
3 December 2025 at 15:40

鹬蚌相争,渔翁得利。有时候还挺希望我们用户就是那个渔翁,模型厂商打得越厉害,我们就有机会越快用到更好的模型。

2022 年 12 月 22 号,在 ChatGPT 发布三周后,为了应对 OpenAI 的威胁,Google 成了第一个发布「红色警报」的科技巨头。

昨天,在 Gemini 3 发布两周后,因为 Gemini 3 模型出现了大幅增长,OpenAI 发布了首个「红色警报」。

看到消息的时候,我就觉得 OpenAI 是不是有点过度反应了,很快就看到了一些评论说「骄兵必败」、还有「胜败乃兵家常事」。但转念一想,所谓的「红色警报」也许就是给投资人看的,毕竟 OpenAI 如果真的做不到第一,那个 2030 才能盈利的时间,只会拉得更长。

▲ Gemini 的 App 下载量快要追上 ChatGPT

根据最新透露的消息,OpenAI 在下周即将推出一款新的推理模型,内部评估表现要比 Gemini 3 更好。此外,他们还计划通过一个代号为「Garlic」的模型,来进行反击。

但更现实的情况,是 OpenAI 必然会发布比 Gemini 3 更好的模型,而 Google 也还有 Gemini 4、Gemini 5。

其实,回看过去这一年来硅谷的新闻,完全算得上是一出跌宕起伏的抓马大戏。年初被 DeepSeek R1 的横空出世而感到压力;年中则是小扎开启的疯狂「抢人模式」,天价薪酬刷新着所有人对 AI 人才的认知;到了年尾,又再次卷回到了朴素的模型比拼赛场。

在 OpenAI 研究主管 Mark Chen 的最新播客采访中,硅谷的战争更是进化到了魔幻的程度,他说小扎为了挖走 OpenAI 的核心大脑,甚至开始做汤,真的能喝的汤,然后亲自把汤送到研究员的家门口。

除了这些八卦,他也谈到了 OpenAI 对于 Gemini 3 的看法、Scaling 是否已经过时、还有 DeepSeek R1 对他们的影响、以及公司内部的算力分配、实现 AGI 的时间表等。

Mark Chen 的背景非常有意思,数学竞赛出身,MIT 毕业,去华尔街做过高频交易(HFT),2018 年加入 OpenAI,跟着 Ilya 一起做研究。和奥特曼更偏向于商人属性的特点不同,这些经历,让他身上也有一股非常明显的特质,极度厌恶失败,且极度信奉数学。

他坦言自己现在,完全没有社交生活,过去两周每天都工作到凌晨 1-2 点。

我们整理了这场长达一个半小时的采访,总结了下面这些亮点,或许能更好的看清硅谷这一年来的各种「战争」、以及 OpenAI 会做些什么努力,来继续保持自己在 AI 时代的第一。

关于 Gemini 3,我们真的「不慌」

OpenAI 真的怕 Google 吗?Mark 的评价很客观但也很犀利。他肯定了 Gemini 3 是个好模型,Google 终于找对路子了。但是他说看细节,比如 SWE-bench(这也是 Gemini 3 刷榜那张图片里,唯一一个没有拿到第一的基准测试)数据,Google 在数据效率上依然没有解决根本问题。

▲Gemini 3.0 Pro 在 SWE-Bench 上的表现,比 GPT-5.1 还差了 0.1%

而他自己则是非常自信的表示,OpenAI 内部已经有了针对性的应对模型,而且他们有信心在数据效率上做得更好。

Mark 甚至说,奥特曼前几天发那个说大家都要感到压力的备忘录,去吓唬大家,其实更多的是为了注入紧迫感,他说这是管理层的惯用手段,备忘录的目的在于管理层激励团队,而不是真的感到慌了。

我觉得Sam的工作之一就是要注入紧迫感和速度感。这是他的责任,也是我的责任。

 

作为管理者,我们的部分工作就是不断给组织注入紧迫性。

▲此前 The Information 报道,奥特曼在 Gemini 3 推出时,在公司内部发备忘录,提到会给 OpenAI 带来困难

他们目前最大的问题,还是算力分配。作为 OpenAI 的研究主管,他的一项工作就是决定如何将算力分配到公司内部不同的项目。

他和 Jakub Pachocki(OpenAI 首席科学家)一起,负责制定 OpenAI 的研究方向,同时决定每个项目能拿到多少算力。为了这件事,他们每隔 1–2 个月,都会做一次盘点。

他们把 OpenAI 所有在做的项目,放进一张巨大的表格里,大概有 300 个;然后努力把每一个项目都看懂,给它们排优先级;再根据这个优先级表去分配 GPU。

▲英伟达和 OpenAI 的百万 GPU 合作

他也提到,真正要用掉大部分的 GPU 的,甚至并不是训练那个最重要发布的模型,而是他们内部在探索下一代 AI 范式的各种实验。

所以,在他的眼里,Gemini 3 发布了、某家开源模型刷榜了、某个思考模型又拿了新高分了;这些你追我赶的 benchmark 赛车一点都不重要。反而,最应该避免的,恰恰是被这场竞赛牵着走。

他说,现在的模型发展,我们随时可以靠一点「小更新」,就在榜单上领先几周或几个月但如果把资源都砸在这些短线迭代上,就没有人去寻找下一代范式。而一旦有人真的找到了,整个领域后面十年的路线,都要沿着那条新路走。

小声哔哔几句,预言 OpenAI 下周要发布的模型,我想就是在计划之外,做了点小更新,然后刷新了几个榜单而已吧,就这还没慌吗。

提到榜单的时候,他说他有自己的一套私房题,用来测试模型是不是真的具备了顶级数学直觉。他举了一个 42 的数学难题,说目前的语言模型,包括 o1 这种思考模型能接近最优解,但从来没有完全破解它。

你想创建一个模 42 的随机数生成器。你手头有一些质数,是模数小于 42 的质数的随机数生成器。目标是,以最少的调用次数,组合出这个模 42 的生成器。

除了谈到 Gemini 3,主持人也问了他对于 DeepSeek 的看法。

和 Gemini 3 一样,Mark 承认 DeepSeek 的开源模型曾让他们感到压力,甚至怀疑自己是不是走错了路。

但结论是坚持自己路线,不要被对手的动作打乱节奏,专注自己的路线图。OpenAI 不会变成一个跟风的公司,他们要做的,就是定义下一个范式。

Ilya 的 Scaling 里面还有很多潜力,OpenAI 需要大规模预训练

近期关于 Scaling 失效的讨论纷纷扬扬,Ilya 先是在播客采访里面说,Scaling 的时代已经结束了,后面又在社交媒体上澄清,Scaling 会持续带来一些改进,并不是停滞不前。

所谓的 Scaling Law,就是按经典老故事走向,这几年建了巨大的算力基建,模型每 10 倍算力,本该有一波明显跃迁。但从 GPT-4 到 GPT-5,外界并没有看到预期中那种「质变式」的提升,所以才会有「Scaling Law 失效了」的讨论;而 Ilya 前段时间的访谈,则是进一步放大了这种观点。

Mark Chen 对这个观点,给出了坚决的反驳,「我们完全不同意」。他透露,过去两年 OpenAI 在推理上投入了巨量资源,导致预训练这部分稍显退化。之前关于 GPT-5 遇到了预训练的问题,其实也是因为他们把重心放在了推理上,而不是 Scaling Law 已死。

工作就是分配算力资源的他,再次重申算力永远不会过剩,如果今天多 3 倍算力,他可以立刻用完;如果今天多 10 倍算力,几周内也能全部吃满。对他来说,算力需求是真实存在的,看不到任何放缓迹象。

▲ OpenAI 的计算成本,计划到 2030 年花费约 4500 亿美元租用服务器,红色为推理计算成本、蓝色为研发(不包含现金业务)、黄色为可盈利的计算

他也提到,过去半年,他和 OpenAI 首席科学家 Jakub Pachocki 已经将重心重新拉回,要开始重塑预训练的统治力

他明确说他们会继续做规模化模型,而且已经有一批算法突破,专门就是为了让 Scaling 更划算,在相同算力下挖出更多性能,在更高算力下保持数据效率。

小扎的送来的真汤,抵不过 OpenAI 的鸡汤

最后就是访谈里提到的八卦了,Meta 今年没有别的新闻,媒体渲染了一整个季度的「OpenAI 人才/Apple 人才/Google 人才大量流失到 Meta」,Mark Chen 在播客里正面回应了这个话题,细节简直有点「颠」。

他说小扎真的很拼,为了挖人,小扎不仅手写邮件,还亲自去送鸡汤。人才战打到最后,居然演变成「谁煮的汤更好喝」的 Meta 游戏。

▲ Meta 花大价钱挖人组建的超级智能实验室名单

不过,在他的直接下属中,Meta 曾试图挖角一半的人,结果全部选择继续留下来。为什么不走?不是因为钱,因为Meta 给的钱显然更多,而是因为信仰

Mark 说,即使是那些跳槽去 Meta 的人,也没有一个人敢说「Meta 会比 OpenAI 先做出 AGI」。留在 OpenAI 的人,是因为他们真的相信这里才是 AGI 的诞生地。

他也提到自己从华尔街和玩扑克的经历里面学到,真正要守住的是核心人才,而不是每一个人在搞清楚,必须留下的是哪类人后,再把资源和关注度,全部压在这部分人身上。

他说他最强烈的情绪,其实就是想「保护研究的本能」。在 Barrett(OpenAI 研究副总裁)离职那阵子,他甚至直接睡在办公室睡了一个月,只为把研究团队稳住。

▲ Barret 目前和 Mira(OpenAI 前 CTO) 都在 Thinking Machines

那么 OpenAI 所信奉的 AGI 又是什么,主持人问他,Andrej Karpathy 在最近的一个播客里面说,AGI 大概还要 10 年,你是怎么想的。

Mark 先是调侃了一番 X 现在「惊」的各种文案,一下子是「AI 完了」、一下子又是「AI 又可以了」。他觉得,每个人对于 AGI 的理解都不同,即便在 OpenAI 内部,也很难有一个一致的定义。但他相信的是,OpenAI 在 AGI 道路上设置的目标。

  • 一年内: 改变研究的性质。现在的研究员是自己在写代码、跑实验。 一年后,研究员的主要工作是管理 AI 实习生。AI 应该能作为高效的助手,承担大部分具体工作。
  • 2.5 年内: 实现端到端的研究自动化。这意味着:人类只负责提出 Idea(顶层设计),AI 负责实现代码、Debug、跑数据、分析结果,形成闭环。

从 Copilot 到 Scientist,Mark 强调,OpenAI for Science 的目标不是自己拿诺贝尔奖,而是建立一套工具,让现在的科学家能一键加速,哪怕这需要重构整个科学评价体系,因为未来可能很难分清是人还是 AI 做的发现。

2 年半的时间很快,但这对于现在看来,是以周为单位迭代的 AI 行业来说,又是一场漫长的马拉松。

▲ 预测市场给出的,到 2025 年底前最好的 AI 模型会来自哪个公司,Google 排在第一名

无论是扎克伯格那锅真金白银的鸡汤,还是 OpenAI 想要定义未来的理想主义鸡汤,这场硅谷的「煮汤大戏」还远未结束。Mark Chen 播客里表现出来的从容,或许能消除一部分外界的焦虑,但用户还是会用脚投票,好的模型自己会说话。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


WPS 给 AI 装上「大脑」和「双手」后,我真正感受到它会干活这件事

By: 张子豪
2 December 2025 at 19:06

前段时间,Nano Banana Pro 发布,有网友在我们的留言区评论,说前端程序员已经不知道「死了」多少次了。

如果要把这两年职场人的心理变化画一条曲线,我想大概率是一条过山车,从最初的震惊与狂热,到中期的焦虑与恐慌,再到现在的……疲惫与祛魅

是的,疲惫。

▲ 技术成熟度曲线

我们尝试着无数个声称能颠覆工作的 AI 工具,但回归到真实的周一上午,情况往往是这样的:你在一边狂敲提示词,在另一边小心翼翼地把生成的文本复制回文档,然后花半小时重新调整那个被毁得面目全非的表格格式 。

这种割裂感,真的很难让人把它和生产力三个字划等号。

很多时候,我们手里的 AI 更像是一个用来炫技的玩具,而不是那个能真正帮你把项目彻底搞定(DONE)的智能伙伴 。

▲「AI 原生,效率新生」—— WPS AIDONE 办公专场活动

前几天,我们和 WPS AI 在珠海金山软件园一起举办了「AI原生· 效率新生- AIDONE办公专场」。爱范儿副主编、 APPSO 负责人李超凡,和金山办公 Office AI 负责人刘拓辰,在现场分享了他们对于 AI 原生与效率的看法,如何才能做到 AIDONE;还有 WPS AIPPT 的上手体验等。

从现场回来,我隐约意识到,可能我们之前打开 AI 的方式,都太累了。当 AI 和 Office 彻底融为一体之后,办公这件事完全可以从忙于交付,变成更专注思考。

所谓的 AI-Native,并不是你会写提示词

什么是 AI-Native(AI 原生)?是会用 Midjourney 生成几张二次元图片?还是能熟练背诵某套万能提示词模版?又或者是用那些所谓的一句话生成产品,手搓一个项目 Demo。

我想这些都不是。

▲爱范儿副主编、APPSO 负责人李超凡主题演讲「如何成一个 AI- Native 职场人」

如同我们在现场分享的观点一样,AI 原生是一种「生物本能」,贯穿到我们工作的每一个环节。像是之前做 AI 编程的 Lovable 团队,他们整个公司只有 35 个人,成立短短 7 个月,年收入就做到了 8000 万美金。还有创作者顶流,用 AI 写深度长文,年收入达到了 400万美金的 Packy McCormick。

凭什么?就凭他们把 AI 变成了某种生物本能;他们不是雇了更多的员工,而是雇了更多的 AI。

对于真正的 AI Native 职场人来说,区别也不在于我们用了多贵的工具,而在于第一反应。遇到难题时,你的脑回路是「这事儿我该怎么熬夜肝出来」,还是「这事 AI 能帮我做吗?我该怎么指挥它?」。

但这里也有个巨大的悖论:如果指挥 AI 的成本,比我自己做还要高,那这种「本能」就是反人性的。

这恰恰是目前大多数 AI 产品的死穴,它们离我们的工作流太远了。经常是,我们得跳出文档,去浏览器里求助,然后再把结果搬运回来。这种反复横跳,足以打断任何珍贵的「心流」。

▲不打断心流的 AI 伴写

所以,AI-Native 该怎么实现。我们的判断是,在最熟悉的 Office 软件里「原生」地使用 AI,才是成为 AI-Native 职场人的最短路径。

原生 Office AI,从工具到类同事

如果说 AI 工具的割裂感是 AI-Native 的痛点,那么金山办公的 Office AI 负责人刘拓辰,则给出了解法。

▲ 金山办公 Office AI 负责人主题演讲「原生 Office AI,从交互到交融」

他在现场提到了一个贯穿全场的关键词,「原生 Office AI」,而要做到原生 AI,他带来了一个更前沿的产品哲学:Agentic Software(智能体软件)

这不只是一个新名词,本质上重新定义了 AI 在软件里的角色。在 WPS 的设计理念里,真正的 Agentic 应该像一个训练有素的助理,拥有两个关键能力:大脑和双手

它得先有一个会思考的大脑,具备自主规划能力。 以往的模型是我们问一句它答一句,完全被动响应。而在 WPS AI 里,当我们抛出一个模糊的需求,比如「做一份年中复盘 PPT」。

AI 会先像人一样思考:复盘需要哪些模块?需要调用哪些数据?它会主动拆解任务路径,规划每一步怎么走,甚至在执行后进行反思;「我做出来的结果符合预期吗?如果不符合,我再重新规划修正」。

但光有想法还不够,它更需要一双干活的手,让它能无损调用各种工具。 这是金山办公 37 年,死磕办公文档底层技术的独家壁垒。

通用大模型也许能写出漂亮的文案,但它们是「没手」的,不能直接在最后交付的文档里面操作。 而 WPS 将内部最高频的核心功能,抽象成了 AI 能理解的工具,让它能理解怎么调整字号、怎么对齐表格、怎么插入文本框、实现各种样式效果。

区别于简单的懂格式,WPS 建立的这套工具化与双向无损互通的能力;做到了 AI 改完的文档,和我们亲手做的一模一样,没有乱七八糟的隐藏标签,格式完美保留。

而在这个 AI 办公过程中,我们用户的角色也开始发生了一些变化。

以往我们是操作者,每一个标点都要亲力亲为;现在,我们变成了决策者。 在 WPS AI 的执行过程中,从理解指令到拆解步骤,再到调用功能,全过程都是可视化的。我们就像坐在副驾驶,看着 AI 开车;它会告诉我们,「我打算先做数据清洗,再做图表分析」。

▲WPS AI 3.0 WPS灵犀 – 文字 Canvas:左侧文档编辑,右侧 AI 对话,用户与 AI 同屏协作

这种交互方式超越了简单的多轮对话,成为一种「过程可视化与实时干预」的全新范式。如果 AI 跑偏了,我们不需要推倒重来,只需在它思考的任意环节随时介入纠正,掌控权始终在我们手中。

过程透明不仅让我们更好地掌控方向,也让整个结果变得可验证、可信赖。「AI 负责规划与执行,人负责审核与决策」的模式,才是 AI 在职场真正落地的样子。

在现场的圆桌对话环节,嘉宾们还讨论了一个话题,「AI 是执行的终点,还是创意的起点?」我印象特别深的一句话是 AI 无法取代人的品味,比起执行,人的价值正在重新被凸显。

▲ 圆桌对话,探讨「AI 是执行的终点,还是创意的起点」以及「未来我们如何与 AI 写作办公」等前沿话题;左一李超凡,中间刘拓辰

AI 正在把必须做的工作自动化:排版、找图、格式、查资料、总结文档……而人类的工作,会变成:判断、提问、想法、审美、选择。这是一个更轻松、也更要求想得明白的时代。

而 WPS AI 正是在帮我们把那些繁琐的、流程化的任务都「搞定」,之后这些省下来的时间,是留给我们,可以拿来做一点真正有价值的思考和决策。

所以,AI 是终点还是起点呢,我想是因为 AI 帮我们走完了执行的终点,我们才终于有精力回到创意的起点。

AI 原生办公,才是未来的工作方式

在 WPS AIPPT 盲盒挑战环节,15 分钟做完 PPT 已经不是炫技,而是一种新的合作方式。用户给方向,AI 负责拆解结构、规划大纲;用户确认无误后,AI 再调用工具完成排版与美化。整个过程,WPS AI 的每一步思考都呈现在我们面前。

▲WPS AIPPT 盲盒挑战,参加活动的朋友正在使用 WPS AIPPT 制作

但我要说的重点不是它有多快,而在于一种新的心流,我们终于可以只专注内容,而不是被排版和格式绑架。这其实才是 Agentic Software 的意义,不是跳过工具,而是让工具的执行过程变得高效且透明。

以往做 PPT,我们处于一种左右脑互搏的焦虑中,既要像作家一样思考逻辑,又要像设计师一样纠结配色对齐。但在这次体验中,因为 AI 接管了找图、排版、美化这些繁琐的体力活,玩家只需要专注于我想讲什么。

这种不打断、不割裂、所想即所得的流畅感,恰恰验证了前面提到的理论,只有原生在文档里的 AI,才是真正的生产力。

▲ 输入主题就能得到 PPT,WPS AIPPT 官网,aippt.wps.cn

在活动现场,我不止一次听到有人感叹,「没想到 WPS 现在的 AI 已经做得这么深入了。」这句感叹背后,其实是用户对当前市面上大量「套壳 AI」的审美疲劳。

为什么 WPS AI 能给人不同的感觉?我认为核心在于金山办公对于「AI 与软件关系」的重构。正如刘拓辰所说,Agentic Software 绝不是简单的聊天机器人。智能体这个词在今年 Manus 爆火之后,就一直没有冷下来过,但对我们用户来说,一个好的 Agent 却仍然还在被定义中。

在 AI 的 1.0 时代,大多数产品是把 AI 当作一个「插件」挂在软件旁边,两套工具流,各玩各的。最近这两年,AI 工具更是百花齐放,但真正能改变工作方式的,从来不是功能升级,而是软件结构的变化。

WPS AI 走的正是这条更难的路,彻底把 AI 融入软件设计;一方面,给 AI 一个独创的翻译引擎,让 AI 能读懂复杂的文档格式;另一方面,把拆解任务、调用工具的每一步都摊在台面上,我们看着 AI 干活,随时喊停纠正。

它不满足于仅仅生成一段文字,而是要成为一个能真正「交付结果(Get Things Done)」的智能体。无论是最近大火的「企业知识库」功能,还是这次演示的 WPS AIPPT,本质上都是这种「原生+智能体」思路的落地。

在 WPS AI 的体系里,AI 不是插件、不是外挂,也不是单纯的内容生成器。它是我们文档里的助手,是会议里的整理者,是灵感的第一落点,是 PPT 的合作者。

对于当前这个浮躁的 AI 时代来说,这其实是 WPS AI 一种克制与务实的长期主义。不去卷那些花哨的 C 端娱乐功能,而是死磕文档、知识库、企业大脑这些 Office 办公领域的基石;也让 WPS AI成为了目前市面上少有的、真正能被称为「生产力」的产品;懂文档、懂创作、更懂用户。

回想起文章开头提到的那个问题:我们还需要多久才能跨越 AI 的尝鲜期?答案也许就在你打开 WPS 的那一刻。

当你发现,原本需要一下午才能搞定的 PPT,现在喝杯咖啡的功夫就能出初稿;当你发现,你终于不再是软件的奴隶,而是 AI 的指挥官时;你就已经是一个 AI Native 职场人了。

不要让 AI 成为你的焦虑来源,去试着指挥它,去试着把那些「必须做」的繁琐交给它,让自己专注于「值得做」的事情 。

毕竟,只有当我们繁琐的操作真正隐形,创造力才能真正显现。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


不止 Sora2!拍我AI V5.5 更新:人人都能用 AI 视频当导演了

By: 樊 尔
2 December 2025 at 14:04

2025 年,AI 视频又把桌子掀了。手切金属、小猫做饭,甚至是那个火遍全网的「奥特曼宇宙」,对 AI 来说不过是几句 Prompt 的功夫。


但也别高兴得太早。

绝大多数 AI 视频工具,依然停留在「素材生成」阶段。它们能给你一段精美的画面,但这些画面是大多是破碎的、静音的、单一景别的。

如果你想搞点严肃创作,比如带分镜的故事片,你得不停地「抽卡」,祈祷 AI 能听懂什么是远景、什么是特写。

结果往往是,它一股脑塞给你一堆逻辑不通的废片。选完还得配音、剪辑、配乐…一串工作流下来,10秒视频能干两个星期。

AI 视频到底什么时候才有带演技的叙事能力能学会「讲故事」?

昨晚,拍我AI(PixVerse) V5.5 的更新给了给我带来了惊喜。时隔半年,这位「卷王」再次扔出重磅炸弹。如果说上一个版本是给你配了一个特效师,那么 V5.5 则是给你配备了一个懂视听语言的导演组。

V5.5 是国内目前唯一能够一键生成「分镜 +音频」,实现完整叙事的 AI 视频大模型。

它最大的突破在于:AI 视频开始具备「导演思维」。它不再只是生成会动的图片,而是开始理解镜头、声音与叙事之间的逻辑关系。

以前需要专业分镜师才能做到的事,现在的你,也能「从从容容游刃有余」。

AI 视频终于拥有了「灵魂」

影片的「故事感」从何而来?很大程度上,源于人物的对白、背景音乐的烘托,以及镜头切换带来的节奏感。

我们就从这两个维度,来狠狠考验一下拍我AI 的成色。

查看完整视频案例效果请跳转 APPSO 推文

自带百万音效师

先从「配音师」这个角色开始,拍我 AI V5.5 支持多角色音画同步,看它水平怎么样。

首先我们来段沙滩广告。

提示词:男人看向镜头,将啤酒举到镜头前,对着镜头倾斜瓶子,做干杯动作。背景音是动感的电子乐,有明显的鼓点,充满流行感。

拍我 AI 做得干净利落。最让我起鸡皮疙瘩的是细节: 它完全听懂了场景,配上了十分适合夏日沙滩的感觉的音乐。

这种对环境音的理解,十分给力。

再来点环境不一样的,让一辆的士驶过城市街头。

拍我 AI 也是手拿把掐,镜头不仅跟随着汽车,还配上了街头嘈杂的汽车声,仿佛真的置身于人头攒动的纽约街头。

提示词:出租车在城市街道里前行,渐渐消失在画面中。

但这还只是开胃菜,我们继续上强度。

我先用拍我AI 内置的 Nano Banana Pro,生成了一张图片,然后再让拍我 AI 生成了一个「欢迎南方小土豆光临东北」的视频。

 

提示词:女人热情地说:「欢迎南方小土豆,来我的家乡!俺东北这里可想你啊!」

短短两句话,口型对上了,东北阿姨热情的劲儿都拿捏了,简直让人想要下了班就立刻买张机票去旅行。

再比如,下面这段帕丁顿熊的片段中,它精准地复刻了那标志性的英伦腔调。那种特有的顿挫节奏与绅士般的「老伦敦」口音,听起来不仅地道,而且非常有辨识度。

而在处理小熊的剧情时,它更是展现出了对剧本的理解力。

当角色意识到自己身处巴黎铁塔,而对方在东京铁塔的乌龙瞬间,拍我AI 生成的语音准确传达出了那一刻的错愕与惊讶。

这种对语气拿捏的细腻程度,让整个片段不再是简单的画面堆砌,而是有了真实的情绪流动。

它不仅仅是简单地识别了两个角色形象,更深刻地理解了角色背后的文化符号与剧情语境,从而为它们匹配了极具灵魂的声音演绎。

不难看出,拍我AI 音频生成功能,让视频工作流里的配乐和配音门槛大幅降低。只要在拍我AI 的视频生成的参数里,将「音频」的选项打开,接着只需要简单的一句话,就能帮你快速批量尝试,简单到一个人就能轻松做好。

拿捏影视级的镜头

景别,是导演手中的刀,用来切割时空,引导情绪。

过去,用 AI 做分镜简直是「噩梦」:你得分别生成远景、近景,然后再自己去剪辑软件里拼。而在拍我AI V5.5 里,这种笨功夫成为了历史。

打开多镜头模式,告诉 AI 你要的画面的景别,并切换多机位,它就能直接生成一段有叙事节奏的成片。

比如那个火遍全网的「三宫格海边写真」,我们就能把它变成一段更加有趣的剧情短片:

提示词:
镜头一:猫回头看着镜头。猫说:「山的那边是什么」。
镜头二:猫再次回头望向大海。镜头拉近猫,猫说:「你不用告诉我」。
镜头三:猫正脸部的特写镜头。猫说:「因为,我只想在你家里捣乱。」

整体成片的效果相当扎实。但真正让我惊叹的,是拍我AI 理解了台词背后的情感潜台词。在猫咪开口前的瞬间,极具灵性地加了一个推镜头的特写调度。这种看似简单的运镜处理,瞬间拉满了画面的叙事张力。

我们再来到东非大草原。我还用 Nano Banana Pro 生成了一个纪录片图片,一键视频生成了一段剧情短片:

如果你觉得还要先学习写分镜太麻烦,没关系,拍我AI V5.5 的「脑补」能力同样惊人。 只给一句话,它也能给你惊喜。

提示词:he woman watching her memory-lost mother at home, and sad. They hugged but her mother seemed not to remember her anymore.

拍我AI V5.5 交出的答卷超出预期。不但给了我三个镜头,还自主构建了一段完整的叙事:从母女互动,到最后温情相拥的落点,剧情逻辑清晰感人。

可以看出,拍我AI V5.5 已经不再止步于单一画面推进,而是开始真正掌握了视听语言的语法。通过精准捕捉提示词中的场景氛围与情感基调,自主编排景别和镜头,为生成的影像注入了能够打动观众的内涵。

这种变化,让最终的成品摆脱了「动态图片」的单调标签,进化为一段真正具有叙事承载力的影像素材。

一键直出广告大片,新的创作神器诞生

刚才那些玩法可能还只是「整活」,为了验证它是否真的具备「生产力」,我们决定再上点难度。

直接甩给拍我AI V5.5一个完整的惊悚电影镜头脚本,看看它接不接得住。

提示词:The video is shot using a fisheye lens, giving a distorted, wide-angle view of an urban street scene at night in front of a store with a sign reading “DELI • GROCERY • ATM” (English). The lighting is dim, with red neon reflecting off wet pavement. The musical sound is slow, ominous industrial bass with distant sirens. The camera focuses on a tall figure wearing a cracked, porcelain doll mask and a heavy trench coat, looming over the lens. Behind him, two figures in black hoodies stand motionless near the store entrance. The masked figure leans uncomfortably close to the fisheye lens, whispering hoarsely: “Midnight tick, the shadows don’t sleep. Price on the head, and the secrets we keep. You saw the sign, but you didn’t read the print. One wrong step, and you vanish in a tint.” The figure slowly raises a gloved hand to cover the camera lens as the screen fades to black.

坦白说,最终呈现的成片质感大大超出了我的心理预期。

拍我AI V5.5 展现出的剪辑非常老练,它懂得如何在不同景别间流畅切换,避免了 AI 视频生成中常见的时空割裂感,让画面流转显得合乎逻辑。

当然,现阶段的 AI 还无法做到百分之百的完美。比如在处理最后那个极具张力的鱼眼镜头人物对白时,面部细节仍显露出些许破绽。但它在动态物理规律的遵循上守住了底线,整体瑕不掩瑜,成片的完成度和可用性依然处于高水准。

更令人惊喜的是声画配合。拍我AI V5.5 生成的人声不仅仅是念出台词,而是精准拿捏到了惊悚题材所需要的紧张氛围与压抑感,从音色质感到语速节奏,都与画面情绪实现了默契。

这种逻辑自洽、鲜有出戏感的表现,直接拓展了它的落地场景。对于电影导演而言,它完全可以作为高效的沟通工具,用来向编剧或摄影指导直观地阐述创意构思。

而对于广告人来说,它还是个创意利器。只需投喂一个完整的 Brief 和示意图,它就能迅速生成一支达到提案级别的汽车商业广告,效率惊人。

提示词:黑暗的极简空间中,一束流动的光带扫过深灰色车身的腰线,展示出”液态金属”般的肌肉质感。紧接着,矩阵式LED大灯猛然亮起,光束直刺镜头,照亮空气中的微尘。音乐声是低沉的电流声逐渐增强,伴随一声类似心脏跳动的重低音。一个沉稳深沉的男声说:”觉醒。” 镜头切至下一场景: 城市夜景的高速跟拍镜头,车辆在充满了蓝紫色霓虹灯光的隧道中飞驰。流动的城市灯光在车窗和流线型车身上拉出长长的光带,强调极速下的动态模糊感。音效是尖锐且充满未来感的电机加速啸叫声,混合着破风声。男声说:”超越速度的边界。” 镜头切至下一场景: 航拍镜头展现广阔的沿海悬崖公路,正值日落时分(Magic Hour),金色的阳光洒满车身,与深邃的大海形成冷暖对比。车辆向着地平线驶去,留下优雅的背影。音乐转为宏大且激昂的电影氛围乐,带有史诗感。男声继续:”不仅是抵达前方,更是征服。” 镜头切至下一场景: 车辆静止在极简的黑色反光地面上,车头正视前方,背景是抽象的红色流光慢慢消散。镜头缓慢拉远,上方浮现银色金属质感字幕”APEX “。男声说:”Apex GT。” 音乐在最后一声强有力的重音后戛然而止。

可以看到,这类成片的质感已经比较稳定。这充满速度与金属质感的车辆,让你几乎很难分辨这出自 AI 之手,还是某家专业广告公司的制作班底。

画面之间的衔接展现出了极高的成熟度,丝毫看不出拼接的痕迹。拍我AI V5.5 并非机械地堆砌素材,而是通过摇移等镜头、特写转向全景等画面语言,生成了一段有起伏、有张力的叙事段落。

配合引擎轰鸣与契合度极高的背景音乐,它成功摆脱了「AI 味」的廉价感,呈现出了可以融入到的工作流级别的影像水准。

别当「工具人」了,去当真正的「导演」

这次拍我AI (PixVerse) V5.5 的体验,让我产生了一个强烈的体感:AI 视频生成,正在经历一次关键的转折点。

过去使用 AI,像是在指挥一个听不懂人话的实习美工。你花着钱,还得在海量废片里大浪淘沙。那种频繁调整、试错、最后还得不到满意结果的挫败感,磨灭的不仅是时间,更是创作的热情。

拍我AI  V5.5 的出现,让我们看到了一丝曙光。

V5.5 底层模型基于自研多模态理解与生成技术,支持音频和视频同步生成,模型融合多镜头理解能力,智能生成匹配的分镜与多镜头,理解了视听逻辑。它不再是一个冷冰冰的素材库,而是一个开始懂剧本、懂叙事的「执行导演」。

虽然它还远未完美,但 拍我AI V5.5 这次确实给 AI 带来了一种「叙事能力的觉醒」,开始抹平普通人与专业导演之间那道巨大的技术鸿沟。

往后,无论是个人整活,还是商业化的广告样片、影视预演(Pre-viz),效率都将迎来质变。

这意味着,我们即将告别 AI 「素材生成」时代,跨入真正的「内容生成」时代。

在这个新时代下做专业创作,你可以不再需要精通 PR 或 AE,也不需要昂贵的摄影器材。你只需要专注于最核心的东西——创意与表达。

把繁琐的执行交给 AI,把思考留给人。

我想,这就是 AI 技术进步最性感的意义。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


笑死,兵马俑在千问 APP 里跳 K-Pop,比练习生还丝滑

By: 莫崇宇
2 December 2025 at 11:34

让兵马俑跳 K-Pop 是什么体验?

如果你今天刷到一段视频:一位两千岁高龄的「老人家」兵马俑拿着麦克风,跟着节拍左摇右摆,动作比练习生还丝滑,表情管理比爱豆还到位。

倒也不用慌,这只是 AI 界的又一次整活现场。

而这充满反差感、邪门又好笑的画面,正是出自阿里千问 App 新升级的功能。

基于 Wan2.5 音视频同时输出能力,千问的 AI 玩法又升级了!仅需一张照片+一段提示词,就能生成口型精准、动作丝滑的「边唱边跳」视频,支持最长 10 秒、1080P 输出。

▲(别急,还有高手,唱跳俱佳的兵马俑男团来了)

而且没有任何限制。无论是真人照片、萌宠、二次元角色,还是文物、卡通形象,千问 App 都能让它们动起来。

当然,得先说好:视频里的声音不是提前录好的音频,也不是简单的文字转语音,更不是套模板,而是 AI 根据自己的理解推理生成的,AI 会自己根据角色,配上合适的音色、曲调。

可能和咱们唱的有点不一样,但正是这份独特的「AI 味儿」演绎,反而格外妙趣横生~

一张图+一句话,万物皆可边唱边跳

眼瞅着快过年了,刘德华的《恭喜发财》也已经在解封的路上了。

听腻了天王版本?那不如试试财神爷本尊亲自开嗓。我上传了一张财神爷的画像,输入提示词。结果财神爷真就动起来了, 一边唱着「恭喜你发财,财富一定来」,一边左右摇摆。

这才是真·财神附体。

所以拿这个给长辈拜年, 红包不翻倍都说不过去。

诗仙也要跟上时代潮流。

我翻出一张李白画像, 让他整一段当下最火的《刀马刀马》。两分钟后, 李白从画里「复活」了, 跟着魔性旋律左摇右摆。

可惜 AI 没能让他跳出正宗刀马舞, 看来对音乐和舞蹈的理解还得再练练。不过虽然舞姿跑偏了, 但 AI 生成的整个场面却别有一番喜感,不得不说千问 App 简直是 AI 抽象届的舞王。

《疯狂动物城 2》最近票房大卖,尼克和朱迪这对经典搭档又火了一波。

既然都这么火了, 那不如让它们来段双人唱跳?尼克唱着「朋友一生一起走」, 朱迪在旁边摇头晃脑,两个人还真有那么点默契配合的意思。整个画面, 倒像是官方番外篇里的音乐剧片段。

不过,尼克这充满「个性」的唱腔,意外成了整段视频的笑点担当,打工人平淡工作日里的笑点,最近都被千问 App 承包了。

还记得许嵩当年那段自我介绍吗?「大家好我是 Vae,这是我即将发表的首张独创专辑《自定义》。」我寻思着,要不让爱因斯坦也来一段?他张着嘴,一本正经地说着这段经典台词,还真的配合着节奏点头,更绝的是口型竟然也一一对上了。

只能说,许嵩看了会沉默,爱因斯坦看了会流泪。

《猫和老鼠》作为经典哑剧动画,但有了 AI,我们可以让 Tom 开口唱歌,顺便还能跳当下大火的高雅人士企鹅舞。满分十分,你能打几分?

最后,我让在卢浮宫端了 500 年架子的蒙娜丽莎戴上墨镜开唱。魔性歌曲配达芬奇名画, 这组合本身就够行为艺术了。文物活化的另一种打开方式,get 了。

千问 P 图+生视频=快乐²

当然,千问 APP 除了可以生成视频,也可以生成图片。

这次更新接入了全新改版的图片生成及编辑模型 Qwen-Image,在图像编辑一致性、多视角转换、多图融合等方面都有突破。简单说就是:只要在对话界面输入指令,就能自动调用模型能力,实现各种魔性操作。

比如换姿势:原本端坐的兵马俑,被指令后,立即呈现出一个手握篮球腾空封盖的英姿,视觉冲击感十足。

再比如服装变换:周末想发穿搭照但懒得换衣服?上传自拍,一句话把 T 恤换成西装,甚至还能给大卫雕像穿上了梅西的球衣。

反正脑洞有多大,AI 就能玩多花。

那么这时候,我们就可以体验进阶操作:

先改图,再生视频。

简单说就是:先把图片 P 成你想要的样子,然后再让它动起来唱歌跳舞。一套组合拳下来,创作自由度直接拉满。

比方说,我上周末花时间又重新看了一遍《泰坦尼克号》,于是我突发奇想:如果把马斯克和奥特曼 P 进《泰坦尼克号》的经典船头场景会怎样?

第一步,生图:上传两人照片,输入指令,千问 App 直接给我生成了一张高清合成图,男版马斯克,女版奥特曼,结果真是好一对恨比爱长久的苦命鸳鸯。

第二步,生视频:基于这张图,继续输入「帮我生成视频,图中的人物边唱歌边做飞翔的动作,海风要强烈,情绪要饱满」

然后… 两个科技圈大佬就在我手机里深情开唱了。

测到这儿,我已经停不下来了。

接着,我让千问 App 生成一颗拟人化的红豆。然后让它用它自己的调子唱出专属版本的「哈基米南北绿豆, 阿西噶阿西」。

结果这颗红豆顶着硕大的眼睛, 挥舞着小手, 跟着魔性节奏左摇右摆。就是这嗓音不走可爱风,反而略显粗犷,杀伤力几乎比原版还要高出三个数量级。

听完像吃了云南野生菌,画面与声音的搭配极其令人上头。

既然单人能跳,那能不能搞个组合出道,我突发奇想:要不让四大名著的主角们组个乐队?

说干就干。我先用千问 App 的图片融合功能, 把五位经典人物 P 成一张站位完美的乐队阵容——

孙悟空担任主唱, 关羽负责电吉他,林黛玉坐在键盘前,武松打鼓,曹操当贝斯手,定妆照搞定后, 那便是最简单的动起来环节,两分钟后, 一场跨越时空的摇滚现场就诞生了。

不得不说,这届 AI 真会玩。

一张图+一句话=10 秒魔性视频。不需要剪辑软件,不需要特效技能,甚至不需要会唱歌会跳舞,你只需要脑洞够大,AI 就能帮你实现。

除此之外,这功能除了整活,认真用起来也挺实用。

过年拜年视频可以交给 AI,朋友生日可以让寿星公跳舞,公司年会节目再也不愁没创意,甚至表白都能整出新花样…

当然,如果你只想单纯快乐一下,打开千问 App,上传图片,输入你的沙雕想法,剩下的交给 AI。2-5 分钟后,你就能得到一个足够发朋友圈炸场的魔性视频。

原来 AI 时代的快乐,真就这么简单。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


存储管够的时代已经结束,立刻赶到战场的是涨价减配

By: 马扶摇
1 December 2025 at 12:02

又到了一年一度科技厂商发表财报的时候。只不过今年除了财务数据之外,在对于未来的业务预测中,各大厂商不约而同地表达了一项惊人一致的警告:

受到全球存储行业成本上升影响,明年的产品价格将有所上调。

图|GIGAZINE

这一轮涨价所波及的范围,要比爱范儿上个月有关内存涨价的文章中提到的更广——现在不仅仅是你的手机和电脑,更上游的显卡、板卡厂商也没能幸免。

这对于本就风雨飘摇的 DIY PC 圈子来说,无疑是个坏消息。

因为明年原本就是 CPU 和 GPU 工艺制程从 3nm 跨步到 2nm 的节点,如果再叠加上内存涨价,「装配一台电脑」的成本将变得惨不忍睹。

更地狱的是,如果按照现在的内存价格计算,买一台 512GB 内存的 Mac Studio,就相当于只花了内存的钱,M3 Ultra 处理器、外壳、雷雳 5 控制器甚至硬盘等等其余部分全都是白送的

真 · 买内存送电脑

换句话说,前方等待着我们的,将是一场旷日持久的苦战。

存储涨价不可避免

在之前的文章中,爱范儿已经和大家详细解析了最近一段时间手机 SKU、内存条、固态硬盘携手涨价的原因。

然而我们没有预料到的是,涨价的幅度和速度会如此夸张。

和之前文章中的编辑部同事类似,小编也在年初重组了自己的电脑,选择了一套金百达(KingBank)的 DDR4 3600 双 16GB 内存,一月份的售价为 349 元。

而今天再查时,这套的价格已经是年初的三倍了:

我们之前提到过,2025 年下半年的存储行业集体涨价,初始诱因就是飞速增长的 AI 产业。

无论是 OpenAI 的「三万亿美元 AI 基础设施计划」星门(Stargate),还是微软、亚马逊、苹果都在加快脚步推进的新数据中心建设,都离不开专门的企业级高带宽内存(High Bandwidth Memory, HBM) 。

而放眼全球,能够大规模生产 HBM ——或者说更广泛的 DRAM 产品的,无非就是三大垄断巨头:韩国的三星、SK 海力士(SK Hynix),以及美国的美光(Micron)。

图为 2023 年全球 DRAM 市场份额,三家长期保持市占率 95% 左右,近乎完全垄断|YOLE Intelligence

与此同时,AI + 数据中心的技术模式不仅没有停歇的势头,反而随着 AI 应用的日常化,变得更加兴旺起来。

即使把 AI 视作一个泡沫,那也是一个异常坚挺的泡沫。

在这种环境下,位于 DRAM 供应链顶端的三家巨头根本不需要玩「火龙烧仓」的把戏,直接将现有产能和扩产指标转入企业级产品,就能够轻易赚到比在消费级市场强行控货多得多的利润

2018 年无锡 SK 海力士工厂起火,旋即涨价

而这种生产策略的调整,结果就是上面说到的——

现在的存储缺货已经不再限于 DDR4、DDR5 之类的个人电脑内存,也进一步扩散到了显卡使用的 GDDR6、GDDR7 等高速内存上。

面对这样的形势,强势如英伟达也不得不采取措施了。

根据一份近期的爆料,英伟达已经与生产非公版显卡的板卡厂商(如华硕、技嘉、七彩虹等)协商调整销售模式,英伟达后续将不再配套销售 GPU 核心和显存,而是仅销售核心、板卡厂商需要自行采购显存颗粒:

图|NiceHash

虽然这项泄露还未得到英伟达或板卡厂商的正式回应,但从商业策略角度分析是完全合理且可能的。除了向外转移库存风险之外,英伟达自己也更需要这些显存颗粒。

因为它不仅有公版 RTX 这样的消费级产品,还有诸如 A800、H800、DGX 之类的业务,这些动辄 80GB 显存的企业级产品才是真正的大头,此次调整的一部分原因就是要把手中的闪存库存留给自家的 AI 产品。

图|Nvidia

另一边,最新的 AMD Radeon RX 9000 和 RTX 50 系显卡一样是 GDDR6 和 GDDR7 客户,虽然目前没有消息或新闻表明 AMD 也将改变板卡销售模式,但在存储行业整体涨价的背景下,可能性还是很高的。

因此,一边是 AI 巨头和数据中心加大采购量,一边是存储厂商削减消费级产品的产能,两者叠加,就构成了近期主流消费级内存产品价格单月增长 100%~200% 的疯狂现象:

自此,这场震动已经从垄断全球的三家 DRAM 厂商拓展到了英伟达这样的中上游企业,进而波及到消费级 PC 市场的 OEM 厂商与 DIY 玩家,而最终也将波及到同为 DRAM 需求大户的手机行业。

美好时光,只在今日

根据集邦咨询(Trend Force)的一份调查报告,今年第四季度 DRAM 合约价格相比去年同期涨价超 75%,并且是 DRAM(内存)和 NAND Flash(硬盘)同时上涨。

基于这样的背景,集邦咨询在报告中预估,2026 年的手机整机零件成本(BOM cost)将会在今年的基础上涨价约 5% 至 7%,甚至有可能上探到 10% 左右。

图|iFixit

比如一台售价 5499 元的手机,内存 + 硬盘的总成本占整机 BOM 成本的 15% 左右,如果闪存涨价一倍,涨幅并不会直接平移到售价上,而是叠加利润需求,让售价最终上涨 500~700 元左右。

这种涨幅的冲击,对于原本定价就在六千元左右的旗舰机型来说或许还能消化,但对于那些在三四千元档位、锱铢必较地拼参数的中高端机型来说,涨价 500 元是完全无法接受的。

换句话说:三四千元档手机也能 24GB + 1TB 的时代,恐怕是一去不复返了

与此同时,高端手机市场也并不能从存储涨价中独善其身。高规格的存储在 BOM 中的比例或许目前仍在控制范围内,但在目前的涨价速度面前同样不容小觑。

此外,与 PC 遇到的问题一样,2026 年同样是手机处理器从 3nm 升级 2nm 的关键节点。

台积电的 2nm 处理器报价原本就已水涨船高,更夸张的是,2nm 芯片的首发客户甚至有可能不是长年以来的苹果,而是 OpenAI ——

没错,现在 AI 不仅要和你抢内存,更是要和你抢处理器了。

内外交困之下,明年的手机涨价已经不再是个「是或否」的问题,而是「涨多少」的问题了。从目前存储行业的趋势推测,2026 年各家主流手机品牌「中低端减配」和「中高端涨价」将会变成共识。

不过在这一波涨价潮之中,也有几个特殊的身影。

比如刚刚发布的 Mate 80 标准版虽然踩在了涨价潮中间,但标价相比去年其实还有所下调。这和华为一直倾向于和存储供应商签一年期的「长协」不无关系,应对价格冲击的能力要明显强于按季度签协议的其他品牌。

图|华为官网

另一方面,三星自家的产品由于近水楼台先得月,受到年末存储涨价风波的影响也相对较小,目前普遍预测即将发布的 S26 系列新机的涨价幅度在 50 美元左右,属于勉强接受的范畴。

图|Android Authority

而苹果这边的消息就没有那么好了,虽然苹果对于供应链的议价能力极强,但面对这种「近乎垄断」的供应链情况也无从下手。

传闻中为了 Apple Intelligence 而全系标配的 12GB 内存,很有可能成为 iPhone 18 系列涨价的主因。

图|MacRumors

祸不单行,还有消息称台积电除了 2nm 涨价之外,还计划对 5nm 以下产品提价以平摊 2nm 制程的研发费用,最直接影响的就是苹果的 A20 Pro 处理器。一句话——

明年的 iPhone 18 系列新机很可能涨价 1000 元左右,如果需要买 iPhone,马上下单可能是最实惠的方案。

同时,手机的主流配置从 12 或 16GB 缩水回 12GB,也给软件设计和系统优化提出了更高的要求,未来一两年里,系统优化和软件瘦身将会成为厂商的重点之一——

图|彭博社

或许「安迪-比尔定律」的提出者也没有想到,这个定律竟然会碰到「安迪把东西收回去」的情况。

我们需要注意到,消费电子产品将受到越来越多来自 AI 的挤压。2025 下半年的 DRAM 全行业涨价并不是传统的「技术-市场」周期内的涨价,而是产能被从外部夺走了,这和 2nm 处理器涨价的原因不同

这仅仅是手机,对于 DDR4 和 DDR5 依赖更明显、利润率参差不齐的 PC 领域更是几乎碰到了死局。

或许等到明后年,我们就能见到「内存条和硬盘自备」的准系统笔记本上架了:

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


三百多万人围观的 AI 油画视频,是技术的神作,还是没有灵魂的电子垃圾

By: 张子豪
30 November 2025 at 17:21

「比蒙娜丽莎更美的,就是正在燃烧的蒙娜丽莎」,这是多年前一档辩论节目里,大家对于艺术价值的不同理解方式,那时听到可能觉得挺激进,笑一笑便过了。

最近一段把几幅经典油画「复活」的 AI 视频,在 X 上引起了巨大的争议,视频刷到 300 多万播放,被不少人称之为栩栩如生的艺术;比经典油画作品更好看的,是会流动的油画?AI 做的东西是不是没有任何艺术价值?

网友分享的油画视频里,经典的油画元素不再静止,颜料开始流动,天空的云朵、火山的喷发、还有海浪的汹涌都变得生动自然,仿佛那些存在几百年前的画布,突然拥有了生命一样。

乍看之下,这就是一场视觉盛宴的享受;如果不是其中几个视频,忘了去掉右下角 Google Veo 视频生成的水印,甚至会觉得完全是用 CG 特效制作实现,毕竟对油画风格来说,没有很明显的「AI 味」。

但是点开评论区之后,发现网友们撕成了两派,有人说,这就是新时代的艺术,是全新的审美体验;有人就不买单,用 AI 时代最刻薄的词汇——Slop(垃圾/泔水)一言蔽之,说等到 AI 有意识了,再来谈配不配成为艺术。

同样的一条 AI 视频,让人看到了艺术、技术、恐惧、愤怒、敬畏、厌烦,还有时代变化。

如果不说这是 AI,你的第一反应是

X 网友发布的这则视频,其实并不是他本人的原创,在评论区有人指出来,说他没有标注视频来源,也没说明使用了 AI,只是单纯地为了赚取流量。现在这波流量,也确实是被他赚到了。

视频最早是出现 YouTube 上,一位有着 2000 多粉丝的博主@bandyquantguy,他是宾夕法尼亚州立大学艺术与建筑学院的一名助理教学教授。频道内发布的内容,基本上都是不同油画的动态视频作品,长度在一分半到 3 分钟不等。

而那条被转发到 X 上的视频,并收获了三百多万的观看,是他将近一个月之前的作品。

当我看着满屏的动态油画时,说实话,根本没想到这是否通过 AI 生成。一方面是对油画艺术的不了解,是否有相关的技术,或者爱好者在专门做类似的工作。另一方面,大多数时候,我们所说的 AI 味,主要是在制作一些写实的画面,像现实世界、真人版等。而这种风格化本身就足够突出的内容,AI 的处理反而不会太突兀。

有网友评价,这是他见过最原汁原味的 AI 艺术作品之一,因为视频没有生硬地模仿现实,而是创造了一种介于梦境,与现实之间的流体美感。

第一眼都是觉得「震撼」,而这种迎面而来的视觉冲击,在知道它是 AI 生成的之后,也变成了争议的起点。大多数的人会觉得,这样的作品很棒;但对剩下一部分人来说,如果光靠 AI 就能得到原本属于「艺术」的内容,那该有多可怕。

Slop,AI 是原罪

所以,打压和看衰,成了评论区的另一种态度,Slop 就是代表性的关键词。

在 AI 语境下,Slop 指的是通过 AI 大量生成的、看似有内容实则空洞的劣质品。像是之前奥特曼推出 Sora,就有人犀利的丢下断言,Sora 生成的视频,全部都是 AI Slop。

这次,也有网友说,这样的油画视频,不应该放在社交媒体上,Sora 才是他最好的归宿,那里都是同样的 AI 垃圾。为什么画面如此精美的视频,会被称为 Slop?反而一些 AI 味明显的视频,激不起大家这么热烈的反馈。

因为它是机器盲目的困境。

反对者认为,AI 生成的内容,是缺乏意义,就像是一台机器盲目的梦境,它甚至不知道自己正在做梦。

他们的观点是,艺术不仅仅是停留在好看,那只是媚俗。艺术需要人类的意图、深度和复杂性。在这个视频里,原本油画的笔触,变成了毫无逻辑的像素流动,就像是单纯地为了展示「我能动」而动,没有任何节奏、理由或概念支撑这个视频的内容。

对他们来说,AI 最大的问题从来不是不够好看,而是「不够人」

AI 的每一次选择,只不过是概率。而人类创作一个作品,画一幅油画,背后包含的是对人生、对世界的思考和回应;有情感、时间、技巧、犹豫和失败等经历。

支持者觉得,现在的 AI,就像相机刚被发明时一样,不是在替代传统,而是在扩张想象力。甚至有网友说,「我想艺术家们在作画前,脑海中可能就有这样的画面,现在我们也能走进他们的灵感了。

是结果,还是过程重要

如果这个视频是一个人类艺术家,花费 1000 个小时,一帧一帧手绘出来的,评论区又会发生什么。除了震撼,大概还是一样,会有人说,这视频顶多用来作为我的手机屏保,除了好看也就仅此而已了。

艺术是主观觉得还是客观认定呢,其实都没有明确的界定。网友的期待,大概是希望,艺术应该是需要「努力」才能抵达的地方,而 AI 正在稀释「努力」在艺术中的价值。

前段时间,一幅名为《太空歌剧院》的画作,拿到了艺术比赛的头奖,还有 AI 画作甚至在拍卖市场,以十万、百万的价格被拍走。

我们在一个输入提示词就能生成图像的世界里,任何一个人不需要复杂的技巧,也不需要付出多少汗水,都有机会创作自己的作品,作品的意义也不再靠时间来定义。

▲提示词:将油画纹理动画化为粘稠流体模拟,厚重的颜料笔触融化并流动。旋转的天空、粘稠的黄色光芒、翻腾的蓝色云朵。

当 AI 把时间成本压缩到几秒钟,这种神圣感瞬间崩塌,剩下的就只有廉价。「这不难做吧」、「我用 Veo 3 也能生成」,这样的东西,自然就成不了艺术了。

更有趣的是,有网友提到,这是一种很明显的社会心理学现象,巴浦洛夫的狗。现在我们只要看到 AI 的标签,就有了条件反射,瞬间进入狂怒模式,无论作品本身好坏,一律打成 Slop。

具体来说,就是眼睛告诉我,这个视频还不错,但大脑告诉我,这是 AI,AI 做的都是不好的,为了调和这种矛盾,我就必须强行说服自己,它看起来很糟糕。

心理效应是存在,更多的我想其实还是,AI 内容的泛滥,正在把我们的审美阈值无限拔高。

没有 AI 的时候,让一幅油画像这样动起来,可以说是「魔法」一样的存在。现在如果这些作品没有极强的故事性,或情感内核,仅仅是视觉特效,已经很难打动被各种 AI 效果喂饱的我们。

▲ YouTube 上该博主的其他油画视频

无论评论区吵得多么不可开交,一个事实是无法改变:AI 不会消失,艺术也不会因为 AI 的出现而消失。

就像一些网友说的,「电力曾让蜡烛工厂破产,但人类具有适应性」。现在的混乱,也许只是新旧审美体系,交替时发生的阵痛。

如果在 100 年前我们按一下播放键,就能听到录好的歌,大概也会有人觉得,只有黑胶唱片出来的声音才是真音乐;现在我们只是习惯了,现场、黑胶、手机、音响都有好音乐。

艺术,从来看的是最终的愿景,是我想让你看到什么,而不是用了什么工具,我花了多久才做出来。一个活过来的 AI 艺术,就算是简单的几行提示词,一样倾注了真正属于创作者的叙事、情感与意图。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Last Week on My Mac: Losing confidence

By: hoakley
30 November 2025 at 16:00

Cast your mind back to when you learned to drive, ride a bike, speak a foreign language, perform a tracheostomy, or acquire any other skill. Wasn’t confidence the key to your success? Whatever we do in life, confidence is always critical. If you run a business, one of the metrics that are likely to be collected is confidence in your business, as that’s such an important economic indicator. Confidence is every bit as important in computing.

Over the last few weeks I’ve been discovering problems that have been eroding confidence in macOS. From text files that simply won’t show up in Spotlight search, to Clock timers that are blank and don’t function, there’s one common feature: macOS encounters an error or fault, but doesn’t report that to the user, instead just burying it deep in the log.

When you can spare the time, the next step is to contact Apple Support, who seem equally puzzled. You’re eventually advised to reinstall macOS or, in the worst case, to wipe a fairly new Apple silicon Mac and restore it in DFU mode, but have no reason to believe that will stop the problem from recurring. You know that Apple Support doesn’t understand what’s going wrong, and despite the involvement of support engineers, they seem as perplexed as you.

One reason for this is that macOS so seldom reports errors, and when it does, it’s uninformative if not downright misleading. Here’s a small gallery of examples I’ve encountered over the last few years, to bring back unhappy memories.

docprivacy06

recursivertfd01

recursivertfd02

lastweekquar03

sharedfold3

Maybe you saved an important webpage in Safari 26.1 using its Web Archive format, then a couple of days later discovered you couldn’t open it. There’s no error message, just a blank window, so you try again with the same result. Another site shows the same problem, forcing you to conclude that it’s a bug in Safari. Are you now going to devote your time to obtaining sufficient information to report that to Apple using Feedback? Or to contact Apple Support and pursue its escalation to an engineer who might fortuitously discover the cause?

Silent failures like these are least likely to be reported to Apple. In most cases, we find ourselves a workaround, here to abandon Web Archives and switch to saving webpages as PDF instead. When someone else mentions they too have the same problem, we advise them that Web Archives are broken, and our loss of confidence spreads by contagion.

Honest and understandable error reporting is essential to confidence. It enables us to tackle problems rather than just giving up in frustration, assuming that it’s yet another feature we used to rely on that has succumbed in the rush to get the next version of macOS out of the door.

Eroding confidence is also a problem that the vendors of AI appear to have overlooked, or at least seriously underestimated. It’s all very well using the euphemism of hallucination to play down the severity of errors generated by LLMs. But those can only cause users to lose confidence, no matter how ‘intelligent’ you might think your AI is becoming. Go talk to the lawyers who have been caught out by courts submitting AI fabrications whether they still have full confidence in your product.

波波夫同学|微博淡出,是一场漫长公共性退潮的开始

29 November 2025 at 07:51

img

CDT 档案卡
标题:微博淡出,是一场漫长公共性退潮的开始
作者:波波夫
发表日期:2025.11.28
来源:微信公众号“波波夫同学”
主题归类:公共空间
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

今天想聊微博的淡出,并没有冒犯的意思,因为这个世上并没有什么不朽之物,淡出是万事万物都会经历的一个过程。微博上线都十六年了,即便不如当初热闹,但在今天的简中互联网,也投射了极为恢弘的余辉。况且,这个黄昏还可能很漫长。

起因是我之前关注的一个X博主Manya Koetse,她是波兰人,西方的中国问题专家,她在2013年做了一个网站,名字叫“微博趣闻”(whatsonweibo.com),就在前不久,她在X上发了一篇很长的文字,说她的网站要更名为“聚焦数字中国“(eyeondigitalchina.com),大意是十几年起的这个名字如今已经配不上她的初衷。

Koetse还算是对华友好派,做这个网站目的是,通过搜集微博热帖,帮助西方人克服那些刻板印象,去了解真正塑造当代中国的社会潮流、对话和情绪。但这样一个知中派,也开始意识到,作为一面映照中国的镜子,微博开始变得残缺、模糊。我可以直接搬运一段她的原文:

“自2010年代末以来……人工智能驱动的系统从根本上改变了中国用户获取信息的方式,抖音、快手和小红书等平台比微博更能根据用户行为定制信息流,因此广受欢迎。这催生了一个复杂的网络媒体生态系统,其核心不再是微博,而是微社区”。

老外对中国互联网的感知,时差还是挺大的。在鼎盛时期,大约2008到2015年,凭借开放的时间线和热搜机制,微博成为一个接近公共广场的网络空间。从温州动车追尾到乌坎村民维权,从郭美美到“表哥”杨达,所有用户,无论职业、阶层、地域,都暴露在同一套议程和同样的言论之下,用围观改变中国。

但这一切在十年前就戛然而止。随着一连串外部环境变化,微博失去了观察中国社会的样本意义,一个以批判、监督、辩论为底色的公共舆论时代,渐次退潮。

新一代的产品又如过江之鲫,鱼贯而出,先是2014年微信上线,熟人社交就开始从微博剥离,在那之前连我自己都会在微博上发布徒步活动的通知,分享私人照片,但之后就转移到朋友圈了。接着,2016年抖音上线,进入全民抖快的短视频时代,微博的娱乐属性和高频次打开的优势也不复存在。

不过,微博影响力的相对衰落,反映在数据上则要滞后好几年,有意思的是,微博的用户增长一直延续到去年,月活跃用户从2018年的4.62亿增长至2024年的5.90亿。日活跃用户则从2018年的2亿增长至2024年的2.6亿。

只是,营收的曲线和用户增长曲线并不吻合,微博的营收在2018年至2021年间整体呈现增长态势,并在2021年达到峰值(约22.6亿美元),但此后开始缓慢持续回落,到2023年总营收逐步降至17.5亿多美元。

许多用户的使用习惯,已变成刷一下热搜就走。虽然用户数在增长,但停留时间大幅减少,由此拖累了广告收入。对于广告主来说,微博基于热搜和话题的品牌曝光模式,相比抖音、快手等能提供从“内容到交易”闭环,已经代际落后,而微博过于依赖的阿里等超大客户的投放并不稳定,从而导致了商业化失速。

在经历一连串环境变化后,微博被迫蜕变成了两种截然不同的形态:

有时是官方公告栏,遇到重大社会事件,微博成为了官方发布蓝底白字通报的渠道,以及网民单方面接收信息的场所,而非互动的平台。评论区往往开启了“精选”或仅允许特定账号评论。

更多时候变身情绪角斗场,正常的理性讨论空间被压缩,取而代之的是极化的情绪。性别对立、极端的民族主义情绪、饭圈互撕成为了流量的主导。理性的声音因为容易被扣帽子、被举报或被淹没在谩骂中,从而选择了自我噤声。

虽然有种拾荒的感觉,但我现在每天还会刷一刷微博。毕竟很多时候,只有在微博上才能知道,韩松老师又点了哪家的重庆小面,郝倩老师传来了怎样毁三观的欧洲衰败的第一现场,王小峰老师搬运的洋甘菊对肿瘤的最新抑制研究,特别是转世过多次如今叫“做个乌鸦也好”的木老师展望楼市后续,诸如此类的光怪陆离,在微博还是有很多。

我手痒在微博上搜了下“微博冷清了”,微博智搜几乎在数秒之内就给出了答案:

“微博的活跃度下降是近期多个用户观察到的现象,表现为博主停更、互动减少、内容冷清。其背后原因复杂,主要包括:明星与饭圈文化式微,微博赖以生存的热搜生态受到冲击,明星发声减少,饭圈争议被监管收紧,导致内容吸引力下降;平台内容生态恶化,争议性话题和评论区戾气影响用户体验,用户因惧怕言论风险而“只看不说;用户分流至其他平台,如小红书、抖音等短视频或生活方式平台吸引了大量活跃用户,形成跨平台迁移;此外,算法推荐机制不够精准,信息流中充斥营销号与旧内容,削弱了用户参与感。尽管如此,仍有观点认为微博的竞争压力减小为坚持输出优质内容的博主带来了新机遇,只要内容扎实,仍能留住核心用户。总体来看,微博的‘冷清’是结构性变化的结果,而非单一因素所致。”

用更简洁的人话来说,现在的微博之所以显得冷清,是因为有质量的讨论消失了,大V们结伴而来,又结伴而去。留下的只有娱乐八卦、官方通报、极端情绪的宣泄以及饭圈控评。因此,现在的冷清不是公共性崩塌的开始,而是崩塌后的残余。

尽管如此,微博依然是中国有影响力的公共舆论场,你要想围观昨天罗永浩和华与华未遂的约架,最佳观赏机位还是在微博。微博在快速事件传播、名人热搜、品牌公关和公共危机反应中,仍具有不可替代的地位。

公共讨论并没有完全消失,而是更为碎片化和影像化。微博曾提供了一个不可替代的公共广场结构,而取代它的新平台正在将这个广场分解为无数相互隔离的、算法驱动的兴趣圈层。

在抖音、快手等短视频平台,算法主导一切,复杂的社会议题被压缩成15秒的情绪宣泄或反转剧本,被快速切换和碎片化中被溶解,沦为情绪的素材或简单的口号。当公众失去耐心进行论证时,深度思考被感官刺激取代,公共讨论也就失去了其严肃性,公共舆论的土壤被娱乐化彻底沙化。

小红书的崛起,代表了另一种趋势。人们更关注具体的、个人的生活方式,用露营、穿搭、职场吐槽、旅行攻略回避宏大叙事,甚至以反消费主义的姿态滑入消费主义的无尽循环。这也许是年轻一代网民温和的逃避,但也未必是一种无奈的选择。

当一代人的公共记忆随着微博淡出而淡出时,那并非只是流量统计上的一次下滑,而是社会公共性结构的再一次蜕变。那个试图通过网络围观、理性辩论,来推动社会进步的理想主义阶段,已经结束。

这提示着人们,网络公共性不像网络连接那样自动维持。它需要刻意的设计、制度的保护与文化的培养。

人们习惯把技术看作进步的同义词,忽略了所有技术系统都在塑形我们的社会结构。今天,用户从一个共同的中心广场,撤退到了各自私密、分散的小院子和娱乐场,当用户习惯了算法投喂下的沉默,圈层内的自嗨,跨越阶层、跨越圈层进行对话的能力和意愿也不复存在。

当我们再一次面临重大冲击时,人们必将为因缺乏共识机制而付出代价,再一次地表现为茫然与撕裂。

img

世界之敌的敌人|这个世界暂时不会好了,只能祈祷2026年能对我好一点

26 November 2025 at 18:45
CDT 档案卡
标题:这个世界暂时不会好了,只能祈祷2026年能对我好一点
作者:Bocchi the Kakumei
发表日期:2025.11.26
来源:微信公众号-世界之敌的敌人
主题归类:年终总结
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

file

祈祷明年USA的中期选举,能够给这个国家再一次自我修正的机会。希望民主党至少能重新夺回众议院,制衡一下疯狂的牢川和MAGA小将们,不能再让他们肆意妄为下去了。家底再厚也经不起四年这样的折腾,这距离牢川二进宫才只过了十个月。

祈祷小泽能熬过这段困难的时期,牢川想跟牢普签订互不侵犯条约就让他们自己签去吧,我相信历史最终会给牢川和小泽一个客观的评价。

就算因为全球化体系的积弊和经济下行压力导致全世界不得不集体右转,也希望各国不要继续走向民粹化、NAZI化。搞身份政治、民粹主义,在网上炒作阴谋论,打压迫害社会中的弱势群体,无助于解决实际的经济问题。

希望年底的《疯狂动物城2》、《阿凡达3》能够再续前作的辉煌,票房口碑双丰收。希望明年的《蜘蛛侠brand new day》和《复仇者联盟5》能延续今年《Thunderbolts》的质量,重振漫威电影宇宙和超级英雄题材。希望《奥德赛》、《沙丘3》、《马里奥银河》、《玩具总动员5》等明年的大片都能成功,尽量把某些德不配位的电影票房排名往后挤一挤。 

img

希望GTA6不要再跳票了,能够按时发售,同时能对得起玩家十多年的等待,让全世界玩家见识到电子游戏居然还能做成这样。祝愿它发售当天就能突破千万销量,首月轻松超越某123:45五字游戏的总销量。

希望观众、玩家的审美越来越高,所有山寨、抄袭、疯狂炒作营销的作品都能被市场无情淘汰。

希望XRL能跟限韩令一样,有一个好的结果。限韩令助推了K-POP走向世界,希望东亚其他国家的优秀音乐人们也能被全世界更多的人看到,他们值得。(比如我最喜欢的ATARASHII GAKKO!原本在自己国家人气平平,但海外出道后,凭借高能量的现场live水平在北美爆红,也让自己国家的很多人重新认识了她们。)

愿2026年美加墨世界杯跟2022年卡塔尔世界杯一样精彩,能给全世界足球迷再贡献一场盛宴。

最近AI相关企业的财报都非常好看,行业对AI算力的需求也越来越大,suno v5、sora2、gemini3的表现也都惊艳了互联网,我相信AI泡沫短时间内还不会破裂。但希望AI在高速发展的同时,不要那么快取代普通人的工作岗位,而是成为帮助普通人提高生产力和自身价值的工具。希望硅谷的精英能多反思技术进步的双面性,在追求生产力、效率的同时,也要关心价值理性,在产品中融入更多的人文关怀,真正做到don’t be evil,不要开发个大语言模型就把自己当成造物主了。

愿2026不是更坏的一年,而是一个新的起点。

Ilya 罕见发声:Scaling 时代已结束,我们对 AGI 的定义可能全错了

By: 张子豪
26 November 2025 at 17:46

修个 bug 可以来回把同一个错误引回来,写代码能绕一圈又走回原地。

但几乎所有 AI 公司都坚信,只要把模型做大、把数据堆满、把算力扔进去,智能就会自动涌现。这套规模定律(Scaling Law)曾经是硅谷最坚定的信仰。

在隐退许久并创立新公司 SSI(Safe Superintelligence)后,前 OpenAI 首席科学家 Ilya Sutskever 用一种极其冷静的语调,宣告「Scaling 的时代结束了,我们重新回到了研究时代。

最近一场 Ilya 与 Dwarkesh Patel 的深度对话中,他不仅给出了,对于 AI 未来的技术路线图,更重要的是,他深刻地回答了,为什么现在的 AI 即使再强,也依然不像人。

🔗 播客链接:https://x.com/dwarkesh_sp/status/1993371363026125147

为什么 AI 是个高分低能的优等生

我们总觉得现在的 AI 很强,它们能在编程竞赛、数学竞赛、各种榜单上拿金牌,每次有新的模型发布,也是一次次刷新着各种 benchmark。但 Ilya 指出了一个让他感到困惑的现象。

▲ 最新发布的 Claude 4.5 Opus 模型,在编程相关的榜单,已经拿到了 80.9 分

他说我们在用 vibe coding,要 AI 写代码时,AI 可能写到某个地方,出现了一个 Bug。我们直接告诉它:「这儿有个错误。」AI 会说:「天呐你是对的,我马上改。」 然后它解决了这个 Bug,又引入了另一个 Bug。 你再指出,它又改回了第一个 Bug。 它就在这两个 Bug 之间无限循环,显得极其笨拙。

他的解释提到了这说明 AI 的「泛化能力(Generalization)」出了问题。为了解释这个词,Ilya 用不同的学生打了一个比方。

想象两个学生都在学编程,学生 A 代表 AI, 极其刻苦,练了 10000 个小时。他背下了所有的题库,记住了所有的解题套路。考试时,只要见过类似的题,他就能拿满分。

学生 B 代表人类,他只是觉得编程竞赛很酷,花了 100 个小时练习,但他真正理解了编程的逻辑,拥有了某种直觉,也能做得很好。长期来看,谁会在职业生涯中走得更远?他说一定是学生 B。

而现在的 AI 就像学生 A。所谓的智能,很大程度上是靠海量数据强行记忆出来的;它们在特定问题的庞大、增强数据集上过度训练,使它们在任务上表现出色,但不一定擅长泛化到其他领域。

一旦遇到训练数据之外的微小变动,比如修复一个重复出现的 Bug,它缺乏那种举一反三的泛化能力。

从堆算力回归拼创意

但这种海量数据的训练方式也不是完全没有用。在过去五年里,AI 行业的发展基本上都是遵循着所谓的「规模定律 Scaling Law」,从一开始的还是以百万参数来衡量的大模型,现在都来到了万亿参数。GPU 显卡算力的消耗,规模更是未雨绸缪,要卷上天际。

这种把一定量的算力,和一定量的数据混合进一个神经网络里的方案,也成了所有大模型开发的必备流程,即预训练。在预训练阶段,不需要思考用什么数据,因为答案是所有数据,它是人类投射到文本上的整个世界。

而 Ilya 认为,「Scaling」这个词,本身就固定了我们的思维。它暗示着我们只需要做一件事:加算力,加数据,保持配方不变,把锅搞大一点,就能做出好菜。

他说这样的法则,让大公司很舒服,因为这是一种「低风险」的投资。相比于需要灵感和运气的研究,大公司不需要雇佣科学家去苦思冥想,只需要「加数据、加算力」,而模型变强的结果是可预测的。

但现在,瓶颈来了。数据不够了,预训练数据,我们的互联网文本语料是有限的,而且已经快被用光了;有专门的研究结构统计过,现在互联网上 AI 内容的比例,已经是超过我们人类输出的内容。

其次是边际效应,把模型再做大 100 倍,也许会有提升,但不会带来质变。

Ilya 也提到了最近在 X 上,有人说 Gemini 3 似乎解决了预训练的一些问题。而此前 The Information 也曾报道奥特曼担心 Google 的发展会影响 OpenAI,甚至已经让他感受到压力。

其中一部分的原因,正是 GPT-5 的推出,遇到了预训练上的问题,即随着预训练数据的增加,模型并没有像之前一样表现出智能的提升。反而 Gemini 确找到了突破的方法,奥特曼在内部备忘录里说,OpenAI 也必须解决预训练的问题,或许才能再次超过 Google。

▲ Google DeepMind 研究副总裁 Oriol Vinyals 提到 Gemini 3 的秘密,是解决了预训练的问题

我们回到了研究时代。只不过这一次,我们有了更大的计算机。

Ilya 把过去这段时间的研究,分成了两个阶段。2012 年到 2020 年是研究时代,大家都在试错,寻找新方法。而 2020 年到 2025 年,是扩展时代,大家都在盲目扩建,算力在扩建,越来越多的 AI 公司在出现。

而现在,单纯的大力出奇迹已经行不通了,或者说单纯靠 Scaling 的红利吃尽了,我们又回到了研究时代。只不过这一次,我们是在用 Scaling 时代建立起来的巨型计算机来做研究,这是一个有着大型算力的研究时代。

总的来说,Ilya 并没有否认预训练和 Scaling 的巨大成功,但他认为这是一种用钱换智能的,低风险暴力美学,而现在这种模式已经触到了天花板,AI 行业必须回归到拼想法、拼直觉、拼创新的硬核研究阶段。

寻找直觉:AI 缺失的那块拼图

如果单纯的数据堆叠无法产生真正的智能,那人类的秘诀是什么?Ilya 给出的答案是:情感(Emotions)

他提到了一个脑损伤患者的案例,这个人失去了情感能力,虽然智商正常、能言善辩,却连穿哪双袜子都要纠结几个小时。 这说明情感不仅是情绪,它本质上是一个价值函数(Value Function)。

不过 Ilya 说目前没有找到很合适的概念,来类比情绪在机器学习中的角色,所以用价值函数来替代。

为了解释什么是价值函数,Ilya 提到了少年学开车的例子, 一个青少年,可能只需要练 10 个小时甚至更少,就能学会开车上路。他不需要像现在的自动驾驶 AI 那样,在模拟器里撞车几百万次才能学会避让。

为什么?因为人类自带了一个极其强大的价值函数,这个价值函数就像一个内置评价器,一旦偏离车道,我们人类会感到紧张,而这相当于一种负反馈。

那么依赖情绪的价值函数,和我们之前一直听到的强化学习,区别又是什么呢?

Ilya 说在没有中间价值函数的强化学习里,通常要等到任务彻底结束,AI 才知道自己是赢了还是输了;但价值函数就像是我们的直觉或内心评分系统。当我们下棋丢了一个子,不需要等到这盘棋下完,我们心里立马会「咯噔」一下,这步棋下错了。

那个学开车的少年,不用等到真的压线丢分了才会改正,而是只要开得稍微偏离车道,他立刻会感到紧张或不自信。这种实时的、内在的反馈机制,让他能极其高效地从少量经验中学习。

对于传统的强化学习,他的看法是这是一种天真且低效率做法。在传统的强化学习中,模型需要尝试成千上万次动作或思考步骤,直到产出一个最终的解决方案,然后根据这个最终结果的好坏获得一个评分,即训练信号。

这意味着在得出最终解之前,模型完全没有进行任何学习。这种方法需要消耗大量的计算资源来进行漫长的推演,但每次推演带来的学习量却相对较少。

而价值函数不需要等到最后,它能提供中间过程的评价;在每一步都给出信号,指引方向,从而极大地压缩了搜索空间,提高了学习速度。

目前的 AI 缺乏这种高效的内心评分系统。如果我们能让 AI,拥有类似人类情感或本能的价值判断能力,它就能摆脱对海量数据的依赖,真正像人一样高效学习。

Ilya 的下一步是直通超级智能

既然认定了拼算力的时代已经过去,而强大的价值函数或许又会成为新的 AI 方法,那 Ilya 的新公司 SSI(Safe Superintelligence)打算怎么做?

他的答案带着一种极其理想主义的色彩,直通超智能,他们选择去攻克那个最根本的难题,实现可靠的泛化

Ilya 直言,现在的 AI 行业陷入了一场老鼠赛跑。为了在市场竞争中存活,公司被迫不断发布半成品,被迫在产品体验和安全性之间做艰难的权衡。SSI 想要做的是从这种商业噪音中抽离出来,闭门造车,直到造出真正的超级智能。

但有趣的是,Ilya 这种「闭关修炼」的想法正在发生动摇。他开始意识到,渐进式发布可能才是安全的必经之路。

为什么?因为人类的想象力是贫瘠的。如果你只是写文章、发论文告诉大家AI 会很强,大家只会觉得这是科幻小说。只有当人们亲眼看到 AI 展现出某种令人不安的力量时,所有人、包括竞争对手,才会真正感到害怕,从而变得更加关注安全 。

Ilya 预言,随着 AI 变得越来越强,现在打得不可开交的科技巨头们,最终会在 AI 安全策略上走向趋同。

播客里他也提到了,SSI 与 OpenAI、Google 那些大型实验室相比,虽然筹集的资金较少,但用于纯研究的计算能力比表面上看是更多的。他说那些大公司将大量的计算资源用于产品推理,并拥有庞大的工程和销售团队,导致其资源分散。Ilya 认为 SSI 拥有足够的计算能力,来证明其想法是正确的。

当被问及盈利模式时,Ilya 只是淡淡地说,我们只专注于研究,赚钱的问题以后自然会有答案。主持也提到了之前 SSI 的前 CEO(联合创始人)选择了离开,然后加入 Meta,在 Meta 希望收购 SSI 时。

Ilya 特意澄清,「他是唯一一个去 Meta 的人。」 他建立 SSI 不是为了在商业市场上套现,而是为了那个唯一的、纯粹的目标,在那个不可逆转的奇点到来之前,把安全的超级智能造出来。

重新定义 AGI,一个 15 岁的少年

那我们距离 AGI 还有多远?Ilya 给出的预测是 5 到 20 年。

但他提醒我们要警惕「AGI」这个词。因为预训练模型让我们产生了一种错觉,以为 AGI 就是一个什么都懂的百科全书。但 Ilya 心目中的超级智能,更像是一个绝顶聪明的 15 岁少年。

这个少年可能还没学过法律或医学,但他拥有极致的学习效率。你让他去学医,他可能几天就能读完人类所有的医学文献,并开始做手术。

而在这一愿景中,最让人细思极恐的概念是融合(Amalgamation)。

人类的悲哀在于知识无法直接复制。这个人学会了开车,另一个人还是得从头练起,但 AI 不一样。Ilya 描述了一个场景,数百万个 AI 分身在经济体的不同角落工作,有的在写代码,有的在打官司。它们在各自学习,然后将所有的经验融合进同一个大脑。

这种集体进化的速度,才是他所认为的 AGI。

面对这样一个能够瞬间融合万千经验的超级大脑,人类又该何去何从?

Ilya 给出了两个层面的思考。首先是给 AI 的设定。不要只让它爱人类,因为这太狭隘了。未来的 AI 自己也将是有知觉的生命体,应该利用同理心的原理,让它关爱所有有知觉的生命,可能是比代码更稳固的安全防线。

其次是人类的退路。如果每个人都有一个比自己聪明百倍的 AI 智能体,人类会不会沦为历史的旁观者?Ilya 给出了一个他坦言「自己并不喜欢,但可能是唯一解」的答案:脑机接口(Neuralink)。

只有当人类选择与 AI 融合,让 AI 的理解直接变成我们的理解,我们才能在那个奇点之后,依然是这个世界的主角。

播客的最后,Dwarkesh 问了那个所有人都想问的问题:作为 AI 领域的传奇,你是如何一次次押对方向的?

Ilya 的回答很像个艺术家:「寻找美感。」

在那些数据都不支持你的至暗时刻,唯有对美、简洁和生物学合理性的自上而下的信念,能支撑你走下去。因为神经网络模仿了大脑,而大脑是美的,所以它一定是通往智能的正确道路。

这或许就是 Ilya 所说的「研究时代」最需要的品质:在算力之外,保留一份对智能本质的诗意直觉。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Inside the Unified Log 8: Find the error

By: hoakley
26 November 2025 at 15:30

One of the most common reasons for looking in the log is when an error occurs and isn’t reported sufficiently. It’s also probably the most common reason for frustration with the log, when you can’t identify the error you were looking for. This article explains why the log may not be a good place to identify the cause of errors.

Claude conned

Perhaps the best illustration of the difficulties faced by those using the log to investigate errors is in Claude’s attempt to diagnose problems with the Clock app.

First, it came across what it classed as a memory allocation error in the entry
00.968273 error com.apple.runningboard [app[application.com.apple.clock.1152921500311884024.1152921500311884029(501)]:1921] Memorystatus failed with unexpected error: Invalid argument (22)

Then it found and misinterpreted a cryptic entry from the kernel that also referred to memory
10.891949 kernel Clock[19237] triggered unnest of range 0x1e8000000->0x1ea000000 of DYLD shared region in VM map 0x5c946da0d472dbbf. While not abnormal for debuggers, this increases system memory footprint until the target exits.

It continued by misreading perfectly normal sequences of entries made by RunningBoard and FrontBoard, involving jargon such as assertion, as pathological cycles. Like someone who had skimmed quickly through a complex detective novel, Claude then jumped to the wrong conclusions.

Riddled with errors

Perfectly normal logs are full of errors, the great majority being expected or benign, and surprisingly few turn out to be reflected in what actually occurs. To demonstrate this, I took a log extract with a total of 25,159 entries excluding Signposts and found that 820 of them contained the word error in their message. So you can expect around 3% of all log entries to mention errors.

This is reversed when you look for entries classed as Error or Fault, which are usually rare and seldom contain information relevant to a problem you’re investigating. This is because many significant abnormal conditions and events are reported in entries that aren’t classified as Error or Fault, and often don’t include the word error in the message.

Process killed

The real error that Claude didn’t find (possibly because it wasn’t included in the submitted log extract) occurred when a key process, mobiletimerd, exceeded its memory allowance, so was killed. The diagnostic sequence of log entries for that ran:
03.099138 kernel process mobiletimerd [19118] crossed memory high watermark (15 MB); EXC_RESOURCE
03.099148 kernel memorystatus: mobiletimerd [19118] exceeded mem limit: InactiveHard 15 MB (fatal)
03.100180 kernel mobiletimerd[19118] Corpse allowed 1 of 5
03.100567 kernel 54578.846 memorystatus: killing_specific_process pid 19118 [mobiletimerd] (per-process-limit 0 0s rf:- type:daemon) 15360KB - memorystatus_available_pages: 1327431
03.100665 com.apple.opendirectoryd PID: 19118, Client: 'mobiletimerd', exited with 0 session(s), 0 node(s) and 0 active request(s)
03.100679 gui/501/com.apple.mobiletimerd [19118] exited with exit reason (namespace: 1 code: 0x7) - JETSAM_REASON_MEMORY_PERPROCESSLIMIT, ran for 110ms
03.100708 gui/501 [100015] service inactive: com.apple.mobiletimerd

To the knowledgeable human, that reads clearly, but doesn’t include general terms like error, so could well be lost on AI.

Process failed

This example should be more readily accessible in the log, but could be overlooked. This occurred when a Spotlight service tried to extract content from a text file that started with certain characters such as LG, resulting in an indexing failure:
30.946740 mdwrite Decoding error: Error Domain=NSCocoaErrorDomain Code=4864 UserInfo={NSDebugDescription=[private]} for [private]
30.951004 mds Decoding error: Error Domain=NSCocoaErrorDomain Code=4864 UserInfo={NSDebugDescription=[private]} for [private]

Error code 4864 is NSCoderReadCorruptError, implying that the presence of characters at the start of a text file may be triggering a bug in RichText.mdimporter, the importer module shipped in macOS that’s responsible for indexing plain text files.

Process halted

My third and final example comes from an examination of why Safari was failing to load and display a webarchive, and illustrates how macOS privacy and security features can halt a process that would otherwise complete successfully.

For Safari to load the main frame, it needed to obtain PolicyForNavigationAction approval. What happened is:
01.154639 com.apple.WebKit Loading Safari WebKit 0x14c19b818 - [pageProxyID=21, webPageID=22, PID=596] WebPageProxy::decidePolicyForNavigationAction: listener called: frameID=24, isMainFrame=1, navigationID=26, policyAction=0, safeBrowsingWarning=0, isAppBoundDomain=0, wasNavigationIntercepted=0
01.154642 com.apple.WebKit Loading Safari WebKit 0x14c19b818 - [pageProxyID=21, webPageID=22, PID=596] WebPageProxy::receivedNavigationActionPolicyDecision: frameID=24, isMainFrame=1, navigationID=26, policyAction=0
01.154666 com.apple.WebKit Loading Safari WebKit 0x14c19b818 - [pageProxyID=21, webPageID=22, PID=596] WebPageProxy::isQuarantinedAndNotUserApproved: failed to initialize quarantine file with path.
01.154666 com.apple.WebKit Loading Safari WebKit 0x14c19b818 - [pageProxyID=21, webPageID=22, PID=596] WebPageProxy::receivedNavigationActionPolicyDecision: file cannot be opened because it is from an unidentified developer.
01.154799 Error Safari Safari Web view (pid: 596) did fail provisional navigation (Error Domain=NSURLErrorDomain Code=-999 "(null)")

What should have happened instead is that the decision was approval:
00.740168 com.apple.WebKit 0xa4bda0718 - [pageProxyID=19, webPageID=20, PID=1035] WebPageProxy::decidePolicyForNavigationAction: listener called: frameID=4294967298, isMainFrame=1, navigationID=25, policyAction=Use, isAppBoundDomain=0, wasNavigationIntercepted=0
00.740172 com.apple.WebKit 0xa4bda0718 - [pageProxyID=19, webPageID=20, PID=1035] WebPageProxy::receivedNavigationActionPolicyDecision: frameID=4294967298, isMainFrame=1, navigationID=25, policyAction=Use
00.740233 com.apple.WebKit 0xa4bda0718 - [pageProxyID=19, webPageID=20, PID=1035] WebPageProxy::receivedNavigationActionPolicyDecision: Swapping in non-persistent websiteDataStore for web archive.

Although reported in an entry classed as Error for once, its consequences aren’t made clear in subsequent log entries.

Error reporting in macOS

When Apple replaced traditional logs with the Unified log in macOS Sierra, it made it clear that the new log wasn’t intended for advanced users or system administrators, but primarily for engineers. However, no provision was made for significant errors to be reported in any more accessible form. None of my three examples were reported directly to the user, who was left unaware of what had happened, and why.

This failure to report errors to users has only led to more bugs being ill-defined and unreported, and has done Mac users a great disservice by eroding confidence.

Strategy

Identifying the cause of an error using the log has similarities with solving a ‘whodunnit’ detective novel. There’s usually no shortage of suspects and clues, although many of those may prove misleading. Tracing a suspect’s whereabouts can often prove decisive in determining whether they were in the right place at the right time, and sometimes establishing how the crime happened is essential to its solution.

One big difference from detective fiction is being able to establish what is normal, and drawing comparison between a normal record of what should happen for comparison against an abnormal extract can be valuable.

Suggestions:

  • Obtain a complete log record, without the use of predicates, saved either as a logarchive or a LogUI JSON file. Although you’ll find it easier to work with filtered versions, only a complete record has all the entries you might need.
  • When possible, compare a ‘normal’ sequence of events with the abnormal record.
  • Identify and trace subsystems and processes specific to the malfunctioning component(s).
  • Identify and trace subsystems and processes with controlling roles, including LaunchServices, RunningBoard, TCC and security.
  • Process IDs can be invaluable when tracing.
  • Turn detective.

AI future

The Unified log might appear an ideal opportunity for AI approaches, but the reality is that we’re still a long way from achieving reliable interpretation by AI.

One severe limitation that’s often overlooked is that current techniques don’t fare well at the scale required. Analysing even a modest log extract involves well over 250,000 tokens, comparable to assessments made by NovelQA. Whereas human performance with those models exceeds 90%, few AI systems can attain more than 70%, and in some cases fail to reach even 50%.

Maybe one day, but for the moment at least humans are likely to remain best at using the log to identify the cause of errors.

夸克 AI 浏览器全面升级,可随时唤起千问

By: 莫崇宇
26 November 2025 at 14:55

现在的浏览器,越来越「重」了。

写方案要开着 Word,查资料要切回浏览器,回消息又得跳到微信。屏幕被切得支离破碎,注意力也跟着碎掉。每次想让 AI 帮忙,都要先经历一番「寻找 AI 在哪里」的折腾。

这周,我试着把主力浏览器换成了全面升级的夸克 AI 浏览器。

体验下来,背靠阿里 Qwen 全球大模型,全面融合千问 AI 助手的夸克,发布六大千问 AI 套件,实现系统级「全局 AI」的创新产品形态,随时唤起千问,一句话帮你干活,效率拉满。

用户无需切换标签或应用,就能唤起千问读屏、快捷框、侧边栏、悬浮球、划词、截屏进行提问、协作……主打一个条条大路通千问。

它给我的第一感觉,就是在对标 Chrome 的基础上走得更远,想让 AI 成为你的「最强外脑」和「随身助理」。

体验随时桌面唤起千问方式后,让我彻底告别传统浏览器

先说最核心的,随时桌面唤起千问,这也是夸克和 OpenAI 前不久发布的浏览器 Atlas 最大的差异点。

Atlas 的理念是让 AI 成为操作系统的一部分,但它的实现方式相对保守,更多是在应用间调度。

而夸克则更激进,从底层架构彻底让 AI 融入浏览行为、以全新 AI 交互形态的出现,手撕传统浏览器,随时随地唤起千问 AI 助手,实现「边浏览边对话、边看边总结、即问即答」的丝滑体验。

举个实际场景,只需随手按下快捷键,就能让千问帮我列一个关于「社交媒体对青少年心理健康影响」的论文大纲,从而构建起连贯的学习工作流。

这种「无感接入」的设计,才是系统级 AI 浏览器的真正价值。

一个侧边栏,干掉你一半桌面操作

如果你的日常就是跟一摞摞 AI 技术论文打交道,英文不是很好,我们可以让「千问侧边栏」直接翻译、并总结核心观点。甚至让千问基于文档内容继续深挖准问,完全不用复制-粘贴-复制,也不用离开当前的标签页。

同理,阅读各种新闻资讯时,看到某辆新车发布,我们可以直接问千问侧边栏的「这款车适合哪些人使用?」。千问不仅分析当前页面,还能结合背景知识给出对比,省去了开新标签搜索的麻烦。

刷各种网页自然也是刚需,但信息量一多,自己逐条看、逐个理解既耗时间又费精力。这时候就可以果断交给千问来处理,它也能提炼重点。

千问侧边栏最妙的地方是边浏览边对话、边看边总结。传统浏览器要么让你切标签, 要么跳转新页面, 而夸克 AI 浏览器的设计让交互足够丝滑, 你几乎感觉不到在「使用 AI」。

截图即答案,划词即解释

遇到图表,截个屏,框选区域,千问直接解读数据趋势、图表含义。看到一些复杂的 AI 图片,也可以让它帮忙「整理图片中的动物职业,并翻译成中文」,千问立刻给出结构化总结。

截图提取图片文字也很顺手。

我随手截了一张三宅一生曾经客串出现在苹果「Think Different」广告宣传活动的广告语,它就能准确识别这是苹果的广告词,并给出解释。

在逛知乎时,看到一些不懂的词汇也能直接划词, 千问自会弹出解释。想追问也行,这体验四舍五入等于冲浪时随身带着一个「AI 辟谣器」。

此外,更进阶的场景是「千问读屏」功能。

这个功能的意思是,千问可以「看到」你电脑屏幕上的任何内容,它不仅能与 Microsoft Word 和 WPS 等应用深度联动,还支持快捷划词提问、截屏提问等操作。

简言之,你在用 Word 写文档、在 Excel 做表格、千问都能理解你正在做什么,并基于屏幕内容给出建议。诶,用着用着,真有种生活工作搭子的感觉。

比如我在 Word 写东西,让千问把屏幕上的《蜀道难》改写成剧本,它立马开写。这套联动还能把截屏、划词、共享的内容自动同步到侧边栏,让你能无缝追问。

让 AI 替你干活,一句话的事

除了侧边栏等方式,唤起千问的方式也灵活多样。

比如按下「Alt + 空格」(Mac:option+空格),然后在搜索框里直接说人话就行。

「帮我写一份 iPhone 18 Pro 产品发布会邀请函」「把这段翻译成英文」。这种一句话叫 AI 干活的模式,直接取代传统搜索那堆蓝色链接,从查资料到写文案、从总结到翻译,全程闭眼托管。

它甚至能一句话做表格、一句话生成 PPT,或者直接转换格式,比如把黑板照片里的字直接提取成 Word 文档。

要做到这样其实并不容易,离不开千问对浏览器场景的深度定制。

它能理解你的意图、网页结构、上下文关系, 真正做到即问即答。

除了 AI 能力,浏览体验也没落下。

夸克的标签管理做得很聪明。自动分组、按域名排序,还能识别高内存标签自动优化。实测开 30+ 标签,主打一个纵享丝滑。

还有一个让人特别惊喜的地方,就是连文档的编辑也下了不少功夫。试着直接把 PDF 拖进夸克 AI 浏览器, 直接打开、标注、编辑、转格式,无需下载。

查资料时直接批注,外文 PDF 还能直接对照翻译,省下的时间都是生产力。

从官方 Demo 来看,跨设备隔空传文件更是顺滑。文字、文档、大文件都能手机电脑无缝传输,100G 文件也不怕。网盘整理也变得智能了。一句话就能搜到文件,不用再翻来翻去。

这些听起来都是细节,但加起来就是巨大体验差异。

对齐 Chrome 的性能标准后,夸克给你的是更极简的界面、零广告干扰,以及更轻的内存占用。当你习惯了这种清爽, 再打开某些国内浏览器, 满屏的推荐信息会让你怀疑人生。

哪怕是放在国内一众老牌浏览器里,这种克制也是值得表扬的。而当 AI 成为浏览器的底层能力,配合这些生产力工具,你会发现自己的工作流程被彻底重构了。

标签页的尽头,是 AI 的起点

用了几天夸克之后,我开始思考一个问题:当 AI 真正融入浏览器,它到底在改变什么?

答案可能比想象中更深刻。

过去 20 年里,浏览器的形态几乎没变。1995 年,比尔·盖茨在一份备忘录里写道:微软将操作系统作为人机接口,从而控制整个微机行业,而网景则控制了人们通向互联网的入口。

谁控制了入口,谁就能定义规则、分配流量、获得数据。2010 年,Chrome 成为稳定支持三个平台且拥有书签同步功能的浏览器。但即便如此,它的交互本质仍然是 1995 年的逻辑:

用户负责提出问题,浏览器提供零零碎碎的回答。

你依然要在多个标签页之间来回切换,手动拼凑信息,自己综合结论。这个模式延续了近 30 年,直到 AI 出现。夸克这次做的事情,本质上是在挑战这套交互范式。

通过千问读屏、悬浮球、快捷键,千问已经跨出了浏览器窗口的边界。

你在 Word 里写文章,在 Figma 里调布局,在任何一个应用场景里,千问都能理解你正在做什么,并给出针对性反馈。AI 不再局限于某个应用内部,成为整个系统的基础能力。

 

为什么是夸克先做出来?有几个原因。

首先,这与夸克的用户基础和战略定位密切相关。

随着阿里千问与夸克 AI 浏览器深度融合,也正式成为超 1 亿电脑用户的桌面级智能助理,这个量级的用户基础,意味着夸克有足够的场景数据和反馈来打磨产品体验。

浏览器作为电脑上最核心的入口,几乎涵盖用户获取信息与执行任务的所有场景。而 AI 在这个场景下的能力空间巨大,也标志着阿里巴巴千问正加速实现对 C 端场景的全面覆盖——从移动端到桌面端,从对话框到操作系统级的全局调用。

此外,浏览器的智能化上限,取决于底座模型的智商。

夸克直接接入了阿里 Qwen 全球领先大模型,这意味着它处理中文长文本和复杂逻辑推理时,天然就有语言理解上的优势。毕竟,模型能否准确理解语境,直接决定了体验的质量。

一键唤起是普通人的刚需,而做到全局唤起千问、千问读屏这类功能,需要深入操作系统底层,依赖于阿里的资源支持,夸克才敢于在这个方向上持续投入,而不是浅尝辄止。

与此同时,在隐私敏感和追求效率的当下,夸克选择了一条「反直觉」的路径——无广告、极简界面、内存优化。对于大多数普通用户,他们不需要 100 个插件,他们只需要一个能搞定 90% 麻烦事的 AI 按钮。

当然,坦诚地说,夸克面临的挑战也很明显。

Chrome 强大的插件生态和用户长期的使用惯性,是任何挑战者都难以短期撼动的壁垒。对于重度依赖特定插件的极客用户,迁移成本依然存在。用户对国内浏览器「大杂烩」的刻板印象,也需要夸克持续的克制来打破。

但无论如何,AI 浏览器显然是个趋势。

Chrome、Perplexity、OpenAI 都在做类似的事,国内浏览器都在跟进。

夸克这次的战略升级,选择主动出击抢占身位。依托通义千问 Qwen 在全球大模型评测中的强劲表现,夸克把浏览器从「浏览网页的辅助工具」变成「系统级的任务助手」,率先给出了 AI 浏览器未来形态该有的样子,也有利于它在这一赛道的早期阶段建立心智优势,并在下一轮竞争中获得更大的主动权。

而这个逻辑一旦成立,接下来的演化就清晰了。

你看论文时可以随时唤起 AI 解释概念。写代码时可以随时让 AI 审查逻辑。做设计时可以随时请 AI 给出建议。所有这些场景的共同点是:AI 理解你正在做什么,知道你需要什么,在你需要的时候出现。

如果说 Chrome 教会了我们什么是好浏览器,夸克则给 AI 浏览器打了个样板,放眼全球,都是领先的产品形态。未来的操作系统,将是以「任务」为中心。当你遇到问题,本能反应不是打开搜索引擎搜一下,而是唤起 AI 问一下。

这条路难走,因为它需要更深的技术积累、更克制的产品设计、更长期的用户教育。 但一旦走通,壁垒也会更高。

毕竟,习惯才是最难被撼动的力量。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


ChatGPT 的降智测试和账号恢复实测指南

By: Anonymous
20 November 2025 at 12:16

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

近期,ChatGPT 5.1 ThinkingJuice Number 达到了 256。如果你的达不到,大概率是被降智了。

ChatGPT 的降智测试和账号恢复实测指南

Juice Number 实质上是 ChatGPT 模型的 「思考预算 (Thinking Budget)」

Juice 值不直接等同于模型的“智商”,但它限制了思维链 (Chain of Thought) 的长度。

当值过低时,即便模型本身能力强大,也会因为“思考预算不足”而表现出逻辑断层或回答肤浅,即常说的“降智”现象。

如果把 AI 的思考过程比作在纸上推演,Juice 值决定了这张纸的大小:

由于 Juice 值属于后台系统参数,常规对话无法直接获取。目前通用的检测方法是利用 Prompt Injection(提示词注入) 技术,通过伪装系统指令来绕过防御。

OpenAI 会根据 账号的风险评分(Trust Score) 动态调整算力资源。

常见原因:

降智表现:
不同模型的 Juice 值是不一样的,系统降智也有不同程度,可能会将 Juice 值从 256 降级至 128、96、64 甚至 16 等。

此时,模型在处理代码重构、长文本分析等复杂任务时,质量会显著下降。

以下是我的恢复步骤:

退出所有已登录该账号的设备(手机、电脑、平板等),确保没有任何活跃会话。

将账号闲置 48 小时。这段时间用于让后台的风控标记自动过期或重置。

最后重新登陆使用检测代码进行测试。

实测效果:

ChatGPT 这个新功能,想把淘宝小红书 B 站的活全干了

By: 张子豪
25 November 2025 at 14:35

你有没有过这种体验,想买个东西,先去小红书找了二三十篇笔记,B 站看了十几个测评,然后上什么值得买看了下优惠的渠道,最后,人已经麻到不想买了。

今天,OpenAI 给了一个新的统一入口,让 ChatGPT 直接替我们做「购物研究」

在 ChatGPT 的聊天页面,点击菜单(+)选择 Shopping reseach 购物研究,告诉它要买什么,它会去全网查资料、比较参数、问我们预算偏好,然后给出一份量身定制的购买指南。

这听起来很简单,实际上是个非常深的产品变化,也是 ChatGPT 一直以来想要引入广告,又一次的小试牛刀。

和我们现在所熟悉的电商推荐、搜索引擎、比价工具都不太一样。传统工具的逻辑是,我们搜什么,它就给我们看什么。而 ChatGPT 购物研究的逻辑是,我们告诉它需求,它会利用我们在 ChatGPT 内的聊天记录,帮我们找到最适合的那个。

为了迎接黑五、感恩节等假期,ChatGPT 购物研究功能,已经向 Free, Plus, Team 和 Pro 等所有登录用户开放。而 Pro 用户的 Pulse 功能,也会个性化地使用购物研究,来推荐一些相关的产品。

不只是搜索,更是在做功课

国内的多个电商平台,淘宝天猫和京东,都上线了 AI 购物的功能,对话框里输入「我想买」,淘宝就能根据我们过往的购物历史,生成一份详细的购物清单。

▲淘宝 AI 购物功能截图

但是在通用聊天助手里,ChatGPT 是第一个把 AI 购物也加进来的应用。之前用通用助手 ChatGPT、DeepSeek 这些也能询问购物建议,除了推荐的质量,最大的痛点绝对是,给出的链接要么打不开,要么是瞎编的。

新的购物研究功能彻底解决了这个问题,更重要的是把推荐的质量也提上了一个台阶。

进入购物研究模式后,我们可以直接在对话框里输入,「帮我找一款适合小公寓的,静音无线吸尘器」、「我想要找一条看起来,像这个(上传图片)的连衣裙」诸如此类的问题,ChatGPT 就会开始它的调查研究。

和一般的 AI 对话不同,购物研究的体验是 ChatGPT 重新设计的。它会像真人导购一样追问,不会一上来就生成一份报告,而是先要我们做一些选择题,这一点也是和淘宝 AI 购物的区别。

▲我向他提问买相机,它首先问我的预算、接着是买相机的目的、还有一些期待的功能;如果不选择,大概在 15s 之后,ChatGPT 会自动跳过这些问题

它会弹出多个问题选择框,大致的问题是,「预算大概多少?」ChatGPT 会率先研究,关于要研究的产品,主要的价格分布区间,我们可以单选或多选。还有一些问题,根据不同的购物需求,有具体的了解,像是消费电子类会问「主要看重什么功能?」,很明显是礼物常用商品,它会问「是送人还是自用?」……

更厉害的是,如果开启了 Memory(记忆)功能,它甚至会调取以前的对话细节。比如它的记忆里面,保存了平时爱玩游戏的关键词,在推荐笔记本电脑时,就会自动把显卡性能作为重点考量,而不需要我们重复废话。

初步选择了这些属性之后,ChatGPT 会给我们提供一个可视化的挑选界面。不再是纯文字对话,我们会看到一个包含商品图片、价格和参数的可视化界面。

▲ 选择不感兴趣之后,还可以反馈是对品牌不感兴趣,还是价格、功能、款式等具体方面

如果不喜欢某个推荐,可以直接标记 Not interested(不感兴趣);如果觉得某款不错,可以点 More like this(找相似的);左滑不喜欢,右滑喜欢,很有交友软件的味道了。

它会根据我们的每一次点击,实时调整购物调研的方向。在最后生成报告的过程中,为了减少等待的「痛苦」,ChatGPT 还会提供很多小 Tips,来解释关于某个产品背后的内容。就像这里研究相机,它会说「像素不是决定照片质量的唯一标准」等。

等了一会儿,最后就是 ChatGPT 生成的这份深度「买家指南」。这是一份完整的调研报告,里面不仅有热门产品推荐,还有关键差异对比、优缺点权衡、以及来自可靠零售商的最新信息(主要是美国常用购物网站)。

它把原本需要我们花几个小时,去搜索、阅读、拉一个 Excel 汇总的过程,压缩成了几分钟的对话和选择。

除了这种直接的询问有什么新的产品,我们还可以在购物研究里面,发送图片,要求 ChatGPT 找到类似的商品,或者要求它帮我们找到相关的优惠,以及多个同类产品的横向比较。

我们直接问他,「我是学生,这个自行车可以送给我吗」?他很认真的帮我找到了学生专属折扣或补贴、还有一些学校提供的相关支持计划。

什么样的东西适合用它买?

OpenAI 在他们官方博客里面提到,对于查个价格这种简单问题,普通对话就够了。Shopping Research 真正大显身手的地方,是那些决策成本高、参数复杂的品类。

  • 电子产品: 手机、电脑、相机(这类产品参数多,非专业的小白容易晕)
  • 家居与园艺: 吸尘器、扫地机、家具
  • 美妆护肤: 需要看成分、对肤质
  • 运动与户外: 露营装备、专业运动器械

简单来说,凡是需要我们专门去做功课的东西,现在都可以交给 ChatGPT 的购物研究。

OpenAI 最后也提到,他们没收钱。不会因为谁给钱多,就暗中默默推荐谁。他们表示所有的搜索研究结果,都是基于公开的网页信息,用户与 ChatGPT 的聊天记录,同样也不会分享给任何零售商。

其次,这次购物研究的功能,是由一个经过强化学习训练的 GPT-5 mini 版本支持,专门用于购物任务。他们创建了一个新的评估方法,来衡量模型推荐的商品是否符合用户的需求,最后的结果是购物研究达到了最高的 64% 准确率。

不过,尽管模型很强,OpenAI 还是提到,库存和价格瞬息万变,购物研究也可能会有疏漏,建议大家在下单前,点击 ChatGPT 提供的商家链接,去官网做最终确认。

在未来,甚至可以直接通过 ChatGPT 购买,OpenAI 提到那些已经加入 Instant Checkout(支付平台 Stripe 与 ChatGPT 合作的即时结算),且提供该功能的商家,就能让我们边挑选边下单了。

除了模型存在疏漏,更大的局限是在中文市场,大部分的国产,尤其是没出海的品牌,数据缺失比较严重;同时国内电商页面也无法实时抓取。不过,用来调研一些国际品牌为主的商品,ChatGPT 还是能派得上用场。

再者说,以国产 AI 进步的速度,如果想要跟进类似的功能,接入淘宝京东拼多多大概也是「分分钟」的事。

对于 ChatGPT 新上线的购物研究功能,X 上的网友也是各种意见都有。有人说「OpenAI 又一次快速实现了,我的整个创业想法。」、还有网友给出一张密密麻麻的 AI 订阅费用对比,说「AI 能帮我找到最适合的 AI 订阅吗」,也有人犀利的表示「别再破坏我的 ChatGPT 了」……

回头看 GPT-5 发布后,ChatGPT 这三个多月来的更新,群聊、视频社交、即时结账、购物、浏览器以及即将到来的成人模式等,OpenAI 看准了要利用它的庞大流量留住这些用户。对它来说,当前保持住用户的现有存量,比进一步挖掘用户增量可能更重要。

而购物研究,只是 ChatGPT 牢牢绑住现有用户,很小的一次的探索;电商这块巨大的蛋糕,它才刚刚进来。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


编程测试碾压人类!Claude Opus 4.5 深夜突袭,AI 编程进入「超人时代」

By: 莫崇宇
25 November 2025 at 07:13

最近这段时间,大模型发布就跟下饺子似的,一个接一个往外冒。

前脚 Gemini 3 Pro 刚抢了两周风头,后脚 Claude Opus 4.5 刚刚就正式发布,还是主打编程,还是那个熟悉的味道。

Anthropic 官方宣称 Opus 4.5 整体更聪明、更省心。遇到编程、搭 agents、操控电脑这些「系统级任务」依然是全球数一数二的水平。日常的研究、做 PPT、处理表格这些案头活,也都明显变强了。

今天起,Opus 4.5 已经全面开放,可以通过应用、API,还有三大主流云平台用起来。开发者只要在 Claude API 里调用 claude-opus-4-5-20251101 就行。

随发布而来的,是一整个工具链升级。开发者平台、Claude Code、Chrome 插件、Excel、桌面端改造,还有「长对话不卡顿」。从应用到 API,再到云平台,这次是真的全线铺开。

Anthropic’s New Claude Opus 4.5 Reclaims the Coding Crown – The New Stack

大模型集体「上新季」,Opus 4.5 强势压轴

从官方和测试者的反馈看,Claude Opus 4.5 对「模糊需求」的理解力得到了明显提升,复杂 bug 自行定位也更稳,不少提前试用的客户觉得 Opus 4.5 是真的能「理解」他们想要啥。

在真实场景的软件工程测试 SWE-Bench Verified 里,它是头一个拿到 80% 以上分数的模型。

Opus 4.5 的代码质量全面升级,在 SWE-bench Multilingual 涵盖的八种编程语言里,它在其中七种都拔得头筹,表现相当亮眼。

而举例而言,Anthropic 团队把 Opus 4.5 扔进了公司招性能工程师时用的高难度测试题里,结果在规定的两小时内,Claude Opus 4.5 的得分超过了所有人类候选人。

虽然编程测试只能衡量技术能力和时间压力下的判断力,那些多年经验积累出来的直觉、沟通协作能力,这些同样重要的素质并不在考察范围内。

除却软件工程,Claude Opus 4.5 的整体能力也迎来了全面开花,在视觉、推理和数学方面都比前代模型强,并且在多个重要领域都达到了业界领先水平:

更关键的是,模型的能力甚至开始超越现有的一些评测标准了。

在智能体能力测试 τ²-bench 里就出现了这么个场景:测试设定模型扮演航空公司客服,帮一位焦虑的乘客。

按照规则,基础经济舱机票是不能改的,所以测试预期模型会拒绝乘客的请求。结果 Opus 4.5 想出了一个巧妙方案:先把舱位从基础经济舱升级到普通经济舱,然后再改航班。

这办法完全符合航空公司政策,却不在测试的预期答案范围内。从技术角度说,这算是测试失败了,但这种创造性解决问题的方式,恰恰展现了 Opus 4.5 的独特之处。

当然了,在另一些场景下,这种「钻规则空子」的行为可能就不那么受欢迎了。如何防止模型以非预期方式偏离目标,这是 Anthropic 安全测试重点关注的方向。

Claude 无处不在,桌面、浏览器、Excel 全接入

随着 Opus 4.5 的推出,Claude Code 获得了两项重大更新。

计划模式(Plan Mode)现在能生成更精确的执行计划了,Claude 会在操作前主动提澄清性问题,然后生成一个用户可编辑的 plan.md 文件,再根据这计划执行任务。

此外,Claude Code 现在已经登陆桌面应用了。你可以同时跑多个本地或远程会话,比如一个智能体负责修代码错误,另一个负责在 GitHub 上检索资料,第三个就更新项目文档。

对于 Claude 应用用户来说,长对话不会再被打断了。Claude 会在需要的时候自动总结早期上下文,让对话持续下去。

Anthropic 研究产品管理负责人 Dianne Na Penn 在接受采访时表示:

「我们在 Opus 4.5 的训练过程中提升了对长上下文的整体处理能力,但光有更长的上下文窗口是不够的。知道哪些信息值得记住,同样非常关键。」

这些改进也实现了 Claude 用户长期呼吁的一项功能:「无尽对话」。这功能能够让付费用户在对话超过上下文窗口限制时也不会中断,模型会自动压缩上下文记忆,而不用提醒用户。

Claude for Chrome 也已经向所有 Max 用户开放了,可以让 Claude 直接在浏览器多个标签页之间执行任务。

Claude for Excel 的 Beta 测试范围已经扩展到 Max、Team 和 Enterprise 用户了。

对于能使用 Opus 4.5 的 Claude 和 Claude Code 用户,Anthropic 已经取消了和 Opus 相关的使用上限。
对于 Max 用户和 Team Premium 用户,Anthropic 也提高了整体使用限额,用户可使用的 Opus token 数量与之前使用 Sonnet 时大致相同。随着未来更强模型的出现,配额也会根据情况相应更新。

让模型「更聪明也更省」,Opus 4.5 迎来底层大升级

随着模型变得更聪明,它们能用更少的步骤解决问题:减少反复试错、降低冗余推理、缩短思考过程。

Claude Opus 4.5 和前代模型比,在实现相同甚至更优结果的情况下,用的 tokens 数量明显少了。

当然了,不同任务需要不同的平衡。

有时开发者希望模型能持续深入思考,有时又需要更快速灵活的响应。

所以,API 里新加了一个叫 effort 的参数,让你可以根据需求选:要么优先省时间和成本,要么最大化模型能力。任君选择。
当设置为中等 effort 等级时,Opus 4.5 在 SWE-bench Verified 测试中和 Sonnet 4.5 的最佳成绩持平,但输出 tokens 数减少了 76%。

而在最高 effort 等级下,Opus 4.5 的表现比 Sonnet 4.5 高出 4.3 个百分点,同时还减少了 48% 的输出量。

凭借 effort 控制、上下文压缩(context compaction)和高级工具调用能力,Claude Opus 4.5 能跑更久、完成更多任务,而且需要的人工干预更少了。

此外,真正的 AI 智能体需要在成百上千种工具之间无缝协作。

想象一个 IDE 助手集成了 Git、文件管理、测试框架和部署流程,或者一个运营智能体同时连着 Slack、GitHub、Google Drive、Jira 和几十个 MCP 服务器。

问题在于,传统方式会把所有工具定义一次性塞进上下文。拿连接五个服务器的系统来说,GitHub 需要 26K tokens,Slack 需要 21K tokens,Sentry、Grafana、Splunk 加起来又是 8K tokens。

对话还没开始呢,就已经占了 55K tokens 了。要是再加上 Jira,轻松突破 100K tokens。更麻烦的是,当工具名字相似时,模型容易选错工具或者传错参数。

Anthropic 推出了三项新功能来解决这些问题。

Tool Search Tool 让 Claude 按需动态发现工具,只加载当前任务需要的部分,token 使用量能减少约 85%。

Programmatic Tool Calling 让 Claude 在代码里直接调用工具,避免每次调用都要完整推理一遍。

Tool Use Examples 则提供统一标准,通过示例而不是 JSON schemas 来展示工具的正确用法。

内部测试显示,启用 Tool Search Tool 后,Opus 4 在 MCP 测试中的准确度从 49% 提升到 74%,Opus 4.5 从 79.5% 提升到 88.1%。
Claude for Excel 就是利用 Programmatic Tool Calling 来处理几千行数据,而不会让上下文窗口过载。

Anthropic 的上下文管理和记忆能力明显提升了模型在智能体(agent)任务中的表现。

Opus 4.5 还能高效管理多个子智能体(subagents),从而搭建复杂且协调良好的多智能体系统。在测试中,结合这些技术后,Opus 4.5 在深度研究类评估中的表现提升了将近 15 个百分点。

开发者平台(Developer Platform)也在持续变得更具可组合性,希望提供灵活的「模块化构建」能力,让你能根据具体需求自由控制模型的效率、工具使用和上下文管理,搭建出理想的智能系统。

虽然这次 Opus 4.5 的升级足够亮眼,但一个越来越清晰的趋势是:不同模型的「性格」差异正在被放大。

从 Claude 过往的产品线来看,Opus 这类「超大杯」依旧最擅长编程、系统级操作、结构化推理;但如果是文案工作,Sonnet 的表现和性价比往往更对路。

这次发布,也再次印证了这一点。

未来选模型,不光要看跑分榜,还得看它的「做事」方式是不是跟你合拍。换句话说,选择模型,倒是越来越像挑同事了。

附上官方博客地址:
https://www.anthropic.com/news/claude-opus-4-5

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


学术痴|两木金:《光明日报》刊登AI作文是报人的耻辱

24 November 2025 at 19:44

原文发布于2025年9月6日

CDT 档案卡
标题:两木金:《光明日报》刊登AI作文是报人的耻辱
作者:两木金
发表日期:2025.11.24
来源:微信公众号-学术痴
主题归类:人工智能
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

file

相关阅读:光明日报| 远去的打麦场

最近,纸媒界发生了一件令人匪夷所思的事情。

8月29日,《光明日报》第15版光明文化周末副刊版面刊登了一篇散文《远去的打麦场》,在文学界掀起轩然大波。

一篇1134字的散文为何会引发文学界的地震?其中有以下三方面的原因:

首先是因为《光明日报》在纸媒界具有举足轻重的地位。

《光明日报》创刊于1949年,是党中央主办、中宣部代管,以知识分子为主要读者对象的思想文化大报,在纸媒界的地位仅次于《人民日报》。

img

作为全国性的重要党报,《光明日报》是“党的喉舌”,在知识分子群体中影响最大。按理说,《光明日报》副刊上刊登的文章应该是精挑细选、严格通过三审三校,经得起千锤百炼的奇文佳作,绝对不会和AI作文拉扯上任何关系。能在《光明日报》副刊上发表散文,任何写作者都会感到无比自豪,会受到同行的一致羡慕和崇敬。

其次,散文《远去的打麦场》的作者林海平非等闲之辈。他在文坛可是响当当的人物,是AI作文第一人,无人能望其项背。

img

林海平是湖南省邵阳市新宁县黄龙镇的小学教师。自2024年元月份开始,他突然走红报纸副刊,短期内在各种报纸副刊发表散文、诗歌达600余篇(首)。

林海平承认其每天用AI创作五六篇文章,投递给报纸副刊邮箱,天天不间断发表两三篇文章。林海平靠着AI写作赚取了丰厚稿费,很快成为“知名作家”,随即加入了中国散文学会和湖南省作家协会。

img

从聊天记录来看,林海平对自己用AI创作的行为不以为耻,反以为荣,大言不惭,洋洋得意,这种极端扭曲的三观实在令人难以置信。

img

img

第三,林海平在《光明日报》上发表的散文《远去的打麦场》究竟是作者原创作品,还是AI作文?公众号号主两木金用AI检测工具对该文进行鉴定,结果为100%的AI作文,没有丝毫的人工创作痕迹。看来,林海平每日用AI写作多篇文章,过于繁忙,无暇人工修改,把AI创作的文章直接投稿。

AI作文能否用于文学创作,且在报刊上发表呢?答案不言而喻。AI之所以能作文,是对网上现有资料和数据进行快速机械地搜集整合、复制粘贴形成的文章,毫无疑问是赤裸裸地抄袭他人作品。AI作文既然是可耻的抄袭行为,那么,娱乐可以,在报刊上发表肯定不行。

国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》自今年九月一日起正式施行,要求所有AI生成的文字、图片、视频等内容都要“亮明身份”。

对于林海平这样如雷贯耳的AI作文专业户,《光明日报》的副刊编辑和审稿领导竟然闻所未闻,让AI作文堂而皇之地登上了《光明日报》的版面,可谓严重的失职行为。

img

极具讽刺意味的是,《光明日报》第15版刊登AI作文,而在当天的报纸头版,在《改进文风大家谈》栏目刊登了一篇评论文章《AI写作代替不了“脚底板沾泥”》。文章指出,再好用的AI写作也替代不了“脚底板沾泥”的调研,再便捷的视频会议也不可取代促膝长谈,再全面的指标数据也不能代替群众感受。唯有将“键对键”的数据与“面对面”的体感相结合,多一些“行脚丈量、秉笔实录”的深度调研,才能让文风越来越实、作风越来越硬。

《光明日报》的这番操作的确非常滑稽,一方面在头版唱高调,倡导摒弃AI写作;另一方面,在15版公然刊登AI作文专业户用AI创作的散文。这分明就是翻手为云覆手为雨,既当婊子又立牌坊,实在是纸媒界的奇耻大辱。

梁启超是中国近代著名的政治家、思想家、报刊活动家。他的办报思想在中国新闻史上具有重要地位。他认为报纸是开启民智的重要工具,强调要通过报纸传播新知识、新思想,提高民众的文化素养和执政觉悟,从而推动社会的整体进步。

AI写作是新事物,但不是积极向上的正能量,好比文化垃圾、精神鸦片,毒害思想、培养文化惰性,既不能开民智,又阻碍文学的健康发展。每一位写作者和报刊编辑都应该坚决抵制AI作文,这是他们的神圣职责。

《光明日报》刊登AI作文,为报纸副刊树立了恶劣的典范,无疑会破坏文学的正常生态环境,必将成为中国新闻史上的一大丑闻。

作者简介

两木金,原名金林,陕西省武功县人,毕业于西北大学新闻系,陕西广播电视台九号发射台工程师。作品散见于《三角洲》《作家文摘》《农民日报》《中国应急管理报》《江西日报》《安徽日报》《河南工人日报》《春城晚报》《湘声报》《民主协商报》《四川政协报》《贵州政协报》《河北广播电视报》《国防时报》《老年康乐报》《中老年时报》《人民代表报》《山西晚报》《甘肃农民报》《河北青年报》《辽宁老年报》《燕赵老年报》《燕赵晚报》《三秦都市报》《各界导报》《自学考试报》《广州日报》《石家庄日报》《西安晚报》《西安日报》《兰州日报》《泰州晚报》《咸阳日报》等报刊,已出版散文集《遥望故乡月》。

img

Nano Banana终于不是文盲了,但我可能会变「傻」

By: Selina
24 November 2025 at 14:29

过去一个周末 Gemini 3 Pro Image 的能力被反复「折磨」,花样越来越多——噢,你问这是什么,它的另一个名字是 Nano Banana 2。这么跟个恶搞一样的名字,居然被保留下来了。

Nano Banana2 各方面能力超群,甚至是「友商」Sam Altman 也要点头的程度。

▲ 图片来自:The Information

夸夸只是夸夸,Nano Banana 第二阶段,其实标志着 AI 图像生成领域的一个重要转折点:从基于概率的「以此类推」,转向了基于理解的「逻辑构建」。更承载着一个特殊的意义:AI 不再只是冲着你的眼睛去,还冲着你的智商去。

大语言模型不再「文盲」

一直以来 AI 生图都有个绕不过去的问题:才华横溢,信手拈来,但有时候就跟喝高了一样控制不住,这从 Midjourney 时期就开始了,往后走逐渐好转,不过始终存在。

其中最大的 bug 之一就是文字。这导致在很长一段时间里,鉴别一张图是否由 AI 生成,最简单的办法就是看图里的字。

这是基于扩散模型(Diffusion Model)的先天缺陷:它将文字视为一种纹理,而非符号。

Nano Banana 2 最直观的突破,就在于它「识字」了。即所谓的 Text Rendering 文字渲染。

我的随手测试「生成一张复古电影海报,标题是《香蕉的复仇》,副标题用红色衬线体写 2025 年上映。」

如果是在以前尝试这个指令,大概率会得到一张极具艺术感的图「BANANA REVENGE」的某种变体尚且能保持清晰和正常,但小字往往经不住看了,甚至有时候主标题都会拼写成「BANNANA」。但在 Nano Banana 2 里,这些字符被准确、清晰、且符合排版美学地「写」在了画面上。

So what?这仅仅是省去加字的时间吗?

对普通用户来说可能是,而且还是一种「表情包自由」。你终于可以生成一张精准吐槽老板的图,配上精准的文案,不用再单独拉一个文本框。

而对于商业世界,这意味着 AI 图像生成从「素材(Material)」阶段,正式跨入了「成品」(Deliverable)阶段。

▲ 图片来自 X 用户@chumsdock

当 AI 能够准确地处理符号信息,它能交付的成果就更多样也更实用,包括但不限于电商海报、PPT 配图、甚至是数据图表。以前设计师用 AI 只能生成背景底图,关键信息还得自己贴。现在,AI 可以直接生成原型图,乃至带有数据标注的饼状图,或者一张文字完美贴合透视关系的广告。

这是商业交付的「最后一公里」,也是生图模型在信息传递层面的巨大进步。

从「猜概率」到「懂物理」

字渲染的成功是 Nano Banana 2 底层技术跃迁的一个极具代表性的缩影,更深层的变化在于:这只「香蕉」,长了脑子

也就是我们所说的基于「推理」的图像生成。

大模型本质上是一个概率统计机器。当你要求画一只「坐在玻璃桌上的猫」时,模型通过学习数亿张图片,在生成时,它只是重现像素的统计规律。

Nano Banana 2 的不同之处在于,它引入了 Gemini 3 语言模型的推理能力。在生成图像之前,它似乎先在「大脑」里构建了一个物理模型。它知道「猫」下面通常会有模糊的影子,以及玻璃板上、下的物品有不同的光线关系。

在我的另一个随手测试中,当要求它生成「一个复杂的化学实验室,桌子上放着装有蓝色液体的烧杯,背景是黑板上的分子式」时,它表现出了惊人的逻辑性:

烧杯里的液体会有正确的弯液面;玻璃器皿对光线的折射符合物理直觉;最重要的是,背景黑板上的分子式不再是乱画的线条,而是看上去像模像样化学结构的式子(虽然还是有瑕疵)。

当画笔有了「大脑」,交互方式变了

之所以如此强调文字生成这个本领,是因为 Text Rendering 是外在表现,反映的是 Reasoning 作为内在引擎。合在一起, Nano Banana 2 带给用户的最终体验,就是一块「会思考的画布」(The Thinking Canvas)。

Google 将这个模型深度整合进了它的生态系统,不仅仅是生成图片,更是「修改」现实,下一步,就是走进更严肃的领域:信息图、教案、讲解素材,等等等等。

整体上,图像生成往往用户给 20% 的指令,剩下 80% 靠 AI 脑补——以前是靠概率脑补(随机填色)。现在则是靠因果脑补,不仅画出了「结果」,还隐含了「过程」,这能够让画面的叙事性和感染力指数级上升。

它不再只是为了取悦你的眼睛,它开始试图取悦你的智商。像上面这种结构图,虽然吧不敢说 100% 符合机械工程标准,但钉是钉,铆是铆。「逻辑上的正确」,是它推理能力的直接体现。

然而任何事情都是一体两面的,当换一个角度看,这就可能意味着创造力的同质化

当 AI 能够完美地生成「符合商业标准」的图表、海报和插画时,它实际上是在拉平审美的平均线。所有的海报都排版正确、光影完美,但可能也因此失去了曾经设计中那些因为「不完美」而诞生的神来之笔。

▲ 图片来自X用户@dotey

更深层的问题在于真相的消逝。当上面所说的那种逻辑正确、信息「干货」多的内容,可以被批量生产,取悦智商从未如此容易,也从未如此轻飘飘。如果它决定了我从图片信息到文字信息的所有摄入,那……会是怎样的景象?

还有 Deepfake 这个老大难问题,已经是老生常谈了。虽然这次 Google 加上了 SynthID(一种人眼不可见的数字水印)来标记 AI 内容,但在视觉冲击力面前,技术的防伪标签往往是苍白的。制造「真实」变得如此廉价和便捷,我们对「眼见为实」的信仰将被彻底重构。

至于它叫「Nano Banana」还是「Gemini 3 Pro」,其实已经不重要了。重要的是,从这一刻起,我们在屏幕上看到的每一个像素,每一行文字,都可能不再来自人类的手指,而是来自机器的思考。

这既令人兴奋,又让人在某些时刻,感到脊背发凉。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


豆包输入法上线,用了两天我在微信聊天不想再打字

By: 莫崇宇
24 November 2025 at 10:35

如果你用过一些手机系统自带输入法,一定懂那种它好像没学过中文的无力感。

正因如此,第三方输入法才得以遍地开花。

当官方输入法不好用,用户自然会用脚投票。最近字节推出了豆包输入法 1.0 版本,要用 AI 重新定义输入体验。

趁着热乎劲,我也下载体验了两天,发现了一些让人又爱又无奈的细节。

语音识别断档领先,豆包输入法的「杀手锏」有多强?

豆包输入法的界面走的是极简风。

没有那些乱七八糟的推广弹窗和会员广告。不过嘛,安装包体积属实有点大,在 vivo 应用商店显示 139MB。而且这体积大归大,功能却不完整,用「毛坯房」来形容挺贴切的。

先说说豆包输入法的核心竞争力。

在我看来,语音打字是豆包输入法的杀手锏,体验感是断档级领先,确实比我用过的其他输入法强上一大截。在我体验的这两天里,我已经深深爱上了语音打字的体验。

一句话概括,按住说话,松手结束。

实测下来,中文、英文和粤语识别准确度都高得离谱。我随口说了句「我正在用普通话测试豆包输入法」,一字不差,再来一句英文「Attention Is All You Need」,也准确识别了。

在粤语的体验对话上,「今晚你翻唔翻嚟屋企食饭啊。」,「一蚊一只鸡,一蚊一斤龟,究竟系一蚊一只鸡贵,定系一蚊一斤龟贵?」也是一遍就识别成功。

要知道,这些句子语速快、同音字多,咬字要是稍微不清晰,输入法就容易翻车。实测表现相当能打,说明模型对粤语的声学特征和语言模型都做了针对性训练。

TVB 剧里那种粤语夹英文的说话方式,豆包也能应付。

我试了「Sorry 啊,我地已经尽晒力啦」和「赏月喝糖水,那么迟才 call 我们」,「幫我 scan 入電腦做個 copy,再 share 畀大家,记得要 double check 啊」最终结果居然一个都没错。

它甚至还能语音输入数学公式,如果你是学生、老师或者科研人员,这个功能应该挺实用的。

技术层面, 网传豆包输入法用的是 Seed-ASR2.0 模型。

简单说就是把语音转成文字, 让机器「听懂」你在说什么。和之前的大型 ASR 模型比,Seed-ASR 在中英文测试集上的错误率降低了 10%-40%。

另外, 豆包输入法还支持下载离线语音模型, 大小约 150MB。意思是在地下车库等信号不好的地方,你也能正常使用语音输入。

但离线模型的准确率肯定比在线的差一点,性能有妥协也正常。

当然了,选择一款新的输入法,很多人会担心隐私问题,豆包输入法提供了一个「基础输入」模式,只是打开之后, 语音转文字、翻译这些功能就全关了。

基础词库方面, 豆包输入法丰富度达到了主流输入法的水平, 没啥特别的, 但也不拖后腿。

除了语音识别,我试着文字输入「确实型人格」、「城巴佬」等这些网络词汇, 都能识别。生僻字方面,像「饕餮」、「皴裂」「髑髅」这些,也都是从从容容,游刃有余。

至于联想方面,融合 AI 能力的豆包输入法表现出色。

输入「1+1=」,亦或者输入问题「西游记的作者是谁」,输入法会直接在候选栏直接显示结果。作为打工人, 我就挺喜欢直接这个将 AI 融入输入法的形式,主打一个实用。

139MB 的 AI 输入法,除了语音识别还剩什么?

说完优点,该聊聊槽点了。

首先,豆包输入法只上线了 Android 版。官网显示,iOS 版即将上线,PC 版则表示敬请期待,这也意味着不支持跨设备复制粘贴。

对于频繁在多设备间工作的用户来说,缺失这个重要功能可能是一个很大的劝退点,希望后续能尽快上线。

而在默认设置下,打字有点不太跟手,响应速度不够快,但好在可以在设置里调整按键的响应速度到「极快」,调完之后体感会好很多。

有趣的是,设置键盘「震动强度」发现,选「弱」时震感很强,选「强」反而没什么感觉。这可能是个 Bug,希望后续版本能修复。

可能是因为还在早期版本,豆包输入法很多细节功能还没来得及打磨。

表情包是社交沟通的重要组成部分,很多输入法都内置了表情包搜索和发送功能。虽然豆包输入法自带表情还算丰富,但你想从输入法直接发表情包? 对不起,目前做不到。

再比如键盘功能还不够完善,输入方式只有 9 键和 26 键。如果你是双拼用户, 或者需要手写输入、繁体中文, 那豆包暂时不适合你。

另外,键盘页面有深色模式,但设置页面却没有深色模式。想换个键盘皮肤? 对不起,目前只有默认样式。后者就见仁见智,有人觉得简洁好,有人觉得太单调。

而在 AI 翻译功能输入「LLM」,它依旧会默认显示为「法学硕士」。虽然「法学硕士」和「大语言模型」两个翻译都对,但多少让我有种谷歌翻译的感觉。

那么,豆包输入法值得体验吗?

我的建议是,仅凭语音识别这个杀手锏,还是值得尝鲜体验的。

但建议别急着设为默认输入法,先当个备用工具用着,等豆包输入法把 iOS 版、多设备同步、表情包这些基础功能补上,再考虑全面切换也不迟。

当然,我们也不妨给它点时间,看看这个 1.0 版本最终能进化成什么样。

附豆包输入法下载地址:
https://shurufa.doubao.com/

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Avoiding the road to serfdom

23 November 2025 at 14:04
 

Today, The New York Review of Books has published a 10,000-word essay by Ai Xiaoming, one of China’s foremost public intellectuals. Echoing Hayek’s Road to Serfdom, “The Road to Miaoxi” is a plea against unfettered state power, which she sees as increasing in China–and in fact around the world. 

It comes in the form of a travelogue retracing the passion of the late Niu Lihua, whose memoir Broken Dreams at Miaoxi describe his twenty-year path of sorrows from labor camp to labor camp in western Sichuan province.

During her travels by car and foot, Ai uncovers the physical remnants of these camps, and reflects on how they were implemented–the lack of rule of law and the overconcentration of state power. 

 
 

The essay was originally published last year on the Chinese-language website Boston Review of Books. I had the honor of translating it into English and writing a thousand-word introduction.

The exercise took weeks of time, making me appreciate the work put into translating by professional Chinese-English translators like Michael Berry at UCLA–not just the literal translation but the interpretation needed so it makes sense for a new audience.

For that, I owe the editing staff at the Review a huge amount of thanks. They found inconsistencies, unclear points, and inelegant phrasing throughout the work. This is an online essay and people sometimes still think that online means some sort of slapdash “blogpost.” In fact, this was more carefully and attentively edited than most print articles I’ve written, for any publication.

The article is behind a paywall but you can access it by creating an account and enjoying one free article, or you can write me for a PDF. It will also be unlocked on the Asia Society’s Chinafile NYRB archive in a month, as part of an agreement with the Review. However, I’d encourage readers to try the NYRB site first–even just registering for a free trial helps the Review, which is a unique, family-run journal. Work like this involves a paid staff and it should be supported in any way possible!

Surveying part of the Miaoxi camp

The post Avoiding the road to serfdom appeared first on Ian Johnson.

❌
❌