Normal view

There are new articles available, click to refresh the page.
Yesterday — 27 October 2025Main stream

3I/ATLAS_SUiTHiNKModel_v1

By: Steven
27 October 2025 at 11:44

那年冬天,国际天文学联合观测网宣布,人类再次捕捉到一个“跨恒星访客”。
代号:3I / ATLAS

它并非金属,也不像冰体。所有望远镜的数据都在闪烁、紊乱、跳跃。
有科学家提出,它的表面并非反光均匀,而是一种会散射观测波段的天然迷彩。
这意味着,它在主动隐藏自己。

天文学家称之为“被注视的凝视物”。


一、模型

两个月后,一个名叫苏弋的工业设计师在社交媒体上发布了一张照片。
他掌心托着一个13厘米长的灰黑色小模型,表面布满刻意的不规则反光。
标题很简单:

3I/ATLAS_SUiTHiNKModel_v1

照片下没有说明,也没有解释。
但第二天早晨,它就出现在各大科技博主与艺术账号的页面上。
短短几天,#ATLAS掌心体# 的话题播放量突破一千万。

人们惊讶地发现:这个模型拿在手里,会因角度与光线不同而不断改变亮度与轮廓,好像真的在呼吸。
没有任何机械结构,却让人产生一种“被凝视”的幻觉。

潮流品牌纷纷推出联名款、限量款,甚至高定银质版本。
3I/ATLAS 成了地球上最受欢迎的“掌心饰物”。


二、名字

直到那时,人们才开始注意到模型命名里那个奇怪的后缀:SUiTHiNK

起初只是粉丝在 Reddit 上随口猜测:

“是不是苏弋 think 的意思?他在表达‘思考的我’?”

很快,语言学与符号学圈子加入了讨论。
牛津大学的一位古文字学家在论坛上指出,SUi 在苏美尔语音节表中确有记录,对应音素「šù-i」,意为“手中之物”或“掌握的”。
而 THiNK 若取古日耳曼转写体系中「þenkaz」的变体,则可指“思想、意志”。

这两个词放在一起——SUi / THiNK——意外构成一种双重结构:

“思想被握于手中”
“手成为思想的延伸”

正好对应了那枚贴合掌心的模型。


三、文件

一个名为《ATLAS分析草稿》的PDF文件在暗网流出,署名不明。
文件记录了苏弋受邀前往某个“国际天文资料保存计划”设计储存容器的过程。
文件被加密,只能读到部分片段:

「……他拒绝使用镜面金属,要求采用能分散反射的表层……」
「……他说它看我们的方式,与光的角度有关……」

消息曝光后,网友纷纷去翻苏弋的旧贴。
有人发现,在他早期设计的数个装置艺术中,常出现一种奇怪的结构:
不规则的反光面、内部空洞、可置于掌心的尺寸。
似乎他早在3I/ATLAS出现前,就在“模拟它”。


四、失踪与重现

半年后,苏弋停止更新。
没有告别,也没有声明。
他最后一条动态是一张模糊的近景:
灰色反光面,指纹模糊,背景是实验室的冷光。

账号沉寂,模型销量却持续飙升。
ATLAS 成了新世代的“图腾物”——有人把它挂在胸前祈祷,有人说握着它冥想能听见低频嗡鸣。
心理学家解释那是“自我投射效应”,
可越来越多的视频声称,模型在暗处能“微微震动”。


五、抄本与注释

一位梵文与苏美尔语双修的学者在学术会议上展示了一页《纳格·哈玛第文库》的边注。
那是一段13世纪的修订版手抄本,边缘用拉丁混写体标注着一个模糊的词组:

“SUI · THINC”

他解释说,古修士在这里用“sui”(自我)与“thinc”(思想、议会)并置,
象征“自我与思想的合一”。
而这页手稿讨论的主题正是——“被造物如何回望造物主”

学者最后说:

“这并非巧合。有人在重新复写那一页。”


六、光的陷阱

几个月后,一个匿名账户上传了一段短片。
画面是普通实验室,一枚3I/ATLAS模型被置于光谱仪下。
随着仪器启动,反射光像是被吸入某种结构中——
在高倍放大镜头下,模型表面出现了极细的刻痕,
排列成一种自相似的螺旋分布

字幕写着:

「不是反射,而是记忆。」

短片很快被删除,但无数人下载、转发。
有科技频道尝试复刻实验,结果不同——有的只是普通塑料折射,有的却出现微光闪烁。

人们开始相信,真正的那批限量模型里藏着“某种东西”。


七、余波

如今,3I/ATLAS 已成全球设计学院的研究对象。
有人研究其造型心理学,有人分析其符号学层次。
但没人再提那个名字——苏弋

只有极少数人记得,他在一篇采访中留下过一句话:

“如果我们注视的东西,也在注视我们,那我们看到的,或许只是它让我们看到的部分。”

这句话如今被无数次印在ATLAS周边的包装盒上,
也被误以为是广告语。

而在某个收藏论坛上,一张从未公开的照片被匿名发出:
桌上放着数枚模型,灯光昏暗,镜头对焦在最后一排。
那些模型的反光形成一条微弱的线,连成一个英文单词——

RETURN.

模型由我使用 Midjourney、Tripo 设计制作;

短文由 ChatGPT 配合我完成;

首图为模型实拍,经 Banana 和 Snapseed 处理。

点击这里打印模型,祝大家玩得开心!

Before yesterdayMain stream

李飞飞世界模型大更新! 实时生成 3D 世界,只要一块 GPU

By: 张子豪
17 October 2025 at 13:49

当 OpenAI 的奥特曼还在到处买显卡、买算力,来支撑他的 Sora 2 视频生成模型。

李飞飞的实验室 The World Labs,用一张显卡就能运行一个世界。他们今天发布了一项名为 RTFM (Real-Time Frame Model) 的新技术,一个全新的实时世界生成模型。

和九月中旬发布的图生世界 Marble 不同,RTFM 不仅是用一张照片,生成一个我们可以自由漫步、探索的 3D 世界。最重要的是,它被设计为可以在单块 H100 GPU 上高效运行,并且实时生成。

目前,RTFM 已经作为研究预览版正式发布,并提供了 Demo 可以亲自去试试。

▲ RTFM Demo 链接:https://rtfm.worldlabs.ai/

意外地发现,这个 Demo 的名字叫做 FRAMEBOY,结合这个网页布局,我很快想到了年代久远的 Game Boy 游戏机。

这样一个拥有逼真的光影、反射和阴影的世界,并且这一切还在我们眼前实时发生,在某种程度上,何尝不是另一种玩游戏。

不止于生成,更在于实时互动

RTFM 的核心能力,就是能实时生成可供用户交互的视频。它可以从一张静态图片开始,渲染出一个可以自由探索的 3D 场景。

与许多世界模型不同,RTFM 能够学习并渲染出,极其复杂和真实的视觉效果。无论是光滑大理石地面的倒影、物体在阳光下的阴影,还是透过玻璃看到的景象,RTFM 都能准确地模拟。

RTFM 依靠的不是传统的图形学编程,而是让模型通过对海量视频数据的端到端学习,不断进化出来的。

支撑这项能力的,是设计 RTFM 背后围绕的三项核心原则。

效率 (Efficiency),要想把未来拉到眼前,世界模型的计算需求是最大的阻碍。

无论是像 Sora 这样的 AI 生成视频,还是 Google 尚未正式公开上线的 Genie 3, 都意味着巨大的计算挑战。有相关的研究提到,要实时生成 4K 60fps 的交互视频流,AI 模型每秒需要处理的 tokens 数量约等于一本《哈利·波特》的文字量。

而如果要在超过一小时的交互中,保持这些生成内容的持续性,需要处理的上下文,将超过 100M 个 token。这对于当下的计算基础设施而言,既不现实,也难以负担。

李飞飞团队的目标是「在今天硬件上,运行的明天模型,并提供最高保真度的预览。」

他们通过对架构、模型蒸馏和推理过程的极致优化,以及整个系统的重新设计。RTFM 成功地实现了,仅使用单个 H100 GPU,就可以交互式帧率进行推理,实时生成。

可扩展性 (Scalability),从视频模型,能直接到世界模型。

传统的 3D 引擎,用的是三角网格、高斯点云、体素渲染等显式结构,完全依赖于一些复杂的计算机图形学知识。每个物体都要建模、上材质、打光、烘焙阴影。这和我们之前介绍的混元 3D 世界,所采用的方法类似,它们主打的是实现 3D 全管道的生成。


传统 3D 方式(左)和 RTFM 方式(右)

World Lab 选择的路和混元不同, RTFM 不会构建任何显式的 3D 模型。它使用了类似 Sora 的「自回归扩散 Transformer」,直接从视频帧序列中学习世界规律。

举个例子,模型不再需要知道「这是一堵墙」或「那是一盏灯」,它只通过成千上万段视频的学习,学会了什么是「空间感」,学会从输入的 2D 图像序列中,预测出下一个新的视角画面。

和生成 3D 资产的路线不同,RTFM 能够更好地利用不断增长的数据和算力,从而实现无限扩展。

持久性 (Persistence),让世界模型像 nano banana 一样保持一致。

大部分的视频生成模型有一个天生缺陷,就是它们没有记忆。即便现在 Sora 一次性,能生成 25 秒的震撼画面,但视频生成结束后,世界就结束了,并不能提供持续的交互。

而如果要记住所有场景,计算负担势必又会随着探索的深入而无限累积。

RTFM 试图解决的,就是让生成的世界具备持续存在的能力。它引入了一个叫「spatial memory(空间记忆)」的机制。它为生成的每一帧画面,都赋予了在 3D 空间中的精确「姿态」(位置和方向)。

在生成新画面时,模型会采用一种「上下文杂耍」 (context juggling) 的技术,只调用新画面附近位置的帧作为参考,而不是全局内容。

这使得 RTFM 能够做到,让我们反复进入这个世界,离开再回来,而不会增加计算负担。

目前,RTFM 的 Demo 体验时间只有 3 分钟,3 分钟后,它还是会不记得这个世界。我在那个 Demo 里面拖动左右两个摇杆,玩了很久,想到了李飞飞之前说,空间智能才应该是 AGI 的下一个方向。

未来是否真的有机会,像头号玩家一样,让现实世界和虚拟世界之间,产生明确的联系,光看现在的世界模型,要加载的内容还有太多。

毕竟,即便单个 H100 GPU,售价也大约在 25000 美元以上。但是当算力的价格下降,当算法再快一点;我们或许能看到,真正意义上的世界模型「大更新」,是现实,被完整生成的那一天。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Claude「最香」模型发布,速度翻倍价格大砍,编程能力直逼 GPT-5

By: 张子豪
16 October 2025 at 09:39

就在刚刚,Anthropic 发布了 Claude Haiku 4.5。

先简单科普一下,Claude 家族有三个不同参数量级的模型:Claude Opus(大杯)、Sonnet(中杯)和 Haiku(小杯)。

这次更新最大的看点是,小杯 Claude Haiku 4.5 在模型性能保持高水准的同时,速度更快、价格更便宜了

五个月前,Claude Sonnet 4 还是最先进的模型之一。现在新出的 Haiku 4.5 在编码性能上几乎和它打平手,但价格只要三分之一,速度还翻了两倍多。

▲Chart comparing frontier models on SWE-bench Verified which measures performance on real-world coding tasks

具体来说,在用于衡量 AI 编码能力的测试集 SWE-bench Verified 上,Haiku 4.5 取得了 73% 的成绩,什么概念?直接跟 Claude Sonnet 4 以及 OpenAI 最新的 GPT-5 站在同一水平线上。

在某些任务比如操控电脑方面,Haiku 4.5 甚至反杀了老大哥 Sonnet 4。

对于需要 AI 处理实时、低延迟任务的场景——比如聊天助手、客服代理或结对编程助手,Haiku 4.5 兼具高智能和出色速度,能带来更好的体验。

使用 Claude Code 的开发者也会发现,Haiku 4.5 让整个编程过程——从多智能体协作到快速原型开发——都变得更灵敏高效。

当然,两周前发的 Sonnet 4.5 依然是 Anthropic 的旗舰模型,归属全球编程模型第一档次。但 Haiku 4.5 提供了另一个选项:性能接近顶配,价格却亲民得多。

而且模型玩法更野了,Sonnet 4.5 可以把复杂问题拆成 N 个小任务,然后指挥一堆 Haiku 4.5 并行开工,这配合相当默契。

Anthropic 对 Haiku 4.5 进行了详细的安全性和对齐性测试。

结果显示,该模型的不良行为发生率较低,且比前代 Haiku 3.5 的对齐性显著提高。在自动化对齐评估中,Haiku 4.5 的总体偏离行为比 Sonnet 4.5 和 Opus 4.1 都更少。

也就是说,它目前是 Anthropic 家最安全的模型。

▲Comparison table of frontier models across popular benchmarks

至于价格嘛…Haiku 4.5 的定价为:每百万输入 token 1 美元,每百万输出 token 5 美元。

对比来看,GPT-5 mini 约为每百万输入 0.25 美元、输出 2.5 美元,Google 的 Gemini 2.5 Flash 价格差不多。也就是说,Haiku 4.5 的价格大约是 GPT-5 mini 或 Flash 的 4 倍。

不过跟 Sonnet 4.5 比,它便宜了约三倍,性能却几乎没差,这对开发者来说算是降本增效了。

但有一说一,数学不是它的强项。

知名博主 Dan Shipper 试用后发现,Haiku 在算术上有点… 迷糊。

比如在测试 Uber 账单的例子里,Haiku 虽然完美找出了所有相关邮件,但算总额时直接翻车。更尴尬的是,指出错误后它承认了——然后转头又犯了同样的错

Dan Shipper 给出的中肯评价是:

如果你是开发者或创业者,正在用 Sonnet 4.5 构建复杂的智能代理应用,现在可以考虑切换到 Haiku。你能节省大量成本,而性能损失几乎可以忽略。

 

如果你目前使用的是 Gemini 2.5 Flash 或 GPT-5 mini,建议试试 Haiku。虽然价格更高一些,但在需要调用工具和保持自主性的场景中,它的表现更好。

▲附上博客地址:
https://every.to/vibe-check/vibe-check-claude-haiku-4-5-anthropic-cooked

目前,Claude Haiku 4.5 现已在 Claude Code 和各类应用中上线了。

开发者可以通过 Claude API、Amazon Bedrock 和 Google Cloud 的 Vertex AI 使用 Haiku 4.5,直接替代 Haiku 3.5 和 Sonnet 4,而且价格是 Anthropic 最香的那档。

我们参考@zb1992 的提示词,让 Claude 4.5 Haiku 跑了一个钟表 Demo,整体体验下来,代码生成速度确实更快了,最终成品也令人满意。

在下文这个经典的推理计算题, Claude 4.5 Haiku 响应速度优势就更明显了,当然,这也正是轻量级模型在实际应用中的核心竞争力所在。

另外,据 The Information 报道,估值高达 1700 亿美元的 Anthropic 近几周已告诉投行顾问,计划通过收购引入更多技术人才,同时拓展除编程助手之外的能力——毕竟目前编程这块还是营收大头。

知情人士表示,鉴于 Anthropic 在向开发者提供编程类 AI 产品方面取得的成功,公司下一步可能会扩展至其他开发者常用的软件工具,比如自动测试代码漏洞的工具,或辅助软件设计的工具。

另有消息称,Anthropic 也可能通过收购开发面向特定行业的产品,例如金融服务、医疗保健或网络安全,不过他们更倾向于交易金额在 5 亿美元以下的小型收购项目。

目前看起来,在提升模型能力的同时,Anthropic 也在积极布局生态。AI 圈的你追我赶,最终受益的还是开发者和用户——更强的模型、更低的价格、更多的选择。

作者:莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


運動無國界,嗎?

By: Steven
21 February 2024 at 21:35

🎥 點擊封面播放視頻

由一個提問開始,我從設計師與創作的角度,談論體育運動中的民族主義,警惕「分類」思維對思考過程的影響。

今日戶外步行運動記錄:開發了一條四分馬的路線!

🎥 B站播放地址:https://www.bilibili.com/video/BV1yv421k7Mg/

🎥 YouTube 播放地址:https://youtu.be/w2KQoic8LAg

這是春節過後的第一條視頻,主要是起個頭跟大家聊聊天。如果你有任何想法,歡迎在視頻中的彈幕或評論區里和其他人一起理性討論。

❌
❌