Normal view

There are new articles available, click to refresh the page.
Yesterday — 9 December 2025Main stream

中国外交部:一贯主张中美通过合作实现互利共赢

9 December 2025 at 15:59

美国批准向中国出售英伟达H200人工智能晶片,中国外交部回应称,中国一贯主张中美通过合作实现互利共赢。

中国外交部发言人郭嘉昆星期二(12月9日)主持例行记者会。有记者提问,美国总统特朗普称将批准向中国出售英伟达H200人工智能晶片。请问中国是否会允许购买这些H200晶片?另外,特朗普何时将这一决定告知中国?中美领导人之间是否通过电话?

郭嘉昆回答:“我们注意到有关报道。中方一贯主张中美通过合作实现互利共赢。”

特朗普宣布,他将允许英伟达向中国及其他国家的经批准客户供应H200人工智能晶片,条件是能够确保美国国家安全继续强大。

路透社报道,特朗普星期一(12月8日)在X平台说,美国商务部正在敲定具体细节,同样的方案也将适用于超微半导体(AMD)、英特尔以及其他美国公司。

特朗普在自家社媒平台Truth Social贴文说,他已将这一决定告知中国国家主席习近平,习近平做出了“积极回应”。

Before yesterdayMain stream

超微半导体已获对华出口许可 准备好上缴15%营收

5 December 2025 at 17:37
美国超微半导体(AMD)已获得向中国出口部分MI308晶片的许可,并准备好在出口后向美国政府缴纳销售所得营收的15%。图为AMD首席执行官苏姿丰。 (路透社)

美国超微半导体(AMD)已获得向中国出口部分MI308晶片的许可,并准备好在出口后向美国政府缴纳销售所得营收的15%。

路透社报道,AMD首席执行官苏姿丰当地时间星期四(12月4日)在科技媒体Wired于美国旧金山举办的会议上披露了上述信息。

有媒体今年8月引述美国官员报道,英伟达(Nvidia)与AMD已同意把在中国销售H20晶片和MI308晶片所得营收的15%上缴美国政府,以此项特殊安排换取半导体出口许可。

有出口管制专家指出,这类安排史无前例,从未有企业为取得出口许可而同意上缴部分营收。也有法律专家认为,这一做法可能触及美国宪法禁止对出口征税的条款。

针对上述安排,中国外交部发言人林剑星期五(12月5日)在例行记者会上说,希望美方以实际行动维护全球产供链的稳定畅通。

AMD的MI308晶片是其Instinct MI300X系列的降级版本,专为出口中国设计。该晶片与英伟达的H20晶片一样,于今年4月被美国列入对华出口管制清单。

存储管够的时代已经结束,立刻赶到战场的是涨价减配

By: 马扶摇
1 December 2025 at 12:02

又到了一年一度科技厂商发表财报的时候。只不过今年除了财务数据之外,在对于未来的业务预测中,各大厂商不约而同地表达了一项惊人一致的警告:

受到全球存储行业成本上升影响,明年的产品价格将有所上调。

图|GIGAZINE

这一轮涨价所波及的范围,要比爱范儿上个月有关内存涨价的文章中提到的更广——现在不仅仅是你的手机和电脑,更上游的显卡、板卡厂商也没能幸免。

这对于本就风雨飘摇的 DIY PC 圈子来说,无疑是个坏消息。

因为明年原本就是 CPU 和 GPU 工艺制程从 3nm 跨步到 2nm 的节点,如果再叠加上内存涨价,「装配一台电脑」的成本将变得惨不忍睹。

更地狱的是,如果按照现在的内存价格计算,买一台 512GB 内存的 Mac Studio,就相当于只花了内存的钱,M3 Ultra 处理器、外壳、雷雳 5 控制器甚至硬盘等等其余部分全都是白送的

真 · 买内存送电脑

换句话说,前方等待着我们的,将是一场旷日持久的苦战。

存储涨价不可避免

在之前的文章中,爱范儿已经和大家详细解析了最近一段时间手机 SKU、内存条、固态硬盘携手涨价的原因。

然而我们没有预料到的是,涨价的幅度和速度会如此夸张。

和之前文章中的编辑部同事类似,小编也在年初重组了自己的电脑,选择了一套金百达(KingBank)的 DDR4 3600 双 16GB 内存,一月份的售价为 349 元。

而今天再查时,这套的价格已经是年初的三倍了:

我们之前提到过,2025 年下半年的存储行业集体涨价,初始诱因就是飞速增长的 AI 产业。

无论是 OpenAI 的「三万亿美元 AI 基础设施计划」星门(Stargate),还是微软、亚马逊、苹果都在加快脚步推进的新数据中心建设,都离不开专门的企业级高带宽内存(High Bandwidth Memory, HBM) 。

而放眼全球,能够大规模生产 HBM ——或者说更广泛的 DRAM 产品的,无非就是三大垄断巨头:韩国的三星、SK 海力士(SK Hynix),以及美国的美光(Micron)。

图为 2023 年全球 DRAM 市场份额,三家长期保持市占率 95% 左右,近乎完全垄断|YOLE Intelligence

与此同时,AI + 数据中心的技术模式不仅没有停歇的势头,反而随着 AI 应用的日常化,变得更加兴旺起来。

即使把 AI 视作一个泡沫,那也是一个异常坚挺的泡沫。

在这种环境下,位于 DRAM 供应链顶端的三家巨头根本不需要玩「火龙烧仓」的把戏,直接将现有产能和扩产指标转入企业级产品,就能够轻易赚到比在消费级市场强行控货多得多的利润

2018 年无锡 SK 海力士工厂起火,旋即涨价

而这种生产策略的调整,结果就是上面说到的——

现在的存储缺货已经不再限于 DDR4、DDR5 之类的个人电脑内存,也进一步扩散到了显卡使用的 GDDR6、GDDR7 等高速内存上。

面对这样的形势,强势如英伟达也不得不采取措施了。

根据一份近期的爆料,英伟达已经与生产非公版显卡的板卡厂商(如华硕、技嘉、七彩虹等)协商调整销售模式,英伟达后续将不再配套销售 GPU 核心和显存,而是仅销售核心、板卡厂商需要自行采购显存颗粒:

图|NiceHash

虽然这项泄露还未得到英伟达或板卡厂商的正式回应,但从商业策略角度分析是完全合理且可能的。除了向外转移库存风险之外,英伟达自己也更需要这些显存颗粒。

因为它不仅有公版 RTX 这样的消费级产品,还有诸如 A800、H800、DGX 之类的业务,这些动辄 80GB 显存的企业级产品才是真正的大头,此次调整的一部分原因就是要把手中的闪存库存留给自家的 AI 产品。

图|Nvidia

另一边,最新的 AMD Radeon RX 9000 和 RTX 50 系显卡一样是 GDDR6 和 GDDR7 客户,虽然目前没有消息或新闻表明 AMD 也将改变板卡销售模式,但在存储行业整体涨价的背景下,可能性还是很高的。

因此,一边是 AI 巨头和数据中心加大采购量,一边是存储厂商削减消费级产品的产能,两者叠加,就构成了近期主流消费级内存产品价格单月增长 100%~200% 的疯狂现象:

自此,这场震动已经从垄断全球的三家 DRAM 厂商拓展到了英伟达这样的中上游企业,进而波及到消费级 PC 市场的 OEM 厂商与 DIY 玩家,而最终也将波及到同为 DRAM 需求大户的手机行业。

美好时光,只在今日

根据集邦咨询(Trend Force)的一份调查报告,今年第四季度 DRAM 合约价格相比去年同期涨价超 75%,并且是 DRAM(内存)和 NAND Flash(硬盘)同时上涨。

基于这样的背景,集邦咨询在报告中预估,2026 年的手机整机零件成本(BOM cost)将会在今年的基础上涨价约 5% 至 7%,甚至有可能上探到 10% 左右。

图|iFixit

比如一台售价 5499 元的手机,内存 + 硬盘的总成本占整机 BOM 成本的 15% 左右,如果闪存涨价一倍,涨幅并不会直接平移到售价上,而是叠加利润需求,让售价最终上涨 500~700 元左右。

这种涨幅的冲击,对于原本定价就在六千元左右的旗舰机型来说或许还能消化,但对于那些在三四千元档位、锱铢必较地拼参数的中高端机型来说,涨价 500 元是完全无法接受的。

换句话说:三四千元档手机也能 24GB + 1TB 的时代,恐怕是一去不复返了

与此同时,高端手机市场也并不能从存储涨价中独善其身。高规格的存储在 BOM 中的比例或许目前仍在控制范围内,但在目前的涨价速度面前同样不容小觑。

此外,与 PC 遇到的问题一样,2026 年同样是手机处理器从 3nm 升级 2nm 的关键节点。

台积电的 2nm 处理器报价原本就已水涨船高,更夸张的是,2nm 芯片的首发客户甚至有可能不是长年以来的苹果,而是 OpenAI ——

没错,现在 AI 不仅要和你抢内存,更是要和你抢处理器了。

内外交困之下,明年的手机涨价已经不再是个「是或否」的问题,而是「涨多少」的问题了。从目前存储行业的趋势推测,2026 年各家主流手机品牌「中低端减配」和「中高端涨价」将会变成共识。

不过在这一波涨价潮之中,也有几个特殊的身影。

比如刚刚发布的 Mate 80 标准版虽然踩在了涨价潮中间,但标价相比去年其实还有所下调。这和华为一直倾向于和存储供应商签一年期的「长协」不无关系,应对价格冲击的能力要明显强于按季度签协议的其他品牌。

图|华为官网

另一方面,三星自家的产品由于近水楼台先得月,受到年末存储涨价风波的影响也相对较小,目前普遍预测即将发布的 S26 系列新机的涨价幅度在 50 美元左右,属于勉强接受的范畴。

图|Android Authority

而苹果这边的消息就没有那么好了,虽然苹果对于供应链的议价能力极强,但面对这种「近乎垄断」的供应链情况也无从下手。

传闻中为了 Apple Intelligence 而全系标配的 12GB 内存,很有可能成为 iPhone 18 系列涨价的主因。

图|MacRumors

祸不单行,还有消息称台积电除了 2nm 涨价之外,还计划对 5nm 以下产品提价以平摊 2nm 制程的研发费用,最直接影响的就是苹果的 A20 Pro 处理器。一句话——

明年的 iPhone 18 系列新机很可能涨价 1000 元左右,如果需要买 iPhone,马上下单可能是最实惠的方案。

同时,手机的主流配置从 12 或 16GB 缩水回 12GB,也给软件设计和系统优化提出了更高的要求,未来一两年里,系统优化和软件瘦身将会成为厂商的重点之一——

图|彭博社

或许「安迪-比尔定律」的提出者也没有想到,这个定律竟然会碰到「安迪把东西收回去」的情况。

我们需要注意到,消费电子产品将受到越来越多来自 AI 的挤压。2025 下半年的 DRAM 全行业涨价并不是传统的「技术-市场」周期内的涨价,而是产能被从外部夺走了,这和 2nm 处理器涨价的原因不同

这仅仅是手机,对于 DDR4 和 DDR5 依赖更明显、利润率参差不齐的 PC 领域更是几乎碰到了死局。

或许等到明后年,我们就能见到「内存条和硬盘自备」的准系统笔记本上架了:

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


黄仁勋送马斯克的3万块个人超算,要借Mac Studio才能流畅运行?首批真实体验来了

By: 张子豪
23 November 2025 at 09:59

2000 亿参数、3 万块人民币、128GB 内存,这台被称作「全球最小超算」的机器,真的能让我们在桌面上跑起大模型吗?

▲ 图片来自 x@nvidia

前些天,黄仁勋正式把这台超算送到马斯克手上,而后也亲自去到 OpenAI 总部,送给奥特曼。从 CES 登场到如今落地,这台个人超算终于要来到我们手上。

▲官网发售情况,售价 3999 美元,也提供了华硕、联想、戴尔等七个电脑品牌的发售版本;链接:https://marketplace.nvidia.com/en-us/developer/dgx-spark/

NVIDIA DGX Spark,一台个人 AI 超级计算机,目标用户是科研人员、数据科学家和学生等,为他们提供高性能桌面级 AI 计算能力,帮助他们完成 AI 模型的开发和创新。

听着很强大,但普通人能想到的玩法,无非还是:

  • 本地跑大模型:跟它聊天的内容只留在自己电脑里,绝对安全。
  • 本地搞创作:不受限制地生成图片和视频,告别会员和积分。
  • 打造私人助理:把自己的资料都喂给它,训练一个只懂你的「贾维斯」。

▲ 部分显卡租赁平台显示的 A100 售价为 7元/时

实际上,DXG Spark GB10 Grace Blackwell 超级芯片的能力,或许可以拓展它的应用场景,但是具体能做些什么?又做得怎么样?3 万块的售价,能租 4000 小时的 A100,你真会把它放在桌上跑跑大模型吗?

我们收集了目前网络上关于 DGX Spark 多个详细评测,试图在我们的实际体验之前,带大家看看这台设备,到底值不值 3 万块。

太长不看版:

  1. 性能定位:轻量模型表现出色,1200 亿参数的大模型也能稳稳跑起来。总体水平介于未来的 RTX 5070 和 RTX 5070 Ti 之间。
  2. 最大短板:273 GB/s 内存带宽是限制。算力足够,但数据传输慢。体验就像一个脑子转得飞快但说话结巴的人。
  3. 邪修玩法:用一台 Mac Studio M3 Ultra 来「辅佐」它。DGX Spark 负责快速思考,Mac Studio 负责流畅表达,强行解决「结巴」问题。
  4. 生态丰富:官方提供了超过 20 种开箱即用的玩法,从生成视频到搭建多智能体助手,AI全家桶都给你配齐了。

只比 Mac Mini 强一点点?

话不多说,先看数据。

▲ 每秒处理填充和解码的平均 token 数量,DGX Spark 排在 RTX 5080 后,图片由 ChatGPT 制作

DGX Spark 对比 Mac Mini M4 Pro 还是要强上不少,尤其是在 Prefill 阶段。但是在 Decode 阶段,优势就没有这么明显了。Mac Mini M4 Pro 在 DeepSeek R1 开源模型上的 TPS 能做到 17.8,而 DGX Spark 也才 33.1。

快速做个名词解释,来看看 AI 推理的两个阶段到底是什么

简单来说,当我们在 AI 聊天框里输入问题,模型生成答案的过程可以分为两个关键步骤:

1. Prefill(预填充/阅读理解阶段)

AI 拿到我们的问题后,快速阅读和理解你输入的每一个字(即提示词)。

这个阶段处理得越快,我们等待 AI 吐出第一个字的时间就越短,也就是常用来宣传 AI 能力的指标,首字响应时间,TTFT(Time To First Token, TTFT) 越短。

2. Decode(解码/生成答案阶段)

就像 AI 已经想好了答案,开始逐字逐句地打字输出给我们。

决定 AI 打字的速度,也就是我们常说的 TPS(每秒生成词元数)。这个数值越高,我们看到答案完整显示的速度就越快。

💡 Tips:什么是 TPS?

TPS 是 Token Per Second(每秒处理词元数)的简称,可以理解为 AI 的工作效率或打字速度。

Prefill 阶段的 TPS: 代表 AI 读懂问题的速度。

Decode 阶段的 TPS: 代表 AI 给我们生成答案的速度。


所以 DGX Spark 在给我们回答时,第一个字很快能出来,但是后续它的打字速度,很慢。要知道,Mac Mini M4 Pro 的价格才 10999 元,24GB 统一内存的版本。

为什么会这样?这项测试是由大模型竞技场的团队 LMSYS,在他们的 SGLang 项目和 Ollama 上,选择上图中六个不同的设备,运行多个开源大语言模型完成的。

▲ SGLang 是由 LMSYS 团队开发的高性能推理框架,FP8、MXFP4、q4_K_M、q8_0 是指大语言模型的量化格式,即对大模型进行压缩,用不同的二进制存储方式

测试的项目包括了 1200 亿参数的本地大模型,也有 80 亿的较小模型,此外 Batch Size 批次大小和 SGLang 与 Ollama 两种框架的差别,都会对 DGX Spark 的表现,产生不同的影响。

例如,评测团队提到,DGX Spark 在批次大小为 1 时,每秒解码的次元数只有 20 个,但是当批次大小设置为 32,每秒解码词元上升到 370。一般说,批次大小设置越大,每次要处理的内容越多,对 GPU 的性能要求越高。

而 DGX Spark 的 AI 能力,根据其所采用的 GB10 Grace Blackwell 芯片架构,以及 1 PFLOP 的稀疏 FP4 张量的性能,定位是在 RTX 5070 和 RTX 5070 Ti 之间。

所以开头那张显示结果的图,其实并不能全面的展示 DGX Spark 的能力,因为它平均了所有模型测试的结果。但不同批次大小的模型推理、以及不同参数的模型,它最终展示出的性能,都会有所不同。

综合来看,DGX Spark 的优点是:

  • 算力强:能处理大批量任务,AI 核心能力在 RTX 5070 级别。
  • 内存大:128GB 的海量内存,让它能轻松运行千亿级别的大模型。

但它的短板,致命且清晰——带宽。

Prefill 阶段拼的是算力(脑子快不快),Decode 阶段拼的则是带宽(嘴巴快不快)。

DGX Spark 的问题就是:脑子(算力)很快,但嘴巴(带宽)跟不上。

打个比方,它的数据通道就像一根细水管:

  • DGX Spark 用的内存是 LPDDR5X(手机和笔记本电脑常用),带宽只有 273 GB/s。
  • 作为对比,高端游戏显卡 RTX 5090 用的 GDDR7 内存,带宽高达 1800 GB/s,那是一根消防水管。

这就是为什么 DGX Spark 在打字阶段(Decode)表现平平的根本原因。

LMSYS 将评测的详细结果放在了 Google 文档中,我们把数据交给 Kimi 智能体,得到了一份详细的可视化报告,原始数据的预览,也可以点击 Kimi 预览报告下载选项获取。

▲ https://www.kimi.com/chat/199e183a-7402-8641-8000-0909324fe3fb

带宽限制?连接一台 Mac Studio 破解

带宽是短板,但已经有更极客的团队,找到了榨干 DGX Spark 全部算力的方法,那就是找一个带宽更快的桌面设备,Mac Studio M3 Ultra,利用其 819 GB/s 的速度,把大模型的推理速度愣是整体提升了 2.8 倍。

拿到两台 DGX Spark 早期访问权限的 EXO Lab,就直接把大模型推理的 Prefill 和 Decode 两个阶段,分别给了 DGX Spark 和 Mac Studio 来承担,这又叫做 PD 分离。

和我们之前介绍的预填充、解码两个阶段一样,一个依赖算力,一个依赖带宽。如上图所示,黄色代表预填充阶段,它决定着 TTFT,首个次元生成时间;而蓝色代表解码阶段,它决定了 TPS,每秒生成的词元数。

▲ EXO Lab 的做法就是将 Decode 交给 Mac Studio。

但 PD 分离的实现也不并不简单,EXO 团队要解决的还有一个问题,如何将 DGX Spark 设备上,预填充阶段生成的内容(KV 缓存),传输到处理解码的设备上。

这部分数据量很大,如果两台设备之间,传输时间太长,甚至可能会抵消性能提升的效果。

EXO 的答案是:流水线式分层计算与传输。DGX Spark 在处理第一层预填充时,计算出的 KV 缓存会立即开始传输给 Mac Studio,而 DGX Spark 则继续进行第二层的预填充工作。

这种分层流水线的方式,能让计算和数据传输的时间完全重叠。最终,当所有层的预填充完成,Mac Studio 已经拿到完整的 KV 缓存,可以立即开始解码。

虽然这套方案,在某种程度上解决了 DGX Spark 带宽限制的问题,提升了 3 倍的速度,但是费用也涨了 3 倍。两台 DGX Spark 和一台 Mac Studio M3 Ultra 的费用,快接近 10 万元人民币。

如果还是用来跑一个本地大模型,未免太过于杀鸡用牛刀。

性能评测之外,还能做些什么

273 GB/s 的带宽,也并不是 DGX Spark 的全部,128GB 的统一内存,用在数据中心级别的 GB10 架构显卡,支持每秒一千万亿次计算(1 Petaflop),以及桌面级设计,都有机会拓展它的应用场景。

我们在 YouTube 上找了一些博主的开箱和上手体验视频,一起看看这台优点和短板都很明显的设备,可以做点什么。

本地 AI 视频生成

生文模型现在基本上都免费使用,但是生视频的模型,大多数都需要充值会员,或者积分制。

博主 BijianBowen 利用 ComfyUI 框架,以及阿里的 Wan 2.2 14B 文本到视频模型,直接根据 DXG Spark 官方的 Playbooks(操作指南),配置了一个视频生成项目。

▲ NVIDIA DGX Spark – 非赞助的评测(与 Strix Halo 对比、优缺点)视频来源:https://youtu.be/Pww8rIzr1pg

在视频生成过程中,他提到即使命令后显示 GPU 的温度已经达到了 60-70 摄氏度,但是听不到一点噪音,风扇转动的声音也没有。

▲大部分博主有提到,DGX Spark 确实比较「安静」,设备拆解相当工整,来自 storagereview.com

除了用在视频生成和图像生成的 ComfyUI 提供了在 DGX Spark 上操作的指南,还有在本地运行大模型的桌面工具 LM Studio,也发布了博客提到支持 DGX Spark。

工具调用,搭建多智能体聊天机器人

Level1Techs 分享了自己用 DGX Spark 并行运行,多个 LLMs 和 VLMs,来实现智能体之间的交互。

▲ 深入探讨英伟达的 DGX Spark,视频来源:https://youtu.be/Lqd2EuJwOuw

得益于 128GB 的大内存,他可以选择 1200 亿参数的 GPT-OSS、67 亿的 DeepSeek-Coder、以及 Qwen3-Embedding-4B 和 Qwen2.5-VL:7B-Instruct 四个模型,来处理不同的任务。

这个项目也是 Nvidia 官方提供的指南,在他们官网,提供了超过 20 种玩法,并且每一种用法,都给出了预计需要的时间,以及详细的步骤。

▲ https://build.nvidia.com/spark

像是搭建一个文本到知识图谱的系统,把非结构化文本文档,转换为结构化知识结点。

视频搜索和摘要总结。

我们在 Reddit 上也发现一些拿到了 DGX Spark 的用户,开启了 AMA(Ask Me Anything) 活动。博主分享了自己的测试结果,同样提到 AI 能力对标 RTX 5070。还有有人问,是否可以运行一波 Karpathy 新推出的 nanochat 项目。

后续应该还会有更多 DGX Spark 的基准测试结果,和更全面的使用指南更新,APPSO 的 DGX Spark 正快马加鞭赶来。

DGX Spark 的存在,看起来更像是 AI 狂飙时代下的一个实验,一台数据中心级算力的桌面机器,试探着我们对本地 AI 的幻想边界。

真正的问题除了 DGX Spark 能不能跑,还有当我们每个人都能拥有一台超算时,我们可以拿它做什么。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


地球快养不起 AI 了,谷歌英伟达被逼上太空,结果便宜了马斯克

By: 张子豪
5 November 2025 at 14:54

刚刚,Google 正式启动数据中心登月计划,打算把自己的算力都放到太空。他们还给这个计划起了个很酷的名字,叫做 Project Suncatcher,太阳捕手计划。

Google 的想法很简单,与其在地球上争抢日渐枯竭的资源,不如去太空中直连太阳能。这个全新的登月计划,目标也只有一个,在太空中建立一个由太阳能驱动的、可扩展的 AI 基础设施

前些天,OpenAI 的 CEO 奥特曼和微软 CEO Satya Nadella 纳德拉,在播客节目上表示,

我今天的问题不是芯片供应问题;事实是,我没有足够的暖壳(warm shells)来插入它们。

听着相当凡尔赛,毕竟在这场 AI 浪潮之前,我们一直以为算力就是一切。

▲奥特曼和纳德拉

但就像奥特曼在节目里面说,AI 的未来,更多地需要能源上的突破,订购的 AI 芯片太多,配套的数据中心和电力跟不上也是白搭。

AI 耗电有多离谱,根据国际能源署 (IEA) 的数据,到 2030 年,全球数据基础设施的耗电量,预计将与整个日本的国家耗电量相当。

不只是电,还有水。世界经济论坛的数据显示,一个 1 兆瓦的数据中心,每天消耗的水量,与大约 1000 名发达国家居民的用水量相同。

▲一块英伟达 H100 芯片的最高功耗可达到 700W,大约是家用微波炉的功耗,而一个数据中心的 H100 显卡数量是以万为单位,且不间断运行

而就在最近五年,数据中心的需求开始狂飙,但增长速度已经远远超过了,规划新发电能力的速度。

Google 为了解决同样的问题,他们的计划,是发射一个由太阳能驱动、搭载 Google 自研 TPU 芯片(用于计算,类似英伟达的 GPU)的卫星星座,在太空中组建一个「轨道 AI 数据中心」

太空一定比地球更便宜、更高效吗?

为什么是太空?Google 的理由简单粗暴。

1、8 倍效率: 如果搭载芯片的卫星,在正确的轨道上,太阳能板的效率是地球的 8 倍。

2、7*24 不间断供电: 太空没有黑夜和云层,对比地球上的太阳能板,可以持续产生电力。

▲ 马斯克发 X 说太空的 AI 卫星能保护地球

3、零资源消耗: 在太空,数据中心不需要消耗地球有限的土地,也无需消耗大量水资源做冷却工作。

▲ 苹果、华为、腾讯、以及移动等公司在贵州设立数据中心,图片来源:新华社

目前地球上的数据中心,越来越接近能源瓶颈,建在冰岛、挪威,是为了冷;建在内华达沙漠,是为了电。像在国内,多数大厂的数据中心都放在贵州、宁夏中卫等,靠环境来降温。

但是太空的环境,远比地球复杂。Google 在自己的研究论文里面,详细提到目前遇到的难点,以及用于应对的方法。

让 AI 「登天」,Google 要解决三大难题

难题一:太空「局域网」?

AI 训练需要海量芯片协同作战,彼此间的连接带宽和延迟要求极高。在地球上我们可以用光纤实现数据的高速传输,在太空怎么办?

Google 的方案:编队飞行 + 激光通信。

他们计划让卫星「飞得非常近」,彼此相距仅公里级或更近。

在他们一个 81 颗卫星的模拟星座中,每颗卫星都配有太阳能阵列、辐射冷却系统,以及高带宽光学通信模块;且卫星间的距离仅在 100-200 米之间动态变化

在如此近的距离上,它们可以通过自由空间光通信(FSO ISL,Free-Space Optical Inter-Satellite Links),实现高速互联。Google 在论文中透露,他们的演示已经成功实现了 1.6 Tbps 的双向传输速率

难题二:宇宙「辐射」?

太空环境极其恶劣,太阳在提供能源的同时,也喷射出致命的高能粒子(辐射),这对尖端芯片直接是毁灭性打击。

▲ 图源 NASA

Google 的方案:硬扛。

他们把自家的 Cloud TPU v6e (Trillium) 芯片送进了实验室,用 67 MeV 的质子束轰击它。

结果是「惊人地抗辐射 (surprisingly radiation-hard)」,TPU 最敏感的高带宽内存 (HBM),在承受了 2 krad(Si) 的剂量后才开始出现异常,这几乎是 5 年任务预期辐射剂量(750 rad(Si))的近 3 倍。

这意味着 Google 的 TPU 可在低地轨道连续运行 5 年,无永久损伤。

Google 计划在 2027 年前与 Planet 公司合作,发射两颗原型卫星,测试实际运行环境

▲ Planet 公司官网,主要从事卫星图像和地球数据的分析

难题三:数据回传

在太空上,各个 GPU 之间的数据传输是做到了快速高效,但是就算在太空算完了,数据怎么高速传回地球?

这是一个 Google 在论文中承认、尚待解决的重大挑战。

延迟问题: Google 选择的「晨昏同步轨道」,虽然太阳能拉满,但论文承认这将会增加到某些地面位置的延迟。

带宽瓶颈: 目前的「地-空」光通信的最高纪录,还是 NASA 在 2023 年创下的 200 Gbps

200 Gbps 听起来很快,但对于一个太空 AI 数据中心来说,这根水管远远不够用。

然而,在所有这些(局域网、辐射、地面通信)高难度的技术挑战之上,还压着一个最根本、最致命的障碍,它决定了前面的一切是否值得去解决,上天成本

这曾是最大的障碍,把一公斤重的东西送上天,曾经比同等重量的黄金还贵。

▲ 一系列低地轨道卫星的发射费用对比

Google 在论文中计算过一笔账,如果 SpaceX 的发射成本能降到 $200/kg(预计 2035 年左右),则太空数据中心的单位功率成本,能与地面数据中心持平,约 $810/kW/年,与美国本土数据中心的 $570–3000/kW/年区间完全重叠。

换句话说,当火箭便宜到一定程度,太空就会比地球更适合建数据中心。

然而,现实是目前的发射价格,是这个理想价格的十倍以上。

谁能让这件事发生?SpaceX

Google 在他们的论文里,明确采用了 SpaceX 的学习曲线假设:每当总发射质量翻倍,单位发射成本下降 20%

▲ 自首次成功发射猎鹰 Falcon 1 号以来,按最低实现价格计算的 SpaceX 有效载荷质量,针对不同类别火箭逐步变化

从 Falcon 1 到 Falcon Heavy,SpaceX 已把发射成本从 $30000/kg 降到 $1800/kg;而 Starship 的目标,是 10× 可重复使用率下的 $60/kg,极限情况下可降到 $15/kg。

这意味着,SpaceX 很有可能成为支撑 Google 太空数据中心经济模型的公司。

如果说英伟达垄断了地球上的 GPU,那么 SpaceX,将来就可能垄断太空中的算力空间。

在地球上,英伟达卖 GPU;在太空里,SpaceX 卖轨道。

就在 Google 发布论文的几天前,11 月 2 日,英伟达强大的 H100 GPU 已经「首次」被送入太空

这颗 H100 被搭载在一家名为 Starcloud 的初创公司的卫星上,其在轨算力比以往任何太空计算机强 100 倍。

▲Starcloud 创办于 2024 年,诞生之初就是致力于在太空建立数据中心,获得了英伟达、YC 等投资。

它们的任务更直接,在轨实时处理数据。Starcloud 的 CEO 举例:一颗 SAR(雷达成像)卫星的原始数据极其庞大,与其下载数百 GB 的原始数据,不如在轨用 H100 分析,只传回 1KB 大小的结果,比如「一艘船在某位置,速度 多少」。

而当被问到这一切如何实现时,Starcloud 的 CEO 同样指向了马斯克:他们的愿景,完全依赖于「SpaceX Starship 带来的成本降低」

搭载了英伟达 H100 GPU 的 Starcloud-1 卫星,正是通过马斯克的 SpaceX,Bandwagon 4 Falcon 9 航班发射升空的。

过去五年,英伟达一次次刷新最高市值记录,关键在于它提供了最强的算力单元(GPU);它掌控了 CUDA(英伟达通用计算平台)生态,形成软件锁定;它成为所有 AI 公司(OpenAI、Anthropic、Google)的算力上游。

而在太空算力时代,这三点都可能都将被重新分配,那个时候,算力空间才是下一个红利。

AI 的极限,也许才刚刚开始。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌