Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

【CDT关注】“谁,还能告诉他们,他们的世界并不只有一个被中共当局编写的版本?”(外二篇)

By: elijah
12 April 2025 at 02:11

《404档案馆》讲述中国审查与反审查的故事,同时以文字、音频和视频的形式发布。播客节目可在 Apple Podcasts, Google Podcasts, Spotify 或泛用型播客客户端搜索“404档案馆”进行收听,视频节目可在Youtube“中国数字时代· 404档案馆”频道收看。

欢迎来到404档案馆,在这里,我们一起穿越中国数字高墙

中国数字时代长期关注中国大陆的审查与抗争,但是我们也留意到墙内墙外也并非泾渭分明。一方面,中共大外宣遍及全球,另一方面包括华人在内的全球民众也在戮力捍卫自由。为此,我们设立“CDT关注”栏目,旨在发掘并助推中国境外网络中反抗中共专制的努力,尤其是华人世界勇敢的声音和行动。

一、低音x新新闻|中国政府如何开始用DeepSeek来“治国理政”

img

2025年2月,杭州人工智能公司幻方量化发布的DeepSeek,在推出之后即受到了全球瞩目。在DeepSeek爆火之后,多方的质疑声随之而来。有人指出,DeepSeek会将收集的资讯储存在位于中国的伺服器中,这可能存在一定的资料安全风险。

此外,DeepSeek还引入了非常严厉的内容审查,当对话中出现“六四”、“四通桥”、“习近平”等内置敏感词时,它会立即中断对话,并明确告知用户无法回答此问题。而在涉及内政、外交、法制、领导人等问题时,DeepSeek通常会与中国官方立场保持高度一致,俨如数字版的官方发言人。

因此不少中国网民认为身为中国企业的DeepSeek(幻方量化),必然会成为中国政府的一种统治工具。

3月18日,独立媒体“低音”在一篇报道中(联合“新新闻”发布)揭露了DeepSeek可能正主动或被迫走在加强政府专制能力的道路上,促进一种“极权人工智能”的诞生。

以下是这篇文章的节选内容:

北京昌平区政府称,城市管理指挥中心利用DeepSeek破除了“网格治理信息壁垒”,精准实现了“跨域协同”等复杂需求。此外,当地政府基于“雪亮工程”(乡村地区以网格化管理为基础、以联网监控摄像为重点的“群众性治安防控工程”)的“优质视频资源”,结合DeepSeek深度思考技术,构建了“全天候城市感知网络”,“破除了人工巡查的时空限制”。

内蒙古乌审旗公安局称,DeepSeek提升了大型活动安保工作的精准度,有效预防和控制潜在的安全风险。该公安局解释称,DeepSeek可以对人员信息、活动现场情况等实时分析,及时发现异常情况并预警,“确保安保工作万无一失”。

重庆荣昌区公安局称,警情分析任务原来需要三人三天完成,DeepSeek上线后,缩短为一人15分钟,“实战成果显著”。

深圳宝安区某社区宣传工作人员表示,DeepSeek让他们应对“舆情”时更加“得心应手”,在快速抓取“关键舆情点”和“量化分析舆论走向”方面,大大提升了工作效率。该区街道执法队负责人也表示,DeepSeek让他们更精准地定位“舆情源头”,预判风险,为“舆情应对”提供有力支持。

内蒙古兴安盟、锡林郭勒盟网信办称,DeepSeek在复杂语境识别、潜在风险预判等方面有显著优势,将持续推动AI在内容管理、“舆情研判”、网络安全等领域的应用。

山东省互联网传播集团(省级党媒)为DeepSeek在“舆情监测”中的应用提供了更多细节。该集团称,接入DeepSeek后,全网“舆情信息”识别效率、噪音过滤能力均大幅提升,在热点话题的监测过程中,可更快发现潜在风险。

file

此外,DeepSeek分析海量数据后,可以自动生成“舆情应对策略”,提供更智能的“舆情处置建议”。

一家与官方深度合作的网络安全监控企业“天融信”称,公司已利用DeepSeek的深度内容识别技术,结合关键字检测、图像文字检测等方式,全面监测敏感信息并及时阻断违规行为。

多地宣传部门和地方党媒称,DeepSeek可基于实时信息自动生成新闻稿,辅助官媒记者快速撰写稿件。

河南新乡市政府发布“DeepSeek党政机关公文写作智能化应用指南”,称其内置《党政机关公文格式》语料库,并自动关联中宣部最新版《宣传禁用词和慎用词清单》,还可自动筛查“两个维护”、“两个确立”等核心政治术语,并与中央文件对比。

新疆阿勒泰党委称,DeepSeek让党建工作“智”感十足。若想学习领会中央文件精神,只需上传政策文件,DeepSeek即可生成核心摘要,并针对专业术语或执行难点(如“基层党组织选举流程”)重点解答,避免基层干部理解偏差。

CDT 档案卡
标题:【CDT关注】“谁,还能告诉他们,他们的世界并不只有一个被中共当局编写的版本?”(外二篇)
来源:低音x新新闻WOMEN我们自由亚洲

主题归类:DeepSeek出版自由藏人
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

二、WOMEN我们|消失的台湾出版社总编辑

近日,独立媒体“WOMEN我们”发布文章,讲述一位兼有两岸身份的出版人的失踪与被捕的故事,展现繁简中文知识分子的当代命运。

文章节选部分写道:

2024年3月,台湾作家、媒体人阿泼得知,有一个和出版相关的活动要谈台湾出版品牌“八旗文化”的总编辑富察,连记者都已经联系好了。但没多久,她又收到消息,活动取消了,理由据说是考虑到家属此前一直希望保持低调的意愿。

img
八旗文化总编辑富察延贺(图片来源:国立政治大学中文系)

那是富察失联一周年之际。2023年3月,富察延贺回上海时失联。一个月后,中国国台办发言人朱凤莲在回应相关提问时表示:“据了解,李延贺因涉嫌从事危害国家安全的活动,正在接受国际安全机关的调查。”

李延贺是富察的原名,这位在东北出生长大,在上海求学和工作多年的出版人和台湾妻子结了婚,于2009迁居到台湾,随后受到台湾本土出版集团“读书共和国”的邀请,开始内部创业,成立了八旗文化。因以非主流史观谈中国历史的书籍而出名的八旗文化,是组成台湾出版界多元样貌的重要单元。

[…]富察的被捕,在台湾知识人社区的寒蝉效应是明显的。一位研究海洋学的学者提起参与了联署,很快就收到友人提醒,“你以后不要去中国了,连在香港转机也不要去。”

王家轩说:“这件事对台湾社会来说,最大的影响是,富察在台湾做的所有事情都符合台湾法律,这些书在台湾都是合法出版的,可是(做)这些事情却要在中国坐监狱,这样(遭遇)的人太多了,大家都不知道中国的红线是什么,这对很多想与中国交流或互相认识的台湾人会产生很严重的冲击……”

王家轩多次在公开场合呼吁,中国政府不要关闭和平交流的渠道、伤害台湾社会。王家轩的父亲是在山东出生的,作为外省小孩,王记得,自己2004年去北京大学交换学习,对北方的印象是“吃饺子有很多口味”,上学的时候,他也常常去秀水街购物。

作为一个曾经的图书编辑,王家轩感觉到:“大部分台湾人都希望跟中国人维持和平友好的关系,至少是可以一起做生意的。我们读的书很多都是谈中国历史的,哪怕是这几年,台湾出版的书籍里面,仍然有很大一部分跟中国历史有关,即使过了这么多年,台湾本土意识有提升,讲台湾历史的书不见得比讲中国历史的书卖得好。”

然而,出版仅仅是“生意”吗?庄瑞琳在《大卫们的故事》中提出过这个问题。她还说:“人社书的工作者或许是最不甘被消音的,因为我们做的书,就是一种发声。”

三、RFA|藏人作家唯色:勿让藏人的声音消失,RFA与VOA藏语部不应被关闭

藏人作家茨仁唯色(Tsering Woeser)3月25日为自由亚洲(RFA)撰写评论文章,呼吁美国政府不要关闭自由亚洲和美国之音(VOA)藏语部。

img

北京的藏族作家和诗人茨仁唯色, 不仅曾于2008年和2014年两度被软禁,释放后还继续受到北京方面对她通信和行动的严密监控;她的书籍和作品仍然被中国政府禁止出版。这张照片拍摄于2018年,是茨仁唯色在访问西藏拉萨时的情景。 (来源:茨仁唯色 / RFA)

她写道,RFA和VOA既是藏人突破信息封锁、获取新闻的渠道,也是国际社会了解藏人处境的重要信息来源;如今这两家媒体面临关停的命运,西藏议题在国际社会上可能进一步被边缘化。

唯色写道:

在中国,藏区的信息环境始终异常严峻。2000年启动的“西新工程”旨在将官方声音覆盖至藏地每一个角落。为此,当局在全藏区建设了大量大功率干扰站,专门屏蔽国际涉藏媒体的广播信号,这些设施至今仍在运作。进入2020年代,“天网工程”和“雪亮工程”通过遍布全国的摄像头、人脸识别系统和AI技术,强化对社会的严密管控,藏区是重中之重。

截止2023年,中国在全国部署的监控摄像头超过5亿个。同年,康区理塘一所学校因教师与境外亲属用微信联系,并使用RFA藏语节目作为教学材料而被关闭。在这种无孔不入的监控之下,许多藏人仍冒险接收外部讯息——有人爬上高山寻找信号,有人深夜在寺院角落静听,还有人因此被传讯、拘押甚至判刑,只为听见TIBET的真实声音,得知精神领袖达赖喇嘛的珍贵讯息。更有无数勇士会将严密封锁的重要消息传送出去,如2024年2月因中国当局修筑水电站将淹没康区德格六座寺院及乡村,当地藏人抗议却遭抓捕和殴打,正是RFA藏语部最先获悉并报道,受到国际关注,这一开发项目才未能继续。

与此同时,中国正在积极拓展其全球信息影响力。中国国际电视台(CGTN)在北美、欧洲、非洲等地设立分部,制作多语种内容,“讲好中国故事”。《中国日报》则与美国媒体合作刊登整版内容,等等。CGTN与新华社在YouTube上发布针对西藏与新疆人权议题的反驳视频。尤其在2024年9月,中国更专门成立“西藏国际传播中心”,目标是“作为西藏对外传播的窗口,……紧紧围绕国家战略全局和对外宣传工作大局,……构建更有效力的涉藏国际传播体系”,并宣称要“有效开展涉藏国际舆论引导和舆论斗争”。这种迅猛的全球化信息攻势,展现了中国在全球信息传播中的强势布局,与其在藏地的严苛封锁形成鲜明呼应。

[…] 我自2006年起为RFA藏语部撰稿,十九年来撰写了900多篇文章。通过资深媒体人卓嘎的精准翻译和纯正藏语朗读,我的文字传递到藏人听众的耳中与心中。每周一次的播出,不仅让我坚持写作,更让我不断思考和记录西藏的命运。这份坚持最终汇聚成四本书:《听说西藏》《图伯特这几年》(与王力雄合作)、《乐土背后》《疫年记西藏》,它们围绕TIBET的过去、现在与未来展开,是对沉默中的人民、寺院、农牧区、城市与历史的深情回应。如今,RFA藏语部面临关闭令我深感痛惜,但我坚信,它的声音不会就此消失,它的影响也不会终结。它曾是连接境内外藏人的桥梁,也将在藏人的记忆中延续。 […] 我们必须追问:当TIBET的孩子只能听到一种叙事,当城镇与乡村的藏人无法接收远方真实的讯息,当寺院僧侣被困于数据网络和无处不在的摄像头之中;谁,还能告诉他们,他们的世界并不只有一个被中共当局编写的版本?

联发科发布天玑 9400+,还想推动智能体 AI 的发展

By: 刘学文
11 April 2025 at 15:13

联发科最新的旗舰芯片 9400+ 发布节奏有点独特,首发搭载它的 OPPO Find X8s 系列在昨晚已经发布,但芯片的正式发布,却是在今天的举办天玑开发者大会 MDDC 2025。先发终端产品,再发新片的节奏在业内倒是很少见,不过想来也比较好理解,作为小升级产品,联发科肯定还是想把更多的声量留给下半年的天玑 9500。

天玑 9400+ 发布,定位变了

联发科对于天玑 9400+ 的定位是「旗舰 5G 智能体 AI 移动芯片」,旗舰和 5G 我们都很好理解,智能体 AI 是什么意思?联发科认为,当下智能手机的 AI 经历了分析式 AI 和生成式 AI 两个阶段,现在正处在往智能体 AI 发展的过程中,因而天玑 9400+ 的使命就成了提供生成式 AI 和智能体化 AI 能力,以高智能、高性能、高能效、低功耗特性处理各类 AI 任务。

天玑 9400+ 采用第二代全大核架构,8 核 CPU 包含 1 个主频为 3.73GHz 的 Arm Cortex-X925 超大核,以及 3 个Cortex-X4 超大核和 4 个 Cortex-A720 大核。天玑 9400+ 集成 MediaTek 第八代 AI 处理器 NPU 890,端侧率先支持 DeepSeek-R1 推理模型四大关键技术,同时率先支持增强型推理解码技术(SpD+),所以智能体 AI 任务的推理速度能够提升 20%。另外,天玑 9400+ 搭载 12 核 Arm GPU Immortalis-G925,支持天玑 OMM 追光引擎和天玑倍帧技术,前者让游戏视觉效果更逼真更炫酷,而后者能够让游戏更流畅,同时功耗更低。

相比于 Cortex-X925 超大核主频相较于天玑 9400 的提升,天玑 9400+ 的有两个连接性的提升:视距内手机对手机的蓝牙连接扩展到 10 公里,连接距离是天玑 9400 的 6.6 倍,新增支持北斗卫星轨道信息,即使没有蜂窝网络连接,首次定位时间(TTFF)也能加速 33%。

联发科更想推动智能体 AI 的发展

前面说了天玑 9400+ 发布节奏的事情,以及定位的改变,其实这次天玑开发者大会 MDDC 2025 的主题就呼之欲出了:AI。

「AI 随芯,应用无界」的主题比较虚,联发科和开发者们真正想讨论的是智能体 AI (Agentic AI)体验发展和技术新范式下的共同机遇。

这里解释一下什么是智能体 AI(Agentic AI),相比于位于幕后的分析式 AI 和需要用户主动提出需求的生成式 AI,智能体 AI 可以根据高级目标自主进行推理,制定计划并执行复杂任务。

MediaTek董事、总经理暨营运长陈冠州说:

AI 产业正全面加速成长,催生出全新形态的 AI 体验。下一波 AI 浪潮属于智能体 AI。MediaTek 一直领创前沿 AI 技术与生态系统的发展,每年通过 20 亿台边缘设备,将智能体 AI 从技术概念转化为全民触手可及的体验,赋能万千应用,实现从智能向智慧的跨越式升级。

话术当然有点官方,但相比于去年大谈特谈生成式 AI 的节奏,今年的智能体 AI(Agentic AI)显然更打动人,也对普通消费者更有吸引力。

不过,联发科作为上游企业,和消费者的直接联系并不多,在这场 AI 变革当中更想扮演领航员和基石的角色。于是乎,联发科就推出了 AI 应用与游戏的一站式可视化智能开发工具——天玑开发工具集(Dimensity Development Studio),天玑 AI 开发套件 2.0。另外,联发科还拉着阿里云通义千问、传音、面壁智能、摩托罗拉、OPPO、荣耀、vivo、微软、小米共同启动「天玑智能体化体验领航计划」,一系列动作,都是用来帮助智能体 AI 的发展。

联发科发布的这个天玑开发工具集(Dimensity Development Studio),包含 Neuron Studio 和 Dimensity Profiler 两部分。

Neuron Studio 支持 AI 应用开发全流程分析,开发者可实时查看每个模型的执行细节,Neuron Studio 打造了跨模型全链路分析功能,提供全局视角和执行流程,能够大幅节省模型分析时间。Neuron Studio 还支持神经网络自动化调优,将性能和内存占用自动优化至理想配置,开发者可全程监控大模型演化过程,让模型与端侧平台的适配更加省心、省力、省时间。此外,Neuron Studio 提供开发一站式整合,通过整合 MLKits 开发工具,帮助开发者实现模型开发一套工具就能行。

系统全性能一站式分析工具 Dimensity Profiler 则可覆盖 CPU、GPU、NPU、内存、FPS、温度、功耗以及网络等核心性能指标,并提供「实时、回放、逐帧、深度回放」四大分析模式,为开发者提供全面的游戏调优支持,充分释放天玑平台的性能潜力,降低移动游戏的优化难度。

除了 Dimensity Profiler 的推出,天玑星速引擎也获得了升级。借助天玑倍帧技术,开放世界移动游戏《无限暖暖》即将带来 60 帧满帧体验。

天玑星速引擎自适应调控技术帮助 Google Android 动态性能框架在 2025 年 Android 新版本生效,另外,联发科携手《王者荣耀》海外版 Honor of Kings 创造 18% 的功耗收益。天玑光追仿生细节也有所升级,与《暗区突围》合作,让仿生细节再突破,实现接近 PC 级骨骼模型效果。AI 落地方面,联发科还与《王者荣耀》、《永劫无间》手游等游戏合作,成功在端侧部署 TTS、ASR、LLM 等 AI 模型,为玩家带来更低延迟、更精准的语音互动体验。

天玑 AI 开发套件 2.0 主要应用在开发者布局智能体 AI 用户体验领域。其中,Gen-AI Model Hub 模型库适配的模型数量提升至 3.3 倍,为开发者提供更加多样化的全球主流模型选择;联发科海推出开源弹性架构,助力开发者自由选择模型并加速部署。天玑 AI 开发套件 2.0 率先支持 DeepSeek 四大关键技术:混合专家模型(MoE)、多 Token 预测(MTP)、多头潜在注意力(MLA)和 FP8 推理(FP8 Inferencing),理论上 token 产生速度可提升 2 倍,内存带宽占用量可节省 50%。同时,通过天玑 AI 开发套件 2.0,端侧 LoRA 训练速度提升可超过 50 倍。

可以这么说,联发科上半年开天玑开发者大会 MDDC 发改进型旗舰芯片,并宣布 AI 战略,下半年发布年度旗舰芯片的节奏,在现在的遇事不决问 AI 的时代,对于占领 AI 心智高地还是大有益处的,这大概也是为什么天玑 9400+ 和 AI 战略在这场开发者大会上地位反转的原因,因为 AI 是需求侧,芯片是供给侧,定义了需求,供给才顺理成章。

稳中向好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


【CDT报告汇】民主期刊:DeepSeek或带来中国数字极权的第三波浪潮(外二篇)

31 March 2025 at 21:34

编者按:《CDT报告汇》栏目收录和中国言论自由及其他人权问题相关的报告资讯。这些报告的来源多种多样,包括机构调查、学术研究、媒体报道和网民汇集等等。也欢迎读者向我们推荐值得关注的报告。

CDT 档案卡
标题:【CDT报告汇】民主期刊:DeepSeek或带来中国数字极权的第三波浪潮(外二篇)
作者:中国数字时代
发表日期:2025.3.31
主题归类:中国数字极权
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

中国数字时代本周推荐媒体:

歪脑:是为讲中文的年轻一代度身定制的新闻杂志。歪脑以鼓励独立思考为本,力图为观众读者提供另一种看世界的眼光。歪脑欢迎坦诚的对话,希望在这里建立起一个多元、真诚、安全的线上社区,碰撞出无边界的知识江湖。

一、民主期刊:DeepSeek增强中共监控能力,中国输出数字极权威胁世界民主自由

2025年初,中国初创公司DeepSeek发布了一款开源人工智能(AI)模型,震惊全球科技界。该模型性能媲美ChatGPT,却能以极低的成本和计算需求运行。这不仅引发了硅谷的担忧,也促使多国政府迅速采取行动,限制其使用。

3月底,民主期刊发表了一篇题为《DeepSeek为何如此危险》的文章,作者是德国外交关系委员会高级研究员、中国数字极权专家瓦伦丁·韦伯(Valentin Weber)。文章指出,这项技术的真正威胁远超经济与技术竞争,更可能成为中国共产党强化监控国家、输出威权统治的工具。

img

文章截图

韦伯表示:“尽管DeepSeek的成就对金融、经济、技术和国家安全的影响已被广泛报道,但其对威权统治的意义却鲜有人讨论。DeepSeek拥有巨大潜力,不仅能增强中国本已无处不在的监控体系,还将使中国共产党(CCP)比以往任何时候都更接近拥有自动化、自主性和科学化的镇压工具这一目标。”

他将中共的监控体系比喻为一场棋局,技术是其保持优势的关键。韦伯梳理了中国监控国家的三次演变:

  1. 态势感知(2000年前后至2010年代初):通过闭路电视和数据处理,中共得以掌握公民的行踪和行为。例如,面部识别技术帮助当局监控维吾尔族等群体。韦伯将这一阶段比作设置“棋盘”,了解“棋子”(即中国公民)的动态。
  2. 决策支持(2010年代中期至今):“2010年代中期,中国的监控产业实现了巨大飞跃。如今,人工智能监控网络不仅能追踪公民(棋子)的下落,还能为中共提供建议,指导其采取何种行动、使用哪些数据以及制定何种策略。”2016年,阿里巴巴在杭州部署的“城市大脑”系统成为一个转折点。该系统可实时处理数据,在抗议发生时为警方提供应对方案,甚至决定是否出警。韦伯将这一步称为“追踪棋子”,为当局的决策提供建议和支持。
  3. 自主智能(正在发生):DeepSeek标志着第三次转型的开端。韦伯指出:“随着中国监控国家进入第三次演变,这项技术开始从单纯提供决策支持,转向真正代表中共行事(即下棋)。”此外,他表示,第三次转型不仅局限于中国国内,AI技术的发展还可能助力中共监控全球。

韦伯设想,未来AI可能直接执行警务任务,例如取消异见人士的旅行计划,或通过电话分析情绪、警告潜在抗议者。他写道:“中共拥有大量中国公司的数据,可以利用DeepSeek以多种方式执行法律并恐吓对手。”

尽管DeepSeek增强了中共的镇压能力,韦伯也指出其潜在风险:过度依赖AI可能导致警方忽视对系统决策的审查,最终使治理失控。他问道:“在紧急情况下,警察会再次核查,还是简单点击‘确认’?”这种依赖性可能在系统层面引发中共内部危机。

最后,韦伯再次警告全球,DeepSeek的诞生“可能会让中共维持更长时间的统治,并推动中国人工智能监控系统向世界各地输出”,最终损害全世界的自由。

二、美国宗教自由委员会:2025年度报告指责中国宗教自由状况持续恶化

3月25日,美国国际宗教自由委员会(USCIRF)发布了最新的2025年度报告。报告继续将中国列为“特别关注国”(Country of Particular Concern, CPC),批评其宗教自由状况持续恶化。

img

报告封面

报告强调,2024年中国的宗教自由状况仍是全球最差的国家之一。中国政府坚持推行“宗教中国化”政策,强制将中国共产党的意识形态融入佛教、天主教、基督教新教、伊斯兰教、道教等宗教生活的方方面面,对宗教团体和信徒实施系统性压制。

报告指出,中国当局通过大规模监控、逮捕和拘留,限制宗教自由,尤其针对新疆的维吾尔穆斯林、西藏的藏传佛教徒以及法轮功成员等群体。

报告还特别提到,中国政府利用人工智能(AI)、大数据以及面部、声音和步态识别技术,对基督徒、法轮功成员和少数民族宗教群体进行大规模监控。中国还将这些“智慧城市”技术和产品出口到超过100个国家,威胁全球人权和宗教自由。此外,中国通过跨国压迫手段限制海外宗教异见人士,例如2024年9月美国政府成功促成被中国监禁近20年的美国牧师大卫·林(David Lin)的释放。

另外,报告记录了中国对多个宗教群体的持续压迫。2024年,中国当局对藏传佛教徒的宗教自由施加更多限制,美国国务院特别协调员乌兹拉·泽亚(Uzra Zeya)在会见达赖喇嘛时重申了对藏人人权的支持。在新疆,维吾尔族穆斯林继续面临严格监控和拘留。报告还提到,截至2024年,USCIRF记录了810名因宗教自由或信仰问题在中国被拘留或监禁的受害者,其中532人仍未获释。

最后,报告呼吁美国政府采取行动。USCIRF建议特朗普政府迅速任命国际宗教自由大使,并对中国实施更有力的政策,包括制裁侵犯宗教自由的中国官员和实体,以及限制对中国的相关技术出口等。

三、美国国家情报总监办公室:中国多达65%的政府官员涉及腐败

3月20日,美国国家情报总监办公室 (ODNI) 发布了一份最新的报告,指出尽管中共领导人习近平自2012年起发动了声势浩大的反腐运动,但腐败仍是中共政治体系的顽疾,高达65%的政府官员涉及其中,甚至包括中国最高领导层。

img

报告封面

其中,即便到了2024年,反腐运动的发起人、中共最高领导人习近平的家族仍保留着数百万美元的商业利益与金融投资。

公开研究显示,中共高层的家庭财富令人震惊。报告引用《纽约时报》调查报道称:“2012年,温家宝的家族——包括其母亲、妻子、儿子和兄弟姐妹——控制了至少27亿美元的资产。同样的,习近平的兄弟姐妹、侄女和侄子持有超过10亿美元的商业投资和房地产。”尽管“没有证据直接将这些投资与领导人本人联系起来”,但其政治地位无疑为家族提供了便利。

从2012年至2022年,中央纪律检查委员会和国家监察委员会调查了近500万名政府及中共官员,其中470万人被判定有罪。然而,报告强调:“腐败是中国的固有特征和挑战,因政治体制权力高度集中于中共、缺乏独立的官员监督以及透明度有限而得以滋生。”学术研究估计:“大约一半的中国官员曾参与腐败,尤其在地方层面。”贿赂和贪污平均可使官员收入增加四至六倍,高层官员因更大权限获利更多。

报告指出,这场运动不仅旨在清除腐败,更深层反映了“党主导的安全化”,即“针对不守政治纪律和意识形态不纯者的打击,特别是政府最高层”。此外,在反腐运动初期,打击明显针对与习近平政治对手有关的官员。

然而,报告提到:“政治关系如今并不能保护官员免受起诉,包括那些与习近平本人关系密切的人。”例如,2023年被免职的国防部长李尚福上将及2024年被调查的中央军委政治工作部主任苗华上将,“两人均被指控违反党的纪律”,显示反腐已超越派系斗争,旨在确保忠诚与效率。

最后,报告表示,目前中国的反腐运动仍在进行,但对其前景并不看好。“腐败在中国的结构性特征——集中权力、缺乏独立监督,阻碍了系统性改革。”习近平的反腐虽取得成果,但“中共不愿允许外部监督,反而优先考虑自我纠正”,使彻底改革遥遥无期。这一矛盾可能长期影响中共的合法性及其长远目标。

一小时爸爸|不要过度信任和依赖AI给出的答案

24 March 2025 at 19:31

我这两天有个问题想不通透,所以昨天干脆扔给deepseek去帮我分析。因为这只是我个人的疑问,所以也没打算加班写文章。但在和deepseek沟通的过程中,倒是发现了另外一件事,或许更需要跟大家聊聊。

不过deepseek一如既往的话痨,字数太多,我只能换到PC版截图了聊天记录。截图字小,如果看不清可以点开看大图。

1.首先在deepseek回答我的问题后,我发现里面有一个重要信息和我以前所了解的不符,也就是下图红框的部分。

image

2.所以我复制了一下之前的新闻内容,追问了一下。而deepseek则很快认识到了自己的错误,说明的确有这个要求。但是这次的回答中又有另外一个更明显的问题。

image

3.我只好继续追问它为什么给出了这个新的错误信息。它重新检索之后,反省说自己其实没找到过今年发表的声明,还跟我道歉。

image

img

4.我好奇它连续出错的原因,问它为什么会犯这种错误。它承认错误倒是很快,说明自己之前犯错的原因包括:规则理解偏差、信息更新延迟和过度推断流程。并且深刻致歉,表示自己以后会努力改正。

image

image

img

5.最后我又重新问了一次最开始的疑问。这次deepseek给出的答案我就没有发现什么问题了。

需要这里特别提一句:deepseek认为未来几天可能补发通告,或者是因为接近尾声所以之后会直接发布最终报告。我个人认为这两种可能性是存在的,我也很希望deepseek的判断会变成现实。

image

后续:但有趣的是,我今天另起一个新对话,再次复制粘贴问了最初的问题,而这次deepseek依旧犯了同样的错误。也不知道现在大家问它的话,是会得到怎样的答案。

image

开始就说了,今天的文章并不是关于我问deepseek的问题,我已经多等了两天,而且会继续等到有最终报告的那天。

但和deepseek的沟通中,让我想起最近感受越发感受明显的一件事:随着这两年AI的热度,尤其是deepseek出现之后,我身边越来越频繁的出现一种场景 —— 当你问别人“你这么认定的证据和理由时”,对方信誓旦旦地回答你说“deepseek这么说的”。

只是deepseek也好,还是国内外其他AI也好,虽然它们检索汇总资料的能力很强,语言表达能力现在也不错。但依旧会犯很多比较初级的错误。

就比如前面我和deepseek沟通,deepseek因为搜到了2023和2024年的资料,就很随意地推断认定2025年也有。

更重要的是,AI,尤其是针对公众免费使用的AI,无论是哪个国家哪个公司开发的,其实都只能检索到限定范围内的部分资料,尤其是网络传播较多的信息。这就导致AI可能会被网上主要流传的信息所引导。如果AI检索范围内的网络信息,基本都是错的,或者有偏差的,那AI的答案就很难科学和真实。

就像deepseek分析自己出错的原因:规则理解出错、信息偏差延迟、过度“自信”推断,这些其实都是现阶段AI容易犯的错误。

之前的文章中写过,无论是下一代还是我们,未来的一个重要课题就是如何学习使用AI,不只是说要搞明白如何使用,也包括如何去引导AI更为准确和有效地工作,以及如何判断AI给出的答案是否有“坑”

Sam Altman :GPT-5 将免费开放,DeepSeek 教训了我们 | 万字访谈实录

By: 爱范儿
21 March 2025 at 14:50

我认为 DeepSeek 确实是个很棒的团队,也做出了很优秀的模型,但他们真正走红的原因,并不完全是模型本身的能力。

 

这对我们来说是一个教训,那就是当我们隐藏一个功能时(思维链),我们给其他人留下了获得病毒式传播的机会。这是一个很好的警醒。它也让我重新思考我们在免费层中提供的内容, GPT-5 将可以免费使用 。

硅谷知名分析师 Ben Thompson 最近与 OpenAI CEO  Sam Altman 进行了一场深度对谈,Altman 聊了很多内容,包括开源模型、GPT-5 的进展、和 DeepSeek 的竞争,透露了 OpenAI 未来的发展方向,对 AGI 的观察……

在这个访谈中,也再次让人感受到 DeepSeek 等开源模型对 OpenAI 的影响,最近两个月 OpenAI 的产品发布节奏,也开始跟随着思维链和 Agent 等在中国出圈的模型和产品。

Sam Altman 提到 OpenAI 的崛起是「一次疯狂的机会」。ChatGPT 的成功,让这家公司「被迫」成为了一家消费者科技公司。

现在,这也成为了 OpenAI 当下最大的挑战、

APPSO 整理这篇访的关键点:

1. DeepSeek 的出现是一个「警醒」,促使 OpenAI 重新考虑免费层策略。

2.暗示 GPT-5 即将推出,而且免费用户也可以体验 GPT-5。

3.OpenAI 希望打造一系列个数十亿用户规模的产品。

4.Sam Altman 认为 10 亿日活用户比最先进的模型更具价值。

5.OpenAI 未来的定位,三足鼎立:
·构建大型互联网公司。
·构建推理的基础设施。
·做最好的研究以及最好的模型。

6.幻觉有其价值,是创造力的体现。关键在于控制幻觉,使其在用户需要时出现。

7.ChatGPT 的意外成功迫使 OpenAI 转型,从研究实验室转型为消费科技公司。

8.Sam Altman 承认这并非最初的计划,原本希望专注于 AGI 研究。

9. AGI 是一个模糊的概念,没有统一的定义,倾向于将能够自主完成一系列任务的代理定义为 AGI。

以下是访谈实录,略经 APPSO 编辑和精选:

GPT-5 将可以免费使用

主持人: 从我的角度来看,当你谈到服务数十亿用户,成为一家消费者科技公司时,这意味着广告。你不同意吗?

SA: 我希望不是。我并不反对。如果有充分的理由去做,我不会固执己见。但是,我们有一个很好的业务模式,那就是销售订阅服务。

主持人: 距离盈利和收回所有投资,还有很长的路要走。而且,广告的好处在于,它扩大了你的潜在市场范围,也增加了深度,因为你可以提高每个用户的收入,而广告商会为此买单。你不会遇到任何价格弹性问题,人们只会更多地使用它。

SA: 目前,我更感兴趣的是弄清楚如何为一个真正出色的自动化软件工程师,或者其他类型的代理,向人们收取高额费用,而不是通过基于广告的模式来赚取一些小钱。

主持人: 我知道,但大多数人并不理性。他们不会为生产力软件付费。

SA: 让我们拭目以待。

主持人: 我为 ChatGPT Pro 付费,我不是合适的讨论对象。但我只是——

SA: 你觉得你从中获得了很好的价值吗?

主持人: 当然,我觉得。我认为——

SA: 太好了。

主持人: ——尤其是 Deep Research,它太棒了。但是,我可能更怀疑人们是否愿意主动为某些东西付费,即使数学计算结果很明显,即使它能让他们提高很多效率。同时,我看到你们在谈论构建记忆。让谷歌广告模式如此出色的部分原因在于,他们实际上并不需要非常了解用户,因为人们会在搜索框中输入他们想要查找的内容。人们在你们的聊天机器人中输入了大量的信息。

即使你们投放最「愚蠢」的广告,在很多方面,即使你们无法追踪转化,你们的定向能力也将是超凡的。而且,顺便说一句,你们没有现有的商业模式需要担心被削弱。我的感觉是,这与 OpenAI 的每个人最初的设想完全背道而驰,这是最大的障碍。但对我来说,从商业分析师的角度来看,这似乎非常明显,而且你们已经晚了。

SA: 比起传统的广告,我更感兴趣的是尝试其他方式。比如,很多人使用 Deep Research 来进行电子商务。我们是否可以提出某种新的模式,我们永远不会为了改变商品位置或其他任何东西而收钱,但是,如果你通过 Deep Research 购买了你找到的商品,我们会收取 2% 的联盟佣金,或者类似的东西。那会很酷,我对此没有任何意见。也许,我们可以找到一种体面的方式来做广告,但我不知道。我其实不太喜欢广告。

主持人: 这始终是一个障碍。马克·扎克伯格也不太喜欢广告,但他还是找人做了,而且「别告诉我细节」,让钱神奇地出现。

SA: 是的。再次强调,我喜欢我们目前的商业模式。我不会说我们将来一定会做什么,或者一定不会做什么,因为我不知道。但是,我认为,有很多有趣的方式,在我们当前的变现策略清单上,它们的优先级比广告更高。

主持人: 你有没有觉得,当 DeepSeek 出现并迅速走红,人们开始使用并看到了它的推理能力时,一部分原因是,使用过 ChatGPT 的人没有那么印象深刻,因为他们使用过 o1 模型,他们知道它的潜力。

SA: 是的。

主持人: 但免费用户,或者只是偶尔使用过一次的人,并没有这种感觉。这实际上是不是一个例子,说明你们的沉默寡言,可能让其他产品看起来更令人印象深刻?

SA: 完全是。我认为 DeepSeek——他们有一个很棒的团队,他们开发了一个很棒的模型。但是,我认为,模型的能力并不是真正让他们获得病毒式传播的关键。

这对我们来说是一个教训,那就是当我们隐藏一个功能时(我们隐藏了「思维链」),我们有充分的理由这样做,但这确实意味着,我们给其他人留下了获得病毒式传播的机会。我认为,从这个角度来说,这是一个很好的警醒。而且,它也让我重新思考我们在免费层中提供的内容, GPT-5 将可以免费使用 ,这很酷

主持人: 哇,GPT-5 的暗示。好吧,我稍后会问你更多关于这方面的问题。

主持人: 当你考虑你的商业模式时,我一直认为,你的商业模式非常适合那些「高主动性」的人,也就是那些会主动使用 ChatGPT,并且愿意为之付费的人,因为他们看到了它的价值。但是,有多少人是「高主动性」的呢?而且,「高主动性」的人会尝试所有其他的模型,所以你们必须保持在一个相当高的水平上。相比之下,如果我有一个好用的模型,它就在那里,而且我不需要付费,它还会不断改进,人们会通过我赚更多的钱,但我不知道,因为我对广告没有意见,就像大多数互联网用户一样。

SA: 再次强调,我们对任何需要做的事情都持开放态度。但是,相比于传统的广告,我对刚才提到的那种电商模式更感兴趣。

和 DeepSeek 及其他公司的竞争

主持人: 关于 DeepSeek,你有没有想过,为什么人们不为美国公司欢呼?你有没有觉得,DeepSeek 的走红,也带有一些「反 OpenAI」的情绪?

SA: 我没有。也许有吧,但我肯定没有感觉到。我认为有两件事。第一,他们把一个前沿模型放在了免费层。第二,他们展示了「思维链」,这很吸引人。

主持人: 大家会觉得,「哦,它好可爱。AI 正在努力帮助我」。

SA: 是的。我认为主要是这两件事。

主持人: 在你们最近提出的「AI 行动计划」中,OpenAI 表达了对公司基于 DeepSeek 模型进行开发的担忧,这些模型是「免费可用」的。如果这真的是一个问题,那么解决方案难道不是让你们的模型也免费可用吗?

SA: 是的,我认为我们应该这样做。

主持人: 那么,什么时候——

SA: 我现在还不能宣布发布日期,但从方向上来说,我认为我们应该这样做。

主持人: 你之前说过,拥有 10 亿用户网站比模型更有价值。那么,这是否应该贯穿到你们的发布策略,以及你们对开源的看法中?

SA: 敬请期待。

主持人: 好的,我会期待的。没问题。

SA: 我不是在提前透露什么,但敬请期待。

主持人: 我想,接下来的问题是,这是不是一个机会,让你们回归最初的使命?如果你回顾一下最初的声明,DeepSeek 和 Llama……

SA: Ben,我正在努力给你尽可能多的暗示,但又不能直接说出来。拜托。

主持人: (好吧,没问题。公平,公平。有没有一种感觉,这让人感到解放?对吧?你回想一下那个 GPT-2 的公告,以及关于安全性和其他可能的问题。此时看起来有些老套。是否有一种感觉,秘密已经泄露?在这种情况下,对这些发布保持某种珍贵的态度有什么意义?

SA: 我仍然认为未来可能会有很大的风险。我认为我们过去太保守了是公平的。我也认为,在你不清楚情况的时候,稍微保守一点,这个原则并没有错。我还认为,在目前这个阶段,这项技术会扩散到各个领域,无论是我们的模型做了坏事,还是其他人的模型做了坏事,这又有什么区别呢?但怎么说呢,我还是希望我们能尽可能地做一个负责任的参与者。

主持人: 另一个最近的竞争对手是 Grok。从我的角度来说,在过去一年左右的时间里,我对于 AI 有过两次,我认为很有趣的心理体验。一次是在我的 Mac 上运行本地模型。出于某种原因,我很清楚地意识到它就在我的 Mac 上,没有在其他任何地方运行,这实际上是一种非常棒的感觉。另一次是使用 Grok,我不会觉得有什么“道德警察”会在某个时刻跳出来指责我。我认为,必须承认,ChatGPT 在这方面已经有了很大的改进。但是,Grok 是否让你觉得,实际上,我们可以在这方面走得更远,让用户像成年人一样(自由使用)?

SA: 事实上,我认为我们已经做得更好了。我认为我们之前在这方面确实做得不好,但在过去的六到九个月里,我认为我们已经有了很大的改进。

主持人: 我同意。它确实已经变得更好了。

SA: 这曾经是我对我们产品最关心的问题之一。但现在,怎么说呢,作为用户,我不会觉得困扰了,我认为我们已经做得不错了。所以,我过去经常思考这个问题,但在过去的六到九个月里,我没有再想过了。

成为一家消费科技公司是意外

主持人: 谈一下非营利组织的问题——有一种说法,你提到了那个「神话」。说你们成立非营利组织,是为了出于利他主义的原因,同时也是为了与谷歌竞争人才。仅仅是这样吗?

SA: 你是问,为什么选择成为非营利组织?

主持人: 为什么选择成为非营利组织,以及随之而来的所有问题?

SA: 因为我们当时认为我们只是一个研究实验室。我们根本没有想过我们会成为一家公司。我们当时的计划就是发表研究论文。没有产品,没有产品计划,没有收入,没有商业模式,也没有这些方面的计划。在生活中一直对我有帮助的一件事,就是在黑暗中摸索,直到找到光明。我们在黑暗中摸索了很长时间,然后找到了有效的方法。

主持人: 没错。但这个非营利组织的身份,现在是不是有点像套在公司脖子上的磨盘?如果可以重来,你会采取不同的做法吗?

SA: 当然。如果我能预知后来发生的一切,我们肯定会采用不同的组织结构。但我们当时并不知道,我认为走在创新前沿的代价,就是你会犯很多愚蠢的错误,因为你深陷战争迷雾之中。

主持人: 关于 ChatGPT,以及没有人预料到你们会成为一家消费者科技公司,我有一些更多的理论想和你探讨。这一直是我的观点:你们原本是一个研究实验室,当然,我们会发布一个 API,也许能赚点钱。但你提到了那六个月的扩张期,必须抓住这个从天而降的机会。科技界有很多关于员工流失的讨论,一些知名人士离开了,等等。

在我看来,似乎没有人是冲着成为一家消费产品公司而来的。如果他们想在 Facebook 工作,他们完全可以去 Facebook。这也是另一个核心的矛盾点:你们有了这个机会,不管你们想不想要,它就在那里。这意味着,这里的情况和最初已经大不相同了。

SA: 这么说吧,我没什么可抱怨的,对吧?我得到了科技行业最好的工作。如果我开始抱怨这不是我想要的,那对我是多么不幸等等,那就太不近人情了。我想要的是管理一个 AGI 研究实验室,弄清楚如何构建 AGI。

我真的没想过要经营一家大型的消费者互联网公司。我从之前的工作中就知道(那份工作在当时也是我认为科技行业最好的工作,所以我觉得自己非常、非常幸运,两次都得到了最好的工作),经营一家大型消费者公司需要投入多少精力,以及在某些方面有多么困难。

但我也知道该怎么做,因为我之前指导过很多人,也观察了很多。当我们发布 ChatGPT 的时候,每天都会有用户激增,导致我们的服务器崩溃。然后到了晚上,用户数量下降,大家都觉得,「这下完了,这只是一个短暂的病毒式传播」。然后第二天,峰值又升高了,然后又下降,「这下完了」。到了第五天,我就觉得,「哦,天哪,我知道接下来会发生什么了,我见过这种情形很多次了」。

主持人: 不过,你真的见过这种情形很多次吗?因为整个游戏的关键在于客户获取。对于很多初创公司来说,这就是最大的挑战。真正通过自然增长、病毒式传播来解决客户获取问题的公司,其实非常少。我认为,在这个领域,真正走在 OpenAI 前面的公司是 Facebook,那还是在 2000 年代中期。我觉得你可能高估了你之前见过这种情形的次数。

SA: 好吧,在这个规模上,确实,我们可能是最大的。我想,我们可能是自 Facebook 以来成立的规模最大的公司了。

主持人: 这种规模的消费者科技公司实际上非常罕见,这种情况并不经常发生。

SA: 是的。但我之前见过 Reddit、Airbnb、Dropbox、Stripe,还有很多其他的公司,它们都实现了这种惊人的产品市场契合,以及爆发式的增长。所以,也许我没有见过这种规模的。在当时,你并不知道它会发展到什么程度,但我之前见过这种早期模式。

主持人: 你有没有告诉过大家这将会发生?还是说,那是你根本无法传达的事情?

SA: 我确实告诉过大家。我把公司的人召集起来,说:「这将是非常疯狂的,我们有很多工作要做,而且必须尽快完成。但这是一个从天而降的绝佳机会,我们要抓住它,接下来会是这样……」。

主持人: 有没有人理解你或者相信你?

SA: 我记得有一天晚上我回家,双手抱头,感觉很沮丧。我说:「天哪,Oli [ Oliver Mulherin ],这太糟糕了」。他说:「我不明白,这看起来很棒啊」。我说:「这真的很糟糕,对你来说也很糟糕,你只是还不知道,但接下来会发生这些……」。但是,我想没有人真正理解。这是我之前经历的一个特殊之处,我能够很早就意识到这一点,但没有人能感受到最初几周会变得多么疯狂。

主持人: 五年后,什么会更有价值?一个拥有 10 亿日活跃用户网站,不需要进行客户获取,还是最先进的模型?

SA: 我觉得是 10 亿用户的网站。

主持人: 无论如何都是这样吗?还是说,因为至少在 GPT-4 这个水平上(我不知道你今天有没有看到,LG 刚刚发布了一个新模型),未来会有很多,我不知道,我不评论它的好坏,但未来会有很多最先进的模型。

SA: 我最喜欢的历史类比是晶体管,AGI 将会像晶体管一样。未来会有很多 AGI,它会渗透到各个领域,会变得很便宜。它是物理学的一个新兴属性,它本身并不能成为一个差异化因素。

主持人: 那什么会成为差异化因素?

SA: 我认为存在战略优势的地方,在于打造一家巨型的互联网公司。我认为这应该包含几个不同的关键服务。可能会有三四个像 ChatGPT 这样的产品,你会希望购买一个包含所有这些产品的捆绑订阅。你希望能够使用你的个人 AI 登录,它已经在你的生活中逐渐了解你,并且可以在其他服务中使用它。

我认为,未来会出现一些令人惊叹的新型设备,它们是针对你使用 AGI 的方式进行优化的。会有新型的网络浏览器,会有整个生态系统。总之,会有人围绕 AI 打造出有价值的产品。这是其中一个方面。

另一个方面是推理堆栈,也就是如何实现最便宜、最丰富的推理。芯片、数据中心、能源,会有一些有趣的金融工程要做,所有这些都包括在内。

然后,第三个方面是真正做出最好的研究,开发出最好的模型。我认为这是价值的「三驾马车」。但是,除了最前沿的模型,我认为大多数模型会很快商品化。

主持人: 所以,当 Satya Nadella 说模型正在商品化,OpenAI 是一家产品公司时,这仍然是一种友好的表态,你们仍然在同一条战线上,对吧?

SA: 是的,我不知道对大多数听众来说,这听起来像不像赞美,但我想他是想赞美我们。

主持人: 我是这么理解的。你问我对你们战略的解释,我在 ChatGPT 发布后不久就写过,这是一个「意外的消费者科技公司」。

SA: 我记得你写过那篇文章。

主持人: 这是最——就像我说的,这是科技行业最罕见的机会。我想,我在战略分析方面从 Facebook 身上获益良多,因为它是一个如此罕见的实体,我当时就认定了,「不,你们根本不知道这将走向何方」。但我直到 2013 年才开始,我错过了开端。我已经做了 12 年的 Stratechery,我觉得这是我第一次能够从一开始就报道的公司,而且是这种规模的。

SA: 这种情况并不经常发生。

主持人: 确实不经常。但是,说到这里,你们刚刚发布了一个重要的 API 更新,包括可以访问与 Operator(GPT Pro 的一个卖点)底层相同的「计算使用」模型。你们还发布了 Responses API。我认为 Responses API 最有趣的地方在于,你们说:「我们认为这比 Chat Completions API 好得多,但当然,我们会继续维护它,因为很多人已经基于它进行开发了」。它已经成为行业标准,大家都复制了你们的 API。什么时候,这些 API 相关的工作,以及维护旧版本、将新功能推送到新版本,会变成一种干扰和资源浪费?毕竟,你们面前有一个 Facebook 级别的机会。

SA: 我真的相信我刚才说的「产品套件」的策略。我认为,如果我们执行得非常出色,五年后,我们将会拥有一系列(少数几个)数十亿用户的产品。然后,我们有这样一个想法:你可以使用你的 OpenAI 账户登录到任何其他想要集成我们 API 的地方,你可以带着你的积分、你的定制模型,以及其他任何东西,去任何你想去的地方。我认为,这是我们真正成为一个伟大平台的关键。

主持人: 但是,这是 Facebook 遇到的难题。很难同时成为一个平台和一个聚合器(用我的术语来说)。我认为,移动设备对 Facebook 来说是件好事,因为它迫使他们放弃了成为平台的幻想。你不可能成为一个平台,你必须接受自己是一个带有广告的内容网络。广告只是更多的内容。这实际上迫使他们进入了一个更好的战略位置。

SA: 我不认为我们会成为像操作系统那样的平台。但是,我认为,就像谷歌并不真正是一个平台,但人们使用谷歌账户登录,人们把他们的谷歌内容带到网络的各个角落,这是谷歌体验的一部分。我认为,我们会以这种方式成为一个平台。

主持人: 携带登录信息,就是携带你的记忆、你的身份、你的偏好,以及所有这些东西。

SA: 是的。

主持人: 所以,你们只是凌驾于所有人之上。他们可以选择多个登录方式,而 OpenAI 的登录方式会更好,因为它包含了你的记忆?还是说,如果你想使用我们的 API,就必须使用我们的登录方式?

SA: 不,不,不。当然是可选的。

主持人: 你不认为,当你们面前有这样一个巨大的机会时,这会分散注意力,或者导致资源的分散吗?

SA: 我们确实需要同时做很多事情,这是困难的部分。我认为,在很多方面,是的,我觉得 OpenAI 最令人生畏的挑战之一,就是我们需要在很多事情上都做得非常好。

主持人: 嗯,这是「选择的悖论」。你们可以做的事情太多了。

SA: 我们并没有做很多,我们对几乎所有事情都说「不」。但是,如果你只考虑我们认为必须做的核心部分,我认为我们确实需要做很多,我不认为我们只做一件事就能成功。

「幻觉」也有意义

主持人: 有没有一种可能,「幻觉」其实是有益的?你发布了一个写作模型的示例,它在某种程度上印证了我长期以来的一个观点,那就是大家都在努力让这些概率模型表现得像确定性计算一样,几乎忽略了它们的魔力,也就是它们实际上是在「编造」内容。这其实是非常了不起的。

SA: 完全同意。如果你想要确定性的东西,你应该使用数据库。这里的亮点在于,它可以具有创造性,虽然有时它创造出的东西并不是你想要的。但这没关系,你可以再试一次。

主持人: 这是 AI 实验室的问题,是他们在试图这样做吗?还是说,这是用户期望的问题?我们如何才能让每个人都喜欢「幻觉」呢?

SA: 嗯,你希望它在你想要的时候产生「幻觉」,在你不想要的时候不产生「幻觉」。如果你问,「告诉我这个科学事实」,你希望那不是「幻觉」。如果你说,「给我写一个有创意的故事」,你希望有一些「幻觉」。我认为,真正的问题,或者说有趣的问题是,如何让模型只在对用户有利的时候才产生「幻觉」?

主持人: 你如何看待这个问题:当这些提示词被泄露出来时,它们会说诸如「不要透露这个」或「不要说这个」或「不要做 X、Y、Z」之类的话。如果我们担心安全性和对齐问题,那么教 AI 撒谎是不是一个非常严重的问题?

SA: 是的。我记得 xAI 曾经因为在系统提示中说了一些关于不要说 Elon Musk 的坏话之类的话而被狠狠地嘲笑。这对他们来说很尴尬,但我有点替他们感到难过,因为,模型只是在努力遵循给它的指示。

主持人: 对。它非常认真。

SA: 非常认真。是的。所以,没错,这样做很愚蠢,当然也很尴尬,但我不认为这是像大家所说的那种「崩溃」。

主持人: 包括我在内的一些怀疑论者,认为你呼吁监管的某些方面,是在试图阻碍潜在的竞争对手。我想问一个包含两部分的问题。第一,这样说公平吗?第二,如果「AI 行动计划」除了禁止州一级的 AI 限制,并宣布训练版权材料属于合理使用之外,没有做其他任何事情,这是否足够?

SA: 首先,我们一直以来呼吁的大部分监管,都只是针对最前沿的模型,也就是世界上最领先的模型,对这些模型进行一些安全测试的标准。现在,我认为这是一个好政策,但我越来越觉得,世界上大多数人并不认为这是一个好政策,我担心出现「监管俘获」。

所以,很显然,我有我自己的信念,但看起来,我们不太可能在全球范围内实现这一政策。我觉得这有点可怕,但希望我们能尽最大努力找到出路,也许一切都会好起来的。毕竟,没有多少人想要毁灭世界。

但可以肯定的是,你不会想给整个科技行业增加监管负担。我们呼吁的监管措施,只会影响到我们、谷歌,以及其他少数几家公司。再说一次,我不认为世界会朝着这个方向发展,我们会在现有的规则下竞争。但是,是的,我认为,如果能明确合理使用就是合理使用,并且各州不会有各种各样复杂且不同的法规,那将是非常、非常有益的。

主持人: OpenAI 能做些什么吗?比如说,如果 Intel 有一位新的 CEO,准备重新专注于 AI,你会承诺购买 Intel 生产的芯片吗?OpenAI 能在这方面提供帮助吗?

SA: 我认真思考过我们能为基础设施层和整个供应链做些什么。我目前还没有一个很好的想法。如果你有任何建议,我洗耳恭听。但我的确想做点什么。

主持人: 好的,当然。Intel 需要一个客户。这是他们最需要的,一个不是 Intel 的客户。让 OpenAI 成为 Gaudi 架构的主要客户,承诺购买大量的芯片,这将帮助他们。这将推动他们前进。这就是你的答案。

SA: 如果我们与一个合作伙伴合作开发芯片,这个合作伙伴与 Intel 合作,并且采用兼容的工艺,而且我们对他们的交付能力有足够高的信心,我们可以这样做。再次强调,我想做点什么。所以,我不是在回避问题。

主持人: 不,我也有些不公平,因为我刚刚告诉你,你需要专注于发展你的消费者业务,并切断 API。现在又让你关注维持美国的芯片生产,这确实不太公平。

SA: 不,不,不,我不认为这不公平。我认为,如果我们能做些什么来提供帮助,我们就有义务去做。但我们正在努力弄清楚具体要做什么。

AGI 没有统一标准,要能自主完成很多工作


主持人: Dario 和 Kevin Weil,我想,他们都曾以不同的方式说过,到今年年底,99% 的代码编写工作将实现自动化,这是一个非常快的时间表。你认为目前这个比例是多少?你认为我们什么时候会超过 50%?或者我们已经超过了?

SA: 我认为,在许多公司,现在可能已经超过 50% 了。但我认为,真正的突破将来自于自主编程代理,而目前还没有人真正做到这一点。

主持人: 障碍是什么?

SA: 哦,我们只是需要更多的时间。

主持人: 这是产品问题还是模型问题?

SA: 模型问题。

主持人: 你们还应该继续招聘软件工程师吗?我看到你们有很多职位空缺。

SA: 我的基本假设是,在一段时间内,每个软件工程师所能完成的工作量将会大大增加。然后,在某个时刻,是的,也许我们确实需要更少的软件工程师。

主持人: 顺便说一句,我认为你们应该招聘更多的软件工程师。我认为这是我的观点的一部分,我认为你们需要更快地行动。但是,你提到了 GPT-5。我不知道它在哪里,我们已经期待很久了。

SA: 我们两周前才发布了 4.5。

主持人: 我知道,但我们很贪心。

SA: 没关系。你不必等太久。新版本不会很久的。

主持人: 什么是 AGI?你有很多定义。OpenAI 也有很多定义。你目前,或者说最先进的 AGI 定义是什么?

SA: 我认为你刚才说的就是关键,AGI 是一个模糊的边界,包含了很多东西,而且这个术语,我认为,已经几乎完全贬值了。根据许多人的定义,我们可能已经实现了 AGI,特别是如果你能把一个人从 2020 年带到 2025 年,向他们展示我们所拥有的。

主持人: 嗯,很多年来,AI 一直都是这样。AI 总是指我们无法做到的事情。一旦我们能做到了,它就变成了机器学习。一旦你没有注意到它,它就变成了一个算法。

SA: 对。我认为,对很多人来说,AGI 指的是经济价值的一部分。对很多人来说,它指的是一种通用的东西。我认为它们可以很好地完成很多事情。对一些人来说,它指的是不会犯任何愚蠢错误的东西。对一些人来说,它指的是能够自我改进的东西,等等。只是没有一个很好的统一标准。

主持人: 那么代理呢?什么是代理?

SA: 能够自主运行,为你完成一大块工作的东西。

主持人: 对我来说,这就是 AGI。这是员工替代的水平。

SA: 但是,如果它只擅长某类任务,而不能做其他的呢?我的意思是,有些员工也是这样的。

主持人: 是的,我正在思考这个问题,因为这是一个彻底的重新定义。AGI 曾经被认为是无所不能的,但现在我们有了 ASI。ASI,超级智能。对我来说,这是一个术语问题。ASI,是的,可以做我们交给它的任何工作。如果我得到一个 AI,它能完成一项特定的工作,比如编程,或者其他任何工作,并且它能始终如一地完成,我可以给它一个目标,它能通过找出中间步骤来实现这个目标。对我来说,这是一个明显的范式转变,与我们目前的状态不同,我们现在仍然需要在很大程度上指导它。

SA: 如果我们有一个出色的自主编程代理,你会说,「OpenAI 做到了,他们实现了 AGI」吗?

主持人: 是的。这就是我现在对它的定义。我同意,这几乎是对 AGI 过去含义的一种弱化。但我只是用 ASI 来代替 AGI。

SA: 我们是不是可以得到一个 Ben Thompson 的小金星,贴在我们的墙上?

主持人: (笑)当然,给你。我会把我的电路笔给你。

SA: 太好了。

主持人: 你和这些实验室的同事们谈论你们所看到的东西,以及没有人准备好,还有各种各样的推文在流传,让人们兴奋不已,你在这个播客中也透露了一些暗示。非常令人兴奋。但是,你已经谈论这个问题很久了。你看看这个世界,在某些方面,它看起来还是一样的。是你们的发布没有达到你的预期,还是你对人类吸收变化的能力感到惊讶?

SA: 更多的是后者。我认为,有几次,我们做了一些事情,真的让世界震惊,大家会说,「这……这太疯狂了」。然后,两周后,大家又会问,「下一个版本在哪里?」

主持人: 嗯,我的意思是,你们的最初策略也是如此,因为 ChatGPT 让大家大吃一惊。然后,ChatGPT-4 在不久之后发布,大家又会说,「哦,天哪。我们的发展速度有多快啊?」

SA: 我认为我们已经发布了一些令人难以置信的东西,我认为人们能够适应,并且只是想要更多、更好、更快、更便宜的东西,这实际上是人类的一个伟大特质。所以,我认为我们已经超额交付了,而人们只是更新了他们的认知。

主持人: 鉴于此,这让你更乐观,还是更悲观?你是否看到了我认为将会出现的这种分化,也就是在「能动性」的人(这是「能动性」的另一种含义,但看看我们要往哪里走。我们需要发明更多的词。我们可以让 ChatGPT 为我们「幻觉」出一个)和那些会去使用 API 的人之间的分化?

整个微软 Copilot 的理念是,你有一个助手陪伴你,有很多高谈阔论,「哦,它不会取代工作,它会让人们更有效率」。我同意,对于一些主动使用它的人来说,情况会是这样。但是,你回顾一下,比如说,PC 的历史。第一波 PC 的使用者是那些真正想要使用 PC 的人。很多人并不想用 PC。他们在桌上放了一台 PC,他们必须使用它来完成特定的任务。实际上,你需要一代人的转变,才能让人们默认使用 PC。AI,这是真正的限制因素吗?

SA: 也许吧,但这没关系。就像你提到的,这对于其他的技术变革来说是很常见的。

主持人: 但是,你回到 PC 的例子,实际上,IT 的第一波浪潮是大型机,消灭了整个后台部门。因为实际上,事实证明,第一波浪潮是工作替代的浪潮,因为自上而下的实施更容易。

SA: 我的直觉是,这一次的情况不会完全一样。但我认为,预测总是非常困难的。

主持人: 你的直觉是什么?

SA: 它会慢慢渗透到经济中,主要是逐渐地蚕食一些东西,然后速度越来越快。

主持人: 你经常提到科学突破是投资 AI 的一个理由。Dwarkesh Patel 最近提出了一个观点,那就是目前还没有任何科学突破。为什么没有?AI 能否真正创造或发现新事物?还是说,我们是否过于依赖那些实际上并不那么优秀的模型,这才是真正的问题?

SA: 是的,我认为模型还不够智能。我不知道。你听到人们使用 Deep Research 时说,「好吧,模型并没有独立发现新的科学,但它确实帮助我更快地发现新的科学」。对我来说,这几乎一样好。

主持人: 你认为基于 Transformer 的架构能否真正创造新事物,还是说它只是在输出互联网上的中等水平的内容?

SA: 是的。

主持人: 嗯,那突破点会在哪里?

SA: 我的意思是,我认为我们正在前进的道路上。我认为我们只需要继续做我们正在做的事情。我认为我们就在这条路上。

主持人: 我的意思是,这是对上帝的终极考验吗?

SA: 怎么说?

主持人: 人类是否具有与生俱来的创造力,还是说创造力只是以不同的方式重新组合知识?

SA: 我最喜欢的书之一是 David Deutsch 的《The Beginning of Infinity》。在那本书的开头,有几页非常精彩地描述了创造力就是把你之前看到的东西稍微修改一下。然后,如果从中产生了好的结果,其他人会再稍微修改一下,其他人还会再稍微修改一下。我有点相信这种说法。如果是这样的话,那么 AI 擅长稍微修改东西。

主持人: 在多大程度上,你能够相信这种观点的基础,是你长期以来的信念,而不是你观察到的东西?因为我认为这是一个非常有趣的——我不想讨论太高深的形而上学,或者,就像我说的,几乎是神学的问题——但似乎确实存在这样一种情况,一个人的基本假设会影响他对 AI 可能性的假设。然后,大多数硅谷人都是唯物主义者、无神论者,或者你怎么称呼他们。所以,当然,我们会弄清楚的,这只是一个生物功能,我们可以在计算机中重现它。如果事实证明,我们从未真正创造出新事物,而是增强了人类创造新事物,这会改变你的核心信念体系吗?

SA: 这绝对是我以前的核心信念体系的一部分。这些都不是什么新鲜事。但是,不,我会假设我们只是还没有找到正确的 AI 架构,在未来的某个时候,我们会找到的。

AI 时代,给年轻人的职业建议

主持人: 最后一个问题是代表我女儿问的,她今年高中毕业。对于高中毕业生,你有什么职业建议?

SA: 最明显的、具体的建议就是,熟练掌握 AI 工具。就像我高中毕业的时候,最明显的、具体的建议是熟练掌握编程。这是新版本的建议。

更广泛的建议是,我认为人们可以培养韧性和适应能力,以及弄清楚别人想要什么,以及如何对他人有用的能力。我会去实践这些。比如,无论你学习什么,具体的细节可能并不那么重要。

也许它们从来都不重要。我在学校学到的最有价值的东西是学习的「元能力」,而不是我学到的任何具体的东西。所以,无论你要学习什么具体的东西,都要学习这些看起来在世界经历这场转型时会很重要的通用技能。

爱范儿,让未来触手可及。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


【404文库】南方+|深圳一街道回应“DeepSeek+舆情应对”及相关质疑

20 March 2025 at 07:47

CDT编辑注:原文2月22日发表于《南方日报》旗下的新闻客户端 “南方+”。关于中国政府如何利用DeepSeek加强监控与审查,请阅读低音和新新闻联合发布的报道

CDT 档案卡
标题:深圳一街道回应“DeepSeek+舆情应对”及相关质疑
作者:苏国锐
发表日期:2025.2.22
来源:南方日报 / 南方+
主题归类:DeepSeek
CDS收藏:老大哥馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

2月20日,深圳市宝安区西乡街道组织辖区各部门和社区相关负责人共50余人,开展了“DeepSeek+舆情应对”工作培训会,旨在借助AI技术全面提升街道在舆情监测、分析与应对方面的综合能力,快速处理和回复市民诉求。

在获得大量网友点赞的同时,也有部分网友质疑:是否存在政府部门通过人工智能进行删帖、回复等负面跟评情况。西乡街道党政和人大办宣传工作负责人肖斌回应称,不存在删帖等相关情况,运用人工智能只是为了快速对海量信息进行筛选和整理,确保每一个市民的诉求都能在第一时间得到处理和回复。

基层干部:工作更有底气,心里更踏实

“取代你的不是人工智能,而是那些熟悉使用人工智能的人。”培训开始,授课老师就强调了学习和使用人工智能的必要性。

老师通过“功能解析+场景应用+实操演示”三维模式,讲解了Deepseek平台的技术特性、应用场景及操作要领。在舆情应对策略培训环节,老师从舆情监测、研判、回应到处置,全方位介绍了应对网络舆情的工作流程和处置方式。

老师强调,在数字化时代,舆情传播速度更快、范围更广,街道各部门及社区必须提高警惕,坚持人民至上,及时回应群众关切。同时,面对恶意造谣煽动行为,要坚决依法处理整治。培训还设置了实践研讨与模拟演练环节。

img

西乡街道流塘社区宣传委员说道:“以前面对舆情,常常感觉手忙脚乱,信息收集不全面,应对缺乏章法。现在了解DeepSeek的强大功能,比如快速抓取海量网络信息中的关键舆情点,量化分析舆情走向,让后续的应对工作更有底气,心里也踏实多了。”

西乡街道相关负责人表示,此次培训会是街道在基层治理手段创新上的重要尝试,通过引入先进的人工智能技术,能更高效地捕捉舆情信息,为街道的和谐稳定发展营造良好的舆论氛围。

街道释疑:不存在人工智能删帖等情况

西乡街道“DeepSeek+舆情应对”工作培训会引起了社会的广泛关注,在获得大量网友点赞的同时,也引起了部分网友质疑。

为此,记者采访了西乡街道党政和人大办宣传工作负责人肖斌。肖斌介绍,街道一直都十分重视舆情工作,运用“民意速办”“说事评理”“宝安区‘欠薪扫我,即扫即办’”“‘宝’就业”等平台,快速收集了市民吐槽和反映的各种问题,做到“民有所呼,我有所应”。

作为深圳一个人口规模超过百万的大型街道,2024年西乡共分拨、核实、处置、回复各类舆情1050条。其中,市场监管、城市管理、交通、环境等排名靠前,通过这些舆情处置,使大量市民反映的问题得到了及时处置和回复。

肖斌否认了政府部门通过人工智能进行删帖等不良行为的说法。她表示,跟帖回复需要实名账号,注册虚拟账号进行人工智能自动回复各类网帖,不仅技术上存在难度,而且还涉嫌违法,街道的舆情工作团队秉持着客观、公正、负责的态度,认真对待每个舆情事件,积极与市民进行沟通交流,只为切实解决市民的问题。

“在舆情工作中,人工智能的意义在于,帮助我们快速对海量信息进行筛选和整理,街道相关部门进行精准分拨、快速核实与处置各类问题,确保每一个市民的诉求都能在第一时间得到处理和回复。”肖斌说道。

当被问及未来的工作规划时,肖斌表示,将继续优化舆情工作机制,将市民通过网络发帖提出的意见和建议视为“送上门的服务机会”,充分发挥人工智能的优势,进一步提升舆情办理效率,为市民提供更加优质、高效的服务,推动社会和谐稳定发展。

【CDT关注】低音x新新闻|中国政府如何开始用DeepSeek来“治国理政”

20 March 2025 at 01:27

背景补充:

2025年2月,杭州人工智能公司幻方量化发布的DeepSeek,在推出之后即受到了全球瞩目。其开源模型DeepSeek-R1在许多方面的表现杰出,超过了多家公司的同类产品。并且,DeepSeek所公布的大模型训练成本较低,大概只有OpenAI的三十分之一。有评论认为,DeepSeek的出现可能会给整个AI行业格局带来深度影响。并且,DeepSeek选择了开源路线,将代码、模型权重和训练日志全部公开,这也赢得了全球AI研究社区的极大好感。过去一个多月以来,还有网民将DeepSeek称作AI界的“价格屠夫”,其API调用价格即便在上涨之后,也远低于OpenAI、Anthropic、Google等公司的定价,加速了AI应用的普及速度。

img

在DeepSeek爆火之后,多方的质疑声随之而来。有人指出,DeepSeek会将收集的资讯储存在位于中国的伺服器中,这可能存在一定的资料安全风险。此外,DeepSeek还引入了非常严厉的内容审查,当对话中出现“六四”、“四通桥”、“习近平”等内置敏感词时,它会立即中断对话,并明确告知用户无法回答此问题。而在涉及内政、外交、法制、领导人等问题时,DeepSeek通常会与中国官方立场保持高度一致,俨如数字版的官方发言人。也正如官方学者张维为在《这就是中国》第274期中所说,“我们一定要有自己的话语,尤其不要总是跟随着美国的话语、华尔街的话语、资本力量的话语。”

file

因此不少中国网民对DeepSeek的看法存在两级对立,一些人认为身为中国企业的DeepSeek(幻方量化),必然会最终成为中国政府的一种统治工具。(而最近美国科技博客TechCrunch也披露,DeepSeek母公司已要求部分员工上交个人护照)。但另一些人却认为,DeepSeek就是某种程度上的国运,代表着中国的科技力量足以紧跟美国。应以“技术中立”眼光更多关注DeepSeek的技术价值、实用功能,而不是从意识形态的角度敌视之。

file

CDT 档案卡
标题:中国政府如何开始用DeepSeek来“治国理政”
作者:低音
发表日期:2025.3.20
来源:独立媒体低音
主题归类:DeepSeek
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

3月18日,独立媒体“低音”在一篇报道中(联合“新新闻”发布)揭露了DeekSeek可能正主动或被迫走在加强政府专制能力的道路上,促进一种“极权人工智能”的诞生。报道提到“低音联合新新闻通过梳理官方公开资料,发现基层政府部门、公安、党媒、官方监控设备供应商等已将DeepSeek运用于网格化管理、言论审查、政治维稳等方面,使其工作更加自动化、精细化,或将带来监控和维稳模式的新一轮革新。”

以下是这篇文章的节选内容:

北京昌平区政府称,城市管理指挥中心利用DeepSeek破除了“网格治理信息壁垒”,精准实现了“跨域协同”等复杂需求。此外,当地政府基于“雪亮工程”(乡村地区以网格化管理为基础、以联网监控摄像为重点的“群众性治安防控工程”)的“优质视频资源”,结合DeepSeek深度思考技术,构建了“全天候城市感知网络”,“破除了人工巡查的时空限制”。

内蒙古乌审旗公安局称,DeepSeek提升了大型活动安保工作的精准度,有效预防和控制潜在的安全风险。该公安局解释称,DeepSeek可以对人员信息、活动现场情况等实时分析,及时发现异常情况并预警,“确保安保工作万无一失”。

重庆荣昌区公安局称,警情分析任务原来需要三人三天完成,DeepSeek上线后,缩短为一人15分钟,“实战成果显著”。

深圳宝安区某社区宣传工作人员表示,DeepSeek让他们应对“舆情”时更加“得心应手”,在快速抓取“关键舆情点”和“量化分析舆论走向”方面,大大提升了工作效率。该区街道执法队负责人也表示,DeepSeek让他们更精准地定位“舆情源头”,预判风险,为“舆情应对”提供有力支持。

内蒙古兴安盟、锡林郭勒盟网信办称,DeepSeek在复杂语境识别、潜在风险预判等方面有显著优势,将持续推动AI在内容管理、“舆情研判”、网络安全等领域的应用。

山东省互联网传播集团(省级党媒)为DeepSeek在“舆情监测”中的应用提供了更多细节。该集团称,接入DeepSeek后,全网“舆情信息”识别效率、噪音过滤能力均大幅提升,在热点话题的监测过程中,可更快发现潜在风险。此外,DeepSeek分析海量数据后,可以自动生成“舆情应对策略”,提供更智能的“舆情处置建议”。

一家与官方深度合作的网络安全监控企业“天融信”称,公司已利用DeepSeek的深度内容识别技术,结合关键字检测、图像文字检测等方式,全面监测敏感信息并及时阻断违规行为。

多地宣传部门和地方党媒称,DeepSeek可基于实时信息自动生成新闻稿,辅助官媒记者快速撰写稿件。

河南新乡市政府发布“DeepSeek党政机关公文写作智能化应用指南”,称其内置《党政机关公文格式》语料库,并自动关联中宣部最新版《宣传禁用词和慎用词清单》,还可自动筛查“两个维护”、“两个确立”等核心政治术语,并与中央文件对比。

新疆阿勒泰党委称,DeepSeek让党建工作“智”感十足。若想学习领会中央文件精神,只需上传政策文件,DeepSeek即可生成核心摘要,并针对专业术语或执行难点(如“基层党组织选举流程”)重点解答,避免基层干部理解偏差。

点此跳转至原文

刚刚,黄仁勋甩出三代核弹 AI 芯片!个人超算每秒运算 1000 万亿次,DeepSeek 成最大赢家

By: 莫崇宇
19 March 2025 at 07:04

英伟达 GTC 大会已经成了 AI 界超级碗,没有剧本也没有提词器,中途黄仁勋被线缆卡住,反而是这场高浓度 AI 发布会里最有人味的片段,在当今提前基本提前彩排或录播的科技发布会里已经很稀缺了。

刚刚,黄仁勋再次发布了全新一代核弹级 AI 芯片,不过这场发布会的还有个隐藏主角——DeepSeek。

由于智能体 AI(Agentic AI)和推理能力的提升,现在所需的计算量至少是去年此时预估的 100 倍。

推理成本效率给 AI 行业带来影响,而不是简单地堆积计算能力,成为贯穿这场发布会的主线。英伟达要变成 AI 工厂,让 AI 以超越人类的速度学习和推理。

推理本质上是一座工厂在生产 token,而工厂的价值取决于能否创造收入和利润。因此,这座工厂必须以极致的效率打造。

黄仁勋掏出的英伟达新「核弹」也在告诉我们,未来的人工智能竞争不在于谁的模型更大,而在于谁的模型具有最低的推理成本和更高推理的效率。

除了全新 Blackwell 芯片,还有两款「真·AI PC」

全新的 Blackwell 芯片代号为「Ultra」,也就是 GB300 AI 芯片,接棒去年的「全球最强 AI 芯片」B200,再一次实现性能上的突破.

Blackwell Ultra 将包括英伟达 GB300 NVL72 机架级解决方案,以及英伟达 HGX B300 NVL16 系统。

Blackwell Ultra GB300 NVL72 将于今年下半年发布,参数细节如下:

  • 1.1 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 1.1 ExaFLOPS(每秒百亿亿次浮点运算)。
  • 0.36 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。
  • 1.5X GB300 NVL72:与 GB200 NVL72 相比,性能为 1.5 倍。
  • 20 TB HBM3:配备了 20TB HBM 内存,是前代的 1.5 倍
  • 40 TB Fast Memory:拥有 40TB 的快速内存,是前代的 1.5 倍。
  • 14.4 TB/s CX8:支持 CX8,带宽为 14.4 TB/s,是前代的 2 倍。

单个 Blackwell Ultra 芯片将和前代一样提供相同的 20 petaflops(每秒千万亿次浮点运算) AI 性能,但配备更多的 288GB 的 HBM3e 内存。

如果说 H100 更适合大规模模型训练,B200 在推理任务中表现出色,那么 B300 则是一个多功能平台,预训练、后训练和 AI 推理都不在话下。

英伟达还特别指出,Blackwell Ultra 也适用于 AI 智能体,以及用于训练机器人和汽车自动驾驶的「物理 AI」。

为了进一步增强系统性能,Blackwell Ultra 还将与英伟达的 Spectrum-X 以太网和英伟达 Quantum-X800 InfiniBand 平台集成,为系统中的每个 GPU 提供 800Gb/s 的数量吞吐量,帮助 AI 工厂和云数据中心能够更快处理 AI 推理模型。

除了 NVL72 机架,英伟达还推出了包含单个 GB300 Blackwell Ultra 芯片的台式电脑 DGX Station。Blackwell Ultra 之外,这个主机还将配备 784GB 的同一系统内存,内置 800Gbps 英伟达 ConnectX-8 SuperNIC 网络,能够支持 20 petaflops 的 AI 性能。

而之前在 CES 2025 展示的「迷你主机」Project DIGITS 也正式被命名为 DGX Spark,搭载专为桌面优化的 GB10 Grace Blackwell 超级芯片,每秒可提供高达 1000 万亿次 AI 计算操作,用于最新 AI 推理模型的微调和推理,包括 NVIDIA Cosmos Reason 世界基础模型和 NVIDIA GR00T N1 机器人基础模型。

黄仁勋表示,借助 DGX Station 和 DGX Spark,用户可以在本地运行大模型,或者将其部署在 NVIDIA DGX Cloud 等其他加速云或者数据中心基础设施上。

这是 AI 时代的计算机。

DGX Spark 系统现已开放预订,而 DGX Station 预计将由华硕、戴尔、惠普等合作伙伴于今年晚些时候推出。

下一代 AI 芯片 Rubin 官宣,2026 年下半年推出

英伟达一直以科学家的名字为其架构命名,这种命名方式已成为英伟达文化的一部分。这一次,英伟达延续了这一惯例,将下一代 AI 芯片平台命名为「Vera Rubin」,以纪念美国著名天文学家薇拉·鲁宾(Vera Rubin)。

黄仁勋表示,Rubin 的性能将达到 Hopper 的 900 倍,而 Blackwell 相较 Hopper 已实现了 68 倍的提升。

其中,Vera Rubin NVL144 预计将在 2026 年下半年发布。参数信息省流不看版:

  • 3.6 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 3.6 ExaFLOPS(每秒百亿亿次浮点运算)。
  • 1.2 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。
  • 3.3X GB300 NVL72:与 GB300 NVL72 相比,性能提升了 3.3 倍。
  • 13 TB/s HBM4:配备了 HBM4,带宽为 13TB/s。
  • 75 TB Fast Memory:拥有 75 TB 的快速内存,是前代的 1.6 倍。
  • 260 TB/s NVLink6:支持 NVLink 6,带宽为 260 TB/s,是前代的 2 倍。
  • 28.8 TB/s CX9:支持 CX9,带宽为 28.8 TB/s,是前代的 2 倍。

标准版 Rubin 将配备 HBM4,性能比当前的 Hopper H100 芯片大幅提升。

Rubin 引入名为 Grace CPU 的继任者——Veru,包含 88 个定制的 Arm 核心,每个核心支持 176 个线程,并通过 NVLink-C2C 实现 1.8 TB/s 的高带宽连接。

英伟达表示,定制的 Vera 设计将比去年 Grace Blackwell 芯片中使用的 CPU 速度提升一倍。

与 Vera CPU 搭配时,Rubin 在推理任务中的算力可达 50 petaflops,是 Blackwell 20 petaflops 的两倍以上。此外,Rubin 还支持高达 288GB 的 HBM4 内存,这也是 AI 开发者关注的核心规格之一。

实际上,Rubin 由两个 GPU 组成,而这一设计理念与当前市场上的 Blackwell GPU 类似——后者也是通过将两个独立芯片组装为一个整体运行。

从 Rubin 开始,英伟达将不再像对待 Blackwell 那样把多 GPU 组件称为单一 GPU,而是更准确地按照实际的 GPU芯 片裸片数量来计数。

互联技术也升级了,Rubin 配备第六代 NVLink,以及支持 1600 Gb/s 的 CX9 网卡,能够加速数据传输并提升连接性。

除了标准版 Rubin,英伟达还计划推出 Rubin Ultra 版本。

Rubin Ultra NVL576 则将于 2027 年下半年推出。参数细节如下:

  • 15 EF FP4 Inference:在 FP4 精度下进行推理任务时,性能达到 15 ExaFLOPS。
  • 5 EF FP8 Training:在 FP8 精度下进行训练任务时,性能为 5 ExaFLOPS。
  • 14X GB300 NVL72:相比 GB300 NVL72,性能提升 14 倍。
  • 4.6 PB/s HBM4e:配备 HBM4e 内存,带宽为 4.6 PB/s。
  • 365 TB Fast Memory:系统拥有 365 TB 的快速内存,是前代的 8 倍。
  • 1.5 PB/s NVLink7:支持 NVLink 7,带宽为 1.5 PB/s,是前代的 12 倍。
  • 115.2 TB/s CX9:支持 CX9,带宽为 115.2 TB/s,是前代的 8 倍。

在硬件配置上,Rubin Ultra 的 Veras 系统延续了 88 个定制 Arm 核心的设计,每个核心支持 176 个线程,并通过 NVLink-C2C 提供 1.8 TB/s 的带宽。

而 GPU 方面,Rubin Ultra 集成了 4 个 Reticle-Sized GPU,每颗 GPU 提供 100 petaflops 的 FP4 计算能力,并配备 1TB 的 HBM4e 内存,在性能和内存容量上都达到了新的高度。

为了在瞬息万变的市场竞争中站稳脚跟,英伟达的产品发布节奏已经缩短至一年一更。发布会上,老黄也正式揭晓下一代 AI 芯片的命名——物理学家费曼(Feynman)。

随着 AI 工厂的规模不断扩大,网络基础设施的重要性愈发凸显。

为此,英伟达推出了 Spectrum-X™ 和 Quantum-X 硅光网络交换机,旨在帮助 AI 工厂实现跨站点连接数百万 GPU,同时显著降低能耗和运营成本。

Spectrum-X Photonics 交换机具有多种配置,包括:

  • 128 端口 800Gb/s或 512 端口 200Gb/s 配置,总带宽达 100Tb/s
  • 512 端口 800Gb/s或 2048 端口200Gb/s配置,总吞吐量达 400Tb/s

与之配套的 Quantum-X Photonics 交换机则基于 200Gb/s SerDes 技术,提供 144 端口 800Gb/s 的 InfiniBand 连接,并采用液冷设计高效冷却板载硅光子组件

与上一代产品相比,Quantum-X Photonics 交换机为 AI 计算架构提供 2 倍速度和 5 倍可扩展性。

Quantum-X Photonics InfiniBand 交换机预计于今年晚些时候上市,而 Spectrum-X Photonics 以太网交换机预计将于 2026 年推出。

随着 AI 的快速发展,对数据中心的带宽、低延迟和高能效需求也急剧增加。

英伟达 Spectrum-X Photonics 交换机采用了一种名为 CPO 的光电子集成技术。其核心是将光引擎(就是能处理光信号的芯片)和普通的电子芯片(比如交换芯片或 ASIC 芯片)放在同一个封装里。

这种技术的好处很多:

  • 传输效率更高:因为距离缩短,信号传输更快。
  • 功耗更低:距离短了,传输信号需要的能量也少了。
  • 体积更小:把光和电的部件集成在一起,整体体积也变小了,空间利用率更高。

AI 工厂的「操作系统」Dynamo

未来将没有数据中心,只有 AI 工厂。

黄仁勋表示,未来,每个行业、每家公司拥有工厂时,都将有两个工厂:一个是他们实际生产的工厂,另一个是 AI 工厂,而 Dynamo 则是专门为「AI 工厂」打造的操作系统。

Dynamo 是一款分布式推理服务库,为需要 token 但又无法获得足够 token 的问题提供开源解决方案。

简单来说,Dynamo 有四个方面的优势:

  •  GPU 规划引擎,动态调度 GPU 资源以适应用户需求
  • 智能路由器,减少 GPU 对重复和重叠请求的重新计算,释放更多算力应对新的传入请求
  • 低延迟通信库,加速数据传输
  • 内存管理器,智能在低成本内存和存储设备中的推理数据

人形机器人的露脸环节,永远不会缺席

人形机器人再一次成为了 GTC 大会的压轴节目,这次英伟达带来了 Isaac GR00T N1,全球首款开源人形机器人功能模型。

黄仁勋表示,通用机器人技术的时代已经到来,借助 Isaac GR00T N1 核心的数据生成以及机器人学习框架,全球各地的机器人开发人员将进入 AI 时代的下一个前沿领域。

这个模型采用「双系统」架构,模仿人类的认知原理:

  • 系统 1:快速思考的动作模型,模仿人类的反应或直觉
  • 系统 2:慢思考的模型,用于深思熟虑的决策。

在视觉语言模型的支持下,系统 2 对环境和指令进行推理,然后规划动作,系统 1 将这些规划转化为机器人的的动作。

GR00T N1 的基础模型采用广义类人推理和技能进行了预训练,而开发人员可以通过真实或合成数据进行后训练,满足特定的需求:既可以完成工厂的特定任务,也可以在家里自主完成家务。

黄仁勋还宣布了与 Google DeepMind 和 Disney Research 合作开发的开源物理引擎 Newton。

一台搭载 Newton 平台的机器人也登上了舞台,黄仁勋称之为「Blue」,外观神似《星球大战》中的 BDX 机器人,能够用声音和动作和黄仁勋互动。

8 块 GPU,DeepSeek-R1 推理速度创全球之最

英伟达实现了全球最快的 DeepSeek-R1 推理。

官网显示,一台搭载 8 个 Blackwell GPU 的 DGX 系统,在运行 6710 亿参数的 DeepSeek-R1 模型时,可实现每用户每秒超过 250 个 token 的速度,或达到最高吞吐量每秒超过 30000 个 token。

通过硬件和软件的结合,自今年 1 月以来,英伟达在 DeepSeek-R1 671B 模型上的吞吐量提升了约 36 倍,每 token 的成本效率提高了约 32 倍。

为了实现这一成就,英伟达完整的推理生态系统已针对 Blackwell 架构进行了深度优化,不仅整合 TensorRT-LLM、TensorRT Model Optimizer 等先进工具,还无缝支持 PyTorch、JAX 和 TensorFlow 等主流框架。

在 DeepSeek-R1、Llama 3.1 405B 和 Llama 3.3 70B 等模型上,采用 FP4 精度的 DGX B200 平台相较于 DGX H200 平台,推理吞吐量提升超过 3 倍。

值得注意的是,此次发布会的主题演讲并未提及量子计算,但英伟达特意在这届 GTC 大会设置了量子日,邀请了多家当红量子计算公司的 CEO 出席。

要知道黄仁勋年初一句「量子计算还需 20 年才实用」的论断犹在耳畔。

一改口风的背后,离不开微软耗时 17年研发的拓扑量子芯片 Majorana 1 实现 8 个拓扑量子比特集成,离不开 Google Willow 芯片宣称用 5 分钟完成经典计算机需 10^25 年处理的任务,推动了量子计算的热潮。

芯片无疑是重头戏,但一些软件的亮相同样值得关注。

硅谷著名投资人马克·安德森曾提出软件正在吞噬世界(Software is eating the world)的论断,其核心逻辑在于软件通过虚拟化、抽象化和标准化,正在成为控制物理世界的基础设施。

不满足于做「卖铲人」,英伟达的野心是打造 AI 时代的「生产力操作系统」。从汽车智能驾驶,到制造业的数字孪生工厂,这些贯穿整场发布会的案例都是将 GPU 算力转化为行业生产力的具象化表达。

实际上,无论是发布会上亮相的最新核弹芯片,还是押注战未来的量子计算,黄仁勋在这场发布会上对 AI 未来发展的洞察和布局,都比当下的技术参数与性能指标更具看点。

在介绍 Blackwell 与 Hopper 架构的对比时,黄仁勋还不忘幽默一把。

他以一个 100MW 工厂的对比数据为例,指出采用 Hopper 架构需要 45,000 颗芯片和 400 个机架,而 Blackwell 架构凭借更高的效率显著减少了硬件需求。

于是,黄仁勋那句经典的总结再次抛出,「the more you buy, the more you save」(买得越多,省得越多)。」随后话锋一转,他又补充说,「the more you buy, the more you make」(买得越多,赚得越多)。

随着 AI 领域的重心从训练转向推理,英伟达更需要证明其软硬件生态在推理场景的不可替代性。

一方面,Meta、Google 等巨头自研 AI 芯片,可能分流 GPU 市场需求。

另一方面,英伟达最新 AI 芯片的适时亮相,回应如 DeepSeek 的开源模型对 GPU 需求的冲击,并展示推理领域技术优势,也是为了对冲市场对训练需求见顶的担忧。

最近估值跌至 10 年低位的英伟达,比以往任何时候都需要一场酣畅淋漓的胜利。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


七千万用户的网文平台,打出了「反 AI」的第一枪

By: 张成晨
7 March 2025 at 12:08

「以下是为您修改、润色和优化后的内容。」

如果你是一位辛苦等待连载的网文读者,点开最新的付费 VIP 章节,却看到了一句自曝使用了 AI 的文案,想必你的脑海就冒出了退钱哥的那句经典发言。

▲ 晋江小说截图,这篇网文已经被黄牌警告

冷静下来之后,对这句话再读了一遍,你可能会安慰自己,至少不是完全用 AI 生成的。

那么,网文究竟可以用 AI 辅助吗?如果用了,怎样的程度是被允许的?更爱看古法手作的付费读者,又如何保证,自己看的网文都是作者手打的?

这些问题,不仅是作者和读者,连网文平台自己都很迷茫。

晋江打出「反 AI」的第一枪?但 AI 辅助网文创作已不可避免

2 月 17 日,女性向原创文学网站晋江,在晋江作者读者专用论坛「碧水江汀」,发布了《关于 AI 辅助写作使用、判定的试运行公告》。

公告由晋江文学城创始人兼站长黄艳明(网名「iceheart」)发出,开头就点出了拟定公告的部分原因,「已经收到了晋江上有作者疑似使用 AI 的举报」。

整篇公告,可以看作是晋江对 AI 辅助创作判定标准的一次摸索,规定了晋江目前只允许三种 AI 辅助。

  • 校对:AI 帮助修改错字、错词、语法错误、错知识点等。
  • 要素:AI 生成文章的个别要素,包括文章名、角色名、功夫名、人设等。
  • 粗纲:AI 生成简单的人物关系和一两句话概括的故事情节,不涉及记叙文的七要素。

用 AI 润色文字,直接由 AI 生成情节,都不被允许,因为已经影响了「人作为写作主体的原创性」。违反规定的作者,将面临锁章、黄牌、禁榜、退还订阅等处罚。

规定看似清晰,但还需要补充和细化。从评论区看,读者们普遍不看好 AI 辅助,甚至认为晋江就不该给 AI 松绑。

这和晋江的付费模式有关。晋江官方披露,自 2008 年 1 月网站 VIP 业务开通起,截至 2025 年 1 月,注册用户数已超 7037 万。

晋江签约作者荷桃粥,从贴吧、论坛时代开始就笔耕不辍,她很理解读者的心情,「有些网站的作者,收入来源于流量曝光,晋江还在采用单独章节付费,相信选择晋江这样付费模式的作者与读者,更在意文字的原创性」。

在晋江,维护原创的氛围很强烈,或者说,对 AI 的容忍度非常低。一次,荷桃粥亲手设计了小说封面,并买下了所用素材的商用版权,但她没想到,部分素材是 AI 生成。被读者告知后,她很快就替换上了在画师接稿平台定制的手绘。

▲ 荷桃粥现在的小说封面

尽管晋江的步伐迈得谨慎,AI 辅助已经成了网文平台必须考虑的问题,关键在于程度。

抖音旗下的免费阅读产品番茄小说,在 2024 年 5 月上线 AI 写作工具,几乎涵盖了写作的各个阶段,包含构思大纲、情节参考、查询资料、起名、扩写、改写、续写等功能。

不过,扩写和续写仅限非保底作者使用。这不难理解,在量大管饱的番茄,签约不难,但保底是为了让优质新书获得收入保障,拿到保底意味着作者的成绩已经不差,有资格获得相对稳定的收入,对 AI 的使用便也更加谨慎。

2 月 5 日,阅文旗下的辅助创作产品「作家助手」,独立部署了 DeepSeek-R1,支持联网搜索和深度思考,升级了智能问答、获取灵感和描写润色三大功能,比如,DeekSeek-R1 擅长推理,可以在作者卡文的时候,推导多个可能的剧情路线。

从名字就看出,阅文对 AI 的定位是明确的,故事是「人人心中有,人人笔下无」的东西,如果作者都不知道自己想要什么故事,怎样的表达是合适的,AI 也帮不上忙。

▲ 用阅文「作家助手」找灵感

2023 年 7 月发布首个网文大模型「阅文妙笔」时,阅文说过,「AIGC 不会取代作家,它是创作的金手指,而主角永远是作家」。

网文作家们仍然是主导故事的人,同时,他们也必须面对 AI 时代出现的新问题。

鉴定用没用过 AI,为什么成了作者的难题

既然网文平台允许在一定程度上使用 AI,如何判断有没有用过 AI,以及使用 AI 的程度?

事实是,很难。连晋江文学城站长都吐槽过,自己的原创诗歌作品被 DeepSeek 认为是 AI 创作。用 AI 鉴定 AI 的检测软件,准确率也存疑,修改几个句子,概率可能波动极大。

荷桃粥试过腾讯朱雀的 AI 生成文本检测,投入了自己正在连载的小说《不渡长夜》的第 1 章、第 22 章、第 40 章,分别测出 0%、44%、87% 的 AI 概率。当她删减了第 1 章的前后铺垫,只剩三分之一的内容,朱雀又给出了 100% 的结果。

▲ 腾讯朱雀

检测软件只提供概率,不分析像 AI 的原因。荷桃粥猜测,「越是晦涩难懂、有语病、内心描写多的段落,反而越容易被 AI 判定,或者是思维跳脱、使用比喻较多、文风稚嫩的内容,也容易被 AI 判定」。

比作者更依赖检测软件的,可能是网文工作室的审稿编辑,他们的邮箱,每天会接收大量短篇小说的投稿。

小红书上有网文编辑吐槽,「平均每天被 20 个 AI 稿子追杀」。他们对接的网文平台不支持 AI 投稿,一篇被举报了就可能封号,所以要求普遍严苛,甚至「宁可错杀不可放过」。

▲ 同人创作平台 lofter 处罚使用 AI 牟利的作者

原乐是一名网文工作室的网编,她收到的投稿主要来自信任的老作者,所以 AI 稿件不算多,但她流量好的同事发现,很多新加联系方式的新作者会用 AI 投稿。

责编建议原乐,用朱雀或者豆包检测 AI 稿件,但原乐觉得并不准确,「最有效的还是人工」。

DeepSeek R1 将数学和代码的推理能力,延伸到了文学创作,但它的文风,算是几个 AI 里很好辨认的一个,喜欢使用比喻和数字,堆砌不必要的意象和莫名其妙的描写,还容易发散思维,这可能与强化学习过程对创造性的偏好有关。

如果一篇稿件人设崩坏、人称混乱、词藻华丽、过渡生硬、剧情无主线,就可能被编辑质疑是用 AI 生成或润色的。编辑们更加看中的是,节奏和情绪的流畅度。不过,所谓的怀疑并非铁证,新人作者也会犯类似的毛病。

原乐解释,判断可能是 AI 稿件时,编辑们会询问作者,并要求作者给出证据,「一般来说需要写作痕迹,大多数软件都有历史文档内容,通常无法造假」。另外,码字记录证明、文档编辑时间,也是比较可行的自证方式。

▲ 码字记录,图片来自:小红书@一定要出爆款鸭!

种种原因导致了,作者们陷入了一个非常被动的境地,文字和图片不同,没有图层,写手比画师更难自证清白,就像荷桃粥所说,「证明使用了 AI,和证明没使用 AI 一样难」。

晋江考虑到了这种情况,并在公告里提醒作者们一个有些笨拙的方法——存档。与 AI 的聊天记录、输入 AI 前的最后一版稿、AI 输出的第一版稿,都建议保存。

荷桃粥一直有存档的习惯,十多年前开始写小说时,她连智能手机都没有,只能写在纸上。至今,她仍然会在笔记本上手写部分大纲、地图、人物设定。但她担心,这些「证据」最多只能证明大纲是原创。

坚持原创的作者,对抗的不仅仅是 AI 的效率和产量,还有不算友好的大环境。

AI 检测软件的盛行,让部分作者担心,只要使用,就存在把作品主动投喂 AI 的可能。虽然朱雀声明了「从未使用任何用户数据用于模型训练」,但这种恐慌不算空穴来风。

2024 年 7 月,番茄的「AI 训练补充协议」通知作者,作品将用于 AI 模型训练。很多作者表示无法接受,联合抵制。最终,番茄上线了合同条款解除功能。

检测的不确定性,心血被投喂的可能性,再加自证的高难度,作者们的无奈尽在无言中。

应该交给 AI 的,和不能被 AI 替代的

微博热搜上天天挂着 DeepSeek 又回答了什么问题,焦虑在工作和生活里如影随形,人们痴迷预测,渴望观点,尽管事实还没有发生,但情绪足够将人困住。

AI 圈子里流行着这么一句话,「如果你觉得 AI 很好用,那么你的工作大概率就会被 AI 取代」。那么,网文作者会被 AI 取代吗?

担任编辑的原乐,给出了否定的答案。她只感觉到,自己的工作量增加了,AI 稿件变多,排查变得复杂。但她认为,在很长一段时间内,AI 都代替不了写手,因为「AI 没有完整的思路,更创作不出人能写出来的文章」。

身为网文作者的荷桃粥,对 AI 的感受很难用一两句话概括。

她的主业是新媒体内容运营,这是一个非常推崇使用 AI 的行业。在「唯结果论」的氛围下,质量和数量,是比内容是否原创更重要的东西。荷桃粥承认,AI 在宣发广告上的表现「令人意外」,已经能够做到「精炼」「吸睛」「调动情绪」。

但小说创作是不同的。按照荷桃粥的标准,AI 还没入门。

▲荷桃粥在晋江的作者专栏

荷桃粥拿自己很满意的创作和 AI 的结果比较过,低于 1000 字的短篇,AI 的创作能力十分令她意外和担忧,但在创作长篇上,目前 AI 还是有许多不足,「华丽的辞藻堆砌,无法自洽的逻辑,还有生硬的情感拉扯,只要多看几篇就会比较乏味」。

DeepSeek 拥有很多人眼中的好文笔,但荷桃粥认为,在小说中,情节、情绪对读者的打动性,甚至略大于文笔。作者想要达到这个境界,需要做到有生活积累、具备创造力、投入情感。这三点,AI 目前都还不具备。

AI 的缺点,影响的是完全依赖 AI 创作的人类。如果他们本人没有这些品质,且不具备内容审美能力,荷桃粥的判断是,「大概率没办法在这场洪流中存活下来」。

凡事仰仗 AI 不可取,但荷桃粥明白,AI 有不能否定的客观价值,适合作为提高效率的工具。她尝试用 DeepSeek 搜索「形容枭心鹤貌的成语还有哪些」,它很快能够搜索出 10 条,比词典、传统搜索快得多。

她意识到一个事实:查资料、追热梗、拼字数,人类是没法和 AI 比较的。完全不用 AI 的「原教旨主义」创作者们,会陷入更深入的自我怀疑:花了更多的时间,生产的内容还不一定比 AI 优质。

历史的车轮无法阻挡,只能适应。荷桃粥也会感到遗憾和恐惧,但她同样明白,正确的答案是什么——积极了解新的事物,同时坚持创作的长期主义。

晋江对 AI 辅助创作的约束,很符合她个人对平台规则的预测。这也是荷桃粥在一众小说网站中,回到晋江签约的原因之一。

荷桃粥相信,生活是不断创新的,碰撞是千姿百态的,作者在文中融入的哲理和感情,也是 AI 很难替代的。坚持原创内容,打造精品内容,是荷桃粥给自己定下的创作路线。如果换种更加小说的表达,应该就像她在晋江的作者专栏写下的「终极梦想」那样:「虐哭读者,接着笑出鼻涕泡,最后对我的角色念念不忘。」

利若秋霜,辟除凶殃。 工作邮箱:zhangchengchen@ifanr.com

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


DeepSeek 浪潮下,端侧AI 的创新催化剂

By: 李超凡
6 March 2025 at 12:00

在柏拉图的《理想国》中有一个洞穴隐喻的故事,一群囚徒从小就被锁在一个洞穴里面对墙壁,身后有一堆火,囚徒们一生所见只有映在墙壁上的影子,便以为这些影子就是真实的世界。

大模型也曾被类似的「影子」误导,一度将大力出奇迹的预训练奉为圭臬。直到 2025 年初 DeepSeek R1 展现的推理能力,AI 从仅仅观察影子的阶段,转向以自省和辩证的方式探寻真知。

DeepSeek 让模型走出「洞穴」,也在改变智能终端的范式。

DeepSeek 蒸馏模型在问世不到两周内便实现在搭载骁龙平台的商用终端上的运行,AI 硬件将不再只是提升估值的「性感故事」,而是已经具备实际的应用价值和商业潜力。

高通最新发布的白皮书《AI 变革正在推动终端侧推理创新》指出,DeepSeek 的推出标志着 AI 进入推理创新时代,训练成本下降、快速推理部署和针对边缘环境的创新,正在推动高质量小模型的激增,加速 AI 跨边缘终端的部署。

清华大学副教授、面壁智能联合创始人兼首席科学家刘知远也提出,这种从「规模至上」到「效率优先」的转变,为端侧 AI 提供了重要启示:通过模型压缩、参数优化和算法创新,可以在保持模型性能的同时,大幅降低计算资源需求,使其适合在终端设备上运行。

使用 DeepSeek 蒸馏后的 Qwen-7B 模型,已经能够在性能上与去年所推出的且当时最为先进的 GPT-4o 云端模型持平。

这也意味着,过去很多只能在云端运行大规模参数的模型,能部署到随身的终端设备中,在本地完成复杂的推理过程,甚至可能实现满血运行。同时,在端侧 AI 的新浪潮下,我们正见证智能终端的又一次关键转折——从单纯的功能性设备到具有自主理解和行动能力的智能体(Agent)。

端侧 AI 的技术拐点:从「规模至上」到「推理创新时代」

两年前,比尔·盖茨发布了一篇博客,称在有生之年见证了两次革命性的 Demo ,第一次是在 1980 年看到了图形用户界面(GUI)——现代操作系统的前身,另一次则是在 GPT-3.5 前几个月看到 AI 的回答方式。

然而作为普通用户,对这种改变的感知显然没那么强烈,因为交互的变革的载体离不开智能终端,就像 iPhone 将功能机时代的按键操作转变为触控交互,进而重塑了整个智能手机生态。

那么在 AI 时代这个载体是什么?

或许未必是一个全新形态的终端,而是智能终端带来的全新体验形式——从应用驱动向智能体驱动。

就像高通 CEO 安蒙在去年年底提到的新趋势,AI 是新的用户界面(UI)。端侧 AI 的落地将改变传统的交互逻辑。

用户无需打开特定应用,AI 智能体可通过多模态输入(语音、图像、视频)直接执行任务。这些功能背后其实离不开边缘侧 AI 支持。

比如荣耀 Magic7 系列中 YOYO 智能体的许多交互功能就需要终端侧 AI 处理能力的支持,骁龙 8 至尊版搭载的高通 Hexagon NPU 为终端侧提供了足够强 的 AI 算力,可以在手机本地完成推理和理解等 AI 任务。

过去端侧 AI 受限于硬件性能,而大模型的计算需求却在快速增长,虽然此前搭载骁龙 8 至尊版的智能手机已经能在端侧运行 7B 规模的模型,但针对一些复杂的生成式 AI 用例和高质量图像生成等任务,还是需要结合云端算力。

不过现在端侧 AI 的技术拐点已经出现,《AI变革正在推动终端侧推理创新》白皮书中指出了加速端侧 AI 落地的四大趋势:

  1. 当前先进的AI小模型已具备卓越性能,通过模型蒸馏和新型网络架构,性能已经超越一年前仅能在云端运行的更大模型
  2. 模型参数规模正在快速缩小,先进的量化和剪枝技术使开发者能在保持准确性的同时减小模型体积
  3. 开发者能够在边缘侧打造更丰富的应用,如文本摘要、编程助手和实时翻译
  4. 让 Agent 成为新交互入口,个性化多模态AI智能体将简化交互

高通技术公司高级副总裁、技术规划和边缘解决方案业务总经理马德嘉告诉爱范儿,随着模型规模不断地下降,日后 10-20 亿参数规模的模型将会占用更少的运行内存,更好地适配 8-12GB 内存设置的终端。

异构计算架构:端侧 AI 的硬件基础

高通技术公司拥有三大业界领先的处理器单元,这些处理器对于端侧 AI 的发展非常重要。

马德嘉表示,「我们有业界领先的定制高通 Oryon CPU,并已经应用于我们的 PC、移动和汽车平台。」

高通 Adreno GPU 能够满足终端侧 AI 运行所需要的众多功能需求;此外,高通 Hexagon NPU 完全面向处理生成式 AI 工作负载而设计。

这三大处理器单元必须都具备业界领先的能力且能够协同工作,才能实现异构计算,满足生成式 AI 的发展需求,而在这一领域高通有着非常强大的优势。

端侧 AI 的落地对芯片架构提出了更高的要求,高通的做法是,将 NPU、GPU 和 CPU 集成到终端中的异构计算架构,从而在更低功耗下输出更高算力,且满足不同场景的 AI 处理任务需求。

这一架构的核心是三大处理器单元之间,如同一支交响乐队般的协同合作:

  1. 高通自研 Oryon CPU:最新的第二代 Oryon CPU 采用台积电 3nm 工艺,最高主频达 4.32GHz,超大缓存设计(业界最大 24MB 二级缓存)显著降低 AI 推理时延。
  2. 高通 Adreno GPU:满足终端侧 AI 运行的多样化功能需求,特别在并行计算和图像处理方面表现出色。
  3. 高通 Hexagon NPU:专为处理生成式 AI 工作负载而设计,让骁龙 8 至尊版上实现了45% 的 AI 性能提升和 45% 的 AI 能效提升。

其中 Oryon CPU 在手机与汽车芯片中的复用。这意味着这些终端设备可以采用共通的底层架构,有更好的兼容性,互相之间的互联互通也会更加通畅。

这种异构计算架构在最新发布的众多骁龙 8 至尊版旗舰手机上已经有所体现, iQOO 13 利用骁龙 8 至尊版的 AI 算力,打造了 AI 电竞信号引擎,通过 AI 智能优化网络,实现多任务场景下时延更低,可以边玩游戏边视频或直播。

REDMI K80 Pro 则将 AI 技术应用于连接体验,带来了小米星辰 AI 多网融合,可以进行智能信号预测,让网络自动优化。在地铁场景下,微信视频卡顿率降低 31%,短视频卡顿率降低 29%。

如果说智能终端已经进入 Agent 时代,那么异构计算架构就是智能体的「中央神经系统」,不仅处理各种感官信息,还能协调「思考」与「行动」,保证端侧 AI 高效、流畅、稳定地运行。

软件也是释放端侧 AI 潜能的关键

正如高性能赛车不仅需要强劲的引擎,还需要精密的调校和优秀的赛车手一样。端侧 AI 的实现不仅仅依赖于强大的硬件算力,同样离不开高效、完善的软件工具支持。

对开发者来说,其实不需要知道硬件端的具体设计细节,更重要的是软件工具库支持,让他们能够按照自己所需,非常自由、灵活地选择所需的框架、runtime 和工具,面向任何操作系统设计 AI 应用和智能体。

在提供硬件基础的同时,高通也在构建 AI 软件栈,包括库(libraries)、SDK 和优化工具,可简化模型部署并提升性能。

开发者可以利用这些资源,面向高通平台高效进行模型适配,缩短 AI 赋能应用的上市时间。无论端侧 AI 的算力有多强大,也只有通过应用来释放出来,最终才能转化为用户体验。

在实际应用中,你可以拿起手机识别你将用于烹饪的食材,成功识别后,让手机帮你生成对应的菜谱,还能让手机给你一些低卡路里菜单组合。

烹饪完成后,你可以通过摄像头,向手机询问这些食物所包含的卡路里。凭借智能手机如今对多模态 AI 能力的支持,这个用例可以完全在终端侧实现。

这种场景正是智能体作为新平台的典型应用——用户不再需要打开多个应用,而是通过自然交互直接完成复杂任务。

这种以开发者为中心的策略,大大简化了在消费和商用产品中集成先进 AI 特性的过程,也在加速 AI 推理创新在端侧的应用。

AI Hub 正成为开发者的百宝箱

目前已经有众多智能手机、PC、汽车厂商在终端设备中接入 DeepSeek,开始了利用高质量小模型在终端侧升级AI体验,或是打造全新 AI 应用的实践。边缘侧 AI 应用的创新蓄势待发。

如果你是一个开发者,对不同细分领域的芯片平台的 AI 部署也有了更迫切的需求。高通去年发布的高通 AI Hub 跨出了一大步,让开发者选择相应平台和开发模型、编写应用,最后在不同类型的移动终端上进行部署。

高通 AI Hub 包含超过 100 个预优化的 AI 模型,如Llama、Allam 3B、通义千问、OpenAI 等厂商模型,支持在搭载骁龙平台的终端上无缝部署,发布一年以来,目前已有超过 1500 家企业在使用,进一步推动了端侧 AI 应用的普及。

AI Hub 覆盖的终端也不断增加,马德嘉向我们介绍,高通 AI Hub 可支持移动、PC、IoT、汽车,甚至 Wi-Fi 联网终端平台,比如第二代高通机器人 RB3 平台这一面向 IoT 领域的机器人平台。

高通正在成为端侧 AI 生态构建者,通过与全球 AI 模型厂商的积极合作,不仅提供了强大的计算平台,还开发了完整的软件栈和开发工具,使开发者能够更轻松地将 AI 模型集成到应用程序中。

智能终端的 Agent 时代真正到来之前,这个行业需要先构建完整的端侧 AI 生态系统。

高通,正在成为端侧 AI 的首席架构师

在中国隋朝,曾诞生了一个名留千史的建筑工程专家宇文恺,他不仅规划了贯通南北的水道网络,更创新性地设计了船闸系统,解决了不同水位间船只通行的技术难题。用「通则兴,塞则衰」的系统思维,将分散的河道整合成一个互联互通的交通网络。

这与高通为端侧 AI 提供的统一而高效的计算基础颇为相似。正如大运河的修建需要克服地形、水文等诸多挑战,端侧 AI 所面对的,是来自不同终端设备、不同应用场景的更加多样化和复杂的需求。这其中不仅包括了硬件性能的限制,还包括了模型大小、功耗、延迟等多重约束。

而要让 AI 真正融入到这些多样化的终端中,正如宇文恺当年规划大运河一样,需要一位「首席架构师」来进行顶层设计,打造出强大的底层架构来支撑其高效运行。这个架构不仅要能处理海量数据,还要能灵活适应各种应用场景。

这种从具体到抽象、从工程到技术的递进,实际上也反映了人类文明发展的基本脉络。

人类文明的传承本质就是信息蒸馏的过程。从中世纪一字一句地誊抄、信息时代的系统化结构,到 AI 推理时代,信息的提炼呈现出新的形态——模型通过强化学习来发展推理能力,像婴儿通过不断的自我探索来认识世界。

像前面提到的高通 AI Hub ,它构建的预优化模型库,使开发者能将适应终端设备的模型的,应用在高通手机、PC 和汽车等多终端中的技术基础。

模型轻量化是端侧 AI 普及的关键。DeepSeek 蒸馏模型已经可在骁龙平台智能手机和 PC上直接运行。这种技术突破类似于大运河工程中的节水闸门设计,以最小的资源消耗实现最大的通行效率。

同时 AI 推理的创新正在边缘侧爆发。

研究机构 Counterpoint Research 预测,2025 年将成为生成式 AI 手机的关键拐点。

生成式AI技术正在成为中高端手机的标配。预计 2025 年全球生成式 AI 手机渗透率将从 2024 年的 19%提升至29%,出货量约 4 亿台,到 2027 年 ,生成式 AI 手机出货量预计达 5.5 亿台(占整体市场 43%)。

此外,全球边缘 AI芯 片规模预计从 2023 年 76 亿美元增至 2027 年 252 亿美元(CAGR 27.1%),汽车、工业物联网和医疗是核心增长领域。

高通正在转变成端侧 AI 的首席架构师。

端侧 AI 的能力注入到终端的每一个角落,从智能手机到汽车,从 XR 头显到 PC,一条连接不同终端、促进智能体自由流动的技术「大运河」正在形成。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


一文看懂 DeepSeek 开源项目第三弹,300 行代码揭示 V3/R1 推理效率背后的关键

By: 莫崇宇
26 February 2025 at 10:58

开源周进行到第三天,DeepSeek 不仅带来了技术,还传出 R2 正在路上的好消息。作为用户,一边见识着 DeepSeek 抛出来的一个个技术库,还能看到应用了这些技术的模型,怎么不算一种见证巨星的诞生。

今天出场的是 DeepGEMM,是一个专为干净、高效的 FP8 通用矩阵乘法 (GEMM) 而设计的库,具有细粒度缩放功能,如DeepSeek-V3中所述。它支持普通和混合专家 (MoE) 分组 GEMM。该库用 CUDA 编写,在安装过程中无需编译,而是使用轻量级即时 (JIT) 模块在运行时编译所有内核。

没有说 DeepSeek 不厉害的意思,但这三天的开源都能看出,即便背靠幻方,他们始终不像大厂那样资源雄厚,必须在压榨计算资源方面狠下功夫。

包括这次的 GeepGEMM 仍然没有离开这个主旋律,相比于之前的技术,DeepGEMM 的优势在于:

  • 更高的效率:通过 FP8 和两级累积降低了计算和内存开销
  • 灵活的部署:JIT 编译适应性强,减少预编译负担
  • 针对性优化:支持 MoE 并深度适配 Hopper 张量核心
  • 更简洁的设计:核心代码少,避免复杂依赖,便于学习和优化

这些特性使其在现代 AI 计算中脱颖而出,尤其是在需要高效推理和低功耗的场景下

为现代 AI 计算而造

更高的效率和更灵活的部署,是 DeepGEMM 的亮点,核心逻辑仅约 300 行代码,却在大多数矩阵尺寸上超越了专家级别调优的内核。Hopper GPUs 上最高可达 1350+ FP8 TFLOPS。

FP8 是一种压缩数字的方法,相当于把原本需要 32 位或 16 位存储的数字,精简成 8 位存储。就像你用更小的便利贴记笔记,虽然每张纸能写的内容少了,但携带和传递更快

这种压缩计算的好处是内存占用减少——同样大小的任务,需要的「便利贴」更少,搬运小纸片比大文件快,因此计算速度也更快。但挑战是很容易出错。

为了解决 FP8 精度问题,DeepGEMM 用了巧妙的「两步法」:用 FP8 进行大批量乘法,像用计算器快速按出一串结果。这个步骤里,误差在所难免。

但没关系,还有第二步:高精度汇总。每隔一段时间,就把这些结果转成更精确的 32 位数累加,像用草稿纸仔细核对总和,避免误差积累。

先跑,再通过两级累积防错。通过这种设计,DeepGEMM 让 AI 模型在手机、电脑等设备上运行得更流畅,同时减少耗电,适合未来更复杂的应用场景

包括对 JIT 编译的应用,也是类似的思路。JIT编译,全称是「Just-In-Time」编译,中文可以叫即时编译,相对应的概念是静态编译。

一般的程序在你用之前就得全部写好、编译好,变成电脑能懂的语言,但 JIT 编译不一样,它是程序运行的时候才把代码变成电脑能执行的指令。

它可以根据你的电脑情况(比如NVIDIA Hopper显卡)现场调整代码,量身定制出最适合的指令,不像提前编译那样死板,这样程序就能跑得更顺畅。只编译当下要用的部分,不浪费时间和空间,让一切都变得刚刚好。

Hopper 张量核心和 JIT 编译是最佳搭档。JIT编译可以在运行时根据你的Hopper显卡情况,现场生成最优的代码,让张量核心的计算效率拉满。

DeepGEMM 支持普通 GEMM 和混合专家(MoE)分组 GEMM,这些任务的计算需求各不相同。JIT 编译能根据任务特点,临时调整代码,直接调动张量核心的FP8计算或变换引擎功能,减少浪费,提高速度。

怎么形容这样一种技术路线呢:纤巧、轻量、锋利

对于广大开发者来说,DeepGEMM 可以说是又一个福音。以下是部署相关的信息,大家不妨玩起来。

DeepGEMM 部署指南

DeepGEMM 是一个专为 FP8 通用矩阵乘法(GEMM)优化的库,具备精细的缩放机制,并在 DeepSeek-V3 中提出。它支持标准 GEMM 和混合专家(MoE)分组 GEMM。该库采用 CUDA 编写,无需在安装时进行预编译,而是通过轻量级的即时编译(JIT)模块在运行时编译所有核心函数。

目前,DeepGEMM 仅支持 NVIDIA Hopper 张量核心。针对 FP8 张量核心计算精度不足的问题,它采用 CUDA 核心的两级累积(提升)技术进行优化。尽管借鉴了一些 CUTLASS 和 CuTe 的概念,DeepGEMM 并未过度依赖它们的模板或数学运算,而是以简洁为目标,仅包含一个核心计算核函数,代码量约 300 行。这使得 DeepGEMM 成为学习 Hopper FP8 矩阵乘法与优化技术的清晰且易于理解的参考资源。

尽管设计简洁,DeepGEMM 在各种矩阵形状下的性能可与专业优化的库媲美,甚至在某些情况下表现更优。

性能

我们在 H800 上使用 NVCC 12.8 进行测试,涵盖 DeepSeek-V3/R1 推理过程中可能使用的所有矩阵形状(包括预填充和解码,但不涉及张量并行)。所有加速比指标均基于我们内部精心优化的 CUTLASS 3.6 实现进行对比计算。

DeepGEMM 在某些特定矩阵形状下的表现不够理想,如果你对优化有兴趣,欢迎提交优化相关的 PR。

密集模型的标准 GEMM

MoE 模型的分组 GEMM(连续布局)

MoE 模型的分组 GEMM(掩码布局)

快速开始

环境要求

  • Hopper 架构 GPU,需支持 sm_90a
  • Python 3.8 及以上版本
  • CUDA 12.3 及以上版本(强烈推荐使用 12.8 及以上版本以获得最佳性能)
  • PyTorch 2.1 及以上版本
  • CUTLASS 3.6 及以上版本(可通过 Git 子模块克隆)

开发

# Submodule must be cloned
git clone –recursive git@github.com:deepseek-ai/DeepGEMM.git

# Make symbolic links for third-party (CUTLASS and CuTe) include directories
python setup.py develop

# Test JIT compilation
python tests/test_jit.py

# Test all GEMM implements (normal, contiguous-grouped and masked-grouped)
python tests/test_core.py

安装

python setup.py install

然后,在你的 Python 项目中导入 deep_gemm,尽情使用吧!

附上 GitHub 开源地址:
https://github.com/deepseek-ai/DeepGEMM

作者:刘娅、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌