Reading view

There are new articles available, click to refresh the page.

在这个开源「从夯到拉」榜单,我终于明白中国 AI 为什么能逆袭

最近几天,一张开源模型的等级列表在 X 上被疯狂转载。

▲ 图片来源:https://www.interconnects.ai/p/2025-open-models-year-in-review

从夯到拉,国产开源模型排在了数一数二的位置,DeepSeek、Qwen、Kimi、智谱、还有 MiniMax 是全球开源模型的前五名。而 OpenAI 排在了第四梯队,小扎的 Meta,挖了硅谷半壁江山想打造的 Llama 更扎心,只落得了一个荣誉提名。

这份榜单并不是国产模型花钱打广告,也不是中国人王婆卖瓜,自卖自夸。知名的 AI 研究员 Nathan Lambert 和德国 AI 研究中心的博士生 Florian Brand,在 interconnectai 上的一篇文章,给出了全球开源模型的完整排名。

▲Nathan Lambert 曾在 Meta、DeepMind、和 Hugging Face 工作

文章里详细回顾过去这一年,全球开源模型的发展,以 DeepSeek 和 Qwen 为主的国产开源模型,正在用开源改变整个 AI 行业的运行规则

事实也如此,2024 年对于全球开源来说,可能还是 Llama 的天下。到了今年,国产开源以一种不可忽视的姿态,持续刷新着全球大模型的默认选项。

性能、价格、生态、可用性……每个维度都在快速逼近闭源巨头,甚至在某些方向已经实现了反超。

▲中美开源模型发布历史,2024.01-2025.11,图片来源:https://www.atomproject.ai/

当我们还在想国产模型什么时候能追上 ChatGPT、Gemini 时,AI 的军备竞赛场上,另一个问题也开始沸腾起来,为什么全球开发者都在用国产开源模型?

开源模型,前浪后浪一起上

过去这几个月,国产开源模型的更新节奏几乎没有停过。而且不只是某一家模型公司的爆发,是整个国产开源生态,持续接力,就像一条快速攀升的曲线,不断在突破瓶颈。

11 月,Kimi 发布了万亿参数的混合专家模型,Kimi K2 Thinking,直接拿下多个榜单第一名,甚至超过了 OpenAI 的 GPT-5 和 Anthropic 的 Claude 4.5。

10 月底,MiniMax 正式发布了 MiniMax M2 混合专家模型 MoE,和 Kimi 一样,继续开源,在综合榜单上的表现,MiniMax M2 排名第五,超过了 Gemini 2.5 Pro 和 Claude Opus 4.1。

9 月,阿里在云栖大会上,一套模型七连发的组合拳,在视觉、语音、推理、编程等多个领域做到极致。

海外社交媒体上,关于国产开源模型的认可,从横空出世的 DeepSeek 以来就没停过。「好用、便宜、小公司的开发首选、自己做的副业项目,用的就是中国开源模型……」,这些评论在 X 上随处可见。

像是网友们对 Kimi K2 Thinking 写作风格,以及用 token 数量换思考深度的称赞。

还有网友说拿 Minimax M2 和 Claude Sonnet 4 对比,M2 只用一次就能生成一个功能齐全的网站,但是 Sonnet 4 会失败。

关于 Qwen 的帖子就更多了,从 2.5 更新到现在的 3.0,从大尺寸的 4800 亿参数,到只有 6 亿参数的小模型,从视觉语言 Qwen 3 VL,到代码编写 Qwen 3 Coder,开源市场几乎都有 Qwen 的影子在。

爱彼迎 CEO 在接受采访时,甚至大方的表示 OpenAI 虽然好,但是不适合我们;而来自中国的开源模型 Qwen 非常好,能实际地应用到他们的工作中,比 OpenAI 更好更便宜。

在开源这块,说国产开源模型还在追赶都不贴切,是已经实打实地成为了全球默认的开源选择。

MiniMax M2,能落地的开源智能体

如果要用具体案例,来说明国产开源模型,到底好在哪里,过去我们分享的多个开源工具的实测体验,其实就已经有了答案。

发布时间最近的 Kimi K2 Thinking,一次性能执行 300 次工具调用的超长思考链条,还有为手机而生的通用 Agent,智谱 AutoGLM 2.0;以及 AI 时代的安卓,阿里通义模型大家族。

▲Artificial Analysis 统计的 2025 Q1 国产前沿 AI 模型大厂和初创公司

这些模型虽然都是开源,但是都有各自的技术亮点,努力让国产开源模型这张地图,变得更完整、更丰富。

像 K2 Thinking 主打万亿参数大模型,然后还有自己的 KDA(Kimi Delta Attention)机制;DeepSeek 主打混合注意力,成本骤降;Minimax M2 在这次的更新里面,反而是一改常态,使用了完全注意力,模型参数也仅 2300 亿。

M2 好不好用,本着能体验都上手试试的原则,我们也简单测了一下。

第一个任务是让他处理 Excel 表格数据,我们把今年国考的岗位信息表格发给他,让它根据表格内容,设计一个通用的公务员岗位筛选工具。

表格的数据非常多,大小有 10MB,累计两万多个岗位。MiniMax M2 特别好的一点是,它会在正式执行任务前,询问用户,是否需要对任务进行调整。

在他们的技术博客里面提到,M2 此次采用了「交错思考」的技术,这项技术最早是在 Claude Sonnet 4 模型中开始应用,但具体的采用还很有限。

MiniMax 给了一个小贴士,提醒用户保留模型的思考记录,即 think 标签。M2 依赖于交错式思维,上下文就是为记忆,保留了,才能更好的开展交错式思考。

▲MiniMax 工程主管发 X 解释,交错思考如何让模型更好地完成智能体任务

简单来说,交错思维(Interleaved Thinking)就是让大模型在「动手做事(用工具/调用接口),停下来想一想再动手,然后接着再思考」,这样的循环里推进任务,而不是先把一大段思路想完再一次性执行。

最近更新的 Kimi K2 Thinking 同样采用了交错式思考的技术。边思考边调用的方式,能让模型在每次拿到工具输出后,立刻复盘、调整计划,这特别适合流程长、结果不确定的智能体任务。

▲ 体验地址:https://2rfxtimus5nr.space.minimaxi.com/;虽然考试已经结束,但是也能看到 MiniMax M2 处理 Excel 表格数据的能力,不容小觑

最后给出的结果是非常的准确的,20714 个岗位,以及对于应届生、基层工作年限、户籍地等方面的条件,它都有统计到;相比市面上一些付费的选岗工具,自己用 Agent 自动生成一个,再方便不过。

我们还让它去做一些深度研究,丢给它关于 M2 自己的信息,让它制作一个精美的 PPT。

▲预览链接:https://z4czsdfoakc7.space.minimaxi.com/

除了这种从零开始做一个产品的 vibe coding 体验,MiniMax 还提供了详细的教程,关于如何接入 Claude Code 等命令行工具,或开发平台 Cursor、VS Code 等。

▲使用 MiniMax M2 模型 API 的 Claude Code

交错思考能让模型更聪明,知道何时该调用何种工具。但 MiniMax M2 这次在技术上还有一个亮点,是它一反常态的使用了全注意力机制

之前我们介绍过 DeepSeek 能把成本打到这么低,其中最重要的原因之一就是它采用了稀疏注意力,以及混合注意力机制。稀疏注意力能让模型在处理 token 时,和我们人类一样,有选择的聚焦在重要信息,而忽略掉次要信息。

配合其他的策略,就能在不影响输出质量的前提下,提升模型的推理速度,降低成本。

▲ 博客原文:https://huggingface.co/blog/MiniMax-AI/why-did-m2-end-up-as-a-full-attention-model

MiniMax 团队也专门写了一篇技术博客来介绍,为什么又走回了原点,继续选择全注意力机制,这种增加训练和推理压力的方式。

他们提到主要的原因是「具体的表现」,现在大部分所说的稀疏注意力、或者高效注意力,并不是让模型的效果更好,而是单纯为了节省计算资源、降低成本。

全注意力模型的性能,和可靠性仍然是更高,随着上下文长度需求不断增加,以及 GPU 计算增速放缓,到那时,线性和稀疏注意力的潜力,可能会逐渐显现。

而 MiniMax M2 目前要做的,是在有限的算力资源下,尽可能实现质量、速度、价格这个三角的平衡,这次它也确实做到了。

所以说,在某种程度上,很多人觉得开源,就意味着把技术白白送给别人;但在整个的技术发展路线历史上,开源是让不同的技术碰撞,让不同的研究员合作,从而取得进一步的技术创新。

大模型分析平台,Artificial Analysis 在发 X 介绍 MiniMax M2 的综合榜单表现时,也提到了国产开源,他说。

中国 AI 实验室在开源领域持续保持领先地位。

 

 

MiniMax 的发布延续了中国 AI 在开源领域的领先地位,这一地位由 DeepSeek 在 2024 年底开启,并由 DeepSeek 的后续发布、阿里巴巴、智谱、和 Kimi 等公司持续保持。

确实是这样,等了一年都没等来的 DeepSeek R2,却让我们看到了在国外爆火的 Kimi K2,智谱 GLM 系列,还有几乎所有开发者都离不开的 Qwen 系列。

所有的这些国产开源模型,多元的技术路线、不同的应用方向,完全组合在一起,才有了真正的优势和力量,让闭源不再成为「好模型」的代表。

▲ Hugging Face 上,热门榜单前四个,都是国产开源模型;图片来源:https://huggingface.co/models?sort=trending

闭源没法卷赢闭源,只有开源,才能打穿壁垒

前段时间,在小红书的 1024 程序员节上,Hugging Face 创始人提到,开源和闭源差距在缩小,中国在这方面比较领先;小红书的技术负责人也说,开源降低了社会运用 AI 的成本,动用大家的力量,推着技术往前走。

毫无疑问,开源肯定是一件好事,只是没有人想到,打败闭源的,是来自我们的开源。

DeepSeek 的出现,除了向全世界公开了全新的模型训练逻辑,以更低的成本实现同等惊艳的效果;更多的是让整个国产 AI 的运行模式,有了明确的方向。

它让所有人意识到,在当时全球 AI 话语权被美国垄断的语境里,开源是让自己被看见的唯一方式。

▲OpenAI 的万亿算力商业帝国,包括 Google、Meta、Anthropic 等

当然,选择开源,背后更具体的原因有很多,OpenAI、Anthropic、Gemini 每家都在闭门造车,他们可以靠着无上限的显卡,训练更大的模型,融资动辄千亿美元。

但国产模型面临的困境是,算力紧张、芯片受限……如果不共享模型,就没人能复用算力。没有可以使用的基础模型,就意味着一切都要从头开始。百度一开始选择了闭源,为了商业模式的运转;在今年六月,他们也宣布正式开源了,文心大模型 4.5 系列模型。

另一方面是国产模型厂商太多、竞争太激烈,他选择不开源,就会有别人开源;而闭源,用户就有可能选择其他模型。

▲图片来源:https://a16z.substack.com/p/charts-of-the-week-open-model-of

a16z 前段时间统计了开源模型的数据,结果显示,国产开源模型的累计下载量,不仅超过了美国模型,而且领先优势还在不断扩大。

今年四月,斯坦福大学也发表了一份 2025 人工智能指数报告,里面统计了开源模型和闭源模型的性能对比,以及中美两国模型的性能对比。这份报告的数据只截止到今年 2 月份,明年再看的时候,国产开源大概会顺利超过闭源和美国。

如果把国产开源的优势拆到最小,我们会发现现在的领先,是因为一个完整、庞大的开源系统,这个系统的每一环都在让国产开源的能力,越来越强大。

▲无论是社区对国产开源模型的评价,即 Elo 排名,还是在 ArtificialAnalysis 基准测试中,按地区划分的性能对比,国产开源都在领先位置|图片来源:https://www.atomproject.ai/

DeepSeek 拿成本结构和高效推理打开了第一道缝;Qwen 凭借着生态规模把缝撕成了口;MiniMax、智谱和 Kimi 则用不同的技术路线,把这个口越撑越大。

当全球的小团队都用 Qwen 做微调、用 DeepSeek 做推理基座、用 MiniMax 做智能体验证,国产开源从选择变成了默认。结果就是,全球开源生态的中心,开始向中国倾斜。

上个月,黄仁勋在人工智能峰会上接受采访时表示,「中国将在人工智能竞赛中获胜。」尽管随后他立刻通过英伟达官方账号 X 发表声明,收回了之前的言论,澄清说中国实际上「在人工智能竞赛中,落后美国仅几纳秒。」

其实这也不是黄仁勋第一次提到,中国在人工智能竞赛的位置了。过去在多个公开场合,他都表示开源模型极其重要,无论是对开发者还是初创公司,甚至是所谓的 AI 竞赛。

今年 10 月的英伟达 GTC 大会上,黄仁勋的演讲里再次提到,全球模型开源市场,来自中国的通义千问排名第一,并且占据了大部分的市场份额。

▲几乎超过 60% 都是 Qwen

今年 4 月,他还在华盛顿的科技大会上说,「毫无疑问,华为是世界上最强大的科技公司之一……中国在人工智能领域并不落后。我们非常非常接近……全球50%的人工智能研究人员是中国人。我们将不得不竞争。」

但是在开源上的竞争,看美国的开源老大,来自 Meta 的 Llama,去年四月发布了 Llama 3,7 月 Llama 3.1,9 月 Llama 3.2,然后到了今年 4 月让人大跌眼镜的 Llama 4,甚至还有一个更高级的 Behemoth 版本至今没发布。

▲四月份发布的 Llama 4,提到有 Behemoth、Maverick、Scout 三个版本,Behemoth 目前看来是被放弃了

再后来,关于 Meta 的新闻就只有小扎开出天价薪酬到处挖人,然后最近又疯狂裁员六百人,连图灵奖得主 Yann LeCun 都不干了,要走人自己去创业。

大概小扎根本没想到,自己在硅谷选择开源,可以说是一枝独秀的存在,也会被今年 1 月爆火的 DeepSeek 偷了家。于是乎,Meta 现在开源也不是,闭源也难追赶,进退两难。

很难不认同,Llama 走到今天这步,有一半是国产开源的「功劳」。

▲Meta 相关的衍生模型,和 Mistral AI 早期领先优势,完全被阿里巴巴的 Qwen 模型超越

前几天刷社交媒体,看到一个评论说,「开源就是把你的对手变成了你的儿子,没有儿子会去打爸爸。」话糙理不糙,在 AI 的开源周期里,中国的代表性开源模型,明显地变成了 AI 生态的底座。

这场由国产开源引领的 AI 模型浪潮,正在改变谁能定义未来的 AI 这个问题。它会让我们每个人,以更低的成本、更快的速度,用上全世界最顶尖、也最好用的 AI。

最后这张图的详细情况如下。

▲从上到下依次为:
前沿模型:DeepSeek、Qwen、Moonshot AI(Kimi)
主要竞争对手 :智谱(Z.Ai)、MiniMax
值得关注的公司 :StepFun 阶跃星辰、InclusionAI / 蚂蚁 Ling、美团龙猫、腾讯、IBM、英伟达、谷歌、Mistral
专业领域 :OpenAI、Ai2、Moondream、Arcee、RedNote、HuggingFace、LiquidAI、微软、小米、穆罕默德·本·扎耶德人工智能大学
崛起中 :字节跳动 Seed、Apertus、OpenBMB、Motif、百度、Marin Community、InternLM、OpenGVLab、ServiceNow、Skywork
荣誉提名 :TNG 集团、Meta、Cohere、北京人工智能研究院、多模态艺术投影、华为

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


MiniMax 闫俊杰和罗永浩四小时访谈:走出中国 AI 的第三条路,大山并非不可翻越

当整个 AI 圈都在为 DAU(日活跃用户数)和融资额焦虑时,MiniMax 创始人闫俊杰却表现出一种近乎冷酷的淡漠。

坐在罗永浩对面的闫俊杰,并不像一位掌管着 AI 独角兽企业的技术新贵。

他拒绝谈论改变世界,反而坦承恐惧。那种恐惧不是来自商业竞争,而是来自技术本身——当模型的能力开始超越人类时,创造者反而成了最先感到不安的人。

只要是一个东西能被量化,模型就一定会强于人,或者一定是能到最好的人类的那一档水平。所有做得比较成功的模型,在做出来之前都会有点害怕。

据晚点采访,在 MiniMax 内部,互联网行业奉为圭臬的 DAU ,被闫俊杰直接定义为「虚荣指标」。

在巨头环伺、算力短缺、热钱褪去的 2025 年,MiniMax 正在进行一场关于认知的修正:不再沿用移动互联网的逻辑,即通过大规模投放换取增长、通过堆砌功能留住用户,而是回归本质:把模型当作最重要的产品

在大模型时代,真正的产品其实是模型本身,传统意义上的产品更像是一个渠道。如果模型不够聪明,产品做得再好也没有用。

在罗永浩和闫俊杰这期对谈里,我发现 MiniMax 这家 AI 公司从创业第一天就选择了注定与主流背道而驰的技术路径。

当所有人都试图寻找中国的 OpenAI 和 Sam Altman 时,闫俊杰却在试图证明「非天才」的价值。MiniMax 的故事不是关于天才的灵光乍现,而是一场关于如何在资源受限的缝隙中,通过极度理性地计算与修正,撕开一道通往 AGI 窄门的精密实验。

用 1/50 的筹码通往 AGI

MiniMax 过去三年的技术路线,表面看是一连串孤立的赌注,实则暗藏着一条统一的逻辑线索:在资源受限的前提下,如何用更聪明的方式优化,而非更多的算力堆砌,逼近 AGI 的上限

当行业还在卷文本时,MiniMax 做了一个在当时看来极度冒险的决定:创业第一天就押注全模态。闫俊杰后来解释说,他们一开始就想得很清楚,真正的 AGI 一定是多模态的输入、多模态的输出。

三年多前创业时完全没有现成的技术路线,他们的策略就是每个模态至少先走通,等时机成熟再融合。这种坚持在当时备受质疑——业界主流认为应该先聚焦单一模态做到极致。

但闫俊杰的逻辑是,AGI 的本质是多模态融合,如果现在不同步推进,等到需要融合时技术债会成为致命伤。这种非共识的坚持,让 MiniMax 在 2025 年拥有了全球音频第一、视频第二、文本稳坐第一梯队的全模态能力。

前不久 OpenAI 的 Sora 2 通过多模态融合取得了显著成果,这在一定程度上也印证了 MiniMax 早在创业初期就选择这一技术路径的前瞻性。

但更激进的是,闫俊杰在创业初期就打破了 AI 研究的传统模式。

这是公司刚组建时打破的第一个认知——把大模型做好这件事一定不能迷信之前的经验,得用第一性原理拆开来看。大概在四五年前,人工智能领域大家追求的是写很多数学公式,把理论搞得很好、很花哨。

但这代人工智能最核心的其实就是 Scaling(缩放定律),就是让它能够用最简单的方法把效果做得更好,并且随着数据跟算力变多,效果就能够持续往上涨。

闫俊杰的技术直觉源自 2014 年在百度的实习经历。那时 Anthropic 的 CEO Dario Amodei 也在百度实习,正是在那里他发现了 Scaling Law 的雏形。

闫俊杰说,Scaling Law 其实在 2014 年做语音识别时就已经被发现了,但真正被广泛认知是大概 2020 年左右。「六年前就有了,并且那件事发生在中国公司,所以后面的事就有点遗憾。」

这段往事让闫俊杰意识到,中国并非没有机会,而是错失了把技术洞察转化为产业优势的时机

现实是残酷的。闫俊杰很清楚中美之间的差距。他算过一笔账:美国最好的公司的估值是中国创业公司的 100 倍,收入基本上也是 100 倍,但技术可能就领先 5%,花的钱大概是 50 到 100 倍之间。

那为什么中国的公司可以花他们 1/50 的钱就做出来效果,差距可能只差 5%?核心原因是中国的人才还是非常好的。而更关键的是,中国的算力比美国有很大差距,因此必须得用更加创新的方式,才有可能做到同样的效果。

原则可能是一样,但方法上,在每个模块上其实都有很多创新。

算力限制不一定是诅咒,反而能成为倒逼创新的鞭子

这就解释了为什么 MiniMax 从 2023 年起就率先探索 MoE 架构,为什么在 2025 年敢于押注线性注意力机制,又为什么在 M2 模型中回归全注意力机制。

每一次技术选择,都是在有限资源下寻找质量、速度、价格的三角平衡

如果说 DeepSeek的逻辑是「用极致的工程优化榨干每一分算力」,那么MiniMax 就是在通过算法突破和机制创新在有限资源中撬动更大可能。

一个稳扎稳打,一个剑走偏锋。

其中一个出奇的创新, 是 MiniMax 在模型推理机制提出的「交错思维(Interleaved Thinking)」,让模型在「动手做事—停下来思考—再动手」的循环里推进任务。

这一新的机制很快推动了 OpenRouter、Ollama 等国外主流推理框架的适配支持,也带动 Kimi 和 DeepSeek 等国内模型陆续补齐类似能力。

但这些成果背后,更值得追问的是:一支没有硅谷海归坐镇、被外界视作「草根」的团队,如何做出全球领先的模型?

闫俊杰的回答出人意料。

AI 不是玄学,而是可以被第一性原理拆解的工程问题,比如算法该怎么设计,数据的链路该怎么搭建,训练效率该怎么优化,每个东西都有非常明确的目标。

正是基于这一判断,让闫俊杰放弃了寻找「天才」,转而相信科学方法论可以让普通人发挥非凡价值。 他还提到,公司的海归是不少的,但真正能起到关键作用的同学,很多人基本上都是第一份工作。

在 MiniMax 会议室墙上有一行字——Intelligence with Everyone,这是闫俊杰创业的初衷,也是不少人选择加入 MiniMax 的理由。

这行字今天也正在成为现实,全球超过两百个国家和地区的用户正在使用 MiniMax 的多模态模型,其中既有 2.12亿用户,也有 10 多万企业和开发者来创造更多产品和服务。

非天才主义的 AI 掌舵人

如果说技术路线的非共识是显性的,那么闫俊杰本人的成长轨迹,则是一场关于「反脆弱性」的修行。

闫俊杰出身河南小县城,在资源极度匮乏的环境下培养了极强的自学能力。

上小学的时候自己会看很多书,而且这些书有可能不应该是那个时间点的人来看的。比如很多高中甚至大学的书,上小学的时候提前就看。我爸爸是教初中的,就开始看初中的东西,上初中的时候就开始看高中的东西,高中的时候又开始学微积分,那些东西其实也没有人教,就是自己看。

小学自学初中,高中自学微积分——这种不受环境限制、超前学习的特质,贯穿了闫俊杰的整个创业生涯。当别人在等待导师指点时,他已经通过第一性原理自我拆解问题;当别人在抱怨资源不足时,他已经通过极致的自学能力补上了差距。

但自学能力并不意味着一帆风顺。这和闫俊杰在商汤受到的「残酷训练」不无关系。那时候他开始意识到要真正做一个最好的东西,就做了人脸识别,从倒数到第一大概花了一年半。

这一年半是非常痛苦的,每次技术测试都是倒数第几名,这种煎熬足以击垮大多数人。 但闫俊杰没有放弃,反而从这段经历中提炼出了核心方法论:一定要做取舍,一定要选一些更加长期、能够根本性发生变化的东西,而不是去做一些修补的东西

经历这事之后,最核心的还是对自己这些最底层的判断有信心。

这段磨炼锻造了闫俊杰两个关键特质:一是极致的取舍能力,愿意放弃短期修补,聚焦长期突破;二是极高的心理韧性,能够承受长周期的失败和质疑。

这两个特质,恰恰是 MiniMax 能够在技术路线上坚持非共识这种近乎「佛系」的定力,让闫俊杰在硅谷银行危机、模型训练失败等困境中都能保持冷静。

中国 AI 的第三条路

MiniMax 的故事讲到这里,一个更大的问题自然浮出水面:当人才培养需要时间,技术追赶需要周期,中国 AI 公司靠什么在当下就建立自己的生存空间?

MiniMax 不一定是标准答案,但闫俊杰倒是有三个创业至今一直坚持的原则:

第一,不做项目,只做用户;第二,国内海外同时做。

2022 年,国内大厂还在观望 AI 是否值得投入,创业公司普遍选择 ToB 路径(做项目、卖解决方案)以求快速变现。但闫俊杰选择了最难的一条路:ToC,并且从第一天就瞄准全球市场。

因此,闫俊杰选择在海外更激烈的竞争中打磨技术,而非卷入国内与巨头的流量争夺。事实证明,这是正确的——MiniMax 在海外市场的 DAU 和付费率都维持在健康区间,而这正在成为它的护城河。

但最难的,是第三个原则:技术驱动 vs 用户增长。

这是对所有 AI 创业公司的终极拷问。闫俊杰坦白也纠结过,最终选择了前者,哪怕这意味着短期数据的牺牲、中层的流失和外界的质疑。

通过模型能力推动产品和业务发展,或者通过移动互联网时代的增长方式来发展,两者有可能都是对的,但它们是没法共存的。最后我们发现技术驱动的这种方式才适合我们。

在技术驱动的战略下,闫俊杰做出另外一个关键选择:开源。

年初 DeepSeek R1 横空出世后不久,闫俊杰曾表示,如果可以重新选,应该第一天就开源。在和罗永浩的对谈里他再次谈到开源。

实际上开源这件事,在手机操作系统上其实都发生过。苹果是闭源的,安卓是开源的,第二名后面的人必须得开源才有自己的独特定位,才能发出新的生态。

为了让我们能够进展,需要别人有选择我们的理由,模型的开放性恰好是一个非常重要的理由,因为它可以让你有足够强的技术信任,知道你的研发能力,也愿意更加深度来合作。

而 MiniMax 也延续着 DeepSeek 掀起的开源浪潮, MiniMax M2 发布后,大模型分析平台 Artificial Analysis 是这样介绍的:

中国 AI 实验室在开源领域持续保持领先地位。

MiniMax 的发布延续了中国 AI 在开源领域的领先地位,这一地位由 DeepSeek 在 2024 年底开启,并由 DeepSeek 的后续发布、阿里巴巴、智谱、和 Kimi 等公司持续保持。


最近全球模型聚合平台 OpenRouter 联合a16z 发布了一份报告 State of AI 的100 Trillion Tokens ,可以看到 M2 开源之后,快速受到了全球开发者欢迎和采纳。

中国开源模型在全球使用量占比从 2024 年初的 1.2%,现在这个数字已经飙升至 30%,全球开源生态的重心已经向中国倾斜。

但这场竞赛远未结束。闫俊杰的判断是,算力和芯片的物理限制,决定了模型参数量和成本是有天花板的。在一个有限的参数量的情况下,不同的人来做不同的取舍,就一定会有些不一样的成果。

AI 不会一家独大,但也不会百家争鸣,最终会收敛到少数几家基于不同取舍的共存格局。

罗永浩关于「中国错失 GPT-3.5」的追问,闫俊杰展现出了一种务实的乐观。他表示把技术做好最重要的东西,说到底其实是两个词,一个是想象力,一个是自信

美国那些企业很多浪潮是他们引领的,所以有自信在,要引领这个行业。在中国有些产业里面其实也是这样的,比如通讯、还有其他领域。

至少人工智能这个行业目前还没有到引领这个地步,但这个事情已经越来越具备了。

这或许就是中国 AI 公司需要走出的第三条路:

用更聪明的架构设计,对抗算力差距;

通过科学的组织进化,培养 AI 原生人才 ;

在夹缝中长出自己的形状,而非附庸于巨头。

MiniMax 的故事还在继续,中国 AI 的篇章墨迹尚未干。胜负不由起跑线决定,而由你选择在哪条路上、用什么样的节奏、坚持多久来定义。

闫俊杰在访谈中说道:

再往后三年看,即使不是我们,也会有中国其他的人能够做到这件事。

三年后,会是谁?又会用怎样的方式?

没有一部续集如此令人期待,因为我们都会是其中的角色。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


BlinkShot – 开源免费 AI 图片快速生成工具

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

BlinkShot 是一个以 AI 人工智能技术即时生成图片的免费服务,这是开源项目,背后使用 AI 加速云服务「Together AI」和图片生成模型 FLUX,这项服务特性是能在非常短的时间内依照输入的提示词生成各种图片,以毫秒为单位,生成的图片也丝毫不逊色,有兴趣的朋友可以玩玩看。

目前 BlinkShot 支持英文提示词,也可以直接叫 AI 服务帮你生成〔例如用 ChatGPT 或其他同类型服务〕,另一个方法是使用图片转文字 AI 工具,例如:Image to Prompt等工具,将喜欢的图片快速转换为英文提示词,最后稍作修改再生成想要的图片。

BlinkShot 目前没有使用的生成数量限制,还有个「Together API Key」栏位可自定义自己的 API 密钥,生成的图片素材皆可免费下载使用,AI 图片基本上也不会受到版权限制,使用于个人或商业用途都没问题。

Generate images with AI in a milliseconds

进入 BlinkShot 后直接输入提示词就会立即生成图片,整体速度非常快,过程中如果继续输入其他形容或是提示词,图片会即时更新,相较于其他同类型的 AI 图片生成器来说确实非常强大!

下方会显示生成的图片历史记录。

通过 BlinkShot 生成的图片看起来很逼真,也能依照用户需求调整成各种风格、样式,越仔细的提示词就能生成更细致准确的结果。

生成过的图片历史记录会显示于下方,可以随时切换回去查看。

在图片点击右键即可下载保存。

在图片上点击鼠标右键、选择「另存图片」后将图片保存下来即可使用。

BlinkShot 未来也会加入下载按钮,让用户更方便获取图片。

❌