Reading view

There are new articles available, click to refresh the page.

逼得奥特曼紧急掏出 GPT-5.2,Gemini 3 凭什么逆风翻盘 | Google 首席 AI 架构师首次揭秘

「这确实是一个很棒的逆袭故事。」

11 月 19 日凌晨,Gemini 3 的发布彻底打破了平淡。上线当日,全球访问量便突破 5400 万次,创平台历史新高。

Google 这一次王者归来,震感甚至直接传导到了竞争对手的神经中枢。据 The Information 报道,面对 Google 步步紧逼的攻势,OpenAI CEO Sam Altman 本周一紧急在内部备忘录中宣布公司进入「红色警戒(code red)」状态,准备调动一切战略资源对 ChatGPT 的能力进行大幅升级。

据 The Verge 援引知情人士消息称,OpenAI 计划最早于下周初发布 GPT-5.2 模型, 这一时间表较原定的 12 月下旬计划大幅提前。

这不仅侧面印证了 Gemini 3 带来的压迫感,也让接下来的对话显得更加意味深长。

近日,DeepMind CTO、Google 新任首席 AI 架构师 Koray Kavukcuoglu 在 Logan Kilpatrick 的访谈节目中亮相,他说「我们曾是追赶者,但创新是唯一的出路。」

亮点速览:

1. Koray Kavukcuoglu 强调,Gemini 的优化重点集中在以下几个关键领域:

  • 指令遵循: 确保模型能准确理解并执行用户的具体需求,而非随意生成内容。
  • 国际化: 提升多语言支持能力,确保全球用户都能获得高质量体验。
  • 代理与工具能力:模型不仅能自然使用我们已有的工具和函数,还能自主编写工具。

2. Gemini 3 是一款「全 Google 团队协作的模型」。来自欧洲、亚洲等世界各地的团队都做出了贡献,不仅有 DeepMind 团队,还有 Google 各个部门的团队。

3. 随着技术进步,文本模型和图像模型的架构、理念正在不断融合。过去,两者的架构差异很大,但现在越来越趋同。这是技术自然演进的结果:大家都在探索更高效的方案,理念逐渐统一,最终形成了共同的发展路径。

视频链接:

以下为完整内容的转录和翻译。(顺序有改动)

基准测试只是第一步,用户反馈是 Step Two

Logan Kilpatrick: 大家好,欢迎回到 Release Notes。我是 Logan Kilpatrick,我在 DeepMind 团队。今天很荣幸邀请到 DeepMind 的 CTO、Google 的新任首席 AI 架构师——Koray。Koray,感谢你的到来,期待与你深入交流。

Koray Kavukcuoglu: 我也很期待。谢谢邀请!

Logan Kilpatrick: 当然,Gemini 3 已经发布。我们此前就预感这款模型会表现出色,基准测试结果也非常亮眼,但真正将它交到用户手中后,实际反响……

Koray Kavukcuoglu: 这才是最终的考验。基准测试只是第一步,之后我们也做了大量测试,包括让可信测试者参与预发布体验等。所以我们能感受到这是一款优秀的模型,能力出众,虽然不完美,但用户的反馈确实让我很满意。

大家似乎很喜欢这款模型,而且我们觉得有意思的部分,他们也同样感兴趣。所以目前来看挺好的,一切都很顺利。

Logan Kilpatrick: 没错,我们昨天还在聊,核心话题就是感慨 AI 的发展速度从未放缓。回想上次,也就是去年 I/O 大会上我们发布 Gemini 2.5 时,听着演示、Serge 谈论 AI 的未来,当时就觉得 2.5 已经是最先进的模型,在多个维度上都突破了前沿。而现在,Gemini 3.0 再次实现了突破。我很好奇,关于「这种进步能否持续」的讨论一直存在,你现在的看法是什么?

Koray Kavukcuoglu: 我对目前的进展和研究都充满信心。身处研究一线,你会发现各个领域都洋溢着创新的热情,从数据、预训练、微调,到每一个环节,都有大量新想法、新突破涌现。

归根结底,这一切都依赖于创新和创意。当我们的技术能切实影响现实世界、被人们广泛使用时,我们能获得更多反馈信号,接触面也会扩大,进而催生更多灵感。

而且我认为,未来的问题会更复杂、更多元,这会带来新的挑战,但这些挑战是有益的,也是推动我们迈向通用智能的动力。

有时候,如果你只看一两个基准测试,可能会觉得进步放缓了,但这很正常。基准测试是在某个技术难题凸显时设立的,随着技术发展,它不再是前沿的代名词,这时就需要制定新的基准。

这在机器学习领域很常见:基准测试与模型开发是相辅相成的,基准测试指导模型迭代,而只有接近当前前沿,才能明确下一个目标,进而制定新的基准。

Logan Kilpatrick: 我完全认同。比如早期的 HLE 基准测试,所有模型的正确率都只有 1% 到 2%,而现在 DeepMind 的最新模型已经能达到 40% 左右,这太惊人了。ArcGIS 基准测试最初也几乎没有模型能应对,现在正确率也超过了 40%。

不过有些静态基准测试确实经受住了时间的考验,比如 GPQA Diamond,虽然我们现在只能一点点提升 1% 左右的正确率,但它依然被广泛使用,可能已经接近饱和了。

Koray Kavukcuoglu: 这些基准测试中确实有很多难题,我们目前还无法完全攻克,但它们依然具有测试价值。以 GPQA 为例,我们没必要追求 90% 以上的极致正确率,现在已经接近目标了,所以尚未解决的问题数量自然在减少。

因此,寻找新前沿、制定新基准至关重要。基准测试是衡量进步的一种方式,但并非绝对对齐。理想情况下两者完全一致,但现实中永远无法完全契合。

对我来说,衡量进步最重要的标准是:我们的模型是否在现实世界中被广泛使用?科学家、学生、律师、工程师是否在用它解决问题?人们是否用它进行写作、收发邮件等?无论简单还是复杂,能在更多领域、更多场景中持续为用户创造更大价值,这才是真正的进步。而基准测试只是帮助我们量化这种进步的工具。

Logan Kilpatrick: 我有一个不算争议性的问题:Gemini 3 在众多基准测试中表现出色,同步登陆 Google 所有产品端和合作伙伴生态,用户反馈也非常积极。如果展望下一次 Google 重大模型发布,你觉得还有哪些方面是我们需要改进的?比如「我们希望能在 X、Y、Z 方面做得更好」,还是说我们应该先享受 Gemini 3 带来的成果?

Koray Kavukcuoglu: 我觉得两者可以兼顾。我们应该享受当下,毕竟发布日值得庆祝,团队也应该为自己的成就感到自豪。但与此同时,我们也清楚地看到,模型在各个领域都存在不足:写作能力并不完美,编码能力也有提升空间。

尤其是在智能体行动和编码方面,还有很大的进步空间,这也是最令人兴奋的增长领域。我们需要找出可以优化的方向,然后持续改进。我认为我们已经取得了长足的进步:对于 90% 到 95% 的编码相关用户(无论是软件工程师,还是想构建产品的创意人士)来说,Gemini 3 可能是目前最好用的工具,但确实还有一些场景需要进一步优化。

从「有创意」变得「能落地」

Logan Kilpatrick: 你如何看待「逐步优化」?比如从Gemini 2.5 到 3.0,或者其他版本迭代中,我们的优化重点是什么?如今基准测试数量繁多,我们如何选择优化方向,无论是针对整个 Gemini 系列,还是专门针对 Pro 版本?

Koray Kavukcuoglu: 我认为有几个关键领域至关重要。首先是指令遵循能力。模型需要准确理解用户需求并执行,而不是随意输出答案,这是我们一直重视的方向。其次是国际化。 Google 的业务遍布全球,我们希望让全世界的用户都能用上这款模型。

Logan Kilpatrick: 确实,我今天早上还和 Tulsi 聊过,她提到这款模型在一些我们过去表现不佳的语言上,表现得非常出色。

Koray Kavukcuoglu: 这真的很棒。所以我们必须持续聚焦这些领域,它们可能不是知识前沿,但对用户交互至关重要。正如我之前所说,我们需要从用户那里获取反馈信号。

再说到更技术化的领域,函数调用、工具调用、智能体行动和代码能力也极为关键。

函数调用和工具调用能极大提升模型的智能乘数效应:模型不仅能自然使用我们已有的工具和函数,还能自主编写工具。本质上,模型本身也是一种工具。

代码能力之所以重要,不仅因为我们团队中有很多工程师,更因为代码是数字世界的基础。无论是软件开发,还是将任何想法变为现实,代码都不可或缺。它能让模型与人们生活中的诸多场景深度融合。

我举个例子,比如「即时编码」(vibe coding),我很看好这个功能。很多人富有创造力,但缺乏将想法落地的能力,而即时编码能让他们从「有创意」变得「能落地」:只需写下想法,就能看到对应的应用程序呈现在眼前,而且大多数时候都能正常运行。

这种从创意到产品的闭环非常棒,它让更多人有机会成为创造者。

Logan Kilpatrick: 太赞了!这简直是 AI Studio 的完美宣传点,我们会把这段剪辑出来发布到网上。你刚才提到的一个重要话题是,在 Gemini 3 发布之际,我们同步推出了 Google Anti-gravity 平台。从模型角度来看,你认为这种产品架构对提升模型质量的重要性有多大?显然,这和工具调用、编码能力息息相关。

Koray Kavukcuoglu: 对我来说,这至关重要。平台本身确实令人兴奋,但从模型角度看,这是双向作用的。首先,模型能通过与终端用户(指软件工程师)直接集成,获取他们的反馈,进而明确模型需要改进的方向,这对我们来说至关重要。

就像 Gemini、AI Studio 一样,Anti-gravity 平台也是如此。这些产品能让我们与用户紧密相连,获取真实的反馈信号,这是巨大的财富。Anti-gravity 平台作为我们的关键发布合作伙伴,虽然加入时间不长,但在过去两三周的发布筹备中,它的反馈起到了决定性作用。

搜索 AI 模式(AI Mode)也是如此,我们从那里获得了大量反馈。基准测试能帮助我们推动科学、数学等领域的智能提升,但了解现实世界的使用场景同样重要,模型必须能解决实际问题。

Gemini 3,一款全 Google 团队协作的模型

Logan Kilpatrick: 在你担任新任首席 AI 架构师后,你的职责不仅是确保我们拥有优秀的模型,还要推动产品团队将模型落地,在 Google 的所有产品中打造出色的用户体验。 Gemini 3 在发布当天就同步登陆 Google 所有产品端,这对用户来说是巨大的惊喜,也希望未来能覆盖更多产品。从DeepMind 的角度来看,这种跨团队协作是否增加了额外的复杂性?毕竟一年半前,事情可能还简单得多。

Koray Kavukcuoglu: 但我们的目标是构建智能,对吧?很多人问我,身兼 CTO 和首席 AI 架构师两个职位,会不会有冲突,但对我来说,这两个角色本质上是一致的。

要构建智能,就必须通过产品与用户的联动来实现。我的核心目标是确保 Google 的所有产品都能用上最先进的技术。我们不是产品团队,而是技术开发者,我们负责研发模型和技术,当然,我们也会对产品有自己的看法,但最重要的是,以最佳方式提供技术支持,与产品团队合作,在 AI 时代打造最优秀的产品。

这是一个全新的时代,新技术正在重新定义用户期望、产品行为和信息传递方式。因此,我希望能在 Google 内部推动这种技术赋能,与所有产品团队合作。这不仅对产品和用户有益,对我们自身也至关重要。

只有贴近用户,才能感受到他们的需求,获取真实的反馈信号,这是推动模型迭代的核心动力。这就是我们构建通用人工智能(AGI)的方式:通过产品与用户共同成长。

Logan Kilpatrick: 我完全认同。这简直可以作为你的推特文案了!我也觉得,我们本质上是在与客户、合作伙伴共同构建通用人工智能(AGI)——这不是某个实验室的孤立研究,而是与全世界共同推进的联合事业。

Koray Kavukcuoglu: 我认为这也是一个「可信测试体系」——我们越来越强调工程思维。这种思维很重要,因为精心设计的系统才会更稳健、更安全。

我们在构建现实世界的产品时,借鉴了很多「可信测试」的理念,这体现在我们对安全、隐私的重视上:我们从一开始就将安全隐私作为核心原则,而不是事后补充。

无论是预训练、微调,还是数据筛选,团队中的每个人都需要考虑安全问题。我们当然有专门的安全团队和隐私团队,他们会提供相关技术支持,但我们更希望 Gemini 团队的每个人都深度参与其中,将安全隐私融入开发的每一个环节,这些团队本身也是微调团队的一部分。

因此,在模型迭代、发布候选版本时,我们不仅会参考 GPQA、HLE 等基准测试结果,还会严格审查安全隐私指标。这种工程思维至关重要。

Logan Kilpatrick: 我完全同意。这也很符合 Google 的企业文化,毕竟,发布 Gemini 模型是一项需要全球团队协作的庞大工程。

Koray Kavukcuoglu: 说到 Gemini 3,我觉得最值得一提的是,它是一款「全 Google 团队协作的模型」。

Logan Kilpatrick: 我们可以看看相关数据,这可能是史上参与人数最多的项目之一,就像 NASA 的阿波罗计划一样,这是一项全球性的庞大工程。

Koray Kavukcuoglu: 没错,是全球性的。

Logan Kilpatrick: Google 所有团队都参与其中,这太不可思议了。

Koray Kavukcuoglu: 来自欧洲、亚洲等世界各地的团队都做出了贡献,不仅有 DeepMind 团队,还有 Google 各个部门的团队。这是一项巨大的集体努力:我们与 AI 模式(AI Mode)、Gemini 应用程序同步发布,这不容易。

这些产品团队在模型开发阶段就与我们深度协作,这也是为什么我们能在发布当天实现全平台同步上线。所谓「全 Google 参与」,不仅指直接参与模型构建的团队,还包括所有各司其职、默默付出的团队。

Nano Banana,自发的名字,自然地融合

Logan Kilpatrick: 另一个我关心的话题是生成式媒体模型——虽然我们一直有关注,但过去并未作为重点。不过,随着 Veo 3、Veo 3.1、Nano Banana 模型的推出,我们在产品落地方面取得了很大成功。

我很好奇,在追求通用人工智能(AGI)的过程中,你如何看待生成式视频模型的作用?有时候我会觉得视频模型似乎与 AGI 无关,但仔细想想,它涉及对世界、物理规律的理解,所以两者应该是相互关联的。

Koray Kavukcuoglu: 10 到 15 年前,生成式模型主要集中在图像领域,因为当时我们能更好地观察图像生成的过程,而且理解世界、物理规律也是图像生成模型的核心目标。

Google 在生成式模型方面的探索可以追溯到 10 年前,甚至更早。我读博时,大家都在做生成式图像模型,比如像素卷积神经网络(Pixel CNNs)。后来我们意识到,文本领域的进步速度会更快。

但现在,图像模型的重要性再次凸显。DeepMind 长期以来在图像、视频、音频模型方面积累了深厚的技术实力,将这些技术与文本模型融合是顺理成章的。

我们一直强调多模态,包括输入多模态和输出多模态。随着技术进步,文本模型和图像模型的架构、理念正在不断融合。过去,两者的架构差异很大,但现在越来越趋同。这不是我们刻意推动的,而是技术自然演进的结果:大家都在探索更高效的方案,理念逐渐统一,最终形成了共同的发展路径。

这种融合的核心价值在于,文本模型拥有丰富的世界知识,而图像模型从另一个视角理解世界,将两者结合,能让模型更好地理解用户的意图,创造出更令人惊喜的成果。

Logan Kilpatrick: 我还有一个关于 Nano Banana 的问题:你觉得我们应该给所有模型起一些有趣的名字吗?这会不会有帮助?

Koray Kavukcuoglu: 不一定。我觉得名字应该自然产生,而不是刻意为之。比如 Gemini 3,我们并没有刻意设计名字。

Logan Kilpatrick: 如果 Gemini 3 不叫这个名字,你会起什么?会不会是很搞笑的名字?

Koray Kavukcuoglu: 我不知道,我不擅长起名字。其实我们的 Gemini 模型有内部代号,有些代号甚至是用 Gemini 模型自己生成的,但 Nano Banana 不是,它没有经过模型生成。

这个名字背后有个故事,我记得已经公开了。我觉得只要名字是自然、自发产生的,就很好。构建模型的团队能对名字产生情感共鸣,这很有意义。

「Nano Banana」这个名字之所以被沿用,是因为我们在测试时用了这个代号,大家都很喜欢,它是自发传播开来的。我觉得这种自然形成的名字很难通过流程刻意创造,有就用,没有的话,用标准名称也很好。

Logan Kilpatrick: 那我们来聊聊 Nano Banana Pro,这是基于 Gemini 3 Pro 打造的最先进的图像生成模型。我听说团队在完成 Nano Banana 后,发现将其升级为 Pro 版本后,在文本渲染、世界知识理解等更精细的场景中,性能有了很大提升。对于这方面的发展,你有什么看法?

Koray Kavukcuoglu: 这正是不同技术融合的体现。我们一直说,每个版本的 Gemini 都是一个模型家族,比如 Pro、Flash 等,不同尺寸的模型在速度、准确率、成本等方面各有取舍。图像生成模型也是如此,自然会形成不同定位的产品。

团队基于 Gemini 3.0 Pro 的架构,结合第一代模型的经验,通过扩大模型规模、优化调优方式,打造出了更强大的图像生成模型,这很合理。它的核心优势在于处理复杂场景:比如输入大量复杂文档,模型不仅能回答相关问题,还能生成对应的信息图表,而且效果很好。这就是输入多模态与输出多模态自然融合的体现,非常棒。

Logan Kilpatrick: 是啊,这简直像魔法一样!希望大家在这段视频发布时已经看到了相关示例,内部分享的一些案例真的太惊人了。

Koray Kavukcuoglu: 完全同意!当你看到模型能将海量文本、复杂概念,用一张清晰直观的图片呈现出来时,真的会惊叹「太厉害了」。这能直观地体现模型的能力。

Logan Kilpatrick: 而且其中还有很多细节值得品味。我还有一个相关问题:去年 12 月,Tulsi 曾承诺我们会推出统一的 Gemini 模型检查点(checkpoint)。你刚才描述的内容,是不是意味着我们现在已经非常接近这个目标了?

Koray Kavukcuoglu从历史上看,生成式模型的架构一直是统一的……

Logan Kilpatrick: 所以我猜这是我们的目标:让这些功能真正融入一个模型中,但现实中肯定有一些阻碍。你能从宏观层面解释一下吗?

Koray Kavukcuoglu: 正如我之前所说,技术和架构正在不断趋同,这种统一是必然趋势,但这需要验证。我们不能凭主观臆断,必须遵循科学方法:提出假设、进行测试、观察结果,有时成功,有时失败,但这就是技术进步的过程。

我们正在逐步接近目标,我相信在不久的将来,我们会看到更统一的模型,但这需要大量的创新。

这其实很难——模型的输出空间至关重要,因为它直接关系到学习信号的质量。目前,我们的学习信号主要来自代码和文本,这也是模型在这些领域表现出色的原因。

而图像生成则不同:它对质量要求极高,不仅需要像素级的精准度,还需要图像概念的连贯性,也就是每个像素都要符合整体画面的逻辑。要同时做好文本和图像生成,难度很大。但我认为这绝对是可行的,只是需要找到合适的模型创新方向。

Logan Kilpatrick: 太令人期待了!希望这也能让我们的工作更高效,比如拥有一个统一的模型检查点。

Koray Kavukcuoglu: 这很难说,但可能性很大。

一切都建立在学习之上

Logan Kilpatrick: 我再追问一个关于编码和工具使用的问题。回顾 Gemini 的发展历程:1.0 版本聚焦多模态,2.0 版本开始搭建基础设施。虽然我们的进步速度很快,但为什么在多模态领域,我们没能从一开始就在智能体工具使用方面达到最先进水平?毕竟 Gemini 1.0 在多模态领域一直保持领先。

Koray Kavukcuoglu: 我不认为这是刻意为之。说实话,我觉得这与模型开发环境是否贴近现实世界密切相关,越贴近现实,就越能理解用户的真实需求。

Gemini 的发展历程,也是我们从「纯研究」转向「工程思维」、与产品深度绑定的过程。 Google 在 AI 研究方面有着深厚的积淀,拥有众多优秀的研究人员,但 Gemini 的特别之处在于,它让我们从「写论文、做研究」转向了「通过产品和用户共同开发」。

我为我们的团队感到骄傲——包括我在内,大多数人四五年前还在专注于发表论文、开展 AI 研究,而现在,我们站在技术前沿,通过产品和用户共同推进技术迭代。

这种转变非常惊人:我们每 6 个月就推出一个新模型,每 1 到 1.5 个月就进行一次更新。我认为,我们正是在这个过程中逐步完善智能体工具使用能力的。

Logan Kilpatrick: 还有一个有趣的话题:现在 DeepMind 拥有众多世界顶尖的 AI 产品,比如即时编码(vibe coding)、AI Studio、Gemini、Anti-gravity 平台等, Google 旗下也有很多前沿模型,比如 Gemini 3、Nano Banana、Veo 等。10 年甚至 15 年前,世界完全不是这样的。

我很好奇,回顾你的个人历程,你昨天提到,你是 DeepMind 的第一位深度学习研究员,这一点我和其他人都感到很意外。从 13 年前(2012年)人们对深度学习并不看好,到现在这项技术支撑着众多产品、成为核心驱动力,你有什么感想?这一切是在意料之中,还是让你感到意外?

Koray Kavukcuoglu: 我觉得这是最理想的结果。就像所有读博的人一样,你会坚信自己所做的事情很重要,会产生重大影响——我当时就是这种心态。

所以当 Demi 和 Shane 联系我,告诉我 DeepMind 是一个专注于构建智能、以深度学习为核心的团队时,我非常兴奋。我和我的朋友 Carl Greger(我们都来自纽约大学 Jan 的实验室)同时加入了 DeepMind。在当时,专注于深度学习和 AI 的初创公司非常罕见,所以 DeepMind 的理念非常有远见,能在那里工作真的很令人激动。后来,我组建了深度学习团队,看着它不断发展壮大。

我对深度学习的态度一直是:以第一性原理为基础,坚持「基于学习」的思维方式,这也是 DeepMind 的核心理念:一切都建立在学习之上。

回顾这段旅程,从早期的 DQN、AlphaGo、AlphaZero、AlphaFold,到现在的 Gemini,真的很令人感慨。我们一直怀着积极的期望推进工作,但同时也觉得自己很幸运。

我们有幸生活在这个时代,很多人曾为 AI 或自己热爱的领域奋斗一生,希望能见证技术爆发,但这一切现在真的发生了。AI 的崛起不仅得益于机器学习和深度学习的进步,还离不开硬件、互联网和数据的发展,这些因素共同促成了今天的局面。所以,我既为自己选择了 AI 领域而自豪,也为能身处这个时代而感到幸运。这真的太令人兴奋了。

Logan Kilpatrick: 我最近看了《思维游戏》(The Thinking Game)的视频,了解了 AlphaFold 的相关故事。我没有亲历那个时代,只能通过资料和他人的讲述来了解。你经历了 DeepMind 的多个重要项目,你觉得现在的工作与过去相比有什么不同?比如你之前提到的,「我们已经掌握了将模型推向世界的方法」,这种感觉与之前的项目有什么相似或不同之处?

Koray Kavukcuoglu: 如何组织团队、培养文化,才能将复杂的科学技术问题转化为成功的成果?我认为我们从多个项目中积累了很多经验,从 DQN、AlphaGo、AlphaZero 到 AlphaFold,这些项目都产生了深远影响。我们学会了如何围绕特定目标和使命,组织大规模团队开展工作。

我记得 DeepMind 早期,我们曾有 25 人共同参与一个项目,共同发表一篇论文——当时很多人都质疑「25 人怎么可能合作完成一篇论文」,但我们确实做到了。在科研领域,这种大规模协作并不常见,但我们通过有效的组织实现了。这种经验和思维方式,随着时间的推移不断演进,变得越来越重要。

而在过去两三年里,我们又融入了工程思维——我们有了模型的主线开发方向,学会了在主线基础上进行探索。

我觉得「深度思维模型」(Deep Think)就是一个很好的例子:我们用它参加国际数学奥林匹克(IMO)、国际大学生程序设计竞赛(ICPC)等顶级赛事。这些竞赛的问题难度极大,很多人会想为赛事定制专门的模型,但我们选择将其作为优化现有模型的机会。

我们坚信技术的通用性,通过赛事探索新想法,并将这些想法融入现有模型,最终打造出能参加顶级赛事的模型,再将其开放给所有人使用。

Logan Kilpatrick: 这让我想到了一个对应:以前是 25 人共同发表一篇论文,现在 Gemini 3 的贡献者名单可能已经有 2500 人了——很多人可能会觉得「 2500 人怎么可能都参与其中」,但事实确实如此。这种大规模协作解决问题的方式,真的很令人惊叹。

Koray Kavukcuoglu: 这一点非常重要,也是 Google 的优势所在。 Google 拥有全栈技术能力,我们能从中受益:从数据中心、芯片、网络,到大规模模型的部署,每个环节都有专家坐镇。

回到工程思维的话题,这些环节是密不可分的。我们设计模型时,会考虑它将运行的硬件;而设计下一代硬件时,也会预判模型的发展方向。这种协同非常美妙,但要协调这么多环节,确实需要数千人的共同努力。我们应该认可这种协作的价值,这真的很了不起。

Logan Kilpatrick: 这绝非易事。再回到 DeepMind 的传统:我们一直采用多元科学方法,尝试解决各种有趣的问题。而现在,我们已经明确这项技术在多个领域都有效,只需持续扩大规模。当然,这也需要创新支撑。

你认为在当今时代,DeepMind 如何平衡「纯科学探索」和「扩大 Gemini 规模」?比如「Gemini 扩散模型」(Gemini Diffusion),就是这种决策的一个体现。

Koray Kavukcuoglu: 这是最关键的问题:找到两者的平衡至关重要。

现在很多人问我,Gemini 最大的风险是什么?我认真思考过,答案是「缺乏创新」。我绝不相信我们已经找到了「万能公式」,只需按部就班执行即可。

我们的目标是构建通用智能,这需要与用户、产品深度绑定,但这个目标本身依然极具挑战性,我们并没有现成的解决方案——创新才是实现目标的核心动力。

创新可以有不同的规模和方向:在 Gemini 项目内部,我们会探索新架构、新想法、新方法;而作为 Google DeepMind 整体,我们还会开展更多跨领域的探索,因为有些想法可能在 Gemini 项目内部过于受限,无法充分发展。

所以, Google DeepMind 和 Google 研究院需要共同探索各类想法,然后将这些想法融入 Gemini,因为 Gemini 不是一种架构,而是一个目标:构建通用智能,让 Google 的所有产品都能依托这个 AI 引擎运行。

无论最终采用哪种架构,我们都会持续演进,而创新将永远是核心驱动力。找到平衡,或以不同方式推进探索,这至关重要。

Logan Kilpatrick: 我有一个相关的问题:在 I/O 大会上,我曾和 Sergey 聊过,当你把这么多人聚集在一起,共同发布模型、推动创新时,你能感受到一种「人性的温度」——这一点我深有体会。我当时坐在你旁边,也感受到了你的热情。

这一点对我个人来说很有意义,因为它也反映了 DeepMind 的整体文化:既有深厚的科学底蕴,又有友善、包容的团队氛围。很多人可能没有意识到这种文化的重要性,以及它如何影响工作。作为团队的领导者,你如何看待这种文化的体现?

Koray Kavukcuoglu: 首先,谢谢你的夸奖,这让我有点不好意思。但我确实相信团队的力量,也坚信要信任他人、给予他人机会。团队协作至关重要,这一点我也是在 DeepMind 工作期间学到的。

我们从一个小团队起步,在成长过程中始终保持信任。我认为,营造一个「专注于解决有影响力的复杂技术和科学问题」的环境,非常重要,这也是我们现在正在做的。

Gemini 的核心是构建通用智能,这是一个极具挑战性的技术和科学问题,我们需要以谦逊的态度去面对,不断质疑自己、优化自己。希望团队也能感受到这一点,我真的为我们的团队感到骄傲,他们齐心协力、相互支持。

就像我刚才在茶水间和团队聊的那样:「这很辛苦,我们都很累,但这就是构建前沿技术的常态。我们没有完美的流程,但每个人都在全力以赴、相互支持。」 而让这一切变得有趣、有意义,让我们有勇气面对挑战的,很大程度上是「拥有一支优秀的团队」,大家共同为技术的潜力而奋斗。

我可以肯定地说,20 年后,我们现在使用的大语言模型(LLM)架构肯定会被淘汰。所以,持续探索新方向是正确的选择。 Google DeepMind、 Google 研究院,以及整个学术研究社区,都需要共同推进多个领域的探索。

我认为,不必纠结于「什么是对的、什么是错的」,真正重要的是技术在现实世界中的能力和表现。

Logan Kilpatrick: 最后一个问题:我个人在 Google 的第一年多时间里,感受到了一种「 Google 逆袭」的氛围。尽管 Google 拥有强大的基础设施优势,但在 AI 领域,我们似乎一直在追赶。比如在 AI Studio 的早期阶段,我们没有用户(后来增长到3万人),没有收入,Gemini 模型也处于早期阶段。

而现在,随着 Gemini 3 的发布,我最近收到了很多来自生态系统各方的反馈,人们似乎终于意识到「 Google 的AI时代已经到来」。你是否也有过这种「逆袭」的感受?你相信我们能走到今天吗?对于团队来说,这种角色的转变会带来什么影响?

Koray Kavukcuoglu: 在大语言模型(LLM)的潜力逐渐显现时,我坦诚地说,我既认为 DeepMind 是前沿 AI 实验室,也意识到我们作为研究人员,在某些领域的投入还不够,这对我来说是一个重要的教训:我们必须拓宽探索范围,创新至关重要,而不是局限于某一种架构。

我一直对团队坦诚相待:大约 2.5 年前,当我们开始认真对待大语言模型、启动 Gemini 项目时,我们在很多方面都与最先进水平有差距,我们有很多不懂的东西,虽然也有自己的优势,但确实处于追赶状态。

这种追赶持续了很长时间,而现在,我认为我们已经进入了领先梯队。我对我们的发展速度、团队动态和协作节奏感到非常满意。但我们必须正视过去的追赶历程。

在追赶过程中,我们既要学习他人的优点,也要坚持自己的创新,找到适合自己的解决方案:无论是技术、模型、流程,还是团队运作方式,这些都是我们独有的。

很多人说「 Google 太大了,做事效率低」,但我认为这可以转化为优势。我们有能力做一些独特的、大规模的事情,比如让 Gemini 同步登陆所有 Google 产品。我对我们现在的状态很满意,但这是通过持续学习和创新实现的。这确实是一个很棒的「逆袭」故事。

当然,总会有各种比较,但我们的目标始终是构建通用智能——我们希望以正确的方式实现这一目标,并为此倾注全部心力和创新。

Logan Kilpatrick: 我觉得未来六个月可能会和过去六个月、乃至之前的六个月一样令人振奋。再次感谢你抽出时间接受采访,非常愉快!希望在明年 I/O 大会前我们能再聊一次。

虽然感觉还有很久,但时间肯定会过得很快。我相信下周就会有关于 2026 年 I/O 大会的规划会议了。再次祝贺你和 DeepMind 团队,以及所有模型研究人员,成功推出 Gemini 3、Nano Banana Pro 等一系列产品!

Koray Kavukcuoglu: 谢谢!这次交流非常棒。感谢团队的付出,也感谢你的邀请!

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Google 眼镜杀回来了!最强 AI 上头,两大潮牌站台,还有一款中国造

2012 年,Google 推出了「Project Glass」智能眼镜原型机,可以录像,支持语音交互,镜片上一寸不到的 LED 屏幕还能显示一些应用的界面,完全如同科幻电影走进现实。

最终,这款超前的设备由于隐私争议和技术限制等原因,只度过了短暂的一生,但也让世人瞥见了一种全新的智能设备形态。

13 年后的 2025 年,智能眼镜成为新兴的硬件浪潮,Google 作为这个品类曾经的先行者,带着 Android XR 和 Gemini 又杀了回来。

刚刚的 Android Show 活动只有半个小时,内容却干货满满,Google 正式披露了他们眼中四种 XR 设备路线:

  • XR 头显设备
  • 有线 XR 眼镜
  • 无线 XR 眼镜
  • AI 眼镜

Android XR:把蛋糕做大

Android XR 这个系统于去年年底首次正式公布,顾名思义就是一个为 XR 设备开发的 Android 系统。

Google 强调,为 Android 开发,就是在为 Android XR 开发,后者可以直接兼容使用 Google PlayStore 上的大部分手机和平板应用。

跟手机上的 Android 一致,Android XR 为行业里的厂商,提供了一个相当完善的系统和生态平台,能直接利用现成的 Android 应用生态,调用 Google 服务和 Gemini AI;而专门开发 XR 应用的开发者,也得到了一个分发应用的平台。

对于新型的 XR 初创公司,Android XR 就是他们等待已久的平台,XREAL CEO 徐驰告诉 The Verge:

目前世界上只有两家公司能够真正构建起一个生态系统:苹果和 Google 。苹果不会与其他公司合作,Google 是我们唯一的选择。

The Verge 提前体验了一款 Android XR 原型机,当编辑使用 Uber 打车时,眼镜的显示屏弹出一个 Uber 的小部件,显示预计接客时间、车牌号等信息,以及前往上车点的地图路线指引,这些功能都直接来自 Uber 原本的 Android 应用。

Android XR 的号召力比 Meta Horizon 平台更强,也比苹果更开放,这意味着未来将有更多第三方厂商开发 Android XR 设备,蛋糕越做越大,XR 应用和内容的生产者更愿意加入生态。

我们最熟悉的 Android XR 设备,自然是十月底发布的三星 Galaxy XR 头显,爱范儿此前已经进行过详细报道,这次活动中 Google 也推出了三个更新:

  • PC 连接,悬浮查看 Windows 窗口
  • Likeness 功能,创建一个自己的数字分身
  • 自动空间化功能,能够将一些传统 2D 内容转化成沉浸式的 3D 内容。

这次 Android XR 的重头戏,当然是三款不一样的眼镜。

Project Aura:小巧如眼镜,强大如头显

在今年 5 月的 I/O 大会上,Google 首次公布了与国内 AR 眼镜厂商 XREAL 合作的 Project Aura 产品,今天的活动则带来了更多体验和使用上的细节。

Project Aura 是一款「有线 XR 眼镜」,这款设备的理念很简单,就是以眼镜这种轻巧方便的形式,实现类似头显的双目 XR 效果,适合出门使用。

当然,比起传统的眼镜,Aura 要更大更重,硬件形态与 XREAL 其他产品很类似: 一个 AR 投屏眼镜,以有线的形式连接一个 Android XR 计算终端——终端还能充当一个触控板。

不同的是,Aura 支持和头显一样的手势交互,并带有透视效果,用户能够看到周围环境,应用界面投射其上。

Google 选择 XREAL 这家初创公司的原因,大概率是看中了 XREAL 做 AR 眼镜硬件的强大实力:Aura 实现了 70° FOV,为消费级 AR 的最大实用视场,能够让 Gemini 助手更好地与真实世界进行互动,也能获得沉浸式的观影体验;性能方面则采用了 Galaxy XR 同款高通骁龙 XR2 Plus Gen 2 芯片组。

得益于 Android XR 系统,Aura 能够直接使用那些专门为 Galaxy XR 头显设备开发的 XR 应用,只要有对应的 SDK,应用的功能和体验就能自动调整到适合 XR 眼镜的状态。

比起又大又重的头显,Project Aura 更适合「PC 连接」功能,用户在工作时可以将 Aura 当成一个外接大屏, Windows 应用可以以大窗口形式在 Aura 中显示,工作中不会的操作甚至可以让 Gemini 教你。

根据多家外媒,Project Aura 的使用体验确实非常接近 Galaxy XR 头显,重量却要轻上不少,不过考虑到小巧的体积和强大的性能,Aura 的发热和续航将成为一个问题。

不过,Project Aura 在这次活动上依旧未能正式推出,Google 承诺将于明年发布。

智能眼镜,首先要让人愿意戴

另外两款眼镜,则是完全无线的产品,更适合日常佩戴,因此也更需要强调时尚属性,因此除了三星,Google 也宣布了这类产品将与 Warby Parker 以及 Gentle Monster 连个传统眼镜潮牌合作。

第一款眼镜,是类似 Ray-Ban Meta 的最基础形态,我们称之为「AI 眼镜」不带任何显示屏,用户可以用眼镜和 Gemini 沟通、拍照、听歌。这种产品虽然不是真的「XR」眼镜,却是大众接受度最高的品类。

Google 更看重的是第二款,其实就是在第一款的基础上增加单目 AR 显示屏,用来显示一些简单的卡片和组件,类似 Meta Ray-Ban Display,这也是今年 I/O 大会上进行过演示的品类。

▲ 活动上出现的原型机

操控这个 XR 眼镜的方法有两种,第一种就是利用眼镜柄上的触控板,第二种当然就是 Gemini 语音输入了。Gemini Live 能够基于当前看到的视觉环境上下文,以及用户的自然语音控制,去完成多步骤、复杂的任务。

这次演示的内容和 I/O 类似,同样展现了智能眼镜语音指令识别、识物、记忆、导航、实时翻译等等能力。

重点是,Google 单目 XR 眼镜是一款「手机配件」,它大部分的运算都在手机,并且直接使用 Android 手机上的应用——作为对比,Meta 只能用自家几个社交媒体应用。Aura 的界面简洁干净,没有应用列表,只提示最重要的信息,来自手机 App 实时通知,给人感觉更像是智能手表。

▲ 图源:Android Authority

即使智能眼镜正在井喷式发展,但未来的十年里,人人兜里依旧会有智能手机,Google 深知这个道理,于是他们的目标,只是想通过这种单目式的 XR 智能眼镜,慢慢减少你掏出手机的次数。同样是单目 XR 眼镜,Google 的产品也比 Meta 要小巧很多。

并且,Google 还告诉 The Verge,为了更多人使用眼镜的多模态能力,明年 Android XR 眼镜还会支持 iOS。

当年导致 Google Glass 折戟的另一个导火索——隐私问题,Google 也专门进行了说明,这些 Android XR 眼镜在录制时都会发出明亮的脉冲光,并用红绿光区分录制和 Gemini 摄像头使用。

和 Project Aura 一样,这两款 AI 眼镜产品也将于明年推出,目前 Google 正在和三星、Warby Parker 以及 Gentle Monster 这些合作伙伴不断调整产品。

▲ 用语音让 Gemini 拍摄、调用 Nano Banana 创作

复活 Google Glass,Google 这次有备而来

作为曾经领先过时代的先行者,面对这两年智能眼镜的浪潮,Google 的整个步调,却走得比想象中慢不少,来得甚至比擅长「后发制人」的苹果还要更晚。

Android XR 于去年年底正式官宣,这期间,Google 找了不少厂商合作,有老搭档三星高通,有新朋友 Xreal,还有跨界的伙伴 Warby Parker 和 Gentle Monster。

▲ Android XR 由 Google、三星、高通合作开发

目前这四种不同的产品形态,其实都有不同程度妥协,明显都不是最终形态。

实际上,Google 给 Android Authority「剧透」了一款没有在活动上公开的新产品,实际演示效果给媒体留下深刻印象:无线双目 XR 眼镜,视野广阔,画面效果更好,目前公布的四款产品身上的优点集其一。

但 Google 表示,无线双目 XR 眼镜短期内不会对外销售,最早也要等到 2027 年。

很明显,这款有点小彩蛋性质的神秘产品,才是 Google 心目中的「Google Glass」升级版,但他们并没有选择直接发布这款产品,甚至没有放到发布会上谈。

Google 其实不必担心会在这场新兴硬件的激烈竞争中落后,他们已经吸收了 Google Glass 当年的教训,手握 Android XR 和 Gemini 两大王牌回归。

不仅是 Google Glass,即使对于现在的 XR 眼镜,应用和内容生态不足,杀手级场景的缺乏,还是难以突破的困局。

Android XR 不仅能利用现成的 App 生态,这个平台本身也能吸引大量的设备厂商和开发者,大大降低了门槛,成长速度值得期待。

更重要的是,作为目前最出色的 AI,Gemini 填补了杀手级 App 的空缺。借助智能眼镜的摄像头、麦克风和 XR 显示屏,Gemini 强大的上下文理解与多模态能力得以充分发挥,创造出智能手机和其他硬件难以触及、专属于智能眼镜的独特场景。

对 Google 来说,接下来就是按部就班把画的饼一一填上的过程,比当年激进和实验的 Google Glass 更有章法。接下来几年我们都能看到这些产品逐步迭代,渐渐朝最理想的形态靠拢。

当然,这三款新的「Google Glass」究竟是不是一个良好的重新出发,还需要等产品实际问世,由时间验证。

但至少,不管是 Google 还是整个智能眼镜行业,明年都相当值得期待。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


硅谷商战变厨艺大赛?小扎曾亲手煮汤挖人,OpenAI 说不慌都是演的

鹬蚌相争,渔翁得利。有时候还挺希望我们用户就是那个渔翁,模型厂商打得越厉害,我们就有机会越快用到更好的模型。

2022 年 12 月 22 号,在 ChatGPT 发布三周后,为了应对 OpenAI 的威胁,Google 成了第一个发布「红色警报」的科技巨头。

昨天,在 Gemini 3 发布两周后,因为 Gemini 3 模型出现了大幅增长,OpenAI 发布了首个「红色警报」。

看到消息的时候,我就觉得 OpenAI 是不是有点过度反应了,很快就看到了一些评论说「骄兵必败」、还有「胜败乃兵家常事」。但转念一想,所谓的「红色警报」也许就是给投资人看的,毕竟 OpenAI 如果真的做不到第一,那个 2030 才能盈利的时间,只会拉得更长。

▲ Gemini 的 App 下载量快要追上 ChatGPT

根据最新透露的消息,OpenAI 在下周即将推出一款新的推理模型,内部评估表现要比 Gemini 3 更好。此外,他们还计划通过一个代号为「Garlic」的模型,来进行反击。

但更现实的情况,是 OpenAI 必然会发布比 Gemini 3 更好的模型,而 Google 也还有 Gemini 4、Gemini 5。

其实,回看过去这一年来硅谷的新闻,完全算得上是一出跌宕起伏的抓马大戏。年初被 DeepSeek R1 的横空出世而感到压力;年中则是小扎开启的疯狂「抢人模式」,天价薪酬刷新着所有人对 AI 人才的认知;到了年尾,又再次卷回到了朴素的模型比拼赛场。

在 OpenAI 研究主管 Mark Chen 的最新播客采访中,硅谷的战争更是进化到了魔幻的程度,他说小扎为了挖走 OpenAI 的核心大脑,甚至开始做汤,真的能喝的汤,然后亲自把汤送到研究员的家门口。

除了这些八卦,他也谈到了 OpenAI 对于 Gemini 3 的看法、Scaling 是否已经过时、还有 DeepSeek R1 对他们的影响、以及公司内部的算力分配、实现 AGI 的时间表等。

Mark Chen 的背景非常有意思,数学竞赛出身,MIT 毕业,去华尔街做过高频交易(HFT),2018 年加入 OpenAI,跟着 Ilya 一起做研究。和奥特曼更偏向于商人属性的特点不同,这些经历,让他身上也有一股非常明显的特质,极度厌恶失败,且极度信奉数学。

他坦言自己现在,完全没有社交生活,过去两周每天都工作到凌晨 1-2 点。

我们整理了这场长达一个半小时的采访,总结了下面这些亮点,或许能更好的看清硅谷这一年来的各种「战争」、以及 OpenAI 会做些什么努力,来继续保持自己在 AI 时代的第一。

关于 Gemini 3,我们真的「不慌」

OpenAI 真的怕 Google 吗?Mark 的评价很客观但也很犀利。他肯定了 Gemini 3 是个好模型,Google 终于找对路子了。但是他说看细节,比如 SWE-bench(这也是 Gemini 3 刷榜那张图片里,唯一一个没有拿到第一的基准测试)数据,Google 在数据效率上依然没有解决根本问题。

▲Gemini 3.0 Pro 在 SWE-Bench 上的表现,比 GPT-5.1 还差了 0.1%

而他自己则是非常自信的表示,OpenAI 内部已经有了针对性的应对模型,而且他们有信心在数据效率上做得更好。

Mark 甚至说,奥特曼前几天发那个说大家都要感到压力的备忘录,去吓唬大家,其实更多的是为了注入紧迫感,他说这是管理层的惯用手段,备忘录的目的在于管理层激励团队,而不是真的感到慌了。

我觉得Sam的工作之一就是要注入紧迫感和速度感。这是他的责任,也是我的责任。

 

作为管理者,我们的部分工作就是不断给组织注入紧迫性。

▲此前 The Information 报道,奥特曼在 Gemini 3 推出时,在公司内部发备忘录,提到会给 OpenAI 带来困难

他们目前最大的问题,还是算力分配。作为 OpenAI 的研究主管,他的一项工作就是决定如何将算力分配到公司内部不同的项目。

他和 Jakub Pachocki(OpenAI 首席科学家)一起,负责制定 OpenAI 的研究方向,同时决定每个项目能拿到多少算力。为了这件事,他们每隔 1–2 个月,都会做一次盘点。

他们把 OpenAI 所有在做的项目,放进一张巨大的表格里,大概有 300 个;然后努力把每一个项目都看懂,给它们排优先级;再根据这个优先级表去分配 GPU。

▲英伟达和 OpenAI 的百万 GPU 合作

他也提到,真正要用掉大部分的 GPU 的,甚至并不是训练那个最重要发布的模型,而是他们内部在探索下一代 AI 范式的各种实验。

所以,在他的眼里,Gemini 3 发布了、某家开源模型刷榜了、某个思考模型又拿了新高分了;这些你追我赶的 benchmark 赛车一点都不重要。反而,最应该避免的,恰恰是被这场竞赛牵着走。

他说,现在的模型发展,我们随时可以靠一点「小更新」,就在榜单上领先几周或几个月但如果把资源都砸在这些短线迭代上,就没有人去寻找下一代范式。而一旦有人真的找到了,整个领域后面十年的路线,都要沿着那条新路走。

小声哔哔几句,预言 OpenAI 下周要发布的模型,我想就是在计划之外,做了点小更新,然后刷新了几个榜单而已吧,就这还没慌吗。

提到榜单的时候,他说他有自己的一套私房题,用来测试模型是不是真的具备了顶级数学直觉。他举了一个 42 的数学难题,说目前的语言模型,包括 o1 这种思考模型能接近最优解,但从来没有完全破解它。

你想创建一个模 42 的随机数生成器。你手头有一些质数,是模数小于 42 的质数的随机数生成器。目标是,以最少的调用次数,组合出这个模 42 的生成器。

除了谈到 Gemini 3,主持人也问了他对于 DeepSeek 的看法。

和 Gemini 3 一样,Mark 承认 DeepSeek 的开源模型曾让他们感到压力,甚至怀疑自己是不是走错了路。

但结论是坚持自己路线,不要被对手的动作打乱节奏,专注自己的路线图。OpenAI 不会变成一个跟风的公司,他们要做的,就是定义下一个范式。

Ilya 的 Scaling 里面还有很多潜力,OpenAI 需要大规模预训练

近期关于 Scaling 失效的讨论纷纷扬扬,Ilya 先是在播客采访里面说,Scaling 的时代已经结束了,后面又在社交媒体上澄清,Scaling 会持续带来一些改进,并不是停滞不前。

所谓的 Scaling Law,就是按经典老故事走向,这几年建了巨大的算力基建,模型每 10 倍算力,本该有一波明显跃迁。但从 GPT-4 到 GPT-5,外界并没有看到预期中那种「质变式」的提升,所以才会有「Scaling Law 失效了」的讨论;而 Ilya 前段时间的访谈,则是进一步放大了这种观点。

Mark Chen 对这个观点,给出了坚决的反驳,「我们完全不同意」。他透露,过去两年 OpenAI 在推理上投入了巨量资源,导致预训练这部分稍显退化。之前关于 GPT-5 遇到了预训练的问题,其实也是因为他们把重心放在了推理上,而不是 Scaling Law 已死。

工作就是分配算力资源的他,再次重申算力永远不会过剩,如果今天多 3 倍算力,他可以立刻用完;如果今天多 10 倍算力,几周内也能全部吃满。对他来说,算力需求是真实存在的,看不到任何放缓迹象。

▲ OpenAI 的计算成本,计划到 2030 年花费约 4500 亿美元租用服务器,红色为推理计算成本、蓝色为研发(不包含现金业务)、黄色为可盈利的计算

他也提到,过去半年,他和 OpenAI 首席科学家 Jakub Pachocki 已经将重心重新拉回,要开始重塑预训练的统治力

他明确说他们会继续做规模化模型,而且已经有一批算法突破,专门就是为了让 Scaling 更划算,在相同算力下挖出更多性能,在更高算力下保持数据效率。

小扎的送来的真汤,抵不过 OpenAI 的鸡汤

最后就是访谈里提到的八卦了,Meta 今年没有别的新闻,媒体渲染了一整个季度的「OpenAI 人才/Apple 人才/Google 人才大量流失到 Meta」,Mark Chen 在播客里正面回应了这个话题,细节简直有点「颠」。

他说小扎真的很拼,为了挖人,小扎不仅手写邮件,还亲自去送鸡汤。人才战打到最后,居然演变成「谁煮的汤更好喝」的 Meta 游戏。

▲ Meta 花大价钱挖人组建的超级智能实验室名单

不过,在他的直接下属中,Meta 曾试图挖角一半的人,结果全部选择继续留下来。为什么不走?不是因为钱,因为Meta 给的钱显然更多,而是因为信仰

Mark 说,即使是那些跳槽去 Meta 的人,也没有一个人敢说「Meta 会比 OpenAI 先做出 AGI」。留在 OpenAI 的人,是因为他们真的相信这里才是 AGI 的诞生地。

他也提到自己从华尔街和玩扑克的经历里面学到,真正要守住的是核心人才,而不是每一个人在搞清楚,必须留下的是哪类人后,再把资源和关注度,全部压在这部分人身上。

他说他最强烈的情绪,其实就是想「保护研究的本能」。在 Barrett(OpenAI 研究副总裁)离职那阵子,他甚至直接睡在办公室睡了一个月,只为把研究团队稳住。

▲ Barret 目前和 Mira(OpenAI 前 CTO) 都在 Thinking Machines

那么 OpenAI 所信奉的 AGI 又是什么,主持人问他,Andrej Karpathy 在最近的一个播客里面说,AGI 大概还要 10 年,你是怎么想的。

Mark 先是调侃了一番 X 现在「惊」的各种文案,一下子是「AI 完了」、一下子又是「AI 又可以了」。他觉得,每个人对于 AGI 的理解都不同,即便在 OpenAI 内部,也很难有一个一致的定义。但他相信的是,OpenAI 在 AGI 道路上设置的目标。

  • 一年内: 改变研究的性质。现在的研究员是自己在写代码、跑实验。 一年后,研究员的主要工作是管理 AI 实习生。AI 应该能作为高效的助手,承担大部分具体工作。
  • 2.5 年内: 实现端到端的研究自动化。这意味着:人类只负责提出 Idea(顶层设计),AI 负责实现代码、Debug、跑数据、分析结果,形成闭环。

从 Copilot 到 Scientist,Mark 强调,OpenAI for Science 的目标不是自己拿诺贝尔奖,而是建立一套工具,让现在的科学家能一键加速,哪怕这需要重构整个科学评价体系,因为未来可能很难分清是人还是 AI 做的发现。

2 年半的时间很快,但这对于现在看来,是以周为单位迭代的 AI 行业来说,又是一场漫长的马拉松。

▲ 预测市场给出的,到 2025 年底前最好的 AI 模型会来自哪个公司,Google 排在第一名

无论是扎克伯格那锅真金白银的鸡汤,还是 OpenAI 想要定义未来的理想主义鸡汤,这场硅谷的「煮汤大戏」还远未结束。Mark Chen 播客里表现出来的从容,或许能消除一部分外界的焦虑,但用户还是会用脚投票,好的模型自己会说话。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


终于发布的Gemini 3,什么是它真正的王牌?

Gemini 3 Pro 预览版上线那一刻,很多人心里的第一反应可能是:终于来了

遛了将近一个月,这里暗示那里路透:参数更强一点、推理更聪明一点、出图更花一点,大家已经看得心痒痒了。再加上 OpenAI、Gork 轮番出来狙击,更加是证实了 Gemini 3 将是超级大放送。

这次 Gemini 3 的主打卖点也很熟悉:更强的推理、更自然的对话、更原生的多模态理解。官方号称,在一堆学术基准上全面超越了 Gemini 2.5。

但如果只盯着这些数字,很容易忽略一个更关键的变化:

Gemini 3 不太像一次模型升级,更像一次围绕它的 Google 全家桶「系统更新」。

模型升级这一块的,Google 已经把话说得很满了

先快速把「硬指标」过一遍,免得大家心里没数:

-推理能力:官方强调 Gemini 3 Pro 在 Humanity’s Last Exam、GPQA Diamond、MathArena 等一堆高难度推理和数学基准上,全部刷出了新高分,定位就是「博士级推理模型」。
-多模态理解:不仅看图、看 PDF,甚至还能在长视频、多模态考试(MMMU-Pro、Video-MMMU)上拿到行业领先成绩,说看图说话、看视频讲重点的能力,提升了一档。
-Deep Think 模式: ARC-AGI 这类测试证明:打开 Deep Think 后,它在解决新类型问题上的表现会有可见提升。

从这些层面看,很容易把 Gemini 3 归类为:「比 2.5 更聪明的一代通用模型」。但如果只是这样,它也就只是排行榜上的新名字。连 Josh Woodward 出来接受采访都说,这些硬指标只能是作为参考。

换句话说,「跑了多少分」只是一种相对直观的表现手法,真正有意思的地方在于 Google 把它塞进了哪些地方,以及打算用它把什么东西连起来。在这一个版本的更新中,「原生多模态」显然是重中之重。在这一次的大更新中,「原生多模态」显然是重中之重。

如果要为当下的大模型找一个分水岭,那就是:它究竟只是「支持多模态」,还是从一开始就被设计成「原生多模态」。

这是 Google 在 2023 年,即 Gemini 1 时期就提出来的概念,也是一直以来他们的策略核心:在预训练数据里一开始就混合了文本、代码、图片、音频、视频等多种模态,而不是先训一个文本大模型,再外挂视觉、语音子模型。

后者的做法,是过去很多模型在面对多模态时的策略,本质还是「管线式」的:语音要先丢进 ASR,再把转好的文本丢给语言模型;看图要先走一个独立的视觉编码器,再把特征接到语言模型上。

Gemini 3 则试图把这条流水线折叠起来:同一套大型 Transformer,在预训练阶段就同时看到文本、图像、音频乃至视频切片,让它在同一个表征空间里学习这些信号的共性和差异。

少一条流水线,就少一层信息损耗。对模型来说,原生多模态不仅仅是「多学几种输入格式」,这背后的意义是,少走几道工序。少掉那几道工序,意味着更完整的语气、更密集的画面细节、更准确的时间顺序可以被保留下来。
更重要的是,这对应用层有了革命性的影响:当一个模型从一开始就假定「世界就是多模态的」,它做出来的产品,与单纯的问答机器人相比,更像是一种新的交互形式。

从 Search 到 Antigravity,新总线诞生

这次 Gemini 3 上线,Google 同步在搜索栏的 AI Mode 更新了,在这个模式下,你看到的不再是一排蓝色链接,而是一整块由 Gemini 3 生成的动态内容区——上面可以有摘要、结构化卡片、时间轴,虽然是有条件触发,但是模型发布的同时就直接让搜索跟上,属实少见。

更特别的是,AI 模式支持使用 Gemini 3 来实现新的生成式 UI 体验,例如沉浸式视觉布局、交互式工具和模拟——这些都是根据查询内容即时生成的。

这个思路将一系列 Google 系产品中发扬光大,官方的说法是更像「思考伙伴」,给出的回答更直接,更少套话,更有「自己看法」,更能「自己行动」。

配合多模态能力,你可以让它看一段打球视频,帮你挑出动作问题、生成训练计划;听一段讲座音频,顺手出一份带小测题的学习卡片;把几份手写笔记、PDF、网页混在一起,集中整理成一个图文并茂的摘要。

这部分更多是「超级个人助理」的叙事:Gemini 3 塞进 App 之后,试图覆盖学习、生活、轻办公的日常用例,风格是「你少操点心,我多干点活」。

而在 API 侧,Gemini 3 Pro 被官方明确挂在「最适合 agentic coding 和 vibe coding」这一档上:也就是既能写前端、搭交互,又能在复杂任务里调工具、按步骤实现开发任务。

这一次最令人惊艳的也是 Gemini 在「整装式」生成应用工具的能力上。

这也就来到了这次发布的新 IDE 产品:Antigravity。在官方的设想中,这是一个「以 AI 为主角」的开发环境。具体实现起来的方式包括:

-多个 AI agent 可以直接访问编辑器、终端、浏览器;

-它们会分工:有人写代码,有人查文档,有人跑测试;

-所有操作会被记录成 Artifacts:任务列表、执行计划、网页截图、浏览器录屏……方便人类事后检查「你到底干了啥」。

在一个油管博主连线 Gemini 产品负责人的测试中,任务是设计一个招聘网站,而命令简单到只是复制、复制、全部复制,什么都不修改,直接粘贴。

最终 Gemini 独立完成对混乱文本的分析,真的做了一个完整的网站出来,前前后后所有的素材配置、部署,都是它自己解决的。

从这个角度看,Gemini 3 不只是一个「更聪明的模型」,而是 Google 想用来粘住 Search、App、Workspace、开发者工具的那条新总线。

回到最直觉的感受上:Gemini 3 和上一代相比,最明显的差别其实是——它更愿意、也更擅长「帮你一起协作」。这也是 Google 对它赋予的期待。

压力给到各方

跳出 Google 自身,Gemini 3 的 Preview 版本实际上给整个大模型行业,打开了一局新游戏:多模态能力应用的爆发势在必行。

在此之前,多模态(能看能听)是加分项;在此之后,“原生多模态”将基本配置——还不能是瞎糊弄的那种。Gemini 3 这种端到端的视听理解能力,将迫使 OpenAI、Anthropic(Claude)以及开源社区加速淘汰旧范式。对于那些还在依赖「截图+OCR」来理解画面的模型厂商来说,技术倒计时已经开始。

「套壳」与中间层也会感到压力山大,Gemini 3 展现出的强大 Agent 规划能力,是对当前市场上大量 Agentic Workflow(智能体工作流) 创业公司的直接挤压。当基础模型本身就能完美处理「意图拆解-工具调用-结果反馈」的闭环时,「模型即应用」的现实就又靠近了一点。

另外,手机厂商可能也能感到一丝风向的变化,Gemini 3 的轻量化和响应速度反映的是 Google 正在为端侧模型蓄力,结合之前苹果和几家不同的模型大厂建立合作,可以猜测行业竞争将从单纯比拼云端参数的「算力战」,转向比拼手机、眼镜、汽车等终端落地能力的“体验战”。

谁最强已经没那么重要了,谁「始终在手边」才重要

在大模型竞争的上半场,大家还在问:「谁的模型更强?」,参数、分数、排行榜,争的是「天赋」。到了 Gemini 3 这一代,问题慢慢变成:「谁的能力真正长在产品上、长在用户身上?」

Google 这次给出的答案,是一条相对清晰的路径:从底层的 Gemini 3 模型,往上接工具调用和 agentic 架构,再往上接 Search、Gemini App、Workspace 和 Antigravity 这些具体产品界面。

你可以把它理解成 Google 用 Gemini 3 将以原生多模态为全新的王牌,并且给自己旗下生态中的所有产品,焊上一条新的「智能总线」,让同一套能力,在各个层面都得以发挥。

至于它最终能不能改变你每天用搜索、写东西、写代码的方式,答案不会写在发布会里,而是写在接下来几个月——看有多少人,会在不经意间,把它留在自己的日常工作流中。

如果真到了那一步,排行榜上谁第一,可能就没那么重要了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


还在用 Gemini 3 写 ppt?太土了,来看看最酷炫手势互动(附提示词)

Gemini 3 发布之后这些日子里,我逐渐感到疑惑:为什么总让 AI 写网站写 PPT,Gemini 都发到第三代了,不能干点更有意思的事吗?

要那种科幻感强的、效果酷炫的、难度系数高的,但小白也能做的。比如这种:

或者这种:

Gemini:手势交互?没问题,包的。

在开始之前,先准备好 Gemini 3,这里是一点点的注意事项👇🏻

目前有三种方式开启玩耍:Gemini 客户端 Canvas 模式、Google AI studio-Playground 和 Google AI studio-Build。

其中,最不推荐的是客户端,亲测无法有效拉起摄像头,并且,下面都是手势互动项目,举着手机,手自然也是没法做操控的。

后两者中,Build 是直接形成一个 app,你可以分享给其它朋友,缺点是 tokens 有限。而 Playground 会生成一套代码,需要下载到本地再打开,一旦换个电脑就可能运行不了,但优点是几乎没有 tokens 限制,每天一百万,量大管饱。

考虑到交互项目比较消耗 tokens,所以 Playground 更为合适,个别小项目用 Build 也可以,这就看个人情况而定。

Jarvis

Jarvis HUD 面板是在推上超过二十万次浏览的热门爆款,手势操控仪表球,就像钢铁侠操控 Jarvis 那样,酷毙了。

参考 prompt 如下:

create a webapp using vanilla js, html, css, modern threejs, mediapipe. it should be a sci-fi tony stark / iron man / jarvis experience focused on simulating an AR heads up display experience. full screen webcam input shown. add a heads up display that tracks the user’s head (offset to the right), with live updating metrics. a minimal 3D world globe should be shown on the left center of the screen, that should be able to be rotated / sized by the user hand gestures

在 Build 模式下,亲测完全可以实现一次成型,Gemini 会自动安排任务、编写代码,调用不同的接口,进度条显示完成后,点击 Preview 就能直接打开——记得放行摄像头权限。

 

Gemini 3 自己就把效果设计安排得明明白白:左手是放大缩小,右边是转动,双手进入摄像头范围后会显示触控点——这些都是 prompt 里没有的,都是它自己的「想」出来的。搭配大屏幕或者投影,真的很有 Jarvis 既视感。

左边的地球建模和右边的面板的内容都是可以改变的,最初 Gemini 3 让右边的面板显示人体体温(显然是凭空编的),后来被我改成了「实时显示左侧地球模型的直径」。反正 vibe coding 一下,想怎么改怎么改。

雨滴控制

Jarvis 都有了,惊天魔盗团不也得安排上。

看电影时只有特效,但现在,有 Gemini 3 了。参考 prompt 如下:

用 HTML+JS+ML 模型做个网页应用,通过摄像头检测手势,实现用手势来控制雨滴动画的暂停、静止和升格效果。动画效果保持在雨滴垂直方向,风格参考电影《惊天魔盗团》

这个 prompt 的第一轮表述完全是按照我看电影之后的想法写的,每个细节都可以通过 vibe coding 再调节。根据第一轮 prompt,Gemini 会加入它自己的设计,比如这具体的手势就是它想出来的。

虽然是用 AI 做的,但是在识别手势动作时非常灵敏,包括不同手势之间的切换都能够快速响应。

3D 粒子

控制雨滴曾经是非常复杂的特效技术,就在《惊天魔盗团 2》上映之后,有一个饮料公司做了一支广告,通过控制雨滴,实现静态的粒子效果。

那么参考「控雨术」,Gemini 完全可以实现上面这种结合实拍和速度控制才能出现的效果,最接近的就是 3D 粒子。所以我又做了一个 3D 粒子效果的交互案例。

非常酷炫!prompt 参考如下:

用 Three.js 创建一个实时交互的 3D 粒子系统。通过摄像头检测双手张合控制粒子群的缩放与扩散,提供 UI 面板可选择爱心/花朵/土星/佛像/烟花等模型,支持颜色选择器调整粒子颜色,粒子需实时响应手势变化。界面简洁现代,包含全屏控制按钮

一次成型,最后出来的交互非常丝滑,尤其是对于手势的识别很准确又灵敏。

【小技巧】

涉及到颜色、布局、UI 设计等等细节,如果每次都用 vibe coding 的方式来调节,表述起来会很麻烦。并且每一次 vibe code 都存在抽卡的情况,所以有一个非常实用的技巧是:加上自定义模块,尤其是颜色、大小等,这样可以完全自主搭配自己喜欢的配色方案。

技能五子棋

由雨滴想到粒子,由粒子想到移动,由移动想到——五子棋!我终于可以做技能五子棋了!!

仔细想想,五子棋不也是一个手势控制、飞来飞去的交互方式吗!飞沙走石移动棋子,力拔山兮移动棋盘,全都安排上!

Prompt 参考如下:

做一个手势互动小游戏「技能五子棋」:主页面为五子棋棋盘,默认已经摆放好棋子。当用户做出「单手甩手」的动作时,棋子会跟随甩动的方向飞出棋盘。当用户做出「双手甩动」的动作时,棋盘会跟随甩动方向飞动

Gemini 自己完成了物理逻辑和手势之间的衔接,我的 prompt 只需要描述效果,而具体的速度向量计算、检测阈值,都不用我管。

它甚至还重新命名了「技能」:万象天引。

这叫飞沙走石啊 Gemini 老师!

节奏音乐游戏

综合上面的几个尝试,Gemini 的毋庸置疑,而且回想一下这些技能树:手势识别、色彩变化,这些组合起来,不就是小游戏吗?

于是我尝试了更复杂一点的项目:节奏游戏。

音游玩过很多了,但是零经验小白真要做一个游戏、怎么给 Gemini 形容我想达到的效果,还真是花了一点脑筋 ,后来第一版 prompt 如下:

做一个用手势操控的音乐游戏,主界面为四条音轨,用户上传音乐文件后,四条音轨上按节拍出现光点,用户需要用手势准确拍击出现的光点,背景为复古合成波(Synthwave)风格,背景、音轨和光点的颜色可以自定义调节

这基本上是我能想到的雏形,根据第一版 prompt,Gemini 选择了 Pygame 作为游戏引擎,继续使用 MediaPipe 做手势追踪,并且加入了 Librosa 用来分析音乐。

选择复古合成波风格是因为它有明确的视觉标志——Gemini 也识别出来了——落日、霓虹渐变色、网格和驶向地平线的道路,非常适合节奏音游。

果然做游戏比前面的一些小交互复杂多了……先是只能识别一只手,得调整;然后是无法上传音乐,得调整;到了第三版才稍稍有点样子

但是在体验过中我发现一个比较 bug 的地方:判定线的位置离屏幕边缘太近了,而摄像头的识别范围是有限的,我的手稍微放低一点就无法被识别。

一开始我尝试的方法是,把判定线移动到屏幕居中位置,保证我的手始终能在摄像头捕捉范围内。

但是又出来一个问题:光点出口和判定线之间的距离过短,留给我的反应时间也很短,更别提点击动作还有一点点点的延迟,整个可玩性大大下降。可是放太低就还是会出现手掉出识别范围的情况。

一时之间我还真想不到这个矛盾该怎么办,于是,我直接去问了 Gemini 能怎么解决。

它直接指出了这个问题的症结所在,并且提出了「视觉欺骗」的方式来优化体验,并且加了一个自定义滑块来调节偏移,这样一来无论手在什么位置,都可以通过调节滑块来对齐判定线。

天才。

后来我还指出,感觉光点的出现跟节奏不太一致,为了解决这个问题,Gemini 又加了一个滑块用来调节延迟。虽然我仍然认为它并没有很好地分析节奏型,但是这个滑块的设计还是很有效,尤其是解决了戴着蓝牙耳机导致的延迟。

【一些小技巧】

本质上,只要有 prompt 就有抽卡的情况存在,但抽卡未必就不好。当碰到非常硬伤的 bug,比如始终无法调用摄像头、无法上传文件等等,vibe coding 时反复修改也没效果,不如就直接「新建项目」。核心功能反映在代码上,彼此之间有所牵连,重新跑一遍,让 AI 整体性地补足,远比一点点 vibe coding 要更有效率。当然,能看懂代码就会更有效率,可以针对性地解决。 只不过,对于完全的零码选手来说,还不如直接重新抽卡。

在 AI 之前,做手势交互的应用,得先学点儿 Touch Designer,最好还懂点儿部署。这些都得一点点翻教程,反复研究,在这个过程中搞不好就被劝退了。

有了 AI 之后有多简单,自然不用多说。更关键的是,手势交互原本的门槛远比生图、做 PPT 要更复杂,却又能让小白零码选手快速领略到做应用的乐趣。

唯一留下的,是对审美的挑战。在这些案例里能看到,Gemini 有点审美,但不多,设计、配色等等都是差强人意。代码的「硬」技能它可以掌握,留给我们的,就是对于审美的挑战。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Nano Banana终于不是文盲了,但我可能会变「傻」

过去一个周末 Gemini 3 Pro Image 的能力被反复「折磨」,花样越来越多——噢,你问这是什么,它的另一个名字是 Nano Banana 2。这么跟个恶搞一样的名字,居然被保留下来了。

Nano Banana2 各方面能力超群,甚至是「友商」Sam Altman 也要点头的程度。

▲ 图片来自:The Information

夸夸只是夸夸,Nano Banana 第二阶段,其实标志着 AI 图像生成领域的一个重要转折点:从基于概率的「以此类推」,转向了基于理解的「逻辑构建」。更承载着一个特殊的意义:AI 不再只是冲着你的眼睛去,还冲着你的智商去。

大语言模型不再「文盲」

一直以来 AI 生图都有个绕不过去的问题:才华横溢,信手拈来,但有时候就跟喝高了一样控制不住,这从 Midjourney 时期就开始了,往后走逐渐好转,不过始终存在。

其中最大的 bug 之一就是文字。这导致在很长一段时间里,鉴别一张图是否由 AI 生成,最简单的办法就是看图里的字。

这是基于扩散模型(Diffusion Model)的先天缺陷:它将文字视为一种纹理,而非符号。

Nano Banana 2 最直观的突破,就在于它「识字」了。即所谓的 Text Rendering 文字渲染。

我的随手测试「生成一张复古电影海报,标题是《香蕉的复仇》,副标题用红色衬线体写 2025 年上映。」

如果是在以前尝试这个指令,大概率会得到一张极具艺术感的图「BANANA REVENGE」的某种变体尚且能保持清晰和正常,但小字往往经不住看了,甚至有时候主标题都会拼写成「BANNANA」。但在 Nano Banana 2 里,这些字符被准确、清晰、且符合排版美学地「写」在了画面上。

So what?这仅仅是省去加字的时间吗?

对普通用户来说可能是,而且还是一种「表情包自由」。你终于可以生成一张精准吐槽老板的图,配上精准的文案,不用再单独拉一个文本框。

而对于商业世界,这意味着 AI 图像生成从「素材(Material)」阶段,正式跨入了「成品」(Deliverable)阶段。

▲ 图片来自 X 用户@chumsdock

当 AI 能够准确地处理符号信息,它能交付的成果就更多样也更实用,包括但不限于电商海报、PPT 配图、甚至是数据图表。以前设计师用 AI 只能生成背景底图,关键信息还得自己贴。现在,AI 可以直接生成原型图,乃至带有数据标注的饼状图,或者一张文字完美贴合透视关系的广告。

这是商业交付的「最后一公里」,也是生图模型在信息传递层面的巨大进步。

从「猜概率」到「懂物理」

字渲染的成功是 Nano Banana 2 底层技术跃迁的一个极具代表性的缩影,更深层的变化在于:这只「香蕉」,长了脑子

也就是我们所说的基于「推理」的图像生成。

大模型本质上是一个概率统计机器。当你要求画一只「坐在玻璃桌上的猫」时,模型通过学习数亿张图片,在生成时,它只是重现像素的统计规律。

Nano Banana 2 的不同之处在于,它引入了 Gemini 3 语言模型的推理能力。在生成图像之前,它似乎先在「大脑」里构建了一个物理模型。它知道「猫」下面通常会有模糊的影子,以及玻璃板上、下的物品有不同的光线关系。

在我的另一个随手测试中,当要求它生成「一个复杂的化学实验室,桌子上放着装有蓝色液体的烧杯,背景是黑板上的分子式」时,它表现出了惊人的逻辑性:

烧杯里的液体会有正确的弯液面;玻璃器皿对光线的折射符合物理直觉;最重要的是,背景黑板上的分子式不再是乱画的线条,而是看上去像模像样化学结构的式子(虽然还是有瑕疵)。

当画笔有了「大脑」,交互方式变了

之所以如此强调文字生成这个本领,是因为 Text Rendering 是外在表现,反映的是 Reasoning 作为内在引擎。合在一起, Nano Banana 2 带给用户的最终体验,就是一块「会思考的画布」(The Thinking Canvas)。

Google 将这个模型深度整合进了它的生态系统,不仅仅是生成图片,更是「修改」现实,下一步,就是走进更严肃的领域:信息图、教案、讲解素材,等等等等。

整体上,图像生成往往用户给 20% 的指令,剩下 80% 靠 AI 脑补——以前是靠概率脑补(随机填色)。现在则是靠因果脑补,不仅画出了「结果」,还隐含了「过程」,这能够让画面的叙事性和感染力指数级上升。

它不再只是为了取悦你的眼睛,它开始试图取悦你的智商。像上面这种结构图,虽然吧不敢说 100% 符合机械工程标准,但钉是钉,铆是铆。「逻辑上的正确」,是它推理能力的直接体现。

然而任何事情都是一体两面的,当换一个角度看,这就可能意味着创造力的同质化

当 AI 能够完美地生成「符合商业标准」的图表、海报和插画时,它实际上是在拉平审美的平均线。所有的海报都排版正确、光影完美,但可能也因此失去了曾经设计中那些因为「不完美」而诞生的神来之笔。

▲ 图片来自X用户@dotey

更深层的问题在于真相的消逝。当上面所说的那种逻辑正确、信息「干货」多的内容,可以被批量生产,取悦智商从未如此容易,也从未如此轻飘飘。如果它决定了我从图片信息到文字信息的所有摄入,那……会是怎样的景象?

还有 Deepfake 这个老大难问题,已经是老生常谈了。虽然这次 Google 加上了 SynthID(一种人眼不可见的数字水印)来标记 AI 内容,但在视觉冲击力面前,技术的防伪标签往往是苍白的。制造「真实」变得如此廉价和便捷,我们对「眼见为实」的信仰将被彻底重构。

至于它叫「Nano Banana」还是「Gemini 3 Pro」,其实已经不重要了。重要的是,从这一刻起,我们在屏幕上看到的每一个像素,每一行文字,都可能不再来自人类的手指,而是来自机器的思考。

这既令人兴奋,又让人在某些时刻,感到脊背发凉。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Nano Banana Pro保姆级指南!全网最火玩法+官方7大技巧+免费渠道,都在这了

The Information 今天独家报道了上个月,奥特曼在 OpenAI 内部发的备忘录,里面提到奥特曼说,Google 在 AI 领域的最新进展,可能会给公司带来一些暂时的经济阻力。

现在看来,不是可能有阻力,是已经感受到了压力了。互联网时代就是老大哥的 Google,很明显要把 OpenAI 拉下来,继续做 AI 时代的 No.1。

Gemini 3.0 Pro 的热度还没散去,宇宙「最强」图像模型 Nano Banana Pro,就水灵灵地端上来了。

距离出场就惊艳到大家的第一代版本,才刚刚过去了三个月不到。

这次的更新,一致性保持更强、世界知识也同步到 Gemini 3.0 Pro,多模态理解和推理能力都得到了大幅度的提升。

之前的桌面手办放到现在都成了「图一乐」,如今的 Nano Banana Pro 升级方向更加明确地,往效率工具上靠近,网友们拿它创建和编辑各种复杂的视觉效果,生成内容准确、布局优雅的信息图表。

我们挖掘了多个网上热门的玩法,和 Google 官方给出的使用指南,来榨干 Nano Banana Pro 的全部能力。

把文章转成风格化的信息图

由于长文本渲染的能力增强,目前网上热门的测试,都是生成各种各样的信息图,有密密麻麻的知识解说类,还有写满一黑板、一墙壁的经典古诗词,或者数学题解答等等。

例如下面这个把我们输入的文字,原封不动的转成一本杂志的内容。

▲图片来源:X@fofrAI|提示词:Put this whole text, verbatim, into a photo of a glossy magazine article on a desk, with photos, beautiful typography design, pull quotes and brave formatting. The text: […the unformatted article]

还有网友直接丢给他一个 Markdown 文档或者 PDF,然后跟 Nano Banana Pro 说,将这个文档转成信息图,就得到了一个设计友好、信息准确的图片。

评论区都在说,插画师的时代,是不是也要结束了。

▲图片来源:X@tobi|提示词:Make this markdown transcript into a infographic

因为 Nano Banana Pro 现在能使用谷歌搜索,并且推理和理解能力都有了大的提升,所以在生成信息图上,如果没有太严格的要求,直接告诉它要做一个什么主体的信息图就能实现,不需要纠结太多提示词的结构。

▲提示词:生成一张 2026 年中国放假安排的信息图,全部使用中文,4K画质,16:9

例如,当我们要他生成明年的节假日信息时,我看到 Gemini 里面给我的回复,有明确的使用 Google 搜索获取的信息结果,即多个官方的公告网页链接。

还有很多好看的信息图测试,网友们的提示词也比较简单,基本上都是「帮我生成一个xx的信息图」。

一张有趣的繁忙城镇信息图,展示动物们在繁忙城镇中上班的情景,并介绍它们从事的不同工作。

▲图片来源:X@unsoldwill|提示词:Make a fun busy town infographic of animals going to work in a busy town showcasing different jobs.

一张 Stephen Biesty 风格的双层神经网络图。

▲ 图片来源:X@jon_barron|提示词:Generate a diagram of a two-layer neural network in the style of Stephen Biesty

这位网友还把这张图片丢给 Google 的 Veo 3.1,让它动了起来。

将内容繁杂的文档,转换成清晰、可扫描的白板式信息图。

▲图片来源:X@denilgabani|Convert the attached research paper into a single whiteboard-style image. Break down all key concepts, diagrams, insights, and relationships in a way that is easy to understand at a glance. Add clear visual notes, arrows, highlights, summaries, and clever student-style annotations so I can quickly grasp the full paper and take notes from it.

生成精彩的连环画

结合长文本渲染和强大的一致性保持,除了渲染文本较多的信息图,Nano Banana Pro 用来制作连环画是再合适不过,并且,它现在支持在一次请求中,生成多张照片。

有网友只是上传了一张图片,然后输入「根据这张图片创作并绘制一个多格漫画」的提示词,就得到了多张自己写好剧情的漫画,并且他还在继续更新后续的情节。

▲ 图片来源:X@DeryaTR_|提示词:Create and draw a multi-panel comic based on this image.

还有只是提示说,生成几页以某个人的生活为主角的漫画。Nano Banana Pro 就能启用网络搜索,检索这个人的信息,还找到了他的 X 账号,根据他的 X 账号发布的内容信息来生成漫画。

▲图片来源:X@skirano(Pietro Schirano)|提示词:Generate a few pages of comic starring the life of Pietro Schirano

如果你也有公开的社交媒体平台,不妨试试让 nano banana 也生成过去一周你的生活漫画。

我们试了试让 Nano Banana Pro 生成马斯克和奥特曼的生活漫画,在 Gemini 网页版里,它一次性给了我们三张图片,漫画的内容可以看出,它确实是有世界知识在的。

▲ 提示词:生成几张以 Elon Musk 和 Sam Altman 的生活为主角的真人漫画图片,全部用中文

至于之前一代的 Nano Banana 玩的那些一致性,现在的 Pro 版本一样表现出色。像是给一个模特穿上不同的衣服,保持模特和衣服不变;还有像是把一些 Logo 放到不同的周边上,或者对现有的产品图,进行一些小元素的替换,Nano Banana Pro 的表现都很好。

在 Google AI Studio 的官方案例中,也给出了多个信息图生成、和漫画制作的实例,它们搭建了多个利用 Nano Banana Pro 模型的项目。

▲体验地址:https://aistudio.google.com/apps?source=showcase&showcaseTag=nano-banana

其中一个是我们只需要上传一个文章链接,他就能生成四种不同风格的信息图,包括趣味型、简洁型、暗黑科技风和现代编辑部风。还有只是丢给它一个模糊的概念,或者一个主题,就能为我们生成一张风格迥异的信息图。

▲项目介绍 Demo

4K 壁纸的生成,街机游戏的真人体验,以及更符合品牌使用的各种 Logo 贴图小工具等,在 Google AI Studio 上都有提供现成的项目。

▲下着雪的金门大桥 4K 壁纸

我们用「无限英雄」这个小项目生成一段马斯克和奥特曼的连环画,在预览连环画的过程中,我们还能选择剧情的走向,来决定接下来的漫画内容。

▲生成的漫画下载后是 PDF 文件

不过目前 Nano Banana Pro 模型 API 并不是免费调用,所以 AI Studio 的这六个项目,都需要绑定支付方式才能使用。

但是,这些项目都提供了源代码,我们可以在他们的基础上进行修改。通过查看背后的代码,也能看到背后的提示词。

我们提取了其中一个项目的提示词,即输入链接生成四种风格的信息图。

首先我们可以使用下面的提示词,来对网页链接的内容进行总结,将其中的 ${url} 替换为实际的,需要分析的文章链接。${language} 则可以直接替换为 Chinese,以中文呈现。

You are an expert Information Designer. Your goal is to extract the essential structure from a web page to create a clear, educational infographic.
Analyze the content at this URL: ${url}
TARGET LANGUAGE: ${language}.
Provide a structured breakdown specifically designed for visual representation in ${language}:
1. INFOGRAPHIC HEADLINE: The core topic in 5 words or less (in ${language}).
2. KEY TAKEAWAYS: The 3 to 5 most important distinct points, steps, or facts (in ${language}). THESE WILL BE THE MAIN SECTIONS OF THE IMAGE.
3. SUPPORTING DATA: Any specific numbers, percentages, or very short quotes that add credibility.
4. VISUAL METAPHOR IDEA: Suggest ONE simple visual concept that best fits this content (e.g., “a roadmap with milestones”, “a funnel”, “three contrasting pillars”, “a circular flowchart”).
Keep the output concise and focused purely on what should be ON the infographic. Ensure all content is in ${language}.

得到这一部分的文章总结后,我们就可以开始图像生成。

Create a professional, high-quality educational infographic based strictly on this structured content plan:
${structuralSummary}
VISUAL DESIGN RULES:
– ${styleGuidelines}
– LANGUAGE: The text within the infographic MUST be written in ${language}.
– LAYOUT: MUST follow the “VISUAL METAPHOR IDEA” from the plan above if one was provided.
– TYPOGRAPHY: Clean, highly readable sans-serif fonts. The “INFOGRAPHIC HEADLINE” must be prominent at the top.
– CONTENT: Use the actual text from “KEY TAKEAWAYS” in the image. Do not use placeholder text like Lorem Ipsum.
– GOAL: The image must be informative and readable as a standalone graphic.

图像生成的提示词比较简单,我们把之前文章链接分析的结果,替换掉其中的 ${structuralSummary} 部分;然后 ${styleGuidelines} 的选择,可以从官方项目中,提到的四种风格里面任选一个。

有趣且充满玩乐的风格 Fun & Playful:styleGuidelines = STYLE: Fun, playful, vibrant 2D vector illustrations. Use bright colors, rounded shapes, and a friendly tone.

简约极简风格 Clean Minimalist:styleGuidelines = STYLE: Ultra-minimalist. Lots of whitespace, thin lines, limited color palette (1-2 accent colors max). Very sophisticated and airy.

深色模式科技风Dark Mode Tech:styleGuidelines = STYLE: Dark mode technical aesthetic. Dark slate/black background with bright, glowing accent colors (cyan, lime green) for data points.

现代编辑风 Modern Editorial:styleGuidelines = STYLE: Modern, flat vector illustration style. Clean, professional, and editorial (like a high-end tech magazine). Cohesive, mature color palette.

照着这种方法,我们把 Nano Banana Pro 发布的那篇文章丢给 Gemini,得到了下面这几张信息图。

官方下场,7 个生图技巧

除了用这种已经写好的提示词,Google 也是煞费苦心给了一份详细的 Nano Banana Pro 使用技巧,一方面是生怕我们不会操作,导致对模型的误会。另一方面,其实 Google 是希望 Nano Banana Pro 不单只是一个用来玩玩的生图模型,他们真的期待能提升我们的生产力。

提示词的重要性,对于要获取精准控制的内容来说,除了模型自身的能力,剩下的决定因素就是它了。Google 再一次提到,一个好的提示词,要明确的包括主题、构图、动作、地点、风格、和编辑说明。

用简短的语言描述画面的主体,例如,具体说明图片中的人或物是什么?在构图上,告诉模型,照片是如何取景的?是特写、广角镜头、低角度镜头、还是人像镜头等。

▲举个例子:一只戴着小巫师帽的毛茸茸的三色猫,在日落时分阳光普照的草地上,施展着它的魔法,低角度镜头,照片写实主义

接下来是描述动作,画面的主体正在发生什么?以及是在哪里发生,描述具体的场景。最后再确定我们想要的照片风格,例如,3D 动画、黑色电影、水彩画、照片写实主义、20 世纪 90 年代产品摄影等,不同的整体美学风格选择。

如果追求更可控的生图效果,Google 还提到了可以进一步完善相机、灯光和格式等细节,精细化提示词的内容。

例如现在的 Nano Banana Pro 支持自定义构图和宽高比,我们可以选择 9:16 竖版海报,21:9 电影宽镜头等画面。

此外,在摄影和灯光细节上,Google 给的参考提示是,像电影摄影师一样指导拍摄,具体的用词可以尽可能专业化,例如,「低角度拍摄,浅景深(f/1.8)、黄金时段逆光,营造长阴影、电影级调色,采用柔和的蓝绿色调」;等提示词用语。

▲举例:一只戴着小巫师帽的毛茸茸的三色猫,在日落时分阳光普照的草地上,施展着它的魔法,低角度镜头,浅景深(f/1.8)、黄金时段逆光营造长阴影、电影级调色,采用柔和的蓝绿色调。照片写实主义。21:9 电影宽镜头。标题「猫猫施法」以可爱的彩虹字体显示在顶部。

在针对文本处理任务时,需要明确说明,某段文本的内容和显示位置,以及这段文本对应的字体。针对图表信息图,要在提示词里面,明确告诉模型对准确性的要求,并且确保自己的输入时正确的。

涉及到多图参考和图像编辑,需要明确告知模型每张图片的作用,以及具体需要编辑的地方。

掌握了提示词公式只是基础,接下来就是一些官方推荐的,Nano Banana Pro 具体的应用场景。

1、让 AI 真的「写字」,而不是画鬼画符。以前 AI 画图最怕出现文字,出来的都是乱码,新模型在文字渲染上有了巨大提升。我们可以直接要求它生成海报标题、复杂的图表、或者详细的模型说明。

▲ 提示词:制作一张信息图,用中文展示如何制作老北京豆汁儿。

2、它是懂物理和历史的。基于 Gemini 3 的推理能力,这个模型拥有更丰富的世界知识,它可以生成逻辑严密的图表,或符合历史事实的场景。

3、最多支持 14 张图!超级融合大法。这大概是新模型最强悍的功能之一。它允许我们输入 6 到 14 张(具体数量可以要看不同的平台)完全不相关的图片,让 AI 将它们融合创造出全新的画面。

利用多图输入功能,我们可以让同一个角色,在不同场景中保持面部和特征的一致性,甚至是在群像中也能保持相似度。这非常适合去做一些连环画或者分镜。

▲提示词:将这些图像组合成一张 16:9 格式的适当排列的电影图像,并将模特身上的裙子换成图像中的裙子。

4、精确调整大小。尝试不同的宽高比,并在各种产品上生成 1K、2K 或 4K 分辨率的清晰视觉效果。

5、「指哪打哪」的精准修图。Google 把这叫做工作室级别的控制编辑,实现更专业的效果。

6、品牌设计神器:自动贴图。对于设计师来说,和初代 nano banana 相比,它的一致性保持能力更强。品牌公司可以让 AI 将对应 Logo、图案或艺术作品印在 3D 物体上,同时贴上去的 Logo,会自动调整到原图自然的光影和纹理。

7、跨语言无缝翻译,它不仅是一个生图工具,还能直接「翻译」图片里的文字。

▲提示词:将三个黄蓝罐头上的所有英文文字翻译成韩语,其他内容保持不变。

虽然 Nano Banana Pro 很强,但在官方文档里,他们也坦诚地列出了一些目前的局限性,大家使用时可以留意一下。主要是一些极小的文字渲染、复杂的拼写有时还是会出错。

另外,如果你用它生成数据图表或信息图,他们也提醒,一定要人工核对数据。AI 虽然有逻辑,但偶尔也会一本正经地胡说八道,毕竟 AI 幻觉有多严重,我们都有目共睹。

最后是在进行一些极其复杂的光照改变,或图像融合时,生成的图片,偶尔会出现不自然的伪影。

目前该模型已在 Gemini App 和 Gemin 网页版上线,而在 AI Studio 和 Vertex 平台则需要使用付费 API 才可以体验。

我们还搜集了一些能点开即用的平台,不需要付费订阅,和复杂的网络设置。

  • 海螺 AI(国内版 hailuoai.com,国际版 hailuoai.video)
  • Flowith(flowith.io、flowtith.net)
  • PixVerse(国内版 pai.video,国际版 pixverse.ai)
  • youmind.com(限时免费一周,注册就可用)
  • lovart.ai
  • banana.listenhub.ai
  • higgsfield.ai/image/nano_banana_2(免费用户每个月有 10 积分,每张 Nano Banana Pro 图片消耗两个积分)

感兴趣的朋友,不妨拿着上面的公式去试一试,新鲜有趣的玩法也欢迎在留言区评论。

最后,小彩蛋一个,The Beatles 这张经典的专辑封面照片,奥特曼、马斯克、老黄和小扎都来我们未来社「拍摄」了同款,这周末的 APPSO AIDONE 活动,你确定不来看看吗?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Gemini 3一句话打造拍立得应用刷屏!全网最火8个玩法都在这,看完秒上手

都在说 Gemini 3 这次炸翻天,年度最强,未来模型,除了拿下榜单第一,Gemini 3 到底能做点什么。

体验了一波之后,我发现最大的好处,是不需要到处去问,「你这个的提示词是什么?」

看到好玩的案例,无论是视频还是截图,统统丢给 Gemini 3,加一句「帮我做一个一模一样的出来」,Gemini 3 立刻就能复刻一个同款。提示词的时代,真的慢慢过去了。

就像这个在 X 很火的拍立得相机,它是用 Gemini 3.0 Pro 生成的一个项目,能调用设备的摄像头,然后生成一张拍立得风格的照片,在相纸上印有文案和拍摄日期。

▲ 体验地址:https://www.bubbbly.com/app/retro-camera.html|图片来源:X@ann_nnng

这种能直接和现实生活交互的效果,确实打破了之前 AI 一味的,只知道做一个单页应用的乏味。

当我们把这个视频直接发给 Gemini 3.0 Pro,它竟然也可以很快,就生成一个同款。并且在 Canvas 里面,还支持添加 Gemini 功能,因此我们这个拍立得,还有了 AI 识别摄像头画面,主动生成文案和选择滤镜的功能。

▲我输入的提示词只有让它增加多几种胶片模拟的风格。直接点击右下角的 Gemini,它会自动寻找,可以使用 Gemini 来完成的内容。

还有网友用 Gemini 3 直接做了一个诗歌探索器,让它每天提供一首诗,鼠标悬停时会解释每一行,并提供一些建议问题来进一步探索诗歌。

▲图片来源:X@raizamrtn

我特别喜欢这个简洁大方的设计,同样地,把这个录屏丢给 Gemini,当看到生成的效果时,我觉得 Gemini 3.0 Pro 太酷了。

▲提示词:上传已有视频,并加上「这是一个诗歌探索器,它每天提供一首诗,鼠标悬停时会解释每一行,并提供一些建议问题来进一步探索主题。然后我需要你根据这个视频,参考它的交互逻辑,UI 设计等等,帮我复刻一个同款诗词探索器,不过我要的是中国的古诗文、诗词歌赋。」

打开代码页,你还会惊喜地发现,Gemini 不仅搞定了前端 UI,甚至连调用 API 的系统提示词(System Prompt)都帮我们写好了。

你是一位博学的中国古文学家和美学鉴赏家。你的任务是为用户推荐一首中国古诗词(范围包括唐诗、宋词、元曲、诗经、楚辞、汉乐府等)。请不仅限于最著名的《静夜思》之类,多推荐一些意境深远、耐人寻味的佳作。

在这个过程中我们还可以同步让它进行修改,Gemini Canvas 有一个强大的功能,除了提到的「Add Gemini Feature(添加 Gemini 功能)」,还有一个是「Select and Ask(选择并提问)」,我们可以直接框选预览页面的某个组件元素,然后提问,Gemini 会自动修复这一部分。

这里我们让它添加一个分享生成照片的功能,以及修复之前点击我的收藏没有反应的问题。

▲使用的生图模型是 Imagen 3/4

这已经不是单纯的单页 HTML 文件,它需要 Gemini API 来同步完成诗歌的选择推荐,以及图片内容的生成。我相信这是目前无论哪个 AI 编程工具、或者 ChatGPT,都无法实现的强大功能。

Gemini 3 能创造的东西真的太多了,优雅的前端完全不必多说,这样的诗歌探索网页,色彩的搭配使用,元素的布局,放在哪里都是一流的设计。后端的能力,Gemini 不需要构建繁琐、有限的诗歌数据库,而是直接利用 AI 来获取不同的诗词。

而且,在对话里,我没有提到要求响应式设计,即手机、平板、和 PC 多种显示比例的同步,Gemini 3 还是帮我做到了,我们也可以在手机里直接看古诗文,同样调用 Gemini API。

▲ 手机上同样能点开网页,AI 发现新的诗歌,和生成图片

我们把同样的视频和提示词交给 ChatGPT,严重怀疑 ChatGPT 5.1 根本就没有看视频,而是完全依靠我输入的提示词来完成。无论是整体 UI 的风格,还有提示词里没有提到要写作者简介,ChatGPT 生成的内容就没有作者简介。

更大的问题,这不是一个能直接使用的产品,它生成的数据库里只有《静夜思》和《登鹳雀楼》两首诗,它也没有办法使用 OpenAI API 来完成诗歌的搜索获取。

当我提到「这个诗不应该是放在数据库里的,而是应该用 ChatGPT 自动搜索,不然我每次打开都是那几首诗诶」,整个项目就报错了,因为它需要我填入真实的 API

总而言之,如果用 ChatGPT,一个好的提示词还是少不了。

网上更火的 Gemini 3.0 Pro 测试,是有一个博主,在 Gemini 里面输入一句「Design a Capcut(设计一个剪映)」,然后只花了 239 秒,就复刻了一个能真实使用的剪映。完全不需要我们再打磨提示词,去详细列出应该做哪些功能,交互逻辑是如何,配色方案等;直接一句话搞定。

▲图片来源:X@lepadphone

还有相当一大部分的案例,是网友们都在谈的前端,即 Gemini 3.0 Pro 生成的网页,不仅摆脱了 AI 编程之前常见的渐变紫,还带来了耳目一新的大胆设计,就像是有个设计师在后台帮用户画初稿一样。

▲诸如此类「前端已死」的说法,在 Gemini 3.0 发布之后,X 上随处可见。

下面这些是网上热度比较高,由 Gemini 3.0 Pro 生成的前端页面例子。

一家人工智能公司的完整落地页。

▲提示词:You are the top 0.1% designer and developer for the world’s cutting-edge innovation on front-end design and development. You are tasked to create a full landing page with {Dither + Shaders} using {WebGL + ThreeJs} in the styling of an uploaded image for the AI company. – Focus mainly on the design part, not the development. Import all necessary files and libraries: Three.js、WebGL、GSAP、Any other animation libraries related to 3D development.|图片来源:X@natatatataat

下一代 AI 公司该有的美学追求和品味。

▲ 图片来源:X@eter_inquirer

一个双栏的响应式布局个人首页。

▲提示词:Create a hero section with a two-column responsive layout: left side has a large bold heading with orange accent highlights and star symbols, a tagline row with uppercase tags, and two CTA buttons (primary black, secondary white with border). Right side features a 3D animated orange star using React Three Fiber with slow rotation and float animations, orbit controls, and a subtle background glow. Include a top navigation bar with logo, menu items, and a “Let’s talk” button. Use Tailwind CSS for styling with a light gray background, generous spacing, and smooth hover transitions.|图片来源:X@karaan_dev

这些案例有的分享了提示词,当我们把这些提示词,通过 ChatGPT、Kimi、MiniMax 这些模型来处理时,得到的效果,都还是停留在我们的想象之中。

也有很多网友,趁着大家都在夸 Gemini 3 的前端,把一些自己设计的网页,包含复杂的动画效果和字体设计,也营销称是 Gemini 3 完成的,获得了一波流量之后,再去评论区留言说「没有提示词,这是我们团队手工做的。」

Gemini 3 + 前端,这一波热度谁都想蹭。在这些 Gemini 3.0 Pro 生成的前端精美、设计高级、交互友好的网页里面,大部分都用到了 3D 的效果,即使用 Three.js 库来完成网页设计。

深度学习经典花书的作者,Ian Goodfellow 在 Gemini 3.0 Pro 发布后,也是直接上传一张图片,生成一个 3D 的体素艺术场景,通过 Three.js 来测试它的多模态推理能力。

▲ 提示词:我提供了一张图片。请根据这张图片编写一个漂亮的体素艺术场景。使用 Three.js 编写单页应用程序。体验地址:https://aistudio.google.com/apps/bundled/image_to_voxel

他提到与 Gemini 2.5 的结果相比,Gemini 3 强大的多模态理解,和 3D 推理能力,大幅提升了生成内容的保真度

得益于内容保真度的提高,很多 3D 项目,现在都可以通过 Gemini 3.0 Pro 来完成。像这个完全交互式的 3D 地球仪,我们可以探索和收听,来自世界各地的广播电台。

▲图片来源:X@sahilypatel

眼尖的网友立刻就发现了,这不就是经典的 Radio.Garden 吗?作者也坦言确实在提示词中,提到了这个网站,要求复刻。但让我们惊讶的是,Gemini 3.0 Pro 只靠简单的几句指令,就完美重现了这个复杂的 3D 交互体验。

还有一些经典的 3D 单页项目,例如这个酷炫的 3D 魔方。

▲提示词:make me a spinning rubiks cube in threejs with a dark background. add exquisite amounts of realism and detail.|图片来源:X@aryanvichare10

以及各种需要 3D 图形和动画引擎的小游戏。

▲图片来源:X@TomLikesRobots

现在再看到这些有意思的项目,也不需要愁找不到提示词了,拿起手机录个屏,或者截几张图片,丢给 Gemini,要求它复刻,成功的几率大大提升。

毫不夸张地说,Gemini 3.0 Pro 展现出的能力,已经把其他模型彻底甩开了一个身位。

做程序员,它懂代码;做设计师,它审美时刻在线;做产品经理,它逻辑缜密。从 2D 到 3D,从模仿到创造,现在的 Gemini 3.0 Pro,已经不再需要我们用复杂、冗长的提示词,去引导它理解了,而是通过强大的多模态理解和推理能力,读懂并实现我们的需求。

这种「所见所想就能有所得」的震撼,确实配得上「年度最强」这个称号。

更让人按耐不住的是,据说今晚 nano banana 2、Gemini 3.0 Flash 也要来了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,年度最强 AI 登场!马斯克奥特曼点赞 Gemini 3,体验后我发现 ChatGPT 要慌了

就在刚刚,Gemini 3 Pro 预览版正式发布。

年底的 AI 圈向来不缺新闻,但今年格外喧嚣。如果不出意外,这将是 2025 年压轴登场、最令人期待的海外大模型,甚至可以说,Gemini 3 Pro 成了这个时间窗口唯一的主角。

过去两个月,Google 几乎复刻了 Sam Altman 的营销手法,从 Gemini 著名宣传委员 Logan Kilpatrick 到 CEO 皮查伊,内部人员不断在社交平台打哑谜,推波助澜,将外界对 Gemini 3 的期待值不断拔高。

有趣的是,OpenAI CEO Sam Altman 刚刚在 X 平台发文称:「恭喜谷歌成功推出 Gemini 3!!看起来是个很棒的模型。」

有着奥特曼的前车之鉴,谜语人玩法风险极大,一旦产品力不足,口碑会瞬间崩塌。但显然,谷歌对自己的产品充满自信。那么,Gemini 3 Pro 这次到底交出了什么答卷?

省流版如下:

  • Gemini 3 Pro 预览版原生多模态支持(文字、图像、视频、音频)
  • 在 LMArena 排行榜登顶,在推理、多模态、编程等主流测试中全面领先
  • 推理能力创纪录(GPQA Diamond 91.9%、MathArena Apex 23.4%)
  • 提供 Deep Think 增强推理模式(未来几周开放)
  • 100 万 token 上下文窗口 + 64K 输出
  • 推出全新 AI IDE:Google Antigravity,新模型已集成 Cursor、GitHub、JetBrains 等工具

无愧 Pro 之名,谷歌最强 AI 模型深夜发布

按照 Google 的说法,Gemini 3 Pro 是目前「最智能、最具适应性的模型」,专为解决现实世界中的复杂问题而设计——尤其是那些需要更高层次推理、创造力、战略规划以及逐步改进的任务。

它的典型应用场景包括:具备自主行为能力的应用、高级编程、超长上下文理解、跨模态处理(如文字、图像、音频的结合),以及算法开发等。

Gemini 3 Pro 预览版在 LMArena 排行榜上以 1501 分的成绩位列榜首, 在几乎所有主要 AI 基准测试中都远超上一代。更关键的是,它不仅能识别图像内容,还能理解其中的隐含信息和上下文关系。

具体来看, 推理能力方面, 它在「人类最后的考试(Humanity’s Last Exam)」中拿到了 37.5% 的博士级推理成绩,GPQA Diamond 测试达到 91.9%,MathArena Apex 创下 23.4% 的业界新纪录。

多模态推理方面,MMMU-Pro 得分 81%,Video-MMMU 得分 87.6%, SimpleQA Verified 事实准确率达到 72.1%。

这也意味着 Gemini 3 Pro 能在科学、数学等各种复杂问题上可靠地提供优质解答, 而且它的回复直接提供真实见解, 告诉你需要知道的, 而不只是你想听到的。

除了常规模式,Gemini 3 还提供了一个名为 Deep Think 的增强推理选项。

这个增强型推理模式在「人类最后的考试」中得分 41.0%,GPQA Diamond 提升至 93.8%, 在 ARC-AGI-2 测试中更是创造了 45.1% 前所未有的得分分数。

不过这个模式目前还在安全评估, 预计未来几周内向 Google AI Ultra 订阅用户开放。

测试数据之外,Gemini 3 在实际应用场景中的表现更值得关注。

比如你翻出家里那本手写的家族菜谱, 上面是奶奶用多种语言写的做法,Gemini 3 可以识别这些手写文字, 整理成可分享的菜谱书。

或者你想学习一个新领域, 它可以处理学术论文和长视频讲座, 生成交互式学习卡片。甚至, 它还能分析你打匹克球的比赛视频, 生成针对性训练计划。

这背后是因为 Gemini 从一开始就为多模态理解而设计,能够整合文字、图像、视频、音频和代码等多种信息类型, 加上高达 100 万 token 的上下文窗口和最大支持 64K 输出。

值得一提的是,Gemini 3 正式发布并首日集成进 Google 搜索。

它不仅显著提升搜索对复杂问题的理解与信息挖掘能力,还能根据查询即时生成动态视觉界面、互动工具与模拟系统,如三体物理模拟器或贷款计算器。

另外,根据谷歌发布的模型卡,Gemini 3 Pro 采用了基于 Transformer 的稀疏专家混合模型(MoE),原生支持文本、视觉和音频等多模态输入,这种架构的核心优势在于:模型会根据每个输入 token 的内容,动态选择激活部分参数,从而在计算资源消耗、服务成本与总容量之间实现平衡。

至于硬件层面,Gemini 3 Pro 使用 Google 自研的张量处理单元(TPU)进行训练。相比 CPU,TPU 在处理大语言模型所需的大规模计算时速度更快,且配备的大容量高带宽内存,让它能够处理超大模型和批量数据。

如果你是开发者,Gemini 3 带来的改变会更直接。

谷歌官方博客号称,Gemini 3 是目前最强的「vide coding」模型——你只需用自然语言描述想要什么, 它就能生成功能完整的互动应用。

数据很能说明问题:WebDev Arena 排行榜 1487 Elo,Terminal-Bench 2.0 得分 54.2%,SWE-bench Verified 得分 76.2%。

Google 这次还推出了全新 AI IDE:Google Antigravity。

内置的智能 Agent 可以自主规划和执行复杂的端到端软件任务, 并自动验证代码正确性。你想做一个航班追踪应用, 代理能够独立规划、编写代码, 并通过浏览器验证运行效果, 甚至可以同时在编辑器、终端和浏览器之间协同工作, 一气呵成。

在长期规划能力上,Gemini 3 在 Vending-Bench 2 榜单上位居第一。

实际应用中, 最新发布的 Gemini Agent 实验性功能可以从头到尾执行多步骤复杂流程。你说「整理一下我的收件箱」, 它就会帮你优先安排待办事项, 并起草邮件回复供你确认。

或者「查资料帮我预订一辆中型 SUV, 预算每天不超过 80 美元, 用我邮件里的信息安排下周出行」,Gemini 会定位航班信息, 对比租车选项, 为你准备预订流程。

整个过程中你始终掌握主动权,Gemini 会在重要操作前请求确认。

此外,在 Google AI Studio 和 Vertex AI 中, 通过 Gemini API 使用 Gemini 3 Pro 预览版的价格为:输入每百万 token 需要 2 美元, 输出每百万 token 需要 12 美元。在 Google AI Studio 中也可以免费使用, 但有调用限制。

Gemini 3 已集成至 Cursor、GitHub、JetBrains、Replit 等开发工具生态系统中。

伴随产品发布,Google 同步开放了多个使用入口。

从今天起,Gemini 3 预览版正在陆续上线:所有用户可在 Gemini 应用中使用;Google AI Pro 和 Ultra 订阅用户可在搜索的 AI 模式中体验;开发者可通过 Gemini API、Google Antigravity 和 Gemini CLI 访问;企业用户通过 Vertex AI 和 Gemini Enterprise 获取服务。

ChatGPT 的对手来了,Gemini 3 实测表现「能打」到什么程度?

当然,科技公司总是宣传大于实际,那么我们也上手测试了几个问题。

第一个挑战是让它在单个 HTML 文件中还原一台完整的 Game Boy 掌机, 内置《俄罗斯方块》《宝可梦红/蓝》等经典游戏, 所有操控必须同时支持键盘和触屏交互。

坦白说, 我对这个需求的期望值并不高。

这种需要同时处理 UI 设计、游戏逻辑、音效系统的任务, 即便是专业前端工程师也得花上几天时间。但 Gemini 交出的答卷出乎意料:交互界面达到了六七分的效果, 按键按下时还有标志性音效, 作为一次性生成的代码, 已经相当能打。

既然复古游戏机能跑起来, 我们继续加码。

▲ Design and create a web os like macOS full functional features from text editor , terminal with python and code editor and a game that can be played to dile manager to paint to video editor and all important windows os pre bundled software Use whatever libraries to get this done but make sure I can paste it all into a single HTML file and open it in Chrome.make it interesting and highly detail , shows details that no one expected go full creative and full beauty in one code block

我要求它用单个 HTML 文件复刻一个完整的 macOS 系统, 包括文本编辑器、终端、代码编辑器、文件管理器、画板、视频编辑器等预装软件。生成的结果虽然审美一般, 但核心交互逻辑都实现了。

除了编程能力, 我们也测试了它的视觉生成和推理能力。

参考 X 用户 @lepadphone 的做法, 我让 Gemini 用前端代码实现一个电扇的可视化效果,建议使用 SVG 技术来绘制,包含以下元素:扇叶、保护网罩、底座、控制按钮等结构细节,并实现扇叶旋转、调速等动态效果。生成的 SVG 不仅结构完整, 扇叶的旋转动画也很自然。

紧接着我又让它画一只鹈鹕骑自行车——这种不常见的组合对 AI 的空间想象力是个考验, 结果它生成的图形比例协调, 鹈鹕的姿态和自行车的透视关系都处理得不错。

▲提示词:Create code for an SVG of a pelican riding a bicycle as nicely as you can

在推理能力上,我用到了那道经典的猴子分桃问题,Gemini 答案不光对,也进行了二次验算。

「有 5 只猴子在海边发现 一堆桃子, 决定第二天来平分. 第二天清晨, 第一只猴子最早来到, 它左分右分分不开, 就朝海里扔了一只, 恰好可以分成 5 份, 它拿上自己的一份走了. 第 2,3,4,5 只猴子也遇到同样的问题, 采用了同样的方法, 都是扔掉一只后, 恰好可以分成 5 份. 问这堆桃子至少有多少只?」

更有意思的是, 我们还测试了它对「废话文学」的理解能力。

面对「懂者得懂其懂, 懵者终懵其懵, 天机不言即为懂, 道破天机岂是懂」这种故弄玄虚的文字游戏,Gemini 的处理方式很聪明:先定性为「废话文学」给你吃颗定心丸, 再挖掘背后的道家「有无」、佛家「色空」等文化梗, 最后给出人话翻译。这种回答比简单说「这是废话」要高明得多。

写作测试自然也没落下。

我们让 Gemini 用第一人称写「一滴雨水的一天」, 它交出了一篇散文诗:云端的拥挤与等待、下坠时的狂欢、融入河流的安宁。文中堆了不少感官细节——瑟瑟发抖的触感、霓虹灯折射的视觉、呼啸风声的听觉。情感真挚, 意象丰富, 虽然还有些「优秀范文」的套路痕迹, 但已经超出了及格线。

有一说一,抛却纸面参数,Gemini 3 的实际水平是有目共睹的,而谷歌能在短时间内追平甚至超越 OpenAI 数年的积累,更是离不开作为为数不多的全栈 AI 厂商的硬实力。

谷歌的优势显而易见:自研 TPU 系列处理器带来的算力自主权,加上全球最大的数据宝库——搜索索引、学术文献、YouTube 视频库,这些都为 Gemini 的训练提供了强大助力。这或许也解释了为什么它在处理实时信息、多语言任务、视频理解等场景时表现更稳。

而就在刚刚,DeepMind 开发者体验主管 Omar Sanseviero 在 X 上发文称,今晚只是「热身」,接下来还将有更多功能陆续上线。结合此前的种种传闻,外界期待已久的 Nano Banana 2 可能真的离我们不远了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Google 年度最强 AI 偷跑!一个电风扇动画引发疯传,Gemini 3要给GPT-5.1上强度了

前几天 nano banana 2 的泄漏版本,正在网上被疯狂转载,奥特曼眼看着流量不能被 Google 再抢了去,一点预告都没有,直接就发布了 GPT-5.1。

现在,GPT-5.1 都来了,Gemini 3.0 还会远吗。

Google CEO Sundar 和 Google AI Studio 负责人 Logan,都回复了一则关于 Gemini 3 的帖子,内容显示 Gemini 3 在预测市场的发布时间,有 69% 的用户买入了这个月 22 号的时间。

Google CEO 回了意味深长的思考 emoji,毕竟在预测市场 Polymarket 上,Gemini 3 的发布时间从 8 月 31 号到年底,都有人买入,而现在除了本月 22 号,月底 30 号更是累计有三百多万美元。

▲ 图片来源:https://polymarket.com/event/gemini-3pt0-released-by?tid=1763343187680

种种迹象显示,Gemini 3.0 很有可能就在最近这周发布,并且还有机会和 nano banana 2 一起发布。它们一个是在编程、智能体、写作等通用智能上更上一层楼,另一个是延续图像编辑的强大一致性和长文本渲染。

不敢想象年底的 AI 模型更新会有多激烈。

我们之前也汇总过关于 Gemini 3.0 和 nano banana 2 的爆料,那时的 Gemini 3.0 是出现在 Google AI Studio 的 A/B 测试中,能直接给我们生成一个 macOS 的云电脑,点开 Safari 还可以直接访问网页。

▲瑞典风格的网页设计,图片来源:X@RDeepl

而最近这段时间爆出来 Gemini 3.0 的料,一个比一个厉害。指令的理解能力更强,在编程项目中展示了丰富的世界知识,还有生成的网页,风格更多元也更大胆,更实用。

大模型竞技场上的神秘模型

在大模型竞技场上,又多了一个编号为 riftrunner 的神秘模型,有网友在 battle 对战模式下,刚好测试到了它的效果。用它生成的 SVG 动画,一个比一个厉害。

下面这个能调节风速档位的电风扇,在 X 上被疯狂转载,大家都不相信 AI 有这么聪明,只用一句提示词,就能做出精美的 SVG。

▲图片来源:X@lepadphone

他还用这个编号为 riftrunner 的模型,生成了一个能同步真实时间,切换表盘颜色的手表动画 SVG。

和之前 nano banana 一开始出现在模型竞技场一样,网友们都在怀疑这个 riftRunner 就是 Google 马上要发布的 Gemini 3.0。

要想体验到它,我们不能手动选择,必须在竞技场 battle 模式中随机获得。battle 模式会给我们两个不同的答案,投票后才能知道型号名称。

为了减少反复尝试的痛苦,Flowith 的创始人还发 X,分享了通过设置浏览器 Agent 来自动投票,更快找到 riftrunner 的方法。

我们也在 LMArena 里面测试了多次,都没有碰到过 riftrunner,大概是运气都在我抽 nano banana 那会儿花光了。

继续在网上找了更多网友的分享,有人说 riftrunner 不失所望,是唯一一个解出下面这道数学难题的模型。

▲图片来源:X@Abasiono_Mbat

还有人在竞技场不断测试,做一个狐狸模型,得到了 riftrunner(Gemini 3)、Claude 4.5、以及 GPT-5 的三种对比。

▲图片来源:X@k0tovsk1y

还有应该选 both are bad,两个都很差的蒙娜丽莎 SVG 画像,即便是 riftrunner 看着也很怪,但至少又比 Claude 有更多关于蒙娜丽莎的元素。

▲左图为 riftrunner,右图为 Sonnet 4.5;图片来源:X@petergostev

以及 riftrunner 生成的,一只骑自行车的鹈鹕的 SVG。

▲图片来源:X@synthwavedd

藏在了手机端 Gemini App 的 Canvas 功能里

还有网友说,现在 Gemini App 里面的 Canvas 功能,使用的模型就已经是 Gemini 3.0 了。因为在网页端的 Gemini 和手机端,输入同样的提示词,得到的输出,质量差距很大。

▲图片来源:https://www.reddit.com/r/Bard/comments/1ovvmjo/not_hype_posting_gemini_3_is_rolling_out_to/

于是一大波网页版和手机端的对比,纷纷出现在评论区,大家都认可了,手机上的 Canvas 真的是使用了更先进的 Gemini 3.0。

最直观的例子是这个 3D 宝可梦的动图,在 Web 端生成的 3D 动图背景简单,宝可梦的形象也很抽象;手机端的色彩、背景都做的更好。

▲图片来源:X@AiBattle_

还有网友做的 Gemini 和外星人入侵的对抗的 SVG,网页版继续一如既往的简陋,而在手机上的 Canvas 明显元素更多,更丰富。

▲左图为网页版,右图为手机应用版。图片来源:X@Lentils80

以及拿手机应用中的 Canvas 和 Claude 4.5 Sonnet 来对比,输入的提示词都是,一个 3D 宝可梦精灵球。

▲图片来源:X@ctgptlb

还有人拿 Xbox 手柄 SVG 图来做测试,iOS 手机应用里的 Canvas 和 浏览器里的网页版,是完全不同。

▲左边是手机应用,右边是网页版;图片来源:X@MaximilanS638

不过,也有用户分享自己 Gemini 手机端和网页端,出来的结果是一模一样的。

▲左图为网页版,右图为手机应用版。图片来源:X@Medeenatee

我也尝试输入「生成一个 Xbox 的手柄 SVG 图」来看看两遍的结果,但是都很不理想。要不是根本不像一个手柄的图,要不然就是键位这些全部错乱。

只能说模型会出现幻觉,我们人类也可能有幻觉。大模型竞技场的神秘代号模型,还有这种靠着观察输出差异的怀疑,都不能确定是否来自 Gemini 3.0。

更确定的信息是,有网友发现,Gemini 3.0 Pro 已经出现在 Gemini Enterprise 的 Agent 模型选择器中。

▲图片来源:X@testingcatalog

不过 Gemini Enterprise 也是不对一般的用户开放,但至少可以说 Gemini 3.0 真的距离发布不远了,或者说已经准备好了。

回看过去这一年来,几家大模型公司的发布记录,GPT-5 因为营销太多被诟病,发布后网友们表示熬了这么久,「就这」;还有在社交媒体一直没什么水花,但模型广受好评的 Claude 系列;现在是后发制人,凭着 nano banana 重新回到大家视野的 Gemini。

甚至在想,如果没有 nano banana,会不会还有人只记得它之前的名字,叫 Bard。

SimilarWeb 在前几天了公布了,各个大模型网页流量的统计数据,一年前 OpenAI 的网页访问流量占比是 86.6%,到了今天虽然还稳居首位,但是已经被瓜分走了相当一部分,只剩下 72.3%。

而被分走的流量基本上全去到了 Gemini,Gemini 从一年前只有 5.6%,在 nano banana 发布之后,冲到了现在的 13.7%,直接翻倍。

要是 Gemini 3 和 nano banana 2 能稳住,再接着这波流量,下个季度的柱状图,Gemini 的颜色可能还要占据更多。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


如何防止 gmail 邮箱有一天无法访问了?毕竟绑定了太多东西

zictos:

我有一个谷歌账号,特意试了一下远程登录,想看看需要哪些验证方式。尝试后发现,虽然要求额外验证,但可以选择通过输入完整的手机号码进行验证(无需验证码)。这可能是因为我之前绑定过手机号,后来又解绑了。虽然我有绑定备用邮箱,但并没有要求验证。

1. 半个月后登录发现问题:

  • 半个月后在常用电脑登录时,谷歌要求绑定手机号码。
  • 绑定手机号并成功登录后,进入账号中心的安全性活动,发现该账号在半个月前已经停用,直到这次登录才显示已恢复。
  • 停用状态和一般需要申诉的停用不同,但这种停用方式也会导致邮箱无法接收邮件,设置的自动转发也会暂时失效。

2. 后续措施:

  • 为了加强安全性,我绑定了身份验证器,并获取了备用验证码(备用验证码仅能替代身份验证器验证码,无法替代手机验证码)。之后我尝试在本机的其他全新的浏览器进行登录,看是否可以不用手机验证码。确实没有要求手机验证码,只要身份验证器验证码就行。

3. 过了一两天再次访问:

  • 过了一两天在常用电脑的常用浏览器访问时再次提示登录,即便提供了身份验证器的验证码,依然必须输入手机验证码,而且手机验证码是唯一可选项。登录成功后,在账号安全活动中再次看到该账户的“已恢复”状态,证明账号又一次被停用。

4. 后续每次访问都要重新登录和验证:

  • 后来发现每次在同一浏览器登录时,都需要重新输入密码、身份验证器验证码和手机验证码。手机验证码是必选项,没有其他验证方式可选。
  • 重复验证两次左右后,大约在第三次时,系统提示“验证码获取达到上限”,所以我就没管了。

5. 最后的结果:

  • 大约半个月后(今天),再次登录时,系统提示账号已被停用,并要求申诉。这次是真正的停用
  • 我觉得微软邮箱似乎更灵活,好像可以不需要绑定任何安全工具,即便绑定了,在新设备登录时使用邮箱、身份验证器、手机号的任意一个都可以用于验证,并且在验证工具不可用时有明确的恢复流程,只是提示需要等待 30 天,具体需要提供哪些信息没尝试。并且还可以获取账户恢复代码,意味着只要有账户恢复代码就可以恢复账号。

地球快养不起 AI 了,谷歌英伟达被逼上太空,结果便宜了马斯克

刚刚,Google 正式启动数据中心登月计划,打算把自己的算力都放到太空。他们还给这个计划起了个很酷的名字,叫做 Project Suncatcher,太阳捕手计划。

Google 的想法很简单,与其在地球上争抢日渐枯竭的资源,不如去太空中直连太阳能。这个全新的登月计划,目标也只有一个,在太空中建立一个由太阳能驱动的、可扩展的 AI 基础设施

前些天,OpenAI 的 CEO 奥特曼和微软 CEO Satya Nadella 纳德拉,在播客节目上表示,

我今天的问题不是芯片供应问题;事实是,我没有足够的暖壳(warm shells)来插入它们。

听着相当凡尔赛,毕竟在这场 AI 浪潮之前,我们一直以为算力就是一切。

▲奥特曼和纳德拉

但就像奥特曼在节目里面说,AI 的未来,更多地需要能源上的突破,订购的 AI 芯片太多,配套的数据中心和电力跟不上也是白搭。

AI 耗电有多离谱,根据国际能源署 (IEA) 的数据,到 2030 年,全球数据基础设施的耗电量,预计将与整个日本的国家耗电量相当。

不只是电,还有水。世界经济论坛的数据显示,一个 1 兆瓦的数据中心,每天消耗的水量,与大约 1000 名发达国家居民的用水量相同。

▲一块英伟达 H100 芯片的最高功耗可达到 700W,大约是家用微波炉的功耗,而一个数据中心的 H100 显卡数量是以万为单位,且不间断运行

而就在最近五年,数据中心的需求开始狂飙,但增长速度已经远远超过了,规划新发电能力的速度。

Google 为了解决同样的问题,他们的计划,是发射一个由太阳能驱动、搭载 Google 自研 TPU 芯片(用于计算,类似英伟达的 GPU)的卫星星座,在太空中组建一个「轨道 AI 数据中心」

太空一定比地球更便宜、更高效吗?

为什么是太空?Google 的理由简单粗暴。

1、8 倍效率: 如果搭载芯片的卫星,在正确的轨道上,太阳能板的效率是地球的 8 倍。

2、7*24 不间断供电: 太空没有黑夜和云层,对比地球上的太阳能板,可以持续产生电力。

▲ 马斯克发 X 说太空的 AI 卫星能保护地球

3、零资源消耗: 在太空,数据中心不需要消耗地球有限的土地,也无需消耗大量水资源做冷却工作。

▲ 苹果、华为、腾讯、以及移动等公司在贵州设立数据中心,图片来源:新华社

目前地球上的数据中心,越来越接近能源瓶颈,建在冰岛、挪威,是为了冷;建在内华达沙漠,是为了电。像在国内,多数大厂的数据中心都放在贵州、宁夏中卫等,靠环境来降温。

但是太空的环境,远比地球复杂。Google 在自己的研究论文里面,详细提到目前遇到的难点,以及用于应对的方法。

让 AI 「登天」,Google 要解决三大难题

难题一:太空「局域网」?

AI 训练需要海量芯片协同作战,彼此间的连接带宽和延迟要求极高。在地球上我们可以用光纤实现数据的高速传输,在太空怎么办?

Google 的方案:编队飞行 + 激光通信。

他们计划让卫星「飞得非常近」,彼此相距仅公里级或更近。

在他们一个 81 颗卫星的模拟星座中,每颗卫星都配有太阳能阵列、辐射冷却系统,以及高带宽光学通信模块;且卫星间的距离仅在 100-200 米之间动态变化

在如此近的距离上,它们可以通过自由空间光通信(FSO ISL,Free-Space Optical Inter-Satellite Links),实现高速互联。Google 在论文中透露,他们的演示已经成功实现了 1.6 Tbps 的双向传输速率

难题二:宇宙「辐射」?

太空环境极其恶劣,太阳在提供能源的同时,也喷射出致命的高能粒子(辐射),这对尖端芯片直接是毁灭性打击。

▲ 图源 NASA

Google 的方案:硬扛。

他们把自家的 Cloud TPU v6e (Trillium) 芯片送进了实验室,用 67 MeV 的质子束轰击它。

结果是「惊人地抗辐射 (surprisingly radiation-hard)」,TPU 最敏感的高带宽内存 (HBM),在承受了 2 krad(Si) 的剂量后才开始出现异常,这几乎是 5 年任务预期辐射剂量(750 rad(Si))的近 3 倍。

这意味着 Google 的 TPU 可在低地轨道连续运行 5 年,无永久损伤。

Google 计划在 2027 年前与 Planet 公司合作,发射两颗原型卫星,测试实际运行环境

▲ Planet 公司官网,主要从事卫星图像和地球数据的分析

难题三:数据回传

在太空上,各个 GPU 之间的数据传输是做到了快速高效,但是就算在太空算完了,数据怎么高速传回地球?

这是一个 Google 在论文中承认、尚待解决的重大挑战。

延迟问题: Google 选择的「晨昏同步轨道」,虽然太阳能拉满,但论文承认这将会增加到某些地面位置的延迟。

带宽瓶颈: 目前的「地-空」光通信的最高纪录,还是 NASA 在 2023 年创下的 200 Gbps

200 Gbps 听起来很快,但对于一个太空 AI 数据中心来说,这根水管远远不够用。

然而,在所有这些(局域网、辐射、地面通信)高难度的技术挑战之上,还压着一个最根本、最致命的障碍,它决定了前面的一切是否值得去解决,上天成本

这曾是最大的障碍,把一公斤重的东西送上天,曾经比同等重量的黄金还贵。

▲ 一系列低地轨道卫星的发射费用对比

Google 在论文中计算过一笔账,如果 SpaceX 的发射成本能降到 $200/kg(预计 2035 年左右),则太空数据中心的单位功率成本,能与地面数据中心持平,约 $810/kW/年,与美国本土数据中心的 $570–3000/kW/年区间完全重叠。

换句话说,当火箭便宜到一定程度,太空就会比地球更适合建数据中心。

然而,现实是目前的发射价格,是这个理想价格的十倍以上。

谁能让这件事发生?SpaceX

Google 在他们的论文里,明确采用了 SpaceX 的学习曲线假设:每当总发射质量翻倍,单位发射成本下降 20%

▲ 自首次成功发射猎鹰 Falcon 1 号以来,按最低实现价格计算的 SpaceX 有效载荷质量,针对不同类别火箭逐步变化

从 Falcon 1 到 Falcon Heavy,SpaceX 已把发射成本从 $30000/kg 降到 $1800/kg;而 Starship 的目标,是 10× 可重复使用率下的 $60/kg,极限情况下可降到 $15/kg。

这意味着,SpaceX 很有可能成为支撑 Google 太空数据中心经济模型的公司。

如果说英伟达垄断了地球上的 GPU,那么 SpaceX,将来就可能垄断太空中的算力空间。

在地球上,英伟达卖 GPU;在太空里,SpaceX 卖轨道。

就在 Google 发布论文的几天前,11 月 2 日,英伟达强大的 H100 GPU 已经「首次」被送入太空

这颗 H100 被搭载在一家名为 Starcloud 的初创公司的卫星上,其在轨算力比以往任何太空计算机强 100 倍。

▲Starcloud 创办于 2024 年,诞生之初就是致力于在太空建立数据中心,获得了英伟达、YC 等投资。

它们的任务更直接,在轨实时处理数据。Starcloud 的 CEO 举例:一颗 SAR(雷达成像)卫星的原始数据极其庞大,与其下载数百 GB 的原始数据,不如在轨用 H100 分析,只传回 1KB 大小的结果,比如「一艘船在某位置,速度 多少」。

而当被问到这一切如何实现时,Starcloud 的 CEO 同样指向了马斯克:他们的愿景,完全依赖于「SpaceX Starship 带来的成本降低」

搭载了英伟达 H100 GPU 的 Starcloud-1 卫星,正是通过马斯克的 SpaceX,Bandwagon 4 Falcon 9 航班发射升空的。

过去五年,英伟达一次次刷新最高市值记录,关键在于它提供了最强的算力单元(GPU);它掌控了 CUDA(英伟达通用计算平台)生态,形成软件锁定;它成为所有 AI 公司(OpenAI、Anthropic、Google)的算力上游。

而在太空算力时代,这三点都可能都将被重新分配,那个时候,算力空间才是下一个红利。

AI 的极限,也许才刚刚开始。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


谷歌账号异常迁移至美区,并获得 AI Pro 等优待:是否存在“白名单”机制?

GoogolChrome111:

各位好,想请教一个我至今没想明白的情况。

我的 Google 账号是在欧洲注册、中国大陆长期使用的,手机号也是中国大陆号。 然而在 2024 年 8 月 7 日晚间,我突然收到官方邮件,通知我账号“将迁移至美国加州区域”。邮件确实来自 Google 官方域名,当时我甚至一度以为是诈骗邮件。

后来我发现,这次迁移并非系统误判,而是真实生效了:

Play 商店、账号区域、隐私条款全都显示为 “United States (California)”;

我的账号在 未绑定任何美国信用卡或教育邮箱的情况下,获得了 Google AI Pro 会员资格;

当时( 2025 年 6 月 12 日)我领取时,官方页面写“赠送三个月”,但我的 Pro 到期日是 10 月 13 日,也就是多赠送了一个月;

目前即使已到期,我仍然可以重新领取一个月新的免费周期;

我尝试让朋友使用相同 VPN 、相同 IP 领取同样的 AI Pro ,系统一律拒绝,仅我能成功。

我个人并不是计算机行业,也从未修改账号地区或伪装资料。 综合这些迹象,我倾向认为:

这一系列现象不是单纯的定位误差,而可能是 Google 在某段时间主动将一部分“高潜力用户”迁移至美区,以便未来能完整享受 AI 产品生态。

当然,这只是我的推测。 想问问有没有其他人遇到过类似情况?或者了解 Google 在账号区域管理、隐私合规上的操作逻辑? 是否存在一种“白名单”或“例外迁移”机制,用于特定用户的实验性策略?

(如有需要我可以打码附上那封迁移通知邮件截图。)

Perplexity Pro x PayPal 福利:免费领取一年订阅(价值 ¥1450)

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

AI 搜索公司 Perplexity 与支付平台 PayPal 达成全球合作,为符合条件的 PayPal 用户提供为期一年的 Perplexity Pro 免费订阅资格,价值 200 美元(约人民币 1450 元),并包含其 AI 浏览器 Comet 的优先体验权。

Perplexity Pro 与 PayPal 合作

活动链接https://www.perplexity.ai/join/p/paypal-subscription

为防止一年后产生 200 美元的年费,强烈建议领取成功后,立即通过以下任一方式取消自动续订。取消后,Pro 会员资格仍会完整保留一年。

在 Perplexity 官网取消

PayPal 后台取消

Anthropic 官方团队分享如何利用 Claude Code

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Anthropic 的内部团队正在利用 Claude Code 彻底改变他们的工作流程。无论是开发者还是非技术人员,都能借助它攻克复杂项目、实现任务自动化,并弥补那些曾经限制生产力的技能鸿沟。

为了深入了解,我们采访了以下团队:

通过这些访谈,我们收集了不同部门使用 Code 的方式、它对工作带来的影响,以及为其他考虑采用该的组织提供的宝贵建议。

数据基础设施团队负责为公司内所有团队整理业务数据。他们使用 Code 来自动化常规的数据工程任务、解决复杂的基础设施问题,并为技术和非技术团队成员创建文档化工作流,以便他们能够独立访问和操作数据。

利用截图调试 Kubernetes

当 Kubernetes 集群出现故障,无法调度新的 pod 时,团队使用 Code 来诊断问题。他们将仪表盘的截图喂给 Claude Code,后者引导他们逐个菜单地浏览 Cloud 的用户界面,直到找到一个警告,指出 pod 的 IP 地址已耗尽。随后,Claude Code 提供了创建新 IP 池并将其添加到集群的确切命令,整个过程无需网络专家的介入。

为财务团队打造纯文本工作流

工程师向财务团队成员展示了如何编写描述其数据工作流程的纯文本文件,然后将这些文件加载到 Claude Code 中,以实现完全自动化的执行。没有任何编程经验的员工只需描述“查询这个仪表盘,获取信息,运行这些查询,生成 Excel 输出”等步骤,Claude Code 就能执行整个工作流,甚至会主动询问日期等必要输入。

为新员工提供代码库导览

当新的数据科学家加入团队时,他们会被指导使用 Claude Code 来熟悉庞大的代码库。Claude Code 会阅读他们的 Claude.md 文件(文档),识别特定任务所需的相关文件,解释数据管道的依赖关系,并帮助新人理解哪些上游数据源为仪表盘提供数据。这取代了传统的数据目录和发现

会话结束时自动更新文档

在每项任务结束时,团队会要求 Claude Code 总结已完成的工作并提出改进建议。这创建了一个持续改进的循环:Claude Code 根据实际使用情况帮助优化 Claude.md 文档和工作流指令,使后续的迭代更加高效。

跨多个实例并行管理任务

在处理耗时较长的数据任务时,团队会为不同项目在不同的代码仓库中打开多个 Claude Code 实例。每个实例都能保持完整的上下文,因此即使在数小时或数天后切换回来,Claude Code 也能准确地记住他们当时正在做什么以及任务进行到哪里,从而实现了无上下文丢失的真正并行工作流管理。

无需专业知识即可解决基础设施问题

解决了通常需要系统或网络团队成员介入的 Kubernetes 集群问题,利用 Claude Code 诊断问题并提供精确的修复方案。

加速新员工上手

新的数据分析师和团队成员无需大量指导,就能迅速理解复杂的系统并做出有意义的贡献。

增强支持工作流

Claude Code 能够处理比人类手动审查大得多的数据量,并识别异常情况(例如监控 200 个仪表盘),这是人力无法完成的。

实现跨团队自助服务

没有任何编程经验的财务团队现在可以独立执行复杂的数据工作流。

编写详细的 Claude.md 文件

团队表示,你在 Claude.md 文件中将工作流程、和期望文档化得越好,Claude Code 的表现就越出色。当你拥有现成的设计模式时,这使得 Claude Code 在设置新数据管道等常规任务上表现卓越。

处理敏感数据时使用 服务器而非命令行界面

他们建议使用 服务器而不是 BigQuery 命令行界面,以便更好地控制 Claude Code 的访问权限,尤其是在处理需要日志记录或存在潜在隐私问题的敏感数据时。

分享团队使用心得

团队举办了分享会,成员们互相演示他们使用 Claude Code 的工作流程。这有助于传播最佳实践,并展示了他们自己可能没有发现的各种工具使用方法。

Claude Code 产品开发团队使用自家的产品来为 Claude Code 构建更新,扩展产品的企业级功能和 AI 智能体循环功能。

通过“自动接受模式”快速构建原型

工程师们通过启用“自动接受模式”(Shift+Tab)并设置自主循环,让 Claude 编写代码、运行测试并持续迭代,从而实现快速原型开发。他们将自己不熟悉的抽象问题交给 Claude,让它自主工作,然后在接手进行最后润色前,审查已完成 80% 的解决方案。团队建议从一个干净的 git 状态开始,并定期提交检查点,这样如果 Claude 跑偏了,他们可以轻松回滚任何不正确的更改。

同步编码开发核心功能

对于涉及应用程序业务逻辑的更关键功能,团队会与 Claude Code 同步工作,提供带有具体实现指令的详细提示。他们实时监控过程,确保代码质量、风格指南合规性和正确的架构,同时让 Claude 处理重复的编码工作。

构建 Vim 模式

他们最成功的异步项目之一是为 Claude Code 实现 Vim 快捷键绑定。他们要求 Claude 构建整个功能,最终实现中大约 70% 的代码来自 Claude 的自主工作,只需几次迭代即可完成。

生成测试和修复 bug

在实现功能后,团队使用 Claude Code 编写全面的测试,并处理在代码审查中发现的简单 bug。他们还使用 GitHub Actions 让 Claude 自动处理像格式问题或函数重命名这样的 Pull Request 评论。

代码库探索

在处理不熟悉的代码库(如 monorepo 或 API 端)时,团队使用 Claude Code 来快速理解系统的工作方式。他们不再等待 Slack 上的回复,而是直接向 Claude 提问以获取解释和代码参考,从而大大节省了上下文切换的时间。

更快的功能实现

Claude Code 成功实现了像 Vim 模式这样的复杂功能,其中 70% 的代码由 Claude 自主编写。

提升开发速度

该工具可以快速构建功能原型并迭代创意,而不会陷入实现细节的泥潭。

通过自动化测试提高代码质量

Claude 生成全面的测试并处理常规的 bug 修复,在减少手动工作的同时保持了高标准。

更好的代码库探索

团队成员可以快速熟悉 monorepo 中不熟悉的部分,而无需等待同事的回复。

创建自给自足的循环

设置 Claude 通过自动运行构建、测试和代码检查来自己的工作。这使得 Claude 可以更长时间地自主工作并发现自己的错误,尤其是在你要求 Claude 在编写代码之前先生成测试时效果更佳。

培养任务分类的直觉

学会区分哪些任务适合异步处理(外围功能、原型设计),哪些需要同步监督(核心业务逻辑、关键修复)。产品边缘的抽象任务可以用“自动接受模式”处理,而核心功能则需要更密切的监督。

编写清晰、详细的提示

当组件具有相似的名称或功能时,你的请求要极其具体。提示越好、越详细,你就越能信任 Claude 独立工作,而不会对代码库的错误部分进行意外更改。

安全工程团队专注于保障软件开发生命周期、供应链安全和开发环境安全。他们广泛使用 Claude Code 来编写和调试代码。

复杂基础设施调试

在处理事故时,他们将堆栈跟踪和文档喂给 Claude Code,并要求它在代码库中追踪控制流。这大大缩短了生产问题的解决时间,使他们能够在大约 5 分钟内理解问题,而手动扫描代码通常需要 10-15 分钟。

Terraform 代码审查与分析

对于需要安全审批的基础设施变更,团队将 Terraform 计划复制到 Claude Code 中,并提问“这会做什么?我会后悔吗?”。这创建了更紧密的反馈循环,使安全团队能够更快地审查和批准基础设施变更,减少了开发过程中的瓶颈。

文档综合与操作手册

Claude Code 吸收多个文档来源,创建 Markdown 格式的操作手册、故障排除指南和概述。团队将这些精简的文档作为调试实际问题的上下文,创建了比在完整知识库中搜索更高效的工作流程。

测试驱动开发工作流

他们摒弃了以往的“设计文档 → 粗糙代码 → 重构 → 放弃测试”模式,现在他们要求 Claude Code 提供伪代码,引导其进行测试驱动开发,并定期检查以在卡住时进行引导,从而产出更可靠、更易于测试的代码。

上下文切换与项目上手

在为现有项目(如用于安全审批工作流的 Web 应用“dependant”)做贡献时,他们使用 Claude Code 来编写、审查和执行存储在代码库中的 Markdown 格式的规范,从而能够在几天内做出有意义的贡献,而不是花费数周时间。

缩短事故解决时间

通常需要 10-15 分钟手动代码扫描的基础设施调试现在大约需要 5 分钟。

改进安全审查周期

需要安全审批的 Terraform 代码审查速度大大加快,消除了开发人员在等待安全团队批准时的阻塞。

增强跨职能贡献

团队成员可以在几天内为项目做出有意义的贡献,而不是花费数周时间来建立上下文。

更好的文档工作流程

从多个来源综合而成的故障排除指南和操作手册创建了更高效的调试过程。

广泛使用自定义斜杠命令

安全工程团队使用了整个 monorepo 中 50% 的自定义斜杠命令实现。这些自定义命令简化了特定的工作流程,并加快了重复性任务的速度。

Claude 先说

他们不再通过提出有针对性的问题来生成代码片段,而是告诉 Claude Code “边做边提交你的工作”,让它在定期检查的情况下自主工作,从而得到更全面的解决方案。

利用它进行文档处理

除了编码,Claude Code 还擅长综合文档和创建结构化输出。团队提供写作样本和格式偏好,以获得可立即在 Slack、 Docs 和其他工具中使用的文档,避免界面切换带来的疲劳。

推理团队负责管理在 Claude 读取你的提示并生成回复时存储信息的内存系统。团队成员,尤其是那些刚接触机器学习的人,可以广泛使用 Claude Code 来弥补知识差距并加速他们的工作。

代码库理解与新员工上手

在加入一个复杂的代码库时,团队严重依赖 Claude Code 来快速理解其架构。他们不再手动搜索 GitHub 仓库,而是询问 Claude 哪些文件调用了特定的功能,几秒钟内就能得到结果,而不是向同事求助或手动搜索。

包含边界情况的单元测试生成

在编写完核心功能后,他们要求 Claude 为其编写全面的单元测试。Claude 会自动包含被遗漏的边界情况,在几分钟内完成通常需要大量时间和精力的工作,就像一个他们可以审查的编码助手。

机器学习概念解释

没有机器学习背景的团队成员依赖 Claude 来解释模型特定的函数和设置。过去需要一个小时谷歌搜索和阅读文档的工作,现在只需 10-20 分钟,研究时间减少了 80%。

跨语言代码翻译

在用不同编程语言测试功能时,团队向 Claude 解释他们想要测试的内容,Claude 就会用所需的语言(如 Rust)编写逻辑,从而无需为了测试目的而学习新语言。

命令记忆与 Kubernetes 管理

他们不再需要记住复杂的 Kubernetes 命令,而是向 Claude 询问正确的语法,比如“如何获取所有 pod 或部署状态”,然后就能收到他们基础设施工作所需的确切命令。

加速机器学习概念学习

有了 Claude Code,他们的研究时间减少了 80%,历史上需要一个小时谷歌搜索的工作现在只需 10-20 分钟。

更快的代码库导航

该工具可以帮助团队成员在几秒钟内找到相关文件并理解系统架构,而不是依赖同事在几天内分享知识。

全面的测试覆盖

Claude 自动生成包含边界情况的单元测试,在保持代码质量的同时减轻了精神负担。

消除语言障碍

团队可以在不熟悉 Rust 等语言的情况下实现功能,而无需学习它。

首先测试知识库功能

尝试问各种问题,看看 Claude 能否比谷歌搜索更快地回答。如果它更快、更准确,那么它就是你工作流程中一个宝贵的时间节省工具。

从代码生成开始

Claude 具体的指令,让它编写逻辑,然后其正确性。这有助于在将其用于更复杂的任务之前,建立对该工具能力的信任。

用它来编写测试

Claude 编写单元测试可以极大地减轻日常开发工作的压力。利用这个功能来保持代码质量,而无需花费时间手动思考所有测试用例。

数据科学和机器学习工程团队需要复杂的 可视化工具来理解模型性能,但构建这些工具通常需要不熟悉的语言和框架的专业知识。Claude Code 使这些团队能够构建生产质量的分析仪表盘,而无需成为全栈开发人员。

构建 JavaScript/TypeScript 仪表盘应用

尽管对“JavaScript 和 TypeScript 知之甚少”,团队仍使用 Claude Code 构建了完整的 React 应用,用于可视化强化学习(RL)模型的性能和训练数据。他们让 Claude 控制从头开始编写完整的应用程序,比如一个 5000 行的 TypeScript 应用,而无需自己理解代码。这一点至关重要,因为可视化应用相对上下文较少,不需要理解整个 monorepo,从而可以快速构建原型工具,以便在训练和评估期间了解模型性能。

处理重复的重构任务

当遇到合并冲突或半复杂的文件重构时——这些任务对于编辑器宏来说太复杂,但又不足以投入大量开发精力——他们就像玩“老虎机”一样使用 Claude Code:提交当前状态,让 Claude 自主工作 30 分钟,然后要么接受解决方案,要么在不成功时重新开始。

创建持久性分析工具而非一次性笔记本

团队现在不再构建用完即弃的 Jupyter 笔记本,而是让 Claude 构建可重复使用的 React 仪表盘,这些仪表盘可以在未来的模型评估中重复使用。这很重要,因为理解 Claude 的性能是“团队最重要的事情之一”——他们需要了解模型在训练和评估期间的表现,而这“实际上并非易事,简单的工具无法从观察一个数字上升中获得太多信号”。

零依赖任务委托

对于完全不熟悉的代码库或语言中的任务,他们将整个实现委托给 Claude Code,利用其从 monorepo 中收集上下文并执行任务的能力,而无需他们参与实际的编码过程。这使得他们在自己专业领域之外也能保持生产力,而不是花时间学习新技术。

节省了 2-4 倍的时间

过去虽然可以手动完成但很繁琐的常规重构任务现在完成得更快了。

用不熟悉的语言构建了复杂的应用

尽管 JavaScript/TypeScript 经验极少,却创建了 5000 行的 TypeScript 应用

从一次性工具转向持久性工具

不再使用一次性的 Jupyter 笔记本,而是构建可复用的 React 仪表盘进行模型分析。

直接获得模型改进的洞见

第一手使用 Claude Code 的经验为未来模型迭代中更好的内存系统和用户体验改进提供了信息。

实现了可视化驱动的决策

通过先进的数据可视化工具,更好地理解了 Claude 在训练和评估期间的性能。

把它当作一台老虎机

在让 Claude 工作之前保存你的状态,让它运行 30 分钟,然后要么接受结果,要么重新开始,而不是试图费力去修正。重新开始的成功率通常比试图修复 Claude 的错误要高。

必要时为了简化而打断它

在监督过程中,不要犹豫,停下来问 Claude “你为什么这么做?试试更简单的方法。” 模型默认倾向于更复杂的解决方案,但对于简化方法的请求反应良好。

产品工程团队致力于开发如 PDF 支持、引用和网页搜索等功能,这些功能将额外的知识引入 Claude 的上下文窗口。在大型、复杂的代码库中工作意味着不断遇到不熟悉的代码部分,花费大量时间来理解特定任务需要检查哪些文件,并在进行更改前建立上下文。Claude Code 通过充当向导,帮助他们理解系统架构、识别相关文件并解释复杂的交互,从而改善了这种体验。

第一步工作流规划

团队将 Claude Code 作为任何任务的“第一站”,要求它确定在进行 bug 修复、功能开发或分析时需要检查哪些文件。这取代了传统上在开始工作前手动浏览代码库和收集上下文的耗时过程。

跨代码库独立调试

团队现在有信心处理不熟悉代码库部分的 bug,而无需向他人求助。他们可以问 Claude “你觉得你能修复这个 bug 吗?我看到的行为是这样的”,并经常能立即取得进展,这在以前由于所需的时间投入是不可行的。

通过内部测试进行模型迭代测试

Claude Code 自动使用最新的研究模型快照,使其成为他们体验模型变化的主要方式。这为团队在开发周期中提供了关于模型行为变化的直接反馈,这是他们在之前的发布中从未体验过的。

消除上下文切换的开销

他们不再需要复制粘贴代码片段并将文件拖入 Claude.ai,同时还要详细解释问题,现在可以直接在 Claude Code 中提问,无需额外的上下文收集,从而显著减少了心智负担。

增强了处理不熟悉领域的信心

团队成员可以独立调试 bug 并调查不熟悉代码库中的事故。

在上下文收集中节省了大量时间

Claude Code 消除了复制粘贴代码片段和将文件拖入 Claude.ai 的开销,减轻了心智上的上下文切换负担。

加速轮岗员工上手速度

轮岗到新团队的工程师可以快速熟悉不熟悉的代码库并做出有意义的贡献,而无需与同事进行大量咨询。

提升开发者幸福感

团队报告称,随着日常工作流程中的摩擦减少,他们感到更快乐、更高效。

将其视为迭代伙伴,而非一次性解决方案

不要指望 Claude 能立即解决问题,而是把它当作一个与你一起迭代的合作者。这种方法比试图在第一次尝试中就获得完美的解决方案效果更好。

用它来建立在不熟悉领域的信心

不要犹豫去处理你专业领域之外的 bug 或调查事故。Claude Code 使得在通常需要大量上下文建立的领域独立工作成为可能。

从最少的信息开始

从你需要的最低限度的信息开始,让 Claude 引导你完成整个过程,而不是一开始就提供大量的解释。

增长营销团队专注于在付费搜索、付费社交、移动应用商店、电子邮件营销和 SEO 等领域建立效果营销渠道。作为一个只有一人的非技术团队,他们使用 Claude Code 来自动化重复性的营销任务,并创建通常需要大量工程资源的 AI 智能体工作流。

自动化 Ads 广告创意生成

团队构建了一个 AI 智能体工作流,该工作流可以处理包含数百个现有广告及其效果指标的 CSV 文件,识别表现不佳的广告进行迭代,并生成符合严格字符限制(标题 30 个字符,描述 90 个字符)的新变体。通过使用两个专门的子智能体(一个用于标题,一个用于描述),该系统可以在几分钟内生成数百个新广告,而无需在多个广告系列中手动创建。这使他们能够大规模地进行测试和迭代,这是以前需要花费大量时间才能实现的。

用于批量创意制作的 Figma 插件

他们没有手动复制和编辑用于付费社交广告的静态图片,而是开发了一个 Figma 插件,该插件可以识别框架并通过替换标题和描述来以编程方式生成多达 100 个广告变体,将需要数小时复制粘贴的工作缩短为每批半秒。这使得创意产出提高了 10 倍,让团队能够在关键社交渠道上测试数量庞大的创意变体。

用于广告活动分析的 Meta Ads 服务器

他们创建了一个与 Meta Ads API 集成的 MCP 服务器,以便直接在 Claude Desktop 应用内查询广告活动表现、支出数据和广告效果,从而无需在不同平台之间切换进行性能分析,节省了宝贵的时间,因为每一分效率的提升都意味着更好的投资回报率。

利用内存系统进行高级提示工程

他们实现了一个基本的内存系统,该系统记录了广告迭代中的假设和实验,使得系统在生成新变体时能够将之前的测试结果纳入上下文,创建了一个自我改进的测试框架。这使得系统性的实验成为可能,而这些实验是无法手动追踪的。

在重复性任务上节省了大量时间

Claude Code 将广告文案创作时间从 2 小时缩短到 15 分钟,让团队能够专注于更具战略性的工作。

创意产出增加 10 倍

通过自动广告生成和与 Figma 集成以获取最新的视觉设计元素,团队现在可以在各个渠道上测试数量庞大的广告变体。

像一个更大的团队一样运作

团队能够处理传统上需要专门工程资源的大型开发任务。

战略重点转移

团队可以将更多时间用于整体战略和构建 AI 智能体自动化,而不是手动执行。

识别支持 API 的重复性任务

寻找涉及使用带有 API 的工具(如广告平台、设计工具、分析平台)进行重复操作的工作流程。这些是自动化的主要候选对象,也是 Claude Code 提供最大价值的地方。

将复杂工作流分解为专门的子智能体

不要试图在一个提示或工作流中处理所有事情,而是为特定任务创建单独的智能体(比如一个标题智能体和一个描述智能体)。这使得调试更容易,并在处理复杂需求时提高输出质量。

在编码前进行充分的头脑风暴和提示规划

在前期花大量时间使用 Claude.ai 来构思整个工作流,然后让 Claude.ai 为 Claude Code 创建一个全面的提示和代码结构以供参考。此外,要逐步进行,而不是要求一次性解决问题,以避免 Claude 因任务过于复杂而不堪重负。

产品设计团队支持 Claude Code、Claude.ai 和 Anthropic API,专注于构建 AI 产品。即使是非开发人员也可以使用 Claude Code 来弥合设计与工程之间的传统鸿沟,使他们能够直接实现自己的设计愿景,而无需与工程师进行大量的反复迭代。

前端润色和状态管理变更

团队不再为视觉调整(字体、颜色、间距)创建大量的设计文档并与工程师进行多轮反馈,而是直接使用 Claude Code 实现这些变更。工程师们注意到,设计师们正在进行“通常不会看到设计师做的大型状态管理变更”,这使他们能够实现他们所设想的精确质量。

GitHub Actions 自动化工单处理

通过使用 Claude Code 的 GitHub 集成,他们只需提交描述所需更改的问题/工单,Claude 就会自动提出代码解决方案,而无需打开 Claude Code,从而为他们积压的润色任务创建了一个无缝的 bug 修复和功能优化工作流。

快速交互式原型制作

通过将模型图粘贴到 Claude Code 中,他们可以生成功能齐全的原型,工程师可以立即理解并在此基础上进行迭代,这取代了传统的静态 Figma 设计,后者需要大量的解释和转换才能成为可用代码。

发现边界情况和理解系统架构

团队使用 Claude Code 来规划错误状态、逻辑流程和不同的系统状态,使他们能够在设计阶段就识别出边界情况,而不是在开发后期才发现,从而从根本上提高了他们初始设计的质量。

复杂的文案更改和法律合规

对于像在整个代码库中移除“研究预览”信息这样的任务,他们使用 Claude Code 查找所有实例,审查周围的文案,与法务部门实时协调更改,并实施更新。这个过程只用了两次 30 分钟的电话会议,而不是一周的反复协调。

核心工作流程的变革

Claude Code 成为主要的设计工具,80% 的时间里 Figma 和 Claude Code 都是打开的。

执行速度提高 2-3 倍

以前需要与工程师进行大量反复沟通的视觉和状态管理变更,现在可以直接实现。

周期时间从数周缩短到数小时

Google Analytics 发布信息这样需要一周协调的复杂项目,现在只需两次 30 分钟的电话会议就能完成。

两种截然不同的用户体验

开发者获得了“增强型工作流”(执行更快),而非技术用户则获得了“天哪,我竟然也成了开发者”的工作流。

改善了设计与工程的协作

Claude Code 促进了更好的沟通和更快的问题解决,因为设计师理解了系统的限制和可能性,而无需与工程师紧密合作。

从工程师那里获得适当的设置帮助

让工程团队的同事帮助进行初始的代码库设置和权限配置——对于非开发人员来说,技术上的上手过程具有挑战性,但一旦配置完成,它将彻底改变日常工作流程。

使用自定义内存文件来引导 Claude 的行为

创建具体的指令,告诉 Claude 你是一个几乎没有编码经验的设计师,需要详细的解释和更小、更增量的更改。这极大地提高了 Claude 回应的质量,使其不再那么令人生畏。

利用粘贴图片进行原型制作

使用 Command+V 将截图直接粘贴到 Claude Code 中。它在读取设计并生成功能性代码方面表现出色,使其在将静态模型图转化为工程师可以立即理解和构建的交互式原型方面非常有价值。

强化学习(RL)工程团队专注于 RL 中的高效采样和跨集群的权重迁移。他们主要使用 Claude Code 来编写中小型功能、进行调试和理解复杂的代码库,并采用一种包含频繁检查点和回滚的迭代方法。

有监督的自主功能开发

团队让 Claude Code 在提供监督的情况下编写大部分中小型功能的代码,例如为权重迁移组件实现认证机制。他们以交互方式工作,允许 Claude 主导,但在其偏离轨道时进行引导。

测试生成和代码审查

在自己实现更改后,团队会要求 Claude Code 添加测试或审查他们的代码。这种自动化的测试工作流程在常规但重要的质量保证任务上节省了大量时间。

调试和错误调查

他们使用 Claude Code 来调试错误,结果好坏参半。有时它能立即识别问题并添加相关测试,而其他时候则难以理解问题,但总的来说,在有效时仍能提供价值。

代码库理解和调用栈分析

他们工作流程中最大的变化之一是使用 Claude Code 来快速获取相关组件和调用栈的摘要,取代了手动阅读代码或生成大量调试输出。

Kubernetes 操作指导

他们经常向 Claude Code 询问 Kubernetes 操作,这些操作否则需要大量谷歌搜索或询问基础设施工程的同事,从而能立即获得配置和部署问题的答案。

实验性方法的实现

他们现在使用一种“尝试并回滚”的方法,频繁提交检查点,以便他们可以测试 Claude 的自主实现尝试,并在需要时进行回滚,从而实现了更具实验性的开发。

文档编写加速

Claude Code 自动添加有用的注释,节省了大量的文档编写时间,尽管他们也指出,它有时会在奇怪的地方添加注释或使用有问题的代码组织方式。

有限制的提速

虽然 Claude Code 可以在他们“相对较少的时间”投入下实现中小型 PR,但他们承认,它在第一次尝试中成功的几率大约只有三分之一,需要额外的指导或手动干预。

为特定模式自定义你的 Claude.md 文件

在你的 Claude.md 文件中添加指令,以防止 Claude 重复犯工具调用错误,例如告诉它“运行 pytest 而不是 run,不要不必要地 cd – 只需使用正确的路径”。这显著提高了一致性。

使用检查点密集的工作流

随着 Claude 进行更改,定期提交你的工作,这样当实验不成功时,你可以轻松回滚。这使得在没有风险的情况下可以采用更具实验性的开发方法。

先尝试一次性解决,然后协作

Claude 一个快速的提示,让它先尝试完整的实现。如果成功了(大约三分之一的时间),你就节省了大量时间。如果没有,再切换到更具协作性、引导性的方法。

法务团队通过实验和了解 Anthropic 产品的好奇心,发现了 Claude Code 的潜力。此外,一位团队成员有一个个人用例,即为家人创建无障碍工具和为工作创建原型,这展示了该技术对非开发人员的强大能力。

为家人定制的无障碍解决方案

团队成员为因医疗诊断而有语言障碍的家人构建了沟通助手。在短短一小时内,一个人使用原生的语音转文本功能创建了一个预测性文本应用,该应用可以建议回复并使用语音库将其读出,解决了言语治疗师推荐的现有无障碍工具的不足之处。

法务部门工作流自动化

团队创建了“电话树”系统的原型,帮助团队成员联系到 Anthropic 合适的律师,展示了法务部门如何在没有传统开发资源的情况下为常见任务构建自定义工具。

团队协调工具

经理们构建了 G Suite 应用程序,可以自动化每周的团队更新,并跟踪各产品的法律审查状态,让律师只需通过简单的按钮点击就能快速标记需要审查的项目,而无需管理电子表格。

用于解决方案的快速原型制作

他们使用 Claude Code 快速构建功能性原型,然后展示给领域专家(例如向加州大学旧金山分校的专家展示无障碍工具),以验证想法并在投入更多时间之前识别现有解决方案。

Claude.ai 中规划,在 Claude Code 中构建

他们使用两步流程:首先在 Claude.ai 中进行头脑风暴和规划,然后转到 Claude Code 进行实现,要求它放慢速度,逐步工作,而不是一次性输出所有内容。

视觉优先的方法

他们经常使用截图向 Claude Code 展示他们想要的界面样子,然后根据视觉反馈进行迭代,而不是用文本描述功能。

原型驱动的创新

他们强调克服分享“傻瓜式”或“玩具级”原型的恐惧,因为这些演示能激励他人看到他们未曾考虑过的可能性。

MCP 集成担忧

产品律师使用 Claude Code 立即识别深度 MCP 集成的安全隐患,并指出随着 AI 工具访问更多敏感系统,保守的安全策略将成为障碍。

合规工具的优先级

他们主张随着 AI 能力的扩展,应迅速构建合规工具,认识到创新与风险管理之间的平衡。

首先在 Claude.ai 中进行详尽规划

在转到 Claude Code 之前,使用 Claude 的对话界面来充实你的整个想法。然后要求 Claude 将所有内容总结成一个分步的实现提示。

增量式和可视化工作

要求 Claude Code 放慢速度,一次实现一个步骤,这样你就可以复制粘贴而不会不知所措。大量使用截图来展示你想要的界面样子。

尽管不完美也要分享原型

克服隐藏“玩具”项目或未完成工作的冲动。分享原型有助于他人看到可能性,并在通常不互动的部门之间激发创新。

简单开启欧盟纯净版 Windows,享隐私和自由权力

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

在 Pixel 设备上打开 Google app 的新闻链接,或在 Windows 设备上通过开始菜单访问网络搜索结果,这两种情况都存在一个共同点:系统会忽略你的默认浏览器设置,强行使用自家的浏览器(Chrome 或 Edge)进行访问。

对此,似乎大家并没有太大反应,正如人们对欧盟地区用户在数字生活中享有选择而感到无奈似的。

今天我们就来探讨一个问题:如何成为一名数字意义上的欧盟地区 Windows 用户

受《数字市场法案》影响,微软在欧盟地区针对用户做出了很多让步,包括:

关于 Windows 的地区设置,你可以在「系统设置 > 时间和语言 > 语言和区域」中找到几个选项:

不过,今天的重点是一个新加入的、不可更改的选项——设备设置区域。将其更改为欧盟地区是个不错的切入点。

我最初想到的是去年推出的 Edge 重定向工具 MSEdgeRedirect,但不久后发现该模式在 2024 年 3 月后将失效,原因是微软的 UCPD 驱动3

UCPD(用户选择守护驱动)利用内置的黑白名单机制,屏蔽非微软签名的进程,阻止第三方工具对系统的修改。这不仅影响到一些文件协议的处理,而且更难被禁用。微软还设置了一个名为 UCPD velocity 的自动化任务,每次用户登录时都会恢复被禁用的系统文件和设置。

因此,想要使用 MSEdgeRedirect 开启「欧盟模式」的用户,首先可以按照 SetUserFTA 开发者的思路摆脱微软的干预。

彻底解决方案:直接删除 UCPD 驱动。以管理员权限运行 CMD,执行命令 sc.exe delete UCPD,然后重启。需要注意的是,该驱动可能会在系统更新后复活。

温和解决方案:禁用 UCPD 驱动,以管理员权限在 CMD 下执行:

完成后,便可以正常使用 MSEdgeRedirect 修改地区设置。

成功更改设备设置区域后,不仅能享受之前提到的「权益」,更能在各类设置中拥有更多自由,成为一个选择上的欧洲人、商店里的美国人、文本习惯上的中国人——这份灵活,值得我们珍惜。

简单开启欧盟纯净版 Windows,享隐私和自由权力

参考链接

不仅仅是编程,使用 Gemini CLI 日常指南!

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

前几天最近随着 Claude Code 这个命令行 AI 代码工具的火爆,谷歌也耐不住寂寞推出了自己的同类产品 Gemini CLI,而且完全免费,非常顶。

不仅仅是编程,使用 Gemini CLI 日常指南!

下面会教你用 Gemini CLI 实现哪些能力:

首先他们是没有界面的,所有的操作都是在终端以命令行的方式展示。

然后就是也是 Agents 可以自动执行任务处理本地文件,同时内置了非常多的工具,比如谷歌搜索、阅读文件、查找文件、搜索文字、写入文件、保存记忆等,你输入 /tools 然后回车就可以让他列出目前支持的工具。

另外 Gemini CLI 也是支持 MCP 的,你可以安装其他的 MCP 工具帮助模型扩充上下文。

很多朋友说命令行是不是很复杂啊,我不会编程是不是会很难用。

其实并没有,如果你的网络环境正常,能够正常登录 Gemini CLI 的话,跟使用 Cursor 没有本质区别。

因为核心交互的时候还是主要为提示词输入框,命令行又不用你写,Gemini 写就行。

从这里开始我所有的演示都基于 Mac OS 的自带终端进行,Windows 大部分操作都是通用的,但是可能出问题概率比 Mac 复杂。

首先要做的第一步就是进入到我们的启动台,搜索终端两个字,搜到之后打开。

这时候你就看到一个空白界面里面写了些你看不懂的字,不要担心。

这里我建议我们想好要进行的任务之后,新建一个文件夹把需要的任务素材扔进去,然后按住 option 按键鼠标右键选择“将 XXXX 文件夹拷贝为路径名称”,这时候你就快速获得了这个文件夹的路径。

然后我们回到我们的终端窗口,输入 cd + 空格 + 你刚才复制的路径,接下来你终端的所有操作都只会影响这个文件夹的内容,不用担心把电脑搞坏。

到这一步我们终于开始安装 Gemini CLI 了,非常简单,你只需要输入下面的内容然后回车就行。

安装成功你就会看到这个界面,应该会先让你选择命令行的颜色主题,然后让你选择登录方式。

这里需要注意:终端的操作大部分时间需要用上下左右方向键来操作选项,选中之后按回车确认。

你只需要选择一个自己喜欢的主题之后,选择正常的谷歌账号登录,在拉起网页登录后关掉就行。

我这个这里已经登录了,所以没有这些选项,然后你就能看到提示词输入框了。

恭喜你到这里,你已经完成了 Gemini 的安装。

由于用的 NPX 的安装方式,所以你以后每次关掉终端重新使用 Gemini CLI 的时候都需要输入开始的那个命令,不过不用登录了,直接就能用。

另一种方法是输入下面这个命令,但是对于不会编程的人来说很麻烦,启动就是少输入点东西,输入 Gemini 就能启动。

最后由于命令行本身都是英文的,可能很多人会望而却步,这个时候你可以装个 Bob 这个翻译软件,支持划词翻译,看不懂的选项直接选中划词翻译就行。

装好之后我们可以来点基础用法了。

由于 Gemini 可以看到你的文件并且操作,而且它还有生成能力,本身模型还是多模态的,所以即使只用本身的工具也可以有很多用法。

首先是 Gemini CLI 本身支持谷歌搜索,你可以让他搜索指定内容给你写成文档,也可以对你本身的文档进行编辑。

当然搜索工具经常会限额,这个有点恶心,比如让他搜索歸藏的信息并且整理一个介绍文档。

你也可以让他分析你保存在本地的文章之后进行改写,生成新的文章。

比如我这里就让他把 Karpathy 的软件 3.0 文章改写成适合发布的博客文章,同时生成对应的推特发布版本,也可以对于会议总结之类的文档进行分析和处理。

记得我之前写的用 Curosr 这种 IDE 帮助分析 Obsidian ,把 Obsidian 当做本地知识库的方法吗,Gemini CLI 也可以,甚至更加强大。

你可以找到你的 Obsidian 文件夹打开之后启动 Gemini CLI,然后让 Gemini CLI 查找相关的内容。

比如我这里就让他检索我所有的剪藏文件,找到 MCP 相关的文章,然后给我生成一个带反向链接的《MCP 剪藏内容索引》文档,可以看到他完成的很好。

每个无序列表都有文件标题以及文章的总结,最后还有链接可以直达那个文章。

提到反向链接了,就不得不提 Obsidian 的一个知识图谱的功能,它可以把所有有反向链接的相关文档都链接起来,形成你自己的网状笔记网络,方便你学习和回顾。

但是反向链接需要你自己手动加,大部分人都没这个毅力,现在有了 Gemini CLI 问题解决了,可以让他帮你给你文件夹中的相关文档加反向链接。

不过这个需要的时间比较长,如果内容多的话可能得等一段时间。

由于本身 Gemini CLI 是多模态的的,所以你的图片也可以让他帮忙处理。

比如我打开了一个全是图片的文件夹,里面的图片名字乱七八糟的,这时候就可以让他分析图片内容之后根据图片内容给图片重新命名。

再重新命名之后我们也不能浪费他分析的图片内容。

我们都知道在训练图像模型或者 Lora 的时候需要对图像进行标注,大部分训练工具都是把标注放在一个跟图片命名一样的文本文件里,现在我们就可以让 Gemini CLI 来做这件事了。

可以看到他执行的非常完美,以往这些你还得找对应的工具,而且不好自定义要求,现在提示词就行。

Gemini CLI 除了可以读取文件和修改文件外也是可以控制系统设置的。

比如我们就可以写好自己日常对于软件和系统设置在不同工作时间的喜好,需要的时候一键完成所有操作的更改。

这里我就让他给我关掉浏览器,然后打开 Obsidian,降低系统音量,直接进入工作模式。

更进一步让他把操作写成脚本,之后你就可以直接双击脚本完成系统设置了。

我们肯定也有很多时候桌面或者文件没有整理乱七八糟。

这个时候就可以让 Gemini CLI 新建文件夹进行分类和整理。

但是这里得注意,不要让他整理过大的过于重要的文件夹,不然误删了就痛苦了。

这里我就让他把刚才的图像和标注文件新建了两个文件夹分别整理了。

上面都是些基本用法,你最近可能也看到了一些。

但是我发现结合一些本地软件,Gemini CLI 能实现对各种文件更加高级的处理,比如视频转 gif、youtube 视频下载、加水印、文档格式转换等。

这些就非常牛皮了,而且我们日常内容创作大部分都非常需要。

前面我们有了文档了,但是很多时候演示的时候总不能真给人看 Markdown 文档吧,能不能生成 PPT 呢?

可以的,朋友,必须可以,比如我这里就把前面我那个 MCP 索引文档的内容直接转换为 PPT 了。

这个依赖一个叫 Slidev 的项目,它可以用类似 Markdown 文档的格式将内容变成带有丰富样式的 PPT。

你不需要知道这个项目的细节,直接用我下面的提示词生成文件之后,复制文件到这个页面(https://stackblitz.com/github/slidevjs/new?file=slides.md)预览就行。

上面的 Slidev 不需要本地安装直接预览就行,接下来我们介绍一些需要本地安装的项目,这些本地的软件,非常强大,但是由于本身他们是没有界面的,阻碍的很多用户使用。

但是有了 Gemini 之后一切都解决了,提示词可以直接转换为驱动他们的命令行,也可以用提示词直接安装他们,你直接用就行。

首先先介绍一下 ffmpeg 这个项目,给予他你可以实现非常强的视频编辑能力,理论上剪映之类的视频编辑软件都是基于这个完成的。

你可以对本地的视频进行拼接、剪辑、增加文字、转换格式、转换分辨率、增加音乐,基本上你能想到的视频编辑能力他都能做到。

首先我们需要大概你需要处理视频的的文件夹,然后启动 Gemini CLI 第一个命令是让他安装 Homebrew。

然后安装完成后,让他用 Homebrew 帮你安装 ffmpeg。

看到没,跟网页哪些乱七八糟的要求都没关系,你只需要说两句话,就全部安装了。

然后我们就可以爽用了,先给我们指定的视频加个水印试试。

可以看到新的视频右上角果然有了一个水印,这种言出法随的感觉谁不喜欢,你不需要了解原理,你就只需要知道所有的视频编辑他都能帮你搞定。

然后我想要给视频配乐也可以,你只需要告诉他视频文件和音乐文件的名字就行,我甚至让他给音乐加上了淡入和淡出。

他先是获取了一下视频的时长,然后就开始操作了,然后搞定了,非常完美,严丝合缝,淡入淡出也加上了,可以看剪映界面预览的频谱。

我们很多时候需要把视频转换为序列帧,然后拿其中一帧进行处理,或者处理所有的帧,以前你是不是还得到处找这种工具,而且转换效果不一定好。

Gemini CLI 一句话就能搞定,处理的又快又好,而且节省了用网页工具上传下载的时间。

另一个常见的任务就是视频转 gif,尤其公众号有 10 个视频的限制,很多时候迫不得已得转成 gif 发布。

Gemini 捕捉到了高品质这个关键词还制作了调色板保证颜色还原度,最后处理的非常完美。

像 ffmpeg 这种宝藏项目还有很多,比如 yt-dlp 这个项目跟 ffmpeg 配合几乎可以下载你能想到的所有视频平台的视频。

我们还是可以让 Gemini CLI 帮我们安装 yt-dlp 这个项目就行。

然后直接提供视频链接他就会帮你下载,甚至可以批量下载多个视频或者一起连封面和视频一起下载,再也不需要忍受那些工具的垃圾网速了。

处理视频我们有 ffmpeg 这种项目,当然图片也有。

ImageMagick 是一个极其强大的工具集,你可以用它来转换格式、缩放、裁剪、旋转、添加滤镜、组合图片等等。

依然是老一套,先让 Gemini 帮我们安装

先来一个常见任务,我们设计师做外包经常用,在没结款之前给甲方低分辨率和带水印的图片,现在就可以直接批量完成。

这里我让他把所有图片宽边调整为 800 PX,然后统一加上带“内部资料”文字的水印。

中文的水印有些问题,后来改成英文就 OK 了,而且出错之后他自己开始用多模态能力检查修改后的图像了,发现 10% 不透明度的文字不明显,又自己重新改了一下,太聪明了。

然后再来一个常见的图像拼接需求,这种在媒体上发消息的时候经常需要,尤其是推特。

搞得不错,这几张图比例不同,所以没有对齐,可以在命令上加上统一比例这种要求就行。

文档格式转换也是常见的需求,相当多的公司工作文档还是 word,很多时候我发过去 .md 文件那边都不知道怎么办。

首先还是让 Gemini CLI 帮我们安装。

这个时候我们就可以利用 Pandoc 这个项目进行各种文档格式之间的互相转换,当然批量转换也是可以的。

可以看到转的很好,Markdown 的一些基本格式也都迁移了,不管是加粗还是无序列表有序列表。

好了教程到这里就结束了。

你可以用 Gemini CLI 控制这些已经非常成熟的命令行项目,基本上你所有的需求都能找到对应的项目。

不是只有 MCP 才能做 Agent,这些传统工具在有了 LLM 加持之后会更加强大。

看到这里,你可能会突然意识到:原来那些让我们望而却步的专业工具,其实一直都在那里等着我们。

史蒂夫·乔布斯说过的一句话:”技术应该是隐形的。” 今天的 Gemini CLI,正是让那些强大的命令行工具变得”隐形”——你不需要理解它们的工作原理,只需要说出你的需求。

更重要的是,这种改变不仅仅是效率的提升,而是创作门槛的彻底消失。

所以,如果你还在犹豫要不要试试 Gemini CLI,我想说:别让”我不会编程”成为你探索新世界的借口。 因为在这个新世界里,你需要的不是编程能力,而是想象力。

那些曾经高高在上的专业工具,现在都在静静等待着你的一句话。而你要做的,就是勇敢地说出你的需求。

因为最好的工具,是让你忘记它是工具的工具。

从全球流量排名看中文信息茧房

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

截止 2025 年 3 月 1 日,根据 Similarweb 网站排名, 当全球网民在 Google 检索知识、在 YouTube 观看视频、在 Facebook 分享生活时,中国互联网用户正困守在一个由百度(第 15 位)、淘宝(跌出前 100 位)和微信构筑的数字孤岛。

Alexa 数据显示,全球前 15 大流量平台中,仅百度(第 15 位)、俄罗斯 Yandex(第 12 位)和部分受限的雅虎(第 10 位)能在境内正常访问。

这种物理层面网络隔绝,造就了人类文明史上最吊诡的景观:14 亿人口的市场与全球 60%的英语信息之间,横亘着无形的数字柏林墙。

搜索引擎的对比尤为刺眼:Google853 亿月访问量统治着全球信息分发,而百度虽在中国市场独占鳌头,其国际影响力却仅限于中文世界。

更令人深思的是,即便在被封锁的状态下,Google 仍以断层优势稳居榜首,这种”缺席的统治力”印证了开放生态的顽强生命力。

正如三星退出中国仍保持全球销量第一,谷歌被屏蔽 13 年依然傲视群雄,这些现象都在叩问:我们引以为傲的”市场规模”,是否只是温水煮青蛙的幻象?

当英语世界创造着占全球 60%的互联网内容,中文信息仅贡献 1.3%的微小份额,这种悬殊对比揭开了残酷真相:每个中文网民本质上都生活在经过三重过滤的”楚门世界”。

在抖音推送的娱乐至死中,在微博热搜的议程设置里,在微信朋友圈的信息茧房内,人们接触的所谓”海量信息”,不过是浩瀚知识海洋中的涓滴之水。

这种认知局限在学术领域尤为致命。

维基百科(第 8 位)作为全球最大的知识共享平台,其英文词条数量是中文版的 15 倍。

当中国学生还在百度百科检索被阉割的知识时,国际学术界早已在 arXiv、PubMed 等开放平台实现知识共享。

更可怕的是,那些呼吁”取消英语教育”的喧嚣,正在将阶层固化推向深渊——精英阶层通过匿名服务突破封锁获取全球 60%的信息,而普通民众却被永久禁锢在 1.3%的围城之中。

中国互联网企业看似辉煌的流量数据,实则暴露出结构性危机。

淘宝虽在国内电商市场称雄,其全球排名却已跌出前 100;腾讯视频坐拥庞大用户群,但内容创新力远逊于 Netflix(第 18 位);即便是引以为傲的短视频平台 TikTok(第 14 位),也因地缘政治风险在多个市场遭遇封杀。

这种”内卷式繁荣”折射出中国互联网经济的致命伤:过度依赖封闭市场,缺乏真正的全球竞争力。

反观亚马逊(第 13 位)的全球化布局,其日本、德国、印度站点同步跻身全球百强,这种”多点开花”的生态正是中国企业欠缺的。

当我们的电商平台还在为”二选一”垄断沾沾自喜时,Booking.com 已通过全球化运营实现月访问量飙升。这种对比残酷地揭示:在温室里培育的巨头,终究难敌旷野中生长的猛兽。

打破困局需要三重觉醒:

首先,必须承认中文信息生态的先天不足,1.3%的占比不仅是数量劣势,更是质量危机——当百度百科充斥着商业软文,当知网沦为空壳论文的仓库,我们拿什么参与全球知识生产?

其次,要正视语言壁垒带来的认知断层,英语不应是特权的通行证,而应成为公民的基础素养。

最后,需要重建开放包容的互联网精神,正如 B 站通过引进国际优质内容实现破圈,真正的文化自信从来不是闭关锁国。

那些叫嚣”取消英语”的愚昧,那些沉醉”市场规模”的虚妄,那些迷信”信息管控”的短视,终将被证明是文明进程中的逆流。

当俄罗斯 Yandex 都在努力突破语言边界时,我们是否该反思:困守 1.3%的信息孤岛,真的能孕育出引领人类文明的力量吗?答案,早已写在谷歌 853 亿月访问量的星辰大海里。

Suno – AI 创作音乐 5 分钟实战教程

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

AI 生成音乐工具,海外有 Suno、Udio,国内有字节的海绵音乐、天工 AI 音乐等。

个人体验看,Suno 综合实力最强,几乎是遥遥领先。

尤其是最近更新了 4.5 版,提示词遵循能力大大提升。

可玩性、可用性猛的提升,非常酷。

官网:
https://suno.com/

iOS 版下载地址

‎Make and explore music with Suno. Whether you’re a shower singer or a charting artist, we break barriers between you and the song you dream of making. No instrument needed, just imagination. Begin your musical journey with 10 free songs per day. – * Your subscription will be charged to your App

注册有积分,可免费生成音乐,但不能用最近刚出的 4.5 模型。

如想体验,用我链接,互赚点积分。

Join me on Suno 🙂

但是,想玩最牛模型,双币信用卡 Stripe 支付(有被拒概率),或某宝买成品号(75 元左右/月)。

以网页版为例。

点击 Create->Simple,输入音乐风格和主题提示词,点橙色的 Create 按钮。

就能生成一首还 OK 的歌。

是不是很简单?

如想相对精确控制一首歌的歌词、每小节风格/唱腔/器乐等。

就要用 Custom 模式,可理解为专家模式。

不要怕,其实也很简单。

核心输入就三个:

负向提示词,可以避免完全不想要的风格,选填。

比如喜欢重金属的,肯定要俗套的流行乐。

不会写歌词怎么办?

点击 Lyrics 模型下的“Full Song”,出现弹窗,输入主题和风格。

然后点击“Write Lyrics”,AI 自动生成两个版本,选一个即可。

如不满意,可手动修改。

或点“By Line”,选中待修改段落,让 AI 继续改。

虽方便,但生成歌词质量一般。

也没用上很多 Suno 的一些隐藏控制技巧。

理论上,任何一首歌,都是结构的。

类似于文章的起承转合。
一般不会上来就是高潮。

让 AI 给了一些常见音乐结构组成的解释。

主歌是讲述故事或表达主题的部分,歌词内容通常每段不同,推动歌曲情节发展。

位于主歌和副歌之间,起到过渡和增强期待感的作用,旋律和情绪通常逐渐上升。

歌曲中最核心、最具记忆点的部分,通常包含主题和 Hook(钩子),旋律和歌词多次重复,是整首歌的高潮。

在歌曲后半段出现,提供音乐和情感上的转折,带来新鲜感,通常旋律和和声与主歌、副歌不同。

歌曲的结尾部分,用于收尾和渐渐结束,帮助听众从情绪中平稳过渡出来。

• Post-Chorus(后副歌):副歌后的延伸部分,通常更具能量或舞曲感。
• Drop:电子音乐中高潮爆发的部分,常在前副歌后出现。
• Interlude(间奏):歌曲中段的器乐过渡部分,给听众短暂休息。
• Breakdown:乐器简化或重新编排的部分,常用于突出某种情绪或为高潮做铺垫。
• Refrain(叠句):在每个主歌结尾重复的短句,加强记忆点。
• Spoken Word(说唱/对白):用说话或朗诵的方式表达内容,增加表现力。
• Ad-libs(即兴短句):歌手即兴添加的背景声音或短句,增强歌曲表现力。

Suno 4.5 升级后,语义理解和遵循能力大幅提升。

能在歌词(Lyrics)中做段落标记,以控制歌曲的结构和情绪走向。

支持的结构标记如下:

此外,通过搜索官方 Reddit 社区,发现还有一些更细的控制。

比如

窗前明月光(明月光)

效果:括号内也会跟着唱出来,像叠唱和声效果。

再比如,Suno 对中文理解不到位。

某字发音不对,也可以通过小括号加上音标。

春花秋月何时了(liǎo)

避免唱成 le

[]括号也很有用,比如想指定某段用甜美女声唱,可以这么写:

[Verse 1: Narrative] [Sweet Female Vocal]

没关系。

像我们普通人。

音乐风格也了解的不多。

所以,借助 AI ,我把上面的技巧写到了一个提示词中。

模型推荐 Claude 3.7 sonnet,或 Gemini 2.5 Pro。

另外发现,如果是中文歌,豆包写歌词更押韵,但音乐标记做的不够好。

推荐模型组合使用,加上人工微调,完成你的歌词。

大概效果如下:

与此同时,还会生成正向和负向风格提示词、推荐歌名。

只需要复制粘贴到 Suno 中即可。

刷 Reddit,发现一些专业搞音乐的网友。

他们的用法:用 Suno 找创作灵感。

通过录音哼唱,生成纯音乐歌曲。

如何做?

点创作界面中的 Audio

可录音(也可上传一段音乐)

支持最多 120s 音频,以此为基础生成翻版或延长。

注意: 上传或录制的音频,会做版权检测,测了一些大牌乐队歌曲,都不让用…

先用 Suno 生成纯音乐,挑选最喜欢的一首,下载为 MP3。

打开谷歌 AIStudio,上传后让它基于歌曲写 Lyrics 歌词。

Google AI Studio is the fastest way to start building with Gemini, our next generation family of multimodal generative AI models.

示例如下:

谷歌多模态 AI 威武,不少音乐人喜欢这个 Use Case。

可能有人好奇,这么多复杂技巧怎么发现的?

工具Google Deep Research + 提示词:

调研下 suno.ai 的歌词创作和 lyrics 写法

十多分钟后,输出一份完整报告。

为方便查看,我做成了一个网站:

对于更具诗意、结构更复杂或不规则的歌词,Suno AI 也能进行处理,前提是用户提供了结构清晰、格式规范的输入文本。但是,AI 的默认倾向可能是生成更简单、重复性更强的旋律和结构。 因此,要成功演绎复杂的诗歌式歌词,很大程度上依赖于用户输入的质量以及是否使用了恰当的格式化技巧来引导 AI。 适合度:★★★☆☆ (适合,但需要更多技巧和高质量输入)

AI 音乐真的太神奇了。

以前觉得,创作音乐是天才和专业人士的专属。

现在,有了 AI,普通人也能写歌、作曲、制作,甚至能做出让自己感动的作品。

每次听到自己用 AI 做出的歌,心里都特别激动。

技术让梦想变得触手可及,也让更多人敢于尝试、表达自己。

希望大家多多体验 AI 音乐,别害怕不会乐理,不会写词。只要你有想法,有热情,AI 会帮你把它变成现实。

如果你觉得这篇文章有用,欢迎点赞支持。你的鼓励,是我继续分享的动力。

让我们一起用 AI,玩出更多音乐的可能!

5 大免费邮件转发服务,替代临时邮箱方案

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

以往要对付垃圾邮件我会推荐使用临时邮箱来取代真实 Email 邮箱,临时邮箱又被称为临时邮箱、一次性邮箱或随用即丢邮箱,最知名的 10 分钟邮箱大家应该都听过。临时邮箱的原理是进入网页后随机生成 Email 地址,可使用该地址来注册账号、接收验证邮件并通过认证,同时保持匿名状态,不泄漏自己的真实邮箱,毕竟大多数的人都会有一个主要电子邮件地址,通过地址进行查找很容易就找到个人相关信息。

尽管临时邮箱有相当优异的便利性,也能实现以匿名邮箱收取 Email 邮件,但遗憾的是它们有个最大缺点就是无法重复使用,当离开服务、关闭网页后就无法继续使用相同的邮箱地址收件〔有些临时邮箱可设置密码就不在此列〕,但有部分服务可能会在指定情况需要重新以 Email 进行验证,如此一来就会造成后续使用上的麻烦。

电子邮件转发〔Email Forwarding〕又称为「邮件别名」〔Email Aliases〕服务,简单来说,它可以将发送到随机生成匿名 Email 地址的邮件转送到用户真实邮箱,由于这些邮件别名不会包含与你有关的字串,就不用担心被识别出真实身份。电子邮件转发功能将 Email 正确转发到用户真实邮箱,同时也保持 Email 地址匿名性。

实际案例:

假设你使用邮件转发服务在某电商网站注册账户,该网站只会看到你设置的邮件别名,而非你的真实 Email。即便该网站发生安全事件,外泄的也是邮件别名,无法直接联系到你的真实邮箱。

各种网络服务安全事件频传,如果使用 Have I been pwned、Data Breach Checker、Firefox MonitorGoogle One 暗网报告查询,会发现我们平常使用的 Email 地址可能都已经被外流很多次了。还好密码大多数都会经过加密〔hash〕,不会以明码方式储存,但用户账号、Email 等个人资料就很容易被收集后于暗网兜售。

黑客利用这些外泄的账号、Email 和密码组合去攻击用户常用的服务,有可能就会被登入滥用,因此这些资料很可能成为垃圾邮件或是网络钓鱼诈骗的目标。以邮件转发服务生成随机、不易被识别的 Email 地址有助于保护自己的真实身份。

接下来我将会列出五个推荐的邮件转发、邮件别名服务,列出的邮件转发服务注册就能使用,不是电子邮件自带的邮件别名功能。

Firefox Relay 是 Mozilla 提供的邮件转发邮箱功能,免费版在全世界大多数国家都能使用,免费版就能符合大部分用户需求。

Firefox Relay 注册账号后可以获取五组转发邮箱,可以随意生成无限组合转发邮箱来保护真实邮箱,别名可以随时暂停或删除,避免该邮箱继续接收邮件。收到邮件、转发时会自动移除邮件追踪器,以提供用户更好的隐私防护。

如果你从未使用过邮件转发服务,我会推荐从 Firefox Relay 开始。

直接前往 Firefox Relay

SimpleLogin 是一项开源、匿名邮件转发服务,2022 年被 Proton 公司收购成为旗下的产品。免费方案有提供十组邮件别名,无流量和接收邮件数量限制,与各种浏览器、移动设备都有相当好的整合,如果不想额外安装扩展,通过网页操作界面一样可以进行设置使用。

比较特别的是 SimpleLogin 具有「Reply from alias」功能,可以从邮件别名直接回复邮件,而不用通过真实邮件地址。付费后可以设置域名,享有无限制的邮件别名、Catch-all 等功能。

直接前往 SimpleLogin

知名的查找引擎服务 DuckDuckGo 也有邮件保护方案〔Email Protection〕,让用户通过 @duck.com 邮件地址来隐藏真实邮箱,在接收到新邮件时 DuckDuckGo 会先将邮件内的追踪器移除〔和 Firefox Relay 一样〕,在将邮件转发到用户 Email 地址,这项服务不会储存任何收到的邮件内容。

需要先在浏览器下载、安装 DuckDuckGo 扩展才能进行设置,或是要从手机下载应用程序。

比较特别的是 DuckDuckGo 邮件保护计划有一项比较特别的功能「Private Duck Address Generator」,可在现有的邮件转发地址再生成随机的邮箱地址,有点像多一层保护的概念。

直接前往 DuckDuckGo Email

Addy.io〔旧名 AnonAddy〕是匿名的电子邮件转发服务,主要用途是保护用户真实邮箱地址,免费方案就提供无限制的邮件别名,不过可用的共用网域别名、真实 Email 地址数量和别名域名有限制,免费和付费最主要差异依然是可否设置域名,要注意的是 Addy 回复功能是需要付费才能使用。

如果有直接以匿名转发邮件回复的需求,建议可以使用前面介绍过的 SimpleLogin 代替。

直接前往 Addy.io

5 大免费邮件转发服务,替代临时邮箱方案

Forward Email 是无限制电子邮件转发服务,跟前面几项不同的是它是唯一提供免费设置域名功能的服务,可以使用自己的域名转发邮件,也具有发送邮件功能。基本方案已具备相当完整的功能,唯有在需要一些付费项目或团队功能时才需要升级方案。

Forward Email 是 100% 开源的服务商,非常透明且注重隐私和安全性,服务不倚赖任何第三方,也不会对任何用户记录进行储存,最自豪的是它是目前世界上唯一使用抗量子和单独加密 SQLite 的邮箱。

直接前往 Forward Email

Google Gemini 免费 AI 对话修图实测!一句话PS、换背景、创作系列图画

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

你拍下一些照片,却觉得照片的背景不够完美?你是内容创作者,但找不到文章合适的配图?你是电商卖家,想位产品设计更吸引人的配图?你是老师,需要为教材找出一系列搭配的示范图片?以前,我们修图可能需要 学 Photoshop,需要花很多时间调整细节,或是要下载各种修图 App,还要在图库中翻找适合自己的图片文件。

但现在,只要一个 AI 指令,就能让我们需要的照片「瞬间改造完成」。

如果你想体验看看类似的工作流程,可以试试看前两天推出的 Google Gemini 免费 AI 修图!只要「一句话」,你就能改变图片,换背景、改风格、添加新元素,甚至创造连续漫画。
〔类似功能,在 Google Pixel 系列手机的 Google 相册中也能部分实现,Adobe、Canva 等的 AI 修图也能实现部分功能。〕

这篇文章,我会实测 Gemini 的 AI 修图能力〔而且免费即可使用〕,看看它怎么帮助我们「一句话变出想要的修图效果」!

我将分成三种应用角度来介绍,这些全部都能在 Gemini 中用自然语言下指令,便可以把照片生成或改造:

基础照片修图:让拍坏的照片变完美

替换背景、增加物品、改变颜色光线、调整风格。

进阶场景创作:为文章制作主题插图、让商品看起来更吸引人

搭配原始照片,制作特殊场景图

搭配原始照片,重新设计房间或产品

连续系列照片生成:根据文章、教材内容,生成一系列互相搭配的图片

模拟图文食谱

说故事的连续漫画、图画

文章中搭配的系列配图

首先,这个功能目前〔2025/3/14〕尚未开放在正式版的 Gemini 中,但可以通过免费账号即可登入的「 Google AI Studio 」来使用。

Google 账号注册登入后,进入一个新的对话框,并在右边控制列的「Model」菜单,切换到「Gemini 2.0 flash experimental」,就可以利用其 AI 来创作图片、修改图片,最大的特色是:

这个 Gemini 模型可以上传自己的图片,用「自然语言」下指令,请 AI 在图片上修图或生成新内容。

就如同 experimental 所说的「实验性」,实际测试结果,这个 AI 修图功能确实很神奇,也能够看到一些未来修图、创作图片的新可能性,不过可下载的图片质量等限制,目前还是不足以真正用在商业用途上的。

Google Gemini 免费 AI 对话修图实测!一句话PS、换背景、创作系列图画

在「Gemini 2.0 flash experimental」的对话框中,我们可以先上传一张原始照片,如果想要替换背景,只要简单的说一句这样的指令:「把照片的背景换成草地。」

就可以在 10 几秒的处理后,完成下图的成果。可以看到,Gemini 的「修图」是真的可以保留原始照片中的内容,只修改我要修改的部分。所以是真的 AI 修图,而不是 AI 重新生成图片。

我也可以上传一张风景照片,然后下指令:「把照片的天空改成大晴天。」Gemini 同样可以处理这样的调整。〔在 Google Pixel 手机的 Google 相册中就有类似功能可用〕

如果想要替换照片风格,套用艺术滤镜,也可以用 AI 下指令:「把照片变成中国水墨画风格。」就能轻松转换风格。

不过当然跟真正的艺术滤镜还是有落差,例如下图中我要 AI 把照片改成「彩色的铅笔绘画风格」,看起来还可以,不过专业的艺术滤镜一定会处理得更好。

除了可以用「Gemini 2.0 flash experimental」的 AI 修图外,也可以在原始照片上进行创作。

例如延续上面的图片案例,我对 AI 下指令:「拓展成一幅横幅的中国水墨画。」十几秒后,照片就变成了一幅新的水墨风景画。

或是我的书籍封面,上传后,下指令说到:「我想把原书的图片,摆在一张高雅的书桌上。」结果还真的可以顺利生成新的产品摆拍图。

不过如果细看,书籍封面上有些小字其实是有瑕疵的。

因为 Gemini 是对话的模式,所以在原始照片的改造上,我们可以通过多次讨论,让 AI 在原始照片上陆续添加内容,制作出自己需要的场景图。

例如下面原本只是单纯公园照片,我先请 Gemini:「在这张照片的草地上,加上一对正在野餐的男女朋友。」于是生成了下面的图片。

然后我继续追问:「让两人旁边有一只小狗在奔跑。」

然后再下指令:「旁边的道路上,也有零星的路人在散步。」

最后说「让天空变得更晴朗。」于是我要的最终场景图,就通过 AI 创作完成了。

我还做了一个尝试,先上传一张原始的房间照片〔某家旅馆〕。

然后我陆续对 AI 下了下面这些指令:

结果 AI 生成了下面这样的图片,第一张是原图,第二张是最后生成的图片,改造的图片还是保有原图的空间格局,只是风格焕然一新。

Google Gemini 本来就可以生成图片,但「Gemini 2.0 flash experimental」比较厉害的是可以分析文章内容,生成适合的配图,或是一系列的连续漫画、故事图片

例如,我对「Gemini 2.0 flash experimental」下了这样的指令:「你是意大利面专家,提供给我一道海鲜意大利面的食谱,请一步一步处理,用文字具体列出关键步骤,并在步骤后搭配图片。」

结果他「一次」就生成了下面的连续图文教程内容,这是在一次的问答后就完成的结果。

我假设自己写了一篇游记,于是请 AI「设计一系列素描画,展现一个人在京都街头散步的故事,请一步一步分析,以京都的场景,搭配素描画风格,设计有意思的散步故事,创作一连图画。」

结果「Gemini 2.0 flash experimental」也在一次的生成中,提供给我下面连续故事图,比较神奇的是这些连续图片中都有类似的人物,保持图片连贯性,虽然风格上有点跳跃。

还可以这样问 AI,我让 Gemini 自己思考如何设计一系列进入书店场景的图片,Gemini 自己写了一大篇分析内容后,才开始设计并产出图片。

但效果看起来还不错。

所以,在功能上,利用现在〔2025/3/15〕在 Google AI Studio 中的「Gemini 2.0 flash experimental」,你可以上传原始照片请 AI 修图、改图。也可以让 AI 读一篇文章、思考一个主题,生成一系列连续图片。

未来这个功能越来越成熟,或许有下面这些应用可能性:

现在,你也可以通过免费账号即可登入的「 Google AI Studio 」来试试看。

Aux Machina – AI 驱动的免费图片生成工具,简单高效神器

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Aux Machina 是一款由人工智能 AI 技术驱动的图片生成工具,协助设计师、运营人员和内容创作者快速、轻松地创建设置视觉内容,以往常见的图片生成器大多使用提示词〔Prompt〕来描述要生成的图片,Aux Machina 提供用户上传图片来制作类似结果,再利用文字描述对生成后的图片进行微调,最终生成令人惊叹的视觉效果。

Aux Machina 将这样的流程简化,直接上传图片后就可以快速生成四张相似、但又不太一样的结果。此外,也能够以关键词查找网络上的图片,再将它加入 Aux Machina 以生成近似的图片。

Aux Machina 在操作上也很容易,用户必须先注册账户〔免费〕,就能在免费试用方案下生成图片,每月最高的生成数量为 100 张图片,可使用于商业用途,若有更多生成需求可付费升级 Pro 方案或购买单次付费,不过当前服务的计价方式尚未很完整,有兴趣的朋友就先去试玩一下吧!

No Description

进入 Aux Machina 网站后点击右上角「Try for Free」,接着会看到注册、登入页面,推荐直接使用 Google 或是 Facebook 账户注册登入即可,完全不用经过任何验证。

关键词查找图片

登入后就会看到 AI 图片生成工具,先介绍第一种方法,直接输入关键词查找网络上的图片〔下方有 AI 图片生成器服务列表,不过在免费方案只能使用 Berserq 无法选择其他服务〕。

点击图片右上角「爱心」后再点击下方工具栏的「Generate」就能以 AI 生成相似的图片结果。

Aux Machina – AI 驱动的免费图片生成工具,简单高效神器

以图生图功能

另一个「以图生图」方式是点击查找栏位右侧的「相机」图标,会出现上传图片的功能,支持 JPEG、PNG、WEBP、AVIF、JFIF 五种图片格式。

把要生成的原始图片拖曳后点击「Upload Images」上传。

设置细部调整

Aux Machina 就会以 AI 人工智能技术生成四张类似、但又有一点不太一样的图片。

下方会有一个「Want to make changes?」功能,可以在选择图片后输入描述、对画面进行细部修改编辑。

下载与使用图片

将光标移动到图片上方,点击右下角「Download」就能下载、保存图片,以 AI 生成的图片素材可自由使用于个人和商业用途,无需标示出处来源,也不用担心会有侵权问题。

Aux Machina 网站有提到未来还会加入更多 AI 辅助图片工具,例如:更换背景、影像变化、图片文字编辑、图片分辨率增强、去除背景、转为草图、魔术橡皮擦或是转向量图等等,不过目前的图片生成器已经很有用,若有需要各种图片素材的话可以使用它进行生成。

tldraw computer – 画张流程图轻松打造 AI 自动化任务实测指南

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

你是否因为不会写程序,总觉得无法打造自己的自动化工作流程?每次设置 AI 工具都需要大量手动操作,效率难以提升?试试看一个实验性的新工具:「tldraw computer」,通过直觉的流程图设计,就能将繁琐 AI 指令与工作流程视觉化,打造高效率的 AI 自动化系统!

一开始使用 AI 〔指得是 ChatGPTGoogle Gemini 这类工具〕,我们可能会问:「生成一个某某主题的报告。」但当继续深入使用,真的把 AI 当作工作辅助工具,就会发现这样简单的提问是不行的,我们需要把任务「切割成」不同步骤,一个阶段一个阶段让 AI 处理,然后通过反问讨论,整合出最终更好的内容。

这时候,我们要请 AI 生成报告草稿,可能会先请 AI 设置 TA、痛点,再请 AI 做资料研究、摘要,然后请 AI 根据资料思考出更好的报告论述逻辑,然后才请 AI 根据这样的逻辑与资料,最后总结出一个更深入的报告大纲。

那么,如果上述的操作流程,可以用「视觉化」的流程图规划出来,然后 AI 就会自动跑完所有流程,生出我们需要的成果呢?这就是今天分享的这个最新 AI 工具:「tldraw computer」所具备的独特功能。

「 tldraw 」是很知名且好用的在线流程图工具,不过她们最新推出的「 tldraw computer 」AI 功能,不是要帮我们画流程图,而是让我们用简单好上手的流程图,规划出自己想要的 AI 自动化工作流程,打造一个可以根据更复杂逻辑生成报告、文章、设计图、声音文件的 AI 自动化助手。

「tldraw computer」内核特色:

「tldraw computer」用途:

我们先来看看「tldraw computer」这个工具可以完成什么样的应用案例,分享一个简单版实例:我自己常常会需要把拍照扫描的纸张图片,转换成一个有效的文字内容,就利用这个工具来建立一个快速扫描与修正文字的 AI 工具

我可以在「tldraw computer」流程图上设置一个上传图片的卡片框,然后拉一条连接线。接着在一个 AI 的指令框框里,输入我希望用什么样的逻辑来识别图片并修饰文字。然后接下来我再拉一条连接线,设置一个输出的文字框,让 AI 可以把完成的结果输出到这里。

而在使用的时候,我就只要在「第一步:上传图片的卡片框」把图片上传,按下右上方的播放启动按钮。这时候,这个工具就会自动跑流程图上的步骤,把扫描出来的文字转换成我需要的内容。

「tldraw computer」目前使用的 AI 模型是 Gemini,看起来无论是中文的文字还是手写字,都能够非常有效的识别完成。

tldraw computer – 画张流程图轻松打造 AI 自动化任务实测指南

接下来我们来看一个比较进阶复杂的应用案例。我想让 AI 帮我写一篇文章的草稿,但是就像前面提到的,直接让它撰写通常不会有很好的结果。

所以我利用「tldraw computer」工具画出一个文章产出的工作流程图。在流程图的一开始,我利用两张绿色的卡片,让我可以自己简单的设置这篇文章要解决什么 TA 问题,以及这篇文章想要采用什么方法论来解决问题。

接着,我开始用「tldraw computer」流程图展开我希望 AI 一步一步处理的自动化步骤。

首先,我利用红色的卡片设计 AI 处理的指令,请 AI 根据我的 TA 问题,写出一段有效的痛点描述。接着再请 AI 利用我想要介绍的方法论,写出一段这个方法论的重点思维基本背景的介绍文字。

但是,这样还不够。我继续往下画流程图。我让 AI 根据他自己输出的 TA 痛点以及方法论的重点,重新思考,拟出文章最好的架构。这个架构需要具体,有操作步骤,而且每个方法、每个步骤都要尽量有深入的诠释。

然后接下来,我让 AI 一步一步的把这篇文章往下扩展,有了文章的架构之后,我再请 AI 从这个架构出发,让这篇文章有一个完整的故事开场,有方法论重点,也有具体操作步骤,把前面的内容做一个有效的并且延伸插件的整合。

最后,我再画出下一步的 AI 流程图。我请 AI 用惯用的语言,用口语更亲切的方式来润饰改写它产出的文稿,输出一个解决痛点、介绍方法的一篇中文文章草稿。

甚至我可以再继续往下拉出下一步的流程图,放上一张声音的输出卡片,让 AI 把这篇文章的草稿转换成一个精简扼要的介绍音频文件。

有兴趣的朋友,可以看看我完成的这个 AI 自动化的工作流程图,看看上面的内容:https://computer.tldraw.com/t/szQY1iuGZCHAEmwzFASShH〔网址可以查看生成结果,如果要试用这个 AI 自动化流程工具,需要注册一免费账号。〕

当我有了这样的一个自动化的工作流程图,以后我只要每次回头修改一开始的两张绿色卡片,后面 AI 就会像刚才一样,自动跑完我已经设计好的工作流程,一步一步的去设计结构,推演文章进行润饰,甚至最后产出声音文件。我可以立刻获得最后输出的文章草稿以及声音文件的结果。

看完两个具体案例,最后我来分享「tldraw computer」如何操作?

先注册一个免费账号,建立一个 AI 自动化工作流程〔图〕的项目。

A computer by tldraw.

建立 AI 流程的基本逻辑是:输入、〔AI〕处理、〔AI〕输出。

掌握上面这个逻辑,你就能快速设计出一个有效的 AI 自动化工作流程。

首先,我们要设置「输入」内容的填写框,这是 AI 工作流程的起点,就像是要告诉 AI 目标、结果、资料的意思。

在「tldraw computer」中,利用 Text 或 Image 等卡片,可以设置输入文字、上传图片的填写框,作为启动流程的起点。

接着,我们要告诉「tldraw computer」如果去处理输入的内容,这时候从输入内容的卡片,画出连接线,连接到「Instruction」这个卡片上,然后在「Instruction」中说明希望 AI 如何处理内容的指令。

「tldraw computer」会根据我们简单的指令,自己做优化,让 AI 处理内容的结果更好。

然后,我们继续从「Instruction」卡片画出连接线,这时候可以连到 Text、Image、Speech、Website 等卡片,代表要让 AI 处理后,输出什么格式的内容。

重复上面:输入、处理、输出,三阶段流程,我们就可以串联出一个更复杂的 AI 自动化工作流程。

通过流程图的规划方式,我可以继续推进下一步的 AI 处理流程,甚至利用连接线把不同段落的内容连接到需要的步骤上,建立我自己需要的工作步骤。

最后,「tldraw computer」也提供了一些辅助功能,让设计这样的流程图更简单。

例如有一个启动按钮,让我们到时候只要按下启动,后面的 AI 流程就会自动跑完。

或是像流程图一样可以设置大小颜色,这样帮助我们分辨流程图中不同的卡片类型。

tldraw computer还有不少高级功能,有兴趣的朋友可以进一步玩玩看。

整体来说,「tldraw computer」是一个强大且易上手的自动化工具,让我们能够轻松打造自己的 AI 流程,推荐大家试试看。

Claude 新功能 MCP (模型上下文协议)使用指南

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Claude (Anthropic) 最近出了个 MCP (Model Context Protocol,模型上下文协议) 协议,让我朋友圈有刷屏之势,能清晰感受到,大伙儿都非常欣喜。我自己试用之后,决定写下这篇文章,分享给你。

MCP 是一种新的开放标准协议,用来在大模型和数据源之间建立安全双向的链接。这是它的官方示意图。

这张图展示了使用 Claude 或其他 IDE 时,通过这种双向沟通协议,模型(目前指 Claude)可以与不同的数据服务器进行连接。每个连接的数据源可能千差万别,比如上图里面前两个连接本地数据,第三个则直接通过互联网操作远程文件。

MCP 有什么用?为什么会让这么多开发者与用户欢欣鼓舞?

MCP 是一种统一的集成方式,交互界面完全一致。如果其他大模型也跟进,那么以后连接数据的感觉,就像给不同的电子设备使用 USB-C 接口,而不用准备那么多种不同的线缆插头。

更重要的是 MCP 的设计目标——提升安全性与控制力。因为以前处理数据时,我们通常采用极端的处理方式,很不安全。

第一种是将数据上传到大模型的对话中。这会带来两个问题:

另一种方式是让大模型获得本地管理员级别处理权限,帮助我们自动处理本地数据。之前我 给你介绍过的 Open Interpreter 就属于这种方式。看起来非常方便、灵活,但 AI 代理在本地以管理员权限进行各种操作,看到所有文件。如果它被植入不安全的代码,控制你的计算机,可能导致隐私和重要数据泄露,后果严重性不言而喻。

为解决上述两种极端数据交互方式带来的问题,Claude 提供了 MCP 作为一种解决方案。作为协议,它是完全开放的。后续其他主流 AI 企业能否跟进,咱们说不准。但是现在就可以用 Claude 来体验一下 MCP 带来的数据交互好处。

我们先沿着官方的 参考资料有快速上手指南 操作一下。指南非常简洁,步骤清晰,跟着做并不难。

官方教程给出了一个最简单的数据操作样例,是一个 SQLite 数据库。

SQLite 设置非常简单,单文件即可运行。我讲数据库课程超过 10 年,一直用的就是 SQLite。学生不用一上来就去学习架设服务器、权限管理,而是直接拿过来就可以学习 SQL 查询语句。对文科生来说,这都是一个非常简单的界面。

在上手教程里,我们会操作一个本地 SQLite 文件,与 Claude 进行交互。我们需要预先安装一些软件,不过很简单,你照着指南里面这个命令拷贝到终端执行就行。

下面是在我电脑上执行过程截图。

当然别忘了,你需要 下载 Claude Desktop 应用的最新版本,这是执行后续操作的前提。

之后,你需要建立一个 SQLite 的数据库样例文件。咱们先按照官方的设定来操作,复制页面上的这段代码,直接在终端执行就能搞定。

只要没有报错,你就拥有一个本地的 SQLite 样例数据了。

它存储在你的用户目录下,叫做 test.db .

下面你需要做的,是本次教程里最为不方便的操作——修改 Claude 配置文件。我相信在未来的版本当中,这个操作是能够通过图形化的界面来拖拽完成的。不过现在还是原型系统,你暂且忍耐一下。教程里明确告诉你设定文件的路径,你照着这个来执行就好。

你可以用 Visual Studio Code 或者类似的编辑器打开指定的配置文件路径。我这里用的是 Cursor。打开该文件后,你需要把教程代码段里的内容填进去。

不过这里有一个注意事项——你需要把原先代码中的 username 换成你自己在 macOS 上实际的用户名。这个很重要,不然连不上数据,会耽误你很多宝贵时间查错……别问我怎么知道的。

之后注意,你需要在 macOS重启你的 Claude Desktop App

到此,设定就算完成了。

下面,咱们实际看看 Claude 是如何与 test.db 这个数据文件交互。官网给出的流程图是这样的:

如图所示,Claude 先要和我们刚刚搭建的 SQLite MCP 服务之间建立连接,然后可以执行查询的操作。

首先,我们先用提示词来把这二者连接起来。这里的提问我是直接从人家官方的快速开始教程里面照抄的——「你能不能连接我的 SQLite 这个数据库,然后告诉我哪些商品现在可售,以及他们的售价?」

Can you connect to my SQLite database and tell me what products are available, and their prices?

Claude 立即就会明白需要和 SQLite MCP 沟通。

然后它就找我们要权限。我选择这一整次对话都可以给它开放权限(Allow for This Chat)。注意,这就是我刚刚跟你提到的安全性——大模型要做什么操作、找我们要什么样的权限、权限开放的时间范围多大……我们都可以自己来控制。

大模型开始与 MCP 通讯,执行一系列的 SQL 语句,通过查询返回结果。

注意,Claude 不像 SQLite 简单给你返回一个表格作为结果,而是用自然语言回答你的问题。这个样例中,它把现在可售商品都给你列出来,并且后面都标上价格。这种交互就显得非常自然。

下面我们来继续提出另一个样例问题——「在你的数据库中,商品平均价格是多少?」

What’s the average price of all products in the database?

这次大模型没有找我们再要权限。因为刚刚已经说明,整轮对话,它都可以获得 MCP 服务数据的操作权限。

执行后,Claude 告诉我们,平均值为 82.14 美元。

你会发现我们刚刚一直用英文来提问,这是因为教程是英文的,咱们为了方便拷贝了问题。但对 Claude 来说,中文完全不是问题。用中文来问「你能分析价格分布并提出任何定价的优化建议吗?」Claude 就会用中文来答。当然,背后还是连接 MCP 服务,调用 SQL 进行查询。

当查询遇到问题时,Claude 会自动反思,并且重组查询式,依照 MCP 服务返回的 SQLite 查询表格结果,告诉你不同的价格分布。

基于这些分析结果,它会给出优化建议,如价格策略、产品组合、促销策略和定价心理学应用等。

注意这是你单独用 SQLite 查询数据库无法直接给出的结果,SQLite 只能给出表格。而根据背景知识对查询结果表格进行解读,才是大模型的能力体现

既然跑通了官网给出的样例,我们接下来换上我讲数据库课程时常用的样例数据集,叫做 colleges。这个数据集来自斯坦福大学的一门 MOOC,包含学生申请大学的模拟数据。

数据集包括三个表格:apply(谁申请了哪个学校的哪个专业,是否被录取)、colleges(所有大学的列表)和 students(所有学生的信息)。

平时上课时,我在这几个表之间来回操作,教学生如何跨越表格综合信息返回正确的结果。

这次,咱们不用任何的 SQL 命令撰写,而是直接用自然语言来提问。首先,你要确保 MCP 连接成功。注意你需要修改配置文件里,数据库文件的路径,指向 colleges.db 。

对了,之后别忘了重启 Claude Desktop。

我的问题为:「你能否连接我的 SQLite 数据库,并告诉我里面有什么?」

Can you connect to my SQLite database and tell me what’s in it?

还是索要了一系列权限后,Claude 告诉我们有三个表:college、student、apply。

之后,通过进一步查询,Claude 为我们介绍 college 表中有哪些字段,student 和 apply 表又分别有哪些字段。至此意味着 MCP 数据连接成功。

Claude 会给出一些建议,告诉你可以问哪些问题。

不过我还是用自己的问题好了:「哪些同学报考了 Stanford 并且被录取?」

Claude 通过 MCP 执行查询,告诉我 Amy、Fay、Jay、Helen 这几个学生被斯坦福大学录取,并且说明了他们的 GPA 和专业信息。

Claude 特别指出,「有意思的是」被录取的学生中,两名被计算机科学专业录取,两名被历史专业录取,大多数学生 GPA 都很高,3.7 以上,但也有一位学生 GPA 较低,仍被历史专业录取。2.9 的 GPA 也能被斯坦福录取,这确实「很有意思」。

接下来咱们问它第二个问题:「哪些学生没有被任何学校录取,是因为分数太低吗?」

Claude 返回了两个学生的信息,并且说明 Bob 申请了 Berkeley 的生物专业,而 Craig 申请了 MIT 的计算机科学专业。

它总结说,这些没被录取的学生 GPA 其实不低,这表明 GPA 其实不是唯一的录取标准。然后 Claude 甚至还专门给出了报考大学的方法建议。

如果单单使用 SQL 查询,你不可能获得这些建议,这也是利用大模型做数据分析的有趣之处。Claude 通过 MCP 把当前的 SQL 查询结果与申请美国大学的背景知识有机地联系起来,厉害不?

但实际上,它的回答是错的

我教了十多年数据库课,对这个数据集非常熟悉。这里有一个陷阱——这个数据库里,有的学生没有申请任何一所大学。你不申请大学,当然不可能被任何一所大学录取,对吧?因此,在回答这个问题的时候,你的查询不能只看那些全部申请都被拒的学生。

所以我进一步提示它:

注意被所有申请的学校拒绝和没有被任何一所学校录取是不一样的。

我只提示到这,并没有说「有的学生没有申请学校」。但 Claude 很聪明,马上反应过来。它依然先找出所有提交过申请但没被录取的学生状况。后来它说,「让我们看看数据库中还有哪些学生是完全没有提交任何申请的」。注意这个查询,是它自己总结出来的。

综合分析后,它的答案是:刚才答案中那两个没有问题,是申请后却被所有申请的学校拒绝的学生;但还有若干完全没有提交申请的学生,分别是 Doris、Amy、Gary 和 Edward。

它还补充道,「这确实是两种完全不同的情况。谢谢您的纠正」。

很懂礼貌嘛,孺子可教。

Claude MCP 给我们带来的,绝不只是查询更简单、结果更全面、数据更安全这样的优势。至少,它打破了 Claude 处理数据长度和类型的限制。在 Claude 对话里,你想上传文件,就会看到限制——最多五个文件,每个文件不得超过 30 兆。

我找了一个上课时用到的数据库叫 movie.db。这个数据库包含了若干年的电影信息,虽然只有 246.7 兆,但这样的文件想在现在的 Claude 对话当中使用,那断然是不可能的。

你上传不上去,不仅仅是因为它体积太大,更是由于这种 .db 格式 Claude 就不允许上传,你连选择它都没有机会。

这些文件都是灰色的,不能点选。但是现在不一样了,我们直接把配置 MCP 路径修改成 movie.db,然后来连接。

Claude 找出这里面有三张表,分别包括了电影、演员和他们饰演角色的记录。

我问:「有多少女演员同时出演过《哈利・波特》电影的前两部?」你不要小看这个问题,你首先得知道《哈利・波特》电影的前两部都是啥。Claude 查询经过一些波折,但它非常勤恳地重构查询,然后告诉我们,这两部电影分别是《哈利・波特与魔法石》和《哈利・波特与密室》。

之后它列出了 8 个同时出现在两部电影中女演员的名单,还介绍了这个系列中的主要角色,如赫敏和麦格教授。我觉得这个回答非常好。

如果你在学习 SQL,那么还可以打开它的中间分析过程来查看完整 SQL 语句。

你可以自己用 SQLite 工具来验证查询结果。但更多时候,你兴许能从它的答案中得到参考和借鉴。

我必须说明一点——本文所演示的内容,只是 MCP 能力的冰山一角。MCP 现在支持的数据服务,就已包括 GitHubGoogle Drive、Slack 等。

甚至,你还可以用十几分钟的时间,干脆构建一个自己的 MCP 服务。官网分别提供了 Python 和 Typescript 语言版本的对应教程。

而仅从 SQLite 的样例看,MCP 目前就可以连接本地数据库,不用像原先那样把整个数据来回上传下载。安全性和控制力比以前显著增强。

Claude 通过 MCP 作为中介,能很好地分析 SQLite 的数据集。在咱们展示的例子中,MCP 的优点是把大模型和数据有机结合起来——通过对外部世界规律的微妙体悟,在真实任务中有效帮助你充分利用自己的数据。

提示词的清晰度依然很重要。例如刚才提到的「申请了学校但没有被录取」和「完全没有申请学校」这样的问题,有时还需要我们引导一下。

试想我们把不同的数据来源综合起来,在一个对话中综合调用,这种感觉像更是一种「化学反应」,想想就让人兴奋。希望 MCP 的出现,能激发你的创意,让你利用多元数据集获得更为深入的洞察。

还是那句话,「临渊羡鱼不如退而结网」。与其看个热闹,不如自己动手试一试。哪怕你只是按照 Claude 官网的教程走一遍也好,相信也能获得更为直接的感悟。

欢迎你把自己尝试 Claude + MCP 的结果分享在留言区,我们一起交流讨论。

祝 AI 辅助数据利用愉快!

Recraft – 打败 Midjourney,匿名屠榜的 AI 生图黑马,人人都能设计海报

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

如今 AI 圈更新产品的节奏,让每个和键盘难舍难分的编辑明白了一句台词:你还有多少惊喜是朕不知道的?

这不,又一个 AI 生图神器来了:Recraft。

好用在哪?一句话概括就是:人负责排列组合,AI 负责美工,审美挺好,还不容易出错。

对于普通人来说,设计海报又又又变得更简单了,我们就是 AI 的甲方,给它一套毛坯,它给你一次次不重样的精装。

Generate and edit vector art, icons, 3d images and illustrations in a wide range of styles suitable for websites, print and marketing

请问,设计一张海报,需要几步?Recraft 表示,三步就够了。

首先,在空白画布上,拉出一个紫色的框框;其次,在你想要的位置放入图片、文字,输入提示词;最后,点击生成按钮,AI 就能帮你化腐朽为神奇。

只要等待十几秒,一张海报出现在你面前。比如这样,轻轻松松把文字变成 3D。

▲ 图片来自:X@recraftai

或者,你想做个表情包,有图,有文案,但不知道怎么组合更好看,也可以交给 Recraft,让它来扩图,把文字自然地融进场景里。

▲ 左边,AI 生成;右边,草图

甚至,我们不上传图片,纯打字,让 Recraft 一条龙生成海报也没问题。

文字渲染一直是图片生成模型的痛点,但 Recraft 牛逼在,可以 hold 住一大段文字。

A 妹主演的《魔法坏女巫》将在 11 月上映,国内也会引进,然而,电影还在文火加热,设计简陋的海报已经被群嘲了。

不如让 Recraft 重做一次吧,我用不同字号,把文案排列了一下,草图这就算做好了,然后参考原海报,反推提示词,说明了画面的要素,接下来交给 AI 一键美化。

▲ 左边,AI 生成;右边,草图

可喜可贺,该有的都有,文字没有错误,每一行都被 AI 精心设计,和官方海报一比,风格不同,但没有差到哪里去。

Recraft – 打败 Midjourney,匿名屠榜的 AI 生图黑马,人人都能设计海报

▲ 左边,AI 生成;右边,官方海报

除了从头设计,Recraft 还可以处理多张图片,满足追星族和嗑 CP 爱好者的要求——把喜欢的角色 P 到一起,看起来不突兀。

以哈利波特和毒液为例,上传需要的两张照片,背景不同怎么办?这里不得不提 Recraft 一个非常实用的功能:一键抠图。

是的,传统的 P 图软件都有抠图功能,这不算什么,但 AI 生图工具,考虑到这个大众功能并加进产品的,不多。

抠图之后,配上文案,看起来仍然有次元壁,默认字体也丑了点,没关系,选择你想要的画风,让 AI 统一优化,就有同框的感觉了。

▲ 左边:优化后,右边:优化前

擅长设计平面是不够的,Recraft 的一个功能更让人拍案叫绝:Mockup,做立体物体的图案设计。

先让它生成一个普通的红色棒球帽,中间的绿色框框,用来生成图片,或者上传自己的图片,然后图片可以和帽子完美融入。

比如,加上一段文案:「make cats great again」(让猫猫再次伟大)。

抠图去除多余的背景,把图标拉伸到满意的大小、旋转和移动到合适的位置,它始终保持透视效果,自适应地贴合表面。

以此类推,T 恤、杯子、徽章也是一样的,吃谷虽然快乐,但伤钱包,以后可以自己给自己做周边,赛博欣赏,自娱自乐了。

▲ 仅示意,徽章是 Recraft 生成的,图案是上传的

请问,我为什么一直在让 AI 设计英文内容?

因为 Recraft 有硬伤:可以用中文提示词,但输出不了中文。哪怕我明确要求,某段话请用中文写,它也会「贴心」地给我翻译成英文。

但只要能登上 Recraft,就有免费额度可用,设计海报、封面、产品图、表情包…… 有便宜可占,已经很香了。

我们知道 Midjourney、DALL-E、Flux、Ideogram,但这个 Recraft 是何门何派?

前段时间,文生图模型 red_panda 在 X 一鸣惊人,因为它在 Hugging Face 的排行榜拿下了第一名,把有名有姓的前辈踩在脚下。

这个排名,靠两两图片对比得出,比的是综合能力,包括审美、提示词理解、身体结构准确性、文字生成质量等。

网友猜测,red_panda 是「小熊猫」的意思,难道来自中国?关子没有卖多久,幕后团队就出来自曝了。

red_panda 基于模型 Recraft V3,背后的公司是 2022 年成立、总部在伦敦的 Recraft AI,创始人曾在 Google、微软工作过。

Recraft 一朝成名天下闻,不是没有道理,这个产品集了各家之所长。

▲ 图片来自:X@recraftai

论高清、光影、真实感,Recraft 不输 Flux。

同时,它对新手友好,有很多不错的预设风格,游走在写实和艺术之间,不用写复杂的提示词,就能模拟各种摄影和绘画效果。

▲「Hard Flash」风格,强烈、直白的闪光灯效果

Recraft 擅长的长文本图像生成,准确度怕是让拿文本做招牌的 Ideogram 都自愧不如,而且,它很听话,可以让我们决定文本的大小和位置。

▲ 图片来自:X@recraftai

不过,Recraft 也可能出现文本错误,并且导致背景变形。当我模仿《火星救援》的风格做马斯克的海报,他的脸像被整容了,还是失败的那种。

▲ 左边:AI 生成;右边:草图

当 AI 生图工具都在增强可控性,Recraft 不落下风,Midjourney 的修改局部功能,它也有。

我们框选出某个区域,然后用提示词告诉 AI 怎么修改,加个帽子轻轻松松。

十八般武艺都会一点的 Recraft,会抢设计师的工作吗?恰恰相反,它是来交个朋友的,把自己定义成:面向设计师的生成式 AI。

所以,Recraft 具备了一些设计师们需要的功能,比如样式也可以通过更多的图像输入给模型,保持风格的稳定。

Recraft 还做了一个小小的协作功能,画布可以共享,让对方评论,因为「有时候,两个人的想法比一个人的想法更好」。

▲ 图片来自:X@recraftai

更喜闻乐见的是,Recraft 生成的图片可以免费商用。

当然,不是设计师的小白们,比如我,也可以玩得很开心,分分钟做出自己喜欢的海报。

而且,本就没必要将人和工具比较,Recraft 是来和 Canva 等设计工具、Midjourney 等 AI 生图工具同台竞争的,用户们坐享其成。

▲ 图片来自:X@recraftai

Canva 的 CEO Melanie Perkins 说过,Canva 希望让每一个人都设计出他们可以想象的任何东西,无论说什么语言,用什么设备。

所以,他们打破 Adobe 的门槛,简化了设计流程,提供了各种模板、部件、图片、字体,让用户增减元素。

▲ 图片来自:X@recraftai

AI 的进化方向,和这位 CEO 的愿景是一样的:为全世界赋予设计的能力。

但我们的选择,越来越不局限了,不是必须选择哪个产品,不是必须听某个创始人的故事,工具能帮我们做的越来越多,我们按下的按钮越来越少,甚至可以不亲手操作,人人都能设计一点东西,如果我们还愿意称之为设计。

Lessons I learned after completing the Google UX Design Professional Certificate

The image is a presentation slide with a dark green background and white text. The text reads “Lessons I learned after completing the Google UX Design Professional Certificate.” The logo “LRD.IM” is also displayed.

Recently, I heard that Coursera has a UX design course developed by Google’s design team. This course covers the entire design process and teaches us how to present our portfolio, prepare interviews, and the like.

It is necessary to enroll in this course even though it is designed primarily for beginners and fresh graduates. It would enhance my English skills on one hand, and deepen my understanding of Western design practices and culture on the other. Since the term “UX design” is called out by Western designers and I am eager to compare Western design cultures with those I’ve experienced in China.

So I enrolled in this online course, trying to spare my time on it. Such as during lunch and dinner breaks on weekdays, or parts of the weekend. I completed the whole certificate within two months. And now I’d like to write down what I learned from this course:

The image shows a dark green presentation slide with four text boxes labeled “New concepts,” “Listening and Reading Proficiency,” “Accessibility and equity,” and “Guidance for Job Hunting.” The text is in white and each box has a rounded edge.
  1. Introducing concepts I had never heard of. Despite my 5+ yoe in a wide range of companies, from startups to large corporations in China, those new concepts opened up a lot of room for me to explore.
  2. Enhancing my listening and reading skills. The course covers plenty of video and reading materials that include industry jargon that translators cannot provide. Moreover, certain phrases and sentence structures are repeatedly used throughout the course. I think my reading skills and speed are slightly improved.
  3. Pointing out concepts like accessibility and equity early throughout the course. I used to think only seasoned designers or well-developed products consider these aspects, however, they are mentioned early on and repeatedly. These concepts resonated with me and will truly influence my work.
  4. Elaborating comprehensive and detailed guidance for designers to prepare their portfolios, resumes, and interviews. They not only tell us what content should be included in our portfolios, but also how to prepare for interviews at different stages. I resonated with these instructions as well, since I did think those details over when looking for a new job.

Table of content

This is a wide banner-like image with a dark green background and the words “New concepts” in large, white text centered across the slide.

New concepts

I have consistently tried to think about and expand design boundaries through different aspects, which requires a breadth of knowledge. Here, I will share several new concepts along with my personal understanding.

Affinity diagram

This is a method of synthesizing that organizes data into groups with common themes or relationships. It can be used in different stages of the design process, such as during brainstorming or after collecting users feedback. The example below focuses on the latter.

After collecting a batch of user feedback, the design team condense each piece of feedback into a single sentence and write it on sticky notes. Then we post them up on a whiteboard or digital tools like Figma. Then the design team look for sticky notes that reference similar ideas, issues, or functionality and collaboratively organizes them into clusters representing different themes.

When I first learned about this approach in the course, I realized that this approach is similar to another method called “Card sorting” that was included in an article I translated earlier named [English to Chinese Translation] How we rebuilt Shopify’s developer docs. Both methods involve clustering sticky notes, naming these groups and summarizing the themes or relationships.

However, card sorting is implemented by external participants and aims to uncover users’ mental models to improve information architecture; Whereas affinity diagramming organizes a large amount of raw data to show the team which problems users are most concerned about and consider high priority.

* This concept is mentioned in Module 3 of Course 4 (Conduct UX Research and Test Early Concepts — Module 3 — Gather, organize, and reflect on data)

Digital literacy

This concept refers to an individual’s ability to gather, communicate, and create content using digital products and the internet. For example, senior adults or those living in areas with poor internet infrastructure may find it difficult to understand interfaces and functionalities, they are considered to have lower digital literacy.

In contrast, young people, especially those working in the information technology industries, are typically familiar with new software and concepts, and can quickly adapt to them.

This course does not dig deeply into this concept, rather, it emphasizes the importance of understanding our users. If our product targets a broad range of users, it is good to consider the needs of users with lower digital literacy. Moreover, this factor should also be considered when recruiting participants for usability tests.

* This concept is mentioned in Module 2 of Course 1 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

Deceptive pattern

This concept refers to a group of UX methods that trick users into doing or buying something they wouldn’t otherwise have done or bought.

In the course, instructors clearly point out that this is an unethical and not a good practice. Businesses may lose their clients’ respect and trust once clients realize that they have fallen into deceptive patterns. I will share a few interesting examples that the course provided.

  1. Confirmshaming: Making users feel ashamed of their decision. For example, a subscribe button on a news website usually reads “Subscribe now / No thanks”. BBut if the service provider wants to manipulate readers’ emotions, the text might be changed to: “Subscribe now / No, I don’t care about things around me.”
  2. Urgency: Pushing users to make a decision within a limited time. For example, an e-commerce website might give you a coupon that is only available for 24 hours, prompting you to purchase items without a thoughtful consideration. The course doesn’t judge these marketing strategies or promotions; instead, it suggests that we should avoid putting pressure on users. As designers, we should try our best to balance business promotions and avoid manipulating users’ emotions.
  3. Scarcity: Making users very aware of the limited number of items. For example, a popup or attractive advertisement stating “Only 5 items left in stock.” The course suggests that designers should concentrate on helping users to understand products better, rather than using designs to encourage impulsive buying.

It is really interesting that these deceptive patterns are so common in the Chinese e-commerce industry that it might seem unusual if those strategies were to disappear.

This seems to reflect cultural differences between China and the West. In China, core team members, such as designers, product managers, and operators, collaboratively discuss how to induce and prompt users to make a hasty decision. Also, we regularly hold reflections to discuss and share insights on how to deeply incite users’ motivation.

In 2018, I landed my first job as a UI designer at an e-commerce company. One of my main tasks is designing promotions, such as “claim your vouchers”, “flash sales ending in N hours”, and creating illustrations of red pockets and flying coins, and the like. I didn’t really like these approaches at that time, so I eventually turned to the B2B and SaaS industry, focusing more on UX design.

Although I am not fond of these types of designs, these seem to really help companies grow and generate income. We could stabilize our employment only if our company were earning profits. Perhaps that is an inextricable cycle: obviously, deceptive patterns are unethical and bad as they are inducing and annoying our users, but we must continuously implement these approaches and think about how to make them more effective.

* This concept is mentioned in Module 3 of Course 3 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

Biases

The course thoroughly explains a concept called “implicit bias”. It refers to the collection of attitudes and stereotypes associated, influencing our understanding of and decisions for a specific group of people.

For example, imagine you’re designing an app to help parents buy childcare. To personalize your onboarding process, you start by displaying bold text saying, “Welcome, moms. We’re here to help you…”

This is an example of implicit bias, since it excludes every other type of caregiver, like grandparents, guardians, dads and others.

In addition, here are some interesting biases the course introduced:

  1. Confirmation bias. Refers to the tendency to find evidence that supports people’s assumptions when gathering and analyzing information.
  2. Friendliness bias. Refers to the tendency to give more desirable answers or positive comments in order to please interviewers. This usually occurs in usability tests, where participants may not share their honest feedback because they are afraid that real answers or negative comments might offend interviewers and be considered unfriendly.
  3. False-consensus bias. Refers to the tendency that people tend to believe that their personal views or behaviors are more widely accepted than they actually are, and consider others’ opinions to be minor or marginal. For example, an optimist might think that most people around the world are optimistic; or designers can easily understand iconographies and illustrations they created, they might assume other users might easily to understand too.

I was shocked when I was learning this part. I strongly resonated with these biases which I had never perceived before. After all, the course lets us be aware of these biases and provides approaches to help us avoid falling into these pitfalls.

* This concept is mentioned in Module 3 of Course 3 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

I listed some concepts above that I had barely encountered in my workspace. Becoming a UX designer appears to require a broad range of knowledge, such as design, the humanities, psychology, and sociology. I am now interested in psychology after completing this course.

This is a wide banner-like image with a dark green background and the words “Listening and Reading Proficiency” in large, white text centered across the slide.

Listening and Reading Proficiency

There are plenty of listening and reading materials involved in the course. Typically, each video lesson is accompanied by an article. If there are additional knowledge points, a single video might be accompanied by two or three articles.

Most instructors in the course speak with American accents. They also speak slowly and clearly, which makes me comfortable and usually allows me to understand without opening closed caption. Sometimes, I need to rewind a few seconds when they are speaking long sentences with many clauses or introducing new concepts, and I will open closed captions if I am still confused.

It is worth pointing out that the course contains lots of industry jargon, and I resonated with this because I used similar approaches or processes in my workspace by using Chinese. As a learner, I created a spreadsheet to record expressions that might be useful, such as:

  1. Above the fold, the content on a web page that doesn’t require scrolling to experience;
  2. Deliverable, final products like mockups or documents that can be handed over to clients or developers to bring designs to life.
  3. Digital real estate, space within the digital interface where designers can arrange visual elements;
  4. Firm parameters, refer to rigid design boundaries or limitations like time, project resources, and budget.

I think it is valuable to collect this industry jargon because it is authentically expressed, which can’t be translated by common translation tools. This will be helpful for me to read design articles and write blogs in English.

This is a wide banner-like image with a dark green background and the words “Accessibility and Equity” in large, white text centered across the slide.

Accessibility and Equity

Accessibility

The course introduces several assistive technologies, such as color modification, voice control, switch devices, and screen readers, which can help people with different types of disabilities to use our products easily.

Instructors also point out that even people who don’t have disabilities, or who do not perceive themselves as having disabilities might benefit from these assistive technologies. The course suggests that we think these factors over throughout the entire design process. For instance:

  1. Supporting color modification. Features that increase the contrast of colors on a screen, like high-contrast mode or dark mode;
  2. Supporting voice control. Allows users to navigate and interact with the elements on their devices using only their voice. They also mention a concept called “Voice User Interface (VUI)”;
  3. Supporting switch devices. This is a one-button device that functions as an alternative to conventional input methods such as the keyboard, mouse, and touch, allowing users to complete common tasks like browsing webpages and typing text;
  4. Supporting screen readers. Allows users with vision impairment to perceive the content. The course suggests that we write alternative text to images, add appropriate aria labels to interactive elements like buttons, and consider the focus order of elements.

Here is a website that demonstrates the color modification feature: HubSpot.com

On the top navigation of this website, it provides a switch for us to toggle a high-contrast mode. Moreover, it also supports reduced motion effects — if I enable the reduced motion setting on my device, this website will minimize motion effects as much as possible.

Equity

The course also introduces a concept called “equity-focused design.”

Instructors clearly define the difference between “equality” and “equity”:

  1. Equality: Providing the same amount of opportunity and support, everyone receives the same thing;
  2. Equity: Providing different amount of opportunity and support according to individual circumstances, ensuring everyone can achieve the same outcomes.

The course also points out that equity-focused design means considering all races, genders, and abilities, especially focusing on groups that have been historically underrepresented or ignored when building products.

They use a survey question as an example: when gathering participants’ demographic information like gender, it is not enough to provide three options: “Male”, “Female” and “Other”. To make our design more inclusive and equitable, we should offer additional choices, including “Male”, “Female”, “Gender-nonconforming”, “nonbinary” and a blank field. The latter provides non-conventional gender options, uplifting those who might be marginalized in conventional surveys. This approach also aims to balance the opportunities for all groups to express themselves, ensuring their voices are treated fairly and heard.

In this lesson, I clearly faced a culture gap from the West. In fact, I don’t really like to dig into this concept deeply, mainly because I can’t determine whether this approach is right. Sometimes I think it is unnecessarily complicated, but at other times, I recognize that there are people with non-traditional genders around us who may truly be eager to be treated fairly.

When I was learning this lesson, I realized that there was an opportunity to incorporate accessibility features into the project I was recently working on. I will write a new post if this project lands successfully.

* This concept is mentioned in Module 2 of Course 1 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

This is a wide banner-like image with a dark green background and the words “Guidance for Job Hunting” in large, white text centered across the slide.

Guidance for Job Hunting

In the final course, instructors teach us how to lay out a portfolio and what content should be included. They also inform us the process of interviews and how to thoroughly prepare for interviews.

The guidance they mentioned is for the Western workplace, which may not seamlessly fit in the Chinese workplace. For example:

  1. They point out that designers should have a personal website and case studies regularly. However, Chinese designers prefer to publish their case studies on public platforms like ZCOOL and UI.CN;
  2. They also teach us how to build our digital presence and network through LinkedIn. However, these approaches are not common in the Chinese job market, where the most popular methods are directly submitting resumes and getting recommendations through acquaintances.
  3. They inform us how to handle panel interviews. I have interviewed with a wide range of companies, from startups to corporations, and never encountered panel interviews, which means that the panel interview is not popular in this industry.

I was deeply impressed by how they elaborated on the preparation and important considerations during the interview process. For example:

  1. Research the main business of the company you interview for beforehand, and clearly understand why you are a good fit for the company;
  2. Prepare answers to common interview questions beforehand, such as a personal introduction, your strengths, and descriptions of your case studies;
  3. We should learn how to answer difficult questions using the STAR method, and prepare well before starting an interview;
  4. Adapt the focus and questions according to the interviewer’s role to show you are a professional;
  5. During the interview process, you might be asked to complete a task. Therefore, we should practice the ability to think aloud and clearly define questions, since interviewers might pose vague questions on purpose.

I resonated with the approaches and tricks mentioned in the course that I had previously used, which gave me a strong feeling that I was on the right track.

Additionally, the course also provides detailed instructions on how to pursue freelance design work. For instance:

  1. Clearly identify your target audience and understand why they should choose your service;
  2. Know your competitors, identifying what they can’t provide but you can;
  3. Promote your service and build word-of-mouth by attending online and in-person events, and getting recommended through acquaintances;
  4. Calculate the business expenses, set fair prices for your services, and make financial projections — estimate what your finances will look like in the first month, the first 6 months, and the first year.

* This concept is mentioned in Module 3 of Course 7 (Design a User Experience for Social Good & Prepare for Jobs — Module 3)

To sum it up

Well, above are lessons I’ve learned from the Google UX Design Professional Certificate on Coursera over the past two months. I think that this is an interesting course, although not all content can be applied in my daily work, I’ve also learned the thinking processes and workplace cultures of designers in another part of the world.

I strongly recommend designers reading this post consider to enrolling in the Google UX Design Professional Certificate, by doing this, you might probably gain new insights. The course costs $49 monthly, which is not expensive. It is likely to complete the entire course over two or three months if you have a full-time job.

Things worked as I expected, and I will start my next project in the second half of the year.


Lessons I learned after completing the Google UX Design Professional Certificate was originally published in Bootcamp on Medium, where people are continuing the conversation by highlighting and responding to this story.

完成了 Google UX Design Professional Certificate 后的收获

最近了解到 Coursera 这个平台里面有一个 Google 设计团队出品的的 UX 设计课程,课程里会介绍完整的 UX 设计过程,并且教我们怎么写作品集和准备面试之类的。

即便这是一门面向初学者或应届生的课程,我觉得也有必要参加这个课程看看。一方面能锻炼下自己刚闭关修炼出来的的英语能力,更重要的是还能了解下西方职场的设计流程和设计文化(毕竟 “UX 设计” 这个概念是西方人创造出来的),我一直想对比看看老外的设计文化和自己这几年在国内职场的感受有没有什么异同。

于是就报名参加了这个网课,都是抽时间来学习的。比如工作日吃午饭和吃晚饭那段时间,或者周末的部份时间等等。总共花了 2 个月完成了所有课程。写这篇文章的目的也是记录下结课之后的感受:

图片中央展示四个方框,每个方框内部都用白色中文文字标识了不同的概念:“新的概念”,“听力、阅读能力”,“无障碍和公平”,“求职指引”。
  1. 里面提到的一些概念我没有听说过。即便我工作了 5 年,在小公司和大集团都呆过,里面有些概念仍然给了我很大的探索空间;
  2. 英文听力、阅读能力锻炼。里面有大量的视频和阅读材料,用词应该就是比较地道的行业术语,这些是翻译软件不能提供的。而且里面的材料都会不断重复一些短语或句型。我觉得我的阅读能力和速度是有所提升的;
  3. “无障碍” 和 “公平” 的概念被很早提及并贯穿全课程。我一直以为只有比较成熟的设计师或产品才会考虑到这些,但这些概念在课程中很早就被提及了,而且是反复提及。这触动了我,并真正地影响到了我的工作;
  4. 提供了全面且周到的指引帮助设计师准备作品集/简历/面试。这方面内容他们写得很细,告诉我们作品集里应该包含哪些,针对不同面试阶段所做的准备等。里面写到的东西我很有共鸣,因为我在找工作的时候也会去思考这些细节。
深绿色背景的宽幅 Banner,中间白色大字“新的概念”。

新的概念

工作这几年,我一直会尝试从更多不同的维度来思考和扩展原有的设计边界,做到这点需要有比较宽广的知识面。这里分享下我在课程里了解到的一些新概念,以及我的理解。

Affinity diagram 亲和图

这是一种组织数据的方法。从不同的反馈和数据中整理出他们的相似之处和关系。亲和图可以用在不同的设计阶段,比如在头脑风暴中,或者收集到用户反馈后,这里以后者为例子。

具体做法是在收集好一批用户反馈后,将每一个原始反馈浓缩成一句话,写在便利贴上并将它们都贴在白板上(当然,也可以用在线工具如 Figma 完成)。然后团队成员一起看这些内容,将提到相似概念/问题/需求的便利贴放在一起,并给这一堆便利贴起个名字概括他们的共同点。

根据分组结果,我们可以总结出一些趋势、痛点,了解到我们需要解决的问题也为后续的洞察报告提供了依据。

最开始在课程里了解到这个方法的时候,我突然想起来这与我两年前翻译的文章:【译文】我们如何重建 Shopify 的开发者文档 里提到的 “卡片分类法” 很像,都是将相似的卡片堆成一组,给该组命名,然后得出结论。

但卡片分类法里面 “分类” 的动作是由团队外部的人参与的,并且用于揭示用户的心智模型并为解决网站信息架构问题提供指引;而亲和图则是通过组织大量原始数据,告诉团队有哪些问题是用户关心的,亟待解决的问题。

*该概念在第四门课程的第三个模块中提及 (Conduct UX Research and Test Early Concepts — Module 3 — Gather, organize, and reflect on data)

Digital literacy 数字素养

这个概念大意是指人们对于数字产品、网络来获取信息、交流和创造内容的能力。比如一些年长的人、生活在网络没那么普及的环境中的人,他们对于使用电子设备和互联网就会有些障碍,理解功能和界面也会感到困难。而年轻人,特别是互联网行业的从业者则对这些就比较熟悉,各种新软件、新概念都能很快上手。

课程中对这个概念并没有展开太多,主要是提醒我们作为设计师,要了解到我们的用户是谁。如果是一个面向较宽广的用户群体,最好考虑也到对电子设备和互联网没那么熟悉的人。包括在做可用性测试时,招募的参与者最好也考虑到这个因素。

*该概念在第一门课程的第二个模块中提及 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

Deceptive pattern 欺诈性设计模式

指的是一种设计方法:通过设计去诱导用户去做一些本来不想做的事情,或购买本来不想买的东西。

在课程中,明确指出这是不道德的事情,不是好的做法。一旦用户认为自己陷入了欺诈性设计模式当中,公司将会失去用户的尊重和信任。课程中列举了一些例子,我可以拿几个有意思的的分享出来。

  1. Confirmshaming (羞辱性确认): 让用户对自己作出的决定感到愧疚。比如一个新闻网站的订阅按钮,文案里原本可以写 “立即订阅 / 不了,谢谢”,但为了操纵用户的情绪,文案写上 “立即订阅 / 不了,我不关心身边的事情”。
  2. Urgency (急迫性): 引诱用户在 “有限的时间内” 作出决定。比如电商网站里给你送了一张仅限当天使用的优惠券,促使你赶紧付钱消费。课程里指出并重点不是限时促销这件事情,而是在这过程中给用户增加了消费的压力。作为设计师,我们应该在曝光公司的促销活动的情况下,尽量避免操纵用户情绪。
  3. Scarcity (稀缺性): 使用户感受到这件商品非常稀缺。比如一个弹窗推送或明显的广告写着 “商品仅剩 5 件”。课程中建议设计师聚焦于怎么帮助用户更好地了解该产品,而不是利用设计促使他们进行冲动型消费。

有意思的是这几种 “欺诈性设计模式” 在咱们国内电商环境中太常见了,以至于没有这些反而感觉不正常。

看起来这是国内外文化的差异的一种体现。在国内的环境中丝毫不会避讳这些东西,反而设计、产品、运营都会一起构思怎么做才能更好地 “诱导” 用户做某些事情。甚至还会在内部复盘、分享,看看过程中有哪些地方可以继续改进。

2018 年,我的第一份工作是在面向消费者的电商公司里做 UI 设计师,经常要在界面上做出 “领取优惠券”、“秒杀价剩余 N 小时” 和礼包、金币满天飞的插画等设计,正正是因为自己不喜欢做这种设计,之后才转向了更注重 UX设计的做 B 端、SaaS 行业。

虽然自己本身是一点都不喜欢这种设计方式,但这似乎能实打实地帮助到公司获取收入。公司有一份好的收入,大家的工作才能稳定。似乎陷入了一个无法走出的循环 —— 明知道这种设计方式是不对的,是有诱导性质且给用户带来烦扰的,但又不得不继续做,并想办法做得更好。

*该概念在第三门课程的第三个模块中提及 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

Biases 偏见

课程里着重介绍了一个叫做 “隐性偏见 (implicit bias)” 的概念。“隐性偏见” 指的是我们潜意识里有一种态度或偏见,影响了我们对某一群体的理解或决定。

比如一个餐厅老板收到两份简历,求职者 A 是一个二十多岁的毕业生,没有餐饮行业经验;而求职者 B 则是一个 50 多岁的人,有 30 多年餐饮行业经验。但最终老板选择了求职者 A,因为他认为年轻人的体力更好,做事情会比 50 多岁的人要快。这就是一个 “隐性偏见” 的例子。

课程中还介绍了其他几种偏见,这里也分享一些我觉得有意思的:

  1. Confirmation bias (确认偏见)。指的是人们在收集信息和分析信息的过程中,倾向于寻找支持自己想法的证据。甚至尝试以更贴近自己预想结果的方式来解释数据;
  2. Friendliness bias (友善偏见)。指的是为了令其他人满意,受访者更倾向于做出访问者希望得到的答案或者做出积极评价。通常发生在可用性测试当中,受访者觉得说出真实答案或负面情绪的答案会被认为冒犯和不友善,不将自己的真正想法说出来;
  3. False-consensus bias (错误共识偏见)。指的是人们倾向于认为自己的观点或行为比实际情况更广泛地被认同,并且觉得其他人的观点或意见是被少数人接受的。比如一个人很乐观主义,就会认为世界上大多数人都是乐观主义;设计师能够很轻松地理解自己设计出来的图标、图像含义,就会认为其他用户也能轻易理解。

学到这里的时候我似乎被当头一棒,我似乎对里面提到的不少偏见都有共鸣,并且自己从来没意识到有这么一回事。总的来说,课程希望我们认识这些偏见,然后提供方法教我们怎么避免这些偏见。

以上列举了几个我在课程里了解到在日常工作中不怎么接触到的概念。可以看出来做一名 UX 设计师似乎得有宽广的知识背景,比如设计、人文、心理、社会学等等。通过这门课程,我觉得我对心理学产生了一些兴趣。

* 该概念在第三门课程的第三个模块中提及 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

深绿色背景的宽幅 Banner,中间白色大字”听力、阅读能力”。

听力、阅读能力

课程里面的听力和阅读材料实在是太多了,基本上是一节视频课程,搭配一篇的阅读,如果有其他可以衍生出来的知识点,甚至会多篇阅读。

里面绝大多数老师都是美式口音,语速有刻意地减慢,我听着很舒适,绝大部分情况下不用看字幕。只是到了一些包含大量从句的长句子或新概念时可能会需要倒退一下多听几遍,再听不懂就会开字幕来看。

值得一提的是,里面有大量的行业术语,有很多我在国内日常工作中的用到的设计方法/流程等,这里都有出现到。作为学习者,我自己有做一个表格,把值得记录下来的表达方式都记下来,比如:

  1. Above the fold 指的是在首屏(不用滚动)就能看到的内容;
  2. Deliverable 设计的交付物;
  3. Digital real estate 大概是指视窗范围或可供设计师发挥的空间尺寸;
  4. Firm parameters 指一些设计过程中的限制,如时间,项目资源和预算等…

我觉得积累这种行业词汇有一个宝贵之处是,它的表达很地道,用通用的翻译软件是做不到的。这对我阅读设计经验文章,或者自己用英文写设计博客很有帮助。

深绿色背景的宽幅 Banner,中间白色大字”无障碍和公平”。

无障碍和公平

无障碍

课程中介绍了几种辅助技术 (Assistive Technology),如颜色模式、语音控制、Switch 设备和屏幕阅读器等帮助身体有障碍的人们更好地使用我们的产品。课程强调即便是健全人,或者认为自己是健全人的群体,也有可能会用到这些辅助技术。课程建议我们在设计的全流程都考虑这些因素。具体的做法,比如:

  1. 支持多种色彩模式。如亮色/暗色模式,支持增强对比度和减弱透明度等效果;
  2. 提供语音控制支持。允许用户通过声音来导航和与界面上的元素交互。另外,里面提到有个概念叫做 “VUI”;
  3. 支持一种叫做 “Switch” 的设备。这是一种代替键盘、鼠标或手指等常见输入方式的设备,通常只有一个按钮。用户就是通过一个按钮来实现浏览网页、输入文字等日常操作的;
  4. 支持屏幕阅读器。确保人们可以在看不见屏幕的情况下也能获取到主要内容。课程建议我们给图片添加替代文字,或者给按钮等控件加上合适的标签,并且留意元素的聚焦顺序。

这里分享一个在这方面有所体现的网站:HubSpot.com

这个网站提供了强对比的色彩模式,在顶部导航栏里有开关可以切换。同时也支持减弱动画的效果,如果我的设备在系统设置里设置了减弱动画,这个网站的大部份动效都会被移除。

公平

课程中介绍了一个概念叫做 “以公平为中心的设计” (equity-focused design),并厘清了 “平等” 和 “公平” 这两个概念:

  • 平等是每个人都有相同的机会和支持,即每个人都拿到了同样的东西;
  • 公平是根据每个人不同的情况而提供不同的机会和支持,最终大家都能有相同的结果。

课程中指明,面向 “公平” 的设计,需要考虑到所有种族、性别、能力,特别是一些曾经被忽视和排除的群体

他们以一个问卷问题作为例子:在收集受试者的性别信息时,如果只提供三个选项:“男”、“女” 和 “其他” 是不够的。如果想要更包容和公平我们应该提供:“男”、“女”、“非常规性别”、“非二元性别” 和 “请填写”。后者通过提供非传统性别选项和自定义选项,关注到了那些可能在传统问卷调查中被边缘化的群体。试图平衡不同群体间的表达机会,确保他们的声音被平等对待和听见。

从这门课程里我正面感受到了来自西方文化差异。实际上我不是很想太深入学这里面的门道,主要是我没法判断他们这种做法到底是对还是错,我有时候会认为这是在闲着没事干,有时候又认为我们身边确实也会有这种非传统性别的人,他们或许真的需要被 “平等对待”。

学到这里时,刚好公司的工作中有机会可以让我在设计中加入对无障碍的考量,我便抓紧机会在公司实施了一番。如果我的计划落地成功,我也会在这里分享出来的。

*该概念在第一门课程的第二个模块中提及 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

深绿色背景的宽幅 Banner,中间白色大字”求职指引”。

求职指引

最后一课老师教授了我们怎么做作品集、一份作品集里要包含哪些东西、面试的流程、怎么准备面试等。

课程里讲述的都是西方世界的职场规则,有些未必在国内职场适用,比如:

  1. 比如他会提到设计师应该有一个自己的个人网站,里面需要及时更新自己的作品。但在国内大家似乎更喜欢将作品传上平台提高曝光度,比如站酷UI 中国
  2. 他会教我们怎么建立自己在互联网上的形象并通过 LinkedIn 去做 Networking。但似乎在国内的职场上没有这一步,身边的人多数都是直接在网站上投简历,或者有少量的人是熟人内推进去的;
  3. 里面有教我们怎么应对小组面试。我这几年在国内面试了大大小小公司,没试过有小组面试的情况,说明小组面试在我们的行业内不是特别流行。

印象比较深的是在课程里他提到了对于面试的准备,以及面试过程中的注意事项。课程里说得真的挺细的,比如:

  1. 面试前要了解好公司所做的业务,清楚自己为什么适合去那家公司;
  2. 提前准备好一些常用的问题,比如个人介绍、个人优势以及介绍设计案例等;
  3. 学会用 STAR 法则回答困难的问题,在面试前提前练习好;
  4. 根据面试官身份来改变面试的侧重点和要提问的问题,需要体现出自身的专业性;
  5. 面试时可能会有现场测试题。所以我们要练习好将自己的想法说出来的能力,也要有界定清楚问题的能力(因为有时候面试官特意给出很模糊的问题)

有时候刚看看到课程里提到的方法和技巧,正好是我有用过的,我会感到有共鸣,觉得自己的方向是对的。

另外,课程里还有教我们如果想走自由职业,要遵循怎么样的步骤。写得还比较详细,我这里列举几点:

  1. 明确目标用户是哪些群体,他们为什么要选择自己的服务;
  2. 了解自己的竞争对手,看看有没有东西是他们提供不了而自己是可以的;
  3. 通过参加线上推广、线下活动、熟人推荐等方式推销自己的服务和建立口碑;
  4. 计算开支,合理定价,并且制定财务计划 —— 构思第一个月、第六个月或第一年自己的财物状况是怎样的。

*该内容在第七门课程的第三个模块中提及 (Design a User Experience for Social Good & Prepare for Jobs — Module 3)

总结

以上就是我这两个月以来在 Coursera 平台里学习 Google UX 课程的一些收获。我觉得还是挺有意思的一门课程,即便不是所有内容都能在日常工作中应用,但至少知道在地球里的另一个世界,那边的设计师他们的思考习惯、职场文化是怎样的。

我很推荐看到这里的设计师们去这门课程 Google UX Design Professional Certificate 里瞧瞧,相信大部份人都是有收获的。收费不是很贵,是按月来收费。每个月 49 美刀,工作党每天抽点时间来看,一般 2~3 个月都能完成了。

事情按照预期发展,五一假期结束了这门课程,下半年又可以开始捣鼓另一件事情了。

如何在Gmail中添加其它邮箱来收发邮件?

最近在 Gmail 的邮箱设置中,通过「用这个地址发送邮件」添加第三方邮箱账号,总是会出现错误而无法添加。最终折腾了好多次才发现问题的解决办法,现分享出来供大家参考。步骤及说明如下:1、通过「用这个地址发送邮件」无法成功添加时,可通过下图所示的「查收其他账号的邮件」功能添加我反复尝试通过「用这个地址发送邮件」入口添加,结果均告失败,最终通过「查收其他账号的邮件」添加成功。2、可选择通过「Gmaillify」功能进行账号关联将自己的第三方账号与 Gmail 关联后,就可以方便快捷地在 Gmail 中查收其它平台的邮件,而且可以直接在 Gmail 中用关联的第三方邮箱账号发送邮件,效果和直接在第三方平台发送邮件一样(收件人看到的发件人不是 Gmail 账号,而是关联的第三方账号)。需要注意的是,一个 Gmail 账号只能够与一个第三方账号进行「Gmaillify」方式的关联,其它账号只能够

如何在谷歌电子表格(Google Sheets)中生成日期选择器

在使用谷歌电子表格(Google spreadsheet,Google Sheets)时,有时候需要在单元格中输入日期,如果输入法本身没有快捷输入日期的功能,通过手动输入则会非常繁琐,有没有办法让单元格生成日期选择器,通过点选操作就可以快速输入日期呢?方法是有的,按照下面的操作就可以完成。1、选中某个(或多个)需要设置日期选择器的单元格,右键选择【数据(data)】——【数据验证(data validation)】;2、选择【添加规则(Add rule)】,完成以下几个设置:2-1、在【应用范围(Apply to range)】一栏修改生效的表格范围,例如 B1 到 B13 之间的表格则写为:B1:B13(英文输入);2-2、在【条件(Criteria)】一栏选择【是有效日期(is valid date)】,点击完成。双击在上述设置生效范围内的单元格,即会出现日期选择器(如下图所示),点

❌