Normal view

There are new articles available, click to refresh the page.
Yesterday — 29 August 2025Main stream

Google Pixel 10 评测汇总:AI 用得爽,就是 AI 手机了吗?

By: 苏伟鸿
29 August 2025 at 13:50

Google Pixel,在当今的市场中确实是一款非常独特的手机。

手上同时有顶级 AI 技术和操作系统,还在自研手机处理器的厂家,全球目前只有 Google 一家,Google Pixel 自然而然就成为了 AI 手机的一个范本。

去年的 Pixel 9 不管是在手机本身的产品力还是 AI 能力上,都做到了系列的新高峰,继任的 Pixel 10 作为十周年之作如何突破,不免让人期待。

外网的各大媒体和博主已经拿到了这款手机并进行了详细的评测。总的来说,Pixel 10 并不是一次飞跃式的大更新,而是 Pixel 9 基础上的一次迭代,是一台搭载了实用的 AI 功能的优良手机。

但它还不是「AI 手机」。

终于有实用的 AI 功能了

比起影像上整的花活,全新的「Magic Cue」功能要更加实用一点,The Verge 的评价非常到位:

真正让 AI 功能从派对小把戏变成移动设备上发挥作用的功能。

Magic Cue(魔法提示)有点像我们现在经常用到的「验证码自动提取」功能,范围和能力都要更强,会自动收集用户应用、电邮、短信、截图、日程等等的数据信息,然后在用户需要用到的时候主动提供。

比如当朋友问到今晚吃饭的地址,短信应用就会自动提示相关信息,用户一点就行。

以及更进阶的一种意图识别能力:在食评网站上看到几家餐厅推荐,打开 Google 地图搜索框键盘就会自动建议餐厅的名字。

不过媒体都发现,这个功能不总是非常稳定能生效,并且需要长时间使用手机,等待处理应用之中的所有信息,而一些比较久远的预订安排就很难被提示。

▲ Magic Cue 不总是有用,有时候也给不出任何提示,图源:Engadget

对比起效果类似,但需要用户主动去询问的苹果 AI Siri,Google 的 Magic Cue 在实用性上要更强,毕竟我们对 AI 的期待,还是它能更主动地将结果推送到我们面前,减少自己的存在感。

Pixel 10 还带来了类似三星「即时简报」的 AI 个人总结功能「Daily Hub」,快速摘要提示个人一天的日程安排,并推送一些你可能以为会感兴趣的内容。

▲ The Verge

由于 YouTube 也属于 Google 服务,有时候 Daily Hub 推荐的 YouTube 视频或音乐确实能很好预测到用户的喜好。

不过 The Verge 发现这个内容推送不总是很好用:仅仅是因为用户查了废品回收公司的时间表,手机就给她推送了一堆废品回收的相关知识。

AI 实时翻译可以说是 Google 的舒适区,这次 Pixel 10 更进一步,把这个功能集成在通话之中:跨语言直接聊天,AI 会按照你的声线,把你说的话翻译成对方的语言。

▲ 图源:9to5Google

看起来很理想,而在 The Wired 实测中,只能实时翻译一段时间,很快就连朋友的语音都听不见了,并且在语速很快的时候也无法正常运作。

这个功能更像是「秀肌肉」而不是从日常使用角度出发,毕竟大部分人很少有机会和外国人通电话,即使遇到这种场景,对方大概率也是陌生人,也没有太大必要还原自己的声线了。

这种乍一看很高技术力,实际上并没有太多作用的功能在 Pixel 10 上比比皆是。比如从发布到实测都被吐槽的「Camera Coach」——AI 实时分析取景器,生成一个个详细步骤帮你拍出好照片。

这个功能确实能拍出不错的照片,代价就是整个过程变得非常繁琐,需要用户进行不少尝试,而我们用 AI,不就是想跳过这些繁琐步骤,直接获得一个不错的结果吗?

Pro Res Zoom 新功能或许就是我们喜闻乐见的一种 AI:利用 Pixel 10 Pro 的 5 倍长焦拍摄一张 100 倍的照片,然后用 AI 对细节进行增强。

实测效果比预想中要优秀很多,虽然不能作用于人脸,出片质量还算稳定,不过由于照片细节要靠 AI 自己脑补重画,所以有时候出片会比较诡异,比较适合光线充足、拍摄对象很好预测的场景。

▲ 放大 100 倍拍摄,左:未开启 Pro Res Zoom;右:开启 Pro Res Zoom

「指令修图」也是一个相对更实用的场景:直接告诉 AI 你想把图修得怎么样,为图片增加或删除什么物体,AI 就会根据你的指令调整、重绘图片。

不少媒体都对这个功能给出了好评,让不懂色阶、曲线等等参数的小白几秒内 P 出好照片,当然也有短板,比如没办法拉直一些倾斜的拍摄物体,也很难针对单一的拍摄对象进行精修。

关于这个功能,Wired 有一个很有趣的观点:很好体现了 Pixel 10 的「AI 手机」属性,让用户知道自己手上的手机,还能用自然语言完成一些复杂交互。

▲ 两个单词让 Gemini 为我修出美图,图源:Android Central

总体来说,外媒认为 Pixel 10 这台「AI 手机」上的 AI 功能虽然又多又杂,但其中有不少实用性很高,另外一些则显得有点强行。

当然,Pixel 10 的 AI 功能也免不了幻觉和误解用户意图的毛病。The Verge 的编辑在用全新的「日记」应用时,写道自己的女儿心情不好,因为今天是她朋友在学校的最后一天,AI 马上安慰这位编辑节哀顺变,其实这位好友只是要转学了。

AI 之外也是好手机

AI 之外,外界对 Pixel 10 最关心的,还有全新的 Tensor G5 处理器实际表现如何。

Google 自研的 Tensor 处理器由于此前采用的是制程落后的三星工艺,导致连续四代都被诟病性能差、能耗高,G5 换用苹果同款的台积电 3nm 工艺,因此期望值还是很高的。

虽然从跑分上看,G5 还是落后高通和苹果一代,但体验上纵向对比以往的 Pixel 9 手机,还是有不小的提升的。

最明显的感知:Pixel 日常使用终于不会无缘无故发热,甚至还能打游戏了。

Android Central 用 Pixel 10 Pro 启动了《原神》和《我的世界》,能够以 60FPS 的帧率运行,而上一代 Pixel 9 Pro 连 40FPS 都相当吃力。

▲ 图源:Android Central

The Wired 则尝试了更极限的场景。最高设置跑一个多小时《鸣潮》,Pixel 10 Pro 会出现一些卡顿,没有均热板配置的 Pixel 10 会更卡并且更烫,总体体验都很好,只是依旧不如 iPhone 16 Pro 或者三星 Galaxy S25 Ultra。

而 Android Authority 发现,G5 的 GPU 更换了架构,带来了一些潜在的兼容性问题,以及比前一代更明显的发热问题,导致长时间使用后,Pixel 10 系列的 GPU 性能表现已经很接近上一代了。

▲ 图源:Android Authority

比起性能跑分,Google 更注重的其实还是 Tensor 跑本地 AI 大模型的能力。

台积电代工的 Tensor G5 另一大优势就是更优秀的能耗表现,即使三款手机的电池容量提升不大,手机续航还是有不小的提升。

不管是 Pixel 10、Pixel 10 Pro 还是 Pixel 10 Pro XL 都属于是「妥妥用一天」的水平,特别是 XL,续航时间比前代提升足足 90 分钟,能亮屏 7 小时左右。

虽然充电功率没有太大提升, Pixel 10 系列全新的 Qi2 无线磁吸充电依旧获得了不少好评,但有一个降级:不再支持过往型号的反向充电功能,不能再帮其他设备进行无线充电了。

▲ 图源:The Wired

影像方面虽然硬件上改变不大,不过 Google 的长处还是调校和算法。

Pixel 10 上的人像模式获得了一致好评,支持全分辨率的人像拍摄,可以捕捉更高层次的细节。

▲ 图源:CNET

但 Engadget 发现这为手机带来更大的处理压力,连拍三张手机就会需要暂停拍摄进行处理。

成片方面,Pixel 10 的人物肤色比较均衡,并且对头发进行了单独优化,The Verge 形容「保留了每一缕头发」,弱光环境中 Pixel 10 Pro 表现远远优于 iPhone 16 Pro。

▲ 图源:PetaPixel

▲ 左:iPhone 16 Pro Max,右:Pixel 10 Pro,图源:The Wired

同样可圈可点的还有 Pixel 10 Pro 的 4800 万像素的五倍长焦,不仅色调准确,在任何光照环境下都能实现清晰、干净的成片效果,The Wired 给出了高度评价:

这些手机(Pixel 10)的变焦功能真是一种享受。

▲Pixel 10 Pro 5 倍光学变焦,图源:CNET

AI 手机的下一步怎么走

Pixel 10 是一台好手机吗?几乎每家媒体都给出了一个 8 分以上的好评,从这个层面上来说这确实是一款不错的产品。

并且很难得的,在 Pixel 10 配备的一大箩筐 AI 功能之中,确实是有实用的,当然也有「为 AI 而 AI」的整活。

只是,即使是手握顶级 AI 模型、操作系统以及处理器的 Google,做出来的「AI 手机」也只能给人一种「就这」的感觉,不免让人觉得有点灰心。

▲ 通话时也能提供航班信息的 Magic Cue,图源:9to5Google

虽然「Magic Cue」和指令修图确实好用,它们解决的更多是用户的痒点,把一些平时不够好的体验更流畅了,谈不上「颠覆性」,本质只是 AI 对当下手机使用的一种赋能,而没有改变我们用手机的方式。

本质上,这些功能和「自动填验证码」的创新,其实没什么不同。

在我们的想象中,AI 的运行逻辑应该是由人类用户下达指令、AI 自动理解指令并主动结合周围的一切资源开始自动执行任务:

我不需要谷歌相册必须要我点击编辑按钮之后才会弹出 Gemini 对话框,我需要直接唤醒 Gemini:帮我把我刚才拍的两百张酒吧照片里面模糊的删掉,P 一下亮度和颜色,然后选出 9 张不一样的鸡尾酒发朋友圈。

而且,即使 Pixel 10 的性能已经有明显提升,不少 AI 能力实现端侧运行,能力依旧相对有限,还是有相当一部分的功能需要联网,利用云端 AI 算力进行。

而云端就意味着这些功能不是随时就绪,体验的好坏非常取决于网络连接的速率,也很大程度制约了一些更强大的功能落地到手机场景。

平时用电脑进行办公学习,调用云端强大的 AI 聊天机器人协助我们很正常,而在智能手机,日后甚至还有眼镜这些碎片化强移动的场景中,云端 AI 并不是一个最完美的方案。

Pixel 10 搭载的端侧 Gemini Nano 小模型完整的规模也在 8B 左右,虽然已经不算小,对比动辄 70B 上下的常规生成式模型来说,这中间有难以逾越的鸿沟。

在这几年内,我们也难看到手机的性能表现突破到这种水平,完全成为一台内置强大大模型,交互上完全不同的 AI 手机。

所以,Google Pixel 10 是一台「搭载了不错 AI 功能的好手机」,但它距离我们预期之中的「AI 手机」,还有不小的距离。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Before yesterdayMain stream

神秘「香蕉」AI 正式上线!Google P 图新王深夜炸场|附体验方式

By: 张子豪
27 August 2025 at 12:44

还记得之前大家热议的神秘 AI 图片编辑模型「nano-banana」吗?

前几天,我们在 LMArena 大语言模型竞技场里面用它进行了多轮测试,结果表现都非常出色。

现在,Google 终于揭开了它的神秘面纱。

▲ Google AI Studio 负责人 Logan Kilpatrick 发推文宣布正式推出 Gemini 2.5 Flash Image 模型

Google 正式推出了其最先进的图像生成与编辑模型——Gemini 2.5 Flash Image。

▲ 在多个榜单上都是第一名,尤其是 LMArena 榜单几乎是遥遥领先

在更新的技术博客里面,Google 提到此前的 Gemini 2.0 Flash 已经在图像生成方面,以其低延迟和高性价比受到了开发者的喜爱,但用户们也一直期待更高质量的图像和更强大的创作控制功能

Gemini 2.5 Flash Image 就是带着一系列的重磅更新,来强势回应这些期待。

和我们之前的体验效果一样,Gemini 2.5 Flash Image 的主要特点包括下面几点

  1. 充分保持角色的一致性
  2. 基于提示的图片编辑
  3. 利用 Gemini 的现实世界知识
  4. 多幅图像融合

一张图讲一个故事:角色、场景随心换

以往的 AI 绘图工具,最大的痛点之一就是难以保持角色或物体的一致性。我们都曾经经历过,想让同一个角色出现在不同场景中,结果却常常画风突变,每一次生成都像换了个人。

Gemini 2.5 Flash Image 彻底解决了这个问题。

▲ 图片来源 X@geminiap

它可以轻松地将同一个角色置于不同的环境中,或者从多个角度展示同一款产品,同时完美地保持其核心主体不变。Google 提到这对于需要讲述连续故事、生成品牌系列资产或制作产品目录的场景来说,无疑是一项革命性的功能。

为了展示这项能力,Google AI Studio 中还提供了一个模板应用,让开发者可以快速上手,甚至在其基础上进行二次开发。

▲ 体验地址:https://aistudio.google.com/apps/bundled/past_forward

在这个体验项目里,我们不需要输入任何的提示词,只用上传一张人像照片,它就会调用这个最新的图像模型,为我们生成从 1976 年 到 1990 年等各个年份的照片。

马斯克看到自己这么帅心里一定在想,我的 Grok 也可以。

一句话修图,用自然语言精准编辑

除了这种保持好高度一致的角色生成,精准的编辑也是一大亮点。Gemini 2.5 Flash Image 允许我们通过简单的自然语言指令,对图片进行精准的局部修改 。

像是模糊图片背景、消除 T 恤上的污渍、从合照中移除某个人、改变人物的姿势、为黑白照片上色……

这一切,都不再需要复杂繁琐的专业软件操作,我们只需要像聊天一样,用一句话告诉 AI 想做什么即可。

这跟我们之前在 LMArena 中的体验是一样的,像是我们也转换过照片的风格,从黑白到彩色;以及对照片进行细微的调整等。

▲ 图片来源 X@geminiapp

Google 同样设计了一个简单的应用,来方便我们更好的体验这种基于提示词的图像编辑,但是完全媲美 PS 软件的效果。

▲ 体验地址:https://aistudio.google.com/apps/bundled/pixshop

不止会画,更「懂」世界

过去的图像模型虽然能创造出精美的图片,但往往缺乏对现实世界的深层语义理解 。

Gemini 2.5 Flash Image 借助 Gemini 强大的世界知识库,让图像生成变得更加「智能」。

这意味着,模型不仅能看懂我们潦草手绘的图表,还能回答与现实世界相关的问题,并一步到位地执行复杂的编辑指令。

▲ 体验地址:https://aistudio.google.com/apps/bundled/codrawing

听起来很有多模态推理的感觉,Google 在 AI Studio 中展示了一个互动教育应用,将一块简单的画布变成了可以答疑解惑的智能导师,我由衷的感叹这个模型是真的厉害。

图像融合:轻松实现「无缝」拼贴

新模型还带来了一项酷炫的功能——多图像融合。我们可以将一张图片中的物体「放」进另一张图片的场景里,或者用一张图的风格去渲染另一间屋子,整个过程只需一条提示指令就能完成。

同样是 Google AI Studio 里面的模板体验应用,我们只需要把产品拖拽到新场景中,就可快速生成一张毫无违和感的、真实照片般的融合图像。

▲ 体验地址:https://aistudio.google.com/apps/bundled/home_canvas

在这个模板应用里面,我们甚至不需要输入任何提示词,可以直接拖动某个物体,到场景图片上的具体位置,然后它会自动生成融合的图片。

如何上手体验?

除了我们在前面提到的那些 Google AI Studio 里面的模板应用。

目前,Gemini 2.5 Flash Image 已经可以通过 Gemini APP、Gemini API、Google AI Studio 和 Vertex AI 进行访问。

关于调用 API,具体的定价是每百万输出 token 30 美元,官方介绍,生成一张图片大约消耗 1290 个输出 token,也就是说,每张图片的成本约为 0.039 美元,换算下来人民币不到 3 毛钱

值得一提的是,所有通过 Gemini 2.5 Flash Image 创建或编辑的图片,都会包含 SynthID 隐形数字水印,以便识别其为 AI 生成或编辑的内容。

这跟前些天 Google 发布 Pixel 10 系列手机时,讲到 AI 图片编辑 Ask Photo 工具时,使用的 C2PA(内容来源和真实性联盟) 内容凭证是一样的。

最后,Google 还提到正在努力提升模型在长文本渲染、角色一致性稳定度和图像细节真实性等方面的表现。

总而言之,Gemini 2.5 Flash Image 的发布,让 AI 图像工具从一个单纯的绘画玩具,向一个真正实用的创意与生产力工具迈出了一大步。

它不仅解决了我们过去使用 AI 绘图时的诸多痛点,还带来了更多有趣、实用的新玩法。

之前 4o 生图能力出来,看到很多 App 开始主打用一张图每天生成一首诗,还有像是拿到了今年 Apple 设计大奖的 CapWords,拍一张生活里的照片,来实景学习一门新的语言……

我现在已经迫不及待想看到基于 Gemini 2.5 Flash Image 模型,又会有哪些新应用诞生了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


谷歌的 Pixel X,和我们想的不太一样|Made by Google 2025 发布会速览

By: 马扶摇
25 August 2025 at 14:16

在经过长足的预热,并且见识到谷歌堪比阿伯维尔的保密程度之后,我们终于迎来了 2025 年谷歌的 Pixel 系列新品。

不出所料,其中大部分硬件参数都与前期爆料中的信息相符,大小两款 Pro 机型更是与上一代别无二致,通过「不换壳只换芯」的方式实现了一次多快好省的升级换代。

图|Business Wire

不过本次 Made by Google 发布会也并非全无亮点——虽然今年四款 Pixel 手机的硬件毫无惊喜,但 Gemini 又迎来了一波新的加强,与手机的软硬结合程度也更上一层楼。

但 AI 的加强不代表可以在硬件方面摆烂。今年的 Made by Google 上,除了 Jimmy Felon 的串场主持之外,我们还看到了四台比曾经任何一代都要偏科的 Pixel 10 系列新机。

太长不读(TL;DR)

  • Pixel 10:799 美元起,小底 5 倍长焦,USB 速率升级,影像提升全靠算法
  • Pixel 10 Pro / Pro XL:999 美元 / 1199 美元起,传感器看齐 9a,XL 独占 25W 无线充电
  • Pixel 10 Pro Fold:1799 美元起,全世界第一台 6 级防尘折叠屏,其余配置都是熟悉的面孔
  • Pixel Watch 4:349.99 美元起,市场上少数几家坚持曲面圆形屏幕的智能手表
  • 购买 Pro 或者 Fold 机型,赠送一整年(239 美元)的 Google AI Pro 订阅

一碗水端平的升级

谷歌作为目前市面上为数不多的几家拥有自研 SoC 的厂商,从 Pixel 6 系列就实装的 Tensor 处理器却饱受性能不足和能耗不优的问题。

图|Google

这个历史性难题终于在今年得到了解决——原因很简单,谷歌终于结束了找三星做 5nm 代工的日子,转头用上了台积电的第二代 3nm(N3E)制程,来定做本次的 Tensor G5 处理器。

根据发布会上公布的信息,Tensor G5 处理器采用了 1+5+2 的八核心架构,超大核采用 ARM 的 Cortex X4 核心,综合性能结合发布会前泄露的安兔兔数据,G5 相比 G4 提升明显,与骁龙 8 Gen 2(约 128 万分)比较相近。

图|TechNetBook

而谷歌本次也保持了全系列处理器共享的优秀传统,今年的四款 Pixel 新机全都可以用上 Tensor G5,更难得的是甚至没有像隔壁苹果那样,在核心数上阉割。

此外,在 iPhone 玩上磁吸充电足足五年后,另外几家大厂终于跟进了机身内置磁吸的功能,Pixel 10 全系列都支持名为 Pixelsnap 的磁吸生态。不仅有完整的 Qi2 协议,还包括谷歌自家的配件生态:

图|YouTube @MrMobile

然而 Tensor G5 终于(勉强)赶上时代,Pixel 10 系列的网络配置却迎来了一波大变——

根据发布会描述,今年的美版机型中,除了折叠屏 Pixel 10 Pro Fold 之外的三台直板机全部取消了实体 SIM 卡槽,对于国内仅剩的那些喜欢收美版无锁【洋垃圾】的 Pixel 玩家们是一个噩耗。

美国区域 Pixel 10 商店页面,显示仅支持双 eSIM|Google

直板机:Pixel 的十年

作为整整第十代的谷歌自有品牌,去年的发布会之后,我们原本还在期待 Pixel 10 会像 iPhone X 那样在这个有意义的节点上做出一些大改,但可惜谷歌还是突破了我们的期待——

Pixel 10 系列的三台直板机,在外观方面几乎与前代「没有任何差别」:没有特殊的边框材质、没有用上抗反射玻璃、没有花里胡哨的后盖,依然是我们熟悉的 Pixel 模样。

图|Google

更好笑的是,谷歌今年在 Pixel 上主打一手「有得必有舍」,在一些以往对于 Pixel 手机至关重要的方面倒吸一口牙膏。

就拿 799 美元起的 Pixel 10 无印来说,在延续了四代双摄之后,终于在今年看齐三星的 S 系列,变成了主长广三摄,新增一颗 5 倍的长焦,传感器为三星 3J1,面积 1/3 英寸:

图|Google

然而在加上长焦的同时,Pixel 10 的主摄和超广角传感器却被迫缩水,换成了与中端机 Pixel 9a 相同的传感器,对于曾经标榜「不搞传感器划分阶级」的 Pixel 来说,称得上是一种背叛。

相机之外,Pixel 10 也迎来了一项更有意义的升级,作为中杯机型,它的 USB 接口速率升级到了与 Pro 机型一致的 USB 3.2 ,相比取消实体 SIM 卡槽看上去非常像是大棒之后的那颗蜜枣。

图|YouTube @9to5Google

Pixel 10 至少还有些变化,但是今年的两款 Pro 机型却几乎没有什么硬件升级——尤其是在影像方面,在这个连三星都在试着把 2 亿像素塞进折叠屏的时代显得格格不入。

但有趣的是,谷歌在今年重新捡起了一个尘封许久的名字:Super Res Zoom。这项最早在 Pixel 3 上落地的算法望远增强功能在 Pixel 10 Pro 系列上迎来了一个新的高度,倍率来到了足足 100 倍:

发布会上展示的 100x 样张,AI 绘画痕迹明显|YouTube @Made by Google

然而结合 Pixel 10 Pro 上那颗原本就算是小底的长焦传感器,最后的成片油画效果可想而知,基本上也就只能骗骗水深火热的外国用户了。

但 Pixel 10 Pro 系列并非没有好消息,更具体地说,是专属于 Pixel 10 Pro XL 的 moment:相比其他两款机型的 Qi2 ,最大号的 Pixel 10 Pro XL 独占了 Qi2.2 协议,无线充电功率最高可以达到 25W——

图|YouTube @9to5Google

折叠屏:这台 Fold 不吃土

而在折叠屏方面,谷歌的步伐依然不急不缓,Pixel 10 Pro Fold 第一眼看上去和 Pixel 9 Pro Fold 完全一样:

图|Google

但这并不意味着 Pixel 10 Pro Fold 完全没有创新,谷歌一如既往的在别家厂商相互卷的时候选择了一条截然不同的道路——事实上,Pixel 10 Pro Fold 是全世界第一台支持 IP68 级防水防尘的折叠屏手机:

图|Google

在此之前,折叠屏的三防记录是荣耀 Magic V5 的 IP58/IP59 双认证,防水等级几乎已经达到了标准的极限,然而在生活中更常见的防尘场景下,Pixel 10 Pro Fold 却是第一台做到 6 级防尘的折叠屏。

根据谷歌的介绍,Pixel 10 Pro Fold 采用了一套全新的「无齿轮」式铰链,完全依靠凸轮结构营造折叠手感,谷歌声称这套铰链系统可以支撑超过十年的使用——比 Android 的支持周期还长三年。

但谷歌像是要强行把水端平一样,Pixel 10 Pro Fold 的防护等级得到了提升,影像方面却被砍了一刀,它的主摄传感器在分辨率和面积上全都迎来了缩水,Gemini 肩上的担子又重了一些。

图|Google

Gemini:反了反了,AI 反噬手机的卖点了

不出所料的,本次 Made by Google 硬件发布会上,还是有差不多一半的时间留给了 Gemini 。

其中最有用的,是更新后的 Gemini Live。它在原本只能语音对话的基础上,增加了通过手机摄像头识别并主动框选关键信息的能力:

图|Google

相比单纯的语音交流,这种带有视觉提示的交互方法显然更加未来化,与我们在游戏中看到的那种可交互 HUD 的概念和效果更为接近。

此外,今年的 Pixel 相机还加入了基于 Gemini 的拍摄辅助,AI 不仅会指导你的构图,甚至还会从前期的移动画面中截取出几种具有代表性的姿势供用户选择,先选择风格、再提供一步一步的构图指引:

图|Google

而 Gemini 同样加入了 Google Photos 的后期流程,现在用户可以通过类似与 AI 聊天要求文生图的方式,用自然语言指导 Gemini 做照片后期,包括消除眩光、去雾、增加饱和度等等。

图|Google

更好玩的是,苹果去年在 WWDC 上画的 AI 大饼,竟然被谷歌给填上了。

本次发布会上,谷歌介绍了一款名为 Magic Cue 的功能,实现方式类似 iPhone 的 App Intents 与智能建议的结合,会在合适的软件场景里,自动弹出根据你的数据历史、日程和时间轴提取的信息,能够「帮你记住东西」:

比如在和航司沟通改签的时候自动展示你订错的信息|Google

此外 Gemini 的语音能力也得到了提升。在发布会的后半段,Jimmy Felon 串场,展示了 Gemini 在电话通话中的实时翻译功能——并非简单的文本翻译、机械音朗读,而是由 Gemini 自动识别和模拟讲话人的音色和语气,讲出一段「比你更像你自己」的外语:

图|YouTube @Made by Google

这或许是我们在本次发布会上看到的最具科幻感的功能,因为 Gemini 的拟声翻译无论是速度还是准确性,在现场展示中都达到了非常可用的水平,距离实现「代替人类生活」也更近了一点。

一边升级一边降级的 Pixel 10、纹丝不动的 Pixel 10 Pro、防水又防尘的 Pixel 10 Pro Fold,价格涵盖 799 美元(约合 5733 人民币)到 1499 美元(约合 10756 人民币),如果你生活在一个「两超一强」垄断手机市场,你会对 Pixel 感兴趣吗?

图|Google

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Anthropic 官方团队分享如何利用 Claude Code

By: Anonymous
20 July 2025 at 22:30

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Anthropic 的内部团队正在利用 Claude Code 彻底改变他们的工作流程。无论是开发者还是非技术人员,都能借助它攻克复杂项目、实现任务自动化,并弥补那些曾经限制生产力的技能鸿沟。

为了深入了解,我们采访了以下团队:

通过这些访谈,我们收集了不同部门使用 Claude Code 的方式、它对工作带来的影响,以及为其他考虑采用该工具的组织提供的宝贵建议。

数据基础设施团队负责为公司内所有团队整理业务数据。他们使用 Claude Code 来自动化常规的数据工程任务、解决复杂的基础设施问题,并为技术和非技术团队成员创建文档化工作流,以便他们能够独立访问和操作数据。

利用截图调试 Kubernetes

当 Kubernetes 集群出现故障,无法调度新的 pod 时,团队使用 Claude Code 来诊断问题。他们将仪表盘的截图喂给 Claude Code,后者引导他们逐个菜单地浏览 Google Cloud 的用户界面,直到找到一个警告,指出 pod 的 IP 地址已耗尽。随后,Claude Code 提供了创建新 IP 池并将其添加到集群的确切命令,整个过程无需网络专家的介入。

为财务团队打造纯文本工作流

工程师向财务团队成员展示了如何编写描述其数据工作流程的纯文本文件,然后将这些文件加载到 Claude Code 中,以实现完全自动化的执行。没有任何编程经验的员工只需描述“查询这个仪表盘,获取信息,运行这些查询,生成 Excel 输出”等步骤,Claude Code 就能执行整个工作流,甚至会主动询问日期等必要输入。

为新员工提供代码库导览

当新的数据科学家加入团队时,他们会被指导使用 Claude Code 来熟悉庞大的代码库。Claude Code 会阅读他们的 Claude.md 文件(文档),识别特定任务所需的相关文件,解释数据管道的依赖关系,并帮助新人理解哪些上游数据源为仪表盘提供数据。这取代了传统的数据目录和发现工具。

会话结束时自动更新文档

在每项任务结束时,团队会要求 Claude Code 总结已完成的工作并提出改进建议。这创建了一个持续改进的循环:Claude Code 根据实际使用情况帮助优化 Claude.md 文档和工作流指令,使后续的迭代更加高效。

跨多个实例并行管理任务

在处理耗时较长的数据任务时,团队会为不同项目在不同的代码仓库中打开多个 Claude Code 实例。每个实例都能保持完整的上下文,因此即使在数小时或数天后切换回来,Claude Code 也能准确地记住他们当时正在做什么以及任务进行到哪里,从而实现了无上下文丢失的真正并行工作流管理。

无需专业知识即可解决基础设施问题

解决了通常需要系统或网络团队成员介入的 Kubernetes 集群问题,利用 Claude Code 诊断问题并提供精确的修复方案。

加速新员工上手

新的数据分析师和团队成员无需大量指导,就能迅速理解复杂的系统并做出有意义的贡献。

增强支持工作流

Claude Code 能够处理比人类手动审查大得多的数据量,并识别异常情况(例如监控 200 个仪表盘),这是人力无法完成的。

实现跨团队自助服务

没有任何编程经验的财务团队现在可以独立执行复杂的数据工作流。

编写详细的 Claude.md 文件

团队表示,你在 Claude.md 文件中将工作流程、工具和期望文档化得越好,Claude Code 的表现就越出色。当你拥有现成的设计模式时,这使得 Claude Code 在设置新数据管道等常规任务上表现卓越。

处理敏感数据时使用 MCP 服务器而非命令行界面

他们建议使用 MCP 服务器而不是 BigQuery 命令行界面,以便更好地控制 Claude Code 的访问权限,尤其是在处理需要日志记录或存在潜在隐私问题的敏感数据时。

分享团队使用心得

团队举办了分享会,成员们互相演示他们使用 Claude Code 的工作流程。这有助于传播最佳实践,并展示了他们自己可能没有发现的各种工具使用方法。

Claude Code 产品开发团队使用自家的产品来为 Claude Code 构建更新,扩展产品的企业级功能和 AI 智能体循环功能。

通过“自动接受模式”快速构建原型

工程师们通过启用“自动接受模式”(Shift+Tab)并设置自主循环,让 Claude 编写代码、运行测试并持续迭代,从而实现快速原型开发。他们将自己不熟悉的抽象问题交给 Claude,让它自主工作,然后在接手进行最后润色前,审查已完成 80% 的解决方案。团队建议从一个干净的 git 状态开始,并定期提交检查点,这样如果 Claude 跑偏了,他们可以轻松回滚任何不正确的更改。

同步编码开发核心功能

对于涉及应用程序业务逻辑的更关键功能,团队会与 Claude Code 同步工作,提供带有具体实现指令的详细提示。他们实时监控过程,确保代码质量、风格指南合规性和正确的架构,同时让 Claude 处理重复的编码工作。

构建 Vim 模式

他们最成功的异步项目之一是为 Claude Code 实现 Vim 快捷键绑定。他们要求 Claude 构建整个功能,最终实现中大约 70% 的代码来自 Claude 的自主工作,只需几次迭代即可完成。

生成测试和修复 bug

在实现功能后,团队使用 Claude Code 编写全面的测试,并处理在代码审查中发现的简单 bug。他们还使用 GitHub Actions 让 Claude 自动处理像格式问题或函数重命名这样的 Pull Request 评论。

代码库探索

在处理不熟悉的代码库(如 monorepo 或 API 端)时,团队使用 Claude Code 来快速理解系统的工作方式。他们不再等待 Slack 上的回复,而是直接向 Claude 提问以获取解释和代码参考,从而大大节省了上下文切换的时间。

更快的功能实现

Claude Code 成功实现了像 Vim 模式这样的复杂功能,其中 70% 的代码由 Claude 自主编写。

提升开发速度

该工具可以快速构建功能原型并迭代创意,而不会陷入实现细节的泥潭。

通过自动化测试提高代码质量

Claude 生成全面的测试并处理常规的 bug 修复,在减少手动工作的同时保持了高标准。

更好的代码库探索

团队成员可以快速熟悉 monorepo 中不熟悉的部分,而无需等待同事的回复。

创建自给自足的循环

设置 Claude 通过自动运行构建、测试和代码检查来验证自己的工作。这使得 Claude 可以更长时间地自主工作并发现自己的错误,尤其是在你要求 Claude 在编写代码之前先生成测试时效果更佳。

培养任务分类的直觉

学会区分哪些任务适合异步处理(外围功能、原型设计),哪些需要同步监督(核心业务逻辑、关键修复)。产品边缘的抽象任务可以用“自动接受模式”处理,而核心功能则需要更密切的监督。

编写清晰、详细的提示

当组件具有相似的名称或功能时,你的请求要极其具体。提示越好、越详细,你就越能信任 Claude 独立工作,而不会对代码库的错误部分进行意外更改。

安全工程团队专注于保障软件开发生命周期、供应链安全和开发环境安全。他们广泛使用 Claude Code 来编写和调试代码。

复杂基础设施调试

在处理事故时,他们将堆栈跟踪和文档喂给 Claude Code,并要求它在代码库中追踪控制流。这大大缩短了生产问题的解决时间,使他们能够在大约 5 分钟内理解问题,而手动扫描代码通常需要 10-15 分钟。

Terraform 代码审查与分析

对于需要安全审批的基础设施变更,团队将 Terraform 计划复制到 Claude Code 中,并提问“这会做什么?我会后悔吗?”。这创建了更紧密的反馈循环,使安全团队能够更快地审查和批准基础设施变更,减少了开发过程中的瓶颈。

文档综合与操作手册

Claude Code 吸收多个文档来源,创建 Markdown 格式的操作手册、故障排除指南和概述。团队将这些精简的文档作为调试实际问题的上下文,创建了比在完整知识库中搜索更高效的工作流程。

测试驱动开发工作流

他们摒弃了以往的“设计文档 → 粗糙代码 → 重构 → 放弃测试”模式,现在他们要求 Claude Code 提供伪代码,引导其进行测试驱动开发,并定期检查以在卡住时进行引导,从而产出更可靠、更易于测试的代码。

上下文切换与项目上手

在为现有项目(如用于安全审批工作流的 Web 应用“dependant”)做贡献时,他们使用 Claude Code 来编写、审查和执行存储在代码库中的 Markdown 格式的规范,从而能够在几天内做出有意义的贡献,而不是花费数周时间。

缩短事故解决时间

通常需要 10-15 分钟手动代码扫描的基础设施调试现在大约需要 5 分钟。

改进安全审查周期

需要安全审批的 Terraform 代码审查速度大大加快,消除了开发人员在等待安全团队批准时的阻塞。

增强跨职能贡献

团队成员可以在几天内为项目做出有意义的贡献,而不是花费数周时间来建立上下文。

更好的文档工作流程

从多个来源综合而成的故障排除指南和操作手册创建了更高效的调试过程。

广泛使用自定义斜杠命令

安全工程团队使用了整个 monorepo 中 50% 的自定义斜杠命令实现。这些自定义命令简化了特定的工作流程,并加快了重复性任务的速度。

让 Claude 先说

他们不再通过提出有针对性的问题来生成代码片段,而是告诉 Claude Code “边做边提交你的工作”,让它在定期检查的情况下自主工作,从而得到更全面的解决方案。

利用它进行文档处理

除了编码,Claude Code 还擅长综合文档和创建结构化输出。团队提供写作样本和格式偏好,以获得可立即在 Slack、Google Docs 和其他工具中使用的文档,避免界面切换带来的疲劳。

推理团队负责管理在 Claude 读取你的提示并生成回复时存储信息的内存系统。团队成员,尤其是那些刚接触机器学习的人,可以广泛使用 Claude Code 来弥补知识差距并加速他们的工作。

代码库理解与新员工上手

在加入一个复杂的代码库时,团队严重依赖 Claude Code 来快速理解其架构。他们不再手动搜索 GitHub 仓库,而是询问 Claude 哪些文件调用了特定的功能,几秒钟内就能得到结果,而不是向同事求助或手动搜索。

包含边界情况的单元测试生成

在编写完核心功能后,他们要求 Claude 为其编写全面的单元测试。Claude 会自动包含被遗漏的边界情况,在几分钟内完成通常需要大量时间和精力的工作,就像一个他们可以审查的编码助手。

机器学习概念解释

没有机器学习背景的团队成员依赖 Claude 来解释模型特定的函数和设置。过去需要一个小时谷歌搜索和阅读文档的工作,现在只需 10-20 分钟,研究时间减少了 80%。

跨语言代码翻译

在用不同编程语言测试功能时,团队向 Claude 解释他们想要测试的内容,Claude 就会用所需的语言(如 Rust)编写逻辑,从而无需为了测试目的而学习新语言。

命令记忆与 Kubernetes 管理

他们不再需要记住复杂的 Kubernetes 命令,而是向 Claude 询问正确的语法,比如“如何获取所有 pod 或部署状态”,然后就能收到他们基础设施工作所需的确切命令。

加速机器学习概念学习

有了 Claude Code,他们的研究时间减少了 80%,历史上需要一个小时谷歌搜索的工作现在只需 10-20 分钟。

更快的代码库导航

该工具可以帮助团队成员在几秒钟内找到相关文件并理解系统架构,而不是依赖同事在几天内分享知识。

全面的测试覆盖

Claude 自动生成包含边界情况的单元测试,在保持代码质量的同时减轻了精神负担。

消除语言障碍

团队可以在不熟悉 Rust 等语言的情况下实现功能,而无需学习它。

首先测试知识库功能

尝试问各种问题,看看 Claude 能否比谷歌搜索更快地回答。如果它更快、更准确,那么它就是你工作流程中一个宝贵的时间节省工具。

从代码生成开始

给 Claude 具体的指令,让它编写逻辑,然后验证其正确性。这有助于在将其用于更复杂的任务之前,建立对该工具能力的信任。

用它来编写测试

让 Claude 编写单元测试可以极大地减轻日常开发工作的压力。利用这个功能来保持代码质量,而无需花费时间手动思考所有测试用例。

数据科学和机器学习工程团队需要复杂的 可视化工具来理解模型性能,但构建这些工具通常需要不熟悉的语言和框架的专业知识。Claude Code 使这些团队能够构建生产质量的分析仪表盘,而无需成为全栈开发人员。

构建 JavaScript/TypeScript 仪表盘应用

尽管对“JavaScript 和 TypeScript 知之甚少”,团队仍使用 Claude Code 构建了完整的 React 应用,用于可视化强化学习(RL)模型的性能和训练数据。他们让 Claude 控制从头开始编写完整的应用程序,比如一个 5000 行的 TypeScript 应用,而无需自己理解代码。这一点至关重要,因为可视化应用相对上下文较少,不需要理解整个 monorepo,从而可以快速构建原型工具,以便在训练和评估期间了解模型性能。

处理重复的重构任务

当遇到合并冲突或半复杂的文件重构时——这些任务对于编辑器宏来说太复杂,但又不足以投入大量开发精力——他们就像玩“老虎机”一样使用 Claude Code:提交当前状态,让 Claude 自主工作 30 分钟,然后要么接受解决方案,要么在不成功时重新开始。

创建持久性分析工具而非一次性笔记本

团队现在不再构建用完即弃的 Jupyter 笔记本,而是让 Claude 构建可重复使用的 React 仪表盘,这些仪表盘可以在未来的模型评估中重复使用。这很重要,因为理解 Claude 的性能是“团队最重要的事情之一”——他们需要了解模型在训练和评估期间的表现,而这“实际上并非易事,简单的工具无法从观察一个数字上升中获得太多信号”。

零依赖任务委托

对于完全不熟悉的代码库或语言中的任务,他们将整个实现委托给 Claude Code,利用其从 monorepo 中收集上下文并执行任务的能力,而无需他们参与实际的编码过程。这使得他们在自己专业领域之外也能保持生产力,而不是花时间学习新技术。

节省了 2-4 倍的时间

过去虽然可以手动完成但很繁琐的常规重构任务现在完成得更快了。

用不熟悉的语言构建了复杂的应用

尽管 JavaScript/TypeScript 经验极少,却创建了 5000 行的 TypeScript 应用

从一次性工具转向持久性工具

不再使用一次性的 Jupyter 笔记本,而是构建可复用的 React 仪表盘进行模型分析。

直接获得模型改进的洞见

第一手使用 Claude Code 的经验为未来模型迭代中更好的内存系统和用户体验改进提供了信息。

实现了可视化驱动的决策

通过先进的数据可视化工具,更好地理解了 Claude 在训练和评估期间的性能。

把它当作一台老虎机

在让 Claude 工作之前保存你的状态,让它运行 30 分钟,然后要么接受结果,要么重新开始,而不是试图费力去修正。重新开始的成功率通常比试图修复 Claude 的错误要高。

必要时为了简化而打断它

在监督过程中,不要犹豫,停下来问 Claude “你为什么这么做?试试更简单的方法。” 模型默认倾向于更复杂的解决方案,但对于简化方法的请求反应良好。

产品工程团队致力于开发如 PDF 支持、引用和网页搜索等功能,这些功能将额外的知识引入 Claude 的上下文窗口。在大型、复杂的代码库中工作意味着不断遇到不熟悉的代码部分,花费大量时间来理解特定任务需要检查哪些文件,并在进行更改前建立上下文。Claude Code 通过充当向导,帮助他们理解系统架构、识别相关文件并解释复杂的交互,从而改善了这种体验。

第一步工作流规划

团队将 Claude Code 作为任何任务的“第一站”,要求它确定在进行 bug 修复、功能开发或分析时需要检查哪些文件。这取代了传统上在开始工作前手动浏览代码库和收集上下文的耗时过程。

跨代码库独立调试

团队现在有信心处理不熟悉代码库部分的 bug,而无需向他人求助。他们可以问 Claude “你觉得你能修复这个 bug 吗?我看到的行为是这样的”,并经常能立即取得进展,这在以前由于所需的时间投入是不可行的。

通过内部测试进行模型迭代测试

Claude Code 自动使用最新的研究模型快照,使其成为他们体验模型变化的主要方式。这为团队在开发周期中提供了关于模型行为变化的直接反馈,这是他们在之前的发布中从未体验过的。

消除上下文切换的开销

他们不再需要复制粘贴代码片段并将文件拖入 Claude.ai,同时还要详细解释问题,现在可以直接在 Claude Code 中提问,无需额外的上下文收集,从而显著减少了心智负担。

增强了处理不熟悉领域的信心

团队成员可以独立调试 bug 并调查不熟悉代码库中的事故。

在上下文收集中节省了大量时间

Claude Code 消除了复制粘贴代码片段和将文件拖入 Claude.ai 的开销,减轻了心智上的上下文切换负担。

加速轮岗员工上手速度

轮岗到新团队的工程师可以快速熟悉不熟悉的代码库并做出有意义的贡献,而无需与同事进行大量咨询。

提升开发者幸福感

团队报告称,随着日常工作流程中的摩擦减少,他们感到更快乐、更高效。

将其视为迭代伙伴,而非一次性解决方案

不要指望 Claude 能立即解决问题,而是把它当作一个与你一起迭代的合作者。这种方法比试图在第一次尝试中就获得完美的解决方案效果更好。

用它来建立在不熟悉领域的信心

不要犹豫去处理你专业领域之外的 bug 或调查事故。Claude Code 使得在通常需要大量上下文建立的领域独立工作成为可能。

从最少的信息开始

从你需要的最低限度的信息开始,让 Claude 引导你完成整个过程,而不是一开始就提供大量的解释。

增长营销团队专注于在付费搜索、付费社交、移动应用商店、电子邮件营销和 SEO 等领域建立效果营销渠道。作为一个只有一人的非技术团队,他们使用 Claude Code 来自动化重复性的营销任务,并创建通常需要大量工程资源的 AI 智能体工作流。

自动化 Google Ads 广告创意生成

团队构建了一个 AI 智能体工作流,该工作流可以处理包含数百个现有广告及其效果指标的 CSV 文件,识别表现不佳的广告进行迭代,并生成符合严格字符限制(标题 30 个字符,描述 90 个字符)的新变体。通过使用两个专门的子智能体(一个用于标题,一个用于描述),该系统可以在几分钟内生成数百个新广告,而无需在多个广告系列中手动创建。这使他们能够大规模地进行测试和迭代,这是以前需要花费大量时间才能实现的。

用于批量创意制作的 Figma 插件

他们没有手动复制和编辑用于付费社交广告的静态图片,而是开发了一个 Figma 插件,该插件可以识别框架并通过替换标题和描述来以编程方式生成多达 100 个广告变体,将需要数小时复制粘贴的工作缩短为每批半秒。这使得创意产出提高了 10 倍,让团队能够在关键社交渠道上测试数量庞大的创意变体。

用于广告活动分析的 Meta Ads MCP 服务器

他们创建了一个与 Meta Ads API 集成的 MCP 服务器,以便直接在 Claude Desktop 应用内查询广告活动表现、支出数据和广告效果,从而无需在不同平台之间切换进行性能分析,节省了宝贵的时间,因为每一分效率的提升都意味着更好的投资回报率。

利用内存系统进行高级提示工程

他们实现了一个基本的内存系统,该系统记录了广告迭代中的假设和实验,使得系统在生成新变体时能够将之前的测试结果纳入上下文,创建了一个自我改进的测试框架。这使得系统性的实验成为可能,而这些实验是无法手动追踪的。

在重复性任务上节省了大量时间

Claude Code 将广告文案创作时间从 2 小时缩短到 15 分钟,让团队能够专注于更具战略性的工作。

创意产出增加 10 倍

通过自动广告生成和与 Figma 集成以获取最新的视觉设计元素,团队现在可以在各个渠道上测试数量庞大的广告变体。

像一个更大的团队一样运作

团队能够处理传统上需要专门工程资源的大型开发任务。

战略重点转移

团队可以将更多时间用于整体战略和构建 AI 智能体自动化,而不是手动执行。

识别支持 API 的重复性任务

寻找涉及使用带有 API 的工具(如广告平台、设计工具、分析平台)进行重复操作的工作流程。这些是自动化的主要候选对象,也是 Claude Code 提供最大价值的地方。

将复杂工作流分解为专门的子智能体

不要试图在一个提示或工作流中处理所有事情,而是为特定任务创建单独的智能体(比如一个标题智能体和一个描述智能体)。这使得调试更容易,并在处理复杂需求时提高输出质量。

在编码前进行充分的头脑风暴和提示规划

在前期花大量时间使用 Claude.ai 来构思整个工作流,然后让 Claude.ai 为 Claude Code 创建一个全面的提示和代码结构以供参考。此外,要逐步进行,而不是要求一次性解决问题,以避免 Claude 因任务过于复杂而不堪重负。

产品设计团队支持 Claude Code、Claude.ai 和 Anthropic API,专注于构建 AI 产品。即使是非开发人员也可以使用 Claude Code 来弥合设计与工程之间的传统鸿沟,使他们能够直接实现自己的设计愿景,而无需与工程师进行大量的反复迭代。

前端润色和状态管理变更

团队不再为视觉调整(字体、颜色、间距)创建大量的设计文档并与工程师进行多轮反馈,而是直接使用 Claude Code 实现这些变更。工程师们注意到,设计师们正在进行“通常不会看到设计师做的大型状态管理变更”,这使他们能够实现他们所设想的精确质量。

GitHub Actions 自动化工单处理

通过使用 Claude Code 的 GitHub 集成,他们只需提交描述所需更改的问题/工单,Claude 就会自动提出代码解决方案,而无需打开 Claude Code,从而为他们积压的润色任务创建了一个无缝的 bug 修复和功能优化工作流。

快速交互式原型制作

通过将模型图粘贴到 Claude Code 中,他们可以生成功能齐全的原型,工程师可以立即理解并在此基础上进行迭代,这取代了传统的静态 Figma 设计,后者需要大量的解释和转换才能成为可用代码。

发现边界情况和理解系统架构

团队使用 Claude Code 来规划错误状态、逻辑流程和不同的系统状态,使他们能够在设计阶段就识别出边界情况,而不是在开发后期才发现,从而从根本上提高了他们初始设计的质量。

复杂的文案更改和法律合规

对于像在整个代码库中移除“研究预览”信息这样的任务,他们使用 Claude Code 查找所有实例,审查周围的文案,与法务部门实时协调更改,并实施更新。这个过程只用了两次 30 分钟的电话会议,而不是一周的反复协调。

核心工作流程的变革

Claude Code 成为主要的设计工具,80% 的时间里 Figma 和 Claude Code 都是打开的。

执行速度提高 2-3 倍

以前需要与工程师进行大量反复沟通的视觉和状态管理变更,现在可以直接实现。

周期时间从数周缩短到数小时

Google Analytics 发布信息这样需要一周协调的复杂项目,现在只需两次 30 分钟的电话会议就能完成。

两种截然不同的用户体验

开发者获得了“增强型工作流”(执行更快),而非技术用户则获得了“天哪,我竟然也成了开发者”的工作流。

改善了设计与工程的协作

Claude Code 促进了更好的沟通和更快的问题解决,因为设计师理解了系统的限制和可能性,而无需与工程师紧密合作。

从工程师那里获得适当的设置帮助

让工程团队的同事帮助进行初始的代码库设置和权限配置——对于非开发人员来说,技术上的上手过程具有挑战性,但一旦配置完成,它将彻底改变日常工作流程。

使用自定义内存文件来引导 Claude 的行为

创建具体的指令,告诉 Claude 你是一个几乎没有编码经验的设计师,需要详细的解释和更小、更增量的更改。这极大地提高了 Claude 回应的质量,使其不再那么令人生畏。

利用粘贴图片进行原型制作

使用 Command+V 将截图直接粘贴到 Claude Code 中。它在读取设计并生成功能性代码方面表现出色,使其在将静态模型图转化为工程师可以立即理解和构建的交互式原型方面非常有价值。

强化学习(RL)工程团队专注于 RL 中的高效采样和跨集群的权重迁移。他们主要使用 Claude Code 来编写中小型功能、进行调试和理解复杂的代码库,并采用一种包含频繁检查点和回滚的迭代方法。

有监督的自主功能开发

团队让 Claude Code 在提供监督的情况下编写大部分中小型功能的代码,例如为权重迁移组件实现认证机制。他们以交互方式工作,允许 Claude 主导,但在其偏离轨道时进行引导。

测试生成和代码审查

在自己实现更改后,团队会要求 Claude Code 添加测试或审查他们的代码。这种自动化的测试工作流程在常规但重要的质量保证任务上节省了大量时间。

调试和错误调查

他们使用 Claude Code 来调试错误,结果好坏参半。有时它能立即识别问题并添加相关测试,而其他时候则难以理解问题,但总的来说,在有效时仍能提供价值。

代码库理解和调用栈分析

他们工作流程中最大的变化之一是使用 Claude Code 来快速获取相关组件和调用栈的摘要,取代了手动阅读代码或生成大量调试输出。

Kubernetes 操作指导

他们经常向 Claude Code 询问 Kubernetes 操作,这些操作否则需要大量谷歌搜索或询问基础设施工程的同事,从而能立即获得配置和部署问题的答案。

实验性方法的实现

他们现在使用一种“尝试并回滚”的方法,频繁提交检查点,以便他们可以测试 Claude 的自主实现尝试,并在需要时进行回滚,从而实现了更具实验性的开发。

文档编写加速

Claude Code 自动添加有用的注释,节省了大量的文档编写时间,尽管他们也指出,它有时会在奇怪的地方添加注释或使用有问题的代码组织方式。

有限制的提速

虽然 Claude Code 可以在他们“相对较少的时间”投入下实现中小型 PR,但他们承认,它在第一次尝试中成功的几率大约只有三分之一,需要额外的指导或手动干预。

为特定模式自定义你的 Claude.md 文件

在你的 Claude.md 文件中添加指令,以防止 Claude 重复犯工具调用错误,例如告诉它“运行 pytest 而不是 run,不要不必要地 cd – 只需使用正确的路径”。这显著提高了一致性。

使用检查点密集的工作流

随着 Claude 进行更改,定期提交你的工作,这样当实验不成功时,你可以轻松回滚。这使得在没有风险的情况下可以采用更具实验性的开发方法。

先尝试一次性解决,然后协作

给 Claude 一个快速的提示,让它先尝试完整的实现。如果成功了(大约三分之一的时间),你就节省了大量时间。如果没有,再切换到更具协作性、引导性的方法。

法务团队通过实验和了解 Anthropic 产品的好奇心,发现了 Claude Code 的潜力。此外,一位团队成员有一个个人用例,即为家人创建无障碍工具和为工作创建原型,这展示了该技术对非开发人员的强大能力。

为家人定制的无障碍解决方案

团队成员为因医疗诊断而有语言障碍的家人构建了沟通助手。在短短一小时内,一个人使用原生的语音转文本功能创建了一个预测性文本应用,该应用可以建议回复并使用语音库将其读出,解决了言语治疗师推荐的现有无障碍工具的不足之处。

法务部门工作流自动化

团队创建了“电话树”系统的原型,帮助团队成员联系到 Anthropic 合适的律师,展示了法务部门如何在没有传统开发资源的情况下为常见任务构建自定义工具。

团队协调工具

经理们构建了 G Suite 应用程序,可以自动化每周的团队更新,并跟踪各产品的法律审查状态,让律师只需通过简单的按钮点击就能快速标记需要审查的项目,而无需管理电子表格。

用于解决方案验证的快速原型制作

他们使用 Claude Code 快速构建功能性原型,然后展示给领域专家(例如向加州大学旧金山分校的专家展示无障碍工具),以验证想法并在投入更多时间之前识别现有解决方案。

在 Claude.ai 中规划,在 Claude Code 中构建

他们使用两步流程:首先在 Claude.ai 中进行头脑风暴和规划,然后转到 Claude Code 进行实现,要求它放慢速度,逐步工作,而不是一次性输出所有内容。

视觉优先的方法

他们经常使用截图向 Claude Code 展示他们想要的界面样子,然后根据视觉反馈进行迭代,而不是用文本描述功能。

原型驱动的创新

他们强调克服分享“傻瓜式”或“玩具级”原型的恐惧,因为这些演示能激励他人看到他们未曾考虑过的可能性。

MCP 集成担忧

产品律师使用 Claude Code 立即识别深度 MCP 集成的安全隐患,并指出随着 AI 工具访问更多敏感系统,保守的安全策略将成为障碍。

合规工具的优先级

他们主张随着 AI 能力的扩展,应迅速构建合规工具,认识到创新与风险管理之间的平衡。

首先在 Claude.ai 中进行详尽规划

在转到 Claude Code 之前,使用 Claude 的对话界面来充实你的整个想法。然后要求 Claude 将所有内容总结成一个分步的实现提示。

增量式和可视化工作

要求 Claude Code 放慢速度,一次实现一个步骤,这样你就可以复制粘贴而不会不知所措。大量使用截图来展示你想要的界面样子。

尽管不完美也要分享原型

克服隐藏“玩具”项目或未完成工作的冲动。分享原型有助于他人看到可能性,并在通常不互动的部门之间激发创新。

Last Week on My Mac: Search and you’ll find

By: hoakley
3 August 2025 at 15:00

One thing we humans are good at is searching. It’s a task we engage in from a few moments after birth until the time we slip away in death, we search everything around us. Locating and identifying that bird of prey wheeling high, finding the house keys, and that book we mislaid some time last week, meeting the perfect partner, discovering the right job, choosing the best education, looking through a Where’s Wally? or Where’s Waldo? book, and so on. Searching has transformed some into explorers like Christopher Columbus, and was the purpose of the chivalric quest. It’s what researchers in every field do, and thanks to Douglas Adams can be answered by the number 42.

Last week my searching took two new turns.

Spotlight

The first was more of a meta-search, in trying to discover more about the internals of Spotlight. Following the example of Maynard Handley, who has used them so successfully in understanding how M-series CPUs work, I looked through patents that have been awarded to Apple for the work of its search engineers. Yesterday’s slightly fuller history of Spotlight search is one result, and there are more to come in the future as I digest those patents concerned with performing search.

There’s a tinge of irony here, as many of my searches have been conducted using Google Patents, alongside Google Scholar one of the remaining search engines that doesn’t yet use AI and attempt to provide its own answers.

Logs

The other marks a new phase in my quest to get more information from the Unified log. Looking back to my first comment here, I realise how wildly over-optimistic I was when I wrote that it “should make my life a lot easier”, and that “a new version of Console will provide improved features to help us wade through logs.” Nine years later, I look wistfully at what remains of Console and realise how wrong I was on both counts.

When RunningBoard arrived in macOS Catalina, I soon noticed how “its log entries are profuse, detailed, and largely uncensored for privacy.” Since then it has proved garrulous to the point where its apparently ceaseless log chatter is a distraction, and can overwhelm attempts to read other log entries. I suspect it has contributed significantly to those advanced Mac users who now refuse to even try to make sense of the log.

One answer might be to tweak log preferences to shut out this noise, but given the purpose of RunningBoard in monitoring the life cycle of apps, why not try to use the information it provides? To do that, it’s first necessary to understand RunningBoard’s idiosyncratic language of assertions, and its protocols under which they’re acquired. The only way to do that without documentation is by observation: catalogue over 30 of those assertions for an interesting example like Apple’s Developer app, and see what they reveal.

By far the most informative entries from RunningBoard are those announcing that it’s acquiring an assertion, such as
Acquiring assertion targeting [app<application.developer.apple.wwdc-Release.9312198.9312203(501)>:2946] from originator [osservice<com.apple.uikitsystemapp(501)>:748] with description <RBSAssertionDescriptor| "com.apple.frontboard.after-life.subordinate" ID:424-748-2228 target:2946 attributes:[
<RBSDomainAttribute| domain:"com.apple.frontboard" name:"AfterLife-Subordinate" sourceEnvironment:"(null)">
]>

In a log often censored to the point of being unintelligible, this contains frank and explicit detail. The app is identified clearly, with the user ID of 501 and process ID of 2946. The originator is similarly identified as com.apple.uikitsystemapp with its PID of 748, which is confirmed in the middle digits in the Assertion ID. This is explicitly related to FrontBoard and an attribute named AfterLife-Subordinate. There’s not a single <private> to blight this entry, although further knowledge is needed to decode it fully.

Normally to get such information from a running process would require its source code to be instrumented with calls to write log entries, many of which would be lost to <private>, yet RunningBoard seems happy, for the moment, to provide that information freely. You can see what I mean by applying the predicate
subsystem == "com.apple.runningboard" AND message CONTAINS "Acquiring assertion t"
in LogUI, to obtain a running commentary on active apps and processes. Once you’ve identified a relevant assertion, you can focus attention on other log entries immediately prior to that. I will be following this up in the coming week, with fuller instructions and some demonstrations.

Although neither patents nor assertions have the significance of the number 42, in their own ways they show how the art and science of search aren’t dead yet, nor have they succumbed to AI.

国产电池大容量,海外想用用不上

By: 马扶摇
21 July 2025 at 13:48

提起上周刚刚发布的三星 Galaxy Z Fold7,抛开 13999 起的价格不谈,有两个数据热度最高:

8.9mm 的厚度,大家都鼓掌;4400mAh 的电池,留言吵翻天。

放眼中国本土智能手机品牌,6000mAh 已经几乎成为旗舰标配,甚至电量很快要赶上一些充电宝了。

然而望向苹果和三星这两大品牌,一边引领和定义着行业标准,一边却在充电和续航方面瘸一条腿,最后全都演变成了一句话:

很好,可惜是 4400mAh。

事情真的只是看上去这么简单吗?苹果和三星每年在研发领域的投资合计超过 500 亿美元,难道真的只是因为「不想做大电池」吗?

——当然不是。在爱范儿的调研下,我们认为这件电池容量这件事,在近几年的情况是这样的:

  • 国内市场剧烈的参数竞争、消费者的高要求,以及完善的电池产业链技术成果落地,三者共同促成了以硅碳电池为代表的高密度、大容量电池在国产手机上的普及。
  • 但美国等在内的国际主要市场,却把手机电量卡死在了「单电芯 20 瓦时」。一旦超过,物流和合规成本就会显著提升,所以洋品牌以及国产品牌的国际版机型,大多只能止步于 20 瓦时的上限。
  • 而国产品牌由于主要在境内销售,可以承受因大电池带来的额外物流和时间开销(比如无法空运只能陆运)。
  • 硅碳负极电池虽然可以达成超高的能量密度,但是其耐久性与安全性仍然需要等待时间的验证。

电池新技术在中国

最近一年多时间里,电池技术在国产手机上实现了「大跃进」。仅今年上半年,我们就见证了华米 OV 四家的影像旗舰同时逼近或达到 6000mAh、小折叠跨过 5000mAh 门槛,中低端机型的电池更是开始向 7 字头发起挑战,堪称能打电话的充电宝。

毫无疑问,今年的国内消费者们,用的是全世界最强,且最大电量的手机,傲视任何其它国家。

图|小米官网

这样勃勃生机,万物竞发的境界,背后的功臣自然是迅猛进步的高密度硅碳负极锂电池。天风证券于今年初发布的一篇电池行业报告中指出:

手机电池掺硅趋势明显,比例在5-10%,不局限于高端机型。今年以来华为、vivo、OPPO、荣耀、一加、小米等企业均发布了 使用硅基负极材料电池的手机,且从旗舰型手机下探到中低端手机趋势明显,带来的硅碳负极使用量将大幅增加。

在目前石墨负极锂电池比容量已经接近理论极限时,硅负极可以将理论上限从石墨的 372 mAh/g 提升近十倍,达到 4200 mAh/g。

理论比容量能够实现十倍的进步意味着什么呢?

意味着每一块电芯的能量密度飙升,这种进步对于手机这种小尺寸电子产品来说至关重要。而这些进步的毫安数字又可以转化为营销数据,对于国内已经变成「白刃战」的手机市场,更是举足轻重。

图|IDC

中国的好东西,外国为什么不用?

你以为每年研发几百亿的苹果和三星,不知道大电池好,或者缺乏大电池的技术吗?

显然不是的。

硅碳电池并没有被中国企业垄断。事实上,比如日本信越化学、3DC 株式会社,韩国 SK 集团下属 SK Materials、浦项硅解决方案等日韩企业,均手握许多硅碳负极相关的技术专利,在研发和生产环节都有着相当的话语权:

SK Materials 与美国硅碳材料公司 Group14 合资成立的韩国尚州市硅碳负极材料工厂

那我们为什么在 iPhone 和 Galaxy 上看不到五六千毫安时的大电池呢?

事实上,卡住苹果和三星脖子的另有其人:联合国《关于危险货物运输的建议书》。更具体的说,是其中的第 188 号特殊规定(UN Special Provision 188)。

该规定指出:

  1. 如果锂电池的单颗电芯的容量小于 20 瓦时,则被视为「小型电池」,可以遵循简化的低成本运输规则。
  2. 一旦单颗电芯的超过 20 瓦时,这块电池就会被归类到「危险品」的范畴,在国际物流中必须遵循非常严格的包装、标签、申报和防护运输规格,运输成本激增。

从左到右:锂电池货物代码 UN3480,货物种类 9「其他危险品」,只能通过货机运输|Epec

而受到这条特殊规定影响最大的,自然就是智能手机了,比如 iPhone 与三星 Galaxy,以及国产品牌的国际版型号。

对于每年要在全球各地运输过两亿台手机的苹果和三星而言,如果不想要自己的运输成本暴涨,就必须要将电池总能量限制在 20 瓦时以内。

事实上,他们也的确是这么做的。

  • 以 iPhone 16 Pro Max 为例,它使用的是一块标称电压 3.88V 的 4685 mAh 电池,换算即 18.17 瓦时
  • 同理,S25 Ultra 的电池总能量为 18.84 瓦时
  • 被广大网友群嘲的 Z Fold7 那块 4400 毫安时电池,总能量为 17 瓦时

你应该明白了,不是苹果和三星用不起大电池,而是它们比国产厂商更需要照顾中国以外的市场,想要物流成本不爆炸、又要守住利润率来确保持续研发,所以只能优先选择小电池路线。

当然,苹果和三星死守 20 瓦时上限的原因并不单纯只有国际危险品运输条例。作为全球运营的超大规模企业,从商业角度考量,他们的产品工业设计和采购策略必然是趋向保守的,这其中就包括了电池技术——特别是三星,毕竟它不想再重温 Note 7 爆炸的噩梦……

不管怎样,如果国际物流安全制度不放松,苹果和三星的手机电池这一两年也不会有大跃进的可能。

但这里我们要引出一句题外话:别看三星 Z Fold7 这块电池小,它的性能非常牛:在 2000 次充放循环后可用容量仍在能够维持在 80% 以上——远超欧盟新规的 800 次及格线。

而电池的耐用性,恰恰是中国厂商最爱的硅碳负极电池技术,目前尚待观察的。

SM-F966B/DS 即欧版的三星 Z Fold7,左下角 80% 余量循环为 2000 次

硅碳电池的现在,只是「如来」

而硅碳电池技术虽然目前可以达到超高的能量密度,却也一并带来了两个目前未能解决的重大缺陷:

硅负极的物理膨胀,以及循环寿命缩短。

用于锂电池负极上的硅碳复合材料|Novarials

正如爱范儿此前有关充电宝的文章中所述,目前主流的锂离子电池均使用石墨作为负极材料,而硅碳电池就是将负极的材料从石墨替换为含硅的碳(石墨)复合材料。

但是硅在充电过程中会发生剧烈的体积膨胀,虽然复合材料的膨胀率没有纯硅负极 400% 那么恐怖,但是相比石墨仅仅 10% 的膨胀率仍然高出许多,其在长期反复膨胀收缩后带来的材料疲劳问题,始终是无法忽视的。

你也不想你的手机变成这样,对吧|Tom’s Guide

而在另一方面,硅碳复合材料中的硅,化学活性也比石墨更高,与电解液之间更容易产生化学反应。这会导致导致负极表面的「固体电解质界面膜」在重放循环时,反复发生破裂与重构,加速锂离子和电解液的消耗。

这种消耗的宏观表现,就是硅碳电池的可用容量衰减速度更快。

对于普通人来说,这两个问题意味着硅碳电池虽然容量大功率高,但在你的手机上可能更快出现「电池健康报警」,续航衰减更明显

因此,虽然去年底今年初,国产旗舰机型大多用上了高碳硅电池或者类似技术,但是这些电池的耐久性与生命周期都是需要假以时日才能印证的。

当然,中国市场的智能手机太过于「泛滥」了,选择太多,换机成本也不算高。这也是为什么目前一众国内 Android 厂商,在标称手机重放循环次数的时候,大多只会承诺 300-500 次。可能没等到电池不行,中国消费者早就换手机了。

而且从商业运营的角度上看,国内市场相对较高的周转率和更低的换电成本,可能是全世界唯一打得起硅碳电池消耗战的地方了

正因如此,苹果三星这么多年不改电池容量,还真的不完全是在挤牙膏——产品在国际运输和跨国销售环节中,碰到的规章阻碍远比我们想象的要多,这些都是我们在面对仅在国内市场销售的大电池机型时,所难以察觉的。

反过来讲,对于国产手机厂商来说,出海要面临的重重关卡,也绝不仅是电池而已。

图|36氪

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


简单开启欧盟纯净版 Windows,享隐私和自由权力

By: Anonymous
7 July 2025 at 13:16

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

在 Pixel 设备上打开 Google app 的新闻链接,或在 Windows 设备上通过开始菜单访问网络搜索结果,这两种情况都存在一个共同点:系统会忽略你的默认浏览器设置,强行使用自家的浏览器(Chrome 或 Edge)进行访问。

对此,似乎大家并没有太大反应,正如人们对欧盟地区用户在数字生活中享有选择而感到无奈似的。

今天我们就来探讨一个问题:如何成为一名数字意义上的欧盟地区 Windows 用户

受《数字市场法案》影响,微软在欧盟地区针对用户做出了很多让步,包括:

关于 Windows 的地区设置,你可以在「系统设置 > 时间和语言 > 语言和区域」中找到几个选项:

不过,今天的重点是一个新加入的、不可更改的选项——设备设置区域。将其更改为欧盟地区是个不错的切入点。

我最初想到的是去年推出的 Edge 重定向工具 MSEdgeRedirect,但不久后发现该模式在 2024 年 3 月后将失效,原因是微软的 UCPD 驱动3

UCPD(用户选择守护驱动)利用内置的黑白名单机制,屏蔽非微软签名的进程,阻止第三方工具对系统的修改。这不仅影响到一些文件协议的处理,而且更难被禁用。微软还设置了一个名为 UCPD velocity 的自动化任务,每次用户登录时都会恢复被禁用的系统文件和设置。

因此,想要使用 MSEdgeRedirect 开启「欧盟模式」的用户,首先可以按照 SetUserFTA 开发者的思路摆脱微软的干预。

彻底解决方案:直接删除 UCPD 驱动。以管理员权限运行 CMD,执行命令 sc.exe delete UCPD,然后重启。需要注意的是,该驱动可能会在系统更新后复活。

温和解决方案:禁用 UCPD 驱动,以管理员权限在 CMD 下执行:

完成后,便可以正常使用 MSEdgeRedirect 修改地区设置。

成功更改设备设置区域后,不仅能享受之前提到的「权益」,更能在各类设置中拥有更多自由,成为一个选择上的欧洲人、商店里的美国人、文本习惯上的中国人——这份灵活,值得我们珍惜。

简单开启欧盟纯净版 Windows,享隐私和自由权力

参考链接

Last Week on My Mac: PageRank and plagiarism

By: hoakley
6 July 2025 at 15:00

Yesterday’s brief history of Internet search carries a lot in between its lines, some of it increasingly sinister. From the assumption that search results should be ranked by popularity rather than quality of content, to Google’s latest AI overviews, so much runs counter to all we had come to learn in previous millennia.

Many of our greatest insights and ideas have been far from popular at the time, and some have been so reviled that their authors have been ostracised as a result. Indeed, the origin of the term ostracisation refers to a practice that the ancient Greeks recognised led to popular but flawed outcomes, when the great were rejected by ill-informed opinion of the mob.

By a quirk of fate, the screenshot of Google Scholar in use showed search results from 2011 for the terms autism vaccine, a topic that has recently returned to the headlines. Claims made by some of today’s politicians have been propagated using the same principles as PageRank until millions of people have been fooled into believing what were demonstrably fraudulent results. The mob are about to throw away decades of public health improvements for the sake of palpable lies.

We now have new tools to amplify such nonsense, in ‘AI’ built on large language models, and they’re starting to supplant search. In doing so, they’re going to destroy the raw material they feed on to generate their summaries.

Before about 2000, the great majority of information was printed on paper. There must have been a dozen or more specialist Mac magazines, and a steady stream of popular books about Mac OS and how to get the best from it. Even Apple was a prolific originator of thoroughly well written reference guides in its Inside Macintosh series, published by Addison Wesley. In the following couple of decades, most of those vanished, replaced by websites financed by advertising income, hence the industry dominated worldwide by Google.

Blogs originated in the mid-1990s and by about 2010 had reached a peak in their numbers and influence. Since then many have ceased posting new articles, or simply vanished. The generation that took to the web around 25 years ago are now trying to retire, sick of spam comments and the vitriolic spite of those that abuse them. Unsurprisingly the next generation are less enthusiastic about taking to their blogs, leaving some to make money from ephemeral video performances.

If there’s one thing that Google could have done to further the decline of the remaining online publications and blogs it’s to plunder their contents, massage their words with the aid of an LLM, and present those as overviews. When you’ve researched an article over several days and spent many hours writing and illustrating it, it’s more than galling to see an AI present its paraphrase as its own work.

These AI overviews range from the accurate, through repetitious waffle, to those riddled with errors and contradictions. Had they been written by a human, I’d describe them as a shameless and inaccurate plagiarist who has little or no understanding of what they’re plagiarising.

You can see examples of this by making quick comparisons between Google’s AI overview and the articles that it links to. For instance:

  • Ask Google “what is the boot volume structure in ios?” and compare that overview with this article. For added entertainment, try the same with iPadOS, and spot the differences.
  • Ask “what does runningboard do in macos?” and notice how sources given date from 2019 and 2021, when RunningBoard had only just been discovered. Refer to a more recent account such as that here, to see how out of date that overview is, and how much it has changed in Sequoia.

There’s also an element of unpredictability in those overviews. Repeat one after a couple of minutes, and the results can be quite different.

Although Cloudflare has developed a method that enables commercial publishers to control Google’s ability to scrape their content and plagiarise it, for the great majority of us, there seems little we can do but watch page views continue to fall to levels below those before the Covid pandemic. If you’ve got something better to do with your time than write for your blog, this is when you get seriously tempted.

But Google is digging a deep hole for its future. As the supply of new content to feed its LLM falls, most new articles will be generated by AI. All it will have to plagiarise then will itself be plagiarism, and it will amplify its own errors. By not referring searches to content, Google will also have killed the geese that lay its golden eggs, and lost much of its advertising revenues.

We’ll then be back full circle to curated web directories of the remaining reliable sites.

A brief history of Internet search

By: hoakley
5 July 2025 at 15:00

Searching the Internet, more recently its web servers, has proceeded in four main phases. Initially, humans built structured directories of sites they considered worth visiting. When those couldn’t keep pace with the Internet’s growth, commercial search engines were developed, and their search results were ranked. Around 2000, Google’s PageRank algorithm became dominant for ranking pages by their popularity. Then from late 2024 that is being progressively replaced with AI-generated summaries. Each of these has been reflected in the tools provided by Mac OS.

Directories

In the earliest years of the Internet, when the first web servers started to appear, and files were downloaded using anonymous FTP, users compiled their own lists by hand. Some curated directories were made public, including one maintained by Tim Berners-Lee at CERN, and another at NCSA. Individuals started using Gopher, a client to discover the contents of servers using the service of the same name. The next step was the development of tools to catalogue Gopher and other servers, such as Veronica and Jughead, but it wasn’t until 1993 that the first search engine, W3Catalog, and a bot, the World Wide Web Wanderer, started to transform Internet search.

Berners-Lee’s directory grew into the World Wide Web Virtual Library, and still exists, although it was last updated several years ago, most is now hosted elsewhere, and some is broken. The most famous directory was originally launched in 1994 and was then known as Jerry and David’s Guide to the World Wide Web, later becoming Yahoo! Directory. This offered paid submission and entry subscriptions, and was closed down at the end of 2014.

The favourite of many (including me) was launched as GnuHoo in 1998, and later that year, when it been acquired by Netscape, became the Open Directory Project, then DMOZ, seen here in the Camino browser in 2004. Although owned by AOL, it was maintained by a volunteer community that grew rapidly to hold around 100,000 links maintained by about 4,500 volunteers, and exceeded a million links by the new millennium. DMOZ closed in 2017 when AOL lost interest, but went on as Curlie using the same hierarchy.

Sherlock was first released in Mac OS 8.5 in 1998. As access to the web grew, this came to encompass remote search through plug-ins that worked with new web search engines.

Those were expanded in Sherlock 2, part of Mac OS 9.0 from 1999 and shown above, and version 3 that came in Mac OS X 10.2 Jaguar in 2002.

Indexing and ranking

Human editors couldn’t keep pace with the growth of the web, and demand grew for searching of indexes. This posed the problem of how to rank pages, and development of a series of ranking algorithms, some of which were patented. The first to use links (‘hyperlinks’) was Robin Li’s RankDex, patented in 1996, two years before Sergey Brin and Larry Page’s PageRank that brought their success in Google.

Ranking search results wasn’t new. In the late twentieth century, sciences started measuring the ‘impact’ of published papers by counting their citations in other papers, and university departments and scientific journals laid claim to their greatness by quoting citation and impact indexes. Early search ranking used features such as the frequency of occurrence of the words in the search term, which proved too crude and was manipulated by those trying to promote pages for gain. The obvious replacement was incoming links from other sites, which also quickly became abused and misused.

Research into networks was limited before 1998, when Jon Kleinberg and the two founders of Google entered the field. As with citation indexes before, they envisaged link-based ranking as a measure of popularity, and popularity as a good way of determining the order in which search results should be presented. They also recognised some of the dangers, and the need to weight incoming links to a page according to the total number of such links made by each linking site. Oddly, Kleinberg’s prior work wasn’t incorporated into a search engine until 2001, by which time Brin and Page were powering Google to dominance, and in June 2000 provided the default search engine for Yahoo!

This is Yahoo! Search seen in Firefox in 2007, by which time it was using its own indexing and search engine.

PageRank and algorithms

Google grew prodigiously, and became rich because of its sales of advertising across the web, a business dependent on promotion of its clients, something that could be achieved by adjusting its PageRank algorithm.

Although it’s hard to find now, at one time Google’s Advanced Search was widely used, as it gives more extensive control. Here it’s seen in Safari of 2011.

Google Scholar gives access to published research in a wide range of fields, and was introduced in late 2004. Here it’s seen in use in 2011, listing work that’s recently become topical again. Scholar doesn’t use the same PageRank-based algorithm for ranking its results, but does give substantial weight to citation counts.

When Apple replaced Sherlock with Spotlight in Mac OS X 10.4 Tiger in April 2005, web search defaulted to newly-arrived Safari and Google’s search engine. Its major redesign, in OS X 10.10 Yosemite in 2014, merged web and local search into Global Spotlight, the search window that opens from the Spotlight icon at the right end of the menu bar. That in turn brought Spotlight Suggestions, which became Siri Suggestions in macOS Sierra.

spotlighticloud

This shows a search in Global Spotlight in macOS 10.12 Sierra, in 2017.

Apple has never explained how Siri Suggestions works, although it appears to use machine learning and includes partial results from web search probably using Google. It offers a taste of what is to come in the future of Internet search.

Summarising

Google started the transition to using Artificial Intelligence in 2024, and that September introduced Audio Overview to provide spoken summaries of documents. This year has brought full AI overviews, in which multiple pages are summarised succinctly, and presented alongside links to the pages used to produce them. Although some can be useful, many are vague and waffly, and some blatantly spurious.

We’ve come a long way from Tim Berners-Lee’s curated directories, and PageRank in particular has transformed the web and more besides.

References

Wikipedia:
Gopher
Web directory
Search engine
Google Scholar

Amy N Langville and Carl D Meyer (2006) Google’s PageRank and Beyond: the Science of Search Engine Rankings, Princeton UP. ISBN 978 0 691 12202 1.

不仅仅是编程,使用 Gemini CLI 日常指南!

By: Anonymous
26 June 2025 at 21:54

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

前几天最近随着 Claude Code 这个命令行 AI 代码工具的火爆,谷歌也耐不住寂寞推出了自己的同类产品 Gemini CLI,而且完全免费,非常顶。

下面会教你用 Gemini CLI 实现哪些能力:

首先他们是没有界面的,所有的操作都是在终端以命令行的方式展示。

然后就是也是 Agents 可以自动执行任务处理本地文件,同时内置了非常多的工具,比如谷歌搜索、阅读文件、查找文件、搜索文字、写入文件、保存记忆等,你输入 /tools 然后回车就可以让他列出目前支持的工具。

另外 Gemini CLI 也是支持 MCP 的,你可以安装其他的 MCP 工具帮助模型扩充上下文。

很多朋友说命令行是不是很复杂啊,我不会编程是不是会很难用。

其实并没有,如果你的网络环境正常,能够正常登录 Gemini CLI 的话,跟使用 Cursor 没有本质区别。

因为核心交互的时候还是主要为提示词输入框,命令行又不用你写,Gemini 写就行。

从这里开始我所有的演示都基于 Mac OS 的自带终端进行,Windows 大部分操作都是通用的,但是可能出问题概率比 Mac 复杂。

首先要做的第一步就是进入到我们的启动台,搜索终端两个字,搜到之后打开。

这时候你就看到一个空白界面里面写了些你看不懂的字,不要担心。

这里我建议我们想好要进行的任务之后,新建一个文件夹把需要的任务素材扔进去,然后按住 option 按键鼠标右键选择“将 XXXX 文件夹拷贝为路径名称”,这时候你就快速获得了这个文件夹的路径。

然后我们回到我们的终端窗口,输入 cd + 空格 + 你刚才复制的路径,接下来你终端的所有操作都只会影响这个文件夹的内容,不用担心把电脑搞坏。

到这一步我们终于开始安装 Gemini CLI 了,非常简单,你只需要输入下面的内容然后回车就行。

安装成功你就会看到这个界面,应该会先让你选择命令行的颜色主题,然后让你选择登录方式。

这里需要注意:终端的操作大部分时间需要用上下左右方向键来操作选项,选中之后按回车确认。

你只需要选择一个自己喜欢的主题之后,选择正常的谷歌账号登录,在拉起网页登录后关掉就行。

我这个这里已经登录了,所以没有这些选项,然后你就能看到提示词输入框了。

恭喜你到这里,你已经完成了 Gemini 的安装。

由于用的 NPX 的安装方式,所以你以后每次关掉终端重新使用 Gemini CLI 的时候都需要输入开始的那个命令,不过不用登录了,直接就能用。

另一种方法是输入下面这个命令,但是对于不会编程的人来说很麻烦,启动就是少输入点东西,输入 Gemini 就能启动。

最后由于命令行本身都是英文的,可能很多人会望而却步,这个时候你可以装个 Bob 这个翻译软件,支持划词翻译,看不懂的选项直接选中划词翻译就行。

装好之后我们可以来点基础用法了。

由于 Gemini 可以看到你的文件并且操作,而且它还有生成能力,本身模型还是多模态的,所以即使只用本身的工具也可以有很多用法。

首先是 Gemini CLI 本身支持谷歌搜索,你可以让他搜索指定内容给你写成文档,也可以对你本身的文档进行编辑。

当然搜索工具经常会限额,这个有点恶心,比如让他搜索歸藏的信息并且整理一个介绍文档。

你也可以让他分析你保存在本地的文章之后进行改写,生成新的文章。

比如我这里就让他把 Karpathy 的软件 3.0 文章改写成适合发布的博客文章,同时生成对应的推特发布版本,也可以对于会议总结之类的文档进行分析和处理。

记得我之前写的用 Curosr 这种 IDE 帮助分析 Obsidian ,把 Obsidian 当做本地知识库的方法吗,Gemini CLI 也可以,甚至更加强大。

你可以找到你的 Obsidian 文件夹打开之后启动 Gemini CLI,然后让 Gemini CLI 查找相关的内容。

比如我这里就让他检索我所有的剪藏文件,找到 MCP 相关的文章,然后给我生成一个带反向链接的《MCP 剪藏内容索引》文档,可以看到他完成的很好。

每个无序列表都有文件标题以及文章的总结,最后还有链接可以直达那个文章。

提到反向链接了,就不得不提 Obsidian 的一个知识图谱的功能,它可以把所有有反向链接的相关文档都链接起来,形成你自己的网状笔记网络,方便你学习和回顾。

但是反向链接需要你自己手动加,大部分人都没这个毅力,现在有了 Gemini CLI 问题解决了,可以让他帮你给你文件夹中的相关文档加反向链接。

不过这个需要的时间比较长,如果内容多的话可能得等一段时间。

由于本身 Gemini CLI 是多模态的的,所以你的图片也可以让他帮忙处理。

比如我打开了一个全是图片的文件夹,里面的图片名字乱七八糟的,这时候就可以让他分析图片内容之后根据图片内容给图片重新命名。

再重新命名之后我们也不能浪费他分析的图片内容。

我们都知道在训练图像模型或者 Lora 的时候需要对图像进行标注,大部分训练工具都是把标注放在一个跟图片命名一样的文本文件里,现在我们就可以让 Gemini CLI 来做这件事了。

可以看到他执行的非常完美,以往这些你还得找对应的工具,而且不好自定义要求,现在提示词就行。

Gemini CLI 除了可以读取文件和修改文件外也是可以控制系统设置的。

比如我们就可以写好自己日常对于软件和系统设置在不同工作时间的喜好,需要的时候一键完成所有操作的更改。

这里我就让他给我关掉浏览器,然后打开 Obsidian,降低系统音量,直接进入工作模式。

更进一步让他把操作写成脚本,之后你就可以直接双击脚本完成系统设置了。

我们肯定也有很多时候桌面或者文件没有整理乱七八糟。

这个时候就可以让 Gemini CLI 新建文件夹进行分类和整理。

但是这里得注意,不要让他整理过大的过于重要的文件夹,不然误删了就痛苦了。

这里我就让他把刚才的图像和标注文件新建了两个文件夹分别整理了。

上面都是些基本用法,你最近可能也看到了一些。

但是我发现结合一些本地软件,Gemini CLI 能实现对各种文件更加高级的处理,比如视频转 gif、youtube 视频下载、加水印、文档格式转换等。

这些就非常牛皮了,而且我们日常内容创作大部分都非常需要。

前面我们有了文档了,但是很多时候演示的时候总不能真给人看 Markdown 文档吧,能不能生成 PPT 呢?

可以的,朋友,必须可以,比如我这里就把前面我那个 MCP 索引文档的内容直接转换为 PPT 了。

这个依赖一个叫 Slidev 的项目,它可以用类似 Markdown 文档的格式将内容变成带有丰富样式的 PPT。

你不需要知道这个项目的细节,直接用我下面的提示词生成文件之后,复制文件到这个页面(https://stackblitz.com/github/slidevjs/new?file=slides.md)预览就行。

上面的 Slidev 不需要本地安装直接预览就行,接下来我们介绍一些需要本地安装的项目,这些本地的软件,非常强大,但是由于本身他们是没有界面的,阻碍的很多用户使用。

但是有了 Gemini 之后一切都解决了,提示词可以直接转换为驱动他们的命令行,也可以用提示词直接安装他们,你直接用就行。

首先先介绍一下 ffmpeg 这个项目,给予他你可以实现非常强的视频编辑能力,理论上剪映之类的视频编辑软件都是基于这个完成的。

你可以对本地的视频进行拼接、剪辑、增加文字、转换格式、转换分辨率、增加音乐,基本上你能想到的视频编辑能力他都能做到。

首先我们需要大概你需要处理视频的的文件夹,然后启动 Gemini CLI 第一个命令是让他安装 Homebrew。

然后安装完成后,让他用 Homebrew 帮你安装 ffmpeg。

看到没,跟网页哪些乱七八糟的要求都没关系,你只需要说两句话,就全部安装了。

然后我们就可以爽用了,先给我们指定的视频加个水印试试。

可以看到新的视频右上角果然有了一个水印,这种言出法随的感觉谁不喜欢,你不需要了解原理,你就只需要知道所有的视频编辑他都能帮你搞定。

然后我想要给视频配乐也可以,你只需要告诉他视频文件和音乐文件的名字就行,我甚至让他给音乐加上了淡入和淡出。

他先是获取了一下视频的时长,然后就开始操作了,然后搞定了,非常完美,严丝合缝,淡入淡出也加上了,可以看剪映界面预览的频谱。

我们很多时候需要把视频转换为序列帧,然后拿其中一帧进行处理,或者处理所有的帧,以前你是不是还得到处找这种工具,而且转换效果不一定好。

Gemini CLI 一句话就能搞定,处理的又快又好,而且节省了用网页工具上传下载的时间。

另一个常见的任务就是视频转 gif,尤其公众号有 10 个视频的限制,很多时候迫不得已得转成 gif 发布。

Gemini 捕捉到了高品质这个关键词还制作了调色板保证颜色还原度,最后处理的非常完美。

像 ffmpeg 这种宝藏项目还有很多,比如 yt-dlp 这个项目跟 ffmpeg 配合几乎可以下载你能想到的所有视频平台的视频。

我们还是可以让 Gemini CLI 帮我们安装 yt-dlp 这个项目就行。

然后直接提供视频链接他就会帮你下载,甚至可以批量下载多个视频或者一起连封面和视频一起下载,再也不需要忍受那些工具的垃圾网速了。

不仅仅是编程,使用 Gemini CLI 日常指南!

处理视频我们有 ffmpeg 这种项目,当然图片也有。

ImageMagick 是一个极其强大的工具集,你可以用它来转换格式、缩放、裁剪、旋转、添加滤镜、组合图片等等。

依然是老一套,先让 Gemini 帮我们安装

先来一个常见任务,我们设计师做外包经常用,在没结款之前给甲方低分辨率和带水印的图片,现在就可以直接批量完成。

这里我让他把所有图片宽边调整为 800 PX,然后统一加上带“内部资料”文字的水印。

中文的水印有些问题,后来改成英文就 OK 了,而且出错之后他自己开始用多模态能力检查修改后的图像了,发现 10% 不透明度的文字不明显,又自己重新改了一下,太聪明了。

然后再来一个常见的图像拼接需求,这种在媒体上发消息的时候经常需要,尤其是推特。

搞得不错,这几张图比例不同,所以没有对齐,可以在命令上加上统一比例这种要求就行。

文档格式转换也是常见的需求,相当多的公司工作文档还是 word,很多时候我发过去 .md 文件那边都不知道怎么办。

首先还是让 Gemini CLI 帮我们安装。

这个时候我们就可以利用 Pandoc 这个项目进行各种文档格式之间的互相转换,当然批量转换也是可以的。

可以看到转的很好,Markdown 的一些基本格式也都迁移了,不管是加粗还是无序列表有序列表。

好了教程到这里就结束了。

你可以用 Gemini CLI 控制这些已经非常成熟的命令行项目,基本上你所有的需求都能找到对应的项目。

不是只有 MCP 才能做 Agent,这些传统工具在有了 LLM 加持之后会更加强大。

看到这里,你可能会突然意识到:原来那些让我们望而却步的专业工具,其实一直都在那里等着我们。

史蒂夫·乔布斯说过的一句话:”技术应该是隐形的。” 今天的 Gemini CLI,正是让那些强大的命令行工具变得”隐形”——你不需要理解它们的工作原理,只需要说出你的需求。

更重要的是,这种改变不仅仅是效率的提升,而是创作门槛的彻底消失。

所以,如果你还在犹豫要不要试试 Gemini CLI,我想说:别让”我不会编程”成为你探索新世界的借口。 因为在这个新世界里,你需要的不是编程能力,而是想象力。

那些曾经高高在上的专业工具,现在都在静静等待着你的一句话。而你要做的,就是勇敢地说出你的需求。

因为最好的工具,是让你忘记它是工具的工具。

Last Week on My Mac: The Swiss Army knife of search

By: hoakley
8 June 2025 at 15:00

The Swiss Army knife has fallen victim to unintended consequences. Once the dream of every schoolboy and pocketed by anyone who went out into the countryside, my small collection of Swiss Army knives and multi-tools now remains indoors and unused. This is the result of strict laws on the carriage of knives in the UK; although not deemed illegal, since 1988 carrying them in a public place has put you at risk of being stopped and searched, and one friend was subjected to that for carrying a mere paint-scraper.

Swiss Army knives have another more sinister danger, that they’re used in preference to dedicated tools. Over the last week or two as I’ve been digging deeper into Spotlight, I can’t help but think how it has turned into the Swiss Army knife of search tools, by compromising its powers for the sake of versatility.

At present, I know of four different Spotlights:

  • Global Spotlight, incorporating local, web, and some in-app search, accessed through the Spotlight tool in the menu bar;
  • Local Spotlight, restricted to searching files in local and some network storage, typically through a Find window in the Finder;
  • Core Spotlight, providing search features within an app, commonly in the contents of an app’s database;
  • Third-Party Local Spotlight, a more limited local search available to third-party apps.

Of those, it’s Global Spotlight that I find most concerning, as it’s the frontline search tool for many if not most who use Macs, and the most flawed of the four. It’s not even the fault of Spotlight, whose 20th birthday we should have celebrated just over a month ago. No, this flaw goes right back to Sherlock, first released in Mac OS 8.5 in 1998.

At that time, few Macs had more than 5 GB of hard disk storage, and local search typically dealt with tens of thousands of files. That was also the first year that Google published its index, estimating that there were about 25 million web pages in all. Apple didn’t have its own web browser to offer, but made Microsoft’s Internet Explorer the default until Safari was released five years later. Merging local and web search into a single app seemed a good idea, and that’s the dangerous precedent set by Sherlock 27 years ago.

The result today only conflates and confuses.

spotlighticloud

In the days of Sherlock, web search was more a journey of discovery, where most search engines ranked pages naïvely according to the number of times the search term appeared on that page. That only changed with the arrival of Google’s patented PageRank algorithm at the end of the twentieth century, and placement of ads didn’t start in earnest until the start of the new millennium, by which time Safari was established as the standard browser in Mac OS X.

Local search was and remains a completely different discipline, with no concept of ranking. As local storage increased relentlessly in capacity, file metadata and contents became increasingly important to its success. Internally local searches have been specified by a logical language of predicates that are directly accessible to remarkably few users, and most of us have come to expect Spotlight’s indexing to handle metadata for us.

The end result challenges the user with negotiating web search engines and dodging their ads using one language, confounded by the behaviour of Siri Suggestions, and hazarding a wild guess as to what might come up in the metadata and content of files. More often than not, we end up with a potpourri that fails on all counts.

As an example, I entered the terms manet painting civil war into Spotlight’s Global Search box and was rewarded with a link to Manet’s painting of The Battle of the Kearsarge and the Alabama from 1864, as I’d hope. But entered into the search box of a Find window, those found anything but, from Plutarch’s Lives to a medical review on Type 2 diabetes. In MarsEdit’s Core Spotlight, though, they found every article I have written for this blog that featured the painting.

manetkearsargealabama
Édouard Manet (1832–1883), The Battle of the Kearsarge and the Alabama (1864), oil on canvas, 134 x 127 cm, Philadelphia Museum of Art, Philadelphia, PA. Wikimedia Commons.

To get anything useful from local Spotlight, I had to know one of the ships was the USS Kearsarge, and that unusual word immediately found an image of the painting, but no useful content referring to it. Had I opted to search for the word Alabama instead, I would have been offered 94 hits, ranging from linguistics to the Mueller report into Russian interference in the 2016 US Presidential election. Adding the requirement that the file was an image narrowed the results down to the single image.

Conversely, entering Kearsarge into Global Spotlight offered a neighbourhood in North Conway, New Hampshire, in Maps, information about three different US warships from Siri Knowledge, Wikipedia’s comprehensive disambiguation page, a list of five US warships of that name, and three copies of the image of Manet’s painting without any further information about them.

Spotlight is also set to change with the inevitable addition of AI. Already suggestions are tailored using machine learning, but as far as I’m aware local Spotlight doesn’t yet use any form of AI-enhanced search. Words entered into search boxes and bars aren’t subject to autocorrection, and although Global Spotlight may suggest alternative searches using similar words, if you enter acotyle Spotlight doesn’t dismiss it as a mistake for acolyte. It remains to be seen whether and when local Spotlight switches from Boolean binaries to fuzziness and probability, but at least that will be more akin to the ranking of web pages, and we’ll no longer need to be bilingual.

For the time being, we’re left with a Swiss Army knife, ideal for finding where Apple has hidden Keychain Access, but disappointing when you don’t know exactly what you’re looking for.

从全球流量排名看中文信息茧房

By: Anonymous
17 April 2025 at 23:25

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

截止 2025 年 3 月 1 日,根据 Similarweb 网站排名, 当全球网民在 Google 检索知识、在 YouTube 观看视频、在 Facebook 分享生活时,中国互联网用户正困守在一个由百度(第 15 位)、淘宝(跌出前 100 位)和微信构筑的数字孤岛。

Alexa 数据显示,全球前 15 大流量平台中,仅百度(第 15 位)、俄罗斯 Yandex(第 12 位)和部分受限的雅虎(第 10 位)能在境内正常访问。

这种物理层面网络隔绝,造就了人类文明史上最吊诡的景观:14 亿人口的市场与全球 60%的英语信息之间,横亘着无形的数字柏林墙。

搜索引擎的对比尤为刺眼:Google853 亿月访问量统治着全球信息分发,而百度虽在中国市场独占鳌头,其国际影响力却仅限于中文世界。

更令人深思的是,即便在被封锁的状态下,Google 仍以断层优势稳居榜首,这种”缺席的统治力”印证了开放生态的顽强生命力。

正如三星退出中国仍保持全球销量第一,谷歌被屏蔽 13 年依然傲视群雄,这些现象都在叩问:我们引以为傲的”市场规模”,是否只是温水煮青蛙的幻象?

当英语世界创造着占全球 60%的互联网内容,中文信息仅贡献 1.3%的微小份额,这种悬殊对比揭开了残酷真相:每个中文网民本质上都生活在经过三重过滤的”楚门世界”。

在抖音推送的娱乐至死中,在微博热搜的议程设置里,在微信朋友圈的信息茧房内,人们接触的所谓”海量信息”,不过是浩瀚知识海洋中的涓滴之水。

这种认知局限在学术领域尤为致命。

维基百科(第 8 位)作为全球最大的知识共享平台,其英文词条数量是中文版的 15 倍。

当中国学生还在百度百科检索被阉割的知识时,国际学术界早已在 arXiv、PubMed 等开放平台实现知识共享。

更可怕的是,那些呼吁”取消英语教育”的喧嚣,正在将阶层固化推向深渊——精英阶层通过匿名服务突破封锁获取全球 60%的信息,而普通民众却被永久禁锢在 1.3%的围城之中。

中国互联网企业看似辉煌的流量数据,实则暴露出结构性危机。

淘宝虽在国内电商市场称雄,其全球排名却已跌出前 100;腾讯视频坐拥庞大用户群,但内容创新力远逊于 Netflix(第 18 位);即便是引以为傲的短视频平台 TikTok(第 14 位),也因地缘政治风险在多个市场遭遇封杀。

这种”内卷式繁荣”折射出中国互联网经济的致命伤:过度依赖封闭市场,缺乏真正的全球竞争力。

反观亚马逊(第 13 位)的全球化布局,其日本、德国、印度站点同步跻身全球百强,这种”多点开花”的生态正是中国企业欠缺的。

当我们的电商平台还在为”二选一”垄断沾沾自喜时,Booking.com 已通过全球化运营实现月访问量飙升。这种对比残酷地揭示:在温室里培育的巨头,终究难敌旷野中生长的猛兽。

打破困局需要三重觉醒:

首先,必须承认中文信息生态的先天不足,1.3%的占比不仅是数量劣势,更是质量危机——当百度百科充斥着商业软文,当知网沦为空壳论文的仓库,我们拿什么参与全球知识生产?

其次,要正视语言壁垒带来的认知断层,英语不应是特权的通行证,而应成为公民的基础素养。

最后,需要重建开放包容的互联网精神,正如 B 站通过引进国际优质内容实现破圈,真正的文化自信从来不是闭关锁国。

那些叫嚣”取消英语”的愚昧,那些沉醉”市场规模”的虚妄,那些迷信”信息管控”的短视,终将被证明是文明进程中的逆流。

当俄罗斯 Yandex 都在努力突破语言边界时,我们是否该反思:困守 1.3%的信息孤岛,真的能孕育出引领人类文明的力量吗?答案,早已写在谷歌 853 亿月访问量的星辰大海里。

Suno – AI 创作音乐 5 分钟实战教程

By: Anonymous
2 May 2025 at 12:09

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

AI 生成音乐工具,海外有 Suno、Udio,国内有字节的海绵音乐、天工 AI 音乐等。

个人体验看,Suno 综合实力最强,几乎是遥遥领先。

尤其是最近更新了 4.5 版,提示词遵循能力大大提升。

可玩性、可用性猛的提升,非常酷。

官网:
https://suno.com/

iOS 版下载地址

‎Make and explore music with Suno. Whether you’re a shower singer or a charting artist, we break barriers between you and the song you dream of making. No instrument needed, just imagination. Begin your musical journey with 10 free songs per day. – * Your subscription will be charged to your App

注册有积分,可免费生成音乐,但不能用最近刚出的 4.5 模型。

如想体验,用我链接,互赚点积分。

Join me on Suno 🙂

但是,想玩最牛模型,双币信用卡 Stripe 支付(有被拒概率),或某宝买成品号(75 元左右/月)。

以网页版为例。

点击 Create->Simple,输入音乐风格和主题提示词,点橙色的 Create 按钮。

就能生成一首还 OK 的歌。

是不是很简单?

如想相对精确控制一首歌的歌词、每小节风格/唱腔/器乐等。

就要用 Custom 模式,可理解为专家模式。

不要怕,其实也很简单。

核心输入就三个:

负向提示词,可以避免完全不想要的风格,选填。

比如喜欢重金属的,肯定要俗套的流行乐。

不会写歌词怎么办?

点击 Lyrics 模型下的“Full Song”,出现弹窗,输入主题和风格。

然后点击“Write Lyrics”,AI 自动生成两个版本,选一个即可。

如不满意,可手动修改。

或点“By Line”,选中待修改段落,让 AI 继续改。

虽方便,但生成歌词质量一般。

也没用上很多 Suno 的一些隐藏控制技巧。

理论上,任何一首歌,都是结构的。

类似于文章的起承转合。
一般不会上来就是高潮。

让 AI 给了一些常见音乐结构组成的解释。

主歌是讲述故事或表达主题的部分,歌词内容通常每段不同,推动歌曲情节发展。

位于主歌和副歌之间,起到过渡和增强期待感的作用,旋律和情绪通常逐渐上升。

歌曲中最核心、最具记忆点的部分,通常包含主题和 Hook(钩子),旋律和歌词多次重复,是整首歌的高潮。

在歌曲后半段出现,提供音乐和情感上的转折,带来新鲜感,通常旋律和和声与主歌、副歌不同。

歌曲的结尾部分,用于收尾和渐渐结束,帮助听众从情绪中平稳过渡出来。

• Post-Chorus(后副歌):副歌后的延伸部分,通常更具能量或舞曲感。
• Drop:电子音乐中高潮爆发的部分,常在前副歌后出现。
• Interlude(间奏):歌曲中段的器乐过渡部分,给听众短暂休息。
• Breakdown:乐器简化或重新编排的部分,常用于突出某种情绪或为高潮做铺垫。
• Refrain(叠句):在每个主歌结尾重复的短句,加强记忆点。
• Spoken Word(说唱/对白):用说话或朗诵的方式表达内容,增加表现力。
• Ad-libs(即兴短句):歌手即兴添加的背景声音或短句,增强歌曲表现力。

Suno 4.5 升级后,语义理解和遵循能力大幅提升。

能在歌词(Lyrics)中做段落标记,以控制歌曲的结构和情绪走向。

支持的结构标记如下:

此外,通过搜索官方 Reddit 社区,发现还有一些更细的控制。

比如

窗前明月光(明月光)

效果:括号内也会跟着唱出来,像叠唱和声效果。

再比如,Suno 对中文理解不到位。

某字发音不对,也可以通过小括号加上音标。

春花秋月何时了(liǎo)

避免唱成 le

[]括号也很有用,比如想指定某段用甜美女声唱,可以这么写:

[Verse 1: Narrative] [Sweet Female Vocal]

没关系。

像我们普通人。

音乐风格也了解的不多。

所以,借助 AI ,我把上面的技巧写到了一个提示词中。

模型推荐 Claude 3.7 sonnet,或 Gemini 2.5 Pro。

另外发现,如果是中文歌,豆包写歌词更押韵,但音乐标记做的不够好。

推荐模型组合使用,加上人工微调,完成你的歌词。

大概效果如下:

与此同时,还会生成正向和负向风格提示词、推荐歌名。

只需要复制粘贴到 Suno 中即可。

刷 Reddit,发现一些专业搞音乐的网友。

他们的用法:用 Suno 找创作灵感。

通过录音哼唱,生成纯音乐歌曲。

如何做?

点创作界面中的 Audio

可录音(也可上传一段音乐)

支持最多 120s 音频,以此为基础生成翻版或延长。

注意: 上传或录制的音频,会做版权检测,测了一些大牌乐队歌曲,都不让用…

先用 Suno 生成纯音乐,挑选最喜欢的一首,下载为 MP3。

打开谷歌 AIStudio,上传后让它基于歌曲写 Lyrics 歌词。

Google AI Studio is the fastest way to start building with Gemini, our next generation family of multimodal generative AI models.

示例如下:

谷歌多模态 AI 威武,不少音乐人喜欢这个 Use Case。

可能有人好奇,这么多复杂技巧怎么发现的?

工具Google Deep Research + 提示词:

调研下 suno.ai 的歌词创作和 lyrics 写法

十多分钟后,输出一份完整报告。

为方便查看,我做成了一个网站:

对于更具诗意、结构更复杂或不规则的歌词,Suno AI 也能进行处理,前提是用户提供了结构清晰、格式规范的输入文本。但是,AI 的默认倾向可能是生成更简单、重复性更强的旋律和结构。 因此,要成功演绎复杂的诗歌式歌词,很大程度上依赖于用户输入的质量以及是否使用了恰当的格式化技巧来引导 AI。 适合度:★★★☆☆ (适合,但需要更多技巧和高质量输入)

AI 音乐真的太神奇了。

以前觉得,创作音乐是天才和专业人士的专属。

现在,有了 AI,普通人也能写歌、作曲、制作,甚至能做出让自己感动的作品。

每次听到自己用 AI 做出的歌,心里都特别激动。

技术让梦想变得触手可及,也让更多人敢于尝试、表达自己。

希望大家多多体验 AI 音乐,别害怕不会乐理,不会写词。只要你有想法,有热情,AI 会帮你把它变成现实。

如果你觉得这篇文章有用,欢迎点赞支持。你的鼓励,是我继续分享的动力。

让我们一起用 AI,玩出更多音乐的可能!

5 大免费邮件转发服务,替代临时邮箱方案

By: Anonymous
18 March 2025 at 13:18

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

以往要对付垃圾邮件我会推荐使用临时邮箱来取代真实 Email 邮箱,临时邮箱又被称为临时邮箱、一次性邮箱或随用即丢邮箱,最知名的 10 分钟邮箱大家应该都听过。临时邮箱的原理是进入网页后随机生成 Email 地址,可使用该地址来注册账号、接收验证邮件并通过认证,同时保持匿名状态,不泄漏自己的真实邮箱,毕竟大多数的人都会有一个主要电子邮件地址,通过地址进行查找很容易就找到个人相关信息。

尽管临时邮箱有相当优异的便利性,也能实现以匿名邮箱收取 Email 邮件,但遗憾的是它们有个最大缺点就是无法重复使用,当离开服务、关闭网页后就无法继续使用相同的邮箱地址收件〔有些临时邮箱可设置密码就不在此列〕,但有部分服务可能会在指定情况需要重新以 Email 进行验证,如此一来就会造成后续使用上的麻烦。

电子邮件转发〔Email Forwarding〕又称为「邮件别名」〔Email Aliases〕服务,简单来说,它可以将发送到随机生成匿名 Email 地址的邮件转送到用户真实邮箱,由于这些邮件别名不会包含与你有关的字串,就不用担心被识别出真实身份。电子邮件转发功能将 Email 正确转发到用户真实邮箱,同时也保持 Email 地址匿名性。

实际案例:

假设你使用邮件转发服务在某电商网站注册账户,该网站只会看到你设置的邮件别名,而非你的真实 Email。即便该网站发生安全事件,外泄的也是邮件别名,无法直接联系到你的真实邮箱。

各种网络服务安全事件频传,如果使用 Have I been pwned、Data Breach Checker、Firefox MonitorGoogle One 暗网报告查询,会发现我们平常使用的 Email 地址可能都已经被外流很多次了。还好密码大多数都会经过加密〔hash〕,不会以明码方式储存,但用户账号、Email 等个人资料就很容易被收集后于暗网兜售。

黑客利用这些外泄的账号、Email 和密码组合去攻击用户常用的服务,有可能就会被登入滥用,因此这些资料很可能成为垃圾邮件或是网络钓鱼诈骗的目标。以邮件转发服务生成随机、不易被识别的 Email 地址有助于保护自己的真实身份。

接下来我将会列出五个推荐的邮件转发、邮件别名服务,列出的邮件转发服务注册就能使用,不是电子邮件自带的邮件别名功能。

Firefox Relay 是 Mozilla 提供的邮件转发邮箱功能,免费版在全世界大多数国家都能使用,免费版就能符合大部分用户需求。

Firefox Relay 注册账号后可以获取五组转发邮箱,可以随意生成无限组合转发邮箱来保护真实邮箱,别名可以随时暂停或删除,避免该邮箱继续接收邮件。收到邮件、转发时会自动移除邮件追踪器,以提供用户更好的隐私防护。

如果你从未使用过邮件转发服务,我会推荐从 Firefox Relay 开始。

直接前往 Firefox Relay

SimpleLogin 是一项开源、匿名邮件转发服务,2022 年被 Proton 公司收购成为旗下的产品。免费方案有提供十组邮件别名,无流量和接收邮件数量限制,与各种浏览器、移动设备都有相当好的整合,如果不想额外安装扩展,通过网页操作界面一样可以进行设置使用。

比较特别的是 SimpleLogin 具有「Reply from alias」功能,可以从邮件别名直接回复邮件,而不用通过真实邮件地址。付费后可以设置域名,享有无限制的邮件别名、Catch-all 等功能。

直接前往 SimpleLogin

知名的查找引擎服务 DuckDuckGo 也有邮件保护方案〔Email Protection〕,让用户通过 @duck.com 邮件地址来隐藏真实邮箱,在接收到新邮件时 DuckDuckGo 会先将邮件内的追踪器移除〔和 Firefox Relay 一样〕,在将邮件转发到用户 Email 地址,这项服务不会储存任何收到的邮件内容。

需要先在浏览器下载、安装 DuckDuckGo 扩展才能进行设置,或是要从手机下载应用程序。

比较特别的是 DuckDuckGo 邮件保护计划有一项比较特别的功能「Private Duck Address Generator」,可在现有的邮件转发地址再生成随机的邮箱地址,有点像多一层保护的概念。

直接前往 DuckDuckGo Email

Addy.io〔旧名 AnonAddy〕是匿名的电子邮件转发服务,主要用途是保护用户真实邮箱地址,免费方案就提供无限制的邮件别名,不过可用的共用网域别名、真实 Email 地址数量和别名域名有限制,免费和付费最主要差异依然是可否设置域名,要注意的是 Addy 回复功能是需要付费才能使用。

如果有直接以匿名转发邮件回复的需求,建议可以使用前面介绍过的 SimpleLogin 代替。

直接前往 Addy.io

5 大免费邮件转发服务,替代临时邮箱方案

Forward Email 是无限制电子邮件转发服务,跟前面几项不同的是它是唯一提供免费设置域名功能的服务,可以使用自己的域名转发邮件,也具有发送邮件功能。基本方案已具备相当完整的功能,唯有在需要一些付费项目或团队功能时才需要升级方案。

Forward Email 是 100% 开源的服务商,非常透明且注重隐私和安全性,服务不倚赖任何第三方,也不会对任何用户记录进行储存,最自豪的是它是目前世界上唯一使用抗量子和单独加密 SQLite 的邮箱。

直接前往 Forward Email

Google Gemini 免费 AI 对话修图实测!一句话PS、换背景、创作系列图画

By: Anonymous
9 March 2025 at 13:51

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

你拍下一些照片,却觉得照片的背景不够完美?你是内容创作者,但找不到文章合适的配图?你是电商卖家,想位产品设计更吸引人的配图?你是老师,需要为教材找出一系列搭配的示范图片?以前,我们修图可能需要 学 Photoshop,需要花很多时间调整细节,或是要下载各种修图 App,还要在图库中翻找适合自己的图片文件。

但现在,只要一个 AI 指令,就能让我们需要的照片「瞬间改造完成」。

如果你想体验看看类似的工作流程,可以试试看前两天推出的 Google Gemini 免费 AI 修图!只要「一句话」,你就能改变图片,换背景、改风格、添加新元素,甚至创造连续漫画。
〔类似功能,在 Google Pixel 系列手机的 Google 相册中也能部分实现,Adobe、Canva 等的 AI 修图也能实现部分功能。〕

这篇文章,我会实测 Gemini 的 AI 修图能力〔而且免费即可使用〕,看看它怎么帮助我们「一句话变出想要的修图效果」!

我将分成三种应用角度来介绍,这些全部都能在 Gemini 中用自然语言下指令,便可以把照片生成或改造:

基础照片修图:让拍坏的照片变完美

替换背景、增加物品、改变颜色光线、调整风格。

进阶场景创作:为文章制作主题插图、让商品看起来更吸引人

搭配原始照片,制作特殊场景图

搭配原始照片,重新设计房间或产品

连续系列照片生成:根据文章、教材内容,生成一系列互相搭配的图片

模拟图文食谱

说故事的连续漫画、图画

文章中搭配的系列配图

首先,这个功能目前〔2025/3/14〕尚未开放在正式版的 Gemini 中,但可以通过免费账号即可登入的「 Google AI Studio 」来使用。

Google 账号注册登入后,进入一个新的对话框,并在右边控制列的「Model」菜单,切换到「Gemini 2.0 flash experimental」,就可以利用其 AI 来创作图片、修改图片,最大的特色是:

这个 Gemini 模型可以上传自己的图片,用「自然语言」下指令,请 AI 在图片上修图或生成新内容。

就如同 experimental 所说的「实验性」,实际测试结果,这个 AI 修图功能确实很神奇,也能够看到一些未来修图、创作图片的新可能性,不过可下载的图片质量等限制,目前还是不足以真正用在商业用途上的。

Google Gemini 免费 AI 对话修图实测!一句话PS、换背景、创作系列图画

在「Gemini 2.0 flash experimental」的对话框中,我们可以先上传一张原始照片,如果想要替换背景,只要简单的说一句这样的指令:「把照片的背景换成草地。」

就可以在 10 几秒的处理后,完成下图的成果。可以看到,Gemini 的「修图」是真的可以保留原始照片中的内容,只修改我要修改的部分。所以是真的 AI 修图,而不是 AI 重新生成图片。

我也可以上传一张风景照片,然后下指令:「把照片的天空改成大晴天。」Gemini 同样可以处理这样的调整。〔在 Google Pixel 手机的 Google 相册中就有类似功能可用〕

如果想要替换照片风格,套用艺术滤镜,也可以用 AI 下指令:「把照片变成中国水墨画风格。」就能轻松转换风格。

不过当然跟真正的艺术滤镜还是有落差,例如下图中我要 AI 把照片改成「彩色的铅笔绘画风格」,看起来还可以,不过专业的艺术滤镜一定会处理得更好。

除了可以用「Gemini 2.0 flash experimental」的 AI 修图外,也可以在原始照片上进行创作。

例如延续上面的图片案例,我对 AI 下指令:「拓展成一幅横幅的中国水墨画。」十几秒后,照片就变成了一幅新的水墨风景画。

或是我的书籍封面,上传后,下指令说到:「我想把原书的图片,摆在一张高雅的书桌上。」结果还真的可以顺利生成新的产品摆拍图。

不过如果细看,书籍封面上有些小字其实是有瑕疵的。

因为 Gemini 是对话的模式,所以在原始照片的改造上,我们可以通过多次讨论,让 AI 在原始照片上陆续添加内容,制作出自己需要的场景图。

例如下面原本只是单纯公园照片,我先请 Gemini:「在这张照片的草地上,加上一对正在野餐的男女朋友。」于是生成了下面的图片。

然后我继续追问:「让两人旁边有一只小狗在奔跑。」

然后再下指令:「旁边的道路上,也有零星的路人在散步。」

最后说「让天空变得更晴朗。」于是我要的最终场景图,就通过 AI 创作完成了。

我还做了一个尝试,先上传一张原始的房间照片〔某家旅馆〕。

然后我陆续对 AI 下了下面这些指令:

结果 AI 生成了下面这样的图片,第一张是原图,第二张是最后生成的图片,改造的图片还是保有原图的空间格局,只是风格焕然一新。

Google Gemini 本来就可以生成图片,但「Gemini 2.0 flash experimental」比较厉害的是可以分析文章内容,生成适合的配图,或是一系列的连续漫画、故事图片

例如,我对「Gemini 2.0 flash experimental」下了这样的指令:「你是意大利面专家,提供给我一道海鲜意大利面的食谱,请一步一步处理,用文字具体列出关键步骤,并在步骤后搭配图片。」

结果他「一次」就生成了下面的连续图文教程内容,这是在一次的问答后就完成的结果。

我假设自己写了一篇游记,于是请 AI「设计一系列素描画,展现一个人在京都街头散步的故事,请一步一步分析,以京都的场景,搭配素描画风格,设计有意思的散步故事,创作一连图画。」

结果「Gemini 2.0 flash experimental」也在一次的生成中,提供给我下面连续故事图,比较神奇的是这些连续图片中都有类似的人物,保持图片连贯性,虽然风格上有点跳跃。

还可以这样问 AI,我让 Gemini 自己思考如何设计一系列进入书店场景的图片,Gemini 自己写了一大篇分析内容后,才开始设计并产出图片。

但效果看起来还不错。

所以,在功能上,利用现在〔2025/3/15〕在 Google AI Studio 中的「Gemini 2.0 flash experimental」,你可以上传原始照片请 AI 修图、改图。也可以让 AI 读一篇文章、思考一个主题,生成一系列连续图片。

未来这个功能越来越成熟,或许有下面这些应用可能性:

现在,你也可以通过免费账号即可登入的「 Google AI Studio 」来试试看。

Aux Machina – AI 驱动的免费图片生成工具,简单高效神器

By: Anonymous
28 December 2024 at 15:11

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Aux Machina 是一款由人工智能 AI 技术驱动的图片生成工具,协助设计师、运营人员和内容创作者快速、轻松地创建设置视觉内容,以往常见的图片生成器大多使用提示词〔Prompt〕来描述要生成的图片,Aux Machina 提供用户上传图片来制作类似结果,再利用文字描述对生成后的图片进行微调,最终生成令人惊叹的视觉效果。

Aux Machina 将这样的流程简化,直接上传图片后就可以快速生成四张相似、但又不太一样的结果。此外,也能够以关键词查找网络上的图片,再将它加入 Aux Machina 以生成近似的图片。

Aux Machina 在操作上也很容易,用户必须先注册账户〔免费〕,就能在免费试用方案下生成图片,每月最高的生成数量为 100 张图片,可使用于商业用途,若有更多生成需求可付费升级 Pro 方案或购买单次付费,不过当前服务的计价方式尚未很完整,有兴趣的朋友就先去试玩一下吧!

No Description

进入 Aux Machina 网站后点击右上角「Try for Free」,接着会看到注册、登入页面,推荐直接使用 Google 或是 Facebook 账户注册登入即可,完全不用经过任何验证。

关键词查找图片

登入后就会看到 AI 图片生成工具,先介绍第一种方法,直接输入关键词查找网络上的图片〔下方有 AI 图片生成器服务列表,不过在免费方案只能使用 Berserq 无法选择其他服务〕。

点击图片右上角「爱心」后再点击下方工具栏的「Generate」就能以 AI 生成相似的图片结果。

Aux Machina – AI 驱动的免费图片生成工具,简单高效神器

以图生图功能

另一个「以图生图」方式是点击查找栏位右侧的「相机」图标,会出现上传图片的功能,支持 JPEG、PNG、WEBP、AVIF、JFIF 五种图片格式。

把要生成的原始图片拖曳后点击「Upload Images」上传。

设置细部调整

Aux Machina 就会以 AI 人工智能技术生成四张类似、但又有一点不太一样的图片。

下方会有一个「Want to make changes?」功能,可以在选择图片后输入描述、对画面进行细部修改编辑。

下载与使用图片

将光标移动到图片上方,点击右下角「Download」就能下载、保存图片,以 AI 生成的图片素材可自由使用于个人和商业用途,无需标示出处来源,也不用担心会有侵权问题。

Aux Machina 网站有提到未来还会加入更多 AI 辅助图片工具,例如:更换背景、影像变化、图片文字编辑、图片分辨率增强、去除背景、转为草图、魔术橡皮擦或是转向量图等等,不过目前的图片生成器已经很有用,若有需要各种图片素材的话可以使用它进行生成。

tldraw computer – 画张流程图轻松打造 AI 自动化任务实测指南

By: Anonymous
22 December 2024 at 14:33

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

你是否因为不会写程序,总觉得无法打造自己的自动化工作流程?每次设置 AI 工具都需要大量手动操作,效率难以提升?试试看一个实验性的新工具:「tldraw computer」,通过直觉的流程图设计,就能将繁琐 AI 指令与工作流程视觉化,打造高效率的 AI 自动化系统!

一开始使用 AI 〔指得是 ChatGPTGoogle Gemini 这类工具〕,我们可能会问:「生成一个某某主题的报告。」但当继续深入使用,真的把 AI 当作工作辅助工具,就会发现这样简单的提问是不行的,我们需要把任务「切割成」不同步骤,一个阶段一个阶段让 AI 处理,然后通过反问讨论,整合出最终更好的内容。

这时候,我们要请 AI 生成报告草稿,可能会先请 AI 设置 TA、痛点,再请 AI 做资料研究、摘要,然后请 AI 根据资料思考出更好的报告论述逻辑,然后才请 AI 根据这样的逻辑与资料,最后总结出一个更深入的报告大纲。

那么,如果上述的操作流程,可以用「视觉化」的流程图规划出来,然后 AI 就会自动跑完所有流程,生出我们需要的成果呢?这就是今天分享的这个最新 AI 工具:「tldraw computer」所具备的独特功能。

「 tldraw 」是很知名且好用的在线流程图工具,不过她们最新推出的「 tldraw computer 」AI 功能,不是要帮我们画流程图,而是让我们用简单好上手的流程图,规划出自己想要的 AI 自动化工作流程,打造一个可以根据更复杂逻辑生成报告、文章、设计图、声音文件的 AI 自动化助手。

「tldraw computer」内核特色:

「tldraw computer」用途:

我们先来看看「tldraw computer」这个工具可以完成什么样的应用案例,分享一个简单版实例:我自己常常会需要把拍照扫描的纸张图片,转换成一个有效的文字内容,就利用这个工具来建立一个快速扫描与修正文字的 AI 工具

我可以在「tldraw computer」流程图上设置一个上传图片的卡片框,然后拉一条连接线。接着在一个 AI 的指令框框里,输入我希望用什么样的逻辑来识别图片并修饰文字。然后接下来我再拉一条连接线,设置一个输出的文字框,让 AI 可以把完成的结果输出到这里。

而在使用的时候,我就只要在「第一步:上传图片的卡片框」把图片上传,按下右上方的播放启动按钮。这时候,这个工具就会自动跑流程图上的步骤,把扫描出来的文字转换成我需要的内容。

「tldraw computer」目前使用的 AI 模型是 Gemini,看起来无论是中文的文字还是手写字,都能够非常有效的识别完成。

tldraw computer – 画张流程图轻松打造 AI 自动化任务实测指南

接下来我们来看一个比较进阶复杂的应用案例。我想让 AI 帮我写一篇文章的草稿,但是就像前面提到的,直接让它撰写通常不会有很好的结果。

所以我利用「tldraw computer」工具画出一个文章产出的工作流程图。在流程图的一开始,我利用两张绿色的卡片,让我可以自己简单的设置这篇文章要解决什么 TA 问题,以及这篇文章想要采用什么方法论来解决问题。

接着,我开始用「tldraw computer」流程图展开我希望 AI 一步一步处理的自动化步骤。

首先,我利用红色的卡片设计 AI 处理的指令,请 AI 根据我的 TA 问题,写出一段有效的痛点描述。接着再请 AI 利用我想要介绍的方法论,写出一段这个方法论的重点思维基本背景的介绍文字。

但是,这样还不够。我继续往下画流程图。我让 AI 根据他自己输出的 TA 痛点以及方法论的重点,重新思考,拟出文章最好的架构。这个架构需要具体,有操作步骤,而且每个方法、每个步骤都要尽量有深入的诠释。

然后接下来,我让 AI 一步一步的把这篇文章往下扩展,有了文章的架构之后,我再请 AI 从这个架构出发,让这篇文章有一个完整的故事开场,有方法论重点,也有具体操作步骤,把前面的内容做一个有效的并且延伸插件的整合。

最后,我再画出下一步的 AI 流程图。我请 AI 用惯用的语言,用口语更亲切的方式来润饰改写它产出的文稿,输出一个解决痛点、介绍方法的一篇中文文章草稿。

甚至我可以再继续往下拉出下一步的流程图,放上一张声音的输出卡片,让 AI 把这篇文章的草稿转换成一个精简扼要的介绍音频文件。

有兴趣的朋友,可以看看我完成的这个 AI 自动化的工作流程图,看看上面的内容:https://computer.tldraw.com/t/szQY1iuGZCHAEmwzFASShH〔网址可以查看生成结果,如果要试用这个 AI 自动化流程工具,需要注册一免费账号。〕

当我有了这样的一个自动化的工作流程图,以后我只要每次回头修改一开始的两张绿色卡片,后面 AI 就会像刚才一样,自动跑完我已经设计好的工作流程,一步一步的去设计结构,推演文章进行润饰,甚至最后产出声音文件。我可以立刻获得最后输出的文章草稿以及声音文件的结果。

看完两个具体案例,最后我来分享「tldraw computer」如何操作?

先注册一个免费账号,建立一个 AI 自动化工作流程〔图〕的项目。

A computer by tldraw.

建立 AI 流程的基本逻辑是:输入、〔AI〕处理、〔AI〕输出。

掌握上面这个逻辑,你就能快速设计出一个有效的 AI 自动化工作流程。

首先,我们要设置「输入」内容的填写框,这是 AI 工作流程的起点,就像是要告诉 AI 目标、结果、资料的意思。

在「tldraw computer」中,利用 Text 或 Image 等卡片,可以设置输入文字、上传图片的填写框,作为启动流程的起点。

接着,我们要告诉「tldraw computer」如果去处理输入的内容,这时候从输入内容的卡片,画出连接线,连接到「Instruction」这个卡片上,然后在「Instruction」中说明希望 AI 如何处理内容的指令。

「tldraw computer」会根据我们简单的指令,自己做优化,让 AI 处理内容的结果更好。

然后,我们继续从「Instruction」卡片画出连接线,这时候可以连到 Text、Image、Speech、Website 等卡片,代表要让 AI 处理后,输出什么格式的内容。

重复上面:输入、处理、输出,三阶段流程,我们就可以串联出一个更复杂的 AI 自动化工作流程。

通过流程图的规划方式,我可以继续推进下一步的 AI 处理流程,甚至利用连接线把不同段落的内容连接到需要的步骤上,建立我自己需要的工作步骤。

最后,「tldraw computer」也提供了一些辅助功能,让设计这样的流程图更简单。

例如有一个启动按钮,让我们到时候只要按下启动,后面的 AI 流程就会自动跑完。

或是像流程图一样可以设置大小颜色,这样帮助我们分辨流程图中不同的卡片类型。

tldraw computer还有不少高级功能,有兴趣的朋友可以进一步玩玩看。

整体来说,「tldraw computer」是一个强大且易上手的自动化工具,让我们能够轻松打造自己的 AI 流程,推荐大家试试看。

Claude 新功能 MCP (模型上下文协议)使用指南

By: Anonymous
27 November 2024 at 13:59

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Claude (Anthropic) 最近出了个 MCP (Model Context Protocol,模型上下文协议) 协议,让我朋友圈有刷屏之势,能清晰感受到,大伙儿都非常欣喜。我自己试用之后,决定写下这篇文章,分享给你。

MCP 是一种新的开放标准协议,用来在大模型和数据源之间建立安全双向的链接。这是它的官方示意图。

这张图展示了使用 Claude 或其他 IDE 时,通过这种双向沟通协议,模型(目前指 Claude)可以与不同的数据服务器进行连接。每个连接的数据源可能千差万别,比如上图里面前两个连接本地数据,第三个则直接通过互联网操作远程文件。

MCP 有什么用?为什么会让这么多开发者与用户欢欣鼓舞?

MCP 是一种统一的集成方式,交互界面完全一致。如果其他大模型也跟进,那么以后连接数据的感觉,就像给不同的电子设备使用 USB-C 接口,而不用准备那么多种不同的线缆插头。

更重要的是 MCP 的设计目标——提升安全性与控制力。因为以前处理数据时,我们通常采用极端的处理方式,很不安全。

第一种是将数据上传到大模型的对话中。这会带来两个问题:

另一种方式是让大模型获得本地管理员级别处理权限,帮助我们自动处理本地数据。之前我 给你介绍过的 Open Interpreter 就属于这种方式。看起来非常方便、灵活,但 AI 代理在本地以管理员权限进行各种操作,看到所有文件。如果它被植入不安全的代码,控制你的计算机,可能导致隐私和重要数据泄露,后果严重性不言而喻。

为解决上述两种极端数据交互方式带来的问题,Claude 提供了 MCP 作为一种解决方案。作为协议,它是完全开放的。后续其他主流 AI 企业能否跟进,咱们说不准。但是现在就可以用 Claude 来体验一下 MCP 带来的数据交互好处。

我们先沿着官方的 参考资料有快速上手指南 操作一下。指南非常简洁,步骤清晰,跟着做并不难。

官方教程给出了一个最简单的数据操作样例,是一个 SQLite 数据库。

SQLite 设置非常简单,单文件即可运行。我讲数据库课程超过 10 年,一直用的就是 SQLite。学生不用一上来就去学习架设服务器、权限管理,而是直接拿过来就可以学习 SQL 查询语句。对文科生来说,这都是一个非常简单的界面。

在上手教程里,我们会操作一个本地 SQLite 文件,与 Claude 进行交互。我们需要预先安装一些软件,不过很简单,你照着指南里面这个命令拷贝到终端执行就行。

下面是在我电脑上执行过程截图。

当然别忘了,你需要 下载 Claude Desktop 应用的最新版本,这是执行后续操作的前提。

之后,你需要建立一个 SQLite 的数据库样例文件。咱们先按照官方的设定来操作,复制页面上的这段代码,直接在终端执行就能搞定。

只要没有报错,你就拥有一个本地的 SQLite 样例数据了。

它存储在你的用户目录下,叫做 test.db .

下面你需要做的,是本次教程里最为不方便的操作——修改 Claude 配置文件。我相信在未来的版本当中,这个操作是能够通过图形化的界面来拖拽完成的。不过现在还是原型系统,你暂且忍耐一下。教程里明确告诉你设定文件的路径,你照着这个来执行就好。

你可以用 Visual Studio Code 或者类似的编辑器打开指定的配置文件路径。我这里用的是 Cursor。打开该文件后,你需要把教程代码段里的内容填进去。

不过这里有一个注意事项——你需要把原先代码中的 username 换成你自己在 macOS 上实际的用户名。这个很重要,不然连不上数据,会耽误你很多宝贵时间查错……别问我怎么知道的。

之后注意,你需要在 macOS重启你的 Claude Desktop App

到此,设定就算完成了。

下面,咱们实际看看 Claude 是如何与 test.db 这个数据文件交互。官网给出的流程图是这样的:

如图所示,Claude 先要和我们刚刚搭建的 SQLite MCP 服务之间建立连接,然后可以执行查询的操作。

首先,我们先用提示词来把这二者连接起来。这里的提问我是直接从人家官方的快速开始教程里面照抄的——「你能不能连接我的 SQLite 这个数据库,然后告诉我哪些商品现在可售,以及他们的售价?」

Can you connect to my SQLite database and tell me what products are available, and their prices?

Claude 立即就会明白需要和 SQLite MCP 沟通。

然后它就找我们要权限。我选择这一整次对话都可以给它开放权限(Allow for This Chat)。注意,这就是我刚刚跟你提到的安全性——大模型要做什么操作、找我们要什么样的权限、权限开放的时间范围多大……我们都可以自己来控制。

大模型开始与 MCP 通讯,执行一系列的 SQL 语句,通过查询返回结果。

注意,Claude 不像 SQLite 简单给你返回一个表格作为结果,而是用自然语言回答你的问题。这个样例中,它把现在可售商品都给你列出来,并且后面都标上价格。这种交互就显得非常自然。

下面我们来继续提出另一个样例问题——「在你的数据库中,商品平均价格是多少?」

What’s the average price of all products in the database?

这次大模型没有找我们再要权限。因为刚刚已经说明,整轮对话,它都可以获得 MCP 服务数据的操作权限。

执行后,Claude 告诉我们,平均值为 82.14 美元。

你会发现我们刚刚一直用英文来提问,这是因为教程是英文的,咱们为了方便拷贝了问题。但对 Claude 来说,中文完全不是问题。用中文来问「你能分析价格分布并提出任何定价的优化建议吗?」Claude 就会用中文来答。当然,背后还是连接 MCP 服务,调用 SQL 进行查询。

当查询遇到问题时,Claude 会自动反思,并且重组查询式,依照 MCP 服务返回的 SQLite 查询表格结果,告诉你不同的价格分布。

基于这些分析结果,它会给出优化建议,如价格策略、产品组合、促销策略和定价心理学应用等。

注意这是你单独用 SQLite 查询数据库无法直接给出的结果,SQLite 只能给出表格。而根据背景知识对查询结果表格进行解读,才是大模型的能力体现

既然跑通了官网给出的样例,我们接下来换上我讲数据库课程时常用的样例数据集,叫做 colleges。这个数据集来自斯坦福大学的一门 MOOC,包含学生申请大学的模拟数据。

数据集包括三个表格:apply(谁申请了哪个学校的哪个专业,是否被录取)、colleges(所有大学的列表)和 students(所有学生的信息)。

平时上课时,我在这几个表之间来回操作,教学生如何跨越表格综合信息返回正确的结果。

这次,咱们不用任何的 SQL 命令撰写,而是直接用自然语言来提问。首先,你要确保 MCP 连接成功。注意你需要修改配置文件里,数据库文件的路径,指向 colleges.db 。

对了,之后别忘了重启 Claude Desktop。

我的问题为:「你能否连接我的 SQLite 数据库,并告诉我里面有什么?」

Can you connect to my SQLite database and tell me what’s in it?

还是索要了一系列权限后,Claude 告诉我们有三个表:college、student、apply。

之后,通过进一步查询,Claude 为我们介绍 college 表中有哪些字段,student 和 apply 表又分别有哪些字段。至此意味着 MCP 数据连接成功。

Claude 会给出一些建议,告诉你可以问哪些问题。

不过我还是用自己的问题好了:「哪些同学报考了 Stanford 并且被录取?」

Claude 通过 MCP 执行查询,告诉我 Amy、Fay、Jay、Helen 这几个学生被斯坦福大学录取,并且说明了他们的 GPA 和专业信息。

Claude 特别指出,「有意思的是」被录取的学生中,两名被计算机科学专业录取,两名被历史专业录取,大多数学生 GPA 都很高,3.7 以上,但也有一位学生 GPA 较低,仍被历史专业录取。2.9 的 GPA 也能被斯坦福录取,这确实「很有意思」。

接下来咱们问它第二个问题:「哪些学生没有被任何学校录取,是因为分数太低吗?」

Claude 返回了两个学生的信息,并且说明 Bob 申请了 Berkeley 的生物专业,而 Craig 申请了 MIT 的计算机科学专业。

它总结说,这些没被录取的学生 GPA 其实不低,这表明 GPA 其实不是唯一的录取标准。然后 Claude 甚至还专门给出了报考大学的方法建议。

如果单单使用 SQL 查询,你不可能获得这些建议,这也是利用大模型做数据分析的有趣之处。Claude 通过 MCP 把当前的 SQL 查询结果与申请美国大学的背景知识有机地联系起来,厉害不?

但实际上,它的回答是错的

我教了十多年数据库课,对这个数据集非常熟悉。这里有一个陷阱——这个数据库里,有的学生没有申请任何一所大学。你不申请大学,当然不可能被任何一所大学录取,对吧?因此,在回答这个问题的时候,你的查询不能只看那些全部申请都被拒的学生。

所以我进一步提示它:

注意被所有申请的学校拒绝和没有被任何一所学校录取是不一样的。

我只提示到这,并没有说「有的学生没有申请学校」。但 Claude 很聪明,马上反应过来。它依然先找出所有提交过申请但没被录取的学生状况。后来它说,「让我们看看数据库中还有哪些学生是完全没有提交任何申请的」。注意这个查询,是它自己总结出来的。

综合分析后,它的答案是:刚才答案中那两个没有问题,是申请后却被所有申请的学校拒绝的学生;但还有若干完全没有提交申请的学生,分别是 Doris、Amy、Gary 和 Edward。

它还补充道,「这确实是两种完全不同的情况。谢谢您的纠正」。

很懂礼貌嘛,孺子可教。

Claude MCP 给我们带来的,绝不只是查询更简单、结果更全面、数据更安全这样的优势。至少,它打破了 Claude 处理数据长度和类型的限制。在 Claude 对话里,你想上传文件,就会看到限制——最多五个文件,每个文件不得超过 30 兆。

我找了一个上课时用到的数据库叫 movie.db。这个数据库包含了若干年的电影信息,虽然只有 246.7 兆,但这样的文件想在现在的 Claude 对话当中使用,那断然是不可能的。

你上传不上去,不仅仅是因为它体积太大,更是由于这种 .db 格式 Claude 就不允许上传,你连选择它都没有机会。

这些文件都是灰色的,不能点选。但是现在不一样了,我们直接把配置 MCP 路径修改成 movie.db,然后来连接。

Claude 找出这里面有三张表,分别包括了电影、演员和他们饰演角色的记录。

我问:「有多少女演员同时出演过《哈利・波特》电影的前两部?」你不要小看这个问题,你首先得知道《哈利・波特》电影的前两部都是啥。Claude 查询经过一些波折,但它非常勤恳地重构查询,然后告诉我们,这两部电影分别是《哈利・波特与魔法石》和《哈利・波特与密室》。

之后它列出了 8 个同时出现在两部电影中女演员的名单,还介绍了这个系列中的主要角色,如赫敏和麦格教授。我觉得这个回答非常好。

如果你在学习 SQL,那么还可以打开它的中间分析过程来查看完整 SQL 语句。

你可以自己用 SQLite 工具来验证查询结果。但更多时候,你兴许能从它的答案中得到参考和借鉴。

我必须说明一点——本文所演示的内容,只是 MCP 能力的冰山一角。MCP 现在支持的数据服务,就已包括 GitHubGoogle Drive、Slack 等。

甚至,你还可以用十几分钟的时间,干脆构建一个自己的 MCP 服务。官网分别提供了 Python 和 Typescript 语言版本的对应教程。

而仅从 SQLite 的样例看,MCP 目前就可以连接本地数据库,不用像原先那样把整个数据来回上传下载。安全性和控制力比以前显著增强。

Claude 通过 MCP 作为中介,能很好地分析 SQLite 的数据集。在咱们展示的例子中,MCP 的优点是把大模型和数据有机结合起来——通过对外部世界规律的微妙体悟,在真实任务中有效帮助你充分利用自己的数据。

提示词的清晰度依然很重要。例如刚才提到的「申请了学校但没有被录取」和「完全没有申请学校」这样的问题,有时还需要我们引导一下。

试想我们把不同的数据来源综合起来,在一个对话中综合调用,这种感觉像更是一种「化学反应」,想想就让人兴奋。希望 MCP 的出现,能激发你的创意,让你利用多元数据集获得更为深入的洞察。

还是那句话,「临渊羡鱼不如退而结网」。与其看个热闹,不如自己动手试一试。哪怕你只是按照 Claude 官网的教程走一遍也好,相信也能获得更为直接的感悟。

欢迎你把自己尝试 Claude + MCP 的结果分享在留言区,我们一起交流讨论。

祝 AI 辅助数据利用愉快!

Recraft – 打败 Midjourney,匿名屠榜的 AI 生图黑马,人人都能设计海报

By: Anonymous
19 November 2024 at 17:08

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

如今 AI 圈更新产品的节奏,让每个和键盘难舍难分的编辑明白了一句台词:你还有多少惊喜是朕不知道的?

这不,又一个 AI 生图神器来了:Recraft。

好用在哪?一句话概括就是:人负责排列组合,AI 负责美工,审美挺好,还不容易出错。

对于普通人来说,设计海报又又又变得更简单了,我们就是 AI 的甲方,给它一套毛坯,它给你一次次不重样的精装。

Generate and edit vector art, icons, 3d images and illustrations in a wide range of styles suitable for websites, print and marketing

请问,设计一张海报,需要几步?Recraft 表示,三步就够了。

首先,在空白画布上,拉出一个紫色的框框;其次,在你想要的位置放入图片、文字,输入提示词;最后,点击生成按钮,AI 就能帮你化腐朽为神奇。

只要等待十几秒,一张海报出现在你面前。比如这样,轻轻松松把文字变成 3D。

▲ 图片来自:X@recraftai

或者,你想做个表情包,有图,有文案,但不知道怎么组合更好看,也可以交给 Recraft,让它来扩图,把文字自然地融进场景里。

▲ 左边,AI 生成;右边,草图

甚至,我们不上传图片,纯打字,让 Recraft 一条龙生成海报也没问题。

文字渲染一直是图片生成模型的痛点,但 Recraft 牛逼在,可以 hold 住一大段文字。

A 妹主演的《魔法坏女巫》将在 11 月上映,国内也会引进,然而,电影还在文火加热,设计简陋的海报已经被群嘲了。

不如让 Recraft 重做一次吧,我用不同字号,把文案排列了一下,草图这就算做好了,然后参考原海报,反推提示词,说明了画面的要素,接下来交给 AI 一键美化。

▲ 左边,AI 生成;右边,草图

可喜可贺,该有的都有,文字没有错误,每一行都被 AI 精心设计,和官方海报一比,风格不同,但没有差到哪里去。

Recraft – 打败 Midjourney,匿名屠榜的 AI 生图黑马,人人都能设计海报

▲ 左边,AI 生成;右边,官方海报

除了从头设计,Recraft 还可以处理多张图片,满足追星族和嗑 CP 爱好者的要求——把喜欢的角色 P 到一起,看起来不突兀。

以哈利波特和毒液为例,上传需要的两张照片,背景不同怎么办?这里不得不提 Recraft 一个非常实用的功能:一键抠图。

是的,传统的 P 图软件都有抠图功能,这不算什么,但 AI 生图工具,考虑到这个大众功能并加进产品的,不多。

抠图之后,配上文案,看起来仍然有次元壁,默认字体也丑了点,没关系,选择你想要的画风,让 AI 统一优化,就有同框的感觉了。

▲ 左边:优化后,右边:优化前

擅长设计平面是不够的,Recraft 的一个功能更让人拍案叫绝:Mockup,做立体物体的图案设计。

先让它生成一个普通的红色棒球帽,中间的绿色框框,用来生成图片,或者上传自己的图片,然后图片可以和帽子完美融入。

比如,加上一段文案:「make cats great again」(让猫猫再次伟大)。

抠图去除多余的背景,把图标拉伸到满意的大小、旋转和移动到合适的位置,它始终保持透视效果,自适应地贴合表面。

以此类推,T 恤、杯子、徽章也是一样的,吃谷虽然快乐,但伤钱包,以后可以自己给自己做周边,赛博欣赏,自娱自乐了。

▲ 仅示意,徽章是 Recraft 生成的,图案是上传的

请问,我为什么一直在让 AI 设计英文内容?

因为 Recraft 有硬伤:可以用中文提示词,但输出不了中文。哪怕我明确要求,某段话请用中文写,它也会「贴心」地给我翻译成英文。

但只要能登上 Recraft,就有免费额度可用,设计海报、封面、产品图、表情包…… 有便宜可占,已经很香了。

我们知道 Midjourney、DALL-E、Flux、Ideogram,但这个 Recraft 是何门何派?

前段时间,文生图模型 red_panda 在 X 一鸣惊人,因为它在 Hugging Face 的排行榜拿下了第一名,把有名有姓的前辈踩在脚下。

这个排名,靠两两图片对比得出,比的是综合能力,包括审美、提示词理解、身体结构准确性、文字生成质量等。

网友猜测,red_panda 是「小熊猫」的意思,难道来自中国?关子没有卖多久,幕后团队就出来自曝了。

red_panda 基于模型 Recraft V3,背后的公司是 2022 年成立、总部在伦敦的 Recraft AI,创始人曾在 Google、微软工作过。

Recraft 一朝成名天下闻,不是没有道理,这个产品集了各家之所长。

▲ 图片来自:X@recraftai

论高清、光影、真实感,Recraft 不输 Flux。

同时,它对新手友好,有很多不错的预设风格,游走在写实和艺术之间,不用写复杂的提示词,就能模拟各种摄影和绘画效果。

▲「Hard Flash」风格,强烈、直白的闪光灯效果

Recraft 擅长的长文本图像生成,准确度怕是让拿文本做招牌的 Ideogram 都自愧不如,而且,它很听话,可以让我们决定文本的大小和位置。

▲ 图片来自:X@recraftai

不过,Recraft 也可能出现文本错误,并且导致背景变形。当我模仿《火星救援》的风格做马斯克的海报,他的脸像被整容了,还是失败的那种。

▲ 左边:AI 生成;右边:草图

当 AI 生图工具都在增强可控性,Recraft 不落下风,Midjourney 的修改局部功能,它也有。

我们框选出某个区域,然后用提示词告诉 AI 怎么修改,加个帽子轻轻松松。

十八般武艺都会一点的 Recraft,会抢设计师的工作吗?恰恰相反,它是来交个朋友的,把自己定义成:面向设计师的生成式 AI。

所以,Recraft 具备了一些设计师们需要的功能,比如样式也可以通过更多的图像输入给模型,保持风格的稳定。

Recraft 还做了一个小小的协作功能,画布可以共享,让对方评论,因为「有时候,两个人的想法比一个人的想法更好」。

▲ 图片来自:X@recraftai

更喜闻乐见的是,Recraft 生成的图片可以免费商用。

当然,不是设计师的小白们,比如我,也可以玩得很开心,分分钟做出自己喜欢的海报。

而且,本就没必要将人和工具比较,Recraft 是来和 Canva 等设计工具、Midjourney 等 AI 生图工具同台竞争的,用户们坐享其成。

▲ 图片来自:X@recraftai

Canva 的 CEO Melanie Perkins 说过,Canva 希望让每一个人都设计出他们可以想象的任何东西,无论说什么语言,用什么设备。

所以,他们打破 Adobe 的门槛,简化了设计流程,提供了各种模板、部件、图片、字体,让用户增减元素。

▲ 图片来自:X@recraftai

AI 的进化方向,和这位 CEO 的愿景是一样的:为全世界赋予设计的能力。

但我们的选择,越来越不局限了,不是必须选择哪个产品,不是必须听某个创始人的故事,工具能帮我们做的越来越多,我们按下的按钮越来越少,甚至可以不亲手操作,人人都能设计一点东西,如果我们还愿意称之为设计。

Google vs ChatGPT 搜索体验对比实测

By: DUN
2 November 2024 at 15:22

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

随着 的新实时搜索功能, ChatGPT 正在将自己定位为传统搜索引擎如 的竞争对手。ChatGPT 以其对话式的响应而闻名,能够提供实时的上下文信息而不带广告。

我抓住机会看看 ChatGPT Search 与 Google 长期以来的搜索专业性相比如何。我进行了几次比较,涵盖了速度、准确性、视觉效果和整体用户体验等类别。以下是它们的表现。

问题“东京的主要旅游景点有哪些?”

Google 的搜索引擎非常快速,结果在毫秒内就能交付。搜索引擎拥有多年的优化经验,并且有专门为高速索引和检索而构建的基础设施,可以立即获得来自多个来源的广泛相关结果。

ChatGPT 的搜索同样快速,并为每个地点生成了更清晰、更用户友好的图像和信息。显然,AI 通过从相关来源提取信息来生成响应,然后以对话的方式分享这些信息。结果感觉更加友好,几乎就像 AI 很高兴我去旅行一样。

使用体验ChatGPT Search
在以对话且简洁的方式提供有价值的快速响应方面领先。

问题: “解释气候变化和全球变暖之间的区别。”

Google
 的响应来自 Gemini,概述了气候变化和全球变暖,并将其包裹在一个简短的段落中。从那里,我可以向下滚动并搜索一些来自 NASA、USGS.gov 甚至 Quora 的链接。显然,算法优先考虑流行和权威的来源,但它也是以广告驱动的,这意味着顶部结果有时包括我看到的来自联合利华的赞助内容。此外,对于复杂的主题,我自己需要浏览多个链接才能拼凑出完整的答案。

ChatGPT 提供了直接的答案,从网络中提取经过的信息,然后添加了一个可点击的「来源」图标。这个功能减少了我在 Google 搜索中从多个收集信息的时间。在这个搜索和其他搜索中,ChatGPT 的总结对于一般查询甚至更详细的主题都是准确的,其设计允许更干净、更加集中的体验。(不过,请记住,广告可能会在未来出现。)

使用体验ChatGPT Search
在便捷和准确的直接答案方面赢得了这一轮。

问题: 苹果目前的股价是多少?最近有什么更新?

Google 实际上没有给我一个立即的答案。相反,我得到了一个指向 Yahoo Finance 的链接,我可以点击并希望自己找到答案。

ChatGPT
在毫秒内,答案就在我眼前。我还得到了关于苹果的新闻和更新,当然,还有来源。ChatGPT Search 真是令人耳目一新。我得到了问题的答案,而不需要四处寻找细节。通过将答案直接呈现在我面前,我节省了时间,而不需要再点击几次。显然,对于实时的股票 或天气更新,ChatGPT 提供了可比的准确性,甚至在深度上超过了 Google 庞大的视觉库。

使用体验ChatGPT Search
继续以其策划的实时直接答案给我留下深刻印象,显示出未来更新的潜力。

问题: 给我展示媒体对心理健康影响的最新研究。

Google 提供了如此多不同的答案,我甚至不知道该从哪里开始。从 Gemini 的响应到侧边栏,再到下面的链接结果,整个体验极其杂乱——这是我在使用 ChatGPT Search 时从未注意到的。此外,Google 的广告模式意味着用户数据通常被用来提供个性化广告。虽然 Google 有广泛的隐私政策和设置,但其广告驱动的方法可能导致不总是优先考虑用户隐私的定向内容。

ChatGPT 再次,ChatGPT 搜索提供了一个更清晰的界面,没有推广内容。对于这种个人化的搜索,额外的隐私关注方式让我非常感激。作为一个希望在搜索过程中不被广告定向的用户,这种方式对我来说更具吸引力——或者在之后。

使用体验ChatGPT Search
在考虑隐私和负责任的内容使用方面领先。对于敏感搜索,不被广告定向是一个巨大的优势。

问题: 什么是我客厅里最好的电视?

Google 我说的就是我说的,Google。在纠正我输入「What's」而不是「What is」后,Google 给我回应了一些链接,所有这些链接都是赞助的,我需要点击才能找到电视。在得到这个回应后,我感觉我需要再次问它以帮助缩小范围。然而,在赞助链接下,还有来自内容发布者的链接。

ChatGPT 为我缩小了范围,包含了图像,并给出了我想要的答案。AI 确实感觉像是一个朋友,提供有价值的信息。每个电视图像旁边都有一段介绍,提供关于每个电视的信息。与 Google 相比,这种设计感觉更加干净和简洁。此外,对话格式直观,我可以滚动浏览推荐,而不需要像在 Google 搜索中那样需要浏览多个链接。

使用体验ChatGPT Search
提供了一个令人耳目一新的体验,直接回答和具体示例。

问题: 谁在民调中领先?

Google 的结果包括有关选举的新闻故事。我希望通过这个问题获得关于今天总统选举民调中谁领先的直接结果。我不得不挖掘新闻故事才能找到答案。

ChatGPT 给了我我想要的结果,直接提供了事实。选举新闻无处不在,所以我不需要阅读更多的新闻故事。ChatGPT 给了我一个直接的答案。

使用体验ChatGPT Search
提供了没有繁琐的实时答案。

问题: 洋基队在世界大赛中是如何崩溃的?

Google 的第一个结果是从《纽约时报》关于该主题的故事中提取的引用。这是一个快速的响应和直接的答案。然而,它让我感觉我没有得到完整的故事。

ChatGPT 提供了更全面的回应,从更多来源提取信息,但仍然感觉干净简洁。我得到了洋基队彻底失败的完整画面。

使用体验ChatGPT Search
再次提供了我所寻找的实时答案,并增加了确认我获得所有信息的全面性。

ChatGPTGoogle 在不同领域都表现出色,但它们满足的需求略有不同。如果你在寻找全面的搜索结果,拥有大量来源和视觉效果,Google 仍然是强者。

然而,如果你的优先事项是清晰、无广告、对话式的响应以及内置的实时更新,ChatGPT 提供了一种流畅、用户友好的体验,可能很快就会成为日常查询的主流。

ChatGPT Search 提供的无杂乱答案以及支持它们的来源是全面且可靠的。我对 ChatGPT 的答案更有信心,因为它们简洁且没有广告商的支持。结果感觉就像是专为我准备的。在杂乱的网络中,ChatGPT 就像一个乐于助人的朋友,我喜欢这种感觉。

开源许可证选择器 – 轻松比较、选择合适的开源许可协议

By: Anonymous
3 October 2024 at 16:45

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

如果常在查找程序或浏览 源码,会每个项目底下都有一个 LICENSE 文件,这也是程序使用的许可协议,若想使用这个项目的源码或相关资料就必须了解许可方式,简单来说,许可协议规范的是什么可以做、什么不能做,必须遵守才能合法使用。

比较常见的有 GNU 通用公众许可协议〔GPL〕、Apache 许可协议、MIT 许可协议和 BSD 许可协议等,大家一定都曾经听过或看过。

不过许可协议本身就很复杂,即使去查找维基百科或上的资料也不一定可以短时间看懂,有开发者将许可变得更简单,通过问答选择题来推荐开源许可,以互动方式显示最适合的开源许可选项,同时以更浅显易懂的解释、条列出优缺点,在更短时间内找出最适合的许可方式。

开源许可证选择器〔Open Source License Chooser〕是为需要选择许可的用户提供指引,将枯燥的法律术语转为更容易被大众理解的语言,除此之外,有「许可比较器」最多可将三种许可加入比较功能,以表格方式列出彼此之间的差异。

如果你不是开发者,纯粹想知道指定的开源许可信息,也可以在「开源许可选择器」获取相关说明。

Choose the perfect open source license for your project with our humorous and easy-to-understand guide. No legal jargon, just straight talk!

进入「开源许可选择器」后先从右上角 Language 切换语言,有英文和简体中文语系。

接着从左边开始回答问题,完成后右边就会显示适合的许可许可证。

问题有五题,每一题都会有三个选项,主要就是分为是、否或是不确定,例如是否希望别人使用你的源码赚钱、别人能否修改你的源码、是否担心遇到专利流氓、是否会通过网络提供服务、是否在意其他开源项目的相容性,描述上都很平易近人,即使没有任何法律背景也很容易理解。

开源许可证选择器 – 轻松比较、选择合适的开源许可协议

这项服务一共收录 15 种开放源码许可,会依照用户的回答推荐许可方式,例如下图就有 MIT License 和 Apache License 2.0 两种,它会有一段简单介绍、趣味解释〔以其他更生活化的方式描述此许可〕,更重要的是下方会有优点和缺点、使用量和示例项目。

React、Angular 使用的是 MIT 许可协议,目前已超过 140 万个网站使用。

可以点击「了解更多」连到许可官方网页以获取更多信息〔或者以名称去 查找〕。

从「许可比较」功能可以选择最多三个许可类型,以表格方式列出更易于比较,包括描述、允许商业使用、网络服务相容、修改限制、优点、缺点、使用量和示例项目,支持可加入比较的开源许可有:

如果想知道开源许可被使用的比例,也可参考「许可使用情形图表」页面,主流是 MIT License、Apache License 2.0、BSD 3-Clause License 和 GNU GPL-3.0到图表上会显示使用量。

Lessons I learned after completing the Google UX Design Professional Certificate

The image is a presentation slide with a dark green background and white text. The text reads “Lessons I learned after completing the Google UX Design Professional Certificate.” The logo “LRD.IM” is also displayed.

Recently, I heard that Coursera has a UX design course developed by Google’s design team. This course covers the entire design process and teaches us how to present our portfolio, prepare interviews, and the like.

It is necessary to enroll in this course even though it is designed primarily for beginners and fresh graduates. It would enhance my English skills on one hand, and deepen my understanding of Western design practices and culture on the other. Since the term “UX design” is called out by Western designers and I am eager to compare Western design cultures with those I’ve experienced in China.

So I enrolled in this online course, trying to spare my time on it. Such as during lunch and dinner breaks on weekdays, or parts of the weekend. I completed the whole certificate within two months. And now I’d like to write down what I learned from this course:

The image shows a dark green presentation slide with four text boxes labeled “New concepts,” “Listening and Reading Proficiency,” “Accessibility and equity,” and “Guidance for Job Hunting.” The text is in white and each box has a rounded edge.
  1. Introducing concepts I had never heard of. Despite my 5+ yoe in a wide range of companies, from startups to large corporations in China, those new concepts opened up a lot of room for me to explore.
  2. Enhancing my listening and reading skills. The course covers plenty of video and reading materials that include industry jargon that translators cannot provide. Moreover, certain phrases and sentence structures are repeatedly used throughout the course. I think my reading skills and speed are slightly improved.
  3. Pointing out concepts like accessibility and equity early throughout the course. I used to think only seasoned designers or well-developed products consider these aspects, however, they are mentioned early on and repeatedly. These concepts resonated with me and will truly influence my work.
  4. Elaborating comprehensive and detailed guidance for designers to prepare their portfolios, resumes, and interviews. They not only tell us what content should be included in our portfolios, but also how to prepare for interviews at different stages. I resonated with these instructions as well, since I did think those details over when looking for a new job.

Table of content

This is a wide banner-like image with a dark green background and the words “New concepts” in large, white text centered across the slide.

New concepts

I have consistently tried to think about and expand design boundaries through different aspects, which requires a breadth of knowledge. Here, I will share several new concepts along with my personal understanding.

Affinity diagram

This is a method of synthesizing that organizes data into groups with common themes or relationships. It can be used in different stages of the design process, such as during brainstorming or after collecting users feedback. The example below focuses on the latter.

After collecting a batch of user feedback, the design team condense each piece of feedback into a single sentence and write it on sticky notes. Then we post them up on a whiteboard or digital tools like Figma. Then the design team look for sticky notes that reference similar ideas, issues, or functionality and collaboratively organizes them into clusters representing different themes.

When I first learned about this approach in the course, I realized that this approach is similar to another method called “Card sorting” that was included in an article I translated earlier named [English to Chinese Translation] How we rebuilt Shopify’s developer docs. Both methods involve clustering sticky notes, naming these groups and summarizing the themes or relationships.

However, card sorting is implemented by external participants and aims to uncover users’ mental models to improve information architecture; Whereas affinity diagramming organizes a large amount of raw data to show the team which problems users are most concerned about and consider high priority.

* This concept is mentioned in Module 3 of Course 4 (Conduct UX Research and Test Early Concepts — Module 3 — Gather, organize, and reflect on data)

Digital literacy

This concept refers to an individual’s ability to gather, communicate, and create content using digital products and the internet. For example, senior adults or those living in areas with poor internet infrastructure may find it difficult to understand interfaces and functionalities, they are considered to have lower digital literacy.

In contrast, young people, especially those working in the information technology industries, are typically familiar with new software and concepts, and can quickly adapt to them.

This course does not dig deeply into this concept, rather, it emphasizes the importance of understanding our users. If our product targets a broad range of users, it is good to consider the needs of users with lower digital literacy. Moreover, this factor should also be considered when recruiting participants for usability tests.

* This concept is mentioned in Module 2 of Course 1 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

Deceptive pattern

This concept refers to a group of UX methods that trick users into doing or buying something they wouldn’t otherwise have done or bought.

In the course, instructors clearly point out that this is an unethical and not a good practice. Businesses may lose their clients’ respect and trust once clients realize that they have fallen into deceptive patterns. I will share a few interesting examples that the course provided.

  1. Confirmshaming: Making users feel ashamed of their decision. For example, a subscribe button on a news website usually reads “Subscribe now / No thanks”. BBut if the service provider wants to manipulate readers’ emotions, the text might be changed to: “Subscribe now / No, I don’t care about things around me.”
  2. Urgency: Pushing users to make a decision within a limited time. For example, an e-commerce website might give you a coupon that is only available for 24 hours, prompting you to purchase items without a thoughtful consideration. The course doesn’t judge these marketing strategies or promotions; instead, it suggests that we should avoid putting pressure on users. As designers, we should try our best to balance business promotions and avoid manipulating users’ emotions.
  3. Scarcity: Making users very aware of the limited number of items. For example, a popup or attractive advertisement stating “Only 5 items left in stock.” The course suggests that designers should concentrate on helping users to understand products better, rather than using designs to encourage impulsive buying.

It is really interesting that these deceptive patterns are so common in the Chinese e-commerce industry that it might seem unusual if those strategies were to disappear.

This seems to reflect cultural differences between China and the West. In China, core team members, such as designers, product managers, and operators, collaboratively discuss how to induce and prompt users to make a hasty decision. Also, we regularly hold reflections to discuss and share insights on how to deeply incite users’ motivation.

In 2018, I landed my first job as a UI designer at an e-commerce company. One of my main tasks is designing promotions, such as “claim your vouchers”, “flash sales ending in N hours”, and creating illustrations of red pockets and flying coins, and the like. I didn’t really like these approaches at that time, so I eventually turned to the B2B and SaaS industry, focusing more on UX design.

Although I am not fond of these types of designs, these seem to really help companies grow and generate income. We could stabilize our employment only if our company were earning profits. Perhaps that is an inextricable cycle: obviously, deceptive patterns are unethical and bad as they are inducing and annoying our users, but we must continuously implement these approaches and think about how to make them more effective.

* This concept is mentioned in Module 3 of Course 3 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

Biases

The course thoroughly explains a concept called “implicit bias”. It refers to the collection of attitudes and stereotypes associated, influencing our understanding of and decisions for a specific group of people.

For example, imagine you’re designing an app to help parents buy childcare. To personalize your onboarding process, you start by displaying bold text saying, “Welcome, moms. We’re here to help you…”

This is an example of implicit bias, since it excludes every other type of caregiver, like grandparents, guardians, dads and others.

In addition, here are some interesting biases the course introduced:

  1. Confirmation bias. Refers to the tendency to find evidence that supports people’s assumptions when gathering and analyzing information.
  2. Friendliness bias. Refers to the tendency to give more desirable answers or positive comments in order to please interviewers. This usually occurs in usability tests, where participants may not share their honest feedback because they are afraid that real answers or negative comments might offend interviewers and be considered unfriendly.
  3. False-consensus bias. Refers to the tendency that people tend to believe that their personal views or behaviors are more widely accepted than they actually are, and consider others’ opinions to be minor or marginal. For example, an optimist might think that most people around the world are optimistic; or designers can easily understand iconographies and illustrations they created, they might assume other users might easily to understand too.

I was shocked when I was learning this part. I strongly resonated with these biases which I had never perceived before. After all, the course lets us be aware of these biases and provides approaches to help us avoid falling into these pitfalls.

* This concept is mentioned in Module 3 of Course 3 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

I listed some concepts above that I had barely encountered in my workspace. Becoming a UX designer appears to require a broad range of knowledge, such as design, the humanities, psychology, and sociology. I am now interested in psychology after completing this course.

This is a wide banner-like image with a dark green background and the words “Listening and Reading Proficiency” in large, white text centered across the slide.

Listening and Reading Proficiency

There are plenty of listening and reading materials involved in the course. Typically, each video lesson is accompanied by an article. If there are additional knowledge points, a single video might be accompanied by two or three articles.

Most instructors in the course speak with American accents. They also speak slowly and clearly, which makes me comfortable and usually allows me to understand without opening closed caption. Sometimes, I need to rewind a few seconds when they are speaking long sentences with many clauses or introducing new concepts, and I will open closed captions if I am still confused.

It is worth pointing out that the course contains lots of industry jargon, and I resonated with this because I used similar approaches or processes in my workspace by using Chinese. As a learner, I created a spreadsheet to record expressions that might be useful, such as:

  1. Above the fold, the content on a web page that doesn’t require scrolling to experience;
  2. Deliverable, final products like mockups or documents that can be handed over to clients or developers to bring designs to life.
  3. Digital real estate, space within the digital interface where designers can arrange visual elements;
  4. Firm parameters, refer to rigid design boundaries or limitations like time, project resources, and budget.

I think it is valuable to collect this industry jargon because it is authentically expressed, which can’t be translated by common translation tools. This will be helpful for me to read design articles and write blogs in English.

This is a wide banner-like image with a dark green background and the words “Accessibility and Equity” in large, white text centered across the slide.

Accessibility and Equity

Accessibility

The course introduces several assistive technologies, such as color modification, voice control, switch devices, and screen readers, which can help people with different types of disabilities to use our products easily.

Instructors also point out that even people who don’t have disabilities, or who do not perceive themselves as having disabilities might benefit from these assistive technologies. The course suggests that we think these factors over throughout the entire design process. For instance:

  1. Supporting color modification. Features that increase the contrast of colors on a screen, like high-contrast mode or dark mode;
  2. Supporting voice control. Allows users to navigate and interact with the elements on their devices using only their voice. They also mention a concept called “Voice User Interface (VUI)”;
  3. Supporting switch devices. This is a one-button device that functions as an alternative to conventional input methods such as the keyboard, mouse, and touch, allowing users to complete common tasks like browsing webpages and typing text;
  4. Supporting screen readers. Allows users with vision impairment to perceive the content. The course suggests that we write alternative text to images, add appropriate aria labels to interactive elements like buttons, and consider the focus order of elements.

Here is a website that demonstrates the color modification feature: HubSpot.com

On the top navigation of this website, it provides a switch for us to toggle a high-contrast mode. Moreover, it also supports reduced motion effects — if I enable the reduced motion setting on my device, this website will minimize motion effects as much as possible.

Equity

The course also introduces a concept called “equity-focused design.”

Instructors clearly define the difference between “equality” and “equity”:

  1. Equality: Providing the same amount of opportunity and support, everyone receives the same thing;
  2. Equity: Providing different amount of opportunity and support according to individual circumstances, ensuring everyone can achieve the same outcomes.

The course also points out that equity-focused design means considering all races, genders, and abilities, especially focusing on groups that have been historically underrepresented or ignored when building products.

They use a survey question as an example: when gathering participants’ demographic information like gender, it is not enough to provide three options: “Male”, “Female” and “Other”. To make our design more inclusive and equitable, we should offer additional choices, including “Male”, “Female”, “Gender-nonconforming”, “nonbinary” and a blank field. The latter provides non-conventional gender options, uplifting those who might be marginalized in conventional surveys. This approach also aims to balance the opportunities for all groups to express themselves, ensuring their voices are treated fairly and heard.

In this lesson, I clearly faced a culture gap from the West. In fact, I don’t really like to dig into this concept deeply, mainly because I can’t determine whether this approach is right. Sometimes I think it is unnecessarily complicated, but at other times, I recognize that there are people with non-traditional genders around us who may truly be eager to be treated fairly.

When I was learning this lesson, I realized that there was an opportunity to incorporate accessibility features into the project I was recently working on. I will write a new post if this project lands successfully.

* This concept is mentioned in Module 2 of Course 1 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

This is a wide banner-like image with a dark green background and the words “Guidance for Job Hunting” in large, white text centered across the slide.

Guidance for Job Hunting

In the final course, instructors teach us how to lay out a portfolio and what content should be included. They also inform us the process of interviews and how to thoroughly prepare for interviews.

The guidance they mentioned is for the Western workplace, which may not seamlessly fit in the Chinese workplace. For example:

  1. They point out that designers should have a personal website and case studies regularly. However, Chinese designers prefer to publish their case studies on public platforms like ZCOOL and UI.CN;
  2. They also teach us how to build our digital presence and network through LinkedIn. However, these approaches are not common in the Chinese job market, where the most popular methods are directly submitting resumes and getting recommendations through acquaintances.
  3. They inform us how to handle panel interviews. I have interviewed with a wide range of companies, from startups to corporations, and never encountered panel interviews, which means that the panel interview is not popular in this industry.

I was deeply impressed by how they elaborated on the preparation and important considerations during the interview process. For example:

  1. Research the main business of the company you interview for beforehand, and clearly understand why you are a good fit for the company;
  2. Prepare answers to common interview questions beforehand, such as a personal introduction, your strengths, and descriptions of your case studies;
  3. We should learn how to answer difficult questions using the STAR method, and prepare well before starting an interview;
  4. Adapt the focus and questions according to the interviewer’s role to show you are a professional;
  5. During the interview process, you might be asked to complete a task. Therefore, we should practice the ability to think aloud and clearly define questions, since interviewers might pose vague questions on purpose.

I resonated with the approaches and tricks mentioned in the course that I had previously used, which gave me a strong feeling that I was on the right track.

Additionally, the course also provides detailed instructions on how to pursue freelance design work. For instance:

  1. Clearly identify your target audience and understand why they should choose your service;
  2. Know your competitors, identifying what they can’t provide but you can;
  3. Promote your service and build word-of-mouth by attending online and in-person events, and getting recommended through acquaintances;
  4. Calculate the business expenses, set fair prices for your services, and make financial projections — estimate what your finances will look like in the first month, the first 6 months, and the first year.

* This concept is mentioned in Module 3 of Course 7 (Design a User Experience for Social Good & Prepare for Jobs — Module 3)

To sum it up

Well, above are lessons I’ve learned from the Google UX Design Professional Certificate on Coursera over the past two months. I think that this is an interesting course, although not all content can be applied in my daily work, I’ve also learned the thinking processes and workplace cultures of designers in another part of the world.

I strongly recommend designers reading this post consider to enrolling in the Google UX Design Professional Certificate, by doing this, you might probably gain new insights. The course costs $49 monthly, which is not expensive. It is likely to complete the entire course over two or three months if you have a full-time job.

Things worked as I expected, and I will start my next project in the second half of the year.


Lessons I learned after completing the Google UX Design Professional Certificate was originally published in Bootcamp on Medium, where people are continuing the conversation by highlighting and responding to this story.

完成了 Google UX Design Professional Certificate 后的收获

最近了解到 Coursera 这个平台里面有一个 Google 设计团队出品的的 UX 设计课程,课程里会介绍完整的 UX 设计过程,并且教我们怎么写作品集和准备面试之类的。

即便这是一门面向初学者或应届生的课程,我觉得也有必要参加这个课程看看。一方面能锻炼下自己刚闭关修炼出来的的英语能力,更重要的是还能了解下西方职场的设计流程和设计文化(毕竟 “UX 设计” 这个概念是西方人创造出来的),我一直想对比看看老外的设计文化和自己这几年在国内职场的感受有没有什么异同。

于是就报名参加了这个网课,都是抽时间来学习的。比如工作日吃午饭和吃晚饭那段时间,或者周末的部份时间等等。总共花了 2 个月完成了所有课程。写这篇文章的目的也是记录下结课之后的感受:

图片中央展示四个方框,每个方框内部都用白色中文文字标识了不同的概念:“新的概念”,“听力、阅读能力”,“无障碍和公平”,“求职指引”。
  1. 里面提到的一些概念我没有听说过。即便我工作了 5 年,在小公司和大集团都呆过,里面有些概念仍然给了我很大的探索空间;
  2. 英文听力、阅读能力锻炼。里面有大量的视频和阅读材料,用词应该就是比较地道的行业术语,这些是翻译软件不能提供的。而且里面的材料都会不断重复一些短语或句型。我觉得我的阅读能力和速度是有所提升的;
  3. “无障碍” 和 “公平” 的概念被很早提及并贯穿全课程。我一直以为只有比较成熟的设计师或产品才会考虑到这些,但这些概念在课程中很早就被提及了,而且是反复提及。这触动了我,并真正地影响到了我的工作;
  4. 提供了全面且周到的指引帮助设计师准备作品集/简历/面试。这方面内容他们写得很细,告诉我们作品集里应该包含哪些,针对不同面试阶段所做的准备等。里面写到的东西我很有共鸣,因为我在找工作的时候也会去思考这些细节。
深绿色背景的宽幅 Banner,中间白色大字“新的概念”。

新的概念

工作这几年,我一直会尝试从更多不同的维度来思考和扩展原有的设计边界,做到这点需要有比较宽广的知识面。这里分享下我在课程里了解到的一些新概念,以及我的理解。

Affinity diagram 亲和图

这是一种组织数据的方法。从不同的反馈和数据中整理出他们的相似之处和关系。亲和图可以用在不同的设计阶段,比如在头脑风暴中,或者收集到用户反馈后,这里以后者为例子。

具体做法是在收集好一批用户反馈后,将每一个原始反馈浓缩成一句话,写在便利贴上并将它们都贴在白板上(当然,也可以用在线工具如 Figma 完成)。然后团队成员一起看这些内容,将提到相似概念/问题/需求的便利贴放在一起,并给这一堆便利贴起个名字概括他们的共同点。

根据分组结果,我们可以总结出一些趋势、痛点,了解到我们需要解决的问题也为后续的洞察报告提供了依据。

最开始在课程里了解到这个方法的时候,我突然想起来这与我两年前翻译的文章:【译文】我们如何重建 Shopify 的开发者文档 里提到的 “卡片分类法” 很像,都是将相似的卡片堆成一组,给该组命名,然后得出结论。

但卡片分类法里面 “分类” 的动作是由团队外部的人参与的,并且用于揭示用户的心智模型并为解决网站信息架构问题提供指引;而亲和图则是通过组织大量原始数据,告诉团队有哪些问题是用户关心的,亟待解决的问题。

*该概念在第四门课程的第三个模块中提及 (Conduct UX Research and Test Early Concepts — Module 3 — Gather, organize, and reflect on data)

Digital literacy 数字素养

这个概念大意是指人们对于数字产品、网络来获取信息、交流和创造内容的能力。比如一些年长的人、生活在网络没那么普及的环境中的人,他们对于使用电子设备和互联网就会有些障碍,理解功能和界面也会感到困难。而年轻人,特别是互联网行业的从业者则对这些就比较熟悉,各种新软件、新概念都能很快上手。

课程中对这个概念并没有展开太多,主要是提醒我们作为设计师,要了解到我们的用户是谁。如果是一个面向较宽广的用户群体,最好考虑也到对电子设备和互联网没那么熟悉的人。包括在做可用性测试时,招募的参与者最好也考虑到这个因素。

*该概念在第一门课程的第二个模块中提及 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

Deceptive pattern 欺诈性设计模式

指的是一种设计方法:通过设计去诱导用户去做一些本来不想做的事情,或购买本来不想买的东西。

在课程中,明确指出这是不道德的事情,不是好的做法。一旦用户认为自己陷入了欺诈性设计模式当中,公司将会失去用户的尊重和信任。课程中列举了一些例子,我可以拿几个有意思的的分享出来。

  1. Confirmshaming (羞辱性确认): 让用户对自己作出的决定感到愧疚。比如一个新闻网站的订阅按钮,文案里原本可以写 “立即订阅 / 不了,谢谢”,但为了操纵用户的情绪,文案写上 “立即订阅 / 不了,我不关心身边的事情”。
  2. Urgency (急迫性): 引诱用户在 “有限的时间内” 作出决定。比如电商网站里给你送了一张仅限当天使用的优惠券,促使你赶紧付钱消费。课程里指出并重点不是限时促销这件事情,而是在这过程中给用户增加了消费的压力。作为设计师,我们应该在曝光公司的促销活动的情况下,尽量避免操纵用户情绪。
  3. Scarcity (稀缺性): 使用户感受到这件商品非常稀缺。比如一个弹窗推送或明显的广告写着 “商品仅剩 5 件”。课程中建议设计师聚焦于怎么帮助用户更好地了解该产品,而不是利用设计促使他们进行冲动型消费。

有意思的是这几种 “欺诈性设计模式” 在咱们国内电商环境中太常见了,以至于没有这些反而感觉不正常。

看起来这是国内外文化的差异的一种体现。在国内的环境中丝毫不会避讳这些东西,反而设计、产品、运营都会一起构思怎么做才能更好地 “诱导” 用户做某些事情。甚至还会在内部复盘、分享,看看过程中有哪些地方可以继续改进。

2018 年,我的第一份工作是在面向消费者的电商公司里做 UI 设计师,经常要在界面上做出 “领取优惠券”、“秒杀价剩余 N 小时” 和礼包、金币满天飞的插画等设计,正正是因为自己不喜欢做这种设计,之后才转向了更注重 UX设计的做 B 端、SaaS 行业。

虽然自己本身是一点都不喜欢这种设计方式,但这似乎能实打实地帮助到公司获取收入。公司有一份好的收入,大家的工作才能稳定。似乎陷入了一个无法走出的循环 —— 明知道这种设计方式是不对的,是有诱导性质且给用户带来烦扰的,但又不得不继续做,并想办法做得更好。

*该概念在第三门课程的第三个模块中提及 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

Biases 偏见

课程里着重介绍了一个叫做 “隐性偏见 (implicit bias)” 的概念。“隐性偏见” 指的是我们潜意识里有一种态度或偏见,影响了我们对某一群体的理解或决定。

比如一个餐厅老板收到两份简历,求职者 A 是一个二十多岁的毕业生,没有餐饮行业经验;而求职者 B 则是一个 50 多岁的人,有 30 多年餐饮行业经验。但最终老板选择了求职者 A,因为他认为年轻人的体力更好,做事情会比 50 多岁的人要快。这就是一个 “隐性偏见” 的例子。

课程中还介绍了其他几种偏见,这里也分享一些我觉得有意思的:

  1. Confirmation bias (确认偏见)。指的是人们在收集信息和分析信息的过程中,倾向于寻找支持自己想法的证据。甚至尝试以更贴近自己预想结果的方式来解释数据;
  2. Friendliness bias (友善偏见)。指的是为了令其他人满意,受访者更倾向于做出访问者希望得到的答案或者做出积极评价。通常发生在可用性测试当中,受访者觉得说出真实答案或负面情绪的答案会被认为冒犯和不友善,不将自己的真正想法说出来;
  3. False-consensus bias (错误共识偏见)。指的是人们倾向于认为自己的观点或行为比实际情况更广泛地被认同,并且觉得其他人的观点或意见是被少数人接受的。比如一个人很乐观主义,就会认为世界上大多数人都是乐观主义;设计师能够很轻松地理解自己设计出来的图标、图像含义,就会认为其他用户也能轻易理解。

学到这里的时候我似乎被当头一棒,我似乎对里面提到的不少偏见都有共鸣,并且自己从来没意识到有这么一回事。总的来说,课程希望我们认识这些偏见,然后提供方法教我们怎么避免这些偏见。

以上列举了几个我在课程里了解到在日常工作中不怎么接触到的概念。可以看出来做一名 UX 设计师似乎得有宽广的知识背景,比如设计、人文、心理、社会学等等。通过这门课程,我觉得我对心理学产生了一些兴趣。

* 该概念在第三门课程的第三个模块中提及 (Build Wireframes and Low-Fidelity Prototypes — Module 3 — Understand ethical and inclusive design)

深绿色背景的宽幅 Banner,中间白色大字”听力、阅读能力”。

听力、阅读能力

课程里面的听力和阅读材料实在是太多了,基本上是一节视频课程,搭配一篇的阅读,如果有其他可以衍生出来的知识点,甚至会多篇阅读。

里面绝大多数老师都是美式口音,语速有刻意地减慢,我听着很舒适,绝大部分情况下不用看字幕。只是到了一些包含大量从句的长句子或新概念时可能会需要倒退一下多听几遍,再听不懂就会开字幕来看。

值得一提的是,里面有大量的行业术语,有很多我在国内日常工作中的用到的设计方法/流程等,这里都有出现到。作为学习者,我自己有做一个表格,把值得记录下来的表达方式都记下来,比如:

  1. Above the fold 指的是在首屏(不用滚动)就能看到的内容;
  2. Deliverable 设计的交付物;
  3. Digital real estate 大概是指视窗范围或可供设计师发挥的空间尺寸;
  4. Firm parameters 指一些设计过程中的限制,如时间,项目资源和预算等…

我觉得积累这种行业词汇有一个宝贵之处是,它的表达很地道,用通用的翻译软件是做不到的。这对我阅读设计经验文章,或者自己用英文写设计博客很有帮助。

深绿色背景的宽幅 Banner,中间白色大字”无障碍和公平”。

无障碍和公平

无障碍

课程中介绍了几种辅助技术 (Assistive Technology),如颜色模式、语音控制、Switch 设备和屏幕阅读器等帮助身体有障碍的人们更好地使用我们的产品。课程强调即便是健全人,或者认为自己是健全人的群体,也有可能会用到这些辅助技术。课程建议我们在设计的全流程都考虑这些因素。具体的做法,比如:

  1. 支持多种色彩模式。如亮色/暗色模式,支持增强对比度和减弱透明度等效果;
  2. 提供语音控制支持。允许用户通过声音来导航和与界面上的元素交互。另外,里面提到有个概念叫做 “VUI”;
  3. 支持一种叫做 “Switch” 的设备。这是一种代替键盘、鼠标或手指等常见输入方式的设备,通常只有一个按钮。用户就是通过一个按钮来实现浏览网页、输入文字等日常操作的;
  4. 支持屏幕阅读器。确保人们可以在看不见屏幕的情况下也能获取到主要内容。课程建议我们给图片添加替代文字,或者给按钮等控件加上合适的标签,并且留意元素的聚焦顺序。

这里分享一个在这方面有所体现的网站:HubSpot.com

这个网站提供了强对比的色彩模式,在顶部导航栏里有开关可以切换。同时也支持减弱动画的效果,如果我的设备在系统设置里设置了减弱动画,这个网站的大部份动效都会被移除。

公平

课程中介绍了一个概念叫做 “以公平为中心的设计” (equity-focused design),并厘清了 “平等” 和 “公平” 这两个概念:

  • 平等是每个人都有相同的机会和支持,即每个人都拿到了同样的东西;
  • 公平是根据每个人不同的情况而提供不同的机会和支持,最终大家都能有相同的结果。

课程中指明,面向 “公平” 的设计,需要考虑到所有种族、性别、能力,特别是一些曾经被忽视和排除的群体

他们以一个问卷问题作为例子:在收集受试者的性别信息时,如果只提供三个选项:“男”、“女” 和 “其他” 是不够的。如果想要更包容和公平我们应该提供:“男”、“女”、“非常规性别”、“非二元性别” 和 “请填写”。后者通过提供非传统性别选项和自定义选项,关注到了那些可能在传统问卷调查中被边缘化的群体。试图平衡不同群体间的表达机会,确保他们的声音被平等对待和听见。

从这门课程里我正面感受到了来自西方文化差异。实际上我不是很想太深入学这里面的门道,主要是我没法判断他们这种做法到底是对还是错,我有时候会认为这是在闲着没事干,有时候又认为我们身边确实也会有这种非传统性别的人,他们或许真的需要被 “平等对待”。

学到这里时,刚好公司的工作中有机会可以让我在设计中加入对无障碍的考量,我便抓紧机会在公司实施了一番。如果我的计划落地成功,我也会在这里分享出来的。

*该概念在第一门课程的第二个模块中提及 (Foundations of User Experience (UX) Design — Module 2 — Get to know the user)

深绿色背景的宽幅 Banner,中间白色大字”求职指引”。

求职指引

最后一课老师教授了我们怎么做作品集、一份作品集里要包含哪些东西、面试的流程、怎么准备面试等。

课程里讲述的都是西方世界的职场规则,有些未必在国内职场适用,比如:

  1. 比如他会提到设计师应该有一个自己的个人网站,里面需要及时更新自己的作品。但在国内大家似乎更喜欢将作品传上平台提高曝光度,比如站酷UI 中国
  2. 他会教我们怎么建立自己在互联网上的形象并通过 LinkedIn 去做 Networking。但似乎在国内的职场上没有这一步,身边的人多数都是直接在网站上投简历,或者有少量的人是熟人内推进去的;
  3. 里面有教我们怎么应对小组面试。我这几年在国内面试了大大小小公司,没试过有小组面试的情况,说明小组面试在我们的行业内不是特别流行。

印象比较深的是在课程里他提到了对于面试的准备,以及面试过程中的注意事项。课程里说得真的挺细的,比如:

  1. 面试前要了解好公司所做的业务,清楚自己为什么适合去那家公司;
  2. 提前准备好一些常用的问题,比如个人介绍、个人优势以及介绍设计案例等;
  3. 学会用 STAR 法则回答困难的问题,在面试前提前练习好;
  4. 根据面试官身份来改变面试的侧重点和要提问的问题,需要体现出自身的专业性;
  5. 面试时可能会有现场测试题。所以我们要练习好将自己的想法说出来的能力,也要有界定清楚问题的能力(因为有时候面试官特意给出很模糊的问题)

有时候刚看看到课程里提到的方法和技巧,正好是我有用过的,我会感到有共鸣,觉得自己的方向是对的。

另外,课程里还有教我们如果想走自由职业,要遵循怎么样的步骤。写得还比较详细,我这里列举几点:

  1. 明确目标用户是哪些群体,他们为什么要选择自己的服务;
  2. 了解自己的竞争对手,看看有没有东西是他们提供不了而自己是可以的;
  3. 通过参加线上推广、线下活动、熟人推荐等方式推销自己的服务和建立口碑;
  4. 计算开支,合理定价,并且制定财务计划 —— 构思第一个月、第六个月或第一年自己的财物状况是怎样的。

*该内容在第七门课程的第三个模块中提及 (Design a User Experience for Social Good & Prepare for Jobs — Module 3)

总结

以上就是我这两个月以来在 Coursera 平台里学习 Google UX 课程的一些收获。我觉得还是挺有意思的一门课程,即便不是所有内容都能在日常工作中应用,但至少知道在地球里的另一个世界,那边的设计师他们的思考习惯、职场文化是怎样的。

我很推荐看到这里的设计师们去这门课程 Google UX Design Professional Certificate 里瞧瞧,相信大部份人都是有收获的。收费不是很贵,是按月来收费。每个月 49 美刀,工作党每天抽点时间来看,一般 2~3 个月都能完成了。

事情按照预期发展,五一假期结束了这门课程,下半年又可以开始捣鼓另一件事情了。

如何在Gmail中添加其它邮箱来收发邮件?

By: fengooge
11 June 2023 at 19:27
最近在 Gmail 的邮箱设置中,通过「用这个地址发送邮件」添加第三方邮箱账号,总是会出现错误而无法添加。最终折腾了好多次才发现问题的解决办法,现分享出来供大家参考。步骤及说明如下:1、通过「用这个地址发送邮件」无法成功添加时,可通过下图所示的「查收其他账号的邮件」功能添加我反复尝试通过「用这个地址发送邮件」入口添加,结果均告失败,最终通过「查收其他账号的邮件」添加成功。2、可选择通过「Gmaillify」功能进行账号关联将自己的第三方账号与 Gmail 关联后,就可以方便快捷地在 Gmail 中查收其它平台的邮件,而且可以直接在 Gmail 中用关联的第三方邮箱账号发送邮件,效果和直接在第三方平台发送邮件一样(收件人看到的发件人不是 Gmail 账号,而是关联的第三方账号)。需要注意的是,一个 Gmail 账号只能够与一个第三方账号进行「Gmaillify」方式的关联,其它账号只能够

如何在谷歌电子表格(Google Sheets)中生成日期选择器

By: fengooge
30 December 2022 at 17:25
在使用谷歌电子表格(Google spreadsheet,Google Sheets)时,有时候需要在单元格中输入日期,如果输入法本身没有快捷输入日期的功能,通过手动输入则会非常繁琐,有没有办法让单元格生成日期选择器,通过点选操作就可以快速输入日期呢?方法是有的,按照下面的操作就可以完成。1、选中某个(或多个)需要设置日期选择器的单元格,右键选择【数据(data)】——【数据验证(data validation)】;2、选择【添加规则(Add rule)】,完成以下几个设置:2-1、在【应用范围(Apply to range)】一栏修改生效的表格范围,例如 B1 到 B13 之间的表格则写为:B1:B13(英文输入);2-2、在【条件(Criteria)】一栏选择【是有效日期(is valid date)】,点击完成。双击在上述设置生效范围内的单元格,即会出现日期选择器(如下图所示),点

❌
❌