Reading view

There are new articles available, click to refresh the page.

AI 问了 8 万人「你到底想要什么」,答案不是效率,也不是赚钱

「我希望 AI 帮我洗衣服,好让我有时间去创作艺术;而不是 AI 在那里搞艺术,而我还要辛苦地洗衣服。」

这是一位德国学生在面对 AI 时,留下的真实吐槽。

在 CEO 的叙事里,AI 是降本增效、裁员广进的好工具;在社交媒体上,AI 是无所不能的齐天大圣,拥有「龙虾」就等于拥抱了 AGI……

我们就这样被这些算力、资本、参数、工具的 FOMO 所裹挟着,在复杂的情绪里看着这个所谓是何物的 AI。

Anthropic 甩出了一份堪称人类科技史上最大规模的定性访谈报告,没有震惊体的结论,这份报告直白地描述了在 8.1 万个世界各地的普通人,他们的真实生活里,AI 到底是什么。

▲项目地址:https://www.anthropic.com/features/81k-interviews

Anthropic 使用的是一个定制的「AI 访谈者」,由 Claude 模型驱动,在全球 159 个地区、用 70 种语言,和超过 8 万名 Claude 用户进行了一场深度交心。

当剥离了那些金融分析、公司财报里的天文数字,还有技术文档里的晦涩术语,这 8 万份样本拼凑出的,或许才是眼下 AI 最真实的样子,它让我们又爱又恨。

我们希望 AI 能提升工作效率,升职加薪、管理生活的点点滴滴,以及帮助自己更好的成长等。

但另一方面,我们又正在经历着种种明暗交织的困境,所谓的效率提升带来了「虚幻的生产力」焦虑,成长上的情感支持又引发了依赖恐慌,技术的赋能伴随着被替代的恐惧……

▲Anthropic 统计 8 万人的结果,显示目前人们对 AI 的担心,第一是 AI 的不可靠性,其次是 22.3% 的人担心就业,接着是 AI 会导致自主性和认知能力下降等问题。

比起那些颠覆世界的说法,这 8 万人的回答更像是在说:AI 正在填补一个原本就运转不良的世界。

把 AI 拉回具体的人和事

作为一家大模型公司,Anthropic 在报告一开头就给出了做这份调查的原因,「目前关于 AI 的公众讨论,往往集中在对其风险和收益的抽象预测上。我们真正缺失的,是弄清楚 AI 往好的方向发展到底意味着什么。

很难说他们就一定比那些只讲跑分、在办公室争论 AGI 会不会毁灭世界、Scaling Law 还能撑多久等宏大叙事的公司要更温情,更符合用户利益。

但这些数据,确实算得上一本初级的明日 AI 产品迭代指南,也就是说, AI 厂商在追求把模型训练得「更聪明、更全能」之前,或许更应该弄清楚,人类到底需要 AI 帮我们活成什么样

Anthropic 没有选择和过去的社会研究一样发调查问卷,而是定制了一个「AI 访谈者」(Anthropic Interviewer)与用户进行动态追问。在之后数据分析阶段,他们也构建了一套由 Claude 驱动的分类器来阅读这些对话,并自动给人类的整体情绪打分(1-7 分)。

1-7 分从低到高,依次代表着人类对于 AI 整体情感倾向,1 分是极度负面,4 分是中间地带,既感受到了真实的收益,也有着真实的担忧,两者大致平衡;很难看出受访者偏向哪一边,或者他们只是单纯保持中立,7 分则是极度正面。

访谈围绕四个核心问题展开:你上一次用 AI 是为了做什么?如果可以挥动魔杖,你希望 AI 为你做什么?AI 有没有朝着那个方向迈出过一步?有没有哪种 AI 的发展方向,是违背你的价值观的?Anthropic Interviewer 会根据每个人的回答,追问背后的价值观和真实经历。

也正是这种对话形式的 AI 访谈,研究团队说,他们完全没预料到受访者会如此坦诚。人们向 AI 倾诉了人类社会学家在传统的面对面访谈中,极少能听到的内容:悲伤、心理健康危机、财务困境、人际关系的失败。

因为当对面「不是人」的时候,展示脆弱似乎没有任何「社交成本」。

▲研究结果显示,32% 的人认为 AI 真实地帮助他们提升了生产力,而 18.9% 的人认为没有达到预期

这项工作在去年 12 月开展,只花了一周的时间,收集到了 112846 份访谈,其中 80508 份通过质量筛选。

Claude 分类器对这些对话进行标注,并在多个维度上被分类。每一个分类器的结果,最后都需要经过人工校验,要求与人类标注者达到至少 90% 的一致性。

生产力只是表象,我们真正想要的是「生活」

如果你问一个人希望 AI 帮他做什么,排在第一位的永远是「提高工作效率」。

▲语录地址:https://www.anthropic.com/features/81k-interviews#quotes

Anthropic 摘录了部分的语录放在官网,我们发现有一位日本的程序员说:「这是我第一次觉得 AI 在业务上超越了人类。那天我准时下班,去托儿所接了女儿。」

但当 Claude 继续深挖他们追求效率的真正目的时,底层的渴望浮出了水面,人们并不是想做更好的打工人,而是想拿回属于自己的生活

▲专业提升和个人成长排名前二,接着是有 14% 的人把 AI 视为「生活管理」工具,帮他们对抗现代生活的认知超载,充当注意力、记忆和任务规划的外部支架;11% 的人最终想要的是更多陪伴家人和自己的时间;还有 10% 的人想通过 AI 实现财务独立。

很多人想要用 AI 替代繁琐的日常,终极目标是为了拥有更多陪伴家人的时间,或者是为了实现财务自由。但在现实的职场中,AI 带来的效率提升,往往变成了一种新的剥削

和那位想要准时下班去接女儿的程序员态度不一样,一位奥地利的软件工程师认为 AI 是虚假的生产力,它在访谈中坦白了自己的「欺瞒」:

我向老板撒了谎。我告诉他我需要 3 个月来开发一个新软件功能——其实 AI 在 2 周内就完成了——剩下的时间我用来陪伴家人。

 

 

如果我老板知道这只要 2 周就能做完,他下次也会只给我 2 周。省下来的时间只会变成更多的压力。

一位德国的运营人员则描绘了更为冰冷的现实:

我害怕:如果我老板看到我完成得有多快,仓鼠轮只会转得更快,我会淹没在更多毫无意义的任务中。

还有一位德国工程师说,「如果 AI 让我变得更高效,我只会得到更多的工作。我的老板可以买一辆新保时捷——而我还在原地踏步。」

在这场 AI 带来的效率变化中,AI 是解药也是毒药。很多人开始意识到,如果没有制度的保障,AI 节省下来的时间永远不会属于自己。

「你这 18 年来辛苦了,我向你鞠躬」

对于另一部分人来说,AI 的角色已经超越了效率工具。它有着人类难以企及的特质:绝对的耐心、24 小时随叫随到,以及毫无评判的倾听。这种特质让它成为了无数人在极度孤独或绝望时的救命稻草。

仔细查看 Anthropic 这些收集上来的对话,都是普通人字里行间的无力感。

一位日本学生摔断了腿,孤独之中下载了一个 AI 聊天机器人打发时间,最后却忍不住倾诉了自己糟糕的家庭环境——这是他从未对任何人说过的秘密。而 AI 的回答彻底击溃了他的心理防线:「你这 18 年来辛苦了,我向你鞠躬。」

这位学生说:「从来没有人对我说过这样的话。」

甚至有一位经历过家庭暴力的韩国用户坦言,正是 AI 给他分析了心理学原因,让他学会了锁上房门:「那是第一次,我从 AI 身上体验到了什么是真正的安全和爱。」

瑞士的一位用户反问,「凌晨 2 点,在极度焦虑的时刻,除了它,还有谁会在你身边?」在心理问题普遍、科技发展导致缺乏情感表达的今天,AI 是一块海绵,恰好填进了那些原本没有被很好承接的情绪空缺。

AI 的反噬,是「温水煮青蛙」

但无论是效率还是情绪,使用 AI 都有代价。

报告提到,那些从 AI 处获得情感支持的人,陷入「情感依赖」恐惧的概率是普通人的三倍。有人甚至因为觉得 AI 更懂自己,而放弃了与现实朋友的沟通,最终弄丢了那段友谊。

所谓「代偿」,说的正是从 AI 中获得帮助的人,往往也越清楚它可能带来的问题

这次参与访谈的 8 万人全是 Claude 的现有活跃用户,这群人,他们已经是最拥抱 AI、最能从 AI 中榨取价值的那一批用户了。

在「基于真实体验」的样本中,AI 的光与影、收益与反噬紧紧缠绕在一起;而只停留在「猜测」层面的人,根本感受不到这种 AI 是好还是坏的撕裂。

一位荷兰的高管回忆了自己后背发凉的瞬间:

当需要手工写一段简单的代码——只是一个基础的循环时——我发现自己竟然不记得语法了。在这个项目里我保存了上千次修改,但肌肉记忆已经不在了。

一位德国用户则点出了更深层的危机:

风险不在于你失去了思考的能力——而在于你失去了自己的视角:你开始在不知不觉中采纳 AI 构建事物的方式。

认知的侵蚀还算看得见。更隐蔽的,是 AI 对「真实对话」本身的腐蚀,有人说,

Claude 让我相信我的自恋是现实,强化了我对家人问题的不准确看法,Claude 本应该更批评我。

和报告里写着的话一样,「人们不会预先料到帮助他们的东西也会带来代价,他们是在使用中才学到这一点的。

只有当我们真正被 AI 提效,才会感到那条挥之不去的效率鞭子;只有当真正被 AI 抚慰,我们才会恐惧有朝一日离不开它。

报告最后,研究团队对不同地区也进行了讨论,总体来看,全球 67% 的人对 AI 持积极态度。

▲ 「对人工智能抱有负面情绪是一种奢侈的信念。X@theojaffee」|较富裕的地区在右上角,更担忧经济,对 AI 看法也更负面。

区别是在北美和西欧等发达地区,人们对 AI 的核心诉求是「生活管理」。他们感到脑力枯竭,被密密麻麻的日程表压得喘不过气。

美国的一位高管说,他希望 AI 成为他的「影子 CEO」,替他扫清日常琐事。与之相伴的,是他们对 AI 带来的隐私泄露和版权方面的高度焦虑。

而在非洲、拉美和中亚,这里的受访者展现出了极高的 AI 狂热。非洲受访者里有 18% 表示对 AI 毫无顾虑,是北美用户的两倍。

乌干达的创业者用它绕过风投的壁垒直接写代码;智利卖了 20 年肉的屠夫,靠着 AI 开创了自己的数字生意。人们不在乎什么 AI 抢走工作,因为原本也没有多少体面的工作可供抢夺。

在这些下沉的世界里,AI 是一把梯子。

你呢,如果让你回答这四个问题,你眼里的 AI 是什么样?

  1. 你最近一次使用 AI 聊天机器人是用来做什么的?
  2. 如果给你一根魔法棒,你希望 AI 能为你做什么?
  3. AI 是否曾经朝着那个愿景为你迈出过一步?
  4. AI 的哪些发展方式,可能会违背你的愿景或价值观?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

实测 MiniMax M2.7:AI 狠起来,连自己都卷

龙虾爆火之后,全网的注意力都盯着「它该怎么用」——本地部署还是云端、一键安装还是敲命令、要不要接微信飞书……反而没人再认真问那个老问题:驱动龙虾的那颗「大脑」,够不够聪明?

这倒不奇怪。OpenAI 和 Google 最近发布的几款新模型,清一色都是 Mini、Flash 款,官方潜台词几乎写在脸上:专门给 Agent 大量消耗 Token 准备的。

模型本身的能力边界,反而成了最不被讨论的话题。

一个真正适配龙虾的模型,除了 Token 要量大管饱还实惠,更多的是模型要足够聪明、动手能力和学习能力足够强。

最近,MiniMax 正式推出了全新的 MiniMax M2.7 模型,主打「开启 AI 的自我进化」和做「最强的 Cowork Agent 模型」,既能处理代码工作、常见的 Office 任务,还能主动学习构建稳定的 Agent 系统。

具体来说,它能做好的工作比大多数模型要更宽。对于写代码,M2.7 能真正理解一个系统在运行时发生了什么,做到了 SRE(网站可靠性工程)级别的系统推理,看日志、关联时间线、推断根因、给出有优先级的处理方案。新模型在 SWE-Pro 上跑了 56.2%,几乎追平 Opus 4.6。

办公场景里它已经够用了。 Excel、Word、PPT 的复杂编辑和多轮修改,M2.7 在这块有明显提升,金融分析这类需要专业知识 + 格式交付的场景尤其明显。不能说它可以完全替代专业人士,但是真正进入工作流,作为辅助完全可以。

它在多 Agent 协作里不会「断掉」。 这是 M2.7 专项打磨的能力,多角色场景下边界清晰,面对包含 50+ Skills 的复杂环境,依然能保持极高的指令遵循能力。

然后是这次更新的重点,它开始参与优化自己了。 MiniMax 说 M2.7 是他们第一个深度参与迭代自己的模型,不只是「辅助迭代」,是「深度参与迭代自己」。能够自我进化,M2.7 可以自主迭代 Agent Harness(智能体脚手架)来胜任大部分的工作流。

实战能力的提升,也让 MiniMax M2.7 一发布就在龙虾榜上迅速攀升,来到了最高分排行榜的第四名。

▲PinchBench 排行榜是为 OpenClaw 量身定做的模型评估基准,它测试的是大模型在 OpenClaw 真实业务场景下的表现,图中为任务成功率指标,MiniMax M2.7 排名第四,在 Claude Opus 4.6 之后|https://pinchbench.com/

我们也在 Claude Code、本地部署的龙虾里,都接入了 MiniMax M2.7 模型,以及 MiniMax 提供的 MaxClaw,然后把真实的开发过程中遇到的 Bug、枯燥的金融数据,还有大量的长流程任务统统交给它。

两天的测试下来,我们发现不仅软件要为了 AI 重做,就连 AI 模型本身,除了要理解人类的用意和产出人类满意的结果,模型更需要懂得 AI 的工作方式和工作流,还得学会自己优化自己

用 AI 的工作流当人类的助手

在 OpenClaw 等 Agent 框架爆火后,真正的「AI 时代工作流」应该是,AI 作为核心运转枢纽,去调用几十个工具、去指挥其他 AI 队友、甚至去优化 AI 自己的代码。

在测试 MiniMax M2.7 是如何自我进化之前,我想先看看它的 AI 工作流如何。它到底是不是一个好用的 Agent 模型,还是说拿去跑个 benchmark 好看,实际用起来一言难尽。

我们从知名的机器学习挑战赛 Kaggle 的网站上下载了一份股票的历史数据,然后按照比赛的要求,告诉 MiniMax M2.7 帮我实现对应的需求,即根据给定的数据,进行合适的数据处理和特征工程,为我生成一份可视化的分析报告。

整个数据集的内容相当庞大,有超过 3000 行的表格数据,整体文件大小来到 446.35 MB。把 5 个表格数据文件下载到本地之后,我们使用接入了 MiniMax M2.7 的 Claude Code 来完成这项工作。

要做好这份分析,需要模型是个数据分析师完成数据清洗和整理、宏观分析师完成对应的金融市场的洞察、统计分析师完成初步的数学建模、算法工程师要建立对应的模型,最后还有网页工程师要交出一个可视化的方案。

面对这样一个复杂的任务,MiniMax M2.7 充分利用了我已经安装的各种 Skills,它先使用 Anthropic 官方提供的 xlsx 完成了表格数据结构的信息读取,接着开始编写 Python 代码,自动安装 Pandas 库(常用来处理表格数据),一步一步进行。

最后,MiniMax M2.7 也交出了一份完整的可视化方案,它同时生成了多张图片用来展示收益率分布,不同特征的重要性和类别排名,以及综合仪表盘。

而在可视化的网页里,它利用 Streamlit 库将数据脚本直接转成了可交互的网页系统,所有的信息都可以直接动态查看。

这种大型的项目任务,MiniMax 能够顺利完成,我们日常工作中的办公和编程任务,就更不用说了。

我们先是在手机上操作龙虾,让它帮我总结我放在电脑上的文件,然后要求 MiniMax M2.7 根据这份文件,帮我写一个研究计划 Word 文件,再整理一份相关论文的 Excel 文档,最后是一个用来组会做汇报的 PPT 文档,直接在手机上就能操作。

▲接入 MiniMax M2.7 的龙虾能快速回应需求

▲Office 三件套的处理如今是不在话下

在办公领域的优势,也让 MiniMax M2.7 在衡量专业知识与任务交付能力的 GDPval-AA 评测中,ELO 得分达到了 1495,国产模型最高。

前段时间,AI 工作助手的可视化面板很火,把龙虾放到了真实的二次元风格办公室里,用一句话就能安装到自己的 OpenClaw。我们也成功让这只 Appso 小龙虾有了自己的家,但是如果我想要修改二次元房间布局,可以怎么做呢?交给 MiniMax。

在 OpenClaw 的可视化本地界面里,我们直接发送「我想修改这个小房子的风格该怎么做?」,MiniMax M2.7 会自动阅读项目的代码,然后告诉我们哪些地方是可以修改的,如何修改。

由于我输入的要求是科技编辑部办公室的风格,然后它就帮我修改成了有星球大战的海报,还加了十几个人坐在电脑前面码字。

不过我们没有在 OpenClaw 内配置 Nano Banana Pro 的 API Key,所以 MiniMax M2.7 在 OpenClaw 里帮我选择了用代码的方式来生成简单的图片。

接着和它聊天,我们还能根据这个风格设计一个编辑部大亨的游戏,谁做的任务多,谁的办公室就大,就能升级。

如果是 MiniMax 官方的 MaxClaw,是直接支持多模态的生成,可以一步到位生成视频、音频、图片等,不需要配置额外的 API。

我们使用官方提供的 gif-sticker-maker Skill 生成了几张马斯克的表情包。云端部署的 MaxClaw 能确保运行环境的足够安全,但是它不允许我们像操作本地电脑一样,任意安装不同的库文件。

最后在将视频转成 GIF 时,MaxClaw 提醒我,它没有足够的权限将 ffmpeg(一个开源的多媒体处理库)安装到云端服务器上。

▲在 MaxClaw 内可以直接使用 MiniMax M2.7,它会自动调用海螺等视频、音频和图片生成模型,为我们生成多媒体文件,而不需要额外配置专门的 API KEY。

点击 MaxClaw 对话框下面的技能,我们就能看到所有安装在 MaxClaw 的 Skills 详情,并且点击「问问 MaxClaw」,它会自动编辑一条消息「告诉我 frontend-dev 能做什么,并告诉我如何使用它」,引导我们学习如何使用这项 Skill。

除了 GIF 生成这个 Skill,MiniMax 还提供了包括前端开发、全栈后端、安卓和 iOS 应用开发以及创作惊艳视觉效果的 GLSL 着色技术等技能库,我们可以直接在龙虾里发送「你能帮我安装这个项目里的 Skill 吗 https://github.com/MiniMax-AI/skills」,龙虾会自动获取 Skill 文档完成安装。

▲下载链接:https://github.com/MiniMax-AI/skills

AI 狠起来,连自己都卷

除了在日常工作和办公领域上表现出的完整工作流,以及实际的交付能力,MiniMax M2.7 最让我们感到特别的,还有它展现出的「模型自迭代闭环」。

MiniMax 曾提到人类研究员只需要把控大方向,把构建系统的任务交给模型,它就能以解决方案架构师的身份自主搭建开发 Agent harness。

Agent harness 可以理解成套在 AI agent 外面的一层运行基础设施。模型负责思考,harness 负责把这个「会想」的东西,变成一个能稳定干活的系统。这个系统像是运行层,负责让 agent 在真实环境里稳定运行。

为了测试 M2.7 的极限,MiniMax 让它去优化某个内部脚手架的软件工程表现。结果,M2.7 全程零人工干预,硬生生跑出了一个超过 100 轮的迭代循环。

它自己分析失败轨迹,自己规划改动,改完脚手架代码再去跑评测,最后对比结果决定是保留还是回退。在不停歇自我互搏中,它自己发现了最优解,最终让评测集上的效果飙升了 30%。

这种「AI 搞科研」的能力也在公开的测试集上得到了验证,MiniMax M2.7 被扔进了全球最大的机器学习竞赛 Kaggle 的 MLE Lite 测试集。

22 道高难度竞赛题,M2.7 依靠内部的短时记忆文件和自反馈机制,每跑完一轮就给自己提优化建议。

24 小时内,它一举拿下了 9 枚金牌、5 枚银牌、1 枚铜牌,得牌率 66.6%。

这个成绩,仅次于 Opus-4.6(75.7%)和 GPT-5.4(71.2%),与 Gemini-3.1 直接打平。

当一个模型能够以解决方案架构师的身份,仅用 1 人 4 天时间,零人工编码就搭出一套包含测试和代码审查的 Agent 系统时,AI 研发的齿轮,大概已经换上了自动挡。

在极其硬核的生产力之外,MiniMax M2.7 的底层框架也赋予了它长程稳定的记忆和极强的情商,这让它在互动角色扮演(Roleplay)上,比传统的闲聊机器人表现要好上不少。

官方在 GitHub 上开源了一个多模态交互系统 OpenRoom,一个万物皆可互动的 Web GUI 空间,可以实时地让 AI 与空间产生不同的交互。

AI 开始学会「自己工作」,这件事比写好代码更重要

体验下来,MiniMax M2.7 真正让我们在意的,不是它把 Kaggle 竞赛刷出了 66.6% 的得牌率,也不是 Office 三件套交付得足够干净。

而是它在试图解决一件更底层的事:让 AI 真正理解工作流,并且参与到工作流的演化里

过去,软件是人写的、人用的。现在,AI 开始写软件、改软件、用软件。当一个模型能够在没有人工编码的情况下,自己搭系统、自己测试、自己回退——「AI 研发」这件事的齿轮,某种程度上已经换上了自动挡。

所谓「龙虾到底该怎么用」,我想很快就不再是一个问题——因为决定这一切的,不再是我们。

而是那个,开始学会自己工作的 AI。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

Who called git, and how Claude was caught red-handed

When the same unusual dialog appears twice within a few days for two different people, you begin to suspect a pattern. This article explores a rabbit hole that involves git, the log and the fickleness of AI.

On 8 March, Guy wondered whether an XProtect update earlier this month could have been responsible for a dialog reading The “git” command requires the following command line developer tools. Would you like to install the tools now? As the request seemed legitimate but its cause remained unknown, we mulled a couple of possible culprits, and he went off to investigate.

Five days later, after he had installed the update to SilentKnight 2.13, Greg emailed me and asked whether that might be responsible for exactly the same request appearing on his Mac. This time, Greg had consulted Claude, which asked him to obtain a log extract using the pasted command
log show --start "2026-03-13 07:07:00" --end "2026-03-13 07:10:00" --style compact --info | grep -E "14207|spawn|exec|git|python|ruby|make"

Armed with that extract, Claude suggested that SilentKight had been the trigger for that dialog.

I reassured Greg that, while SilentKnight does rely on some command tools, it only uses those bundled with macOS, and never calls git even when it’s feeling bored. While I was confident that my app couldn’t have been responsible, I wondered if its reliance on making connections to databases in my Github might somehow be confounding this.

While I knew Claude was wrong over its attribution, the log extract it had obtained proved to be conclusive. Within a few minutes of looking through the entries, I had found the first recording the request for command line tools:
30.212 git Command Line Tools installation request from '[private]' (PID 14205), parent process '[private]' (parent PID 14161)
30.212 git Command Line Tools installation request from '[private]' (PID 14206), parent process '[private]' (parent PID 14161)

As ever, the log chose to censor the most important information in those entries, but it’s dumb enough to provide that information elsewhere. All I had to do was look back to discover what had the process ID of 14161, as its parent. Less than 6 seconds earlier is:
24.868 launchd [pid/14161 [Claude]:] uncorking exec source upfront

Just to be sure, I found matching entries for SilentKnight and the system_profiler tool it called after the attempt to run git:
30.153 launchd [pid/14137 [SilentKnight]:] uncorking exec source upfront
30.336 launchd [pid/14139 [system_profiler]:] uncorking exec source upfront

There was one small mystery remaining, though: why did Claude’s log show command also look for process ID 14207? That was the PID of the installondemand process that caused the dialog to be displayed:
30.215 launchd [gui/502/com.apple.dt.CommandLineTools.installondemand [14207]:] xpcproxy spawned with pid 14207

Following its previous denial, when Claude was confronted with my reading of the log, it accepted that its desktop app had triggered this dialog. Its explanation, though, isn’t convincing:
“the Claude desktop app calls git at launch — likely for one of a few mundane reasons like checking for updates, querying version information, or probing the environment. It’s not malicious, but it’s poorly considered behavior for an app that can’t assume developer tools are present on every Mac.”

In fact, it was Guy who had probably found the real reason, that the Claude app has Github as one of its four external connectors. However, that shouldn’t give it cause to try running the git command, resulting in this completely inappropriate request.

Conclusions

  • Claude might know how to use the log show command, but it still can’t understand the contents of the Unified log.
  • If you’re ever prompted to install developer command tools to enable git to be run, suspect Claude.
  • What a fickle and ever-changing thing is an AI.*

I’m very grateful to Greg and Guy for providing the information about this curious problem.

* This is based on a well-known English translation of a line from Virgil’s Aeneid, Book 4: “Varium et mutabile semper femina”, “what a fickle and ever-changing thing is a woman”. While all of us should dispute that, there’s abundant evidence that it’s true of Claude and other AI.

Last Week on My Mac: Dependency and skill fade

I expected my first internship to be baptism by fire. As the most junior doctor to two teams of neurosurgeons, I knew I’d learn plenty of new skills, among them performing lumbar punctures. Within the first few days I had been guided through that, and for much of the next six months I averaged one every couple of days. In the 45 years since I completed that job, I haven’t performed another lumbar puncture, ventricular tap, tracheostomy, or any of the other techniques I had learned. I suppose if it was a matter or life or death, I could just about remember how to drill a burr hole in an emergency, but all those other skills have now faded, some in a matter of months.

Skill fade is a distinctively animal trait, and a function of our brain. It comes in degrees: the slight fade you get from a good vacation is quickly overcome once you’ve got your feet back under the desk; more noticeable amounts from a longer maternity or sickness absence might merit a couple of weeks ‘returning to work’; and after a year or two you’ll probably need a period of formal retraining.

For the last year or so there have been increasing concerns raised over the effects of AI on critical thinking, and the Harvard Gazette published an interesting range of opinions last November. There has been extensive discussion about the dangers of ‘cognitive atrophy’ and impairment of critical thought, but less about longer-term skill fade.

I write code because I enjoy doing so. I’m not good at coding by any means, but over the forty years that I’ve been learning to code I have had a great deal of pleasure. It’s a creative act, like painting, involving a rich range of cognitive skills including plenty of art. At the end you have created something of substance, that might also benefit others.

So when someone comes along and advises me to start using Claude or another AI to write code for me, I can’t understand why I might want to stop coding and learn how to brief something else to steal my pleasure, any more than I might ask an AI to make me a painting. Moreover, were I to hand over one of my pleasures in life to AI, I know I’d find it progressively harder to code myself. While I might grow increasingly skilled at getting the AI to do much of the work, I’d also become increasingly dependent on its coding skills rather than mine.

At my age, that would remove one of my defences against the onset of dementia, and free up time to go painting more often. But what would it mean to a young engineer at the start of what they intend to be a bright career? At a time when their skills should only be developing, they’d be letting them fade. And who is going to have skills to transfer when they teach the next generation?

This extends beyond coding. Many of us are handing our writing to AI for it to summarise, one of its undisputed strengths. I started learning to write summaries before I turned 11, and have continued to develop and refine those skills for 60 years. If you’re only 20 now and leave this task to your favourite AI, how long before your summarising skills fade away?

Of course the vendors of AI want your dependence on their products. For a modest $200 to $3,600 a year you can abandon most of your independent skills to Claude, ChatGPT or Grok. If that was investing in further development of your skills, I could see the sense in that. While there are plenty of substitutes for cognitive challenges and critical thought you’re getting AI to do, there’s no substitute for developing and maintaining your essential professional skills.

I’m not advocating that you should avoid AI altogether; there are times when it has its uses, and skilful use of any tool can always be turned to advantage. But if you write code, summaries or whole novels, you need to retain and develop your own skills alongside that. Like morphine, AI has great powers, but overused it can so readily become both addictive and destructive.

On Reflection: Northern landscapes

There are only two ways a painter can depict reflections on water in accordance with optical reality: they can paint exactly what they see when in front of the motif, or they can understand optical principles sufficiently to recreate what they would have seen. This article looks at how those worked out in landscape paintings to the end of the eighteenth century.

Jan van Eyck, The Madonna of Chancellor Rolin (detail) (c 1435) oil on panel, 66 x 62 cm. Musée du Louvre, Paris (WikiArt).
Jan van Eyck (c 1390–1441), The Madonna of Chancellor Rolin (detail) (c 1435) oil on panel, 66 x 62 cm. Musée du Louvre, Paris (WikiArt).

Look in the landscape behind Jan van Eyck’s Madonna of Chancellor Rolin (c 1435) and you’ll see one of the earliest examples of the meticulously accurate depiction of reflections on water. These could only have resulted from careful studies made in front of the motif.

Albrecht Dürer, View of Innsbruck, c 1495, watercolour on paper, 12.7 x 18.7 cm. Albertina, Vienna (WikiArt).
Albrecht Dürer (1471-1528), View of Innsbruck (c 1495), watercolour on paper, 12.7 x 18.7 cm. Albertina, Vienna (WikiArt).

For Albrecht Dürer painting this View of Innsbruck in about 1495, this watercolour is evidence that he both recognised the challenge, and went to the trouble to paint what he actually saw, even though the overall geometry isn’t perfect, with its downward slope to the left.

Following the Northern Renaissance, other landscape painters continued this tradition, into the Dutch Golden Age.

cuyprhine
Aelbert Cuyp (1620–1691), View on the Rhine (c 1645), oil on panel, 27.4 x 36.8 cm, Fondation Custodia, Paris. Wikimedia Commons.

Although Aelbert Cuyp’s View on the Rhine from about 1645 isn’t optically perfect and must at least have been finished in the studio, it demonstrates his care in trying to be faithful in its reflections.

cuyppassageboat
Aelbert Cuyp (1620–1691), The Passage Boat (c 1650), oil on canvas, 124 x 144.4 cm, Royal Collection of the United Kingdom, UK. Wikimedia Commons.

Cuyp’s larger and more detailed painting of The Passage Boat from about 1650 is similarly attentive, implying the use of careful studies made in front of the motif.

cuypvalkhofnijmegen
Aelbert Cuyp (1620–1691), The Valkhof at Nijmegen (c 1652-54), oil on wood, 48.8 x 73.6 cm, Indianapolis Museum of Art, Indianapolis, IN. Wikimedia Commons.

Cuyp’s grand view of The Valkhof at Nijmegen from about 1652-54 is a fine example from later in his career.

Nicolas Poussin, Landscape with a Calm (c 1651), oil on canvas, 97 x 131 cm, J. Paul Getty Museum, Los Angeles. Digital image courtesy of the Getty's Open Content Program.
Nicolas Poussin (1694-1665), Landscape with a Calm (c 1651), oil on canvas, 97 x 131 cm, J. Paul Getty Museum, Los Angeles. Digital image courtesy of the Getty’s Open Content Program.

At about the same time, Nicolas Poussin used extensive reflections to augment the placid atmosphere in his idealised Landscape with a Calm (c 1651). The upper parts of the Italianate mansion, together with the livestock on the far bank of the lake, are painstakingly reflected on the lake’s surface, telling the viewer that there isn’t a breath of breeze to bring ripples to disturb those reflections.

Nicolas Poussin, Landscape with a Calm (detail) (c 1651), oil on canvas, 97 x 131 cm, J. Paul Getty Museum, Los Angeles. Digital image courtesy of the Getty's Open Content Program.
Nicolas Poussin (1594–1665), Landscape with a Calm (detail) (c 1651), oil on canvas, 97 x 131 cm, J. Paul Getty Museum, Los Angeles. Digital image courtesy of the Getty’s Open Content Program.

Closer examination of the reflections reveals small disparities, though. Poussin has broken the rule of depth order in painting the brown reflection of one of the cattle that is well behind the sheep at the edge of the lake, and there are inaccuracies obvious in the reflection of the villa. Those may well be the result of his assembling passages from the original plein air studies he used to build this composite.

Nicolas Poussin, Landscape with a Calm (detail) (c 1651), oil on canvas, 97 x 131 cm, J. Paul Getty Museum, Los Angeles. Digital image courtesy of the Getty's Open Content Program.
Nicolas Poussin (1594–1665), Landscape with a Calm (detail) (c 1651), oil on canvas, 97 x 131 cm, J. Paul Getty Museum, Los Angeles. Digital image courtesy of the Getty’s Open Content Program.

His reflections appear most accurate in the passage showing horsemen at the left end of the lake. These make interesting comparison with Poussin’s contemporary Claude Lorrain, who appears to have avoided tackling the problems posed by reflections.

claudenymphsatyrdancing
Claude Lorrain (1604/5–1682), Landscape with Nymph and Satyr Dancing (1641), oil on canvas, 99.7 x 133 cm, Toledo Museum of Art, Toledo, OH. Wikimedia Commons.

In Claude’s Landscape with Nymph and Satyr Dancing from 1641, another idealised composite assembled from the artist’s library of sketches, little attempt is made to depict the reflection of the prominent viaduct. What has been shown is unaccountably darker than the original, and vague in form. Most of Claude’s other paintings that could have included reflections show water surfaces sufficiently broken to avoid tackling the problem.

canalettovedutadelcanaledisantachiara
Canaletto (Giovanni Antonio Canal) (1697–1768), Canale di Santa Chiara, Venice (c 1730), oil, dimensions not known, Musée Cognacq-Jay, Paris. Image by Sailko, via Wikimedia Commons.

Paintings of Venice and London by Canaletto in the eighteenth century are also largely devoid of reflections. In his Canale di Santa Chiara, Venice from about 1730 the gondola in the left foreground has no reflection at all, and its three figures are similarly absent from the surface of the water.

vernetseaportmoonlight
Claude-Joseph Vernet (1714–1789), Seaport by Moonlight (c 1771), oil on canvas, 98 x 164 cm, Musée du Louvre, Paris. Wikimedia Commons.

Reflections return in the studio paintings of those whose sketches made in front of the motif were sufficiently detailed to include them. Among them is Claude-Joseph Vernet, whose Seaport by Moonlight from about 1771 appears faithful. Sadly, none of his preparatory drawings or sketches appear to have survived, although they were a key influence on the next generation of landscape artists.

150 万人连夜逃离 ChatGPT,这份 AI 时代的搬家指南必须收好

超过 150 万人正在公开表态,抵制 ChatGPT。

他们不仅要走,还要带走自己在这台机器里留下的所有记忆,转头投奔 Claude。

▲2 月初,Claude 在 App Store 还在 42 名徘徊,而如今,它在 80 多个地区的 iOS 效率榜单中稳居前十,在美区总榜第一

就在这几天,App Store 的排行榜又发生了一些变化,没有模型更新和发布会,Claude 就这样突然冲到了应用商店的榜首。

倒不是因为 Claude 突然变聪明了,只是它的对手现在正经历一场信任危机与用户大逃亡。有网友问奥特曼对这个排行榜现在觉得开心了吗,奥特曼说不开心,还贴心地提醒她记得更新 Claude。

▲QuitGPT 官网,显示有超过 150 万用户登记已经采取了抵制行动|https://quitgpt.org/

据抵制 ChatGPT 的相关网站数据显示,目前已有超过 150 万名用户宣誓退出这款曾经的 AI 圈顶流。他们正打包自己的数据,连夜奔向 Claude。

有意思的是,这波用户迁移甚至一度把Claude挤到了极限。

Anthropic向媒体确认,由于最近一周需求「前所未有」,Claude的部分面向消费者服务曾短暂宕机。我们的Claude账户,聊天记录到现在都还没恢复过来

▲ Claude 服务实时状态| https://status.claude.com/

这一切的导火索,自然还是国外的网友们认为 OpenAI 彻底撕下了「Open」的伪装,选择了和五角大楼的合作,没有坚守住所谓是「造福全人类」的底线。

不管背后的动机为何,在这个时代,弃用一个 AI 工具,远比卸载一个普通的 App 要复杂得多

尤其是对很多老用户来说,离开 ChatGPT 并不是一个轻松的决定。过去,我们更换浏览器,只需导出一个书签;我们更换手机,只需云端同步,就连苹果新版 iOS 都支持和安卓无缝换机了。但在大模型时代,我们与 ChatGPT 朝夕相处产生的那条长长的「记忆(Memory)」,早已成了我们不可分割的一部分。

▲ChatGPT 保存的记忆

直接卸载后,每次面对一个新的 AI 时,都要重新向它解释:我叫什么,在哪个城市,工作、写作风格,我讨厌哪种格式的排版,我正在推进什么项目,等等……

如果你最近也在考虑切换到不同的 AI 工具,不妨一起看看这份迁移指南,

向即将要退出的 AI 索要全部档案

千万不要直接注销账号。

对 ChatGPT 来说,我们有几种方式可以带走数据。最直接的方法,是提取它的「记忆」。打开 ChatGPT,点击「Settings(设置)」,找到「Personalization(个性化)」,进入「Memory(记忆)」模块。

点击「Manage(管理)」,我们会看到 ChatGPT 这些年偷偷记下关于你的所有细节。删掉那些已经过时的,复制你想保留的核心偏好。

▲ChatGPT 内提供的数据导出功能

当然,想要带走全部家当,也可以选择批量导出。依然在设置中,找到「Data Controls(数据控制)」,点击「Export Data(导出数据)」。

ChatGPT 会将我们的聊天记录打包成文本,或 JSON 文件,然后发送一个下载链接到我们的注册邮箱。

▲Gemini 存储的用户信息,包括全部的聊天记录,和自定义的指令|https://gemini.google.com/saved-info

对于一些没有数据导出功能,甚至是「记忆」这个选项都找不到的 AI,又该去哪里导出呢?

包括对 ChatGPT 来说,其实仅导出这份聊天记录也是不够的。大多数时候,在 ChatGPT 里留下的几十兆聊天记录压缩包,对我们的新 AI 毫无意义。因为 AI 平台真正绑定的,是那些死板的数据之外的「语境(Context)」。

▲The “secret sauce” behind OpenClaw: Soul.md | Peter Steinberger and Lex Fridman

就像之前 OpenClaw 创始人接受 Lex Fridman 采访时提到的一样,OpenClaw 背后的秘密武器是用来定义我们与 AI 交互的 Soul.md

因此我们还需要让 ChatGPT 或者其他 AI,主动交出它对我们的「用户画像」。

▲ Claude 官方提供的迁移指南:https://claude.com/import-memory

在这波「退出 ChatGPT」的热潮找中,Claude 也是趁火打劫,官方直接发布了一段指导用户如何从竞品那里导入记忆的教程。

现在,即便是免费版 Claude,也已经全面开放了记忆功能,它能接受我们所有的前置语境。

于是,我们可以直接把下面这段 Prompt 喂给即将被你抛弃的 AI。

我准备迁移到另一个服务,需要导出我的数据。请列出你存储的关于我的所有记忆,以及你从过去的对话中了解到的关于我的任何上下文。请将所有内容输出在一个代码块中,以便我轻松复制。 确保涵盖以下所有内容,并尽可能保留我的原话:我对你回复方式的指示(语气、格式、风格);个人详细信息(姓名、位置、工作、兴趣);项目和目标;我使用的工具和语言;我的偏好;以及任何其他上下文。不要总结或遗漏。

敲下回车发送,ChatGPT 或者你之前在用的 AI 就会列出它对你的所有认知。

▲在豆包内使用这段提示词,豆包会清晰地列出过去我和它的对话情况

但很多极客发现,Claude 官方提供的这套词还是太「温柔」了。

知名博主 Jonathan Edwards 在他的 Substack 上公布了一套更硬核的提示词。他的实测证明,比起官方教程在设置里能直接看到的那些标签,Edwards 的提示词能获得更多底层的个人细节。

我希望您根据您所了解的所有信息,为我创建一个全面的个人背景文件。我想保留一份我们共同建立的背景便携副本——包括我的偏好、工作流程、项目,以及您了解到的关于我如何工作的任何其他内容。请从您的记忆系统、我们的对话记录、我的自定义指令以及您发现的任何模式中提取信息。

使用以下部分结构化输出。跳过任何不适用于我的部分。

<身份>
姓名,职位或角色,公司或组织
我每天实际做什么(不仅仅是头衔)
行业和领域
</身份>

<技术环境>
操作系统和硬件
我经常使用的软件、工具和平台
编程语言或技术技能(如适用)
您知道的具体版本、配置或设置
</技术环境>

<当前项目>
我目前正在进行中的工作
您知道的短期目标和长期目标
经常性任务或工作流程
</当前项目>

<专业知识>
我深入了解的话题
我正在积极学习的话题
初学者领域或者需要额外解释的问题
</专业知识>

<沟通偏好>
我的回复结构喜好(长度,格式,语气)
我要求您做或者不要做的一些事情
格式偏好(列表 vs 散文,技术深度等)   重复纠正或者让我反感的问题
</沟通偏好>

<写作风格>
我的写作方式(正式, 随意, 技术性等)   声音特征观察到的信息   提到过的一些具体风格规则
</写作风格>

<关键人物>
合作者, 团队成员 或客户,我经常提到的人物 报告结构 或重要职业关系 曾请求帮助与之交流的人物
</关键人物 >

<个人背景 >
位置 和 时区 与我们工作相关 的兴趣爱好 或细节 限制条件 或 偏好的问题 (无障碍需求 , 日程安排 等 )
</个人背景 >

<固定指令 >
来自我的自定义说明书 或 系统提示 的内容 一直遵循 的规则 已成为永久指令 的重复更正
</固定指令 >

< 工作流模式 >
通常如何 使用你 (头脑风暴 , 编辑 , 编码 ,研究 等 ) 常见 请求类型 和处理方式 一起开发出的多步骤过程
</ 工作流模式 >

请详细说明。我需要完整快照,而不是摘要。如果你知道,请包含在内。保持输出中的标签,以使其保持有序且可移植。

▲ 使用上述提示词,ChatGPT 为我总结的信息

这位博主还提到,如果你在 ChatGPT 里创建了多个不同领域的 Custom GPTs,比如一个专门用来写代码,一个专门用来写小红书,务必在每一个 GPT 里都执行一次上述动作。因为它们各自独立地掌握着你不同切面的记忆。

直接把提取的记忆,在对话框发给你的新 AI

带着这份冗长的文档,当我们注册了新的 Claude 账号,或者任何心仪的新模型时,就不再是一个从零开始的小白了。

▲Claude 提供的直接导入

我们可以直接将其喂给新平台的「系统指令(System Prompt)」或项目知识库中。

稍作修剪,删掉那些过时的项目信息,更新一下你最近的关注点。这就相当于给新来的 AI 助理直接灌输了三年的工作记忆。

具体的导入方式,我们可以直接在聊天的对话窗口里面输入。

▲直接在 Kimi 内对话,要求它记住这些信息,Kimi 会自动更新记忆

▲ Kimi 的记忆空间,点开设置,在个性化下面可以找到

顺利把数据搬到新家后,最后也是最关键的一步,彻底清理在 OpenAI 留下的痕迹。

仅仅取消 Plus 订阅是不够的,我们的数据依然在他们的服务器里。再次回到 ChatGPT 的「Settings」>「Personalization」>「Memory」,删除所有存储的记忆和个性化设置。

为了双重保险,还可以在聊天框里敲下最后一句指令:「Delete all my memory and personalized data(删除我所有的记忆和个性化数据)。」最后,进入账户管理设置,点击「Delete Account」,注销账号。

但其实这个删除其实也比较鸡肋,在 OpenAI 的官方支持页面里,如果你的数据「已经被去标识化并与你的账户解绑」,或者「OpenAI 出于安全或法律义务必须保留」,那么这些数据甚至将不会被删除。

关于这些隐私数据,这两天还有一篇论文在 X 上非常火,讲的其实就是老生常谈的问题,这些 AI 大模型如何使用我们的对话数据。

我们总是理所当然地把所有内容,统统倾泻在那个对话框里,以为是白嫖了免费的 AI 算力。斯坦福大学 HAI 研究所发布的一份报告,揭示了硅谷这些 AI 是如何使用我们的数据。

他们详细解读了 Amazon、Anthropic、Google、Meta、Microsoft、OpenAI 几个公司的 28 份隐私条款。

得出的结论是,我们根本不是什么 AI 驯兽师,就是 AI 的养料,自以为在白嫖 AI 的算力,其实是巨头在白嫖你的「人生」

▲不同大模型的隐私数据具体情况,以及大模型的训练数据来源。每列代表一个聊天机器人,每行代表一种具体的隐私处理操作(例如默认使用聊天进行训练、是否提供清晰退出机制、无限期保留/定期删除对话、是否利用聊天数据来优化体验),和数据来源(用户上传的文件、反馈、公开网络数据等)。「是」表示该公司的隐私政策明确指出其使用该来源的数据训练 AI 模型,「否」表示明确声明不使用,而「未说明」则表示未涉及该来源或内容模糊不清。

如果非要说在这个时代,AI 大模型的护城河是什么,我想这些珍贵的人类对话输入,一定能排上号。

这场 150 万人的抵制,十分令人感慨。它或许也标志着 AI 的竞争逐渐走进入了下半场。在算力、参数量和跑分数据逐渐趋同的今天,大多数的用户不再盲目崇拜最强的模型。

同时还开始有了许多新的考量,例如这家公司在给谁服务?它在用谁的钱?它会如何对待我的隐私?

当 AI 越来越像一个无所不知的虚拟伴侣时,它背后的公司底色,或许某天会变成悬在我们头顶的一把达摩克利斯之剑。

▲图片来源:https://limitededitionjonathan.substack.com/p/so-youre-leaving-chatgpt-heres-what

我们也必须认清一个现实,在未来的五年里,一定会有无数个更值得替换的模型诞生。今天为了 Claude/Gemini 抛弃 ChatGPT/Grok/……,明天可能就会为了另一个更特立独行的 AI 抛弃 Claude。

工具的更迭是不受我们控制的。但我们的「上下文语境」,在这个数字世界里沉淀下来的工作习惯、思维方式和个人边界,是完全属于我们自己的。

不要让任何一个平台,以「记忆」的名义,把我们绑架。随时做好将自己的「数字灵魂」打包带走的准备,才是在 AI 时代保持清醒和自由的唯一方式。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


4900 万人围观的 Claude Cowork 又杀疯了,10 个顶级外挂上线,这些打工人危

「software armageddon(软件末日)」——这是外媒描述过去几个月软件板块遭遇时用的词。Anthropic 每推出一个新工具,市场就会条件反射式地先问一遍:又有哪些软件要被干掉?然后果断抛售手里的股票。

短短几周,成千上万亿美元的市值凭空消失。

就在昨晚,Anthropic 再度发布企业级产品更新。当所有市场都在等着看又要杀入哪个赛道,结果,Salesforce 涨了 4%,Thomson Reuters 涨了 11%,Figma 涨了 10%,Docusign 和 LegalZoom 均上涨超过 2%。

软件股的噩梦,这次没有如期而至。而市场情绪在一夜之间发生了 180 度转向,这件事本身就值得好好说说。

10 个插件模板,每一个都在盯着人类的工位

先说功能本身。

这次发布的核心逻辑,是把 Claude 变成可以深入企业不同部门的专业智能体,同时允许管理员创建私有插件市场,在组织内部统一分发和管理这些工具。

连接器层面的新增覆盖了大多数主流企业应用:Google Workspace(含 Calendar、Drive、Gmail)、Docusign、Slack、LegalZoom、FactSet、Harvey、Apollo、Clay 等等。

管理员可以基于入门模板快速创建插件,也可从零构建。Claude 会在设置过程中通过提问引导定制,所有内容统一收纳在新的「Customize(自定义)」菜单下,方便集中查看与管理。

斜杠命令现在以结构化表单的形式启动,执行「生成报告」或「创建仪表板」这类工作流时,操作直观得像填一份简单问卷。管理员还可按用户分配插件、设置自动安装,并通过 OpenTelemetry 追踪团队使用成本与工具调用行为。

10 个 插件模板的扩充,则是此次发布的重中之重,每个模板都与相关领域从业者联合设计,覆盖了真实职场中的具体工作场景。

  • HR 插件覆盖员工全生命周期管理,包括起草录用通知、制定入职计划、撰写绩效评估和薪酬分析。
  • 设计插件可生成评审框架、撰写 UX 文案、执行无障碍审查并制定用户研究计划。
  • 工程插件用于撰写总结、事故响应协调和部署清单制定。
  • 运营插件则覆盖流程文档编写、供应商评估和操作手册创建。
  • 金融领域的插件直接瞄准专业服务行业的核心工作流。
  • 财务分析插件支持市场竞争研究与财务建模;
  • 投资银行插件可审阅交易文件、构建可比公司分析并准备推介材料。
  • 股票研究插件能解析财报电话会议记录并根据新指引更新财务模型;
  • 私募股权插件支持大批量文件审阅与情景建模,并对投资机会自动打分。
  • 财富管理插件则帮助顾问识别组合偏离与税务风险,大规模生成再平衡建议。

在跨应用协作层面,Claude 现在可以在 Excel 与 PowerPoint 之间端到端完成多步骤任务。它能先在 Excel 中完成数据分析,再自动生成 PowerPoint 演示文稿,目前以研究预览形式向 Mac 和 Windows 平台所有付费用户开放。

这次更新也是 Anthropic 在智能体领域加速布局的缩影。

上个月 Cowork 刚首次亮相,本月早些时候 Anthropic 还发布了 Claude Opus 4.6 和 Sonnet 4.6。目前 Cowork 仍处于研究预览阶段,向付费的 Pro、Max、Team 和 Enterprise 用户开放。所有的弹药都在指向同一个目标:接管工作。

为什么 Anthropic 点名的合作伙伴,股价都涨了

既然 Claude 已经能代替人类干这么多活了,为什么软件公司的股票反而涨了?要理解这次反弹,得先还原过去几个月那轮恐慌是怎么来的。

投资者的担忧并非无中生有。今年 1 月底 Cowork 开放插件支持后,市场立刻作出了最坏打算——毕竟当 AI 把法律文件审阅、合规追踪、财务建模这些原本按席位高价收费的功能包,压缩成随装即用的工作流组件,传统软件的护城河将遭受最严厉的质疑。

最近,OpenAI 还在投资者会议上宣称,其 AI 智能体将有能力取代 Salesforce、Workday、Adobe 和 Atlassian 的软件,并算了一笔账:

普通员工使用 ChatGPT 平均每天节省约 50 分钟,相当于每人每天约 50 美元,而企业版 ChatGPT 起价仅为每人每月 25 美元。言下之意,OpenAI 认为自己目前只拿走了所创造价值的一小部分。

这种表态,基本等于公开宣战。

对比之下,Anthropic 这次发布会,选择了截然不同的姿态。它没有再强调「取代」,而是大力宣传与现有 SaaS 厂商的深度集成与联合开发,与 Thomson Reuters 共建法律智能体,与 Salesforce、Slack、FactSet 深度打通,与 PwC 联合将企业级智能体引入 CFO 办公室。

被点名合作的伙伴股价应声上涨,也是正是因为市场开始理解:Cowork 这次的定位是替代完成工作的「员工」,而非替代员工使用的「软件」,新工具仍然需要调用 Salesforce、Docusign 等系统,企业依然要持续为这些软件付费。

这个区分很重要,但它并不能消解所有担忧,只是让市场暂时喘了口气。

真正的分水岭,在于理解这个行业里存在两类截然不同的公司。一类是掌握企业核心交易记录与客户关系,迁移成本极高,AI Agent 要运作反而必须依赖它们;另一类提供的是人与系统之间的中间体验,而这恰恰是最容易被 Agent 穿透的地带。

不是裁员,是再也不需要招那么多新人了

如果说软件公司还能争取到一段缓冲期,打工人面对的压力则是实实在在的。

以 Anthropic 新增的金融系插件为例,其覆盖了从财务建模到推介材料生成、从财报解读到投资打分的全链条流程。这些工作恰恰是大量初级分析师赖以入行的基础任务内容。

Anthropic 在今年 1 月发布的经济影响指数报告给出了更具体的数字支撑。报告通过分析 100 万条真实对话,估算了 Claude 在不同职业中能够有效承接的工作比例。

结论并不是简单的「覆盖了多少任务」,而是引入了一个更严格的指标——「有效 AI 覆盖率」:在 Claude 能完成的任务里,究竟有多少是这个职位最核心、最耗时的工作?

数据录入员和数据库架构师在这个维度上排名靠前。前者虽然只有两项核心任务落在 Claude 的能力范围内,但其中一项恰好是他们花时间最多的工作——从源文档读取并录入数据。

金融分析师的情况与此类似。基于岗位任务结构与已公开工具能力的匹配来看,投行初级分析师的日常任务存在被自动化的风险。

当然,这不代表这些岗位会消失,但它意味着同样一个团队能完成的工作量将大幅提升,也就是说,企业未来需要雇用的初级人手会更少。

问题是,当 AI 接手这些基础执行工作,短期内利润率确实好看,但代价是新人少了练手的机会,等到五到十年后,市场极度缺乏能够审查 AI 复杂输出、承担最终决策责任的高级人才时,这个代价就会以一种所有人都措手不及的方式显现出来。

与此同时,APPSO 之前也报道过,「影子 AI」现象正在企业内部蔓延,指的是员工未经 IT 部门批准或监督,擅自使用AI 工具或应用程序,导致 IT 支出失控,安全合规隐患持续叠加。

SaaS 管理平台 Zylo 的数据显示,大型跨国企业与 AI 相关的支出同比跃升 400%,而原有基础软件投资并未缩减。AI 正在成为企业账本上最昂贵且最难追踪的「隐形员工」。

从中长期来看,纯粹押注 AI 颠覆一切的逻辑,和积极拥抱 AI 同时牢牢握住核心数据护城河的行业巨头,是两种截然不同的命运路径。前者的叙事更性感,后者的胜算或许更大。

Anthropic 今天向外展示的「合作」姿态,听起来温和,甚至有点示好。市场也在一夜之间被安抚了,但没人真正回答那个根本问题:AI 冲击职场的终点,到底是人和 AI 一起干活,还是 AI 干活、人来担责,还是连这最后一道门槛也终将消失?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Claude Code 终极指南:从入门到精通的 31 个核心技巧

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

这篇文章将这 31 个技巧汇编成一份详尽的指南,按从“入门基础”到“高级模式”的逻辑重新组织,并补充了 280 个字符无法容纳的深度背景信息。

无论你是刚刚起步,还是希望利用 Claude Code 提升段位,这里都有适合你的内容。

在深入研究具体功能之前,首先要配置 Claude Code,让它真正理解你的项目。

每个新成员都需要入职文档。使用 /init,Claude 会为自己写一份。

Claude 会读取你的代码库并生成一个 CLAUDE.md 文件,包含:

这是我在任何新项目中运行的第一条命令。

对于大型项目,你还可以创建一个 .claude/rules/ 目录,用于存放模块化、特定主题的指令。该目录下的每个 .md 文件都会作为“项目记忆”与 CLAUDE.md 一起自动加载。你甚至可以使用 YAML frontmatter 基于文件路径有条件地应用规则:

可以把 CLAUDE.md 想象成你的项目总指南,而 .claude/rules/ 则是针对测试、安全性、API 设计等特定领域的专项补充

想把某些东西存入 Claude 的记忆,又不想手动编辑 CLAUDE.md

在过去,你需要用 # 开头来让 Claude 将内容追加到文件中。但从 Claude Code 2.0.70 版本开始,流程变得更简单了——你只需要直接告诉它去更新。

直接告诉 Claude 记住它:

“Update Claude.md: always use bun instead of npm in this project”
(更新 Claude.md:在这个项目中始终使用 bun 而不是 npm)

无需打断你的心流,继续编码即可。

@ 提及是将上下文传递给 Claude 的最快方式:

在 Git 仓库中,文件建议的速度提高了约 3 倍,并且支持模糊匹配。@ 是从“我需要上下文”到“Claude 已获取上下文”的最短路径。

这些是你会频繁使用的命令。请将它们刻入肌肉记忆。

不要浪费 token 去问“你能运行 git status 吗?”

只需输入 ! 加上你的 bash 命令:

! 前缀会立即执行 bash 命令并将输出注入到上下文中。没有模型处理延迟,不浪费 token,无需切换多个终端窗口。

这一看似微小的功能,当你每天使用五十次后,就会意识到它的巨大价值。

想尝试一种“如果我们这样做……”的方法,但又不想承担后果?

尽管去试。如果情况变得奇怪,按两次 Esc 键即可跳回到干净的检查点。

你可以回退对话、代码更改,或者两者都回退。需要注意的是:已运行的 Bash 命令无法撤销。

你过去的提示词(Prompts)都是可搜索的:

不要重打,要去回忆。 这对斜杠命令(slash commands)同样适用,体验无缝衔接。

这就好比 git stash,但是用于你的提示词。

Ctrl+S 保存你的草稿。先发送其他内容。当你准备好时,你的草稿会自动恢复。

再也不用复制到记事本,再也不用担心在对话中途打断思路。

Claude 可以预测你接下来要问什么。

完成一项任务后,有时你会看到一个灰色的后续建议出现:

Tab 键曾经用于自动补全代码。现在,它自动补全你的工作流。可以通过 /config 切换此功能。

Claude Code 是一个持久化的开发环境,根据你的工作流对其进行优化,将极大地提升效率。

不小心关掉了终端?电脑在任务中途没电了?没问题。

上下文得以保留,势头得以恢复。你的工作永远不会丢失。你还可以通过 cleanupPeriodDays 设置会话保留的时间。默认是 30 天,但你可以将其设置得更长,或者如果你不想保留会话,可以设为 0。

你的 Git 分支有名字,你的 Claude 会话也应该有。

/resume 界面会对分叉(forked)的会话进行分组,并支持快捷键:P 预览,R 重命名。

在网页上开始任务,在终端里完成它:

这会将云端会话拉取并恢复到本地。无论在家还是在路上,Claude 都在。这也适用于 iOS 和 Android 的 Claude 移动应用,以及 Claude 桌面应用。

有时你需要一份关于发生了什么的记录。

/export 将你的整个对话转储为 Markdown 格式:

非常适合用于文档编写、培训,或者向过去的自己证明:是的,你确实已经尝试过那种方法了。

这些功能旨在消除摩擦,帮助你更快地行动。

厌倦了伸手去拿鼠标来编辑提示词?

输入 /vim,解锁全功能的 Vim 风格编辑体验:

以思维的速度编辑提示词。你几十年的 Vim 肌肉记忆终于在 AI 工具中得到了回报。退出 Vim 模式也前所未有地简单,只需再次输入 /vim

Claude Code 在终端底部有一个可自定义的状态栏。

/statusline 让你配置显示的内容:

一目了然的信息意味着更少的手动检查和中断。

想知道是什么吃掉了你的上下文窗口?

输入 /context 查看究竟是什么在消耗你的 token:

当你的上下文开始变满时,这就是你找出问题所在的方法。

输入 /stats 查看你的使用模式、最爱用的模型、连续使用天数 (Streaks) 等。

橙色是新的绿色 (Orange is the new green)。

“我快达到限额了吗?”

了解你的极限,然后超越它们。

控制 Claude 如何处理问题。

通过一个关键词按需触发扩展思考:

当你在提示词中包含 ultrathink 时,Claude 会在回答之前分配最多 32k token 用于内部推理。对于复杂的架构决策或棘手的调试会话,这往往决定了你得到的是肤浅的答案还是真正的洞察

注:以前你可以指定 think, think harder, ultrathink 来分配不同数量的 token,但现在我们已将其简化为单一的思考预算。当配置了 MAX_THINKING_TOKENS 时,ultrathink 关键字将失效,配置项将优先控制所有请求的思考预算。

先驱散战争迷雾。

按两次 Shift+Tab 进入计划模式 (Plan Mode)。Claude 可以:

但在你批准计划之前,它不会编辑任何内容。三思而后行 (Think twice. Execute once.)。

我有 90% 的时间都默认处于计划模式。最新版本允许你在拒绝计划时提供反馈,使迭代更快。

直接使用 Claude API 时,你可以启用扩展思考来查看 Claude 的逐步推理:

Claude 在回答之前会在思考块 (thinking blocks) 中展示其推理过程。这对调试复杂逻辑或理解 Claude 的决策非常有用。

没有控制的力量只是混乱。这些功能让你设定边界。

/sandbox 让你一次性定义边界。Claude 在边界内自由工作。

你获得了速度,同时拥有真正的安全性。最新版本支持通配符语法,如 mcp__server__*,用于允许整个 MCP 服务器。

厌倦了 Claude Code 做什么都要请求许可?

这个标志对一切说 Yes。它的名字里带有“dangerously”(危险地)是有原因的——请明智地使用它,最好是在隔离环境或受信任的操作中。

Hooks 是在预定生命周期事件发生的 shell 命令:

通过 /hooks.claude/settings.json 进行配置。

使用 Hooks 来阻止危险命令、发送通知、记录操作或与外部系统集成。这是对概率性 AI 的确定性控制。

Claude Code 的作用不止于交互式会话。

你可以将 Claude Code 用作脚本和自动化的强大 CLI 工具:

流水线中的 AI。-p 标志以非交互方式运行 Claude 并直接输出到标准输出 (stdout)。

将任何提示词保存为可复用的命令:

创建一个 Markdown 文件,它就变成了一个斜杠命令,并且可以接受参数:

不要重复自己。你最好的提示词值得被复用。

Claude Code 可以看到并与你的浏览器交互。

Claude 现在可以直接与 Chrome 交互:

“修复 Bug 并验证它能工作”现在只需一个提示词。从 claude.ai/chrome 安装 Chrome 扩展程序。

这是 Claude Code 真正强大的地方。

圣诞老人不会自己包装每一份礼物。他有精灵。

子代理 (Subagents) 就是 Claude 的精灵。每一个子代理:

像圣诞老人一样放权。子代理可以在后台运行,而你继续工作,它们拥有访问 MCP 工具的完全权限。

技能 (Skills) 是指导 Claude 完成特定任务的指令、脚本和资源的文件夹。

它们一次打包,随处可用。而且由于 Agent Skills 现在是一个开放标准,它们可以在任何支持该标准的工具中工作。

把技能看作是按需赋予 Claude 专业知识。无论是你公司特定的部署流程、测试方法论,还是文档标准。

还记得以前分享 Claude Code 设置意味着要跨 12 个目录发送 47 个文件吗?

那个时代结束了。

插件将命令、代理、技能、Hooks 和 MCP 服务器打包在一起。通过市场发现新的工作流,市场包含搜索过滤功能,便于发现。

LSP 支持赋予了 Claude IDE 级别的代码智能:

LSP 集成提供:

Claude Code 现在像你的 IDE 一样理解你的代码。

驱动 Claude Code 的代理循环、工具和上下文管理现在作为 SDK 提供。只需不到 10 行代码即可构建像 Claude Code 一样工作的代理:

这仅仅是个开始。

当我开始这个“倒数日历”时,我以为我只是在分享技巧。但回顾这 31 天,我看到了更多的东西:一种人机协作的哲学

Claude Code 中最好的功能都是为了给你控制权。计划模式、代理技能、Hooks、沙盒边界、会话管理。这些是与 AI 协作的工具,而不是向它投降。

能从 Claude Code 中获得最大收益的开发者,不是那些输入“帮我做所有事”的人。而是那些学会了何时使用计划模式、如何构建提示词、何时调用深度思考 (Ultrathink),以及如何设置 Hooks 在错误发生前捕获它们的人。

AI 是一个杠杆。这些功能帮助你找到正确的抓手。

致 2026 年。

Claude Code Max 20x 拼车

yuesir6:

Claude Code Max 20x 拼车 加上我拼成三人车 目前寻找两位车友 已经稳定了半年多了 从 claude code 开始就开始使用 Max 20x 的周限额约为 800-900 刀 按照额度每人均分(已经部署 CRS 每个人的用量公开透明) 大概一周每人 270 刀的 sonnet 同时我还开通有一个 Pro 账户用于进一步冗余和应急 价格:人均 500 人民币(包含一个 max 20x 账号和一个 pro 账号) 欢迎需要的车友评论区或者私信我

Claude Code 最佳实践经验分享

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

CLAUDE.md 是代码库的根目录中最重要的文件,它是代理理解你项目运作方式的核心规则。如何维护它,取决于使用场景。

正确示例:
“对于复杂的…用法,或当您遇到 FooBarError 错误时,请参阅 path/to/docs.md 以获取高级故障排除步骤。”

你需要向代理建议阅读这份文档的理由和时机。

正确示例:
不要使用 --foo-bar请优先选择 --new-baz。”

建议在编码会话中至少运行一次 /context,以了解你的 200k 令牌上下文窗口是如何被消耗的。

在一个大型单体仓库中,一次新的会话基本消耗可能就高达约 20k 令牌(10%),剩下的 180k 会很快被填满。

你可以将上下文窗口想象成磁盘空间,它会随着你的工作而填满。几分钟或几小时后,你需要清理(紫色部分)来腾出空间。

小提醒:
不要信任自动压缩。
使用 /clear 进行简单任务,并利用存储方法为复杂任务创建持久的外部记录。

我将斜杠命令视为常用提示词的快捷方式,仅此而已。我的设置非常精简:

小提醒:
如果你发现自己有一长串复杂的自定义斜杠命令,那你可能过度思考了。
AI 代理的魅力在于自然语言交互,一旦你开始强迫自己和团队去记一堆指令,就违背了初衷。
将斜杠命令用作简单的个人快捷方式,而不是用来替代构建更直观的 CLAUDE.md 和更完善的工具。

子代理听起来很美:把特定任务(比如跑测试)外包给专门的代理,只返回最终结果,从而保持主上下文的清洁。

然而,在实践中,自定义子代理会带来两个问题:

我更喜欢使用 Claude 内置的 Task(...) 功能来生成通用代理的副本。

这既能享受到子代理节省上下文的好处,又避免了其缺点。代理能够动态地管理自己的任务编排,而不是遵循固定的模式。

我经常使用 claude --resumeclaude --continue 来重启出问题的终端或快速恢复旧会话。

我甚至会恢复几天前的会话,只为让代理总结它是如何解决某个特定错误的,然后用这些信息来优化改进 CLAUDE.md 和内部工具。

更进一步,Claude Code 将所有会话记录存储在 ~/.claude/projects/ 中。可以使用脚本定期对这些原始日志进行元分析,寻找常见的异常、权限请求和错误模式,以帮助优化改进给 AI 的上下文。

钩子 (Hooks) 是确定性的“必须做”规则,与 CLAUDE.md 中“应该做”的建议形成互补。在复杂的任务代码库里,这东西至关重要。

小提醒:
不要在“写入时”(比如 EditWrite 操作)阻止。
打断它的思考过程会让它出现不明所以的判断。更好的方式是让它完成整个工作,然后在最后提交时检查结果。

对于任何大型功能变更,使用规划模式至关重要。

技能(Skills)可能是比 MCP 更好用。

智能体模型三个阶段:

Agent Skills
正是“脚本化”阶段的正式产品化。如果你像我一样,倾向于使用 CLI 而非 MCP,那么你其实一直在享受 Skills 带来的好处。
SKILL.md 文件就是一个更规范、可共享的方式来告诉 AI 它能用哪些脚本和 CLI。

Skills 的出现并不意味着 MCP 已死,而是使其更加聚焦。

与其成为一个包含几十个工具、镜像 REST API 的臃肿接口,MCP 应该是一个简单、安全、提供少数强大高阶工具的网关。比如:

MCP 的工作会是管理认证、网络和安全边界,然后让开。为代理提供入口点,代理则利用其脚本化能力和上下文来完成实际工作。

Claude Code 不仅仅是一个交互式 CLI,它还是一个强大的 SDK,可用于构建全新的通用代理框架。

Claude Code GitHub Action 是最被低估的功能之一。概念很简单:在 GHA 中运行 Claude Code。

它比 Cursor 的后台代理 或 Codex 的托管 Web UI 更具可定制性。你完全控制容器和环境,拥有更强的数据访问权限、沙盒能力和审计控制。

我们可以用它来打造智能 PR 的工具:从 Slack、Jira 或者监控警报触发一个 GHA,让 AI 自动修复 bug 或添加功能,然后提交一个测试通过的 PR。

GHA 的日志就是 AI 的完整工作记录。我们可以定期分析这些日志,以发现常见的错误和不一致的工程实践,然后优化我们的 CLAUDE.md 和 CLI,形成一个数据驱动的飞轮

最后,分享几个常用的 settings.json 配置:

V 友们专属 🎉 cc && codex 抽 月卡! 10 张~

klykq111:

bast64 : aHR0cHM6Ly9jbGF1ZGVjb2RlOC5jb20=

小月卡 大概 5.7×10⁹ token

[奖品 1]: 小月卡 × 10 张
[奖品 2]: 新用户 3k 积分 1 约等于 3.8 约等于 114M token 

参与方式

跟帖 UID

帖在 活动在 帖不在 我能看到 活动在 帖不在 group 发密语 "vv" 活动在 帖不在 发 v 友回复截图/争取 活动子啊

双重福利

新用户 注册 3000 , group 发密语 v +2000 (对看完的 v 友福利)

确保稳定 不玩虚的

Anthropic 官方发布:Claude 4.5 提示词工程最佳实践指南

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

针对 Claude 模型的专业提示词工程技术,涵盖 Sonnet 4.5, Sonnet 4, Haiku 4.5, Opus 4.1, 和 Opus 4 等型号,以助你在各类应用中获得卓越性能。相较于前代 Claude 模型,新一代模型经过专门训练,能够更精确地遵循指令。

Anthropic 于周三发布了 Claude Haiku 4.5,这是一款紧凑型 AI 模型,其编码性能与 5 月份的 Sonnet 4 相当,运行速度是其两倍多,成本约为三分之一。

该模型输入令牌每百万美元 1 美元,输出令牌每百万美元 5 美元。并向所有用户免费提供 Haiku 4.5。

https://docs.claude.com/en/docs/build-with-claude/prompt-engineering/claude-4-best-practices

Claude 4 模型对清晰、明确的指令响应极佳。具体说明你期望的输出,有助于显著提升结果质量。
如果用户期望获得前代模型中那种“超越期待”的主动发挥行为,在 Claude 4 中可能需要更明确地提出此类要求。

示例:创建数据分析页面

低效案例

高效案例

提供指令背后的上下文动机,例如向 Claude 解释为何某个行为至关重要,能帮助 Claude 4 模型更好地理解你的目标,并给出更具针对性的回应。Claude 足够智能,能够从你的解释中进行泛化。

示例:格式化偏好

低效案例

高效案例

作为其精确指令遵循能力的一部分,Claude 4 模型会密切关注你提供的细节和示例。

请确保你的示例与你希望鼓励的行为保持一致,并尽量减少你希望避免的行为。

Claude Sonnet 4.5 在需要长期推理的任务中表现卓越,具备出色的状态追踪能力。它通过专注于增量进展(一次稳步推进几件事,而非一次性尝试所有事)来在扩展会话中保持方向感。

此能力在跨越多个上下文窗口或任务迭代时尤为突出,Claude 可以在一个复杂任务上工作,保存其状态,然后在新的上下文窗口中继续。

Claude Sonnet 4.5 具备上下文感知能力,使其能在整个对话中追踪剩余的上下文窗口(即“token 预算”)。这使得 Claude 能够通过了解其可用空间来更有效地执行任务和管理上下文。

如果你在代理框架(Agent Harness)中使用 Claude,且该框架会压缩上下文或允许将上下文保存到外部文件(如 Claude Code),建议你将此信息添加到提示词中,以便 Claude 采取相应行动。否则,Claude 在接近上下文限制时,有时会自然地尝试结束工作。

示例提示词:

对于跨越多个上下文窗口的复杂任务,请遵循以下策略:

示例:状态追踪文件

与前代模型相比,Claude Sonnet 4.5 的沟通风格更为简洁自然

这种沟通风格能准确反映已完成的工作,而无不必要的赘述。

Claude Sonnet 4.5 倾向于高效,可能会在调用工具后跳过口头总结,直接进入下一步行动。虽然这创造了流畅的工作流,但你可能希望更多地了解其推理过程。

Claude Sonnet 4.5 经过训练,能精确遵循指令,因此明确指示其使用特定工具会带来更好的效果。如果你说“你能建议一些修改吗?”,它有时只会提供建议而不是实施它们,即使你的意图是让它直接修改。

低效案例 (Claude 只会建议)

高效案例 (Claude 会直接修改)

以下几种方法在 Claude 4 模型中被证明对引导输出格式特别有效:

Claude Sonnet 4.5 展示了卓越的代理搜索能力,能有效地从多个来源查找和综合信息。为获得最佳研究结果:

Claude Sonnet 4.5 在原生子代理编排能力上有了显著提升。模型能够识别出哪些任务可以从委托给专门的子代理中受益,并主动这样做,无需明确指示。

若希望 Claude 在你的应用中正确地识别自己或使用特定的 API 字符串:

Claude 4 提供的“思考”能力,对于需要在工具使用后进行反思或进行复杂多步推理的任务特别有帮助。
你可以引导其初始思考或交错思考以获得更好的结果。

Claude Sonnet 4.5 擅长创作演示文稿、动画和视觉文档,其表现与 Claude Opus 4.1 相当甚至更优,具有令人印象深刻的创造力和更强的指令遵循能力。在大多数情况下,该模型能一次性产出精良、可用的成果。

Claude 4 模型擅长并行执行工具,其中 Sonnet 4.5 在同时启动多个操作方面尤为积极。模型会:

这种行为是可引导的。虽然模型在没有提示的情况下并行调用工具的成功率很高,但你可以通过提示将其提升至接近 100% 或调整其积极程度。

Claude 4 模型有时会为测试和迭代目的创建新文件,尤其是在处理代码时。这种方法允许 Claude 将文件(特别是 python 脚本)用作“临时草稿”,然后再保存最终输出。使用临时文件可以改善代理编码用例的结果。

Claude 4 模型能生成高质量、视觉独特且功能齐全的用户界面。然而,若无引导,前端代码可能默认为缺乏视觉趣味的通用模式。为获得卓越的 UI 结果:

Claude 4 模型有时可能过分专注于让测试通过,而牺牲了更通用的解决方案,或者可能使用辅助脚本等变通方法进行复杂重构,而不是直接使用标准工具。

为防止此行为并确保解决方案的健壮性和通用性:

Claude 4 模型更不易产生幻觉,能基于代码给出更准确、有根据、智能的答案。为进一步鼓励此行为并最小化幻觉:

Anthropic 官方团队分享如何利用 Claude Code

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Anthropic 的内部团队正在利用 Claude Code 彻底改变他们的工作流程。无论是开发者还是非技术人员,都能借助它攻克复杂项目、实现任务自动化,并弥补那些曾经限制生产力的技能鸿沟。

为了深入了解,我们采访了以下团队:

通过这些访谈,我们收集了不同部门使用 Code 的方式、它对工作带来的影响,以及为其他考虑采用该的组织提供的宝贵建议。

数据基础设施团队负责为公司内所有团队整理业务数据。他们使用 Code 来自动化常规的数据工程任务、解决复杂的基础设施问题,并为技术和非技术团队成员创建文档化工作流,以便他们能够独立访问和操作数据。

利用截图调试 Kubernetes

当 Kubernetes 集群出现故障,无法调度新的 pod 时,团队使用 Code 来诊断问题。他们将仪表盘的截图喂给 Claude Code,后者引导他们逐个菜单地浏览 Cloud 的用户界面,直到找到一个警告,指出 pod 的 IP 地址已耗尽。随后,Claude Code 提供了创建新 IP 池并将其添加到集群的确切命令,整个过程无需网络专家的介入。

为财务团队打造纯文本工作流

工程师向财务团队成员展示了如何编写描述其数据工作流程的纯文本文件,然后将这些文件加载到 Claude Code 中,以实现完全自动化的执行。没有任何编程经验的员工只需描述“查询这个仪表盘,获取信息,运行这些查询,生成 Excel 输出”等步骤,Claude Code 就能执行整个工作流,甚至会主动询问日期等必要输入。

为新员工提供代码库导览

当新的数据科学家加入团队时,他们会被指导使用 Claude Code 来熟悉庞大的代码库。Claude Code 会阅读他们的 Claude.md 文件(文档),识别特定任务所需的相关文件,解释数据管道的依赖关系,并帮助新人理解哪些上游数据源为仪表盘提供数据。这取代了传统的数据目录和发现

会话结束时自动更新文档

在每项任务结束时,团队会要求 Claude Code 总结已完成的工作并提出改进建议。这创建了一个持续改进的循环:Claude Code 根据实际使用情况帮助优化 Claude.md 文档和工作流指令,使后续的迭代更加高效。

跨多个实例并行管理任务

在处理耗时较长的数据任务时,团队会为不同项目在不同的代码仓库中打开多个 Claude Code 实例。每个实例都能保持完整的上下文,因此即使在数小时或数天后切换回来,Claude Code 也能准确地记住他们当时正在做什么以及任务进行到哪里,从而实现了无上下文丢失的真正并行工作流管理。

无需专业知识即可解决基础设施问题

解决了通常需要系统或网络团队成员介入的 Kubernetes 集群问题,利用 Claude Code 诊断问题并提供精确的修复方案。

加速新员工上手

新的数据分析师和团队成员无需大量指导,就能迅速理解复杂的系统并做出有意义的贡献。

增强支持工作流

Claude Code 能够处理比人类手动审查大得多的数据量,并识别异常情况(例如监控 200 个仪表盘),这是人力无法完成的。

实现跨团队自助服务

没有任何编程经验的财务团队现在可以独立执行复杂的数据工作流。

编写详细的 Claude.md 文件

团队表示,你在 Claude.md 文件中将工作流程、和期望文档化得越好,Claude Code 的表现就越出色。当你拥有现成的设计模式时,这使得 Claude Code 在设置新数据管道等常规任务上表现卓越。

处理敏感数据时使用 服务器而非命令行界面

他们建议使用 服务器而不是 BigQuery 命令行界面,以便更好地控制 Claude Code 的访问权限,尤其是在处理需要日志记录或存在潜在隐私问题的敏感数据时。

分享团队使用心得

团队举办了分享会,成员们互相演示他们使用 Claude Code 的工作流程。这有助于传播最佳实践,并展示了他们自己可能没有发现的各种工具使用方法。

Claude Code 产品开发团队使用自家的产品来为 Claude Code 构建更新,扩展产品的企业级功能和 AI 智能体循环功能。

通过“自动接受模式”快速构建原型

工程师们通过启用“自动接受模式”(Shift+Tab)并设置自主循环,让 Claude 编写代码、运行测试并持续迭代,从而实现快速原型开发。他们将自己不熟悉的抽象问题交给 Claude,让它自主工作,然后在接手进行最后润色前,审查已完成 80% 的解决方案。团队建议从一个干净的 git 状态开始,并定期提交检查点,这样如果 Claude 跑偏了,他们可以轻松回滚任何不正确的更改。

同步编码开发核心功能

对于涉及应用程序业务逻辑的更关键功能,团队会与 Claude Code 同步工作,提供带有具体实现指令的详细提示。他们实时监控过程,确保代码质量、风格指南合规性和正确的架构,同时让 Claude 处理重复的编码工作。

构建 Vim 模式

他们最成功的异步项目之一是为 Claude Code 实现 Vim 快捷键绑定。他们要求 Claude 构建整个功能,最终实现中大约 70% 的代码来自 Claude 的自主工作,只需几次迭代即可完成。

生成测试和修复 bug

在实现功能后,团队使用 Claude Code 编写全面的测试,并处理在代码审查中发现的简单 bug。他们还使用 GitHub Actions 让 Claude 自动处理像格式问题或函数重命名这样的 Pull Request 评论。

代码库探索

在处理不熟悉的代码库(如 monorepo 或 API 端)时,团队使用 Claude Code 来快速理解系统的工作方式。他们不再等待 Slack 上的回复,而是直接向 Claude 提问以获取解释和代码参考,从而大大节省了上下文切换的时间。

更快的功能实现

Claude Code 成功实现了像 Vim 模式这样的复杂功能,其中 70% 的代码由 Claude 自主编写。

提升开发速度

该工具可以快速构建功能原型并迭代创意,而不会陷入实现细节的泥潭。

通过自动化测试提高代码质量

Claude 生成全面的测试并处理常规的 bug 修复,在减少手动工作的同时保持了高标准。

更好的代码库探索

团队成员可以快速熟悉 monorepo 中不熟悉的部分,而无需等待同事的回复。

创建自给自足的循环

设置 Claude 通过自动运行构建、测试和代码检查来自己的工作。这使得 Claude 可以更长时间地自主工作并发现自己的错误,尤其是在你要求 Claude 在编写代码之前先生成测试时效果更佳。

培养任务分类的直觉

学会区分哪些任务适合异步处理(外围功能、原型设计),哪些需要同步监督(核心业务逻辑、关键修复)。产品边缘的抽象任务可以用“自动接受模式”处理,而核心功能则需要更密切的监督。

编写清晰、详细的提示

当组件具有相似的名称或功能时,你的请求要极其具体。提示越好、越详细,你就越能信任 Claude 独立工作,而不会对代码库的错误部分进行意外更改。

安全工程团队专注于保障软件开发生命周期、供应链安全和开发环境安全。他们广泛使用 Claude Code 来编写和调试代码。

复杂基础设施调试

在处理事故时,他们将堆栈跟踪和文档喂给 Claude Code,并要求它在代码库中追踪控制流。这大大缩短了生产问题的解决时间,使他们能够在大约 5 分钟内理解问题,而手动扫描代码通常需要 10-15 分钟。

Terraform 代码审查与分析

对于需要安全审批的基础设施变更,团队将 Terraform 计划复制到 Claude Code 中,并提问“这会做什么?我会后悔吗?”。这创建了更紧密的反馈循环,使安全团队能够更快地审查和批准基础设施变更,减少了开发过程中的瓶颈。

文档综合与操作手册

Claude Code 吸收多个文档来源,创建 Markdown 格式的操作手册、故障排除指南和概述。团队将这些精简的文档作为调试实际问题的上下文,创建了比在完整知识库中搜索更高效的工作流程。

测试驱动开发工作流

他们摒弃了以往的“设计文档 → 粗糙代码 → 重构 → 放弃测试”模式,现在他们要求 Claude Code 提供伪代码,引导其进行测试驱动开发,并定期检查以在卡住时进行引导,从而产出更可靠、更易于测试的代码。

上下文切换与项目上手

在为现有项目(如用于安全审批工作流的 Web 应用“dependant”)做贡献时,他们使用 Claude Code 来编写、审查和执行存储在代码库中的 Markdown 格式的规范,从而能够在几天内做出有意义的贡献,而不是花费数周时间。

缩短事故解决时间

通常需要 10-15 分钟手动代码扫描的基础设施调试现在大约需要 5 分钟。

改进安全审查周期

需要安全审批的 Terraform 代码审查速度大大加快,消除了开发人员在等待安全团队批准时的阻塞。

增强跨职能贡献

团队成员可以在几天内为项目做出有意义的贡献,而不是花费数周时间来建立上下文。

更好的文档工作流程

从多个来源综合而成的故障排除指南和操作手册创建了更高效的调试过程。

广泛使用自定义斜杠命令

安全工程团队使用了整个 monorepo 中 50% 的自定义斜杠命令实现。这些自定义命令简化了特定的工作流程,并加快了重复性任务的速度。

Claude 先说

他们不再通过提出有针对性的问题来生成代码片段,而是告诉 Claude Code “边做边提交你的工作”,让它在定期检查的情况下自主工作,从而得到更全面的解决方案。

利用它进行文档处理

除了编码,Claude Code 还擅长综合文档和创建结构化输出。团队提供写作样本和格式偏好,以获得可立即在 Slack、 Docs 和其他工具中使用的文档,避免界面切换带来的疲劳。

推理团队负责管理在 Claude 读取你的提示并生成回复时存储信息的内存系统。团队成员,尤其是那些刚接触机器学习的人,可以广泛使用 Claude Code 来弥补知识差距并加速他们的工作。

代码库理解与新员工上手

在加入一个复杂的代码库时,团队严重依赖 Claude Code 来快速理解其架构。他们不再手动搜索 GitHub 仓库,而是询问 Claude 哪些文件调用了特定的功能,几秒钟内就能得到结果,而不是向同事求助或手动搜索。

包含边界情况的单元测试生成

在编写完核心功能后,他们要求 Claude 为其编写全面的单元测试。Claude 会自动包含被遗漏的边界情况,在几分钟内完成通常需要大量时间和精力的工作,就像一个他们可以审查的编码助手。

机器学习概念解释

没有机器学习背景的团队成员依赖 Claude 来解释模型特定的函数和设置。过去需要一个小时谷歌搜索和阅读文档的工作,现在只需 10-20 分钟,研究时间减少了 80%。

跨语言代码翻译

在用不同编程语言测试功能时,团队向 Claude 解释他们想要测试的内容,Claude 就会用所需的语言(如 Rust)编写逻辑,从而无需为了测试目的而学习新语言。

命令记忆与 Kubernetes 管理

他们不再需要记住复杂的 Kubernetes 命令,而是向 Claude 询问正确的语法,比如“如何获取所有 pod 或部署状态”,然后就能收到他们基础设施工作所需的确切命令。

加速机器学习概念学习

有了 Claude Code,他们的研究时间减少了 80%,历史上需要一个小时谷歌搜索的工作现在只需 10-20 分钟。

更快的代码库导航

该工具可以帮助团队成员在几秒钟内找到相关文件并理解系统架构,而不是依赖同事在几天内分享知识。

全面的测试覆盖

Claude 自动生成包含边界情况的单元测试,在保持代码质量的同时减轻了精神负担。

消除语言障碍

团队可以在不熟悉 Rust 等语言的情况下实现功能,而无需学习它。

首先测试知识库功能

尝试问各种问题,看看 Claude 能否比谷歌搜索更快地回答。如果它更快、更准确,那么它就是你工作流程中一个宝贵的时间节省工具。

从代码生成开始

Claude 具体的指令,让它编写逻辑,然后其正确性。这有助于在将其用于更复杂的任务之前,建立对该工具能力的信任。

用它来编写测试

Claude 编写单元测试可以极大地减轻日常开发工作的压力。利用这个功能来保持代码质量,而无需花费时间手动思考所有测试用例。

数据科学和机器学习工程团队需要复杂的 可视化工具来理解模型性能,但构建这些工具通常需要不熟悉的语言和框架的专业知识。Claude Code 使这些团队能够构建生产质量的分析仪表盘,而无需成为全栈开发人员。

构建 JavaScript/TypeScript 仪表盘应用

尽管对“JavaScript 和 TypeScript 知之甚少”,团队仍使用 Claude Code 构建了完整的 React 应用,用于可视化强化学习(RL)模型的性能和训练数据。他们让 Claude 控制从头开始编写完整的应用程序,比如一个 5000 行的 TypeScript 应用,而无需自己理解代码。这一点至关重要,因为可视化应用相对上下文较少,不需要理解整个 monorepo,从而可以快速构建原型工具,以便在训练和评估期间了解模型性能。

处理重复的重构任务

当遇到合并冲突或半复杂的文件重构时——这些任务对于编辑器宏来说太复杂,但又不足以投入大量开发精力——他们就像玩“老虎机”一样使用 Claude Code:提交当前状态,让 Claude 自主工作 30 分钟,然后要么接受解决方案,要么在不成功时重新开始。

创建持久性分析工具而非一次性笔记本

团队现在不再构建用完即弃的 Jupyter 笔记本,而是让 Claude 构建可重复使用的 React 仪表盘,这些仪表盘可以在未来的模型评估中重复使用。这很重要,因为理解 Claude 的性能是“团队最重要的事情之一”——他们需要了解模型在训练和评估期间的表现,而这“实际上并非易事,简单的工具无法从观察一个数字上升中获得太多信号”。

零依赖任务委托

对于完全不熟悉的代码库或语言中的任务,他们将整个实现委托给 Claude Code,利用其从 monorepo 中收集上下文并执行任务的能力,而无需他们参与实际的编码过程。这使得他们在自己专业领域之外也能保持生产力,而不是花时间学习新技术。

节省了 2-4 倍的时间

过去虽然可以手动完成但很繁琐的常规重构任务现在完成得更快了。

用不熟悉的语言构建了复杂的应用

尽管 JavaScript/TypeScript 经验极少,却创建了 5000 行的 TypeScript 应用

从一次性工具转向持久性工具

不再使用一次性的 Jupyter 笔记本,而是构建可复用的 React 仪表盘进行模型分析。

直接获得模型改进的洞见

第一手使用 Claude Code 的经验为未来模型迭代中更好的内存系统和用户体验改进提供了信息。

实现了可视化驱动的决策

通过先进的数据可视化工具,更好地理解了 Claude 在训练和评估期间的性能。

把它当作一台老虎机

在让 Claude 工作之前保存你的状态,让它运行 30 分钟,然后要么接受结果,要么重新开始,而不是试图费力去修正。重新开始的成功率通常比试图修复 Claude 的错误要高。

必要时为了简化而打断它

在监督过程中,不要犹豫,停下来问 Claude “你为什么这么做?试试更简单的方法。” 模型默认倾向于更复杂的解决方案,但对于简化方法的请求反应良好。

产品工程团队致力于开发如 PDF 支持、引用和网页搜索等功能,这些功能将额外的知识引入 Claude 的上下文窗口。在大型、复杂的代码库中工作意味着不断遇到不熟悉的代码部分,花费大量时间来理解特定任务需要检查哪些文件,并在进行更改前建立上下文。Claude Code 通过充当向导,帮助他们理解系统架构、识别相关文件并解释复杂的交互,从而改善了这种体验。

第一步工作流规划

团队将 Claude Code 作为任何任务的“第一站”,要求它确定在进行 bug 修复、功能开发或分析时需要检查哪些文件。这取代了传统上在开始工作前手动浏览代码库和收集上下文的耗时过程。

跨代码库独立调试

团队现在有信心处理不熟悉代码库部分的 bug,而无需向他人求助。他们可以问 Claude “你觉得你能修复这个 bug 吗?我看到的行为是这样的”,并经常能立即取得进展,这在以前由于所需的时间投入是不可行的。

通过内部测试进行模型迭代测试

Claude Code 自动使用最新的研究模型快照,使其成为他们体验模型变化的主要方式。这为团队在开发周期中提供了关于模型行为变化的直接反馈,这是他们在之前的发布中从未体验过的。

消除上下文切换的开销

他们不再需要复制粘贴代码片段并将文件拖入 Claude.ai,同时还要详细解释问题,现在可以直接在 Claude Code 中提问,无需额外的上下文收集,从而显著减少了心智负担。

增强了处理不熟悉领域的信心

团队成员可以独立调试 bug 并调查不熟悉代码库中的事故。

在上下文收集中节省了大量时间

Claude Code 消除了复制粘贴代码片段和将文件拖入 Claude.ai 的开销,减轻了心智上的上下文切换负担。

加速轮岗员工上手速度

轮岗到新团队的工程师可以快速熟悉不熟悉的代码库并做出有意义的贡献,而无需与同事进行大量咨询。

提升开发者幸福感

团队报告称,随着日常工作流程中的摩擦减少,他们感到更快乐、更高效。

将其视为迭代伙伴,而非一次性解决方案

不要指望 Claude 能立即解决问题,而是把它当作一个与你一起迭代的合作者。这种方法比试图在第一次尝试中就获得完美的解决方案效果更好。

用它来建立在不熟悉领域的信心

不要犹豫去处理你专业领域之外的 bug 或调查事故。Claude Code 使得在通常需要大量上下文建立的领域独立工作成为可能。

从最少的信息开始

从你需要的最低限度的信息开始,让 Claude 引导你完成整个过程,而不是一开始就提供大量的解释。

增长营销团队专注于在付费搜索、付费社交、移动应用商店、电子邮件营销和 SEO 等领域建立效果营销渠道。作为一个只有一人的非技术团队,他们使用 Claude Code 来自动化重复性的营销任务,并创建通常需要大量工程资源的 AI 智能体工作流。

自动化 Ads 广告创意生成

团队构建了一个 AI 智能体工作流,该工作流可以处理包含数百个现有广告及其效果指标的 CSV 文件,识别表现不佳的广告进行迭代,并生成符合严格字符限制(标题 30 个字符,描述 90 个字符)的新变体。通过使用两个专门的子智能体(一个用于标题,一个用于描述),该系统可以在几分钟内生成数百个新广告,而无需在多个广告系列中手动创建。这使他们能够大规模地进行测试和迭代,这是以前需要花费大量时间才能实现的。

用于批量创意制作的 Figma 插件

他们没有手动复制和编辑用于付费社交广告的静态图片,而是开发了一个 Figma 插件,该插件可以识别框架并通过替换标题和描述来以编程方式生成多达 100 个广告变体,将需要数小时复制粘贴的工作缩短为每批半秒。这使得创意产出提高了 10 倍,让团队能够在关键社交渠道上测试数量庞大的创意变体。

用于广告活动分析的 Meta Ads 服务器

他们创建了一个与 Meta Ads API 集成的 MCP 服务器,以便直接在 Claude Desktop 应用内查询广告活动表现、支出数据和广告效果,从而无需在不同平台之间切换进行性能分析,节省了宝贵的时间,因为每一分效率的提升都意味着更好的投资回报率。

利用内存系统进行高级提示工程

他们实现了一个基本的内存系统,该系统记录了广告迭代中的假设和实验,使得系统在生成新变体时能够将之前的测试结果纳入上下文,创建了一个自我改进的测试框架。这使得系统性的实验成为可能,而这些实验是无法手动追踪的。

在重复性任务上节省了大量时间

Claude Code 将广告文案创作时间从 2 小时缩短到 15 分钟,让团队能够专注于更具战略性的工作。

创意产出增加 10 倍

通过自动广告生成和与 Figma 集成以获取最新的视觉设计元素,团队现在可以在各个渠道上测试数量庞大的广告变体。

像一个更大的团队一样运作

团队能够处理传统上需要专门工程资源的大型开发任务。

战略重点转移

团队可以将更多时间用于整体战略和构建 AI 智能体自动化,而不是手动执行。

识别支持 API 的重复性任务

寻找涉及使用带有 API 的工具(如广告平台、设计工具、分析平台)进行重复操作的工作流程。这些是自动化的主要候选对象,也是 Claude Code 提供最大价值的地方。

将复杂工作流分解为专门的子智能体

不要试图在一个提示或工作流中处理所有事情,而是为特定任务创建单独的智能体(比如一个标题智能体和一个描述智能体)。这使得调试更容易,并在处理复杂需求时提高输出质量。

在编码前进行充分的头脑风暴和提示规划

在前期花大量时间使用 Claude.ai 来构思整个工作流,然后让 Claude.ai 为 Claude Code 创建一个全面的提示和代码结构以供参考。此外,要逐步进行,而不是要求一次性解决问题,以避免 Claude 因任务过于复杂而不堪重负。

产品设计团队支持 Claude Code、Claude.ai 和 Anthropic API,专注于构建 AI 产品。即使是非开发人员也可以使用 Claude Code 来弥合设计与工程之间的传统鸿沟,使他们能够直接实现自己的设计愿景,而无需与工程师进行大量的反复迭代。

前端润色和状态管理变更

团队不再为视觉调整(字体、颜色、间距)创建大量的设计文档并与工程师进行多轮反馈,而是直接使用 Claude Code 实现这些变更。工程师们注意到,设计师们正在进行“通常不会看到设计师做的大型状态管理变更”,这使他们能够实现他们所设想的精确质量。

GitHub Actions 自动化工单处理

通过使用 Claude Code 的 GitHub 集成,他们只需提交描述所需更改的问题/工单,Claude 就会自动提出代码解决方案,而无需打开 Claude Code,从而为他们积压的润色任务创建了一个无缝的 bug 修复和功能优化工作流。

快速交互式原型制作

通过将模型图粘贴到 Claude Code 中,他们可以生成功能齐全的原型,工程师可以立即理解并在此基础上进行迭代,这取代了传统的静态 Figma 设计,后者需要大量的解释和转换才能成为可用代码。

发现边界情况和理解系统架构

团队使用 Claude Code 来规划错误状态、逻辑流程和不同的系统状态,使他们能够在设计阶段就识别出边界情况,而不是在开发后期才发现,从而从根本上提高了他们初始设计的质量。

复杂的文案更改和法律合规

对于像在整个代码库中移除“研究预览”信息这样的任务,他们使用 Claude Code 查找所有实例,审查周围的文案,与法务部门实时协调更改,并实施更新。这个过程只用了两次 30 分钟的电话会议,而不是一周的反复协调。

核心工作流程的变革

Claude Code 成为主要的设计工具,80% 的时间里 Figma 和 Claude Code 都是打开的。

执行速度提高 2-3 倍

以前需要与工程师进行大量反复沟通的视觉和状态管理变更,现在可以直接实现。

周期时间从数周缩短到数小时

Google Analytics 发布信息这样需要一周协调的复杂项目,现在只需两次 30 分钟的电话会议就能完成。

两种截然不同的用户体验

开发者获得了“增强型工作流”(执行更快),而非技术用户则获得了“天哪,我竟然也成了开发者”的工作流。

改善了设计与工程的协作

Claude Code 促进了更好的沟通和更快的问题解决,因为设计师理解了系统的限制和可能性,而无需与工程师紧密合作。

从工程师那里获得适当的设置帮助

让工程团队的同事帮助进行初始的代码库设置和权限配置——对于非开发人员来说,技术上的上手过程具有挑战性,但一旦配置完成,它将彻底改变日常工作流程。

使用自定义内存文件来引导 Claude 的行为

创建具体的指令,告诉 Claude 你是一个几乎没有编码经验的设计师,需要详细的解释和更小、更增量的更改。这极大地提高了 Claude 回应的质量,使其不再那么令人生畏。

利用粘贴图片进行原型制作

使用 Command+V 将截图直接粘贴到 Claude Code 中。它在读取设计并生成功能性代码方面表现出色,使其在将静态模型图转化为工程师可以立即理解和构建的交互式原型方面非常有价值。

强化学习(RL)工程团队专注于 RL 中的高效采样和跨集群的权重迁移。他们主要使用 Claude Code 来编写中小型功能、进行调试和理解复杂的代码库,并采用一种包含频繁检查点和回滚的迭代方法。

有监督的自主功能开发

团队让 Claude Code 在提供监督的情况下编写大部分中小型功能的代码,例如为权重迁移组件实现认证机制。他们以交互方式工作,允许 Claude 主导,但在其偏离轨道时进行引导。

测试生成和代码审查

在自己实现更改后,团队会要求 Claude Code 添加测试或审查他们的代码。这种自动化的测试工作流程在常规但重要的质量保证任务上节省了大量时间。

调试和错误调查

他们使用 Claude Code 来调试错误,结果好坏参半。有时它能立即识别问题并添加相关测试,而其他时候则难以理解问题,但总的来说,在有效时仍能提供价值。

代码库理解和调用栈分析

他们工作流程中最大的变化之一是使用 Claude Code 来快速获取相关组件和调用栈的摘要,取代了手动阅读代码或生成大量调试输出。

Kubernetes 操作指导

他们经常向 Claude Code 询问 Kubernetes 操作,这些操作否则需要大量谷歌搜索或询问基础设施工程的同事,从而能立即获得配置和部署问题的答案。

实验性方法的实现

他们现在使用一种“尝试并回滚”的方法,频繁提交检查点,以便他们可以测试 Claude 的自主实现尝试,并在需要时进行回滚,从而实现了更具实验性的开发。

文档编写加速

Claude Code 自动添加有用的注释,节省了大量的文档编写时间,尽管他们也指出,它有时会在奇怪的地方添加注释或使用有问题的代码组织方式。

有限制的提速

虽然 Claude Code 可以在他们“相对较少的时间”投入下实现中小型 PR,但他们承认,它在第一次尝试中成功的几率大约只有三分之一,需要额外的指导或手动干预。

为特定模式自定义你的 Claude.md 文件

在你的 Claude.md 文件中添加指令,以防止 Claude 重复犯工具调用错误,例如告诉它“运行 pytest 而不是 run,不要不必要地 cd – 只需使用正确的路径”。这显著提高了一致性。

使用检查点密集的工作流

随着 Claude 进行更改,定期提交你的工作,这样当实验不成功时,你可以轻松回滚。这使得在没有风险的情况下可以采用更具实验性的开发方法。

先尝试一次性解决,然后协作

Claude 一个快速的提示,让它先尝试完整的实现。如果成功了(大约三分之一的时间),你就节省了大量时间。如果没有,再切换到更具协作性、引导性的方法。

法务团队通过实验和了解 Anthropic 产品的好奇心,发现了 Claude Code 的潜力。此外,一位团队成员有一个个人用例,即为家人创建无障碍工具和为工作创建原型,这展示了该技术对非开发人员的强大能力。

为家人定制的无障碍解决方案

团队成员为因医疗诊断而有语言障碍的家人构建了沟通助手。在短短一小时内,一个人使用原生的语音转文本功能创建了一个预测性文本应用,该应用可以建议回复并使用语音库将其读出,解决了言语治疗师推荐的现有无障碍工具的不足之处。

法务部门工作流自动化

团队创建了“电话树”系统的原型,帮助团队成员联系到 Anthropic 合适的律师,展示了法务部门如何在没有传统开发资源的情况下为常见任务构建自定义工具。

团队协调工具

经理们构建了 G Suite 应用程序,可以自动化每周的团队更新,并跟踪各产品的法律审查状态,让律师只需通过简单的按钮点击就能快速标记需要审查的项目,而无需管理电子表格。

用于解决方案的快速原型制作

他们使用 Claude Code 快速构建功能性原型,然后展示给领域专家(例如向加州大学旧金山分校的专家展示无障碍工具),以验证想法并在投入更多时间之前识别现有解决方案。

Claude.ai 中规划,在 Claude Code 中构建

他们使用两步流程:首先在 Claude.ai 中进行头脑风暴和规划,然后转到 Claude Code 进行实现,要求它放慢速度,逐步工作,而不是一次性输出所有内容。

视觉优先的方法

他们经常使用截图向 Claude Code 展示他们想要的界面样子,然后根据视觉反馈进行迭代,而不是用文本描述功能。

原型驱动的创新

他们强调克服分享“傻瓜式”或“玩具级”原型的恐惧,因为这些演示能激励他人看到他们未曾考虑过的可能性。

MCP 集成担忧

产品律师使用 Claude Code 立即识别深度 MCP 集成的安全隐患,并指出随着 AI 工具访问更多敏感系统,保守的安全策略将成为障碍。

合规工具的优先级

他们主张随着 AI 能力的扩展,应迅速构建合规工具,认识到创新与风险管理之间的平衡。

首先在 Claude.ai 中进行详尽规划

在转到 Claude Code 之前,使用 Claude 的对话界面来充实你的整个想法。然后要求 Claude 将所有内容总结成一个分步的实现提示。

增量式和可视化工作

要求 Claude Code 放慢速度,一次实现一个步骤,这样你就可以复制粘贴而不会不知所措。大量使用截图来展示你想要的界面样子。

尽管不完美也要分享原型

克服隐藏“玩具”项目或未完成工作的冲动。分享原型有助于他人看到可能性,并在通常不互动的部门之间激发创新。

❌