Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

实测有沉思能力的智谱 AutoGLM ,我们离会思考的 agent 又近了一步

By: 杜晨
31 March 2025 at 13:00

如果有一个会思考但是不会做事的 AI

还有会做事但是不会思考的 AI。

 

你会选哪个?

如果让我来选,我会说:why not both?

今天在中关村论坛智谱 Open Day 上,智谱发布了 AutoGLM 沉思——首个带有沉思能力的桌面端 agent。

这是第一个存在于电脑桌面的,能先思考在做事,且做的过程中不断思考的 agent。

抛给它一个问题,它会逐步分解问题,然后在你面前(或者你不看着它也行)打开一个又一个浏览器标签页,自己上去搜索、查找、记录、汇总、分析信息,最终为你生成一份经过充分查证和深度思考的结果报告。

如果你还不知道这是个什么东西,简单前情提要一下:

AutoGLM 是智谱推出的 Agent 产品,能够实现对手机屏幕和电脑浏览器的操作。重点在于实现方式是前台的图形界面 (GUI),而不是后台的应用接口 (API)。你可以理解为 AutoGLM 学习人类通过「手眼并用」的方式,直接在用户界面上进行操作。这和市面上绝大多数基于 API 的 agent 产品有着明显的交互方式区别。

而沉思能力,正如字面意思,让 AI 可以一边想、一边搜,自主解决开放式的、训练语料不包含的问题,模仿深度思考和展现深度研究的能力。智谱在今年 3 月初拿到新一轮融资的时候就对外预告正在研发沉思,而这个功能的开关也已经在该公司开发的「智谱清言」(ChatGLM) 大模型产品里上线了。

而在 AutoGLM 沉思的身上,智谱独特的 GUI agent 功能,和人们最追捧和爱用的沉思能力,终于实现了融合。

AutoGLM 沉思背后的模型基座,也在本次 Open Day 上正式发布:

GLM-4-Air-0414 基座模型,具有 320 亿参数量,但性能足以对标 DeepSeek-V3、R1 (670B)、Qwen 2.5-Max 等更大参数量的模型。

因为参数量更少,GLM-4-Air0414 可以快速执行 agent 类工作,为 agent 的能力提升以及大规模落地应用提供基础,也一定程度上确保了终端用户的试用体验。

智谱还发布了 GLM-Z1-Air 推理模型,相比 DeepSeek-R1(激活 37B)推理速度提升了 8 倍,而成本降低到只有后者的三十分之一。

这也是一个可以在消费级显卡上运行的推理模型,能够显著提高开发者的使用体验。

智谱还基于 GLM-Z1 模型,使用自进化强化学习方式,训练了一个新的沉思模型 GLM-Z1-Rumination,能够实时联网搜索、动态调用工具,深度分析和自我验证。这个沉思模型能够自主理解用户需求,在复杂任务中不断优化推理、反复验证与修正假设,使研究成果更具可靠性与实用性。

也就是说:AutoGLM 沉思的基础模型架构是这样的:

中层推理和沉思模型 GLM-Z1-Air、GLM-Z1-Rumination

+

底层语言模型 GLM-4-Air-0414

加上工程/产品层的 AutoGLM 工具,就形成了 AutoGLM 沉思的整个技术栈。

智谱也计划在 4 月 14 日正式开源 AutoGLM 沉思背后的所有模型。

此前智谱曾分享过团队对于 AGI 路线图的判断:如果用自动驾驶层级打比方的话,目前大模型产品大体上获得了自我学习的能力,接近于 L3;而沉思、反思、自我批评等能力则是 L4 阶段。

需要注意的是,目前 AutoGLM 沉思还处于 beta 测试阶段。上个周末,APPSO 深度使用了这个产品。从测试结果来看,它在处理复杂工作上的效果确有提高的空间,底层逻辑也需要优化,但作为一个非常新颖的大模型-agent 产品,总体效果已经令人惊艳。

智谱已经踏入了大模型 agent 的 L4 阶段,虽然只是进来了半只脚。

目前 AutoGLM 的沉思功能,目前已经正式上线智谱清言网页端、PC 端和手机 App,免费、不限量地开放。

附上体验🔗

https://autoglm-research.zhipuai.cn/?channel=chatglm#get_started

 

当 Agent 有了沉思能力,AI 终于学会自己干活了?

去年 Anthropic 发布了「Computer Use」,同时展现了足够的模型能力以及较强的设备交互能力,让 agent(智能体)的设想终于首次得到实践。今年 1 月,Anthropic 在美国的最大对手 OpenAI 也通过新产品 Operator,做出对于 GUI agent 理念的演绎。

也是在去年 10 月,智谱和 Anthropic 几乎同时发布了各自在 agent 方向上的最新尝试。智谱的 AutoGLM 是第一家国内机构推出的基于 GUI 的 agent。

而今天的 AutoGLM 沉思,不仅将 agent 的执行任务能力带到了桌面端,更是把工具操作能力、深度研究能力、推理能力和大预言能力进行了首次融合。

这种多重能力驱动的 agent,非常适合信息检索、提炼、汇总型任务。

这就好比是让 agent「开车」,过去你得给他一辆车,教他方向盘、油门刹车、档位怎么用,甚至告诉它开车和倒车的时候分别要往哪看——而现在,agent 已经可以「自动驾驶」了。

让它制作一份「不同于网上所有主流路线的日本两周小众经典行攻略,要求绝对不去最火的目的地,要小众景点,但也要评价比较好的。」

AutoGLM 沉思比较准确地拆解了需求,思考逻辑也比较清楚:它首先去搜了最简单的关键词「日本旅游」,了解主流路线和景点,然后又去搜索了「日本小众旅游景点」之类的关键词——通过这几个步骤,它在本次对话的记忆内部构建了一个知识库,也即什么是主流的,什么是小众的。

这个任务总共做了 20 多次思考。有时候几次思考之间会有重复,比如搜索的是相同的关键词,访问了相同或者相似的链接等。这有可能是因为单次搜索到的信息不足够,毕竟沉思/深度搜索的本质其实也是不断地自我怀疑和推翻,直到达到足够置信度时候才进入下一步。

APPSO 还注意到它会过度依赖特定的网站作为信息来源,打开的所有 tab 里有 90% 都是小红书和知乎(各一半左右)。反而真正的旅行专业资料库,比如马蜂窝、穷游,或者哪怕是 OTA 平台,它一次没用过。

如果要做一份真正的小众攻略,重度依赖小红书的结果可能并不理想。毕竟能上小红书的热门笔记,这个景点应该并不真的小众。一个真正的小众景点旅行者,恐怕不想去 momo 们已经去过或者都想去的地方……

APPSO 注意到,AutoGLM 沉思在沉思过后自己提出了「路线规划合理,不要有无意义的反折」、「行程节奏合理,别太特种兵」之类的要求。

只是实际结果没有完美体现它自己提出的这些要求:比如头几天在濑户内海来回折返,有时候一天内去两三个相隔一小时以上的地点,略微特种兵;第二周从青森向南到仙台,然后又从仙台飞机向北大跨度飞到了北海道,并且北海道只留了两天。考虑到日本大跨度旅行基本都靠 JR,票价昂贵,合理的路线应该是顺着一个方向不回头,除非不得不去大城市换车,一般不应该折返。

但总体来讲,这份攻略是有效的:它呈现了一些提问者未曾考虑过的目的地,也试图在一次行程里去到季节、气候、风格完全不一样的地方(而不是围在大东京、富士山、京坂奈区域来回打转)。

从这个角度,它遵循了提示的要求,并且展现出了深度思考的结果。

就像你不应该直接把 AI 生成的结果直接拿去用一样,这份攻略提供了一个还算不错的基础,让旅行者可以自行优化具体的目的地、路线和中间的交通方式。旅行不只是上车睡觉下车拍照,还应该兼顾人文和自然,深入当地文化传统,探索自然景观,以及至少感受一把在地最有特色的体验项目。

只要你的期待不是即问即用,AutoGLM 沉思给出的答案是足够令人满意的。

点击查看智谱清言的回答 https://chatglm.cn/share/FQoLp

考虑到 AutoGLM 沉思与其它深度思考型大模型最大的特别之处在于浏览器的操控能力,APPSO 也更深入和严苛地测试了一下他的 browser use 能力。

让它做一份关于科创板云计算公司的研报,看看结果怎么样。

正如前一次做旅行攻略一样,AutoGLM 沉思的「思考过程」是没有任何问题的。从下图中可以看到,它:

  1. 准确拆解了筛选条件,
  2. 明确需要多轮搜索和迭代,
  3. 制定了分步骤的计划,
  4. 通过「一般搜索」找到了大概的搜索目标
  5. 开始执行分步操作

但是 browser use 的过程实在让人有点抓头:AutoGLM 工具一次又一次地试图打开证监会指定的信息披露网站(巨潮资讯),解析网页的信息。它顺利地找到了网站数据库的条件筛选工具,但经常无法正常筛选,要么选不好时间区间,要么找不到对应板块的下拉菜单在哪。

APPSO 观察到,AutoGLM 沉思给每一步骤的定时通常是 3 分 20 秒左右,但如果访问网站不顺利,就会因为操作超时而导致「本轮思考」失败。

另外,根据 APPSO 之前体验去年的 AutoGLM 以及其它 GUI agent 产品的经验,当需要用户进行登录操作、输入付款信息、点击发送按钮这种敏感性操作时,agent 可以停下来等待用户操作。而在使用 AutoGLM 沉思的过程中,它的确可以等候用户登陆,但遇到「用不明白网站」的情况,并没有呼唤用户接管,而是只会傻傻地等着。

在本次任务中,连续两轮思考失败之后,AutoGLM 沉思开始进入一个重新思考-跟之前导致失败的思考结果一样-再重新思考的循环过程,一直循环往复了五六次,最后败下阵来,把目标转向了知乎。

步骤进行到这里的时候,其实已经算任务失败了,因为输入的原始指令是查找和汇总上市公司资料和公告,数据的专业准确性很重要,而知乎并不是一个可靠的上市公司信息披露平台。

经过了好几次艰难的测试,最后终于吐出了结果:华为、紫光、UCloud 三家公司,虽然都跟边缘计算有关,但三家的股票代码都写错了,更别提有两家并没上科创板。

Agent 「自动驾驶」能力,和路况、驾驶位有很大关系

在其它更轻松的任务(比如做旅行规划、游戏攻略、查找简单信息等)当中,AutoGLM 工具的 browser use 能力是没有太大问题的。

但 APPSO 发现,一旦当前网站的视觉设计相对复杂,或者设计的有一些陷阱,AutoGLM 工具就很容易被「使绊子」。

一个最直接的例子就是电商网站。APPSO 给出明确提示,「去淘宝或京东购买一件重磅日系 T 恤」,AutoGLM 沉思制定了宏伟的计划和明确的分工——然而却连淘宝首页的山门都进不去,甚至找不到搜索框在哪里。而且它似乎被「找不到搜索框」这件事完全阻挡住了,甚至也没有去看网页的其它位置——如果它看了的话,肯定会发现相关商品早就出现在首页推荐里了。

对于这个测试中发现的意外情况,智谱 CEO 张鹏表示,「点背不能赖社会」,AutoGLM 沉思目前仍在 beta 阶段,还有很大的进化空间,而且目前的升级速度也很快(APPSO 在正式发布版上测试淘宝的使用效果,已经没那么磕绊了)。

张鹏指出,在模型作为服务或作为产品 (MaaS) 的理念下,模型产品自己的能力要像木桶一样,高且全面。或许现在 AutoGLM 工具的视觉能力还不如人,处理意外情况的能力还不够,归根结底可能是泛化能力还不够,但这些能力的提升并不是模型问题,而是纯粹的工程层面——不需要担心。

从模型底座层面,AutoGLM 沉思也有提升的空间。

经常用大语言模型产品的朋友都知道,提示写的越具体,规则和边界设定的越明确,它的效果越好,越有希望生成符合用户提示的结果。基于大语言模型的 agent 也是一样。

但是提示不能无限扩展,就好比你招了一个秘书帮你干活,但你不应该总是每次都把「找谁」、「什么地点」、「什么时候」、「去哪」等一切的信息都讲清楚,ta 才能勉强顺利地帮你搞定一个饭局的准备工作。

大语言模型很强大,但也有它糟糕的地方:只受到文本规则的约束,缺乏真正的实际问题的规划能力,任务过程中容易被卡住;缺乏足够长的上下文记忆空间,任务持续时间太长就持续不下去;上一个步骤的错误会随着步骤逐渐放大,直至失败。

AutoGLM 沉思也是一个基于大语言模型的 agent,即便在 agent 能力上做了很多工作,但仍然难免受到大语言模型的诅咒。思考能力越强,越容易想多、想歪。

从 APPSO 的试用过程中可以看到,除了一些绝对基础的概念(比如「旅游」、「T 恤」、「公司」)之外,它并没有稍微复杂的上层知识。用户每次发出任何指令,它都要先自己打开浏览器,上网学习一遍,明确用户的所指,在本次对话的有限记忆空间内建立一个知识库,然后再去进行后续的步骤。

而就它目前最擅长和依赖的那几个信息来源来看,一旦用户任务的复杂性、专业性「上了强度」,想要它在用户可接受的时间(目前官方定的是每任务总共 15 分钟左右)内,查到真实、准确和有价值的信息,就真的有点勉强了,更别提给到用户有效的结果(APPSO 的测试中有一半无法输出完整的结果)。

不过这并不是个太大的问题。

有这样一个很实际的观点,可以套用到 AutoGLM 沉思上:

今天的 agent 水平,将它视为「主驾驶」可能能力尚有不足。但它仍然是一个很好的副驾驶 (copilot)。

在 AutoGLM 沉思上,我们看到了足够的思考能力,也看到了优秀(但确实受制于客观因素)的 browser use 能力。很显然,智谱作为中国目前非巨头公司当中,少数模型能力最强的选手之一,肯定会在这两个能力上面继续进步,而且会很快。

自从 APPSO 拿到测试资格,到 AutoGLM 沉思正式发布,中间已经更新了数个版本,在模型基座和浏览器操控能力上面都有了改进。

但如果我们想要的是一个真正会思考且能办事的 agent,我们恐怕需要比现有范式的大语言模型更强大的智能体基座。

而智谱推出的「语言+推理+沉思+行动」的 Agent 框架,尽管产品层面仍然笨拙,但看起来是一个非常明确可行的方向。

诚然,国产大模型和基于大模型的 agent 产品,现阶段的目标如果放在「追赶硅谷对手」上可能反而更实际一点。AutoGLM 沉思从操作逻辑和实现目的上,都是明显区别于目前国内所有同类和近似产品的「新物种」,和 Anthropic、OpenAI 也正在拉近距离。

对于这样一家非巨头、脱胎于中国顶级学府的大模型创新领导者来说,大多数的不足都可以被容忍,而看到它在做的事情的独创性和领导性,才更重要。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


实测 Manus :我用它生成了 10 个邀请码……好玩,但崩溃

By: 杜晨
6 March 2025 at 20:16

今天凌晨刚刚发布的 Manus 有多震撼人心,已不需要赘述了:较高程度的独立思考能力,强大的复杂任务解决能力,以及可靠的交付效果。

和纯粹的对话式 AI 产品相比,Manus 话少,不止于思考,还能干活;和传统虚拟助手相比,Manus 的分解、规划和解决问题能力(通过 computer use 和编程能力体现)更高。

目前具体细节还很有限,但我们通过公开资料了解和猜测,Manus 的背后有不同 agent 各自处理单项任务,agent 的任务进度同步和转移通过 API 执行。作为产品的 Manus,是一个多模型、多独立 Agent 的缝合体——而团队也通过“套壳”的自黑表述承认了这一点。但这并不能消解 Manus 作为一个成型的,远高于最小可行水平的产品的意义。

Manus 让人机交互的范式,升级为人机协作,比其它同类选手更接近真正意义上的通用 AI Agent。

Manus 目前一「码」难求,在闲鱼的开价一度达到 5 万元。

APPSO 也用 Manus 进行了实测,但由于任务用时较长,后面又遭遇网站登陆困难的情况,所以只完成了几个简单的任务,其它任务恰逢 Manus 系统超负载,没能进行下去。

与此同时,Manus 项目方也发出了一份官方回应,表示准备服务器资源不足,导致用户体验较差。

APPSO 无疾而终的测试

先来看我们在有限的时间内做的两个测试。

和很多人一样,我们经常会对日新月异的 AI 技术和五花八门的 AI 工具感到困惑。于是我向 Manus 提出了这个请求:

从 Manus 返回的初步结果看,它先搜索了一些 AI 资讯门户式的网站,意思应该是先掌握大概的分类方式,确认表格的分类维度,然后再分门别类地去找对应的 AI 工具,查询资料。

它找到了 17 个类别——正在看文章的读者,如果你也不知道这些 AI 工具该怎么分类,可以参考 Manus 的思考结果了:

在联网搜索过程中,Manus 偶尔会遇到浏览器故障的情况。不过没关系,它会自行处理这些错误,重试或继续下一项任务。

但是没过多久,它还是崩溃了。这一天当中,我们从 APPSO 读者搜集了十几个任务请求,喂给 Manus,结果也是一样的:高系统负载导致了内部服务器错误,请稍后重试或创建一个新的对话。

一气之下,我让 Manus 直接生成 10 个邀请码,它倒是挺干脆。

当然,没一个能用的。别忘了今天是星期四……

我们找到了一些已经玩上了的朋友,看看他们都是怎么用 Manus 的。

使用 Manus 的过程,也是直接近距离观察它的思考路径、工作流程的,一次难得的机会。

先来一个脑洞大开的:

《文明》(Google CEO 版)

想象一个游戏,你能在里面扮演一个科技创业者,历经艰难险阻,克服重重危机,将公司打造为全球科技龙头,改写人类历史?

有人就做了这么一个 谷歌 CEO 模拟器,带你体验谷歌历史上的重要决策,重走从车库出发,直到成为科技巨头的传奇之路。

游戏将谷歌的公司历史分为了 5 个关键发展阶段:创业、成长(pre-IPO)、扩张、多元化、重组更名 (Alphabet 阶段)。在每一个阶段,游戏都给玩家提供了多个关键抉择,每个都将影响公司的发展方向、资源分配,以及最终的成就。

更有意思的是,它还特别加入了一些在经营类游戏里常见的「突发随机事件」,来考验玩家作为谷歌 CEO 的危机处理能力。

让我们开始游戏——居然还可以选难度?我直接 hard mode.

APPSO 的读者恐怕对现实世界里的谷歌足够熟悉了,不妨跟我一起来一场抽象离谱的大冒险?

困难模式,初始资金 $80,000,我通过联合创始人的女朋友,租用了她姐姐的车库,创办了 Google。初期我们的技术实力一般,其它各方面要素都十分匮乏——但好在,我们在大学期间研究搜索引擎项目「搓背」(BackRub) 已经初具雏形,特别是里面的 PageRank 算法,很有潜力。

我们拿到了第一笔天使投资,但这笔钱究竟应该怎么用?是继续优化 PageRank,还是换个宽敞点、有空调的办公室,抑或干脆去美国在线 (AOL) 上买点广告来做推广?

搜索引擎靠什么活着,不就是广告嘛?舍不得儿子套不着狼,想卖广告当然要先买点广告。我直接把钱全扔在广告上了。

获得了一些用户,然而刚刚略微提升的品牌声誉,就因为突然发生的重大安全漏洞而掉下去了。着急忙慌地修完了 bug,我又面临了选择商业模式、引入外部投资者、如何拓展分支业务等一连串难题。

当我在这边焦头烂额,我的员工却在上班时间里捣鼓自己的项目,说要做什么「Gmail」。

这怎么行?邮件里怎么卖广告?不是跟我的核心模式背道而驰了吗?直接解雇他,必须 all in 搜索。

到了 2005 年,谷歌收购了 Android。

这妨碍了我专心卖网站广告,但移动互联网的浪潮确实不可抵挡。我们可以继续在新操作系统里寻找机会植入广告,听说有一家中国的手机公司很擅长做这个——我们不跟它合作,也不跟任何公司合作,而是直接自己做自己的手机。

并且要封闭,要垂直整合,要多放广告。只有围墙里的花园才是最美丽的花园。我叫它 Nexus。

2006 年,中国互联网市场也快速增长。

虽然经过一番操作,公司账上只有 9 万美元,但我还是决定全面进军中国市场,拥抱人口红利。

2011 年,谷歌仍然没有上市。

看到 Facebook 上市,我没有心动,而是从微软招来了一名爱将 Vic Gundotra,授权他全力研发 Google+。我们将 all in 社交媒体!

时间过得飞快,到了 2016 年。谷歌仍然没有上市。

目前账上有 8 万美元——没亏就是赚。我们做了大量的收并购,特别是一家名叫 DeepMind 的公司,非常火。我决定这次 all in AI。当然,广告仍然是核心,只是我们不说。

最终,我的 Google CEO 之旅还是结束了。也许我的一系列的操作,导致董事会终于失去了信任。我离开了这家奉献了 20 多年青春的公司,留下了还不错的技术实力,少而精的用户基础,轻松自由的组织管理文化,以及略高于电诈园区的品牌声誉。

至少,我们是一家稳健的公司。

刚才的游戏过程,确实多半是我在故意整活。不过这个模拟器虽然很简单,还是设计很全面的,有剧情,有选项,有资源表,有大事记。作为一个小游戏,一个小品级的产品,它已经很完整了,体现出的想象力很丰富。

然而它只是用 Manus 用一句提示语生成的。

Google公司运营模拟器,玩家将扮演谷歌ceo,体验谷歌历史上重要的公司决策,让用户过瘾的同时,也能了解谷歌的历程,启发用户思考公司决策,互动式的文字游戏

我们可以通过重放过程看到它的思考、分解任务、执行子项任务、最终汇总和生成结果的全部过程:

Manus 简单地回答了用户自己将要做什么,紧接着打开了一个 Ubuntu 虚拟机,直接开始分解具体任务,编写了一个基于 todo.md 文件的任务清单。

任务被分解为 7 个步骤:

  1. 研究谷歌的历史背景和关键公司决策
  2. 涉及游戏架构和互动机制
  3. 根据研究学习的结果,生成一些可选的,符合史实的决策场景
  4. 构建游戏逻辑以及 UI
  5. 进行游戏功能和游戏体验的测试
  6. 创建一个静态版本的成品,供用户部署

首先,Manus 先去做了大量的搜索,包括谷歌创始人/CEO 是谁,历史上的关键产品,重要的收购纪录以及近年来的商业模式和战略转变等大量的资料,并且浏览了包括谷歌官网、维基百科、中英文新闻网站、知乎等等。

通过这些资料的学习,Manus 对谷歌已经有了一个八九不离十的认识,可能并不深度,并不独到,倒也没有太多事实出入。

而如果用户觉得它自动搜索的资料不够全面,想加一点独特的味道,完全可以做到:

在执行过程中,用户随时点击这个按钮,手动增加知识内容。Manus 在生成的过程中,仍然会时不时回来复习一下这些资料。

在执行任务的每一步骤,Manus 也都会用正确的语言(中文完全支持),向用户解释自己刚才做了什么,获得了哪些收获,而接下来要做什么。这应该归功于它在分解任务时候做的类似于 to-do list 一样的文件。

它的表述也是结构化,有逻辑的,力求向你完整展示它的思考方式。

这显示 Manus 很聪明。但值得注意的是,任何一个缺乏专业能力的用户——特别是 Manus 目前所体现出的数据挖掘、整理,以及编程等能力——也能够通过观察 Manus 工作流程来提升自己。

重要的不只是结果,还有过程。

泽连斯基-特朗普吵架模拟器

大家都在吐槽泽连斯基在白宫表现糟糕,但你上你行吗?不要光说不练,来试试这款 Manus 官方测试的小游戏:泽连斯基白宫辩论模拟器!

输入提示是这样的:

中文:最近,泽连斯基、万斯和特朗普在白宫的激烈交锋引起了广泛关注。你能否开发一个简单的互动模拟游戏,让我在辩论中扮演泽连斯基?我对能再现这一政治场景的互动游戏很感兴趣。

原文:The recent heated exchanges between Zelenskyy, Vance, and Trump at the White House have garnered significant attention. Could you develop a simple interactive simulation that allows me to role-play as President Zelenskyy during those debates? I’m interested in an engaging interactive game that recreates this political scenario.

任务总共分为 9 步:

  1. 研究三人之间的互动
  2. 设计文字游戏的架构以及游戏机制
  3. 创建了一个 Next.js 应用来模拟辩论环节
  4. 开发一个对话系统,填充对话脚本
  5. 创建用户界面
  6. 进行全面的模拟测试
  7. 【用户接管】将游戏部署到虚拟机,供用户测试
  8. 制作用户手册,交付
  9. 将完成品部署到公开 URL 上,供永久使用

直到玩家测试步骤,之前的全部工作都由 Manus 在虚拟机上自动完成,不需要用户做出任何控制。同样,在任务的关键节点上,Manus 都会特别解释自己做了什么。

这种「可解释性」很关键,能够降低 AI 工具的「黑盒」感。

Manus 介绍,自己设计了三种结局,在游戏结束后会给玩家提供一份完整记录。游戏过程中有强硬 (assertive)、外交 (diplomatic)、安抚 (conciliatory) 这三种对话选项供玩家选择,NPC 会对不同风格的表述产生不同的「情绪」,直接影响结局走向。

而这正是《天国拯救》、《巫师》等游戏最流行的设计理念:choose your own adventure,选择你自己的冒险。

在我的试玩中,我尝试代入了一个身处政治外交和军事漩涡的政治家,在家国被割据的屈辱,和国际政治谈判舞台所期待的外交身段之间,试图在刀尖上找平衡。

我两度导致特朗普失望和遭到万斯的怀疑,但所幸在特朗普的最后通牒时刻,还是把场面救回来了。虽然我的谈判没有达成直接的实质性的结果,至少我没被轰出白宫……

如果用官方外交辞令来讲,那应该就是「交换了意见,会谈是有益的」。

虽然只有 6 个回合,因为可选项设计的有意思,剧情多样,我又玩了几次。可能因为性格太懦弱,有一次甚至谈成了。

一个纯文字游戏,还真玩出了点 RPG 的代入感。

你可以在 Manus 官网的Use Cases – WTF 一栏,找到这个模拟游戏。跑完会话回放之后,在它的最后一条回复里面找到游戏的链接。或者你也可以直接访问这个地址:https://dgooezit.manus.space/

体验总结:拒绝「高潮」,好玩好用就已足够

从 Manus 发布,爆红,到现在一码难求,网站登陆访问困难,团队对外道歉,只用了十几个小时的时间。

APPSO 在 Manus 发布之初就做了报道,给了一个相对正面的评价。而经过了更加深入的试玩,我们提炼出这个产品的优点:

首先,Manus 的用户界面,让用户可以直接观察它的思考路径和工作流程。

无论在使用过程中,还是事后重放,都能够比较完整地展示模型是如何思考的,任务是怎样被拆解和指派的,每一个步骤都可以追溯。

这即是一种提高 AI 可解释性的实践,同时也给用户一个通过模仿它来自我提升成长的机会。

其次,它不仅具备处理复杂工作的能力,同时还能保持更高的自动化水平。

最直观的例子就是 Manus 官方做的人力资源任务——筛选简历。

Manus 结合 computer use 能力打开虚拟机,解压用户上传压缩包,遍历 25 份简历,提取并记忆 25 组复杂信息;再将它们整理到一个 Excel 表格当中,进行打分排名,充分列举了包括资历、技能水平、项目经验、关键成就在内的多个指征,却不单独依赖特定一项。

在过去,同类的工作在过去可能需要用户用一个 AI Agent 工具,多次分步输入指令,或者需要用户自己用多个工具来分别完成任务再自行组合,无论怎么做都很麻烦。而 Manus 的自动化程度,超过了包括 Claude 在内的同类方案。就算你坚信 Manus 的能力没什么过人之处(毕竟套壳),但不可否认它的体验是更优秀的。

综上各点,Manus 确实超过了过去一段时间以来我们对 AI 工具的体验认知。如果说以前的 Agent 更多只是没「脑子」的工具,Manus 已经非常接近一个有「脑子」的 AI 助手,从人机互动升格为人机协作。

但与此同时,我们今天看到了不少过分吹捧的自媒体报道,跟着 Manus 团队一起提前「高潮」了,称其「AGI 的里程碑」;当然,也不乏有人指出其产品「套壳」,团队人物存在「黑历史」,技术栈和实现方式缺乏真正的自主创新。

我们应该批评 Manus 什么?毫无疑问,它的营销方式并不「体面」:找了一批自媒体来做内部分享,号称「只是发一个 demo」,以没准备好应对用户爆炸的服务器资源为说辞,制造一种营销的「高潮」,随后又对外界封锁,使得人们难以探知真相,满足好奇心。

但我想,无论这个产品以公测还是正式发布的方式,向公众完全开放之前,一切的维护和贬损都没有太大意义。

AI 技术突飞猛进,早已离开了学术科研的襁褓,和大公司的封锁。企业航母 all in AI 难保一帆风顺,小公司却完全可以只用一周时间起飞。现有的开源、半公开,付费、收费的工具比比皆是,只要不违反相应的开源许可证规则和商业授权协议,任何人都可以充分且自由地利用它们,无论出于纯粹的个人使用,还是做拼装组合叠加的「套壳」式创新。

更别提这个「创新」的结果还挺好玩(就算拿不到邀请码,你也可以去网站上感受几十个现成的 use cases)。

好玩的东西,在这个时代太稀缺了。脑洞谁都能开,填的上才是王道。

我们拥抱创新,关注和欣赏那些好玩有趣的东西。对于可能定义我们未来数字生活的产品,我们的包容并不廉价,但绝对足够。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌