Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

「天才少年」稚晖君发布 5 款人形机器人!会打麻将能到 4S 店当销售,还有一款 0 元免费送!

By: 王萌
19 August 2024 at 13:51

如果程序员是数字世界的上帝的话,那亲手给机器人以身形,再用 AI 赋予其灵魂,这就是真极客的浪漫啊!

那个前华为的「天才少年」又回来了。

一同回来的还有号称「双足机器人完全体」的新款智元人形机器人——远征 A2。

能当「销冠」,也能打麻将

发布会以一段家庭场景中机器人做饮料的过程作为开始,展现了从理解语义、挑选水果、操作榨汁机、端水等一系列的动作,甚至让机器人成为了「主持人」,介绍自己和它的「伙伴」。

相比去年以通用性取胜的远征 A1,今年智元机器人针对不同场景推出了共 5 款机器人,分别是远征 A2、远征 A2-W、远征 A2-Max、灵犀 X1 及灵犀 X1-W。

它们采用了家族化设计语言,出现了轮式与足式两种形态,覆盖交互服务、柔性智造、特种作业、科研教育和数据采集等应用场景。

其中主打交互服务场景的远征 A2,也是这场发布会的「主持人」,与前代一样采用了类人造型设计,基本参数与前代远征 A1 相比变化不大,但从演示及现场表现来看,在一些与真人交互的场景有更好表现,基于大模型的精准营销有成为「销冠」的潜质。

远征 A2-W 主要为柔性智能制造场景打造,在开场的情景剧中,A2-W 为我们展示了包括动态任务编排、双臂协同作业、复杂任务执行等多方面的能力。

主打特种载重的远征 A2-MAX 拥有腿部直线驱动关节与高扭矩关节模组,在演示中能够轻松搬起 40kg 的航空箱,不过目前还在产品研发阶段。

在发布会上,稚晖君类比电车的「三电」系统,将机器人系统分为动力域、感知域、通信域、控制域四个领域,其实也就是将机器人的能力拆分成四个方面的指标。

首先在动力域方面,核心关节不仅是让人形机器人更加灵活、更加自由的关键,也是未来实现规模量产、低成本制造的门槛。智元机器人上一代 PowerFlow 关键模组今年已经实现量产迭代,新款则着重提升可靠性与稳定性,在重要参数上也进行了升级。

手部是人形机器人承接多种动作的关键,也是公认的人形机器人技术难点,上一代远征 A1 机器人在机器人手部装上视觉传感器的设计就曾广受好评。

▲ 智元机器人远征 A1 手部

如今智元机器人「灵巧手」迎来了升级,机器人手部拥有 12 个主动自由度,7 个被动自由度,配有指尖摄像头,可以处理多模态感知任务,不仅能双手协同,还能穿针引线,甚至是打麻将「单指摸牌」。

智元机器人双臂也迎来了全新的升级,主要集中在配备了高精度力控 7 自由度双臂,配合六维传感器,能够执行包括阻抗控制、导纳控制、力位混控等多种力控任务。

在感知域,智元机器人集成了 RGBD 相机、激光雷达、全景相机等传感器,并引入自动驾驶领域的 Occupancy 等感知方案。智元还预研了基于自然语言指令集驱动、并可适配不同机器人的 AgentOS,并促进机器人技术的普及和应用。

机器人是其实是一个软硬件非常复杂极其复杂的一个系统,它既涉及到内部各个硬件模块的协同和部署。所以我们还我们也是希望能够把这样的一些复杂系统的二次开发能力开放给外部更多的合作伙伴,然后帮助我们共同去构建整个生态。

0 元的「One More Thing」

最后,稚晖君还带来了一个 One More Thing——模块化机器人灵犀 X1 和数采机器人 X1-W。

在打造的过程中,智元机器人采用了两款全新的自研 PowerFlow 关节——R-86 和 R-52。

依托这两款 PowerFlow 关节,灵犀 X1 能够实现全身 30 多个自由度的精准操控,还有独特的「机-机模式」,能将手机放进机器人「大脑」,利用智能手机的各个功能,为机器人提供更多可玩性。

除了关节,灵犀 X1 还配备了一个自适应夹爪,能够以主动自由度实现各种形状物体的抓取,与百元级的六维力传感器组成了这款机器人独特的结构硬件方案。

这些部件让灵犀 X1 做到了高度的标准化,将会在未来对大众免费开放。灵犀 X1 定价 0 元,设计图纸、软件框架、中间件源码,基础运控算法将全部开源。

显然智元选择不参与日益激烈的价格战,反而是以实际行动降低门槛,鼓励更多有兴趣的人参与进来:

我们的目标不仅仅是开发各种先进的技术,更是希望通过开放生态,还有合作共赢来加速整个行业的创新和应用,让机器人真正服务于人类的生活,还有工作的各个方面,来实现真正的智能机器人,去创造无限的生产力这样一个愿景。

大模型的价值,正在以另一种形式展现

近期 Google 前 CEO Eric Schmidt 在斯坦福的演讲中曾提到这样一个例子:

电力是一种具有根本价值的技术,但直到他们有了流程创新,这种重新思考如何进行生产的组织创新,你才获得了巨大的回报。

电力,是工业革命的动力。但当电力作为一种资源出现的时候,人们的生产力并没有比以前由蒸汽机驱动的工厂高出很多,甚至还出现了一定的倒退。

根本上的原因在于,电力出现以前,工厂的结构通常是由一个大蒸汽机处于工厂中央,由于缺乏动力,在设计上就会尽可能地靠近提供动力的蒸汽机。

电力出现后,很多人直接将电力用在改进蒸汽机上,但工厂的结构并未发生改变,工厂从围着一个巨大蒸汽机转变成了围着一个巨大的电机布置,只是出现了动力上的增强,并没有将电机的能力真正发挥出来。

直到 30 年后,人们渐渐发现,电力真正的意义在于,提供动力的装置能够以分布式的结构出现在工厂的各个部分。

也就是说,电力出现的更大意义在于让动力装置更小,这对工厂而言,是一种结构性的变化。

曾经位于工厂中央的蒸汽机,变成了供电的设备;基于动力分布的工厂,变成了基于电力设计分布,这才让人们看到了电力的真正力量。

不仅如此,电力作为一种通用技术,能够激发出更多的创新,例如电机、灯泡、压缩机等的出现,带来了空调、冰箱等更多的应用:

当前的人工智能技术与早期的电力类似,其本身就具备潜在价值;然而,要实现其巨大潜能,还需依赖于组织层面的创新与变革。目前,业界普遍仍处于探索初期阶段,仅实现了相对容易达成的应用成果。

当我们将 AI 的作用局限在文本对话、语音交互,或许很难意识到,由多模态大模型带来的相关产业发展,或许才是真正能够带来产业变革的关键。

人形机器人显然就是这样一个领域,得益于大模型的加持,一些实际的落地应用已经正在出现。而且相比之前的产业革命而言,机器人带来的变革或许会更快。

比如不久前刚刚发布的 Figure 02,号称「市场上性能最高的人形机器人」,在发布不久就「进厂打工」。不仅可以在流水线上工作,还可以在仓库中进行物品搬运,甚至在某些情况下进行简单的维修工作,在工业生产中体现出巨大的潜力。

还有上一代智元机器人远征 A1,表现出了很强的通用性,正如智元机器人的英文名「AGIBOT(通用机器人)」。除了能在汽车生产过程中扭螺丝、拿起检测工具给车辆做外观检测,还能成为处理日常家务的助手,模块化的设计使其可以面向不同任务、工作场景,给自己更换组件,以满足不同的需求。

▲ 辅导作业时如果写得不错,远征 A1 还会点赞

这种方案显然获得了广泛的认可。在远征 A1 之后,智元机器人迅速吸引了大量资本的目光,随着市场需求的迅速增加,远征 A2 的发布无疑再次引起了广泛的关注,让这位曾经的「天才少年」变身为资本宠儿。

在 2023 年 8 月推出远征 A1 人形机器人到如今的整整一年时间里,智元机器人已经马不停蹄拿下了 6 轮融资,吸引了包括高瓴创投、鼎晖投资、红杉中国、M31 资本、比亚迪等众多知名投资机构的参与。业内人士透露,甚至有些投资人「必须通过私人关系介绍」,才能获得投资机会,其火爆程度可见一斑。

不过,正如著名物理学家 Richard Feynman 所言:「我们无法创造的东西就无法理解。」关于机器人的未来发展实际上仍在探索。

一些科技领袖对它们抱有极大期望,甚至认为人形机器人将会成为贴近每个人的消费电子产品。比如 Elon Musk 曾在此前的特斯拉年度股东大会上预言,将来人形机器人的数量可能会是人类的两倍,达到数百亿之巨,为特斯拉带来高达万亿美元的年收益。

▲ 特斯拉人形机器人 Optimus

另一方面,也有一些业界人士对人形机器人的实际应用持谨慎甚至悲观态度。创新工场的董事长李开复在一次演讲中指出,「绝大多数应用场景下并不需要人形机器人」,例如烹饪机器人应该设计得更像锅具,而吸尘器也无需模仿人的外形。

问题的关键在于,如何以更务实的方式使用 AI 为机器人赋能。正如 OpenAI 前首席科学家 Ilya Sutskever 所言:「我们今天研究 AI 的首要目标已经不是怎么让机器变得更加智能,而是让机器的目标和人的目标一致。」

从这个角度而言,智元机器人通过针对不同场景,推出轮式、足式机器人,通过更开放的态度,吸引更多人才投入其中,不失为一个务实的探索之道。

你认为人形机器人会是 Eric Schmidt 所说的「改变结构」的契机吗?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


OpenAI 地表最强人形机器人发布!每天能打工 20 小时,「终结者」要造出来了?

By: 莫崇宇
6 August 2024 at 21:07

还记得三月份刷屏全网的 Figure 01 机器人吗?

接入 GPT 后,能说会看还能做家务的它,让不少网友感叹人形机器人的时代将在 AI 大模型的加持下向我们大步走来。

Figure 01 背后的公司也凭借英伟达、OpenAI 等联合投资,一度成为人形机器人赛道上最靓的崽。

暂且忘记第一代的赞誉,就在昨晚,号称「世界上最先进的 AI 硬件」——Figure 02 正式亮相世人。

世界上最先进的 AI 硬件名副其实吗?

让我们先来感受一下 Figure 02 身体素质过硬的躯体。

拥有 16 个自由度的手部,能够灵活自如地转动手指和手腕, Figure 02 起码在卖家秀的官方 demo 里是到位的。

Figure 02 行走间虽有颠簸,但速度也算的上中规中矩,与背景里拿着工厂零部件的同类机器人形成了动静分明的画面。

经过宝马工厂的「集训」,Figure 02 已经不再是那个只会泡咖啡的机器人了,而是成长为熟稔流水线工作的工人。

虽然拿起零部件的速度还有待提升,但胜在一个字——稳。

据创始人 Brett 介绍,从零开始设计的 Figure 02 集成了多项创新技术,在智能交互和物理操作方面上都有了长足的进步。

Figure 02 的头部、前躯干和后躯干各配备六个 RGB 摄像头,能够通过其 AI 驱动的视觉系统来感知和理解物理世界。在官方的描述中,Figure 02「具有超人的视觉」。

得益于与 OpenAI 合作训练的定制 AI 模型,Figure 02 具备与人类进行语音对话的能力,而其搭载的视觉语言模型(VLM),更是让其能够通过摄像头进行语义理解和快速视觉推理。

在电池方面,Figure 02 机器人躯干中内置的 2.25 千瓦时电池组,提供了比前代更持久的续航时间,按照设想,Figure 02 能够每天实现超过 20 小时的有效工作时间。

集成布线设计一直以来都是人形机器人面临的难题。

Figure 02 的集成布线设计着重提高了电力和计算布线的可靠性,还实现了电线的隐藏和紧凑包装设计,并且定制的线缆端子和连接器也进一步提升了耐用性。

类似于飞机的设计,Figure 02 的外骨骼结构设计增强了结构刚度和承受碰撞载荷的能力。

与前代相比,Figure 02 的机载计算和 AI 推理能力提升了两倍,使其能够后自主地执行现实世界中的 AI 任务。

AI 数据引擎是 Figure 02 智能活动的心脏。

它能不断地从云端获取、更新和优化最新的 AI 模型。并且,这些模型在机器人的 GPU 上运行,确保了 Figure 02 在执行任务时的智能性和适应性。

对于 Figure 02 的发布,Brett 兴奋地表示,「Figure 02 为人形机器人在工作场所和家庭中的应用铺平了道路」。并且,其也在 X 上发布了招聘的渠道。

附上招聘官网地址,感兴趣的朋友不妨去试试:https://www.figure.ai/careers

2024 年的当下,除了大模型加持所带来的智商,硬件也是不可或缺的重要一环,这也是今天发布的 Figure 02 的意义所在。

经过宝马工厂长时间的集训后,Figure 02 在硬件方面比起前代有了不少长进,与工厂场景的结合也更得心应手了。

高盛在今年初发布的《人形机器人专题报告》中预测,人形机器人有望在未来十年内迎来爆炸性的增长。

倘若技术再进一步的话,具有接近于人的运动性能的躯体,配合大模型等技术的智能支持,人形机器人走进千家万户的愿景,或许不再是画饼式的憧憬。

回顾历史,早稻田大学的加藤一郎教授历时 5 年时间,才研发出人形机器人的雏形 WABOT-1,而从 Figure AI 入局到当下也不过 2 年时间,在加速发展的当下,谁也看不透 Figure AI 这类人形机器人的潜力。

「具身智能」成新风口,人形机器人真有必要吗?

有的人形机器人在泥里爬,但更多的人形机器人却是在天上飞。

1950 年,图灵在他的论文《Computing Machinery and Intelligence》中首次提出了具身智能的概念,但却没有给出一个明确的定义。

他在论文中展望了人工智能两条可能的发展路径,一条是聚焦抽象计算所需的智能,如下棋;另一条则是为机器人配备最好的传感器,使其可以与人类交流、像婴儿一样地进行学习。

前者为非具身智能,典型案例表现为李世石以 1:4 负于 AlphaGo。

后者往近了说,世界人工智能大会上的 18 台国产人形机器人组成了一道亮丽的风景线,往远了说,在 GTC 2024 发布会上,英伟达掌舵人黄仁勋背后的那排人形机器人也都是具身智能的重要表征。

黄仁勋说,具身智能将引领下一波人工智能浪潮。

他曾预言道,100 年后大街上将到处都是人形机器人,或将成为人类历史上产量最大的机器系统,马斯克在听闻这番观点后,则大胆地认为,它们的普及程度将是汽车的 10 倍。

实际上,得益于大模型的加持,一些实际的落地应用场景已经初现端倪。

以往只会后空翻、跑酷的机器人不再满足于赢得围观者的吆喝声,而是放下了手头上的十八般武艺,不约而同地集体进厂,当起了生产流水线上的打工人。

一个典型应用场景是货物的分拣和码垛。

前有 Agility Robotics 旗下的 Digit 机器人在亚马逊的物流仓库里分拣和搬运货物,后有特斯拉二代 Optimus 机器人给大家表演了一波分拣电池,并且走路的速度也大幅提升了。

正如李飞飞所说,自然界花费了数百万年时间才进化出空间智能,随着空间智能的加速发展,一个催化机器人进化良性循环正在我们面前展开。

借助大模型的泛化能力,这位名为 Digit 的机器人「同事」,已经达到人类 75% 的工作效率,并且拥有高达 97% 的任务完成成功率。

而人形机器人率先「长」在工厂里也并非偶然。

目前 AI 与机器人的结合还处于初级阶段,尚未达到技术融合的临界点。尽管我们见证了一些惊艳的 demo,但却不怎么看到完全跑通的技术方案。

因此,如同婴儿学会走路一样,机器人在掌握基础技能后,才能逐步拓展到更广泛的应用场景,沿着一条符合逻辑的发展轨迹前进。

这与自动驾驶技术的发展轨迹颇为相似,总是先在规范和可控的高速公路环境中进行测试和应用。

在一次访谈中,宇树科技创始人王兴兴在谈及人形机器人的终极形态时指出,人形并非是必然的选择。当前人形机器人的发展更多是为了适应社会共识。

他强调,智能的核心不在于外观形态,而在于其功能。无论在视觉识别还是任务执行方面,智能机器人都应该能够完成甚至超越人类的工作。

在人形机器人的发展还远未成熟之际,轰鸣工厂车间里的工业机器人也提前证明了机器人的未来存在感。其中汽车行业尤为突出。在比亚迪的现代化生产车间里,冲压、焊装等环节都有工业机器人的身影。

甚至一些无人驾驶 L4+ 本身就是特殊的机器人,并且已经率先成为具身智能的最大应用之一。

前一段时间,百度无人驾驶萝卜快跑在湖北武汉的订单量激增,让不少网友感叹中年失业后的生计也岌岌可危。然而割裂的是,用户却对萝卜快跑给予了高度评价。

比起人类司机,情绪稳定的无人驾驶在安全性已经可以说是遥遥领先。

它不会超速、也不会压线,更懂交通法,顶多就是太守规矩,急着上班的武汉市民免不了要吐槽它慢吞吞的行驶速度。

所以你看,实际场景下的机器人本身其实也可以很安全。而且就跟机器人都往人形机器人赛道内卷一样,无人驾驶汽车居然也还是汽车的模样。机器人的外形越来越像人了,但能力好像也越来越碾压人了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


借行业科普聊了一次 AI 与设计师的关系

By: Steven
5 April 2023 at 14:53

上个月去上海之前,@取景框看世界 在微信上邀请我一起做一期关于设计行业的科普视频,面向学生群体做一次对行业整体状况的分享。这次是 B站 向他发起的约稿,也是他频道的主要内容类型之一。答应他后,从上海回来我就根据自己这么些年的体会和反思,录了一期比较掏心窝的内容。由于参与的人比较多,直到前天,节目才终于上线。

🎥 点击图片跳转到播放页面

因为参与的人数比较多,我说的话也比较多,所以在汇总的成片里需要剪掉一些。但我又觉得难得录一期视频(从去年11月到现在都没有更过视频了),为了保证表达的完整性,我还是得有一个自己的版本。但因为实在忙得顾不过来,于是麻烦 @小雨 帮我把这条视频剪了出来。

毕竟是 @怪物尚志 的御用摄影/后期,有他的帮忙,我的视频里头一回多了许多配合文案的动画,比我一个人在镜头前单口相声好看多了。这一期花絮,也在昨天发了出来,跟正片错开一天。

🎥 点击封面跳转到播放页面

这期视频的封面是我昨晚用 midjourney 画的。

在这条视频里,除了科普工业设计的一些基本概念和行业现状,我也特别聊了一下 AIGC 和设计师之间的关系。前两个月虽然一直很忙,但我也一直在关注 AIGC 的动向。这两个月的变化实在是过于惊人了!

以下是我去年八九月用 midjourney 画的一些东西:

然而在这短短半年内,版本已经从当时的 v3 发展到了现在的 v5。ChatGPT 也从 GPT-3 发展到了 GPT-4,坊间传言 GPT-5 的研发已经完成且爬完了全网所有视频,可以直指某一条视频中的某一段话,只是还没发布。可以说开年后的这两个月内,AIGC 的发展速度已经大大超乎了预料,甚至正处于失控的边缘,它们正在开始颠覆一些东西。将来会发生什么,无法预料,但一定有什么事情已经在发生了。

所以我觉得,无论如何,再忙也得重新用起来。光是跟进各种新闻和消息是不行的,midjourney 前两天刚发布了由图片转译成 prompt 的新功能,多模态的 AI 已经不远了,这会更进一步推动人和 AI 之间的交互。我觉得,自己还是得保持使用状态才行。所以前两天我又重新充了值,开始体验它的新版本。

我先试着画了一些机甲的东西,例如这样的:

上面的两张的用 prompt 直接生成的,但下面的两张,是用 /remix 命令修改了部分描述词后的新图。可以看到下面的图和上面的图保持了相关性,于是我想试试,如果用这个命令替换背景会是什么效果,于是有了这组车的图:

上面的两张图是用 prompt 直接生成的,当我用 /remix 替换了背景描述的 prompt 之后,就生成了下面的两张。更换环境之后,车辆的姿态和镜头视角几乎没有变化,车身的反光与环境之间的关系也很自然,这个效果已经可以说非常惊人了!

然后,我随便画了一些白色的机器人站在燃烧废墟上的场景:

用 /remix 替换了机器人配色部分的描述词后,生成了下面这样的图:

对 /remix 有了基本的体感之后,我开始尝试用 /blend 命令来做一些融合的实验。

首先,我随便描述了一个赛博少女,得到一些随机的图:

接着,我再随便生成一个红发少女:

材料准备好之后,开始把它们进行组合。

第一次先尝试融合两张图,一个是游戏画风的机甲人,一个是二次元的赛博少女。

它们俩合成后,得到了以下这个人物:

新角色具备其中一张图里人物的长相特征与体态,也有另一张图的配色和机甲特点。虽然得到的结果具有随机性,但既然可以这样融合,那么应该也可以通过 /blend 命令来得到一些更有目的性的创作。

有了第一次的体验后,第二次我用三张图片进行合成:

图一是现画的半透明金属机器人,图二是上面准备好的红发少女,图三是现画的骑士。

这三个合成出来的新角色,同时具备了细碎的金色细节、波浪红发、银白色盔甲:

但这不是我想要的,我想试试加大红发少女的比例。在垫图的方式下,可以通过 –iw 命令来分配各个图片之间的权重占比,但是在 /blend 中不能这么操作。于是,我想通过把合成的新图作为素材,再一次与红发少女进行融合,并加入机甲的元素来强化她身上盔甲的质感。

二次合成使用的图,如下:

合成出来的新角色我非常满意!

她既有红发少女面部和眼神的特征,又把两副银白外甲融合得非常优雅,也保留了初始半透明金属机器人遗传下来的金色金属关节的特征,又做出了图三机甲的坚硬感和图一外甲的银白光泽。这一次的融合很成功。

但如果 /remix 可以局部替换特征,那么这些没有写 prompt 而是通过 /blend 直接合成的图,能否通过 /remix 加入新的 prompt 来修改已有的特征呢?

为了让实验效果明显一些,我想让盔甲的白色部分比例缩小,增加金属部分的比例,于是就先把这批图重新刷了几遍,直到出现肩甲是金色的变异版本:

然后不断在此基础上进一步变异,强化金色肩甲的特征:

所有图片均可以点击放大下载原图

准备好之后,我在 /remix 中添加新的 prompt:pink armor

以下是修改特征后的结果:

所有图片均可以点击放大下载原图

整体的效果我还是挺满意的。一来,新生成的人物很好地保持了最初红发少女的眼神和神态;二来,金色金属被替换成粉色金属后,金属质感的表达是正确的。虽然头发也一起变成了粉色,这确实是没完全理解指令,但原有的发色搭配新的粉色盔甲也确实不是很和谐。

到此,重新开始用 AIGC 工具的热身完毕,找回一些感觉了。

至于这期视频封面里用到的车图,是我昨晚用 Maserati 和 Ferrari 以及 Apple 和 Tesla 分别杂糅出来的缝合怪。虽然乍一看好像没什么新奇的,但是如果我把去年八月底用 midjourney 画的汽车拿出来对比,就会意识到这是多么疯狂的进化速度了:

上面三个是去年八月用 v3 画的车;

下面这些是昨晚用 v5 画的车:

所有图片均可以点击放大下载原图
视频封面使用的图片
所有图片均可以点击放大下载原图

虽然工业设计有大量的细化和落地工作是 AI 无法干的,但从目前来看,无论是 midjourney 还是 Stable Diffusion + controlNET 都已经可以很好地帮助设计师完成概念发散和快速枚举了。这样的图像质量,通过垫图、remix 和 blend 的组合使用,完全可以在创意初期快速拉出一批高质量的「草图」,设计师可以把更多的精力放在对方案思路的推敲、对细节的考据以及各个环节的沟通协调上。

从今年二三月开始到往后的十一二年,人类社会将迎来一场以破坏为开端的变革和创新。

无论我们是否愿意,都将一起进入新的世界。

Ai 绘画将从何处开始进入日常生活?

By: Steven
10 January 2023 at 21:30

最近几个月 Ai 绘画这个话题很火,但基本上大家都只是看个热闹,跟普通人的生活没多大关系。或者说,大家感觉不到它和自己有什么关系。只有相关从业者,感受到了巨大的生存压力和身份危机。

但和当年支付大战的春晚红包类似,能让普通人都参与进来、玩起来的场景可能才能让大家感受到:Ai 绘画意味着什么,能做什么。

尽管众多以文生图的 Ai 工具已经大幅度降低了创作门槛,但是在那之前,各种咒术、法门终究是拦住不少普通人接触 Ai 绘画的一块巨石。我自己也曾在用过某些 Ai 工具后,在一条展示初次接触的创作成果的视频里提醒大家,不要忽视它,但也不要过分害怕它。它一定会给我们的生活带来巨大的变化,只是目前还没积累到那一刻,仅此而已。

如果说有什么场景,类似发红包那样简单明了,人人都可以参与,我觉得有一个非常合适的应用场景,那就是用 Ai 生成定制头像。对于不具备绘画能力、不懂念咒语、不会使用绘图软件的大多数人而言,Ai 画头像就是各类修图美容软件一级的场景,既有尝新和娱乐,也有充分的社交属性,和红包非常相似。

最近试用了一下漫镜,一个感觉是,神情抓得不错,风格也足够多,用它来探索自己不同造型的可能性,还是挺有启发的!因此中途我想到一件事,如果这类产品的效率再高一些,跟各大连锁发型屋合作,预约时就上传几张照片,生成几套发型方案,人到了现场就让托尼老师根据效果图来剪,这不是非常好的体验升级么?谁说 Ai 必然逼得人失业呢?还得是看人怎么用。

除了头像,你觉得还有哪些场景,适合普通人体验 Ai 绘画呢?

点解图片体验 AI 制作头像

AI 在餐饮界也卷出了「萝卜快跑」,打饭比食堂阿姨手稳,炒菜接近大厨

By: 张成晨
26 July 2024 at 13:38

背景设定在 2035 年的《我,机器人》里,NS-5 机器人手起刀落,切菜速度像开了两倍速,快过练习时长 30 年的老师傅。

虽然威尔·史密斯一脸嫌弃,但我脑海浮现的是电影中机器人公司的广告词:「女士们先生们,它将成为您家庭和工作中的绝佳伙伴,赶快行动,机不可失……」

现实比科幻发展得缓慢,2024 年了,大多数人还没吃上一口机器人做的饭。

不过,也有一些机器人,已经在你看不见的地方上岗,以另一种方式征服你的胃。

2 年打出 2000 万份菜,AI 的手比食堂阿姨稳

威尔·史密斯面对的是上千机器人方阵,进入 Chef Robotics 的工厂,你看见的是一套由 AI 驱动的机械臂系统。

这是一家总部位于旧金山的初创公司,盯准了一个小众场景:工业厨房,为超市货架、航空餐饮等大规模生产即食、冷冻食品的地方。

机器人不是做饭,而是「打饭」,有些类似后厨的切配工,根据菜谱预制各种冷冻食品,照顾国际口味,从印度咖喱鸡块,到意大利香蒜酱饺子。

它们不眠不休,天天准时上班,既节省了人力,也可以减少浪费,因为掌控分量比人类更精准,不会像食堂阿姨那样手抖。

比起传统的机器人,它们又更加姿态灵活。各种类型的食物,主食、蔬菜、肉类、酱汁,块状、丝状、流体状,都可以夹起来。

遇到不同形状的容器、不同速度的传送带,机器人总会让食物落到正确的地方。

分量不一的食物,机器人照样可以对症下药,用不同的工具抓取大份和小份。

什么,难道之前不是用机器人包装的吗?

并不,这行也是劳动密集型的,传统的机器人更适合罐头等单一食品的大规模生产,人类比机器人灵活多了,可以适应不同食谱的生产线,而且某些难搞的食材,如米饭或碎奶酪,过去很难用机器人操作。

工人们待在冷藏室里,连续几个小时舀豌豆、土豆或米饭,工作内容很枯燥,让人想起卓别林在《摩登时代》里拧螺丝的经典场面。

正因如此,Chef Robotics 创始人兼首席执行官 Rajat Bhageria 觉得,机器人在这个领域仍然大有可为,关键是能不能做到一点:让机器人像人类一样,给各种类型的食材装盘。

但这是一道「先有鸡还是先有蛋」的难题。

ChatGPT 等大语言模型从互联网学习数据,但食品行业并没有很多现成的训练数据,食物的情况又很复杂,可能会变形、黏腻、潮湿…… 所以,为了生成有用的训练数据,必须在现实里部署机器人。

Chef Robotic 的系统经过了数万小时生产数据的预训练,然后在工厂上岗,安上摄像头和传感器,其实就是在继续训练,同时它们会和人类协作,不是一开始就完全自动化。获取的数据越多,AI 越进步,机器人也越来越自主。

在过去的两年里,Chef Robotic 生产了 2000 万份菜肴,在美国和加拿大的六个城市部署了机器人,并学会了如何操作数百种食材。

大语言模型预测句子中最有可能的下一个单词,而 Chef Robotic 的模型,知道机器人接下来该采取哪个动作。

Chef Robotic 不直接出售机器,而是出售服务,走机器人即服务 (RaaS) 模式。

北美即食餐饮品牌 Amy’s Kitchen 是其中一个客户,一个 Chef Robotic 系统可以完成两到四名工人的工作,上下的浮动,具体取决于是什么食材。

机器人把人的活给干了,那人负责干什么?

目前来看,人类还是要在触摸屏上输入生产的食物名称,帮机器人连接好要用的器具,甚至在生产线上和机器人协作,各装各的菜。

至于未来,Amy’s Kitchen 提出一个设想:人类管理和维护机器人就好了,比如在机器人忙着分装的时候,保证食材充足。

但听着,只是给机器人打下手换了个高大上的说法。

机器人加快效率,人类在角落辅助机器

AI 最强大的影响将以具身智能的形式发生在物理世界,物理世界占 GDP 的 90%。

Chef Robotics 创始人兼首席执行官 Rajat Bhageria 如是说。

当 AI 生成文案、图片、视频屡见报端,让格子间打工人战战兢兢,线下的变化虽然更为低调,却也持续不断地发生,百度旗下的无人驾驶车「萝卜快跑」就是一个例子。

其实,餐饮机器人从来不是新鲜事,但隔三差五总会有新的动态,存在感更强的,是比 Chef Robotic 离餐馆更近、直接做饭给顾客吃的机器人。

轻食品牌 Sweetgreen,2023 年 5 月推出了沙拉制作机器人。

五颜六色的食材放置在管道里,机器人控制好份量,将羽衣甘蓝、奶酪等食材放到传送带上的碗中,并进行搅拌和混合。

看起来不高的技术含量,Sweetgreen 其实花了多年的时间研究。比如,山羊奶酪容易结块,樱桃番茄容易被压扁,让机器人对这些食材「得心应手」,费了一番功夫。

和 Chef Robotic 的情况类似,Sweetgreen 的人类员工也不能闲着。

他们全天盯着屏幕准备补充食材,把做好的沙拉送给顾客,有时候负责收尾,往沙拉上添加香草、牛油果等机器人还没法操作的食材。上完一天班,还要清洁机器人系统。

Sweetgreen 说得很好听,午餐高峰期,只需要一到两个人类员工和机器人一起制作沙拉,而传统流程需要七到九个人。机器人 5 分钟不到就能制作一碗沙拉,人类员工处理一份订单却需要 15 分钟。

除了节省时间和人力,机器人还能避免忙中出错、混淆订单,保持份量的精确和统一。这话很耳熟,Chef Robotic 也是这么讲的。

但真的降本增效了吗?Sweetgreen 拒绝对外透露机器的制造成本,到了 2024 年初,只开出了两家自动化餐厅,并且选址都在郊区,需求并没有那么大。因为不确定自动化能带来多少利润,摩根士丹利分析师也保持谨慎观望。

类似地,休闲快餐品牌 Chipotle 从 2022 年开始,试点制作玉米片的机器人 Chippy,减轻员工的负担。按下葫芦又起瓢,Chipotle 发现,Chippy 并没有想象中好用,因为清洁起来太麻烦了。

但 Chipotle 并没有放弃,也许是派的活不对,太为难机器人。2023 年,他们又开始试验切开牛油果并去皮、去核的机器人 Autocado,更方便人工制作牛油果酱。

简而言之,在目前这个阶段,后厨也好,前台也罢,有了机器人,人类仍然在打工,围绕机器人力不可及的部分,更换了工作内容。

2017 年烈火烹油的无人零售,只是概念性的无人,那些原来负责收银的店员,转而负责机器暂时无法操作的业务,比如现制食物、补充货架。

如今,这样的故事依然没有什么本质的改变。

机器人还在复刻人类的初级阶段,但标准化即是力量

冷冰冰的「白人饭」,机器人已经在做了,强调「锅气」的中国菜,机器人也在挑战了。

斯坦福大学的 ALOHA 机器人,今年 1 月惊艳亮相,可以做出滑蛋虾仁、干贝烧鸡、蚝油生菜等菜肴。

别急着高兴,ALOHA 的能力分为两部分,一种是能够自主完成的,一种是需要人类远程操作完成的。炒滑蛋虾仁之类的复杂任务,就属于后一种。ALOHA 可以模仿学习,但还远远不能到达你点什么它都给做的境界。

英伟达高级科学家 Jim Fan 也发过推文解释,ALOHA 仍然有人类远程控制,并非独立自主,应该将它看成一款精良的跑车,高超的赛车技巧还是要看人类。

一方水土养一方机器人,国内当然也有专攻炒菜机器人的公司,其中有代表性的是 AI 炒菜机器人公司橡鹿科技,最近再获京东近 2 亿元战略投资。

▲ 图片来自:见水印

他们的炒菜机器人「美膳狮」,服务门店超千家,涵盖八大菜系超 800 道食谱,打出「真爆炒、锅气足」「接近专业厨师炒制」的口号,相对更加自动化。人类把食材放到相应的位置之后,接着美膳狮可以自己投菜、投料、控温、炒菜甚至洗锅。

人类还是要发挥一点作用的,更重要的是,美膳狮想做的也不是超越大厨,而是复刻大厨,推进中餐标准化,加快连锁店铺扩张,尽管支持菜谱微调辣度、酸度、熟度等,做的本质还是标准化的事情。

这就很有意思了,在做饭这个博大精深的领域,我们离完全自主的机器人厨师还很远。

但论标准化,从打菜到炒菜,很多环节都有公司在参与了,机器人不手抖、不喊累、不浪费、水平稳定,人类要么被挤占位置,要么被派到新的岗位辅助机器人。

人类的智慧和老祖宗的技艺还没有完全被征服,可标准化已经足够解决市场的大部分需求。

一个代表性的前例是寿司机器人。

1981 年,日本公司 Suzumo Machinery 发明了世界上第一款寿司机器人,用途就是捏饭团。发展到现在,寿司机器人已经根据偏好的口味,控制饭团的大小和硬度。

当初,寿司机器人的推出遭受了很大的阻力,因为寿司被认为是一门匠人的工艺,寿司本身也昂贵而奢侈。时至今日,仍然有《寿司之神》这样的纪录片,将制作寿司的过程看得至高无上。

但寿司实现廉价、大规模生产,回转寿司连锁门店扩张到全球,离不开机器人的贡献。不是所有餐馆都请得起十年磨一剑的寿司大师,也不是所有人都会去一号难求的百年老店。很多时候,不难吃其实就可以了。

未来,我们在超市买冷冻食品,或者下馆子聚餐,都有机会吃到机器人做的饭,但很可能毫无所觉,或者并不在乎。

一叶知秋,管中窥豹,未来面对其他 AI 生成的事物,作为消费者的我们,内心活动未必不是这样。

利若秋霜,辟除凶殃。 工作邮箱:zhangchengchen@ifanr.com

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌