Normal view

There are new articles available, click to refresh the page.
Yesterday — 3 September 2025Main stream

【视频】无人作战装备“机器狼”亮相九三阅兵

3 September 2025 at 13:15
无人作战装备“机器狼”星期三出现在阅兵式陆上无人作战方队。 (视频截图)

由四足机器狗加装上武器或侦察设备的无人作战装备“机器狼”星期三(9月3日)亮相九三阅兵。

中国央视直播画面显示,“机器狼”星期三出现在陆上无人作战方队。解说词介绍说,受阅装备为侦打突击、扫雷排爆、班组支援等无人战车,可远程操控、自主行动、灵活编组,实现陆上有人、无人协同作战新突破。

公开报道显示,“机器狼”原型是一款由中国兵器装备集团旗下公司研制的四足机器狗,在2024年11月珠海航展上首次对外亮相。

据公司官网提供的参数显示,这款四足机器狗使用自主可控的中国国产化芯片,机身前后配置两颗激光雷达,周身搭载五个环视相机,二者结合,可实现360度的全视角感知。

这款机器狗可以扛起最高20公斤的物体,续航里程约10公里,运行时间约2.5小时,能在30秒内完成电池更换。它还能在40度的陡坡爬行,能越过30厘米高的障碍物,在废墟上如履平地,从而适应复杂地形环境。

Before yesterdayMain stream

刚刚,老黄掏出人形机器人最强大脑!宇树们的进化不只是摆脱遥控了

By: 莫崇宇
26 August 2025 at 11:24

钢铁侠的战衣再酷,也比不过贾维斯那颗爱因斯坦般配的超级大脑。

就在刚刚,英伟达正式宣布现实版「贾维斯」——Jetson AGX Thor 开发套件和量产模块全面上市,这款专为物理 AI 与机器人打造的高性能计算平台,性能提升相当不讲武德。

基于英伟达 Blackwell GPU 架构并配备 128GB 内存,相比前一代 Jetson Orin,Jetson Thor 运算性能提升了 7.5 倍,能效提高 3.5 倍,AI 算力最高可达 2070 FP4 TeraFLOPS,而功耗只需要 130 瓦。

此外,Jetson Thor 的核心亮点还在于实时交互能力。

据介绍,Jetson Thor 专为生成式推理模型量身打造,可支持下一代物理 AI 智能体。而这类智能体由大型 transformer 模型、视觉语言模型及视觉语言动作模型驱动,能够在边缘端实时运行,最大限度降低对云端的依赖。

划重点,这就相当于给机器人装了个本地超级大脑,再也不用担心网络卡顿了。

通过 Jetson 软件栈的加持,Thor 完全能够满足实时应用对低延迟和高性能的苛刻要求。而且支持所有主流 AI 框架,包括 Cosmos Reason、DeepSeek、Llama、Gemini、Qwen 等通用模型,还有 Isaac GR00T N1.5 等机器人专用模型。开发者想怎么折腾就怎么折腾,本地实验和推理都不是问题。

依托英伟达 CUDA 生态系统,随着软件版本更新,Thor 的吞吐量与响应速度还会继续提升!这就是传说中的「越用越香」。

它支持运行完整的英伟达 AI 软件栈,基本上能为所有物理 AI 工作流程提供加速。覆盖的平台包括机器人专用的 英伟达 Isaac、视频分析 AI 智能体专用的 英伟达 Metropolis,还有传感器处理专用的 英伟达 Holoscan。

有了这些强大工具,开发者可以玩出各种花样!比如搞个能分析实时摄像头流来查看工人安全的 AI 系统,甚至还能开发基于多摄像头数据为医生提供实时指导的智能手术室。

他们还演示了一个 500 万像素的 Holoscan 传感器连接到 Thor 上,本地跑视频语言模型,4K 立体视频流直接传到 GPU 处理。

Jetson Thor 是英伟达三大计算解决方案的核心成员,专门负责加速物理 AI。

这个完整方案是这样的:DGX 负责训练(相当于「大脑培训中心」),Omniverse 负责合成数据生成和仿真(相当于「虚拟训练场」),而 Thor 就是负责机器人实际运行(相当于「实战部队」)。

Jetson AGX Thor 开发套件的配置也相当丰富,包含一块 Jetson T5000 模块、一块参考载板、一个带风扇的主动散热器以及电源适配器。

如果要配合显示器使用,需要另外准备显示器、键盘和鼠标。为了让搭建过程更顺畅,所有 I/O 接口都集中在开发板的一侧,方便接入传感器并整理线缆。

从接口来看,包含 2 个 USB-A 接口、1 个以太网接口、1 个 DisplayPort 、1 个 HDMI 接口、2 个 USB-C 接口、1 个 QSFP 插槽和 1 个 Microfit 电源扩展口。

在开发套件底部,有一个 M.2 Key-M 插槽(内置 1TB NVMe 存储),以及一个 M.2 Key-E 插槽(预装无线网卡)。在另一侧,还有 三个按键,分别用于电源、强制恢复和重置。上手非常简单,包装内附带一本小册子,其中包含了详细的分步安装指南。

客户阵容也挺豪华。

Agility Robotics、Amazon Robotics、Boston Dynamics、Caterpillar、Figure、Hexagon、Medtronic、联影医疗、万集科技、优必选、银河通用、宇树科技、众擎机器人、智元机器人等厂商已经率先采用了,1X、John Deere、OpenAI 和 Physical Intelligence 也在评估中。连做拖拉机的 John Deere 都来凑热闹,看来农业机械也要智能化了。

英伟达创始人黄仁勋说:「Jetson Thor 专为全球数百万开发者打造,助力他们构建可与物理世界交互、甚至改变物理世界的机器人系统。它具备无与伦比的性能与能效,还能够在边缘设备上同时运行多个生成式 AI 模型。作为一款卓越的超级计算机,Jetson Thor 正致力于推动物理 AI 与通用机器人时代真正到来。」

业内大佬们的评价也很有意思。

Figure 创始人 Brett Adcock 说:「英伟达 Jetson Thor 提供了媲美服务器级的性能,却兼具紧凑与高效的设计,使我们能够部署大规模生成式 AI 模型,让人形机器人具备感知、推理与行动能力。」听起来确实挺科幻的。

宇树科技创始人兼首席执行官王兴兴表示:「宇树科技一直致力于突破动态高性能机器人的能力边界,为所有人打造友好且安全的机器人产品。Jetson Thor 带来了计算能力的巨大飞跃,赋能机器人更强的敏捷性、更快的决策制定以及更高的自主水平,这对于机器人在现实世界中实现导航与交互至关重要。」

Agility Robotics 计划将 Thor 作为其人形机器人 Digit 的计算核心。

Agility 表示,Thor 能让 Digit 在本地运行更大、更强、更智能的策略与推理模型,适用于客户场景和实际部署。它特别关注 Thor 如何帮助 Digit 实现端到端操作与高级场景理解。

更有趣的是 Caterpillar 的 CEO Joe Creed 也来站台:「英伟达 Jetson Thor 提供了我们开发和部署未来工程机械与采矿设备所需的 AI 性能,不仅提升精度,还能减少浪费并提高安全性。」工程机械都要用上 AI 了,以后工地可能真的会很不一样。

在企业使用开发套件完成机器人原型设计后,英伟达还将提供可用于量产型机器人的 Thor T5000 模块。如果一家公司采购超过 1,000 颗 Thor 芯片,单价将降至 2,999 美元。

这怎么不算是买得越多,省得越多呢(doge)

英伟达 CEO 黄仁勋曾表示,机器人是公司在人工智能之外最大的增长机会,这一业务已帮助英伟达在过去两年内整体销售额增长超过三倍。

英伟达机器人与边缘 AI 副总裁 Deepu Talla 上周五在记者电话会上表示:「我们不造机器人,也不造汽车,但通过基础设施计算平台和相关软件,我们赋能了整个行业。」

从 2014 年推出以来,英伟达 Jetson 平台已经吸引了超过 200 万开发者,生态系统有 150 多家合作伙伴,Jetson Orin 让超过 7,000 家客户用上了边缘 AI。现在 Thor 的推出,确实有可能进一步推动视觉 AI 代理和复杂机器人系统的发展。

价格方面,英伟达 Jetson AGX Thor 开发套件现在开售,起价 3,499 美元,大概 2.5 万多人民币。对于开发者来说,这个价位获得这样的性能,性价比还算可以接受。

说实话,从游戏显卡到 AI 训练,现在又是机器人大脑,看这架势英伟达确实在机器人领域布局得挺深。

虽然「通用机器人时代」听起来还有点遥远,但技术进步的速度确实比想象中要快。也许再过几年,家用机器人真的会成为现实,只是希望到那时候这些「钢铁伙伴」别太聪明就好了,不然咱们人类可能真要集体下岗了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


实测大疆 ROMO 扫地机器人:这就是贴地飞行?

By: Lin
6 August 2025 at 20:00

做稳定器、做无人机和运动相机的大疆,终于还是杀进了扫地机器人赛道,惊讶的同时又觉得有些合理。

从技术上来看,大疆有做 RoboMaster 机器人,无人机上的避障系统也可以直接用,这么一想,太合理了。

于是,大疆就做出了他们的第一款扫地机器人—— DJI ROMO。

超前的透明外观,保守的清扫配置

按照配置由低至高分别叫 ROMO S、ROMO A和 ROMO P,爱范儿猜测是代表 Standard、Advanced 和 Professional。

▲ DJI ROMO 系列配置参数及价格一览表,由爱范儿制作。

它的外观让我眼前一亮,这应该是第一个用透明设计的扫地机器人吧。

通透圆润的外壳、充满机械感的内部、整齐清楚的管线和纹理,基站和主机的组合就像一个空间站和太空飞船,无论放在家里哪个位置都是一个很特别的装置。

手机 App 的设计也同样很有品质感,尤其是动画——我太喜欢这个应用的动画了,录了两个给你们看一下,立体的、会动的,非常炫酷。按钮的图标都是像素风,有点像 Nothing 手机的 UI,不知道他们两家是不是有过联系。

扫地机器人这个行业已经卷出了很多新形态,年初还有产品内置了可以伸缩的机械臂,能把鞋子和垃圾给你夹走,这太离谱了。

对大疆来说,真要做个机械臂也不难,悟系列无人机就能在空中自由变形。不过这次他们比较保守,选择基于主流的方案做优化,保留了常见的边刷、拖布双机械臂方案,可以向外伸出提高覆盖率。

两段式防缠绕主刷配合大疆自研的风机和优化的直通式风道设计,吸力高达 25000Pa,洒在地毯上的咖啡粉也能被直接吸走。类似的方案经过了众多消费者的验证,大疆用自己的研发和设计去进一步提升性能。先守正再出奇,这话好像有点耳熟。

把避障系统从天空中带到沙发底

避障就是大疆的主场了。说到这,你知道你家里的扫地机器人是怎么检测障碍物的吗?

  • 市面上最简单的方案是机械碰撞,就像个碰碰车,不撞南墙不死心;
  • 主流的 LDS 方案,里头有这么高速运转的激光雷达,精度高建图快 360 度覆盖,但它只能探测固定的高度,地面上的物体还得靠撞;
  • 比较新的双目视觉方案,通过视差计算深度,再用 AI 识别障碍物的种类,但是需要算力更强的芯片,暗光下还得开灯;

那大疆是怎么做的呢?用四个字来形容那就是——力大砖飞

ROMO 在紧凑的体积里塞进了一组双目视觉传感器和三组双光源固态激光雷达,并且是全系标配。

  • 正面的两颗高性能鱼眼相机负责识别近处的障碍物,根据物体类型采取不同的清扫策略;
  • 双光源固态激光雷达由面光源、线光源和接收器组成。面光源负责探测中距离范围内的障碍物,且因为是负角度对着地面,能精准探测地面障碍物。线光源负责中远距离探测,能快速获取地形信息,有利于快速建图和路径规划。这样的激光雷达组合,正面有两个,背面还有一个。

理论上它的避障性能会很强,我们也实测了一些场景。

地面弯曲的数据线是扫地机器人最大的杀手,基本上每个品牌都针对性地做了避障,而大疆因为有更精确的距离信息,可以做到更极限且灵活的贴边清扫。

面积小而且超级薄的扑克牌,ROMO 也可以识别并调整路径,躲避卡片的同时在没有障碍物的区域穿行清扫。

还有个我觉得挺强的点,因为它前面的两颗鱼眼镜头视角超广,所以它能在转弯前就看到墙角另一侧的障碍物,实时修改路径规划,避免发生碰撞。

如果你家里有宠物的话,一定要关注液体和粪便的避障功能。在检测到地面有不明液体的时候,ROMO 会主动进行更远距离的避让,避免打湿边刷还把其他地方弄脏了,遇到宠物便便的时候也会同样进行避让。

另外因为地图精度高、导航算法强,ROMO 还能在遇到复杂障碍物时候,智能选择不容易堵塞的大路,就像我们在手机导航里选「大路优先」一样,省去了在迷宫里穿梭的时间。

还有个功能叫「柔性拖布」,就是在遇到桌腿的情况下,机器可以一边扭身子一边伸缩拖布,拖布可以紧紧贴着桌腿。

不过可能是测试版的原因,我们在测试的时候偶尔会遇到不够贴边的问题,这个功能还是挺实用的,希望大疆能在之后的版本里大胆「擦边」。

大疆,本就是一家机器人公司

早在半年前听到大疆要做扫地机器人的时候我是真的很震惊,然后就会觉得,对啊,大疆本来就是个机器人公司。

无人机是四个螺旋桨的机器人,「大疆车载」智驾系统是四个轮子的机器人,那扫地机器人就是两个轮子的机器人。大疆在传感器、通信系统、导航系统、控制系统等方面的技术积累,让它可以在多个领域内轻松迁移。

DJI ROMO 作为大疆的第一款扫地机器人,它的确是是市面上很与众不同的东西,独树一帜的外观风格、独领风骚的传感器配置,实际表现却有些不及预期。

不过我觉得这些软件方面的 bug 对大疆来说都不算事儿。毕竟保持技术优势和强大的创新力,是大疆的生存之道。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


荒野机器人

By: dimlau
31 October 2024 at 21:28

我是工作狂,但是工作忙碌到一整天没法自顾的时候,总感觉这一天像是虚度了。我当然喜欢自己的工作,所以也很困惑,为什么做喜欢的工作还会感觉虚度光阴?

晚上下班去接女儿放学,一路听她叽叽喳喳,回家洗漱结束,坐在床头,说服自己再看一部电影吧,就看了这部《荒野机器人》。机器人和野生动物交朋友,说实话,有点低龄向,不过 100 分钟的观影时间不会感觉虚度。说起来,电影里的机器人萝斯开头时也是满脑子想着工作,在学会用心而不是用大脑来看待世界之后,它的时间才真正有了价值,不管是快乐、满足还是思念、寂寞。电影里有一个小细节,从小灰雁还在蛋壳里到它飞在天上,几次用萝斯的机器人视角记录下一系列成长画面;这种亲情的关切真的很令人感动。

回到自己身上,再热爱的工作,如果忙碌到无法用心去感受,也会变成负担。活着就要用心感受,或者说,用心感受才是活着。

fin.

借行业科普聊了一次 AI 与设计师的关系

By: Steven
5 April 2023 at 14:53

上个月去上海之前,@取景框看世界 在微信上邀请我一起做一期关于设计行业的科普视频,面向学生群体做一次对行业整体状况的分享。这次是 B站 向他发起的约稿,也是他频道的主要内容类型之一。答应他后,从上海回来我就根据自己这么些年的体会和反思,录了一期比较掏心窝的内容。由于参与的人比较多,直到前天,节目才终于上线。

🎥 点击图片跳转到播放页面

因为参与的人数比较多,我说的话也比较多,所以在汇总的成片里需要剪掉一些。但我又觉得难得录一期视频(从去年11月到现在都没有更过视频了),为了保证表达的完整性,我还是得有一个自己的版本。但因为实在忙得顾不过来,于是麻烦 @小雨 帮我把这条视频剪了出来。

毕竟是 @怪物尚志 的御用摄影/后期,有他的帮忙,我的视频里头一回多了许多配合文案的动画,比我一个人在镜头前单口相声好看多了。这一期花絮,也在昨天发了出来,跟正片错开一天。

🎥 点击封面跳转到播放页面

这期视频的封面是我昨晚用 midjourney 画的。

在这条视频里,除了科普工业设计的一些基本概念和行业现状,我也特别聊了一下 AIGC 和设计师之间的关系。前两个月虽然一直很忙,但我也一直在关注 AIGC 的动向。这两个月的变化实在是过于惊人了!

以下是我去年八九月用 midjourney 画的一些东西:

然而在这短短半年内,版本已经从当时的 v3 发展到了现在的 v5。ChatGPT 也从 GPT-3 发展到了 GPT-4,坊间传言 GPT-5 的研发已经完成且爬完了全网所有视频,可以直指某一条视频中的某一段话,只是还没发布。可以说开年后的这两个月内,AIGC 的发展速度已经大大超乎了预料,甚至正处于失控的边缘,它们正在开始颠覆一些东西。将来会发生什么,无法预料,但一定有什么事情已经在发生了。

所以我觉得,无论如何,再忙也得重新用起来。光是跟进各种新闻和消息是不行的,midjourney 前两天刚发布了由图片转译成 prompt 的新功能,多模态的 AI 已经不远了,这会更进一步推动人和 AI 之间的交互。我觉得,自己还是得保持使用状态才行。所以前两天我又重新充了值,开始体验它的新版本。

我先试着画了一些机甲的东西,例如这样的:

上面的两张的用 prompt 直接生成的,但下面的两张,是用 /remix 命令修改了部分描述词后的新图。可以看到下面的图和上面的图保持了相关性,于是我想试试,如果用这个命令替换背景会是什么效果,于是有了这组车的图:

上面的两张图是用 prompt 直接生成的,当我用 /remix 替换了背景描述的 prompt 之后,就生成了下面的两张。更换环境之后,车辆的姿态和镜头视角几乎没有变化,车身的反光与环境之间的关系也很自然,这个效果已经可以说非常惊人了!

然后,我随便画了一些白色的机器人站在燃烧废墟上的场景:

用 /remix 替换了机器人配色部分的描述词后,生成了下面这样的图:

对 /remix 有了基本的体感之后,我开始尝试用 /blend 命令来做一些融合的实验。

首先,我随便描述了一个赛博少女,得到一些随机的图:

接着,我再随便生成一个红发少女:

材料准备好之后,开始把它们进行组合。

第一次先尝试融合两张图,一个是游戏画风的机甲人,一个是二次元的赛博少女。

它们俩合成后,得到了以下这个人物:

新角色具备其中一张图里人物的长相特征与体态,也有另一张图的配色和机甲特点。虽然得到的结果具有随机性,但既然可以这样融合,那么应该也可以通过 /blend 命令来得到一些更有目的性的创作。

有了第一次的体验后,第二次我用三张图片进行合成:

图一是现画的半透明金属机器人,图二是上面准备好的红发少女,图三是现画的骑士。

这三个合成出来的新角色,同时具备了细碎的金色细节、波浪红发、银白色盔甲:

但这不是我想要的,我想试试加大红发少女的比例。在垫图的方式下,可以通过 –iw 命令来分配各个图片之间的权重占比,但是在 /blend 中不能这么操作。于是,我想通过把合成的新图作为素材,再一次与红发少女进行融合,并加入机甲的元素来强化她身上盔甲的质感。

二次合成使用的图,如下:

合成出来的新角色我非常满意!

她既有红发少女面部和眼神的特征,又把两副银白外甲融合得非常优雅,也保留了初始半透明金属机器人遗传下来的金色金属关节的特征,又做出了图三机甲的坚硬感和图一外甲的银白光泽。这一次的融合很成功。

但如果 /remix 可以局部替换特征,那么这些没有写 prompt 而是通过 /blend 直接合成的图,能否通过 /remix 加入新的 prompt 来修改已有的特征呢?

为了让实验效果明显一些,我想让盔甲的白色部分比例缩小,增加金属部分的比例,于是就先把这批图重新刷了几遍,直到出现肩甲是金色的变异版本:

然后不断在此基础上进一步变异,强化金色肩甲的特征:

所有图片均可以点击放大下载原图

准备好之后,我在 /remix 中添加新的 prompt:pink armor

以下是修改特征后的结果:

所有图片均可以点击放大下载原图

整体的效果我还是挺满意的。一来,新生成的人物很好地保持了最初红发少女的眼神和神态;二来,金色金属被替换成粉色金属后,金属质感的表达是正确的。虽然头发也一起变成了粉色,这确实是没完全理解指令,但原有的发色搭配新的粉色盔甲也确实不是很和谐。

到此,重新开始用 AIGC 工具的热身完毕,找回一些感觉了。

至于这期视频封面里用到的车图,是我昨晚用 Maserati 和 Ferrari 以及 Apple 和 Tesla 分别杂糅出来的缝合怪。虽然乍一看好像没什么新奇的,但是如果我把去年八月底用 midjourney 画的汽车拿出来对比,就会意识到这是多么疯狂的进化速度了:

上面三个是去年八月用 v3 画的车;

下面这些是昨晚用 v5 画的车:

所有图片均可以点击放大下载原图
视频封面使用的图片
所有图片均可以点击放大下载原图

虽然工业设计有大量的细化和落地工作是 AI 无法干的,但从目前来看,无论是 midjourney 还是 Stable Diffusion + controlNET 都已经可以很好地帮助设计师完成概念发散和快速枚举了。这样的图像质量,通过垫图、remix 和 blend 的组合使用,完全可以在创意初期快速拉出一批高质量的「草图」,设计师可以把更多的精力放在对方案思路的推敲、对细节的考据以及各个环节的沟通协调上。

从今年二三月开始到往后的十一二年,人类社会将迎来一场以破坏为开端的变革和创新。

无论我们是否愿意,都将一起进入新的世界。

❌
❌