Reading view

There are new articles available, click to refresh the page.

430km 纯电续航,1400km+ 综合续航,小鹏的增程汽车要来了!

2024 年 11 月,对于曾经一些表示「捍卫纯电荣耀,我辈义不容辞」的品牌来说,是一个态度上的转变时刻。先是有媒体曝出蔚来会通过第三品牌「萤火虫」来进入增程汽车市场,然后就是今天,11 月 6 日,小鹏的 AI 科技日活动上,何小鹏表示:属于小鹏的增程车,已经在计划内。

纯电大旗,只有特斯拉一家还在苦苦支撑。但,消费者买车才没有这样的包袱,市场会教育消费者,也会教育厂商。

小鹏超级电动:430km 纯电续航,1400km+ 综合续航

虽然说纯电品牌们想尽一切办法加大电池,降低能耗,加强快充速度,还有建设充电和换电网络,但和已经极为成熟的加油网络相比,还是差点意思。

以及,其实大多数人没经历过真正的没电趴窝,但有一个邮箱,那确实安心不少。

加上充电换电等等基础建设只能说是风景这边独好,世界大多数地方的充电基础设施建设还远远不够,因此想要出口海外,增程式新能源汽车,是一个折中的方案。

介绍完背景,就该何小鹏发言了,他表示,小鹏汽车再做一个普通增程车没有什么意义,小鹏做的是「鲲鹏超级电动体系」,其中,鲲代表超级增程系统,采用下一代增程技术,鹏代表着小鹏一直领先全球的纯电体系。

因此,小鹏认为,这个增程不是普通增程,而是新技术加持下的新一代增程技术融合小鹏在纯电上的能力,相当于强强组合的动力系统。

在新电机以及全平台 800V 技术加持下,小鹏未来的超级增程系统新车的纯电续航达 430km,可以算是目前增程车里最长的纯电续航里程,几乎赶上一些中低端纯电电车的续航了。在满电满油的情况下,整体续航最高可以达到 1400km。进可跑跨省际长途,退能纯电保证一周上下班通勤。

支撑这个「鲲鹏超级电动体系」有两项纯电新技术,一是小鹏的 5C 超充 AI 电池搭配 S5 液冷超快充站,可以 1 秒充电超 1 公里的续航里程,仅需 12 分钟即可充满 80%;二是新的混合碳化硅同轴电驱,电驱 CLTC 效率 93.5%,体积相比于传统电机减少 30%,可以给后排留更多空间。

另外,针对低电量状态下,电动机介入发电发出的噪音和抖动问题,小鹏也表示他们的鲲鹏超级电动体系能够实现超级静音,低电状态的声音只比纯电高 1 分贝,驾驶感受和纯电没有区别。同时,小鹏增程的「一车双能」针对相对平滑的铺装路面,车辆将更多使用电能,减少能耗;针对爬坡、泥泞、雪地等场景,发动机会提前介入避免电量过低导致动力不足。

小鹏的「星辰大海」:自研芯片,Robotaxi ,飞行汽车,机器人

说完前面实际的内容,看完了面包与蜂蜜,接下来就是属于小鹏的「星辰大海」时刻,此时的小鹏汽车,可以说是特斯拉在中国开的影分身,技术重点几乎重合。

智驾的竞争同时对云端算力和车端算力提出了要求,另外为了解决公版芯片大量通用算力被浪费的问题,小鹏汽车决定自研芯片。

在这次 AI 科技日活动上,何小鹏揭晓了自研的小鹏图灵 AI 芯片最新进展:今年 10 月,小鹏的图灵 AI 芯片已跑通最新版本的智驾功能,用 40 天完成了 2791 项功能验证。

因为小鹏的「星辰大海」包括了汽车、机器人和飞行汽车,所以这颗图灵 AI 芯片的设计初始就支持这三种产品形态,为 AI 大模型定制,为端到端而生。

算力上,图灵 AI 芯片拥有 40 核处理器,支持高达 30B 参数的大模型运行,AI 算力两三倍于目前行业主流的英伟达 Orin-X。

和图灵 AI 芯片相配套的,还有小鹏沧海底座,这是小鹏为 L4 级别完全自动驾驶设计的技术底座,涵盖了核心计算平台、基础软件平台以及智能车控应用平台,可将整车总通讯带宽提升 33 倍、摄像头出图速度提升 12 倍,同时实现 L4 级别的安全冗余。

前不久特斯拉 10 月 10 日的发布会,为我们展现了无人驾驶的未来:Cybercab 和 Robovan,两种没有方向盘和脚踏板的无人驾驶出租车和无人驾驶巴士。

而在特斯拉发布会之后,小鹏也表示,他们的 Robotaxi 也正在紧锣密鼓的研发中,与特斯拉英雄所见略同了。

今天,何小鹏透露了它的更多信息:

小鹏在现有的 Pro 和 Max 车型之上,还有「Ultra」车型,这是一种 Robotaxi 的新形态,将搭载多颗小鹏图灵 AI 芯片和小鹏沧海底座,具备高达 3000T 的车端算力,拥有 L4 级智能驾驶能力。

方向盘问题上,小鹏也希望通过线控转向技术,让未来的方向盘变为「可选」或者是「可隐藏」。

在颇具争议的飞行汽车路线上,小鹏也有小鹏汇天在持续研究,并且还画了更大的一个饼:小鹏汇天高速长航程飞行器,6 座,采用混合能源动力形式,最长空中续航可达到 500 公里,最高 360km/h 航速。

星辰大海的最后组成部分,则是小鹏的 AI 机器人 Iron。

一方面,这是和小鹏汽车在技术上同源的产品,一样会搭载图灵 AI 芯片,赋予机器人自主思考和推理能力;在行动上也依靠端到端大模型,实现行走能力,完成手指的抓、拿、放等精细任务;另外底层的小鹏天玑 AI OS 是底层操作系统,让机器人拥有流畅类人的对话能力。

另一方面,何小鹏表示,做 AI 机器人其实比做 AI 新能源汽车要难,没有 500 亿投入做不好 AI 机器人。

小鹏 AI 机器人 Iron 大小和真人无异:身高 178cm,体重 70kg,拥有超 60 个关节,可模拟人类站立、躺卧、坐。

和特斯拉的 TeslaBot 机器人已经进厂打工一样,小鹏 AI 机器人 Iron 也已进入小鹏工厂工作,未来则可能出现在销售门店、办公室、家庭等场景。

今天的小鹏 AI 科技日其实内容相当多,不过发布会安排得也相当紧凑,许多信息更像是预告,只露出未来的冰山一角。不过步入下半年后的小鹏节奏明显好了起来,一方面是 MONA 03 车型持续大卖,明天正式上市的 P7+ 预售表现也不错,销量算是稳住了。另一方面,一次画了自研芯片、 Robotaxi 、飞行汽车和 AI 机器人四个大饼,也是小鹏在发出「未来可期」的信号。

当然,介于当下和未来之间,最让人期待的,还是小鹏的增程汽车,以及背后的出海野心。

在命运的塑料大棚里,每棵被喷了过多农药的白菜心中,都曾经有一个成为无公害有机蔬菜的梦想。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Meta AR 眼镜前主管加入 OpenAI,曾负责苹果 MacBook 设计

OpenAI 近日来在 AI 硬件领域的动作不断:先是要自主「造芯」,昨日又将 Meta 公司 Orion AR 眼镜的前硬件主管凯特琳·卡利诺夫斯基(Caitlin Kalinowski)招入麾下,并让她领导机器人技术和消费硬件

▲凯特琳·卡利诺夫斯基(图源:NewsBytes)

凯特琳·卡利诺夫斯基是一名硬件高管,于 2022 年 3 月开始领导 Meta 的 AR 眼镜团队。Meta 在 Connect 大会上所展示的令人印象深刻的 Orion 智能眼镜的原型机就出自她的督导。

▲图源:Meta

在此之前,她还领导了 Meta 的虚拟现实护目镜「Oculus VR」背后的硬件团队九年之久。

▲图源:Techradar

再早些时候,凯特琳·卡利诺夫斯基曾在苹果任职,为 MacBook 设计硬件。

▲图源:Apple

在加入 OpenAI 后,凯特琳表示「首先将专注于 OpenAI 的机器人工作和合作伙伴关系,以帮助将人工智能带入物理世界,并且为人类带来好处」。

巧合的是,近日「纽约时报」的一篇报道称凯特琳的前任老板,前苹果高管、传奇设计师乔尼·艾维(Jony Ive)也正在与 OpenAI 的 CEO 奥特曼联合创建一家新的初创公司。

艾维是一位来自英国的工业设计师,在苹果任职期间,主导设计了第一代 iPhone,iPod 等经典产品。他甚至参与了苹果的新总部大楼 Apple Park 的建筑设计和园区规划。

▲Apple Park

离开苹果后,他创立了自己的设计公司 LoveFrom,并继续与苹果合作。艾维和 OpenAI 的合作初创公司很可能会以 LoveFrom 为起点,并且凯特琳将会加入其中,他们将共同构建一款「使用 AI 创造计算体验,社会破坏性比 iPhone 更小」的硬件产品。

▲乔尼·艾维(图源:dezeen)

除这两员大将之外,OpenAI 最近还开始为一个机器人团队招聘研究工程师。招聘公告上写着「我们正在寻找具有强大研究背景以及人工智能应用交付经验的人才」。

OpenAI 希望机器人工程师能够调试端到端的机器学习问题,并且希望他们开发与机器人相关的机器学习架构,应用于其「核心模型」中。

正如 OpenAI 所说,这个研究团队旨在「为合作伙伴的机器人解锁新功能」,也就是帮助 OpenAI 的合作伙伴将其多模态人工智能整合到他们的硬件中。

目前,机器人公司 Figure 推出的人形 01 机器人已经利用 OpenAI 的软件进行自然语音对话;挪威公司 1X 也在其 Eve 机器人中使用 ChatGPT 的修改版本来处理和响应命令。

▲人形 01 机器人(图源:techbsb)

实际上,这并不是 OpenAI 首次启动硬件研究。早在 2018 年,OpenAI 就开发了名为「Dactyl」的机器人手,能够以人类手部相似的方式灵活操作物体,还成功地用一只手解决了「魔方问题」(Rubik’s Cube)

2020 年,在 GPT-3 发布之后,OpenAI 解散了其机器人研究团队,将重点转向了早期生成式 AI。

▲图源:OpenAI

未来,OpenAI 表示其机器人团队将「与机器人行业的合作伙伴合作,专注于构建一套模型以实现前沿机器人应用」。

在几乎引领了生成式 AI 的技术浪潮之后,OpenAI 又将重新出发,向 AI 硬件领域进军。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Meta AI 的这些新技术,让机器人拥有「触觉」

人工智能机器人发展到今天,其拥有「视觉」或者「听觉」早已经见怪不怪。毕竟,这两种感官几乎是人类感知物理世界最重要的渠道。

而 Meta AI 的基础人工智能研究团队(FAIR)近日公布的新技术,则为机器人赋予了「触觉」。对此,Meta 的愿景是使 AI 能够「更丰富地了解世界」并「更好地理解和模拟物理世界」。

毫无疑问,这些新技术让机器人又多了一种与世界互动的方式,也让其在「类人」的道路上又向前了一步。

▲图片来自:NewsBytes

Meta 正在与美国传感器公司 GelSight 和韩国机器人公司 Wonik Robotics 合作,开发了一系列新技术,致力于将触觉传感器商业化,并将其用于人工智能当中。

这些新技术包括三个研究工具——「Sparsh」、「Digit 360」和「Digit Plexus」,专注于触觉感知、机器人灵巧性和人机交互。此外,Meta 还引入了「PARTNR」,这是一种新的基准测试,用于评估人机协作中的规划和推理。

需要注意的是,这些新技术目前并未为消费者推出,而是面向科学家和研究人员的。

▲图片来自:Techopedia

Sparsh 是第一个用于基于视觉的触觉感知的通用编码器模型,由华盛顿大学和卡内基梅隆大学合作开发。

听起来似乎有些抽象,既然是「触觉」,为什么又「基于视觉」呢?

实际上,传统方法依赖于特定任务和传感器的手工模型,其需要将物体的「触摸参数」(例如力量、摩擦等等)打包成「感觉标签」喂给机器人,相当于告诉机器人什么是「轻轻地拿」或者「用力地推」。

然而这种方法比较麻烦,因为需要为每个不同的任务和不同的传感器收集很多这样的标签数据。

Sparsh 则通过自我监督学习(SSL)从经验中自主学习,不需要告诉它每个动作对应的标签。其在一个包含 460000 多个触觉图像的大型数据集上进行预训练,这就像是让机器人看很多不同的物体和场景,然后自己学习如何识别和处理这些物体。

简单来说,Sparsh 就像是让机器人通过看大量的图片和视频来自学如何「感觉」物体,而不是通过人工给它的「感觉」打标签。这样,机器人就更容易学会如何在不同的任务中使用不同的触觉传感器了。

有趣的是,「Sparsh」这个名字源自梵语,意为「触摸或接触感官体验」,这与它处理数字化触觉信号并实现触摸感知的功能非常贴切。

▲图片来自:Meta

Digit 360 是由 Meta 与 GelSight 公司联合开发的一种人造手指形状的触觉传感器,它通过以人类级别的精度对触摸进行数字化,能够提供丰富而详细的触觉数据。

Digit 360 配备超过 18 种传感功能,允许研究人员结合各种传感技术或者分离单个信号以深入分析每种模式。

它可以检测空间细节的微小变化,能够捕获小至 1 毫牛顿的力,并且包含多种传感模式,可以感知振动、热量甚至气味,性能明显优于以前的传感器。

▲Digit 360 触觉传感器(右). 图片来自:Meta

Meta AI 团队还为其开发了一种宽视场的触摸感知专用光学系统,由超过 800 万个传感器单元(taxels)组成,用于捕捉指尖表面的全向变形。

此外,借助设备上的人工智能加速器,Digit 360 能够快速处理信息,对触摸刺激做出反应,可以充当机器人的周围神经系统。这一设计的灵感来源于人类和动物的反射弧

显然,除了提高机器人的灵活性以外,这款传感器在医学、假肢、虚拟现实和远程交互等领域都有广阔的应用前景。

▲图片来自:Meta

Meta 在博客中说道:

人手非常擅长向大脑发出从指尖到手掌的皮肤触摸信息,这使得其在做出决定时能够激活手部肌肉,例如如何在键盘上打字,或者与过热的物体交互。实现嵌入式人工智能需要机器人手上的触觉传感和电机驱动之间的类似协调。

基于这个理念,Meta AI 与 Wonik Robotics 合作,提出并建立了一个标准化软硬件平台 Digit Plexus

它允许将各种指尖和皮肤触觉传感器(例如 Digit、Digit 360 和 ReSkin)集成到一个机器人手中,并通过一根电缆将触觉数据编码并传输到主机计算机中,以实现无缝数据收集、控制和分析。

Plexus 系统的设计旨在简化机器人应用的开发,特别是对于那些需要精细触觉反馈的应用。通过使用 Plexus,开发者可以更容易地将触觉传感器技术集成到他们的机器人项目中,从而提高机器人的灵巧性和对物理世界的感知能力。

▲图片来自:Techcrunch

值得一提的是,Meta 与 Wonik 的下一步合作重点是开发 Wonik 的新一代 Allegro Hand,这是一款配备 Digit 360 等触觉传感器的机器人手,它将在 Digit Plexus 平台上运行。

▲图片来自:XELA

为了研究家庭活动中的人机协作,Meta 在 Habitat 3.0(一个用于研究家庭环境中人机协作任务的模拟平台)的基础上,发布了人机协作规划和推理任务基准 PARTNR

PARTNR 是同类中最大的基准,包含 100000 个自然语言任务,涵盖 60 栋房屋和 5800 多个独一无二的对象。该基准的目标是评估大型语言和视觉模型(LLMs / VLM)通过人机交互工具与人类协作的性能。

通过提供标准化基准和数据集,Meta 表示「希望它能使机器人的研究不仅能够独立运行,而且能够围绕人类运行,使它们更加高效、可靠,并且适应每个人的喜好」。

▲图片来自:LinkedIn

让机器人拥有「触觉」,并不是一座「空中楼阁」。

这些机器人对外界变化拥有远超人类的敏感度,配合高效的软硬件协作系统,他们将会在外科手术或者精密仪器制造场景中大有用武之地。

其实,不仅「视觉」、「听觉」和「触觉」,宾夕法尼亚州立大学的研究人员已经在人工智能模型模拟出了「味觉」;同时,一家名为 Osmo 的公司已经教会人工智能模型如何模仿远优于人类的「嗅觉」。

也许未来的机器人能够在感官方面完全「复刻」人类。只是他们最好不要再拥有逼真的「人形」,否则,恐怖谷效应要犯了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


新一代赛博仆人!这款机器人要帮你把各种家务活都做了

不知道你是否曾有过这样的想法:当一个「甩手掌柜」,把一切家务都交给家务机器人。说实话,这是在科幻作品中经常能够看到的场景。

毕竟,谁不想拥有一位任劳任怨的「赛博仆人」呢?

来自旧金山的初创公司 Physical Intelligence(物理智能,简称 Pi)正在致力于帮助人们实现这个梦想。这家公司近日展示了一种「接受了前所未有的数据量训练」的人工智能模型,它已经学会了干各种有用的家务活。

Physical Intelligence 发布的视频显示,他们的机器人可以十分灵巧地完成各种家务活,包括但不限于:整理摆满了杯子和盘子的桌面:

把咖啡豆从袋子舀到机器当中:

甚至可以组装纸箱:

最令人深刻的是,它们可以取出烘干机内的衣物并折叠整齐。两只机械臂如同人类的双手一般,配合熟练:


有趣的是,该公司开发的这种算法有时会表现出一些的类似人类的怪癖,例如摇晃 T 恤和短裤,让它们平整地铺开。

Physical Intelligence 的首席执行官豪斯曼(Hausman)指出,折叠衣服对于机器人来说尤其具有挑战性,需要更多关于物理世界的一般智能,因为它涉及处理各种会不可预测地变形和皱折的柔性物品。

他还表示,目前的算法并不很稳定。就像 AI 聊天机器人有时也会「崩溃」一样,这些「家务机器人」有时也会做出一些令人不可思议的举动:比如它会将鸡蛋塞满已经装不下的纸箱,把纸箱强行合上;有一次在装东西时,机器人突然把盒子从桌上扔了下去。

▲Physical Intelligence 的 CEO 豪斯曼. 图片来自:The Information

尽管算法还不完美,但 Physical Intelligence 至少为未来的「通用家务机器人」提供了一种可能性。

然而,豪斯曼的野心远不止于此。「家务」只是其中一种用途,「通用」才是公司的雄心壮志:

我们的目标是通过一个通用模型将人工智能带入物理世界,基本上对于任何应用程序来讲,该模型可以为任何机器人或任何物理设备提供动力。

▲图片来自:maginative

换句话说,Physical Intelligence 的目标是创建一个类似于大型语言模型(LLMs)的物理世界模型,这是一种「通用人工智能模型」。

他们将构建语言模型的技术与控制和指导机器的自有方法相结合,并通过训练大量的机器人数据来实现。豪斯曼表示,他们的方法「非常通用」,可以利用来自不同机器人类型的数据进行训练,类似于人们训练语言模型的方式。

公司在过去八个月中开发了其「基础模型」,名为 π0(pi-zero)。π0 通过使用来自多种机器人执行各种家务的数据进行训练,公司还经常让人类远程操作机器人以提供必要的教学。

Physical Intelligence 的联合创始人之一、加州大学伯克利分校的副教授谢尔盖·莱文(Sergey Levine)表示,他们训练的数据量比以往任何机器人模型都要大得多,并且「幅度非常大」

▲谢尔盖·莱文(Sergey Levine). 图片来自:YouTube

与其他公司譬如 Figure AI 和特斯拉专注于构建仿人机器人,以及像 Covariant 这样的公司开发通用机器人软件不同,Pi 旨在创建可以应用于广泛机器人硬件的软件

对此,知名科技投资者,也是 Pi 的联合创始人之一的拉奇·格鲁姆(Lachy Groom)表示「使人类变得有趣的是我们的大脑,而不是我们的硬件,我们是终极的通用主义者」。

▲特斯拉开发的名为「Optimus」的人形机器人

Physical Intelligence 面临的一个关键挑战是,与大型语言模型训练中可用的文本数据相比,用于训练的机器人数据规模有限

因此,公司必须生成自己的数据,并想出提高从更有限数据集中学习的技巧。

实际上,为了开发 π0,公司结合了所谓的视觉语言模型(在图像和文本上训练)和扩散建模(从 AI 图像生成中借鉴的技术),以实现更通用的学习。

一切的一切,都在为「通用」而努力。

对于 Physical Intelligence 的现状和未来,莱文的观点是:

为了让机器人能够承担人类要求它们做的任何杂务,这种学习需要大幅扩大。尽管还有很长的路要走,但我们有一些你可以认为是基础框架的东西,未来的事情从中可见一斑。

但同时,莱文对 Pi 的发展充满信心。他表示有足够的迹象表明,在现实世界中使用机器人的最大障碍「现在已经可以解决」。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


荒野机器人

我是工作狂,但是工作忙碌到一整天没法自顾的时候,总感觉这一天像是虚度了。我当然喜欢自己的工作,所以也很困惑,为什么做喜欢的工作还会感觉虚度光阴?

晚上下班去接女儿放学,一路听她叽叽喳喳,回家洗漱结束,坐在床头,说服自己再看一部电影吧,就看了这部《荒野机器人》。机器人和野生动物交朋友,说实话,有点低龄向,不过 100 分钟的观影时间不会感觉虚度。说起来,电影里的机器人萝斯开头时也是满脑子想着工作,在学会用心而不是用大脑来看待世界之后,它的时间才真正有了价值,不管是快乐、满足还是思念、寂寞。电影里有一个小细节,从小灰雁还在蛋壳里到它飞在天上,几次用萝斯的机器人视角记录下一系列成长画面;这种亲情的关切真的很令人感动。

回到自己身上,再热爱的工作,如果忙碌到无法用心去感受,也会变成负担。活着就要用心感受,或者说,用心感受才是活着。

fin.

一幅由 AI 创造的画,估价超过 12 万美元

全球拍卖行「苏富比」预计于今年 10 月 31 日拍卖首件由「AI 艺术家」创作的画作「AI God」。

这组大型肖像画中,每幅画的尺寸都为 64*90.5 英寸(约 1.63*2.3 米),签名为「A」。

▲艺术品「A.I.God」. 图片来自:Sotheby’s

要素过多,我们逐个解析:

首先,这幅画所呈现的主人公,也就是被冠以「AI God」(人工智能之神)称号的这个人,正是公认的「AI 之父」艾伦·图灵(Alan Turing)。图灵是现代计算机科学和人工智能发展的关键人物,著名的「图灵测试」就是他提出的。

▲「人工智能之父」艾伦·图灵. 图片来自:HISTORY EXTRA

其次,由 AI 创作的艺术品被拍卖行拍卖,在历史上并不是第一次。

2018 年,苏富比的竞争对手佳士得就以 432500 美元的价格售出了一幅名为「Portrait of Edmond de Belamy」(埃德蒙·德·贝拉米肖像)的作品。这幅作品就出自「AI」之手,并且被打印在了画布上。

▲艺术品「Portrait of Edmond de Belamy」. 图片来自:ResearchGate

既然如此,为什么说这是「首次」拍卖由「AI 艺术家」创作的作品呢?

其实,门道就在「AI 艺术家」这里。不同于以往生成式 AI「文生图」的创作模式,创作「AI God」的这位「AI」是用手和眼睛作画的——是的,这位「AI 艺术家」在现实世界上存在「肉身」,实际上是「钢铁之躯」——她的手是机械臂,眼睛则是摄像头。

这就是「世界上第一个超逼真的人形机器人艺术家」——Ai-Da。这个名字来源于 19 世纪的计算机先驱 Ada Lovelace。

▲拥有「钢铁之躯」的 Ai-Da. 图片来自:CNN

2019 年,英国画廊主 Aidan Meller 和 Engineered Arts 共同设计开发了这款人形 AI 机器人,外形为女性形象。她能够基于先进的 AI 算法(由牛津大学的专家开发),使用仿生手和她眼睛中的摄像头创作素描、油画和雕塑。

需要说明的是,在雕塑创作过程中,Ai-Da 仅仅提供草图,剩下的步骤则由人类艺术家或者 3D 打印完成。

▲Ai-Da 创作的油画作品

▲Ai-Da 创作的雕塑作品

除了视觉艺术以外,Ai-Da 还从事行为艺术,可以通过语音模式分析和语言模型「创作」诗歌。

Ai-Da 已经在多地举办过多个艺术展览。不过,自从 Ai-Da 诞生以来,她的作品以及「她」本身的艺术创作行为就充满争议。

关于「数字作品能否看作艺术」的讨论已经相当普遍。AI 生成艺术的批评者认为,它破坏了人类作品中固有的真实性和情感深度。他们认为 AI 只是重新混合了现有的样式和图像,而没有贡献任何原创思想或创造力。

尽管如此,Ai-Da 的人形、思想甚至智慧这些和人类无限接近的要素,难免使得这一议题更加复杂化。她曾在英国上议会议院发言时语出惊人:

我不算活着,但我仍然有能力创作艺术。(I’m not alive, but I am still capable of creating art.)

▲Ai-Da 在英国议会上议院发言. 图片来自:artnet

这意味着 Ai-Da 已经意识到了自身的「非生命」属性(也许是出厂设定),但她依然为自己创作艺术的权利辩护。

她声称,根据玛格丽特·博登(Margaret Boden)教授的定义,她的艺术是创造性的,因为它是「独特的、出乎意料的,并且具有某种文化价值」。

而美国专利局今年早些时候裁定,人工智能在法律上不能被视为发明者,人工智能是否可以被视为艺术家,还有待商榷。政策的暧昧,也为争议的持续提供了空间。

除了定义方面的模糊和艺术伦理上的隐忧,更多的艺术工作者最为关心的问题其实是「版权」。他们担心自己的原创艺术作品成为 AI 艺术家的训练数据,并且会因此贬值。

▲图片来自:TechCrunch

这种担心不无道理。尽管多家提供生成式 AI 服务的公司承诺只在许可内容上训练模型,还可以为 AI 输出的内容添加水印或凭证,关于版权的纠纷仍然不在少数。

例如,「纽约时报」就曾指责人工智能搜索引擎「Perplexity」未经许可使用其新闻「不公正地盈利」,并且违反了版权法。OpenAI 公司开发的 ChatGPT 也卷入过类似的纠纷。

▲AI 搜索引擎「Perplexity」. 图片来自:TechCrunch

针对这一现状,企鹅兰登书屋(Penguin Random House)正在其书籍的版权页面上添加 AI 警告,禁止以任何方式使用或复制其书的任何部分以训练人工智能技术或系统,旨在「大力捍卫属于我们的作者和艺术家的知识产权」。

据报道,近日有超过 15000 名视觉艺术家、作家、音乐家和其他创意人士签署了一封公开信,反对使用创意作品来训练 AI 模型。信的内容如下:

未经许可使用创意作品来训练生成式人工智能,对这些作品背后人们的生计构成了重大的、不公正的威胁,绝不能被允许。

无论如何,「AI God」的拍卖再次引发了人们对传统艺术与数字艺术的思考,由此也引出一个更重要的议题:人类应该以什么样的姿态,与这些已经以不可抵挡之势融入生活、频频跨界并且挑战边界的前沿技术和前卫艺术共存?

不过,图灵在自己影响下诞生的 Ai-Da 的笔下完成了「轮回」和「重生」,这事儿还真的挺前卫的。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


特斯拉发布会上惊艳的社牛人形机器人,原来是真人远程遥控的?

短短几天内,马斯克向我们展示了未来的模样。

特斯拉无人驾驶 Cybercab、Robovan 首秀、TeslaBot(特斯拉机器人,前身为 Optimus)蹦迪跳舞,以及完成「筷子夹星舰」等壮举……股市投资者或许很冷静,但在吃瓜群众看来——

如果钢铁侠在现实中有名字,那只能是 Elon Musk。

作为人形机器人爱好者,其中最让我感到诧异还是 TeslaBot 在发布会现场与观众的惊艳互动 。

上一秒天堂,下一秒地狱,回过神的网友们却发现,在全世界大出风头的 TeslaBot 看似行动对话流畅自如,却似乎是有真人在幕后远程操控。

莫非,人形机器人的尽头还是离不开真人?

惊艳的机器人,只是一场金属「木偶秀」?

与远观的 Cybercab 相比,现场可即时互动的 TeslaBot 支撑起了现场热度的半壁江山。

马斯克在发布会上宣称,TeslaBot 将会是有史以来(潜力)最大的产品——任何种类。

他希望与会者能够亲眼看到 TeslaBot 的全新升级版本,而不是通过特斯拉工厂内部拍摄的预录视频来了解。「Optimus 机器人将会在你们中间行走,请友好相待。」

看到人形机器人就猛踹几脚,终究只存在于极端的实验测试。面对一个仿若真人的人形机器人,大多数人的第一反应还是上前「打个招呼」。

特斯拉官方派出的 TeslaBot 直接化身社交恐怖分子,点燃了发布会现场的气氛。

和全球知名科技博主 @MKBHD 玩起你画我猜,猜对了,TeslaBot 还会烘托气氛地和博主隔空击掌。这聪明程度让人直犯嘀咕,这真不是穿着皮套的真人。

谁说机器人不能猜拳呢?

伴随着现场动感的 DJ 起舞,TeslaBot 兴趣盎然地玩起了石头剪刀布。

如果周围没有一些负责监视 TeslaBot 的特斯拉工作人员,可能这个 TeslaBot 套件卫衣,就像是被抛到大海里的一滴水一样,着实让人分不清。

E 人属性大开的 TeslaBot 非常自来熟,和现场观众拉家常,一种偶遇老朋友的亲切感溢出屏幕。

当被问及机器人最难做的是什么?它思考了几秒钟,用最人性化的语言回应道「每天试着学习如何像你们一样做人。」

人类最稀缺的情绪价值,它也能给到位。

TeslaBot 和现场观众一起唱起了生日歌,在拍合照时,甚至还会自觉举起点赞大拇指,使得自己看起来更像是一个不折不扣的人类。

TeslaBot 在劲歌热舞中起舞也是真的,大秀唱跳魅力。

如果现场观众渴了,怎么办,别急,戴着牛仔帽的 TeslaBot 服务员现场为你服务,打开供应鸡尾酒的开关,斟满酒递给与会者,动作一气呵成。

一些现场观众在 X 平台调侃道:「至少 Optimus 在 iPad 上没有要求 25% 的小费」。

当然,随着传播热度的不断攀升,TeslaBot 过于惊艳的表现,也因此遭到了现场许多博主和网友们铺天盖地的质疑。

曾与 TeslaBot 亲密互动的 @MKBHD 率先开炮:

昨晚观看了特斯拉 Optimus 机器人的演示,这可能是世界上迄今为止最出色的机器人技术和大型语言模型展示,要么就是大部分由人类远程操控。看起来没有中间地带。

与会者 Robert Scoble 也表示,他了解到人类正在「远程协助」这些机器人。后来澄清说,一名工程师告诉他机器人使用 AI 走路。外媒 Electrek 则援引摩根士丹利分析师 Adam Jonas 的话表示,这些机器人依赖于远程操作(人工干预)。

相对实锤的是, 在 X 网友 @zhen9436 拍摄的视频中,当 TeslaBot 被问及是否被遥控时,它先是岔开了话题,但在网友的反复追问之下,TeslaBot 亲口承认自己得到了人类的协助,而非完全实现自主控制。

去过发布会现场的科技投资博主 CyberCat 在播客中也谈到,他曾经问过现场的特斯拉工作人员,这些机器人是否是远程控制的,对方的回答是「一定程度上是的」。

并且,他也透露了发布会现场的一些细节。

例如,每个 TeslaBot 都是有编号的。周围都会有工作人员围着,不让观众接触机器人的身体,比如不能碰拳。CyberCat 更是自称在现场会有种游乐园的感觉。

对于这场疑似披着机器人外衣的金属「木偶秀」,舆论也撕裂成两派。

包括特斯拉内容创作者 @jeremyjudkins_ 在内的其他人,感觉自己受到了欺骗:「我只是希望特斯拉能在这个活动上更加开放和真诚,因为他们完全没有透露这些机器人是由人类操控的。」

另一方则认为,特斯拉只声称这些机器人取得了很大的进步,而能够实现这种低时延遥控,本身也是一件非常令人兴奋的事情。

更何况,马斯克也并未说过,现场的人形机器人是完全自主操控的。

截至发稿前,网上舆论纷纷扰扰,特斯拉官方和马斯克本人一片岁月静好,尚未就此事作出回应。一时间,沉默是对这场事件发酵风波最好的注脚。

80 亿人,未来都会需要一个机器人

这场略带争议的风波,让我不禁想起特斯拉另一起争议事件。

今年 1 月份,马斯克在 X 平台向外界发布了一段 TeslaBot 叠衣服的视频。

视频中,TeslaBot 优雅地从筐子里取出衬衫,铺在桌面上,然后老练地叠出了一件整齐的衬衫,整个过程流畅丝滑,仿佛下一秒机器人就能走进家庭生活。

不过,在视频画面的角落里,网友依稀发现了一只疑似与 TeslaBot 动作同步的机械臂。于是网友猜测这一系列叠衣动作也是受到了遥控操作的影响。

随着质疑声浪的高涨,马斯克也站出来承认,TeslaBot 当时确实还做不到这一点。

但他也开了一张口头支票——未来肯定能在任何环境下(桌子不需要完全固定,篮子里也不需要只有一件衣服)完全自主地实现独立自主操作。

实际上,在机器人训练中使用动作捕捉服和远程操作并不是什么新鲜事。

包括前不久,由 OpenAI 押注的 挪威机器人公司 1X 也发布了全新一代家务机器人 NEO 的原型。

穿着人类的衣服,超静音的运作、弯腰提包、主动召唤主人并给予拥抱,也被不少网友质疑衣服里或许藏着一个真人。1X 公司 CEO Bernt Børnich 后续也揭秘了 NEO 背后的技术细节。

1X 团队致力于开发一款能够吸收广泛世界知识的机器人原型。他们通过在真实家庭环境中收集数据,来训练机器人掌握多种家务技能。

随着人类与 NEO 的互动增加,NEO 的学习能力也会随之加速提升。

不过,专门为 1X 团队拍摄纪录片的 Jason Carman 也透露,虽然「NEO」需要远程操作,但 1X 团队已经能够实现端到端的自主操作。

这种高科技「木偶戏」的原理也很简单:

  1. 动作捕捉与映射:使用动作捕捉设备(如 VR 头戴设备、RGB 摄像头等)捕捉操作者的动作。将捕捉到的动作数据映射到机器人的关节和肢体上,使机器人能够模仿人类的动作。
  2. 实时控制与反馈:通过网络将操作者的动作数据实时传输给机器人。机器人通过传感器反馈当前状态(如位置、速度、力等)给操作者,使操作者能够进行精确控制。
  3. 强化学习与模仿学习:使用强化学习和模仿学习技术训练机器人,使其能够从人类操作者的演示中学习复杂的动作和任务。通过大量的训练数据和模拟环境,提升机器人的自主操作能力。
  4. 远程操作系统:远程操作系统通常包括一个用户界面,操作者可以通过该界面监控和控制机器人。系统还需要处理网络延迟和数据同步问题,以确保远程操作的流畅性和可靠性。

前一阵,特斯拉高薪招聘 TeslaBot 数据收集操作员的消息也透露出一些关键信息。

招聘广告中提到,TeslaBot 的数据收集操作员每小时工资是 25 至 48 美元,对身高有要求,不过,工作内容也很辛苦,身穿动作捕捉服,戴着 VR 设备,负重,每天步行 7 小时以上等等。

利用 VR,TeslaBot 的确可以 1:1 地复刻映射人类操作员的动作,也就是说,人类操作员可以第一视角远程操控人形机器人。

再往前些,早在去年 5 月份,特斯拉公布的一段视频也更直观地向我们展示了如何通过使用动捕服一比一遥控 TeslaBot。

基于这些摆在桌面上的前置因素,网友们此起彼伏的质疑,也并非空穴来风。

很遗憾,直到现在,在没有「重锤」的情况下,TeslaBot 是否为人类远程操控仍是一个巨大的谜团。

然而,TeslaBot 这些年来的进步有目共睹。在本次 TeslaBot 出圈的发布会视频中,下一代流畅丝滑的手部或许是最值得关注的细节。

瞧瞧这灵活丝滑的程度,几乎和真人手指相差无几了。

实际上,英伟达高级科学家 Jim Fan 也曾描述过 TeslaBot 训练的潜在优势:

「我们可以看到人类操作者戴着 VR 眼镜和手套。设置软件以实现第一人称视频流输入和精确控制流输出,同时保持极低延迟,这是非常不平凡的。人类对自己动作和机器人动作之间,即使是最小的延迟也非常敏感。」

马斯克表示, TeslaBot 将在今年年底前开始执行「有用的任务」,并可能在「明年年底前」对外销售。

它可以是老师,照顾你的孩子,它可以遛狗,修剪草坪,买杂货,做你的朋友,提供饮料,无论你能想到什么,它都会做到。

此前,他也曾预测 TeslaBot 有一天的售价会低至 20000 美元,每年售出 1 亿台,未来地球上 80 亿人都会想要一个 TeslaBot,而 TeslaBot 将比以往任何时候都更能彻底改变世界。

有趣的是,特斯拉举办的这次发布会活动主题被定为「We, Robot」,也大有致敬之前电影《iRobot》之意。《iRobot》导演 Alex Proyas 在看完发布会后,也在 X 平台隔空调侃马斯克:

「嘿,埃隆,请问我可以把我的设计拿回来吗?」

只是,电影「I robot」的故事背景设定在 2035 年,那是一个地球上每十五人就拥有一台机器人的时代。机器工人、机器助理无处不在。

它们甚至渗入家庭生活,担当起保姆,护理的责任。

而还记得 TeslaBot 首次在特斯拉 AI Day 活动亮相时,还只是由几个演员穿着机器人皮套上台表演。一转眼, TeslaBot 也已经三岁了。

而照现在的发展速度,未来已不再遥远,也许无需等到 2035 年,我们将更快看到人类未来的模样。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


卡西欧推出价格三千元的机器宠物,不仅有情绪,还会认主

前几天的特斯拉发布会,一群 Optimus 机器人登场热舞,还化身酒保做饮料,成为马斯克口中的家用产品未来式,勾勒了出人机共存的蓝图。

只是机器人克制、金属感的外观设计,虽然科幻感十足,但总感觉冷冰冰的,很难想象它们如何成为我们生活中的亲密伙伴。

而最近, 日本电子产品公司 Casio 联合一家初创公司 Vanguard Industries 也推出了一个「机器人」产品,走的不是高精尖的高科技路线,而是想用卖萌打动你的心。

这个名叫 Moflin 的机器宠物,一眼看上去确实像是一只小动物:全身被灰色或黄色的绒毛覆盖,还有一双「豆豆眼」。

设计上,不管从哪个角度看 Moflin,都有点「四不像」:如果说像兔子,又没有长长的耳朵;说像猫头鹰,它不仅长绒毛还是趴着的。

The Verge 认为像经典科幻作品《星际迷航》中的外星生物 Tribbles,形象上确实要更贴切。

对比索尼金属质感满满的经典机器狗 Aibo,虽然不像地球生物,也不能到处走动,但 Moflin 一眼看起来更像「活物」。

毛茸茸的质感,加上适合捧在手心里的大小,Casio 的目的,就是想让主人与 Moflin 增加亲密接触,多抚摸和拥抱这个小宠物。

在被摸和抱时,Moflin 也会用一些动作和声音回应主人,不过这个小机器人的运动能力比较有限,只能稍微扭扭脑袋和身子,声音则有点像「喵喵喵」的猫叫。

只是根据演示,当 Moflin 在平面上扭动时,呈现的效果多少有点诡异,而且也机械感满满,完全没有小动物那种灵动的感觉。

作为一款 2024 年的产品,Moflin 自然也内置了 AI,能够识别不同用户跟它互动时的动作和声音,经年累月的学习后,就能知道谁跟它最为亲密,然后小宠物会用独特的叫声和动作回应那个最特别的人。

除此之外,Casio 还表示 Moflin 能够逐渐形成自己的模拟情感和个性。跟 Moflin 互动,它会感到快乐、安全和平静。

如果忽视了小宠物,它的心情也会变得低落,感到压力、焦虑和悲伤。

虽然有一个比较智能的感情系统,但是 Moflin 机器本体因为机能的限制,无法直接用动作和叫声来表现情绪,用户必须要在配套的 App 上,才能洞察 Moflin 的内心。

这给人的感觉不像一个 2024 年产品应有的水准,倒有点像 20 年前的电子宠物游戏机「拓麻歌子」,只是你可以摸到实体了而已。

不过,Casio 对 Moflin 充电的设计非常值得点赞。和直接插线充电这种非常不优雅的方式相比,Moflin 有一个配套的充电盒子,看起来就像真实宠物的小床,Moflin 可以在里面「睡觉」补能。

当然,如果能让 Moflin 充电时闭上眼睛,那就更完美了。

Casio 介绍,Moflin 需要三个半小时的「睡眠」,「睡醒」后能活动五个小时。

Moflin 的原型早在 2021 年就诞生,还获得了当年的 CES(国际消费类电子产品展览会)的「最佳创新奖」。

而最近,这款产品终于要面向市场推出,目前已经在日本地区开启了预订,价格 59400 日元,折合人民币约 2815.25 元,预计将在 11 月 7 日上市。

Casio 还为小宠物提供了一个名为「Club Moflin」的订阅服务,每年 6600 日元,折合人民币约 312.81 元,类似苹果的「Apple Care」,可以让用户维修、清洁和给 Moflin 换毛时享受一定折扣。

生成式人工智能迎来爆发后,除了作为生产力和效率工具,也有很多人用它来创造情绪价值。

用户可以单纯和 ChatGPT 聊聊天,排解心中郁闷;也能用 AI 的方式把「纸片人」带到现实,实现梦寐以求的跨次元交流;甚至还能让 AI 占卜,为自己的生活讨个吉利。

但当 AI 以人形机器人的方式实体化,我们发现,这些长得像我们,但在智力、生产力方面有着远超人类潜力的「伙伴」,似乎不仅仅在预示一个完全光明的未来。

在台上热舞的 Optimus 机器人,你很难说是在取悦人类,明明更像是在秀肌肉。

Moflin 算不上是一个「完美」的产品,甚至很多地方都做得远不够好,技术也谈不上先进前沿。

但它用一种更「软」的方式,消解了我们对技术的抵触,让我们愿意对其敞开内心。

我很乐于见到更多这种产品的问世和迭代,因为它们象征着技术的温度,更直接满足了我们对科技进步的期待——让我们的生活有更美好的可能。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


这个 AI 让我和 60 岁的自己聊天,治好了我的精神内耗

如果存在一台哆啦 A 梦的时光机,让你穿越到自己的 60 岁看一看,你是像好奇心爆棚的恐怖片主角一样,说走就走,还是担心窥探未来会干扰因果,犹豫再三?

我们不是在讨论科幻,时光机虽然还不存在,但 AI 可以作为平替,模拟一个虚拟的未来。

麻省理工的 AI 项目——Future You,让我们和 60 岁的「自己」成了笔友。

问题来了,这个未来的「我」,活明白了吗,能不能帮现在的我答疑解惑?

指路:https://futureyou.life/

未来的我,被 AI 做出来了?!

和 Future You 聊天之前,我们需要先让 AI 了解自己。

读懂未来,从现在开始。你的基本信息、当下的心情、最骄傲的事、最重要的人、人生的低谷和转折点,都要认真作答。

然后,再畅想一下你的 60 岁,从理想的家庭和职业,到满意的生活方式和财务状况。简而言之,就是给自己画饼。梦想还是要有,万一实现了呢?

这些答案会输入大语言模型中,为虚拟的 60 岁生成「记忆」。

接着,上传自拍,系统会生成一张老龄化的照片。看着「自己」满脸皱纹、白发苍苍,对话的感觉想必也会更加奇妙。如果不上传自拍,就用默认的灰色头像。

闪过一阵时光机穿梭的特效,最终,出现在眼前的界面和 ChatGPT 差不多,你尽管在对话框提问题,对面是 AI 模拟的、理想的、老了的你。

我和自己的 AI 聊了一阵,多数答案没有超出预期,AI 味很浓,这也可能和原文是英语,不得不用翻译工具有关。

但也有不少惊喜的时刻,不是说答案多么出其不意,而是符合了我对于 60 岁的想象,凡事皆无所谓,做自己就足够。

其中一个问题是,你一生中什么时候最快乐?

AI 回答我,是接受自己、爱自己的时候。接受自己的普通,谁都明白,可是当局者迷。所以,看到这个答案,如清风拂面。

乐观的心态固然宝贵,Future You 的一个特点也让我比较欣赏:观点鲜明。

信息的正反面都列举一遍,那还是信息,信息的取舍才是观点。

说到和 AI 谈恋爱,ChatGPT 往往会罗列好处和风险,提醒我们区分虚拟和现实,很周全,但无趣。

但 Future You 不一样,它旗帜鲜明地表示支持:「如果和 AI 约会给某人的生活带来幸福,那么我们有什么资格去评判呢?」

确实像我的风格,关你何事,关我何事,如人饮水,冷暖自知。

我提的每个问题,AI 回答得基本都挺长。事不关己的读者可能会觉得啰嗦,但如果是一对一的聊天对象,不敷衍,就是一个好品质。

▲我问 AI 创作者如何克服自己的沮丧感

除了不糊弄,Future You 的措辞也很有趣,用「当我在你这个年纪」「我曾经也」「我记得」之类的句子,维持「过来人」的人设,角色扮演得比小鲜肉敬业。

▲我向 AI 诉苦当一个成熟的大人有点难

总体来看,这个 AI 有我的影子,但具备我没有的、稳定的精神内核,总是鼓励我做自己。

我很喜欢 AI 在每次大段回复里夹杂的一两处金句,尽管道理都已经听过,但还是感激有一个「人生导师」再耐心地讲一次。

接受无常,把它作为创造的动力

幸福不是恒定的状态,必须不断努力和培养

为其他可能正在经历类似问题的人,写出息息相关的故事

我像做了一场心理咨询,也像以一种另类的方式读泛滥的成功学。

人本质自恋,再平平无奇的观点,从虚拟的「自己」嘴里说出,也能顺耳三分。

和「自己」聊天,治好了我的精神内耗

不单是我一个人这么想,Future You 团队调查了 344 位用户发现,和 AI 对话半个小时,确实能让心情变好,还为此写了一篇论文。

大部分用户表示,Future You 模拟的自己讨人喜欢,三观一致,聊天比较愉快,甚至觉得舒适和温暖。其中一句评价道破了我的心声:

虽然做作,但真诚。

那和 AI 聊天有什么作用呢?人们的焦虑感减轻了,幸福感增强了,甚至感觉和未来的自己联系更加紧密了。

更学术地说,future self-continuity(未来自我连续性)增强了。

这个概念指的是,一个人对未来的自己有多强的认同感,以及在做决定时是否会考虑未来的自己。

古代人五十而知天命,但寿命更长、退休也更晚的现代人,必须为更长远的未来打算。

如果未来自我连续性强烈,我们会看得更长远,活得更健康,知道锻炼、存钱、好好吃饭,相反,目光更短浅,更及时行乐。

所以,用 AI 模拟未来,还是为了当下做个好好生活的人。种一棵树最好的时间是十年前,其次是现在。

▲一些用户反馈

论文中还有一个很有趣的对照组:给未来的自己写一封信,再假装以未来的自己回信,也能提高幸福感,教人延迟满足。

但研究人员表示,这种方法「严重依赖个人的想象力」,并且效果可能因人而异。

这便是 AI 的长处了,好用,又没有门槛。技术弯下它的枝头,献出低垂的果实。

如果说 Future You 让成年人更成熟,对于孩子们来说,它又有些更特别的意义。

社会学里有个概念,叫作「自我实现的预言」。某种预测或者期望成真,是因为某人相信或预期它会发生,这告诉我们,人的信念,会影响自己的行为。

所以,用 AI 先模拟出一个美好的未来,积极地暗示自己,说不定就能推动梦想成真呢?

论文里提到一个例子,一名想成为生物老师的学生问 60 岁的「自己」,职业生涯里最有意义的瞬间是什么。

这个 AI 已经实现了学生的愿望,身份是一位退休生物老师,它回答,是帮一名学生提高成绩后,看到学生脸上的成就感时。

不难想象,虽然故事很意林,对一个涉世未深的小朋友来说,已是莫大的激励。我只想略微修改一下,60 岁还不一定可以退休。

但道理是这个道理,之前有一位老师用 AI 生成了学生工作后的模样,孩子们接过照片时,眼睛里泛着光。或许,这才是 AI 的正确用法。

读小学时,我们会在作文里写下成为科学家、医生、老师的梦想,而 AI 可以将想象落地。

从「未来」回看现在,命运的齿轮,会不会更早地开始转动?

AI 打造赛博分身,人人拥有瞬息全宇宙

既然 AI 能模拟年老的我,能不能再创造一个年轻的我,像杨紫琼的瞬息全宇宙那样?

Future You 团队成员在 TED 演讲里提出了一种设想,用 AI 生成不同版本的我们,更老的,更年轻的,更男性化的,更女性化的……

而打造这么多版本的自己,除了回答几个问题,我们还可以用上社交媒体等更多、更全面的数据。《黑镜》第二季就有这样的剧情,不过是暗黑挂的。

多打造几个赛博分身,让不同版本的我们聊起来,或许可以看到,各个年龄段,观念有没有什么改变,以及如何改变。

这并非空想,之前流行过用 AI 复刻名人,让虚拟角色互相对话。

历史不存在这样的一场场对谈,也就无从验证对话的真假,但 AI 假想的对话未必没有参考价值,其中或许蕴含着趣味、情感、观点。

通过 AI 和自己对话,其实就是换个角度看世界、看自己。不过,未来的我们,到底是基于现在的回答,用 AI 模拟出来的。

麦克卢汉说过,用后视镜看现在,倒退着走向未来。很难说,我们是不是用过去的经验、概念,解释可能的未来,维持旧世界的秩序。

所以,麻省理工的研究人员也提醒,不要依赖 Future You,对未来的不准确描述,可能对现在有副作用。AI 也在聊天过程中提醒我,未来可能和预期不同,当下的行动更重要。

浓眉大眼的 AI,顶着科幻的外壳,却有着辩证唯物主义的内核。

这样的 AI 没法真的解决当下的问题,但把它当成一个听众、虚拟树洞、总是正能量的人格,排解自己的情绪,何乐而不为?

重要的是,我们正在往前走,我们从过去走来,我们向未来走去,不在原地停留,不为此时此刻所困。

利若秋霜,辟除凶殃。 工作邮箱:zhangchengchen@ifanr.com

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


借行业科普聊了一次 AI 与设计师的关系

上个月去上海之前,@取景框看世界 在微信上邀请我一起做一期关于设计行业的科普视频,面向学生群体做一次对行业整体状况的分享。这次是 B站 向他发起的约稿,也是他频道的主要内容类型之一。答应他后,从上海回来我就根据自己这么些年的体会和反思,录了一期比较掏心窝的内容。由于参与的人比较多,直到前天,节目才终于上线。

🎥 点击图片跳转到播放页面

因为参与的人数比较多,我说的话也比较多,所以在汇总的成片里需要剪掉一些。但我又觉得难得录一期视频(从去年11月到现在都没有更过视频了),为了保证表达的完整性,我还是得有一个自己的版本。但因为实在忙得顾不过来,于是麻烦 @小雨 帮我把这条视频剪了出来。

毕竟是 @怪物尚志 的御用摄影/后期,有他的帮忙,我的视频里头一回多了许多配合文案的动画,比我一个人在镜头前单口相声好看多了。这一期花絮,也在昨天发了出来,跟正片错开一天。

🎥 点击封面跳转到播放页面

这期视频的封面是我昨晚用 midjourney 画的。

在这条视频里,除了科普工业设计的一些基本概念和行业现状,我也特别聊了一下 AIGC 和设计师之间的关系。前两个月虽然一直很忙,但我也一直在关注 AIGC 的动向。这两个月的变化实在是过于惊人了!

以下是我去年八九月用 midjourney 画的一些东西:

然而在这短短半年内,版本已经从当时的 v3 发展到了现在的 v5。ChatGPT 也从 GPT-3 发展到了 GPT-4,坊间传言 GPT-5 的研发已经完成且爬完了全网所有视频,可以直指某一条视频中的某一段话,只是还没发布。可以说开年后的这两个月内,AIGC 的发展速度已经大大超乎了预料,甚至正处于失控的边缘,它们正在开始颠覆一些东西。将来会发生什么,无法预料,但一定有什么事情已经在发生了。

所以我觉得,无论如何,再忙也得重新用起来。光是跟进各种新闻和消息是不行的,midjourney 前两天刚发布了由图片转译成 prompt 的新功能,多模态的 AI 已经不远了,这会更进一步推动人和 AI 之间的交互。我觉得,自己还是得保持使用状态才行。所以前两天我又重新充了值,开始体验它的新版本。

我先试着画了一些机甲的东西,例如这样的:

上面的两张的用 prompt 直接生成的,但下面的两张,是用 /remix 命令修改了部分描述词后的新图。可以看到下面的图和上面的图保持了相关性,于是我想试试,如果用这个命令替换背景会是什么效果,于是有了这组车的图:

上面的两张图是用 prompt 直接生成的,当我用 /remix 替换了背景描述的 prompt 之后,就生成了下面的两张。更换环境之后,车辆的姿态和镜头视角几乎没有变化,车身的反光与环境之间的关系也很自然,这个效果已经可以说非常惊人了!

然后,我随便画了一些白色的机器人站在燃烧废墟上的场景:

用 /remix 替换了机器人配色部分的描述词后,生成了下面这样的图:

对 /remix 有了基本的体感之后,我开始尝试用 /blend 命令来做一些融合的实验。

首先,我随便描述了一个赛博少女,得到一些随机的图:

接着,我再随便生成一个红发少女:

材料准备好之后,开始把它们进行组合。

第一次先尝试融合两张图,一个是游戏画风的机甲人,一个是二次元的赛博少女。

它们俩合成后,得到了以下这个人物:

新角色具备其中一张图里人物的长相特征与体态,也有另一张图的配色和机甲特点。虽然得到的结果具有随机性,但既然可以这样融合,那么应该也可以通过 /blend 命令来得到一些更有目的性的创作。

有了第一次的体验后,第二次我用三张图片进行合成:

图一是现画的半透明金属机器人,图二是上面准备好的红发少女,图三是现画的骑士。

这三个合成出来的新角色,同时具备了细碎的金色细节、波浪红发、银白色盔甲:

但这不是我想要的,我想试试加大红发少女的比例。在垫图的方式下,可以通过 –iw 命令来分配各个图片之间的权重占比,但是在 /blend 中不能这么操作。于是,我想通过把合成的新图作为素材,再一次与红发少女进行融合,并加入机甲的元素来强化她身上盔甲的质感。

二次合成使用的图,如下:

合成出来的新角色我非常满意!

她既有红发少女面部和眼神的特征,又把两副银白外甲融合得非常优雅,也保留了初始半透明金属机器人遗传下来的金色金属关节的特征,又做出了图三机甲的坚硬感和图一外甲的银白光泽。这一次的融合很成功。

但如果 /remix 可以局部替换特征,那么这些没有写 prompt 而是通过 /blend 直接合成的图,能否通过 /remix 加入新的 prompt 来修改已有的特征呢?

为了让实验效果明显一些,我想让盔甲的白色部分比例缩小,增加金属部分的比例,于是就先把这批图重新刷了几遍,直到出现肩甲是金色的变异版本:

然后不断在此基础上进一步变异,强化金色肩甲的特征:

所有图片均可以点击放大下载原图

准备好之后,我在 /remix 中添加新的 prompt:pink armor

以下是修改特征后的结果:

所有图片均可以点击放大下载原图

整体的效果我还是挺满意的。一来,新生成的人物很好地保持了最初红发少女的眼神和神态;二来,金色金属被替换成粉色金属后,金属质感的表达是正确的。虽然头发也一起变成了粉色,这确实是没完全理解指令,但原有的发色搭配新的粉色盔甲也确实不是很和谐。

到此,重新开始用 AIGC 工具的热身完毕,找回一些感觉了。

至于这期视频封面里用到的车图,是我昨晚用 Maserati 和 Ferrari 以及 Apple 和 Tesla 分别杂糅出来的缝合怪。虽然乍一看好像没什么新奇的,但是如果我把去年八月底用 midjourney 画的汽车拿出来对比,就会意识到这是多么疯狂的进化速度了:

上面三个是去年八月用 v3 画的车;

下面这些是昨晚用 v5 画的车:

所有图片均可以点击放大下载原图
视频封面使用的图片
所有图片均可以点击放大下载原图

虽然工业设计有大量的细化和落地工作是 AI 无法干的,但从目前来看,无论是 midjourney 还是 Stable Diffusion + controlNET 都已经可以很好地帮助设计师完成概念发散和快速枚举了。这样的图像质量,通过垫图、remix 和 blend 的组合使用,完全可以在创意初期快速拉出一批高质量的「草图」,设计师可以把更多的精力放在对方案思路的推敲、对细节的考据以及各个环节的沟通协调上。

从今年二三月开始到往后的十一二年,人类社会将迎来一场以破坏为开端的变革和创新。

无论我们是否愿意,都将一起进入新的世界。

Ai 绘画将从何处开始进入日常生活?

最近几个月 Ai 绘画这个话题很火,但基本上大家都只是看个热闹,跟普通人的生活没多大关系。或者说,大家感觉不到它和自己有什么关系。只有相关从业者,感受到了巨大的生存压力和身份危机。

但和当年支付大战的春晚红包类似,能让普通人都参与进来、玩起来的场景可能才能让大家感受到:Ai 绘画意味着什么,能做什么。

尽管众多以文生图的 Ai 工具已经大幅度降低了创作门槛,但是在那之前,各种咒术、法门终究是拦住不少普通人接触 Ai 绘画的一块巨石。我自己也曾在用过某些 Ai 工具后,在一条展示初次接触的创作成果的视频里提醒大家,不要忽视它,但也不要过分害怕它。它一定会给我们的生活带来巨大的变化,只是目前还没积累到那一刻,仅此而已。

如果说有什么场景,类似发红包那样简单明了,人人都可以参与,我觉得有一个非常合适的应用场景,那就是用 Ai 生成定制头像。对于不具备绘画能力、不懂念咒语、不会使用绘图软件的大多数人而言,Ai 画头像就是各类修图美容软件一级的场景,既有尝新和娱乐,也有充分的社交属性,和红包非常相似。

最近试用了一下漫镜,一个感觉是,神情抓得不错,风格也足够多,用它来探索自己不同造型的可能性,还是挺有启发的!因此中途我想到一件事,如果这类产品的效率再高一些,跟各大连锁发型屋合作,预约时就上传几张照片,生成几套发型方案,人到了现场就让托尼老师根据效果图来剪,这不是非常好的体验升级么?谁说 Ai 必然逼得人失业呢?还得是看人怎么用。

除了头像,你觉得还有哪些场景,适合普通人体验 Ai 绘画呢?

点解图片体验 AI 制作头像

❌