Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

曝 Meta 正开发眼镜版 Vision Pro,将于 2027 年亮相

By: 周奕旨
29 August 2024 at 17:00

上一次,新的科技落地于眼镜,还是 2012 年 Google I/O 大会上发布的 Google glass。

时隔十一年,Apple Vision Pro 的横空出世,再度掀起了一阵头戴可穿戴设备的风潮,受到越来越多的科技厂商关注。

在聚光灯下,眼镜作为日常生活中常见的物品,引起了 Meta 的注意。

据 The Information 近日的一份报告称,Meta 正在研发一个代号为 Puffin 的混合现实(MR)眼镜,Puffin 可以看见显示器之外的环境,并对手部与眼球动作进行跟踪,用于交互。

Puffin 采用「煎饼镜片」(Pancake Lens),这在各种智能眼镜中越来越常见,相比传统的光学系统需要较长的光路来投射图像的方案,煎饼镜片通过使用多次反射和折射来折叠光路的方式,以达到有效减轻镜片重量和厚度,在它的加持下,Puffin 的重量可能在 110g 上下。

这台眼镜的外型还未确定,由于要满足功能需求,Puffin 有一个安装着电池和处理器的外部部件——类似于 Apple Vision Pro 的有线电池组,这个部件也许还需要进行一定的调整。

如果研究顺利,Puffin 有望在 2027 年落地。

Meta 对智能眼镜的痴迷其实早就有迹可循。

早在 2021 年 9 月,Meta 就推出了 Ray-Ban Stories 眼镜,眼镜的边缘安装了一颗 5MP 摄像头,这个「可怜」的参数让它更像一个噱头和玩具,拍摄质量远远比不上同期的手机,这样的表现直接反馈到数据上——直到 2023 年 2 月,该设备月活只有 2.7 万,不到售出总量的 10%。

不过惨淡的销量并没有影响 Meta 的决心,在 2023 年 9 月,Meta 又推出了它的继承者 Ray-Ban Meta。

Ray-Ban Meta 的确像样很多,首先就是升级到 12MP 的镜头终于带来了可用的照片和视频质量,扬声器和存储空间也得到了升级,最重要的是——Meta AI 加入其中。

一个在大模型的加持下,能与你语音互动的眼镜,这个概念有够意思,Ray-Ban Meta 总算是为 Meta 挽回了颓势,在推出以后的 2023 年 Q4 的出货量就超过 30 万副,几乎赶上第一代的全周期销量。

Ray-Ban Meta 的成功甚至引起了 Google 的青睐,并试图于 Ray-Ban 的母公司 EssilorLuxottica 洽淡,将 Gemini 助手引入眼镜中。

在第二代 Ray-Ban Meta 智能眼镜大获成功与 Google 试图搅局的态势下,Meta 并没有躺在功劳簿上偷懒,而是选择抓紧研发并推出更多类型的眼镜,持续扩大 Meta 在头部可穿戴领域的影响力和优势。

扎克伯格早在今年七月接受视频采访的时候就透露了 Meta 的新设备:

我几乎准备好展示一副「无可挑剔」的 AR 眼镜了。

而有消息称,在 9 月底即将到来的 Meta Connect 2024 大会上,Meta 将展示一款内部代号为「Orion」的增强现实(AR)眼镜。

不出意外,扎克伯格讲的那台「无可挑剔」的 AR 眼镜,就是 Orion。

根据多篇报告显示,Orion 眼镜已经开发了近十年,尽管目前看来,想大规模生产还需要几年时间,但 Meta 似乎对它充满信心,Meta 的首席技术官 Andrew Bosworth 直言不讳地讲道:

这是地球上最先进的技术,在消费电子产品领域,这可能是我们有史以来生产的最先进的东西。

至此,Meta 在头戴式智能设备的布局蓝图已经全面展开,并陆续落地:

在纯辅助性智能设备上,有 Ray-Ban Meta 系列智能眼镜;
在增强现实(AR)设备上,即将到来的 Orion 眼镜蓄势待发;
而虚拟现实领域,Meta 的 Quest 头显正在稳步更新;
最近爆料的 Puffin 眼镜,则是精确瞄准了混合现实(MR)领域。

Meta 对智能眼镜如此执着,离不开其 CEO 马克·扎克伯格的影响,他在 2021 年将 Facebook 改名为 Meta 后,就强调了「元宇宙」的概念,并为此大力发展头戴智能设备。

在 SIGGRAPH 2024 大会与英伟达 CEO 黄仁勋的对话中,扎克伯格也再次表达了对智能眼镜极高的期望:

我对 AI 与现实世界通过各种智能眼镜结合感到非常乐观,这将彻底改变教育、娱乐和工作的方式。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


两年内 Apple Vision Pro 不会出现杀手级应用|设以观复 番外篇 Vol.2

By: Steven
9 June 2023 at 19:05
点击封面到 YouTube 观看视频

点击这里到 bilibili 观看视频

这期视频是一期比较随性的闲聊,主要从产品、设计、混合现实三个角度,谈谈我对 Apple Vision Pro 这款产品的看法。因为几乎都是独白,所以也可以当作一期 podcast 来收听。

以下为文字大纲:

先说我的观点:苹果选择了一条更艰难的路线。但只要「不做缸中脑」的价值观继续贯彻,这款产品的生态和迭代就是非常值得期待的。但是,它不会取代iPhone,它的目标也不在此。从它的产品定义来看,恐怕还有一个更大的 one more thing 在等待发布。

关于产品

1、不是VR!太好了!

2、之前的预测基本都对了:一体机、眼手控制、层与深度的交互、空间建模、空间音频、LiDAR 人脸建模。技术路径的连贯性。我之前说 M2 芯片单独划出了图形引擎,可能是有手势操作的考虑。但当时我还觉得,可能得要到 M3 才会实装,那是我低估了苹果,从各方体验的反馈看,M2 处理手部操作已经非常强悍了。这样子的话,M3 就真的不着急了。

3、从各方体验的反馈来看,初代产品的完成度非常高。但第一代产品很显然不是面向消费者的,从售价和硬件配置来看,都是给开发者的入场券:「想在下一个时代展示你的才华吗?加入我们的开发平台吧!」所以,买不起没关系,因为不用买。虽然,它有初代 iPhone 的感觉了,但很多人不免怀疑是不是要等三四代以后才堪可用?我到觉得不用那么久,因为软硬件的完成度已经是接近 iPhone 4 的状态了,也就是说,它先奠定了空间交互的完整逻辑和操作体验,硬件也足够强大。要知道,iPhone 初代除了大屏幕和多点触控,几乎没有一样拿得出手的东西,但它的交互设计改变了整个时代。所以 avp 剩下需要做的,就是把软件生态做起来。以苹果今天的开发者号召力,软件神态会比 iPhone 初代更快达到 4 代的状态,这个过程会更短。

4、发布会时,我第一处惊讶的地方,外部屏幕显示实时的眼神:你看着它,它也在看着你,实时计算双方关系。之前的观点:空间重建,让设备认识世界。因此设备下方有大量摄像头,用于捕捉用户手部的精细动作,这种程度的认识现实世界,是 avp 空间交互的基础。

5、我之前说过,头显设备不会替代手机,它的续航、应用场景、对空间的要求以及使用方式,都不会是一台手机这样的随身电子设备。这一点,我们从后续的官方设计原则上也能看到苹果对这件事的理解。人是在室内、坐着使用的。因此续航在现阶段并不是问题,它可以连接常电来使用,和我们的任何一台桌面显示器一样。苹果甚至不建议开发者去设计界面还原的操作,因为它们直接在系统内处理好这件事,你换个座位、换张沙发、换张床后,设备自己识别环境来让你视野内的界面回到合适的位置上。

6、官方设计建议,移动时从沉浸空间中淡出,稳定下来后再回到沉浸空间,这也是官方在主动表达,坐下来、在固定的空间内使用。一方面,这是创造沉浸感的条件,另一方面也是考虑到人身安全,在虚实结合的环境里快速地移动或手舞足蹈是很容易弄伤自己的。因此,我们在用现有的 vr 产品时都会有划定安全区这个操作。

7、杀手级应用?很多人说「3D照片/视频」,但我不觉得这个有足够的吸引力。它确实可以提供新的、生动的体验,但要成为「杀手级应用」,需要足够的便利条件。手机摄影之所以可以动摇传统摄影,是随身携带和随时按下快门。但 avp 的拍摄,更类似无人机视角,是一个你需要这样的视角时,才会需要的东西,它不够便利,不够快。avp 真正的的杀手级应用一定不会在一年内出现,甚至是上市后的一年内也不一定有,它需要开发者和时间一起酝酿和探索。况且,比特与原子的融合,还需要很多后台的工作来完善,比如更大的世界模型,或者催生出新的需求场景。总之,独属于这个平台的杀手级应用,一定诞生在基础建设更完善的时机。

工业设计和交互设计

1、现有产品的大融合吗?在我看来,它更像加大号的 aw:如出一辙的曲面玻璃盖板,复杂的曲面贯穿铝合金机身和玻璃,有机的整体轮廓搭配编织物绑带,贴身部分全部由织物和硅胶材质构成。这就是苹果这几年做手表和耳机的过程中总结下来的,穿戴数字产品的设计原则。avp 上的所有细节,都能在 aw 和 app 上找到对应的处理方案。

2、可以说,继铝合金后,另一个材料探索的方向:织物。亲和力、强韧、富于变化,很适合穿戴式计算设备的设计。这类材料是传统工业设计师并不熟悉的,通常只有部分家具设计师和家纺类产品的设计师会接触到。但是要注意一点,编织物是一种复合材料,它不仅不是塑料、金属这类单一实体材料,它甚至可以是不同种类材料的混合编织,因此可探索的边界,以及可变化的范围,是具有很大想象空间的。这类材料师师会比我了解,看看她有没时间出些视频给大家讲一下这类材料的设计。许多年前的宝马概念车和“大白”,都是柔性材料在科技领域很好的启发。我觉得,这是苹果在工业设计上的进一步探索,也将会带来产业链上的变化,类似氧化铝合金的普及,设计师和产品经理可以关注。

3、所有界面片层化、小组件化,所以小组件可以交互了。在分析灵动岛那条视频里我就说,它是中间交互层在 Face ID 上的具体结合。现在再看 avp 的交互,尤其是应用边缘的交互菜单,是不是很自然地从已有的交互习惯转移到新的空间交互里来了?

4、与 iPhone 初代的拟物化界面类似,AVP 采用了和现在 Mac 一致的界面布局和风格,帮助用户和开发者尽快适应新的空间交互。但是,界面风格其实从 iOS7 开始就固定了,毛玻璃一方面是让界面与环境保持良好的光照、氛围的互动,也能让更多层的展开显得自然。值得注意的是,在设计时,设计师和开发者不需要自己做出立体的分层效果,只需要做好平面的分层,毛玻璃的立体分层效果,是系统来处理的。这些协助和预设不起眼,用户也不会注意到,但对于开发者来说是非常有帮助的,它们不仅规范了所有应用的整体品质,也减轻了开发工作量,让更多人愿意为这个生态去做更多的尝试和探索。这也是护城河的一部分。

5、一个细节:设计原则中建议,层窗口不应跟随视线,而是锚定在现实中的固定位置。换言之,作为设计师和开发者,是可以选择跟随或锚定的。据我了解,把虚拟物品和界面锚定在现实中,是一项比较复杂且难度较大的技术,非常容易因为抖动而破坏沉浸感。这是由于细微误差的累积造成的技术问题。我们目前不知道苹果的技术实现方式,但如果明年上市时看到的确实是稳稳锚定的界面,那这背后的技术储备其实是相当深厚的。

6、观看的内容放大放在远处,操控的部件放在近处并且较小。这里用到了一个符合直觉的设计逻辑:电影、模型、网页这些被观察的对象,应该与人保持距离,和显示屏一样,而操控部件应该在离手较近的地方,方便你的视野锁定并操作,和键盘鼠标触控板一样。

7、苹果对层级的设计有建议,新元素出现时,已有界面和元素应该向后退一些,确保主次关系,保证良好的视觉重心体验。但这个尺度所以所有开发者来说都是比较难把控的,后续的设计规范中应该会有系统层面的自动化方案,不需要设计和开发去重新考虑。

8、设计建议中有一项比较值得注意的,是声音。苹果说你可以让界面的声音从前方传来,也可以四面八方,或者某个指定的角度,这取决于你的应用怎么使用、怎么设计。这一点之所以要重点关注,不仅仅是它有空间音频,更重要的是在空间计算的设备中,声音其实已经是整个UI的一部分了。你对应用的体验、理解,以及交互,都将与空间中的声音紧密相关。因此,参与了这款产品开发的苹果前员工也在推上强调,声音的体验是极少人关注、但极为重要的事情,而这款产品会给人巨大的惊喜。我想,所有设计师和开发者都应该注意这件事。

9、通过最简短、清晰的标签和符号,指引人离开、退出。这不仅仅是 UI 规范的事。因为在沉浸空间内,指引不明确是会比操作电脑、手机,更容易感到困惑、惊慌或愤怒的。在你想离开时,眼睛看向标签,锁定,确定,这种确认方式既符合直觉,也给了人可以随时退出的安全感。

10、因为选定完全依靠眼球追踪,所以为了确保准确度,苹果在设计规范中也提到,按钮的实际可控面积是比按钮本身的面积更大一些的。这里我要补充一点,人眼的活动本身并不是完全线性的,在慢速运动时,其实是一顿一顿的,只是大脑算法弥补了这种抖动。因此,在盯着界面看的时候,人眼实际上就处于这种慢速抖动的状态,眼动追踪也会检测到这种眼球抖动。所以,无论是因为算法矫正,还是优化选择容错率,这种选定范围大于实际面积的设计原则都是必须的。这在触摸屏的交互上,也是很常见的规范。但苹果规定一个按钮至少要保证 60 像素的面积,那就是说,它的眼动锁定范围的极限,大概就是在 60 像素这个区间左右。这一点,在推远玻璃面板时,会自动放大的轮廓也有所体现。因为如果跟随距离缩小,会导致后层界面的交互精度下降,造成系统不可用的问题。至于选定具体文字的精准操作,根据前员工的披露信息,我个人猜测,是由传言中的「眼部脑机接口」的「读心术」来辅助完成的。这件事可以以后再跟进确认。

疑惑

1、交互的力反馈怎么处理?对体感游戏很重要。会有单独的游戏配件吗?

2、混合现实游戏的玩法:不是复原现实游戏,应该是现实中玩不到的玩法,比如巫师棋、游戏王。这样的话,其实也不需要力反馈了。

我对于 XR 的一些看法

1、选择了「不做缸中脑」的价值观,很棒!

2、增强现实和人的链接,是融合,不是制造一个虚拟世界代替。iPhone X 发布的时候,我曾写文章说,需要有边框来界定虚拟和现实的边界,因为沉浸感越强越需要清晰的退出机制,人才会有安全感,才更愿意用。这是交互设计要死守的底线。果然,苹果选择用数码表冠来切换融合程度,而且,这是一个实体旋钮,是唯二的实体操控部件之一。可想而知,其优先级和对交互体验的重要程度。

3、因此,是「多一个」,不是替代关系。但说实话,我对人性没有那么乐观,当其生态足够完善后,肯定会有多数人主动选择待在里面的世界。届时,不仅仅是手机被替代,而是连同电视、电脑、大房子、电影院、足球场这些东西,统统都会被吸引这个黑洞里。

vivo 明年发布 MR 头显,投注 3D 影像

By: 周奕旨
27 July 2024 at 14:35

在 vivo X100 Ultra 发布两个多月后,vivo 开始将目光看向未来。

在今年的 vivo 影像盛典上,vivo 影像副总裁于猛透露了下一代影像的技术路线,以及新的影像产品方向。

vivo 宣布下一代旗舰

蓝图影像在今年早些时候由 vivo 提出,象征着专业、创新与未来的影像技术,由三大模块组成:自研蓝图传感器技术、蓝图算法矩阵以及蓝图影像芯片。

下一代旗舰影像手机上,将搭载蓝图影像的新技术。

第一项,是 22nm 制程工艺的自研蓝图传感器,这颗处理器搭载 VCS 3.0 技术与 Ture-TCG HDR 技术,与联合研发的传感器配合无间,带来更强悍的影像效果。

VCS 是一种仿生光谱技术。通过模仿人眼对光的捕捉能力,改进手机 CMOS 前那层 Color Filter(滤光片),从而使手机从接收到光信号时,就拥有更低噪声与更好的色彩还原表现。从后缀来看,vivo 已经将 VCS 技术迭代三大版本,这一次,传感器的读出噪声将低至 0.9ef,意味着使用手机拍摄的夜景画质表现将得到进一步加强。

脚步从「进光量」迈进「进光质量」,vivo 在这条路上越走越远。

新一代自研蓝图算法矩阵紧随其后,vivo 将这个拥有 10 亿参数的大模型,融入长焦的影像系统中。算法矩阵基于「原象引擎」,着重加强画质、色彩与成像速度三个方面,在静态与动态的影像记录领域同时发力,对长焦端的画质赋予更多的可能性。

vivo 下一代旗舰的第三项技术,是蓝图影像芯片。

X100 Ultra 上 V3+ 芯片为这部手机的影像实力增色不少,在拍摄视频的功耗降低 80% 的同时,提升了 35% 的性能,可以在录像中的每秒处理几十上百帧图像画面,实现 4K 拍摄下的多视频算法并发,将 vivo 的动态影像能力拉到 Android 第一梯队。

而下一代影像旗舰手机上的蓝图影像芯片,将大力度加持各类题材,对备受关注的夜景表现与逆光人像等领域再度优化,努力试探手机影像的新高度。

除了下一代旗舰机的影像新配置外,vivo 也没有忘记「老伙计」,宣布将备受欢迎的人文街拍相机模式下放到以往产品中,最快 8 月底,vivo X100 Pro 就将迎来更新。

vivo 入局 MR ,将于明年发布穿戴设备

除了下一代旗舰外,vivo 还认为未来影像有三大新趋势:安全、3D 影像与 XR 技术。

在野蛮发展的移动互联网时代,影像的归属权一度模糊。

当影像不再是实体,而是看不到摸不着的数据后,归属权的模糊是必然发生的——普通用户几乎无法将数字照片放进兜里或是锁进柜子。

为了防止影像被窃取另为他用,vivo 给出了三个影像新特性:不可篡改、可溯源、跨设备可识别。这三个特性,将直接作用于照片与视频的元数据,能够有效保护用户的影像数据隐私。

在影像性能、数据安全之外,vivo 决定进入更高维度的影像领域:3D 影像。

基于强大的影像性能,X100 Ultra 已经可以使用两颗不同的摄像头同时成像,通过两颗镜头的视差来拍摄 3D 照片与视频。

vivo 还与 Rokid 合作,联合推出 3D 影像空间相册,支持查看拍摄的 3D 影像内容。

这让我想起 Vision Pro 上的「空间视频」,爱范儿之前把这种高维的影像比做「世界冥想盆」,是因为我们可以与他人通过这样的影像连接起来,能切身体会到他人创作的内容,通过视觉与听觉传达的信息,与创作者感同身受。

除了在 3D 影像方面的内容布局,vivo 也正式宣布将在 2025 年推出自己的 MR 穿戴设备,以影像为支点,撬动更多的可能性。

至此,vivo 设立的未来影像蓝图已经有了全貌——立足自研技术,从平面影像扩展到空间领域,在智能手机之外,也布局 MR 穿戴产品。

对影像技术的持续投入,让 vivo 有了开启新赛道的机会。沿着技术的道路前行,摸索出属于自己的道路,vivo 不是第一家,也不会是最后一家。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


科技是由人文驱动的:体验后再谈 Apple 空间计算机_1.ylog

By: Steven
1 May 2024 at 20:03

前几天我去找一位科技媒体的朋友,体验了一晚上 Apple Vision Pro(苹果新推出的空间计算机),我将那晚体验的感受以及我们讨论的内容,整理出了这一期节目。本期节目为单人讲述。如果你遇到网络环境波动问题,加入列表缓存后,即可正常收听。

在这一期,你会听到:

—- 交互设计很优秀,但为什么说它不完整且反直觉?

—- 你的眼睛是你的注意力,你的手是你的行动,日常生活中我们这两个部份是分工协作,分头行动的,但在 Apple Vision Pro 的交互体验中,这俩完全没法分开;

—- 空间沉浸感一流,彩透效果超群,但多任务体验并不好;

—- 这种立体感,和在电影院里看 3D 电影是很不同的。Apple Vision Pro 这个恐龙的应用所展示出来的,是一种大脑完全相信的,是一个空间,而不是把前后景处理得很好的分层的画面;

—- 眼动追踪像魔法,但也很脆弱:

—- 当我刚设置完的时候,他非常的准,极其的精准,真的就是魔法一样,指哪打哪,很爽,但是在我用了一段时间以后,他会稍微有一些偏移,就对不准了;

—- 眼动追踪矫正流程中的色彩细节,为什么?

—- 最喜欢的两个应用:看星星,火星车;

—- 这就好比你画画的时候,需要用笔,但你一旦需要在三维的空间里去做雕塑,你需要的是雕刻刀和铲子;

—- 太顺理成章的工业设计:苹果的行活儿;

—- 缺少思考后的冲突感,仿佛设计部门和工程部门都没有怎么吵过架就落地了;

—- 预言:什么时候能普及?

—- 普及的好产品 = 渣男喜欢的类型

—- 强制性 vs 超越感官

—- 不要抽象地谈论科技:科技是由人文驱动的

|登场人物|

苏志斌:工业设计师,车联网智能硬件产品经理/联创,《设以观复》作者

|相关链接|

若你所使用的播客客户端未能完整显示插图,或遇网络问题未能正常播放,请访问:

荒野楼阁 WildloG 的地址:https://suithink.me/zlink/podcast/

阅读设计相关的各类文章:https://suithink.me/zlink/idea/

|其他社交网络媒体|

苏志斌 @ 知乎|SUiTHiNK @ 即刻 / 微博

苏志斌SUiTHiNK @ Bilibili / YouTube / 小红书

|联络邮箱|

suithink.su@gmail.com

欢迎在 小宇宙、Spotify、YouTube、Apple Podcast 收听本节目,期待你的留言。

💾

❌
❌