Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

智能眼镜这个被忽略的功能,他们已经离不开了

By: 张成晨
26 October 2024 at 12:55

字幕,已经成了现代人的「外挂」。通勤嘈杂,摸鱼易露馅,学习会分心,听和看并用,才能避免进度条白白走了冤枉路。

然而,对一些人来说,字幕不只是锦上添花。

当《失控玩家》的男主角戴上眼镜,他看到了原本无法察觉的信息,不再是个被动的 NPC。

现实里也存在一种智能眼镜,可以提供「行走的弹幕」。尽管没那么科幻,但它同样通向一个信息量更大的世界。

我可以看到你说的话了

科技的意义在于,当上帝关上一道门的时候,打开一扇窗。

一位听障博主的开箱视频,在 TikTok 拿下了 80 万点赞,夙愿得偿,喜极而泣,最纯粹的情感迸发的力量,打动了素昧平生的观众。

▲ 图片来自:TikTok@chrissymarshall_

她手里拿着一个盒子,边笑边流泪,比着手语,努力地说出完整的句子:「我等待这个盒子里的技术很多年了。」

盒子里装的是一款字幕眼镜,外形和普通眼镜没什么两样,却让她可以「看到」周围的声音,那些过去听不清的声音,变成了一行行亮绿色的、科幻感的字幕。

根据视频里的信息,这位博主用的眼镜叫作 Hearview,专为听障人士设计,今年 5 月发布,来自国内的一家科技公司,但不面向国内,市场在海外。

它可以用来娱乐,看电影、看视频、看《黑神话:悟空》的游戏直播。

从刷《老友记》的体验视频来看,文本略有些滞后但准确,配对的手机 app 还可以区分不同的说话人。

同时,它也可以用在面对面的对话,方便听障人士在餐厅点餐、在超市购物、和导购聊天、开车时导航……

HearView 的原理说起来并不复杂,和手机 app 配对,通过智能手机的麦克风捕获声音,AI 算法实时语音转文字,字幕显示在眼镜上。

如果听障人士需要回复他人,可以在 app 输入消息,将文字转换成语音。过往的字幕,也保存在 app 中。

HearView 自称,语音转文字的准确性达到 95%,最远转录 10 米外的语音。说到这里,一个问题呼之欲出:菜市场等吵闹环境里表现会变差吗?

虽然 HearView 表示手机 app 具备噪音消除功能,但我翻遍了各种体验视频,并没有找到嘈杂环境里的实测,所以很难探究效果如何。

官网只提到了一些参数信息,续航 7 小时,重 52 克,适合全天佩戴,还配备了振动和视觉警告,提醒用户注意可能的危险。

轻便,耐用,听起来让人很想剁手,但它实在太贵,很难交个朋友——1799 美元,约 12800 元人民币。

而且,Hearview 存在很大的进步空间,目前它只支持英语和西班牙语,计划支持德语和法语,还不能实现语言的互相翻译。

文本的颜色只有亮绿色,虽然确保了在各种屏幕和照明条件下都可读,然而用户没有选择,就是美中不足。

但存在,便意味着价值。字幕早已是很多人生活的一部分,这还不够,它理应以更方便、直观的形式,陪伴在最需要的人左右。

字幕眼镜虽多,但生活里的挑战更多

实时字幕眼镜,其实并非新鲜事,放在 2 年前,甚至是一个热潮,诞生过不少有趣的项目,但都很难尽善尽美。

英国 AR 初创公司 XRAI,开发了兼容多款 AR 眼镜的语音转文字应用 XRAI Glass。

然而,《连线》杂志记者戴上一款和 XRAI Glass 兼容的 AR 眼镜后发现,语音转文字固然好,但使用过程中,总有这样那样的摩擦。

先是使用体验上的,如果佩戴人工耳蜗和助听器,再戴眼镜可能会不舒服,虽然这款 AR 眼镜已经很轻,但和普通眼镜相比依然厚重。

而且,语音转文字在背景噪音大和多人讲话的时候,效果并不好,实用性大打折扣。

价格也是一个问题,300 多美元的 AR 眼镜已经让钱包隐隐作痛,XRAI Glass 还需要每月花几十美元订阅套餐,像很多语音转文字的软件那样,只能说并不意外。

国内也有类似 Hearview 的产品——亮亮视野的听语者字幕眼镜,分为助听版和翻译版,可以理解普通话、方言和外语,并且支持跨语种翻译。

它的使用方式和 Hearview 相近,下载可译 app,眼镜和手机进行蓝牙配对,用 Wi-Fi 或者热点连接网络,手机端实时语音转文本,眼镜端显示文本。

不过有用户在 App Store 反馈,听语者对方言的支持还是不够多。这是一个非常必要、却也艰难的优化方向,听力不好、习惯说方言的老年人,恰恰最需要这类产品。

也有 YouTube 博主评测发现,听语者的语音识别率高,速度也快,但口音很重的话,识别率会变低。

▲图片来自:YouTube@科技小助手

如果不拘泥于眼镜的形态,耶鲁大学和斯坦福大学的学生设计的一个产品原型很有意思,叫作 Transcribe Glass。

它不是一副眼镜,而是一个平视显示器,可以卡在眼镜的镜框上,开箱即用,将设备连接到 iOS 和 Android 的配套 app,让用户选择自己喜欢的语音转文本软件。

生成的字幕会通过低功耗蓝牙传输到设备,并实时叠加在用户的现实视野中。难得的是定价也格外友好,95 美元,但连测试版都还在候补,直到现在也查不到落地的信息。

除了专注语音转文字的产品,面向所有人的多功能 AR 智能眼镜,往往也包含了字幕功能。

国内价位在两三千的一体化无线智能眼镜,基本都支持语音转文字和多种语言的实时翻译,但转译效率,可能不如专为听障人士打造的 AR 眼镜,持续开着语音转文字时,续航也是一个问题。

当我咨询某个头部的智能眼镜品牌,得到的答案是「不建议听障人士使用」。

▲10 月 22 日,咨询某智能眼镜品牌客服

其实,这种产品最适合大厂出手,特别是 Google,在语音识别、机器翻译和 AR 方面都有深厚的技术积累,实时语音转文字和翻译的能力都遥遥领先。

Google 在 2022 年 I/O 推出了一款可以实时翻译的 AR 眼镜,支持 24 种语言,甚至支持美国手语,字幕就在对话人旁边,不过也只是原型演示,没有下文了。

科技向善是字幕眼镜的大前提,种种的「吹毛求疵」,其实是抱着殷切的心情,希望产品不满现状,不断进化,再做一次,再改进一次,变得更好一点。

字幕是一种权利,像看电影一样看世界

世界卫生组织统计,全球约有 4.66 亿人患有听力损失,其中超过 900 万人为重度耳聋。

即使使用了人工耳蜗或助听器,听障人士理解别人在说什么,仍然需要集中注意力,同时,一些发音相近的词语,光靠唇读难以区分,在理想条件下,英语中只有约 40% 的语音信息,能通过说话者的唇部动作捕捉。

这也是为什么,一个听力障碍的世界,需要文字作为补充。很早之前,就有人为之努力了。

古巴裔美国默片演员艾默生·罗梅罗,同时也是一位听障人士,在 1947 年开创了有声电影的字幕。

默片时代,观众可以通过电影画面和插入的文本了解故事情节,但当有声电影兴起,许多像他一样的听障观众反而失去了看电影的机会,因为他们无法听到台词,电影又缺乏字幕。

于是,罗梅罗决定自己手工制作字幕:当时的电影通过胶片播放,他将胶片切片,并在帧之间插入带有字幕的图像。

后续的字幕技术,可以看作是罗梅罗精神的延续,同时,也有了更多方便听障人士看电影的设计,比如,一些美国电影院提供预制字幕的眼镜。

2012 年,索尼推出了一款提供给部分影院的 CC 字幕眼镜,与普通字幕不同,CC 字幕不仅包含对话内容,还包括非语言信息,如背景音乐、音效、环境声音。

这款眼镜在每侧配备小型投影仪,绿色的字幕看起来就像是漂浮在大银幕前。

观众无论坐在影院哪个位置,都可以清晰地看到字幕。用户还可以调整字幕的亮度、显示距离以及角度,切换六种语言。

这款眼镜甚至支持 3D,用户就不必多带副眼镜观看 3D 电影。这很重要,避免了一种鼻梁很忙的情况:同时戴着普通眼镜、3D 眼镜、CC 字幕眼镜看电影。

▲ 图片来自:Reddit@ellowTonkaTrunk,发布于 2022 年

这一幕有些讽刺,却像一个隐喻——以寻常的视角了解这个世界,一些人总需要付出更多。

还不够完美的、但未来可期的实时字幕眼镜,至少让我们看到了一种美好的可能。

韩国电影《寄生虫》导演奉俊昊曾在奥斯卡颁奖典礼说:「一旦你克服了 1 英寸高的字幕障碍,你将会看到更多精彩的电影。」

当电影里常见的字幕出现在生活里,它可以让需要的人看到更多的信息,并拥有不退出对话的权利。

Google 的翻译 AR 眼镜宣传片有一句话很打动人:我直视着你的眼睛,你看起来也在直视我的眼睛。

几乎没有存在感,便是科技的最好状态。

在保证高效、准确的前提下,交流还可以回归自然,不占双手,不需要低着头看手机,也不用一直盯着嘴唇,而是面对面,眼神接触,一如千万年前就有的模样。

利若秋霜,辟除凶殃。 工作邮箱:zhangchengchen@ifanr.com

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


这款 AI 眼镜,有一个所有大厂竞品都没有的新功能

By: 范津瑞
20 October 2024 at 12:30

据世界卫生组织(WHO)估计,全球有超过 10 亿人患有肥胖症,9.7 亿人面临心理健康问题。

为了「通过更深入地了解我们的情绪反应来改善生活和健康状况」,来自英国的科技公司 Emteq Labs 于近日推出了世界上首款「情感感知智能眼镜」——Sense 智能眼镜。

十年磨一剑。产品背后,是 Emteq Labs 的雄心壮志:通过前沿的情感感知眼镜,重新定义我们与技术互动的方式。

▲名为 Sense 的智能眼镜(图片来源:GlobeNewswire)

Sense 眼镜可以跟踪包括面部表情、饮食习惯、情绪、姿势、注意力水平和身体活动在内的多种指标。据 Emteq Labs 的设想,这款革命性产品的主要用途有二:心理健康监测饮食管理

▲Sense 智能眼镜主要用于心理健康监测和饮食管理(图片来源:HIT)

这款智能眼镜加装了由 Emteq Labs 开发并获得专利的 OCO 传感器(Optical Contact-free Oculometric,非接触式光学传感器),使其能够每秒捕获 6000 次数据。传感器的设计灵感来自于苍蝇的视觉在测量运动方面的高效率。

它能够实时追踪面部肌肉活动,捕捉微妙的面部动作,并通过 AI(人工智能)/ML(机器学习)算法分析这些数据,以此来洞察用户的情绪状态心理健康状况。

这个功能由 Emteq Labs 的首席科学官兼研究面部肌肉组织的外科医生 Charles Nduka 牵头研发。他表示「我们的面孔深刻地反映着对我们的思想和身体」。未来,该功能或可应用于区分抑郁症患者和非抑郁症患者,为抑郁或自闭症状的诊疗提供辅助手段。

▲Sense 智能眼镜可通过追踪表情来判断情绪(图片来源:IEEE Spectrum)

此外,Sense 智能眼镜还可通过其集成的 9 轴惯性测量单元、高度计和一个向下的摄像头来记录食物摄入量。它通过监测下巴运动来检测用户何时咀嚼,计算他们的进食速度。同时,摄像头会对食物拍摄照片,并使用 GPT-4 语言模型来确定食物类别,进而帮助用户进行饮食管理

显然,这个功能不仅可以帮助肥胖人群控制体重,还可以对抑郁倾向人群潜在的「暴饮暴食」行为加以提醒和干预。

▲Sense 智能眼镜可以帮助用户控制饮食(图片来源:cnBeta)

权威杂志研究显示,Sense 智能眼镜确实拥有准确跟踪用户饮食习惯的能力,在远程心理健康评估场景中也拥有不错的前景。

Emteq Labs 的新任首席执行官 Steen Strand 认为,「情感感知眼镜」是可穿戴智能设备的下一个前沿领域,并且断言,Emteq 将改变智能眼镜的格局,改善人们的生活,甚至挽救生命。

在未来,Sense 智能眼镜还可应用于消费者行为研究和增强现实(AR)体验中。

▲(图片来源:Digital Experience Live)

然而,要想完全释放这些潜力,Emteq Labs 必须保证能够保护用户的个人数据和隐私,好在该公司确实承诺了这一点。没有人愿意公开自己的难言之隐,对于那些有抑郁倾向的人群来说,尤其如此。

同时,关注用户的忍耐度也很重要,毕竟也没有人想被几双眼睛随时盯着——即使盯着你的是 AI,并且随时准备着试图解读你的心情。这也由此引出一个饱受争议的问题:

你的情绪好或者不好,是 AI 能说了算的吗?

班戈大学的情感 AI 实验室主任 Andrew McStay 就指出了根据面部表情解读情绪的挑战性:不同文化、不同个体的情绪可能会有很大差异,增加了相关技术落地的复杂性。

有关可穿戴智能设备所提供的类似「情绪检测」功能的准确度,其实是一个老生常谈的话题。多数产品监测身体健康指标的技术已经相当成熟,而在「情绪检测」方面,即使不限于面部识别的实现形式,也很难见到令人眼前一亮的产品。

正如华为为其前不久发布的新品「华为 WATCH GT 5」搭载的感知系统所起的名字「玄玑」一样,「情绪」是一种相当玄妙的东西,难以捉摸。这款智能手表声称其不同于市面上普遍的压力监测,它能通过持续追踪与分析用户的情绪状态,帮助用户记录情绪健康趋势并评估、降低情绪健康风险。

▲华为 WATCH GT 5(图片来源:Perplexity)

仔细想想,这项功能实际上还是对目前市面上常见的「心理压力监测」技术的常规升级。诚然,通过心率、呼吸等生理指标判断焦虑、不安等情绪要比面部微表情识别听上去靠谱得多。但对于那些更为复杂和隐秘的人类情感,也许再智能的设备也无能为力。

▲华为 WATCH GT 5 以熊猫的不同动作来展示用户的情绪状态(图片来源:DoNews)

人们一方面渴望通过智能设备了解自身的情绪,一方面又不愿意将自己的情绪交由外界评判。有专家指出,「情绪检测」的泛滥可能会剥夺人类的能动性,并强迫人们接受关于正确情绪的规范性想法。

对此,加州大学伯克利分校的生物伦理研究员 Jodi Halpern 给人们提供了建议:

多向内反省,少依赖技术。

看来,在借助 Sense 智能眼镜改变世界的路上,Emteq Labs 不得不对人类之复杂加以认真审视。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


爆火的 AI 智能眼镜,被做成了新的「偷拍、人肉神器」

By: 张成晨
4 October 2024 at 14:11

2012 年 Google I/O 大会发布的 Google Glass,被称为 Google 史上最失败的产品,却也在科技史上留下浓墨重彩的一笔。

它失败的原因有很多,隐私风险是其中一个。

让 Google Glass 拍照很简单,用语音命令,或者按住顶部的按钮,但没有 LED 等亮眼的标志,提示他人正处在拍摄状态。

所以,从路人的角度看,Google Glass 就是个不讲武德的「偷拍神器」,甚至曾有用户在电影院被保安赶出来。

如今,相似的事情仍在发生,甚至变本加厉——只是因为在人群中多看了你一眼,AI 眼镜就可以识别出你的个人信息。

一张脸,一副眼镜,认识一个陌生人

你叫 Lee 吗?你从伯根县学院毕业吗?你的韩国名字是 Joo-oon 吗?你住在亚特兰大吗?我们是不是在剑桥社区基金会见过?你的父母是 John 和 Susan 吗?

如果在路上被人搭讪,你没见过他们,但他们好像认识你,热情地叫你的名字,说出你的一两条个人信息,你会是什么反应?

两位哈佛大学生,AnhPhu Nguyen 和 Caine Ardayfio,就做了这样一个实验。

他们戴着 Meta 的智能眼镜 Meta Ray-Ban,在校园、地铁等随机识别了数十个陌生人。拍下某人的一张照片,几秒之后,这个人的信息就会出现在手机上。

只是智能眼镜本身,还不能达到这样的节目效果,他们做了一些技术上的改动,但原理也并不复杂。

先通过 Meta 智能眼镜的直播功能,将视频实时传输到 Instagram,然后用一个计算机程序监控这个视频流,并使用 AI 进行人脸识别。

接着,在互联网上搜索到某个人的更多照片,以及基于公共数据库,查找这个人的姓名、住址、电话号码,甚至亲属信息。

最后,这些信息会传送到他们编写的一个手机 app,方便查看。万事俱备,就差随机吓到一个路人。

往细了说,两位学生是把各种现有的、成熟的技术组合在了一起,连生成式 AI 也参与了。

  • 智能眼镜:配备摄像头的智能眼镜,在公共场合捕捉人脸图像。
  • 反向面部识别:通过 PimEyes 等人脸搜索引擎,将人脸图像与互联网的公开图像进行匹配,并返回这些图像的网页链接。
  • 爬虫工具:使用 FireCrawl 爬虫工具,从这些网页链接中抓取所需的数据。
  • 大语言模型:大语言模型从抓取的、杂乱的数据中推断出姓名、职业等细节。
  • 数据库:在 FastPeopleSearch 等网站输入姓名,从公开记录、社交媒体中查找家庭住址、电话号码和亲属姓名等个人信息。

其中,大语言模型起到的作用很微妙,它可以理解、处理、汇编不同来源的大量信息,比如,将不同文章中的同一个名字关联起来,通过上下文逻辑推理出某人的身份,让数据提取的过程自动化了。

关于大语言模型的推理能力,我们之前也报道过一项很有意思的研究,感兴趣的朋友可以回看这篇文章:《和 GPT-4 聊天,一种很新的隐私泄露方式》

隐私泄露老生常谈,面部识别并不新鲜,偷拍问题也不是出现一天两天,大模型在两年间已经成了很多人离不开的生产力工具。

但彼此之间强强联合的化学反应,还是导致了一个细思极恐的结果——仅凭大街上偶然的相遇,我们的个人信息就可能被有心人提取。

两位学生没有对外公开技术细节,做这个实验的目的,是为了提醒人们保持警惕。

那我们可以怎么保护自己?他们提出的应对方法是,从人脸搜索引擎等数据源中删除自己的数据,但这很难说彻不彻底。

虽然我提醒你了,但你不一定知道被偷拍了

当年有人开玩笑,Google Glass 的最大用处,是让英国王室的查尔斯王子记住每个人的名字。

或许,通过支持人脸识别的智能眼镜,我们会迎来一个没有陌生人的世界,最高兴的可能是夜神月。

你可能会问,有了数据库、面部识别,用手机偷拍应该也行,为什么他们选择了智能眼镜 Meta Ray-Ban?

理由很简单,它长得像普通墨镜,不如 Google Glass 赛博朋克,偷拍更加方便,而且眼镜本就适合记录,免提,见你所见。

Meta Ray-Ban 并不是没有提醒,它有一个 LED 指示灯,当用户录制视频,它就会自动打开,提醒旁边的路人。但是,聊胜于无。

之前 The Verge 测评发现,在明亮的室外,Meta Ray-Ban 的 LED 和快门声都不明显,在拥挤嘈杂的公共场所,很多人往往不会注意到这种细节。

▲LED 在右眼的上面,你注意到了吗

当你的手放在镜腿的按钮上,别人可能觉得你就是在扶眼镜而已。

所以也不难理解,隐私一直是智能眼镜的关注点,前段时间 Meta 首款 AR 眼镜 Orion 发布时,也有人担心,会不会重蹈 Google Glass 的覆辙。

Meta 还在 Meta Ray-Ban 的隐私政策里强调了「如何负责任地佩戴智能眼镜」,写了很多条温馨提醒。

然而,每一条都是非强制的,尊重别人也好,在拍摄或直播前用声音或手势提醒他人也罢,全凭自觉。

别说眼镜的形态更方便偷拍了,甚至,科技公司可以直接设计出支持面部识别的智能眼镜,障碍并不是技术本身。

2021 年,外媒报道,Meta 考虑过,在智能眼镜内置面部识别功能。当时 Meta 首席技术官 Andrew Bosworth 还举例,这样的智能眼镜,可以帮脸盲或者记不住名字的用户,在晚宴时认出某人。

另外,人脸识别初创公司 Clearview AI,已经开发了自己的 AR 眼镜和应用程序,据称可以连接到包含 300 亿张面孔的数据库,只是没有对外公开销售。

某种程度上,怎么使用面部识别,怎么防止偷拍,是被法律和道德约束的。

比如,Facebook 的面部识别技术,曾经让用户在照片中标记朋友,对隐私的质疑自然是绕不过去的,在 2015 年的一次集体诉讼中,Facebook 赔偿了 6.5 亿美元。

2021 年,Facebook 宣布,停用面部识别技术识别照片和视频中的人物,并删除超过 10 亿人的相关数据。

面部识别,多么老生常谈啊。但最面目平凡的技术,却也因其应用的成熟、普及和广泛,让人如临大敌。

在 AI 面前,秘密越来越少

在哈佛学生的实验中,大语言模型的作用是帮忙处理数据,但现在使用各种生成式 AI 的产品,我们往往是主动给出自己的数据。

因为很多时候,付出隐私是使用服务的必选项,比如向 AI 换脸 P 图软件交出自己的脸。

更进一步说,不只是脸,AI 硬件和软件们,都越来越强调个人数据的概念。

比如,用 AI 录音产品无缝记录你的一天,向 AI 日记透露你的日常和爱好,或者只是通过记忆功能让 ChatGPT 记住我们是谁。

▲ 可穿戴 AI 录音设备 Limitless

AI 会慢慢地更了解你,分析你,整理你周围的信息,提供给你更多的情绪价值,弥补个人有限的脑容量。

同时,这些产品也会强调隐私安全,要么说你的数据就是你的,不会拿你的数据训练模型,要么说用的是在本地运行的端侧模型,或者私有云,隐私泄露的风险更低。

隐私和便利,很难既要又要,当我们享受各种 AI 产品的趣味和个性化时,风险也如影随形。

就像《攻壳机动队》里的电子脑,人们直接将大脑连接上网络或者是进行大脑的互连,彼此可以快速沟通,但大脑也就有了被入侵的风险,连记忆也可以被伪造。

当然,隐私泄露可能就像面部识别一样,是个无趣的、没有新意的话题,你泄露,我泄露,他也泄露。好像,没关系的,都一样。

但如果有人戴着「墨镜」走到你面前,叫出你的名字,那一幕还是很有冲击力的,对吗?

或许更让人担心的,是无形的、支配信息的权力,先拥有技术和工具的人,对其他不知情的个人行使这种权力。

智能手机兴起之后,竖屏短视频、直播也发展起来,我们越来越习惯于拍摄和被拍摄,是无辜的背景板,或者说,不在乎,也无从察觉。

这时候我们是汪洋大海里的一滴水,但未来,这滴水,或许会因为镜头背后的 AI 被聚焦,然后折射出更具象的模样。

利若秋霜,辟除凶殃。 工作邮箱:zhangchengchen@ifanr.com

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


创新 vs 混乱:iPhone 在 AI 时代下的牙膏和迷茫_10.ylog

By: Steven
1 October 2024 at 08:01

这是一期 荒野楼阁 WildloG 和 皮蛋漫游记 的串台节目,由我和零号、初号一起,聊聊今年 Apple 发布的新产品以及一些周边的信息,作为 设以观复x两颗皮蛋 合作的那期视频内容的一些补充。

今年 iPhone 16 系列着实挺闹心的,一方面是 Apple Intelligence 的大饼迟迟未能落地,另一方面 Camera Control 独立按键加得有点莫名其妙。但我们还是决定在深入体验和使用 iPhone 16系列之后,能够匹配我们的深度测评内容一起,跟大家聊聊今年库克又挤出来了多少牙膏?

2:03 关键词:初号「过山车」苏志斌「意料之中」零号「Ridiculous」

8:10 AirPods 4 代很值得购买,刀法也足够精准

11:01 AirPods 助听器功能的背后

17:32 中文字体字重的调整

20:11 Siri 物理意义上变快了

22:31 相机控制按键:理想很丰满,现实…….

31:53 Mac 预览和 shownotes 支持 HDR 视频的延伸和补充

36:55 色彩风格+魔改 RAW

40:44 App Intents:让系统 应用互相直接能联动

45:57 Apple Watch:9 代到 10 代减薄的背后,11 代可预期的更大显示尺寸

54:55 相机按键如果是 AI 的视觉按键成立吗?

1:00:40 加了这个按键之后到处都是混乱和矛盾

1:06:25 手机为啥(暂时)不能 edge(显示)to edge(中框)

1:12:19 什么是产品的核心体验?

1:23:34 苹果会做折叠屏吗?

1:34:00 Meta Orion 是否是比 Apple Vision Pro 更正确的验证路线

1:41:54 为什么最好的虚拟现实 AI 设备一定是眼镜?

|登场人物|

苏志斌:从业 15 年的工业设计师,车联网智能硬件企业联合创始人及产品经理

零号:两颗皮蛋的零号,前手机行业产品经理,主管运营和项目管理

初号:两颗皮蛋的初号,前手机行业产品经理,主管内容创作和出镜

|更多皮蛋|

B站@两颗皮蛋 微博@两颗皮蛋 小红书@两颗皮蛋

|拓展阅读|

录这期播客时遗漏的话,聊一聊苹果的设计团队「怎么了」

视频:设以观复 x 两颗皮蛋 联合深度解析 iPhone 16 系列

|相关链接|

若你所使用的播客客户端未能完整显示插图,或遇网络问题未能正常播放,请访问:

荒野楼阁 WildloG 的地址:https://suithink.me/zlink/podcast/

阅读设计相关的各类文章:https://suithink.me/zlink/idea/

|其他社交网络媒体|

苏志斌 @ 知乎|SUiTHiNK @ 即刻 / 微博

苏志斌SUiTHiNK @ Bilibili / YouTube / 小红书

|联络邮箱|

suithink.su@gmail.com

欢迎在 小宇宙、Spotify、YouTube、Apple Podcast 收听本节目,期待你的留言。

Meta 十年秘密研发的全息眼镜,凭什么叫板智能手机

By: 张成晨
26 September 2024 at 23:37

复联 3《无限战争》里有这样一幕,钢铁侠离开圣所上街查看情况,人群四散,他戴上黑框眼镜问助手「星期五」:「我在看什么?」

当他的右手将眼镜取下并变装,眼镜又能自然地融入纳米战甲之中。

这承载着我们对智能眼镜的一种期待,它应当成为洞若观火的「眼睛」,提供周围环境的信息并实时应答,以融入日常穿搭的形态低调存在。

今天凌晨发布的 Meta 首款 AR 眼镜 Orion,至少在概念上很接近了。

与其说它是 AR 眼镜,我们认为更应该称 Meta Orion 为「全息眼镜」。

Meta 希望让用户多种体态、姿势都能成为一种体势语言,全方位参与到交互中。

在扎克伯格的蓝图里,全息影像+眼镜将成为一种无处不在的产品,全息眼镜也是新一代计算终端。

首先,Meta 想要说服你,用智能眼镜取代智能手机,不是天方夜谭。

请问你用 AR 眼镜看到了什么

十年前,当造型奇怪的 Google Glass 面世,大家最好奇的问题主要有三个:

你脸上戴的东西是什么?这个东西有什么用?你戴着它时看到了什么?

Orion 不需要回答第一个问题,它看起来就是一款普通的黑框眼镜,有点像化名克拉克·肯特的超人戴的那种。

扎克伯格希望你可以一直戴着它,平平无奇的设计或许是一个理由,更起决定作用的是,眼镜的重量。

镜框用了更轻的镁材料,镜片由碳化硅而非塑料或玻璃制成,本体只有 98 克,比普通眼镜重,但比 Quest 和 Vision Pro 轻得多。

至于它能做什么,我们可以看到什么,围绕两个关键词展开:AR 加 AI。

先说 AR,AR 的核心是在现实世界中叠加数字信息,扎克伯格称之为「全息图」。

Orion 的特别之处在于,视场角高达 70 度,可能是行业内拥有最宽视野的 AR 眼镜。

较窄的视场角,会限制用户的视觉范围,沉浸感大打折扣。

反之,Orion 可以实现大屏幕娱乐,打开多任务窗口工作,和某人视频通话时像在面对面。

按扎克伯格的话说,这叫「真实的临场感」,无论身在何处,都能和想见的人在一起。

你随时可以调出体育游戏和朋友比赛,或者坐在咖啡店里打开虚拟办公桌,或者在飞机上全屏看电影。

不过,刷网页可以,想看电影的话分辨率还有点低,视频通话比 Vision Pro 的 Persona 少了点沉浸感。

在真机体验中,The Verge 的编辑 Alex Heath ,通过 Orion 上的即时通讯软件 Messenger 和他人视频通话,对方漂浮在一个 2D 窗口里。

然而,这个功能还不成熟,对方看不到 Alex Heath,未来,Meta 计划呈现一个追踪佩戴者面部动作的 avatar(数字化身),可能会是一个卡通全身形象。熟悉的感觉回来了,梦回两年前的元宇宙。

当然,Orion 还保留了 Meta 的基因——社交。两个佩戴 Orion 的人,可以和相同的全息图交互。

Alex Heath 和扎克伯格一起玩了 3D 乒乓球游戏,他们先用扫描二维码的形式配对眼镜,然后使用手部追踪打球,游戏中几乎没有延迟。

至于 AI,可以看我们所看,并帮我们解决问题,像是我们的又一双眼睛和外挂大脑。

比如,用 Orion 的 AI 助手 Meta AI 识别桌子上摆放的食材,然后让 AI 给出一个制作冰沙的食谱。

AI 会先给食材们贴上数字标签,再在上方的浮动窗口中给出食谱。不过,这个食材也摆放得太整齐了,给 AI 降低难度,但不够接地气。

回答了三个问题后,Meta 看好 AR 眼镜的理由,可以总结为三点:

  • 不受智能手机的屏幕限制,物理世界就是画布,满足 2D 和 3D 体验。
  • 集成 AI 功能,感知和理解我们周围的世界,解决我们的需求。
  • 重量轻,适合随时使用,戴着也能看到别人的脸和表情,不影响社交。

不是马上取代手机,而是慢慢让眼镜代劳更多事情

这次的发布会,Meta 的另一款智能眼镜,和雷朋合作的 Meta Ray-Ban,也发布了很多更新功能,接入 Llama 3.2 模型,拥有了更强的视觉能力。

「免提」加「长眼睛」,你走到哪里,它也可以看到哪里,帮你记录车位号码、扫描宣传册二维码、搭配日常穿搭……

▲Meta Ray-Ban

之所以把 Meta Ray-Ban 拎出来说,是因为它也是 Orion 取代智能手机路上的重要一环。

Meta 认为,AR 眼镜的发展路线是渐进的,而非异军突起。

首先是没有显示屏的 AI 智能眼镜,比如 Meta Ray-Ban,主打两方面的功能,一是拍照、拍视频甚至开启直播,可以看成另类的 Go Pro,二是 AI 助手 Meta AI。

它仍然是比较传统的可穿戴设备,使用完整的功能,需要用智能手机将眼镜与 Meta View 应用程序配对。

再是带有小显示屏的眼镜,比如 Meta 明年可能推出的 Hypernova,配备 HUD,而非 AR,可以显示通知、扫描二维码、实时翻译文本等,也需要和附近的手机配对。

Orion 代表了终极形态:成熟的 AR 眼镜,算力足够,让我们出门可以不带智能手机。

Orion 的完全态分成三个部分:眼镜本体,一个手势追踪腕带,以及一个遥控器大小的「计算模块」,三者无线连接。

所以,这款眼镜不需要连接手机或者笔记本电脑就能正常运行,但不能离开计算模块超过 12 英尺(约 3.7 米)。

在 Alex Heath 的体验中,Orion 的多个功能还没有被启用,包括可以拍视频的前置摄像头、计算模块中的 GPS,以及让电子设备通过蜂窝网络通信的蜂窝数据调制解调器。

可以看出,每次智能眼镜形态的升级,都是在封装更多的技术,花费更多的成本,对外形尺寸的限制也更大。

2021 年,扎克伯格将开发 AR 眼镜的难度形容为:

将超级计算机安装到眼镜框内。

从 Orion 目前的原型来看,还有不少问题需要克服,远远达不到理想状态。

它的续航只有 2 小时,虽然已经算很大的突破,但连大电影都看不到结局,有些劝退。

更别说每台的造价大概一万美元,大部分成本在碳化硅透镜上,目前 Orion 只有 1000 副,用于内部开发和外部演示。

总之,在真的加购物车之前,Orion 需要更小,亮度更高,分辨率更高,价格更便宜…… 这些都是工程问题,可以逐步解决。未来,这款眼镜或者还能用腕式可穿戴设备供电。

Meta 表示,第二代 Orion 还要等待几年,预计价格和智能手机、笔记本电脑相当。

但作为用户,我们需要一款 AR 眼镜的理由是什么?

目前来看,相比手机,AR 眼镜主要强在 AR 体验和解放双手,但很多 AI 功能,手机也可以做到。基于我们被手机养成的使用习惯,它更像辅助,而非主力。

扎克伯格清楚,AR 眼镜不会很快把手机赶下舞台,就像当手机成为主流计算设备时,我们并没有把电脑彻底束之高阁。

但他相信,未来我们可以用眼镜做更多的事情,更经常地把手机放在一边。

扎克伯格分享了一段自己的经历,2010 年代初,当他坐在电脑前时,会不自觉地掏出手机做事。

也许十年后的某一天,风水轮流转,眼镜就成为了主角,我们压根不需要随身携带手机,把它留在家里也不会焦虑得满头大汗。

甚至,那些本来不戴眼镜的人,也会需要一副智能眼镜。但颜值即是正义,在这之前,可以把 Orion 设计得更时尚点。

错过了移动互联网时代,所以想定义下一代计算设备

虽然 Quest 头显在游戏玩家群体评价不错,雷朋眼镜也卖得超出预期,在主流的印象里,Meta 仍然是一个做社交、烧钱搞元宇宙的互联网公司,还称不上一家主流硬件公司。

最近用精致穿搭改头换面、不再像机器人的扎克伯格,也想重新定义 Meta。

选择 AR 眼镜,是扎克伯克错过移动互联网时代的亡羊补牢,说是他的二次创业也不为过。

Meta 的事业从 Facebook 开始,Facebook 最初基于网页开发,移动平台的兴起和社交媒体的早期发展又几乎是同时进行。

这意味着,Facebook 在移动互联网的转型中就是个小透明,当时没有参与感和话语权的扎克伯格,在建立自己的社交帝国之后,决定把目光放在未来。

通过争抢下一代通用计算设备的定义权,扎克伯格也有意摆脱对智能手机的依赖,不再受 Google 和苹果的控制,尤其是苹果。

比如,苹果的隐私设置——应用程序跟踪透明度(ATT),规定应用程序在跟踪用户行为、提供个性化广告之前,必须获得许可,一度打击了 Meta 的广告业务。

且不论扎克伯格的愿望能否兑现,Orion 这种 AR 眼镜,确实也让我们看到了新的交互可能。

在手机触摸屏统治世界之后,事情终于再次变得有趣起来了。

控制 Orion 的方式有很多,支持眼动追踪、手部追踪、语音交互,配套的腕带通过肌电图(EMG),实现更加精细的手势操控。

拇指捏住食指,选择内容;捏中指和拇指,调用或隐藏应用程序启动器;用拇指抵住合拢的手掌做出抛硬币的手势,向上或向下滚动。

总之,都挺好记的,有点像掐指一算,忍不住照着学。

相比眼镜上的传感器和摄像头,腕带还有一个明显的好处:我们不必在大庭广众之下手舞足蹈。把手放在背后或者插在口袋里,手势也可以起效。

眼睛、手势、声音,Orion 让我们全方位、全身心地参与到交互中,不动声色,却又自在和自然。

它展现了一种新的数字生活方式:把传感器戴在脸上、绑在手上,它可以为你收集环境信息,提供额外信息,和你多种方式沟通,让你不用双手也能完成很多事情,不刻意交互,又无处不交互,不会与周围环境和他人断联。

Meta 发家的社交,核心是以技术连接人,而 AR 眼镜延续了这一点,连接的是人与人,也是人与环境,让我们看到更多的信息,丰富固有的现实,又不失去真实的世界。

利若秋霜,辟除凶殃。 工作邮箱:zhangchengchen@ifanr.com

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌