Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

Meta 新款智能眼镜曝光!摄像头大升级支持隔空操作,价格比肩顶配 iPhone

By: 苏伟鸿
2 April 2025 at 17:31

在去年展示了颇为科幻的「Orion」AR 眼镜的原型机后,外界都期待 Meta 何时能正式向市场推出首款 AR 眼镜产品。

彭博社今天带来最新消息:Meta 计划最早在今年年底向市场推出第一副带屏幕的眼镜,售价将超过 1000 美元,最高在 1300-1400 美元左右,也就是说人民币可能将突破万元。

作为对比,不带屏幕的智能眼镜 Ray-Ban Meta 售价 399 美元,折合人民币 3000 元左右。

需要指出的是,Meta 即将向市场推出的 AR 眼镜并不是去年展示的那个「Orion」,据悉这个产品的代号为「Hypernova」。

▲Meta Orion 原型机

和 Orion 的双镜片显示系统不同,第一代的 Hypernova 只在右镜片的右下象限有屏幕,这意味着内容只会显示在用户的右眼,并且显示效果在向下看时最清晰,至少避免了面对他人时「翻白眼」看眼镜屏幕的问题。

彭博社也表示,虽然 Hypernova 一代还没问世,Meta 已经在着手开发 Hypernova 2,将包含双目显示系统,预计在 2027 年推出。

Hypernova 预计将采用高度定制 Android 系统,而不是自家去年推出的 Meta Horizon OS 系统,Meta 也暂时不打算为 Hypernova 配备一个应用商店。

打开眼镜,显示完「启动屏幕」后,圆形应用图标将水平排布在 Hypernova 的主屏幕,类似 iPhone 和 Mac 的底部「dock」栏,接近当下 Meta Quest 的界面。

▲ Meta Quest 的主页,图源:Reedit@AdenInABlanket

眼镜的应用程序将包括相机、相册、地图等等,并且将非常依赖手机上的 Meta View 程序,配对后可以接听电话、播放音乐,还支持接收手机 App 的通知,例如 Meta 自家的社交媒体 Messenger 和 WhatsApp。

对于这副眼镜的交互方式,Meta 准备了两种方案:

  • 眼镜镜框侧面的电容式触摸,用户可以滑动、点击眼镜腿来滚动和选取应用或照片
  • 「神经腕带」,使用手势来控制眼镜,可以转手、捏合来滚动和选取项目,代号为「Ceres」的配件将在包装盒内随眼镜一起提供,这个方案也作为 Orion 的交互在去年进行过演示。

和 Ray-Ban Meta 类似,第一款 Hypernova 也专注于图像拍摄和语音 AI 功能。Meta 将升级智能眼镜的摄像头参数。目前的 Ray-Ban Meta 摄像头为 1200 万像素,Meta 将其视为「iPhone 11」级别,而对于 Hypernova,Meta 希望能配备一个「iPhone 13」级别的摄像头。

可以说,Hypernova 就是带有一个屏幕的 Ray-Ban Meta,定位类似 Ray-Ban Meta 和 Orion 之间的过渡产品。而迭代的 Hypernova 2 将会更加接近 Orion,采用更先进和昂贵的技术。

除了 Hypernova,Meta 还在打造「Supernova 2」的智能眼镜,这款产品将基于 Oakley 运动眼镜打造,不带任何显示功能,基本等同于 Ray-Ban Meta 的运动款,对自行车骑行等运动进行了优化。

▲ Oakley 运动眼镜

至于 Orion 原型机的商用计划,彭博社也报道了最新进展:产品名可能定为「Artemis」,目前 Meta 正在利用 Oriion 进行软件测试和应用开发, 最终将提供给开发人员,Artemis 的推出可能不会早于 2027 年。

知情人士表示,上面的消息并不意味着 Meta 最终都会推出这些产品,因为 Meta 经常在开发过程中更改和取消产品。就目前而言,Meta 的混合现实部门 Reality Labs 内部也对产品计划有不少顾虑,有可能将 Artemis 和 Hypernova 合二为一。

▲ Orion 眼镜的演示

Hypernova 不禁让人想起当年的 Google Glass,都类似地配备了单眼显示屏、镜腿滑动交互、相机拍摄,但它没有成功,除了隐私争议,还因为当时的技术难以支撑带来的产品硬伤,以及大众还难以接受超前的产品形态,特别是它这个看似科幻,实则怪异的外观。

▲ Google Glasses

沉寂 10 年后,在今年的 CES 大会上,一款「Halliday Glasses」引发了媒体的热议,它也是一款单眼显示屏眼镜,不是一款大而全的产品,却让试用过的媒体人都对其赞不绝口,因为它小巧轻便,能出色完成有限的功能,比那些野心勃勃但基本不太可用的产品靠谱多了。

▲ Halliday Glasses

10 年过去,Google Glass 当年描绘的蓝图,终于凭借日臻完善的技术渐渐实现,而像是 Ray-Ban Meta 这样的拍摄/音频眼镜,也让大众渐渐熟悉这种全新的设备形态。

除了 Halliday Glasses 今年国内的 Rokid Glasses 充当演讲「提词器」也出了一波圈,OPPO 在几年前也探索过单眼分目式的智能镜片,可以单挂在脸部一边显示内容,适用性更广。

▲ OPPO Air Glass

还有一点,不管是 Meta Orion、 Halliday Glasses 还是 Rokid Glasses,它们的外观都尽量贴近现实中的眼镜,戴在脸上不会吸引太多人异样的目光。

▲ Rokid Glasses

比起 Orion 这种全能型的 AR 眼镜,Hypernova 是一次相对「保守」的尝试,从 Ray-Ban Meta 往前迈出了一小步,保证这款消费级的产品,能真正获得更多用户。

在 Meta 眼中,这款还不能脱离 iPhone 使用的 Hypernova,恰恰是取代 iPhone 的关键一步,开始尝试从智能手机中抢夺用户的注意力,让更多消费者习惯去用眼镜解决一些简单的问题。

同时,Hypernova 也是一招先发制人,苹果、三星、Google 等竞争对手都已经传出打造更轻便 AR 眼镜的计划,完整的双目显示暂时出不来,今年能推出的初代 Hypernova,无疑能更快抢占市场。

虽然 Hypernova 的想法很美好,但超 1000 美元的售价或许是其能成功普及的最大挑战。Ray-Ban Meta 能大获成功的一个原因就是和普通雷朋眼镜相持的低廉售价。要说服消费者用能买 iPhone 的钱,买一副只能提供部分 Apple Watch 功能的眼镜,Meta 必须拿出更具吸引力的理由。

对于无法提供完整 AR 体验的 Hypernova 而言,多模态 AI 或许是一个突破口。借助语音 AI 和增强现实显示,Hypernova 也有望带来 Orion 已经演示过的现实交互能力。

比如,识别食材后生成相应的食谱,还能一步步进行烹饪教学;异国旅行,能实时翻译看到、听到的外语;出门在外,能根据现实世界的街道进行实时导航……

▲ 去年 Meta 展示的 Orion AR+AI 能力

Hypernova 或许难以和 Ray- Ban Meta 一样「卖爆」,也不是一款能淘汰智能手机的革命性产品,但就目前的信息,它确实有潜力成为我们迈向 AR 时代的坚实一步,虽然只是一小步。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


扎克伯格这款不会发售的新品,又在探索 AI 眼镜的终极形态

By: 肖凡博
1 March 2025 at 12:00

自从扎克伯格把 FaceBook 改名成 Meta 之后,这家公司就彻底和眼镜较上劲了。

有一个即热又冷的小知识,Meta 这个名字,取自「metaverse(元宇宙)」的前四个字母,2021 年改名的时候,扎克伯格本人非常自信地表示:

元宇宙将在未来十年触及 10 亿人,而元宇宙也将触及我们开发的每一款产品。

▲ 图片来自:Google

四年过去了,元宇宙成了科幻小说、创意动画和影视作品的常客,但离现实世界却越来越远,为数不多能引起人们关注的,还是那些时不时爆雷上热搜、打着元宇宙、虚拟资产的幌子,来招摇撞骗的烦心事儿。

在普及和铺开元宇宙上,Meta 和四年前一样没啥变化,不过他们却在元宇宙的入口——VR/AR 头显设备上,做出了不少有意思的新玩意儿。

定位为新型游戏机的 Meta Quest,打开了 VR 互动游戏的新世界,2024年 Meta Quest 系列占据了 73% 的市场份额,遥遥领先。

成为 AI 时代新潮配件的 Ray-Ban Meta,经过了两代产品的努力,出货量在今年 2 月正式突破 200 万台,集传统眼镜、名牌 logo、蓝牙耳机、语音助手、Vlog 相机于一身,既做好了一副传统眼镜该有的装饰作用,又让科技悄无声息地嵌入了日常生活。

明面上,Meta 在消费者市场推出了几款成功的产品;私底下,他们也在 toB 的赛道上悄悄发力,而且这些面向企业和专业机构的智能眼镜起步的时间,甚至比他们改名的时间还早。

五年之约已到,Meta 交卷

2020 年,Meta 推出了其首款实验性智能眼镜 Meta Aria Gen 1,和传统眼镜比起来,Aria Gen 1 略显臃肿,特别是两条加粗的镜腿,非常显眼。

▲ 图片来自:Google

硕大的外观并不只是摆设,其中包含了非常多的传感器套件,如配备 RGB 摄像头、定位追踪摄像头、惯性测量单元(IMU)、气压计、磁力计等,这些元件的主要功能是用于采集第一人称视角的视觉、运动和空间数据。

从理论上来说,Aria Gen 1 是专为机器感知系统、人工智能及机器人技术研究设计,它通过集成多模态传感器,帮助科研人员攻克AR眼镜的核心技术难题,如环境感知、空间定位等。

落地到实际体验,Aria Gen 1 则有着非常遥远也令人期待的使命:

设想有一天,我们可以享受联网带来的所有好处,而不需要低着头低着头看着设备。想象一下,给朋友打电话,和桌子对面栩栩如生的虚拟形象聊天。

想象一下,一个足够聪明的数字助理可以检测道路危险,在商务会议期间提供统计数据,甚至帮助你在嘈杂的环境中听得更清楚。

在这个世界上,设备本身完全消失在日常生活的起起落落中。

作为这项实验的原型机,也是第一代产品,Aria Gen 1 并没有掀起太大的波澜,沉淀五年后,这周 Meta 正式发布了 Aria Gen 2。和一代相比,有了全面的升级。

最明显的变化在传感器系统上,一代机采用的是最基础的环境感知元件,只有摄像头和惯性传感器,Aria Gen 2 在此基础上,增加了许多新的配件,包括 RGB 摄像头、6DOF SLAM 摄像头、眼动追踪摄像头、空间麦克风、IMU、气压计、磁力计和 GNSS。

特别是新一代产品在鼻托中嵌入了两个创新传感器:用于测量心率的 PPG 传感器,和用于区分佩戴者声音和旁观者声音的接触式麦克风。

如果把一代比作「只用眼镜看世界」,那相比之下 Aria Gen 2 可以说是感官全开,从更多维度感知、观察以及收集外界信息,就能在同样的时间里,获取数量更多、更准确的数据,机器的运作、学习效率也会更高。

另外,数据处理的方式上,二者也有了质变,Aria Gen 1 依赖于外部设备进行计算,虽说不在本地运算,能一定程度上,减轻设备的重量压力,但随之而来的则是反应的迟缓,在云端算力够,但网络不好的时候会有响应尴尬期,经常用智慧助手的朋友应该都有碰到过类似的情况;若是随身携带一个移动计算平台,非常不便携。

而 Aria Gen 2 则用上了 Meta 的自研芯片,可以把数据放在端侧处理,响应速度非常快,不受网络的限制,交互体验也有了非常大的进步。

一般来说,多了自研芯片的设备,拥有了端侧运算的能力,但同时也会增加设备的重量。不过 Meta 用数据说话,这五年他们真的没闲着:Aria Gen 1 重 98g,Aria Gen 2 重 75 克。加量不加重,长体验不长体重。

体验见长的,还有 Aria Gen 2 的交互方式,在第一代语音交互的基础上,二代机加入了「眼动追踪+手势+接触式操作」。语音交互很直接,检索路径会大幅缩短,但并不是生活中的所有场景都适合,比如高峰期的地铁站和超安静的办公室。

按理来说,传感器和交互功能变多,续航会受到影响,自研芯片的确影响了 Aria Gen 2 的续航,但是正向的。官方称其能达到 6-8 个小时使用时间。按照目前无线耳机的使用时长,基本能让 Aria Gen 2 做到全天候的智慧功能可用。

打好了硬件基础,后续的使用体验才会有更多的可能,Aria Gen 2 的升级体现了 Meta 对 AR 技术落地的两大战略方向:

一是隐形化集成:通过轻量化设计和传感器隐藏(如摄像头指示灯关闭时外观接近普通眼镜),降低设备存在感;二来通过开放的生态,提供底层 API 接口和模块化扩展能力,鼓励学术界开发定制化工具包,加速技术转化。

因此,Aria Gen 2 的应用场景,也从先前的室内导航与基础 AR 研究,转向了更多维的领域,医疗、工业、城市规划等,都有可能成为 Aria Gen 2 生长的土壤。

至此,我们来总结一下,Aria Gen 2 的进步与意义:

  • 感知硬件升级,实现生物数据融合与环境深度理解;
  • 搭载自研芯片,提升实时性,支持户外无网络场景;
  • 丰富交互方式,降低声学干扰,适配复杂实验环境;
  • 续航覆盖全天,延长连续使用时间,提升佩戴舒适度;
  • 应用场景拓展,推动跨学科技术融合与标准化。

扎克伯格的「暗部」

如果你看完,Meta Aria 的解读介绍,还是有点对它在消费市场的运用摸不着头脑,那很正常,因为 Meta 明确表示,这款产品「不会面向消费者销售」,那你可能想问,它到底有什么用?要说清楚造它的目的,还得回到十多年前年前。

2014 年,扎克伯格在斯坦福虚拟人类交互实验室(VHIL)体验了当时最新的 VR 设备,以及各种游戏场景,他在 VR 眼镜里里走了独木桥、飞过城市上空、砍了几棵树……

时任 VHIL 实验室经理的 Cody Woputz 曾经透露过:在体验高空坠落场景时,他(扎克伯格)甚至吓到将手放在胸口上。

这次体验让扎克伯格留下了很深的印象,一方面由于 VR 还处在早期的研究阶段,定位系统不稳定,使得体验多次被打断,得停下来重新校准设备;而且当时的 VR 还不是一体机,PC VR 的计算终端在机身外,得用一条又粗又长的线缆连接,以此来传输信号和供电。

▲ 图片来自:Google

另一方面,扎克伯格也看见了这项革命性技术在未来的巨大可能,也正是这次体验,让他下定决心,以 20 亿美元收购了 Oculus,扎克伯格曾在公告中解释过收购原因:

移动是当前的平台,收购 Oculus 是为明天的平台做准备。

之后,扎克伯格就带着 Facebook 开始了对于 AR/VR/MR 技术以及设备的探索。有了目标和硬件技术的积累,于是在 2020 年,Meta 正式开启 Aria 项目,其宗旨是「从人的视角加速 AR 和 AI」。

▲ 图片来自:Google

这么看有点玄乎,稍微通俗的解释就是,把眼镜作为桥梁,让设备从人的视角来观察世界、了解世界,并学习人和环境的互动关系,以此来推动软硬件技术的发展,最终让机器能够从人出发,并服务于人。

Project Aria 中的眼镜,可以通过突破性技术帮助研究人员,从用户的角度收集信息,特别是 Aria Gen 2 上新增的传感器,能够捕捉佩戴者周身环境的音视频,以及他们的眼动和位置信息。

从佩戴者的第一视角出发,能让研究人员更容易弄清楚,AR 到底如何才能在现实世界和日常生活中,发挥真实作用,而不只是停留在花里胡哨却不实用的功能上。

而且,从人的视角出发来收集现实世界中的信息,对于多模态 AI 来说非常重要,这样的训练方式能模拟人类多模态认知方式。

我们本身就是通过视觉、听觉、触觉等多种感官协同感知世界,而多模态 AI 通过整合文本、图像、音频、视频等数据,能够更贴近人类自然认知模式。况且跨模态信息整合能力是单模态 AI 无法实现的。

多模态的收集和训练,也能提升 AI 对复杂场景的决策精度,如果不通过多维度的信息来理解世界,那必然会存在「买家秀」和「卖家秀」的分歧,数字世界只有 0 和 1,但现实世界除了黑白,还有那难以理解的灰色地带。

▲ 图片来自:Google

交互本身其实也是多模态的,和朋友谈话时除了语言,表情、手势、语气甚至着装,都会影响我们的理解。因此多模态 AI 通过同时处理文本、图像和音频,可实现更自然的交互体验。

Meta 也给出了他们在 Project Aria 中的一些研究细节,在 Project Aria 项目中,让智能眼镜读懂世界的方式非常简单粗暴:数据化。这项被称为 SceneScript 的技术,是一种使用自回归结构化语言模型和端到端学习,来表示和推断场景几何的方法。

▲ 图片来自:Meta

简单讲,所有第一人称视角看到的场景、物体,都可以被眼镜变成具体的数字和名称,桌子有多长、墙上透明且规则窟窿叫「窗户」。

为了让眼镜内置的模型不只是看见世界,还要更好地理解世界,Meta 用自研的三维成像技术 EMF3D,把现实世界所有的物体用不同颜色的线段「明码标价」,把材质、形状和大小不一的东西统一了度量衡。

▲ 图片来自:Meta

当眼镜能读懂并且记录环境时,再现一个虚拟的世界,就有了更大的可能。项目中的环境合成技术正是通过大量的数据收集整理,复刻了一个大规模、完全模拟的程序生成的室内场景数据集,也为「数字孪生」设立了新标准,加速了 3D 物体检测、场景重建和模拟到现实学习等挑战的研究。

▲ 图片来自:Meta

这种「养成系」的学习方法有好有坏,好在一旦学成就非常扎实,难在想要扎实就得通过海量、巨量的数据,所以需要非常多的志愿者参与到 Project Aria 中,在平时长期佩戴 Meta 的眼镜。

比起找到人,如何让人放心地使用才是最关键的,因为数据收集和隐私保护,是一对难以调和的冤家。Meta 给出的方案是「自我模糊」新型 AI 模型,通过检测和模糊图像中的 PII 来保护隐私,把面部、车牌等敏感信息直接打码。

▲ 图片来自:Meta

海量的学习也能让模型更好地了解使用者的意图,比如通过对使用者每日生活场景的扫描与总结,可以判断本人在什么时间点更可能干什么事?是去楼下锻炼,还是去客厅打游戏,又或者去厨房做饭。能预判人的行为活动,也就能提前提供更多的便捷功能。

这和我们手机上的智能助手,在特定时间弹窗提醒回家路况,以及明日天气的功能,有相似之处。

▲ 图片来自:Meta

自 Project Aria 立项的五年间,他们已经做出了一些成果,例如使用第一代 Aria 眼镜收集的 Ego-Exo4D 数据集,已成为现代计算机视觉和不断发展的机器人领域的基础工具。

有些企业也已经开始研究,Aria 在他们的工作流程中,到底应该怎么用?比如宝马,正在搞清楚如何将增强现实和虚拟现实系统集成到智能汽车中。

▲ 图片来自:Meta

佐治亚理工学院的研究人员,最近也展示了当 Aria 来到你家以后,会怎样帮你分摊家务活的压力。

▲ 图片来自:Meta

很早之前,我们曾在手机智慧助手的体验文章中有个论断:人工智能和各种电子设备的结合,从当下来看,最大的意义应该是帮助老年人和残障人士,更好地融入新时代和新生活。Aria 也在无障碍技术的开发上,取得了一定的进展:

卡内基梅隆大学在一个项目中,使用了第一代 Aria 眼镜,该项目旨在开发帮助盲人和视力低下人士进行室内导航的技术。

▲ 图片来自:Meta

二代 Aria 的 AI 语音功能还被 Envision 公司整合到了自家的 Ally AI 和空间音频上,来增强室内导航和无障碍体验。

▲ 图片来自:Envision

如果要用一句话来形容 Project Aria、Meta 和旗下产品的关系,我觉得很像树根、树干和树枝。Project Aria 在最下面,平时看不见摸不着,但常年累月积累的技术成果,最终都会以各种各样的方式,赋能在公司和各类产品上。

去年 9 月底,扎克伯格在发布会上,从保险箱里拿出了一个看上去平平无奇,实则是十年绝密项目的智能眼镜 Meta Orion。从发布会的演示画面来看,它能做到和 Vision Pro 高度相似的交互功能,更重要的是 Orion 是一副真全息 AR 眼镜。

它外观上比普通眼镜厚了点,不过戴上之后既能透过镜片看到真实的世界,也能看到投影图像。

虽然清晰度比不上传统的电视和投影,但看图片与文字绰绰有余。神奇的是,我们没发现眼睛上有大块棱镜,如此贴近真实、凭空出现的现实效果,其实是通过镜片周围的 LED 投影仪,将图像投影到碳化硅镜片上。

镜框周围的 7 个摄像头和传感器,让 Meta Orion 真正实现了将虚拟投入现实,并将其融入现实的能力。它能将全息图像精准悬停在半空中,也能识别眼前的物品,例如通过桌面上的食材,它就能给你定制一份食谱。

▲ 图片来自:Meta

说 Orion 在交互体验上,有齐平 Vision Pro 之势并不是夸大其词,因为它真的支持手部和眼动追踪,双手就是手柄,配套的神经腕带还能把手变成鼠标,通过检测肌肉电流的变化识别身体的神经信号,并由此区分手指的不同动作:

  • 拇指、食指捏合进行选择
  • 拇指和中指联合呼出菜单
  • 握拳滑动拇指滚动画面

当时在发布会现场,我们还看到了 Meta Orion 的实际拆解展示,高度复杂和极其精密的内部构造,最后组合在一起的机身,只有 98g。

不难发现,Meta Aria Gen 2 和 Meta Orion 的关系,就像镜子里的彼此。只是扎克伯格在当时的采访中说,由于造价太过高昂(每台成本约 1 万美元,约合人民币 7 万元),公司不得不叫停了量产计划,只生产了1000 部提供给内部研发。

不过 Meta 也计划着,将 Aria 的技术逐步整合到 2026 年后,包括 Orion 在内的消费级 AR 眼镜中。目标是通过神经接口交互,和全息显示实现 AR 眼镜的蜕变,以此迎来智能眼镜的「iPhone 时刻」。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


创新 vs 混乱:iPhone 在 AI 时代下的牙膏和迷茫_10.ylog

By: Steven
1 October 2024 at 08:01

这是一期 荒野楼阁 WildloG 和 皮蛋漫游记 的串台节目,由我和零号、初号一起,聊聊今年 Apple 发布的新产品以及一些周边的信息,作为 设以观复x两颗皮蛋 合作的那期视频内容的一些补充。

今年 iPhone 16 系列着实挺闹心的,一方面是 Apple Intelligence 的大饼迟迟未能落地,另一方面 Camera Control 独立按键加得有点莫名其妙。但我们还是决定在深入体验和使用 iPhone 16系列之后,能够匹配我们的深度测评内容一起,跟大家聊聊今年库克又挤出来了多少牙膏?

2:03 关键词:初号「过山车」苏志斌「意料之中」零号「Ridiculous」

8:10 AirPods 4 代很值得购买,刀法也足够精准

11:01 AirPods 助听器功能的背后

17:32 中文字体字重的调整

20:11 Siri 物理意义上变快了

22:31 相机控制按键:理想很丰满,现实…….

31:53 Mac 预览和 shownotes 支持 HDR 视频的延伸和补充

36:55 色彩风格+魔改 RAW

40:44 App Intents:让系统 应用互相直接能联动

45:57 Apple Watch:9 代到 10 代减薄的背后,11 代可预期的更大显示尺寸

54:55 相机按键如果是 AI 的视觉按键成立吗?

1:00:40 加了这个按键之后到处都是混乱和矛盾

1:06:25 手机为啥(暂时)不能 edge(显示)to edge(中框)

1:12:19 什么是产品的核心体验?

1:23:34 苹果会做折叠屏吗?

1:34:00 Meta Orion 是否是比 Apple Vision Pro 更正确的验证路线

1:41:54 为什么最好的虚拟现实 AI 设备一定是眼镜?

|登场人物|

苏志斌:从业 15 年的工业设计师,车联网智能硬件企业联合创始人及产品经理

零号:两颗皮蛋的零号,前手机行业产品经理,主管运营和项目管理

初号:两颗皮蛋的初号,前手机行业产品经理,主管内容创作和出镜

|更多皮蛋|

B站@两颗皮蛋 微博@两颗皮蛋 小红书@两颗皮蛋

|拓展阅读|

录这期播客时遗漏的话,聊一聊苹果的设计团队「怎么了」

视频:设以观复 x 两颗皮蛋 联合深度解析 iPhone 16 系列

|相关链接|

若你所使用的播客客户端未能完整显示插图,或遇网络问题未能正常播放,请访问:

荒野楼阁 WildloG 的地址:https://suithink.me/zlink/podcast/

阅读设计相关的各类文章:https://suithink.me/zlink/idea/

|其他社交网络媒体|

苏志斌 @ 知乎|SUiTHiNK @ 即刻 / 微博

苏志斌SUiTHiNK @ Bilibili / YouTube / 小红书

|联络邮箱|

suithink.su@gmail.com

欢迎在 小宇宙、Spotify、YouTube、Apple Podcast 收听本节目,期待你的留言。

❌
❌