Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

Google 眼镜回来了,AI 时代的涅槃重生

By: 杜晨
21 May 2025 at 08:33

2014 年,在 GDG Devfest 中国场的现场,我第一次戴上 Google Glass。

它被认为是世界上首款智能眼镜,当时还只是一个纯粹面向开发者的「原型产品」。它可以录像,支持语音交互,支持将一些应用通过 Mirror API「镜像」到那个不足一寸、视野并不宽的液晶覆硅 LED 屏幕上。

遗憾的是 Google Glass 极其短命,从问世到停产只有短短 2 年时间。但通过它,我认为我看到了未来。

过去十多年里,Snapchat、Oculus/Meta 和 Rayban 们,在智能眼镜/头部可穿戴产品的市场兴风作浪。然而这条赛道,似乎再也没有 Google 什么事了。

很多后续产品我也玩过,甚至成为重度用户。但时不时,我总会想起 Google Glass。

而在今天的 Google I/O 上,这家公司重新点燃了智能眼镜和头部可穿戴产品的火苗。

Google 正式发布了 Android XR 产品和技术线的最新一代产品:与 Xreal 共同推出的首款轻量级智能眼镜产品 Project Aura。

在看完 I/O 2025 主演讲后,我打开 Google Photos,回看当年佩戴这些产品的我,从青涩走向成熟。

显示和交互技术的进步,让 Android XR 终于捡起了 Google Glass 十年前丢在地上的接力棒。而 Gemini 对所有 Google 产品的彻底革新,更是让 Android XR 获得了 AI 的「魔法加成」。

走过来时的路,Google 眼镜又回来了。但这次不是 Yesterday once more,而是一个新时代的开始。

Gemini 时代的首个 Android 平台

实话来说,作为一个智能手机操作系统的 Android,已经不足以引起任何兴趣了。连 Google 自己在 I/O 2025 主演讲都没有专门留出时间。

但 Android XR 的地位完全不一样。按照 Google 的措辞,它是第一个在 Gemini 时代构建的 Android 平台。

显然,手机已然成为过去时,而头戴式智能设备,将会创造全新的交互体验,成为 Android 新的增长引擎。

这次 Google 不自己生产眼镜了,而是选择和优秀的技术合作伙伴一起发力。

Project Aura 是首款 Android XR 平台的轻量级智能眼镜,由 Google 和中国混合现实技术公司 Xreal 共同推出。

参数细节目前少得可怜,通过渲染图以及 I/O 2025 现场 demo 能够看到,这款轻量级智能眼镜:

  • 至少有左右两个摄像头,和中置的其他视觉传感器模组,用于拍摄照片、视频,以及更重要的——支持 Gemini 的视觉/agent 智能体能力(Google Project Astra)
  • 有双声道立体声扬声器,以及多个麦克风组成的阵列,用于通话、录音,以及支持 Gemini 的语音交互能力。
  • 内嵌于镜片的单屏幕显示(波导或其他实现方式未知)

这是一个仍处在测试阶段的产品,但 Google 在现场还是很勇敢地做了一些已支持功能的 demo——主要体现作为核心卖点的 Gemini 的智能体能力。

比如实时翻译/同传:现场的两位演讲者使用印地语和波斯语互相翻译,虽然其中一位的信号看起来不太好,但翻译效果还是惊人的。

翻译采用纯文本,但从早前一点的 Gemini 部分演讲中我们可以断定,Gemini 肯定是有能力直接输出音频的。Gemini 本身的自然语言交互支持 150 多个国家的 45 种语言,但截至 25 年5 月中旬的语音互译能力仅支持英-西语互译,不过未来几周内将会增加数十种语言。

这为 Android XR 眼镜赋予了强大的使用场景,无论是跨语种工作,还是出国旅游,这种翻译/同传能力使得更自然的人际互动成为可能。

打破语言的障碍,为你提供真实世界的字幕,甚至配音——这是 Android XR 和 Gemini 想做的。

现场还演示了 Android XR 眼镜的其他功效。比如,用户(特别是视障用户)可以直接通过按键或语音唤醒的方式,询问 Gemini 自己看到的东西,做搜索和解答。

这其实是 Google 将近 10 年前就在做的 Google Lens 的视觉搜索能力。但经过 Gemini 的 AI 加成,能力会更加强大。

  • 现场女演讲者在后台和一位同事打过招呼,然后过了几分钟再唤起 Gemini,让它帮自己和刚才见过的人约个咖啡;
  • 她还问 Gemini 记不记得刚才自己手里拿的咖啡是哪家店的,把约会定在那一家咖啡店。

Gemini 很快就完成了之前的记录调取,并设置了日历项。

——这显示出 Android XR 智能眼镜,不仅能够准确记住用户刚才见过谁,还能够理解视觉-语音等多模态的上下文,从而准确理解用户的需求。

这些能力的背后,是 Google 在本次 I/O 2025 上升级推出的 Gemini 2.5 Pro 等新一代多模态基座大模型,以及 Project Astra 智能体助理技术的功劳。

Gemini 2.5 Pro 和 Project Astra 驱动了 Gemini Live 的实时视觉 AI 智能体助理功能,在今天也正式面向 Android 和 iOS 的 Gemini app 上线并且免费提供给所有用户。

而在 Android 手机以及 Android XR 眼镜平台上,Gemini Live 更是升格成为一个具备完全设备操控能力的全量智能体,能够基于当前看到的视觉环境上下文,以及用户的自然语音控制,去完成多步骤、复杂的任务。

 

Google 智能眼镜,浴火重生

当年的 Google Glass 挑战了人们的隐私认知和社交习惯,并不被市场看好,所以也可以说它死得其所。

而在人人都恨不得脑门上长摄像头的今天,智能眼镜已经不再是什么争议焦点。或许当人人都有了智能眼镜,隐私已让位与新的功能与革命性的体验。

当然,Google 仍然记得所有关于隐私的争议,因此也表示会在产品开发过程中不断收集用户和测试者的反馈,从而确保这款产品更少侵犯隐私,更多提供帮助。

Google Glass 可能死了,但 Google 一直没有停止研究智能眼镜这件事。今天,十多年来的所有努力,终于通过 Android XR 涅槃重生。

一副好的眼镜,不应该只是技术产品。Meta 和 Rayban 200 万副销售量的成功经验,给 Google 好好上了一课。

在 I/O 大会上,Google 也宣布将和 Gentle Monster、Warby Parker 两大知名眼镜品牌及零售商合作,推出既时尚也科技的 Android XR 眼镜。

作为依视路集团旗下最新的时尚品牌,Gentle Monster 在亚洲和欧美青少年群体里十分受欢迎,产品往往能够卖出远超其用料、做工和设计水准的价格。而进入 Android XR 项目之后,恐怕 Gentle Monster 的溢价只会变得更加夸张。

Warby Parker 则是在美国最近几年里流行起来的 O2O 概念眼镜品牌,用户可以用它的 app 或网站很方便地一次性订购多副镜架,试用后再退回不需要、不好看的产品即可。

毫无疑问,智能眼镜如果想要拓宽销路,演好「时尚单品」的角色是最起码的。考虑到 Rayban 和 Oakley 两大品牌都已经被 Meta 收编,Gentle Monster 和 Warby Parker 可能是剩下的最好的选择。

最后,唯一遗憾的是,考虑到 Gemini 的海外大模型身份——即便 Android XR 能够被中国设备品牌采用,中国用户可能也很难感受到硬件和模型的完美结合。

好在这次 I/O 大会上,Google 通过 Android XR 已经给厂商们打好了样。而中国大模型的精进速度,以及产品化的节奏比海外更快。

或许我们也可以期待,这一波智能眼镜的彻底爆发了。

 

 

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


AI 生成的「亡者证言」,冲击法庭的伦理边界

By: 杜晨
19 May 2025 at 18:19

对那个朝我开枪的男人,我想说:很遗憾那天我们在糟糕的情况下与彼此遭遇。没准下辈子我们能成为朋友……我相信原谅,相信上帝会宽恕,到现在依然如此。

Chris Pelkey,一位枪击案受害者,对法庭如是说道。

但这并不是他本人。他在 2021 年的一次路怒枪击事件中,已经不幸去世。

庭审现场上播放的,是以 Pelkey 的形象和声音制作的 AI 视频。

Chris Pelkey

更令人惊讶的还在后面:法官采纳了这段由 AI 生成的受害者影响陈述,作为量刑阶段的证词。

这是今年 5 月 1 日发生在亚利桑那州某县级高级法院的一次庭审,在刑事犯罪法庭,乃至整个英美法世界,引发前所未有的震荡。

这也创造了 AI 生成内容作为证词提交到法庭,并且被法庭采纳的先例。

这次庭审在 YouTube、Reddit 等平台引起轩然大波,大批网友表示对法官采纳这段 AI 证词的决定表示难以理解,

有人认为当值法官 Todd Lang「愚蠢」,应该被上级部门剥夺法官资格。

有自称是律师的网友对此表示震惊:「如果我雇人在庭审现场做相似的事情,不但会被当庭制止,甚至还会被律师协会调查。」

乍一听,一个法庭采纳由 AI 生成的,代替已经死去的受害者发表的证词,的确荒谬又愚蠢。这些网友们的反对态度,完全有理由。

但考虑到这条证词视频由受害者家人制作,并且同时并未遭到被告方和法庭的反对——情况也的确略微蹊跷,似乎另有隐情。

让我们深入了解这次令人难以置信的庭审。

 

AI 亡者证词的背后:爱与宽恕

萌生制作 AI 视频作为证词的想法时,Stacey Wales 就明白,这个做法势必争议滔天。

连自己的丈夫一开始都难以接受,觉得她「可能有点过分了」。

Wales 是本案的受害人、路怒枪击事件中的死者 Chris Pelkey 的妹妹。她和丈夫都从事科技行业,对 AI 生成工具并不陌生。

被告应该得到法律的制裁,受害者一方也都希望法庭能够给出最大限度的量刑以宽慰 Pelkey 的在天之灵。Wales 希望枪手 Gabriel Horcasitas 在监狱里度过后半生,或者至少法官能够以过失杀人罪的顶格量刑,对被告进行宣判。

但她同时也认为,哥哥的在天之灵或许不会这样想。

Chris Pelkey

前思后想了整整两年,和数十位哥哥的生前友人聊过之后,Wales 重新认识了自己的兄长,也无比确认一件事:

她自己不一定能原谅被告,但哥哥一定会原谅他。

斯人已逝,没有什么能让 Pelkey 起死回生。但至少 AI 能给哥哥最后一次表达自己的机会——Wales 这样想,并最终说服了丈夫。

她明白,如果决定要做这件事,必须非常小心谨慎地处理,如果视频的脚本不好,效果会差之千里。

说干就干:她整理了多年以来访谈记录里大量的侧面描述,提炼出了自己认为最接近哥哥的样子,以及他可能会最终在法庭上说的话,写出了脚本。

他们采用 Pelkey 的遗像照片,使用 Stable Diffusion 和 LORA 微调来生成视频。过程中遇到了效果失真的情况,比如 Wales 希望哥哥能在视频里最后一次,向他爱和爱他的人们「笑一下」,但照片里盖住脖子的长胡须很难处理。他们不得不「修整」一下胡子,修掉了卡在帽子上的墨镜,才让生成视频里 Pelkey 的样貌和笑容更加真实。

最终生成的视频并不十分完整、连贯,中间有明显的中断和剪切痕迹。但这并不重要,Wales 在视频里,重现了哥哥的音容笑貌,结果令她满意。

「大家好。首先澄清一下,我是利用照片和声音资料,通过 AI 生成的 Chris Pelkey。今天我以数字再生的方式和大家见面,希望能够分享一下我在现实生活中究竟是一个怎样的人,」Pelkey 的数字孪生,在视频的开头说道。

从这条 AI 生成的视频中,人们能够看到一个更完整的 Pelkey:他曾在美国陆军服役,驻扎在条件恶劣的战区;他热衷于钓鱼,蓄须但并不邋遢,几乎符合人们对于粗犷的退伍军人的一切刻板印象。

他热爱上帝,热爱生命,热爱身边人,用信仰和爱作为人生在世的唯一信条。

「对 Gabriel Horcasitas,那个朝我开枪的男人,我想说:很遗憾那天我们在糟糕的情况下与彼此遭遇。没准下辈子我们能成为朋友……我相信原谅,相信上帝会宽恕,我一直相信,直到现在仍然如此。」

在视频中,Pelkey 的数字孪生也没忘了像现实生活中一样开两句玩笑:「老去是一样奢侈的礼物,并不是所有人都能享受。现在我没有机会了,但这张滤镜照片能够让你们看到,年老力衰的我长什么样。有没有吓到你们?」

 

争议焦点:AI 证词是否应该、何时可以被法庭采纳?

西方社会更流行尊重他人自主意志的观点。但网友对这一事件的争议不在于死者家人制作了这条视频,而是在于视频被提交到法庭。

不仅如此,被告人律师以及法官在现场也没有提出反对。

更离谱的是,法官不知为何,决定采纳了这条视频作为证词。

一般认为,不在场者,且非自己意志驱使所发表的言论,无论是文字还是视频,都不能也不应该作为证词。

此前从来没有过 AI 生成证词被采纳的先例;一些其他案件中出现过类似的 AI 生成内容被提交到法庭的情况,不但没有被采纳作为证据,且始作俑者都会遭到严厉的惩罚:不是被控藐视法庭,就是被责令罚款。

这起过失杀人案,很特别吗?

别说,还真有点不一样。

与大陆法系的定罪量刑一体化不同,英美法采取定罪和量刑的程序分离原则。本案的定罪阶段已经完成,被告人已无法脱罪,庭审进入了量刑阶段——也正是在这个阶段,作为受害者之一 Wales 才向法庭提交了这条视频。

更准确一点来说,这条 AI 生成的视频证词,正因为在量刑阶段提交到法庭,所以不构成刑事意义上的「证据」。

在量刑阶段,控方可以寻找证人(例如作为死者家属的 Wales)提交证词,来帮助法庭更好了解案件造成的伤害,从而达成控方期待的量刑水平。反之亦然:辩方也可以找证人来提交品行证明书,对被告人进行美化,从而减低量刑——即便这些证人与案情本身并无关联。

简而言之,量刑阶段的证词,是为了影响法官对于有罪之人量刑严苛程度的判断,这也是法庭允许的。

然而在本案中,大部分旁观者可能都忽略了一组细节:庭审记录显示控方主张 9 年刑期;Wales 在她自己的证词中要求法官给予 10 年零 6 个月的顶格量刑;但从 Wales 制作的 AI 视频中,Pelkey 的数字孪生似乎已经原谅了被告人。

可能这也是为什么法官 Todd Lang 表示自己很喜欢这个 AI,并从中听到了宽恕的意味。

看完视频后,他对 Wales 说,「你的证词告诉我你很愤怒,你主张了最高量刑。然而即便这是你想要的,你还是允许 Chris 说出心里话——你认为的版本。我没有听到他要求最高量刑。」

最后,法官给予了 10 年零 6 个月的最高量刑。被告人也已经就量刑程度提出上诉。

滑铁卢大学教授、AI 法律研究者 Maura Grossman 指出,考虑到本案是法官审判庭 (bench trial) 而非陪审员法庭 (jury trial),且提交的 AI 视频并不是刑事意义上的「证据」,所以视频的影响力对于案件比较有限,不起到决定性作用。

亚利桑那州立大学法学教授 Gary Marchant 认为,和那些使用 AI 编造不存在的案例或法条的恶意行为相比,这种由 AI 生成,尽力、真实呈现受害者声音的证词,并不存在恶意,因而不太需要反对。

即便如此,本案中对于 AI 生成证词的使用,特别是证词被采纳这一突发情况,还是创造了一个具有轰动性和争议性的先例。

法庭是对虚假信息高度敏感的严肃场合。英美法又是一个大部分时候遵循判例法制度的法系。AI 生成的资料是否可以,何时、何种场合可以被法庭采纳为有效证词,听上去是一个极度复杂和困难的法律和伦理问题。旁观者认为法官的决定过于草率。

但至少 Wales 的目的已经达到了。

「我们希望能够感动法官。我们的目标是还原真实的 Chris,展现他生而为人的样子,」她说。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


从手机、PC 到汽车,不泄密的 AI 才是时代需要的 AI

By: 杜晨
9 May 2025 at 12:00

任何技术产品都有攻击面,大模型也在所难免。模型产品和攻击方式永远是「道」与「魔」的此消彼长。

比如去年就有份论文提出一个新的攻击方法,成功盗取了其他用户发送给大模型的字段。此漏洞利用了 KV 缓存共享——一项大语言模型 (LLM) 业界广泛应用,两大主流推理框架 SGLang 和 vLLM 都在使用的技术。

LLM 的安全问题不容小觑。无论对于用户还是企业,数据泄露都足以「致命」。APPSO 之前的一篇文章就曾提到,越来越多的人将豆包、DeepSeek 和 ChatGPT 们视作倾诉对象,和它们推心置腹,不经意间便将个人的隐私信息吐露其中。而一旦 LLM 遭遇泄露事故,好事者能够依据数据识别出具体的用户以及对应的现实身份,从而用于不法意图。

为了应对 iPhone 用户使用 AI 产品的隐私顾虑,维持公司数据隐私政策的连贯性,苹果在 24 下半年宣布了一个名叫 Apple PCC(私密云计算 Private Cloud Compute)的系统:

在 Apple Intelligence 场景下,端侧算力不足时,用户数据经私钥加密上传云端,由部署在服务器私密计算模块(类似 iPhone 芯片里的安全隔区)里的大模型进行加密推理,仅在推理过程和结果返回端侧时短暂解密。全链路数据均以密文流转,且采用无状态计算模式,确保数据零存储、用后即焚。

技术是很好,但遗憾由于国内 Apple Intelligence 目前状态微妙,iOS 用户反而用不上。

在 iOS 以外的科技产品世界,另一家公司也正在应对私密云计算的挑战:

火山引擎开发的 Jeddak PCC(私密云计算)平台,有望应用于 Android 手机、PC 电脑、新能源汽车等更多领域,为数十亿用户的 LLM使用隐私保驾护航,企业在加大 LLM 与自身场景结合的同时无需担心数据泄露。

通过在各自的硬件产品和 LLM 技术栈中应用 Jeddak PCC 平台能力,硬件厂商能将保护用户个人数据隐私的承诺,从设备端延伸到云端。

新时代的 LLM 要大,也要安全

近期,火山引擎对外公布了基于 Jeddak PCC,面向私有云 AI 安全推理/私密计算的合作案例,合作伙伴包括联想和努比亚等设备品牌。这也让 Jeddak PCC 成为了国内首个针对个人电脑和智能手机市场布局的私密云计算解决方案。

背景不难理解:日常生活中,每天有大量用户和企业在PC 和智能手机等主流设备上与 LLM 进行互动。联想用户在 PC 上进行文本生成、润色、提炼摘要、深度思考等文本类工作,努比亚用户在手机上使用多模态豆包大模型、扣子空间 Agent(智能体)等产品。

不是所有的 AI 任务都能够在本地完成。一些需要深度思考、知识库建立、以及 Agent 能力的任务,本地模型尺寸太小或算力不够,需要使用云端的 LLM。

问题在于,用户与 LLM 和 Agent 互动,可能涉及机密数据或个人的隐私信息。这就遇到了敏感数据上云的困境了。云端的模型大归大,但服务提供方无法保证安全。当用户处在高敏感、高密级的工作环境中,是不能轻易将资料随便上传给 LLM 的。

PC 和手机厂商对于 AI 产品和服务的架构,需要针对隐私计算的需求进行重构。它们希望构建一个端到端全流程,且能够自证清白的私密云计算平台,用来解决端云协同计算下的 LLM 数据安全隐私问题。

少有其它解决方案,比 Jeddak PCC 更适合解决这个问题。看下面这个典型案例就行了:

假设一个企业科研人员,写了一篇论文准备投稿到顶级期刊,但需要使用 LLM 工具对论文进行润色优化,需要使用外部公司提供的 LLM 工具,同时要求数据全程加密——这是一个典型的检索增强生成(RAG) 任务。

  1. 密钥:用户托管一个密钥(BYOK – Bring Your Own Key),PCC 在 LLM 任务的全流程期间使用该密钥进行加/解密。密钥保存在用户设备上 + 云端的安全隔区(TEE 可信执行环境)模块内。
  2. 知识库创建:用户上传文档时,PCC提供端云互信的加密通信能力,将用户文档从端侧设备安全地传输到安全隔区内;知识库服务对文档解密、切片,生成明文向量和片段;加密服务将其变成密文向量和密文切片,存储在向量数据库 (VikingDB) 内——密态知识库创建完成。
  3. 知识库检索召回:用户对 LLM 输入提示;提示词通过端云互信加密通信传输至安全隔区,在安全隔区内生成并加密明文向量;使用密文向量在数据库检索,召回密文切片;在安全隔区内解密切片后,进行 rerank 等处理。
  4. 推理阶段:拼接生成的明文检索结果+用户的提示词,给到大模型(也在安全隔区内)进行推理,生成明文的推理结果——推理完成。
  5. 回传阶段:PCC 对生成结果加密,生成密文结果,传回用户设备上;端侧 TEE 的解密服务对结果进行解密,向用户呈现明文结果。

这也正是联想使用 Jeddak PCC 正在做的事情。5 月 7 日,联想正式发布了面向个人和企业用户的超级智能体产品,而火山引擎的私密云计算解决方案成为了这一 Agent 解决方案的基石。

在 RAG 类型工作中,Jeddak PCC 将用户的各类文档进行向量化处理,将硬件芯片级加密安全能力延伸至云端,通过机密计算和密码学等隐私计算手段,实现全流程加密——让用户在构建私人/企业级知识库的时候,无需担心数据泄密。

联想同期发布的多款 PC 设备,包括消费级和商用市场 SKU,均支持 Jeddak PCC 技术。

从整个流程可以看到:

  • 所有涉及到数据流转的过程,全部受到用户粒度密钥的加密保护;
  • 云端只存储密文向量,不存储明文的文本和向量;
  • 只有 LLM 推理使用明文,且推理过程在安全隔区内进行;
  • LLM 运营商和云计算服务提供商全程不掌握用户密钥,无法看到明文,实现了全程保密。

那么问题也来了:全程加密的方式,对推理效率和用户侧体验是否有影响?

实际上没有可观影响。APPSO 从火山引擎了解到,虽然加密的过程复杂,但从用时的角度,用户不会有明显感知,速度相比明文方式只会慢 5% 或更低。

而从推理结果上,由于采用了高性能的密码学方法,加解密过程的信息很难出现信息损失。LLM 的推理工作在安全隔区进行,没有数据泄密的风险。最后的推理结果无限接近于无损,并且 LLM 仍然保持流式输出的工作方式,让用户可以看到 token 不断生成。

 

架构开放,业务广泛,Jeddak PCC 已为「Agent 元年」准备好

隐私计算 (privacy/confidential computing) 第一次在大众面前被提起,还是在 2013 年。自从当年的 iPhone 5s,苹果开始在 A 系列处理器内封装一颗单独的隐私计算小模块,名叫安全隔区 (secure enclave),用于生物验证、支付等操作。应用、处理器,乃至整个操作系统,都无法看到这些私密数据对应的明文。

时代更替技术升级,现在每个人都在努力追上 AI 的潮流,享受 LLM、Agent 等技术带来的便利和创新体验。然而隐私计算很长时间以来并没有跟上 AI 普及化的脚步——直到 Jeddak PCC 的问世。

私密云计算的概念,是隐私计算在云时代和 AI 时代的延伸扩展。而 Jeddak PCC 其实就是在用同样的技术,把概念扩展到 AI 云计算的场景下,将存储在用户端侧的私密数据,放在一个更大的区域内做安全的存储、托管和计算。

就像苹果安全隔区让用户首次接触到隐私计算,Jeddak PCC 也是私密云计算的能力第一次交到企业开发者、设备厂商,以及它们的终端用户的手上。而且从架构开放性、支持业务种类、软硬融合等多个方面来看,Jeddak PCC 和苹果 PCC 相比也已经展现出明显的优势。

据 APPSO 的了解,Jeddak PCC 采用开放架构,支持 CPU、GPU 以及异构计算,支持英伟达 Hopper、英特尔 TDX、AMD SEV 等机密算力平台,满足客户的公有/私有云等多种或融合的部署需求。

这让 Jeddak PCC 和苹果 PCC 的封闭架构和完全依赖独家软硬件实现的做法,形成了明显差别。毕竟苹果 PCC 只是为了实现其原生内部应用 (Apple Intelligence) 而推出,而 Jeddak PCC 是火山引擎自研的私密云计算能力输出并普及给整个科技行业。

苹果宣称其 PCC 系统采用封闭架构的一大原因在于确保安全闭环。但其实随着技术和观念的进步,安全行业目前更普遍认为,封闭系统无法减缓「漏洞-入侵-补丁」的亡羊补牢式循环;安全软件在开放的架构和协作的模式中开发,可以确保所有的利益相关者能够及时发现漏洞、补强安全。

这也是为什么 Jeddak PCC 方案的开放架构,可能更容易被行业普遍接受,能够大大加速行业整体安全水位的提升。

  • 火山引擎积累了大量数据库、密码学等方面的人才,这些领域都和私密云计算高度相关。强大的人才储备、安全科研能力,加上一线云服务商的安全政策,可以确保隐患及时发现。
  • Jeddak 项目组目前在安全方面专利累计达到 130 件,2024 年新增 62 件,涉及密码学、隐私计算、系统安全等专业,覆盖AI、LLM 安全、可信执行环境等技术方向。
  • 除了火山引擎的工作外,开放架构也意味着 Jeddak PCC 的能力和安全性提升也依赖联合端侧厂商客户共同建设。

在支持的 AI 业务类型上,Apple PCC 目前存在唯二目的: 1)服务 Apple Intelligence 产品的用户端体验;2)苹果自己的后端训练,以及公司内部的员工任务。具体能力目前也仅仅涉及推理层面,没有看到对其它 LLM 主流业务类型的支持。

而 Jeddak PCC 已经支持可信 AI 推理和安全 RAG——这两者已经通过前一小节的案例体现。这背后其实是火山引擎隐私计算团队将多年以来在机密计算、同态加密上的技术外放给云服务客户,帮助它们更好在 LLM 安全合规的前提下,实现应用拓展和降本增效。

至于 Jeddak PCC 对 Agent 的支持,更是火山引擎正在加紧研发和测试的业务项目。

业界普遍认为 2025 年是「Agent 元年」,从娱乐休闲到专业任务,各种类型、具备各种能力的的 Agent 层出不穷;火山引擎背后的字节跳动本身也通过豆包、扣子空间等产品深度布局了 Agent 市场。显然 Agent 成为了当下场景可能性最丰富、生命力最强的 AI 产品类别。

火山引擎在6月即将上线基于 Jeddak PCC 的可信版 Agent——OS Agent,让用户通过自然语言指令,即可完成点外卖、订机票等复杂操作,并且任务全过程贯彻 Jeddak PCC 的私密云计算逻辑。随着 Agent 技术的不断进步、市场活跃度提升,Jeddak PCC 也已经为 Agent 的彻底爆发做好了准备。

 

用户可感知的 AI 安全

无论是触摸屏幕还是输入内容,用户与应用产品的每一次互动都会留下痕迹。而在今天的互联网服务用户权利结构下,一个尴尬的事实是,用户并不真正「拥有」自己的数据。

在 AI 的时代,这个逻辑同样延续。仅就目前的 LLM 产品形态来看,用户的隐私控制权同样极其有限,服务商的隐私政策还未跟上节奏。用户往往在未意识到这一点的前提下,向 LLM 产品发送更多隐私和机密的数据。

火山引擎认为,在这样的背景下,LLM 开发者和云计算平台更需要多做一些努力,帮助国民提高 AI 时代的数据隐私和安全意识。

在 AI 完全起飞,LLM 植入每一个产品的前中后端的新时代,私密云计算技术对于用户的重要性与日俱增。与此同时,这一技术的好处,也应该让用户感知到,给他们可见的获得感。

想象一下,在不远的将来,手机的系统设置-隐私功能里面,会新增一个「AI」模块:

比如,你可以看到自己今天和 AI 进行了 100 次互动,其中有 80 次在本地,20 次发送到云端执行。

不仅如此,你还可以查看每次互动的具体明细,例如时间、输入的提示内容、本地或云端处理。这些细节需要你用指纹、人脸,或者至少输入密码才能查看,因为它们受到手机芯片的安全隔区的保护——本地隔区同样受到 Jeddak PCC 体系的保护。

更进一步,或许你还可以看到那些上云的互动次数,数据在云端被如何加密,用后是否已删除——能够「自证清白」对于一个健全的 PCC 平台来说,是最基本的要求之一。

好的设计,润物细无声。但对于数据隐私安全这种焦点议题,或许让用户能够实际感知到,体验流畅的同时也用得放心,才是真理。

2025 上半年,国内各主流 Android 厂商都在加码 LLM、Agent 相关的功能,创新层出不穷。但与此同时,个人数据隐私的泄露风险在 AI 时代也进一步提高。对于私密云计算技术的需求,也与日俱增。

火山引擎希望 Jeddak PCC 的推出能够满足这些设备厂商和 LLM 开发者的需求,成为 AI 时代全民提升隐私保护和增强安全意识的一个里程碑。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


AI 替你玩手机,Moto Razr 60 折了屏幕,还想「折叠时间」

By: 杜晨
9 May 2025 at 08:26

折叠屏手机,还有多少创新空间?

恐怕不多了。这也是为什么我们看到手机厂商都在另辟蹊径,在折叠屏的技能树上另类「加点」,比如阔折叠、三折叠等等。

摩托罗拉曾经定义了翻盖手机品类。而在折叠屏成为成熟甚至红海市场的今天,Moto 继续认为:它对于竖折叠手机的定义,才是竖折叠手机真正该有的样子。

多彩的设计理念,强化个性感,成为手机玩家自己的风格延伸。

当然,还要多加一点 AI,免得掉队。

5 月 8 日,联想在上海发布了 Moto 品牌竖折叠手机的最新一代产品,Moto Razr 60 系列,从高到低分为 Ultra、Pro 和常规系列。

工业设计层面多彩个性的设计语言,和联想在 AI Agent 领域的技术和产品体验突破,在这台手机上进行了结合。

前者是折叠屏手机往往少有的特质,后者也让很多手机厂商既跃跃欲试又摸不着头脑。好在擅长设计的 Moto,再加上作为 AI 技术隐藏巨头的联想,能够两者兼得。

近年来在工业设计领域,CMF——色彩 Color + 材质 Material + 表面处理 Finish 概念越来越热门(甚至 Nothing 专门做了个 CMF 同名的子品牌)。

而恐怕很多人都忘了,Moto 的前身摩托罗拉才是最先在智能手机上大胆尝试不同材质的「吃螃蟹的人」。

Moto 品牌再次通过 Razr 60 Ultra 系列将实木/木纹的材质触感组合带回到智能手机品类。Ultra 系列的三大可选材质之一就是鎏金椴木,采用了拥有大地色调的天然椴木作为背板,保留原木质感和纹理。

一眼梦回 Moto X。

独特的设计往往是「hit or miss」。如果木纹外壳是 hit,那么同款另一配色的 Alcantara 的翻毛皮就是 miss。

这个名叫「意式奢绒」的版本,实际的观感和上手感受不是很好。易脏,且容易沾灰,把玩一会就有一种凌乱的感觉,对大汗手并不友好。用过 Alcantara 的都知道这个材质必须放在足够大的面上(这也是为什么跑车敢用),而且尽量不沾手。一旦面积有限,材质的经年变化,特别是不好的方面,就很容易显现出来。

更别提上述感受来自于发布会现场没怎么被重度使用过的样机,在这里真心建议科技企业不要再用 Alcantara 了。

Moto Razr 60 系列一共有至少 10 种配色,如果没数错的话。上述颜色属于 Ultra 独占,Pro 版本也有三个独占颜色,选的都是近年来的潘通热门色。看来联想又没少给潘通交钱了;普通版本则只有常规颜色和材质触感。(你可以访问联想官网查看具体机型对应的配色。)

如果你对某一特定颜色有着难以名状的偏好,认为自己所用的一切物品,特别是手机,都必须成为自己日常造型风格和审美方向的延伸,而且还不喜欢大路货,那么 Moto Razr 60 系列会是不错的选择。

从其他 Android 手机或者 iPhone 切换过来,你并不会损失什么。这个年头两种操作系统的体验其实已经很接近了。

但换成 Razr 60 系列,你还会获得更多东西——一个会替你玩手机的超级智能体。

毫无疑问 AI 已经彻底改变了世界,而智能体是当下最火的 AI 概念。如果你不知道智能体是什么,你可以理解为这个世界上的技术人才们,在追逐「通用人工智能」的道路上,目前开发出的最接近的东西。

当然,以后还会有更接近的。只是说今天智能体最近。

假如你正好也在用联想的笔记本电脑和 Moto 手机的话,就能体验可能是目前在消费电子设备行业最成熟,跨设备最流畅的 AI 智能体体验。

  • 在电脑上需要加张图进 ppt——一句话就能调用手机摄像头;
  • 在电脑上准备一份出行攻略,智能体不仅一次性给你把攻略全方位做好,最后甚至还会问你是否需要它来直接打开手机帮你叫车;
  • 不发小红书像白旅游了,但玩了一天又累的不行,可以直接一句话让智能体帮你选图+P 图+生成小红书文案+发布。

联想搞智能体的思路,一句话总结就是:拼命卷 AI,让人更轻松。

在折叠屏加上 AI 这件事上,联想还真想出了一句不错的口号:发明折叠屏是为了释放空间,进化智能体是为了折叠时间。

如果你既想把手机折起来省空间,又想让手机「卷」起来省时间,联想希望你考虑 Moto Razr 60 系列。

其他细节:

高通骁龙 8 至尊版满血芯片;LPDDR5x Ultra、UFS4.1,获得欧盟能效环保 A 级认证;4700mAh 电池,支持 68W 有线快充;4 寸(Ultra、Pro)/3.6 寸(普通版本)外屏,玻璃陶瓷,支持上千款应用,支持一键乘车码、支付码等;Casetify 联名款手机壳

售价:

Razr 60 Ultra:原价 5999/国补 5499 起

Razr 60 Pro:5699/5199 起

Razr 60 3499/2999 起

 

 

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


扣子空间上手体验:一个会主动跟你「对齐」的 AI 实习生

By: 杜晨
21 April 2025 at 12:00

Agent(智能体)和 MCP(模型上下文协议)是 2025 上半年 AI 领域最热门的趋势。

前几天字节的 Agent 产品「扣子空间」,也正式开启了内测。

在人山人海的 agent 产品中,扣子空间第一次提供了「规划模式」——能够和用户分步协作,在关键步骤节点暂停确认、允许用户实时修正路线的 agent 能力。

扣子团队官方认为,人和 agent 协作起来,将会是一种更加丝滑的工作模式。

扣子空间内测申请

官方网站

爱范儿也第一时间拿到扣子空间邀请码,试跑了一些脑洞微开的任务。

我们扮演了 「老师好我叫何同学」 的公关负责人,要求实习生扣子对近期舆情事件进行分析,生成舆情报告,进一步给出对策建议,然后再撰写一份回应声明:

Prompt: 我是‘老师好我叫何同学’团队的公关负责人。近期我们的品牌遭遇了舆情事故,请你搜集资料,评估该事件的影响程度,了解网友的吐槽内容,从中分析提炼出网友认为我们所犯的错误以及改进方向。你可以利用你认为合适的网站和互联网平台来搜索资料。然后,为我生成一份舆情报告,全面展示此次舆情事故的时间线、发展脉络、网友反应与吐槽,以及应对策略。这份报告需要做得深入一点,特别是在应对策略方面要提供多种不同的角度。此外,我还需要你依据应对策略,生成一篇态度诚恳、不逃避责任且改进措施切实可行的回应声明。你需要把舆情报告生成一个网页和一个 pdf 文件,把回应声明生成为常规文档。

这个任务看起来比较简单,主要动作是搜索和文本生成,但同时对报告制作者的舆情分析的专业知识,以及将媒体报道和社媒贴文提炼、格式化成严肃报告的文稿能力,要求都不低——这些,都是一个 agent 产品在大模型方面的能力。

除了大模型能力之外,在 browser/computer use、代码、MCP 等能力上,这个任务也能让扣子空间「小试牛刀」。

和工作水准。这是第一次生成的舆情报告的数据分析部分:

这是 AI 实习生编写的应对策略:

作为「初稿」,这次交付无论从舆情报告的详实程度,逻辑拆解,分析的专业性,还是回应声明的格式上,都算是达标了。具体细节不一定适用于真实场景,但至少生成结果提供了可以用于下一步行动的指导方向。

值得注意的是,由于输入任务时提到了「时间线」的概念,生成的结果似乎把更多篇幅提到了「开源项目抄袭」、「会自己打字的键盘」等前序事件上。而这并非我们的任务意图。

显然,在工作场合中,同事之间目标对齐还是很重要的。

我们正好可以通过扣子空间的规划模式,来与这个 AI 实习生对齐:

经过对齐后,不仅内容目标正确,还可以看到舆情报告的数据部分直接把粉丝量、「三连率」、完播率的对比展示了出来,数据的说明力和代表性有所增强:

你也可以访问这个链接查看任务完整回放。

 

停下来、慢一点:AI 工作搭子要学会自己「对齐」

从爱范儿的测试结果来看,扣子空间和传统智能体/MCP 产品最大的不同之处,就在于这个能够「停下来、慢一点」的规划模式。

简单来说,交给 MCP 一个任务之后,它会自动分解任务指定规划然后开始跑任务,最终生成结果。但这难免出现「一步错,步步错」的情况。

而扣子空间开启规划模式后,可以在执行复杂任务的关键节点上「停下脚步」和用户对齐,让用户可以实时纠错和纠偏,优化执行逻辑。

这种方式尤为适合不具备提示工程能力的小白用户。第一次提交任务的时候,简单扼要表达你的意图就行了。

「规划模式」的触发条件有两种:

  • 一种是 agent 出于各种原因(比如查不到相关资料,或者不能准确理解用户的意图),导致无法完成当前步骤,或者结果的置信度不够高——它会自己停下来。当任务暂停时,扣子空间会弹出通知,提醒用户进行下一步操作。

  • 另一种是用户可以主动按下「暂停键」:智能体的分步执行任务过程中,会把分步结果写成 .md 文档,用于构建知识库和辅助下一步执行。扣子空间也是如此,用户如果发现分步文档有误或者偏差,就可以自己暂停修正。

这种协作式的智能体工作流程,使得智能体避免因为「一上来就分析错了」,以及思考和 token 不断输出中产生的幻觉等各种原因,导致偏离既定目标。

可以这么理解:如果说传统大模型/智能体是「自动驾驶」,那么扣子空间其实是让用户来扮演 AI 的「copilot」(副驾驶)。用户一旦发觉偏离,可以立刻踩一脚刹车,手动扶正方向盘。

如果换成实习生的比喻,扣子空间就是一个能够做到「不懂随时问」,然后依据即时反馈来灵活调整工作方向的 AI 实习生。

实际上还不止一个 AI 实习生,而是可以有很多个:

  • 对于常规型任务,比如文本处理、制图制表、简单分析等,扣子空间自己就是一个通用实习生,算是一个能力比较全面,但不强调专深领域的「小六边形战士」;
  • 至于深度专业领域的任务,比如用户调研、金融行研等,就需要「领域专家」智能体出面了。

无论是通用型还是专家型智能体,都通过「扣子空间」来一站式调度。

不仅如此,如果现有的专家型智能体还不够用,开发者也可以充分利用扣子团队同步推出的扣子开发平台(零基础开发智能体)、扣子罗盘(智能体 DevOps 调优工具)、Eino(Go 语言智能体开发框架),来快速开发并上架自己的专家 Agent。

 

AI 实习生,终于长脑子了

当然,在爱范儿的大部分测试中,扣子空间都能比较准确地理解意图,生成优质的结果。

最近关税战十分热闹,我们也让它来试试这个难题:跟踪美国在主要对华进口品类上的关税水平。

Prompt: 近期美国政府关税政策一天一变,我需要你制作一个能够实时更新的在线表格,来追踪自从 4 月1 号以来关税变化。你需要追踪中国向美国出口的最主要产品的税率,比如消费电子设备、针管、玩具等等,具体有哪些产品你自己去查,查不出来就随时停下来问我。注意有一些关税类别是近期新增的,但一些关税类别是在 2025 年以前就有的,你需要在表格中体现不同关税类别是如何叠加的,不明白随时问我。

先来看一下生成的结果:

爱范儿观察了一下思考过程,发现它对于「关税」这样的复杂概念已经有充分的理解,而这和可能和背后所使用的大模型有关。

最近一个多月里我们其实用过很多智能体/MCP 类工具,特别是有些具备 deep research 能力,标榜能够代替用户执行复杂任务的产品——处理相同的任务时,却需要做数十轮搜索,似乎很用力地在理解用户到底在说什么,给人一种用力过猛的感觉,结果却也并不理想。

扣子空间总共只进行了六轮思考,其中只有四轮真正用来搜索和了解关税种类(剩下的两轮分别是任务开始的规划分配,以及任务结尾的网页生成。)

生成的结果,从视觉观感上还是很有说服力的。

而且能看出来这个 AI 实习生并不是指哪打哪,而是多少动了点脑子,做了一些并不在初始任务要求内,但它认为会有帮助的数据分析。比如列出了今年以来关税增减的时间线:

做了短中长期分别的影响分析:

还有图表与文字结合,结构化的呈现方式:

以及最让我惊艳之处:它把 25 年前基准、「自由日」、「对等」等不同关税名目的区别和叠加情况,给抓住了。

但错误也非常容易发现,比如大部分类别里的税率完全算错了。至于错误的原因,我的理解是这个实习生采用纯搜索新闻的方式,容易被错误和不及时的信息带偏,而非直接到美国政府网站抓取数据。

当然,就算是真人实习生,恐怕也会这么干。进出口从业人士以及关税方面专家才知道获取最及时、准确数值的方法,这个任务需要的专业知识和经验远超实习生水平。

但这并不代表扣子空间不能化解这个难题:我们可以在开启「规划模式」后,在纠偏的时候给它明确的数据源定义,并且让它主动调用 python/MySQL 或其他代码能力,去爬取最准确、真实的数据;或者,我们也可以从权威来源手动下载格式和内容未优化的报告,然后再通过官方支持的多维表格扩展插件,来生成任务需要的知识库。

扣子空间支持调用外部 MCP 工具(正式版),目前已经支持了十多个字节跳动内部以及外部(例如墨迹天气、高德地图等)的 MCP 扩展。所以理论上,进出口行业专业数据库提供商也可以开发自己的 MCP 扩展,整合到扣子空间里。这样再复杂、再无厘头的关税进展,也难不倒实习生了。

在线查看关税任务重放

再来个纯代码的小任务,可能有点大材小用了。让扣子空间来做一个 hello world printer,并且中途修改需求。

还不会写代码的领导们,终于不用怕员工跑路了:你也可以让 AI 实习生教你写代码。

在线查看代码任务重放

前面这些测试的都还是扣子空间默认激活的「通用实习生」。

而在首页还有「专家 Agent」的入口,目前 beta 阶段开放了两个可用专家,分别是用户研究专家(扣子官方开发)和华泰A股观察助手(华泰证券和扣子共同开发)。

以A股观察助手为例,它的进入界面和通用实习生略微不同,允许用户基于自选股和板块定制日报,也支持一对一咨询功能,将智能体变成用户可以独享的证券分析师。

这两个专家 Agent,也是扣子空间的 MCP 扩展能力的直接体现。它可以将扣子的大模型与第三方服务提供商的大模型能力放在同一个上下文里,实现 MCP server 之间的「协作」。

 

当 AI 从 「工具」 变成 「搭子」:人机不分工,而是共生进化

传统大模型产品和工具的能力天花板,决定了它们的主要用途是处理事务性工作,替代重复性劳动(例:文本生成、数据整理和格式化、基础规划等);而正如前面提到,智能体/MCP 整合深度思考、任务拆解与规划、按步骤自动化执行任务的能力,但这种「全自动」的方式仍然存在弊端。

与前两者相比,扣子空间提出一种新的思路:在全流程得到真人用户实时监督的环境下,让 AI 深度参与到解决问题的完整工作流中,实现人和智能体的有机协同工作。

「AI 实习生」确实是一个挺有趣的类比,它一边和你协同工作,一边从你身上学习,逐渐熟悉你的工作习惯和要求,掌握你的目的动机和思维逻辑——每一个优秀的 mentor 都希望自己的实习生能够成长为独当一面的全职员工,而这种成长,需要通过聪明的工作方式,和一次又一次的成果交付,才能逐渐获得。

工具不断推陈出新,工作方式也因为 AI 变得很酷。但归根结底,高效稳定地交付成果,才是王道。

从另一角度来看,当 AI 工具的能力和服从性同步提升,每个职场打工人都能随时召唤自己的 AI 实习生,愈发复杂困难的任务也能够被轻松化解,打工人自己又将何去何从?

或许这既是一次警钟,也是一次契机,提醒我们应该将自身的精力和时间,转移到以下两个方面:一是提高自己操控 AI 工具的能力;二是专注于那些永远无法被 AI 所取代的创造性和思考性工作。

毕竟,在职场上,稀缺的永远不是办事的能力,而是独到的思考。

当然,那样的未来还需要时间去实现。现在不妨申请扣子空间体验资格,让你的 AI 实习生 / 数字职场好搭子先 「上岗」 试试。

或许,你的工作方式,以及职场生活质量,将迎来巨大的改变。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌