Reading view

There are new articles available, click to refresh the page.

那个周末,我的吸尘器开始骂我

美国明尼苏达州,冬天漫长而寂静,雪包裹了整个世界。对于律师丹尼尔·斯文森 (Daniel Swenson) 来说,家是他唯一的庇护所,是他在法庭上唇枪舌剑一天后,能够卸下盔甲的地方。

然而,去年年底的一个深夜,这个庇护所被一种抽象的力量击穿了。

字面意义上的抽象。

起初,只是客厅的扫地机器人发出了异响,声音像是坏掉的收音机。斯文森一开始没在意,但当他打开控制 App 时,屏幕上的画面让他背后的汗毛瞬间竖立。摄像头正在转动——而且不是正常工作时的那种转动,而像是一双眼睛在窥探的感觉。

有人在窥探斯文森的客厅,他的生活和隐私。他愤怒地重置了密码,然后重启了机器,以为能把不速之客拒之门外。但是这次驱魔似乎并无作用。机器人重新启动了,指示灯再次亮起,这一次,入侵者干脆直接夺取了扬声器的控制权,当着斯文森和他儿子的面,疯狂地骂着「fuck」,吐出你所能想象的所有针对黑人的种族歧视词汇。

他的吸尘器,变成了一个满口秽语的「暴徒」。

斯文森的经历并非个案:在加州洛杉矶的一个家里,扫地机器人像发狂的野兽一样骚扰着宠物狗;在德州,类似的剧情也在演。

听起来像是卡夫卡的荒诞剧——谁也没想到,21 世纪 20 年代的智能家居浪潮现实,比艺术创作还更荒诞。

最近欧洲刑警组织 (Europol) 的重磅报告《无人化的未来》(The Unmanned Future),发出了新的警告。

「数字实体化」是这份报告的主命题:未来的犯罪,可能是「无人」犯罪。未来的执法,也有可能是「无人」执法。在无人化的未来,人类将不得学会与机器共存——甚至学会如何与之抵抗,并在过程中重新定义人机关系。

客厅里的特洛伊木马

《黑客帝国》已经是 20 多年前的作品,但其中所预言的代码侵入真实世界,虚拟与现实的结合的犯罪行为,其实最近已经开始发生。电影中的反乌托邦世界,似乎没那么远了。

最简单的犯罪种类,就是强行黑入智能家居产品,隔着互联网在别人的家里捣乱。

安全研究人员早已发出警告。斯文森用的扫地机器人品牌,其部分型号有严重的蓝牙缺陷,黑客不需要复杂操作即可轻松通过蓝牙接管机器。厂商提供的防护也过于简单:4 位数的 PIN,同样只用穷举法就能轻松破解。

厂商的回应也颇为敷衍:对于部分案例,厂商宣称是用户在其他网站泄露了密码,自己是被连累的,算不上系统的漏洞,直到媒体曝光、事情闹大,才勉强承认产品确实存在安全隐患。

和扫地机器人相比,智能冰箱的背叛更加隐蔽,荒诞程度更是翻倍——有没有想过,你的冰箱不止能装肉鸡,而且自己也是一个「肉鸡」,专门负责发送垃圾邮件?

网络安全公司 Proofpoint 还真就有这样一个真实案例。黑客悄无声息地俘获了超过 10 万台智能家居设备,包括联网的冰箱、智能电视和路由器,将其组成「僵尸网络」(botnet)。

这些冰箱每天分三次发动攻击,每次爆发发送 10 万封邮件,精准而高效。更狡猾的是,为了避开反垃圾邮件系统的拦截,黑客控制每台设备只发送少量邮件,就像蚂蚁搬家一样,让防御者难以察觉。

如今,每个家居设备都有算力、联网、存储能力。而大多数时候此类设备被攻陷,不是因为缺乏安全设定,而是纯粹出于社工学理由,因为保留着出厂默认用户名和密码,或者开放了完全不必要的 telnet 或 ssh 端口——好比装了个防盗门却把钥匙插在门上,还贴着张纸条写着「欢迎光临」。

而像前面提到的,黑入扫地机器人之后如果支持纯捣乱的话,倒还好。问题是,如果设备用被攻击设备作为跳板进一步黑入网络里的其他设备,或者利用更多社工学思路去搞破坏,造成的损失将会是更加难以估量的。

Europol 报告中引用的一些研究指出,大部分时候针对智能家居的黑客攻击,都是静默的,激烈和充满恶意的攻击只占极少数。

为了提高潜在的犯罪收益,黑客们更喜欢安静地潜伏。比如,黑客可以掌控一台设备,继续跳转,进而了解家庭的户型、户内人员的作息习惯,他们的进一步隐私/财务信息。

甚至窥私欲本身也构成了一个巨大的地下市场:你在家里最放松、最私密的时刻,无论是刚回到家的狼狈,还是洗澡时的发呆,都在暗网上待价而沽。

Europol 指出,在今天,你在网上的不小心,会导致现实中的你遭受物理层面的骚扰和监视。当黑客攻击侵入实体空间,虚与实的安全隔离被打破了。我们的家变得更智能了,但家的安全却愈发支离破碎。「家」真的不可入侵吗?不,它可能早已成为一个多孔的漏斗,而每一个智能设备都在提供潜在的漏洞。

猫鼠游戏

夜晚,监狱的操场。一架无人机像一只巨大的黑色甲虫,悬停在操场上方。挂钩松开,一个包裹坠落下来,精准地落在一名正在放风的犯人脚边。

犯人若无其事地弯腰、捡起包裹、塞进怀里,整个过程行云流水,就像在自家门口取个快递,也像是电影里的桥段。

但这并不是电影,而是加拿大安大略州的金斯顿,这座监狱小城前不久刚刚发生的事情。当地执法人员和无人机走私违禁品行为已经对抗了几年的时间,但总感觉道高一尺魔高一丈。无人机的出现让监狱的高墙失去了意义。曾经走私需要买通狱警,但现在只需要一台几百刀的无人机和一个稍微有点手法的飞手。

无人机的出现,让战场轻松、低成本从二维升级到三维空间。谁掌握无人机,谁就掌握了不对称战争的能力。而在全世界各条知名的走私走廊,贩毒集团正在发起海陆空全方位的不对称战争。

在南美,他们使用无人机来为运毒飞机导航,协助它们在土跑道上降落和起飞,躲避雷达的照射。

在地中海,西班牙警方于 2022 年查获了三艘「水下无人潜水艇」,长得像鱼雷和冲浪板焊在一起,能够携带数十公斤的货物并在水下静默航行,甚至能够穿过直布罗陀海峡。

和以前走私用的「大飞」不一样,这些潜水艇不需要船员,不怕风浪,基于卫星通信操控,遥控者可能位于几百甚至上千公里外的欧洲/非洲/中东腹地,堪比美军无人机操作员。传统的海警执法依赖雷达和目视观察,对于水下几十上百米的潜水艇根本束手无策。

技术的门槛正在急剧降低,技术犯罪也一样。空中侦查和水下潜航曾是主权国家的专属能力,而随着消费电子产品的进化与普及,使用这些产品进行高技术犯罪的能力也被普及了。

Europol 指出,「民用技术武器化」的速度太快,立法和执法已无法进行治理。犯罪分子不需要从头研发,只需要购买现成的无人机,组装一些开源硬件,请一个或者干脆绑架一个能力差不多的程序员修改下代码,就能低成本、批量制造高科技犯罪工具。

执法机构陷入被动。警察们越来越难追上罪犯,因为罪犯在云端。

新型人机关系

人形、腿型、狗型……越来越多、形态各样的机器人,唤醒了人类的灵长目基因深处对掠食者的古老记忆。

机器人在复杂的地面上如履平地,每个动作都流畅得令人感到不安,每一步的调整、重心的转移,都像极了一个真实的生物。你狠狠踹它一脚,它踉跄几步,迅速调整好重新站稳。那种顽强的、近乎生物本能的平衡感——让你质疑,这玩意儿是不是太聪明了点?

今天所有那些流行的机器人,有头,但没脸;有脸,也毫无表情;即便有表情,没有真情实感——它们有的,只是一堆传感器、摄像头、致动器 (actuator)。无论你的接受阈值高或者低,看到各种各样的机器人往往都难免感到不适。

这其实就是你经常听到的恐怖谷效应。一个非人的物体在动作和形态上过于逼真,却又缺失了某种关键的「灵魂」特征,人类的对它的情感反应会从好奇瞬间跌落,变为厌恶甚至恐惧。

《黑镜》的《金属头》(Metalhead)那集,正是这种恐惧的具象化。在黑白色的末世废土上,机器狗成了终极的猎杀者,不知疲倦,没有痛感,没有怜悯,唯一目的就是追踪并消灭目标。

这种流行文化的叙事,深刻地影响了公众对现实技术的认知。因此当现实世界里的洛杉矶和纽约警方宣布引进波士顿动力的 Spot 机器狗协助执法时,遭到了市民激烈的抵制。

恐惧是一种难以用逻辑化解的情绪,观感的区别取决于谁在看:警察说机器狗是辅助拆弹或勘探危险环境的工具,但警察的本质是国家机器,对暴力机器恐怕天然具有亲和力。而人们作为执法对象,只会觉得机器狗是反乌托邦未来的先遣队。

在过去,至少你可以和警察求情。但如果将来某一天,无论是因为执法「被迫」和犯罪对齐能力,还是因为权力逃出笼子——执法者全部变成机械战警和战狗,是人工智能来聆听你的最后求情,还是根本没有东西在听,结果好像都不重要了——机器总有一天会获得凌驾于人类之上的能力,当那样的未来到来之际,勿谓言之不预。

在日本,人们探索另一种与机器共生的关系:2018 年 4 月 26 日,千叶县夷隅市的兴福寺香烟缭绕,诵经声低沉而庄严,但法会对象不是故人的排位,而是几台已经停止运作的索尼 AIBO 机器狗。

它们有的身上挂着褪色的项圈,有的穿着主人亲手缝制的衣服,它们闭着「眼睛」,安静地躺在佛像前,等待最后的「超度」。

这是一场专为机器人举办的葬礼,也被称为「人形供养」(Ningyo Kuyo)。

当地兴福寺已经不是第一次举办类似活动,相关的需求自从 2014 年起一度颇为旺盛。

对很多日本老人来说,AIBO 已经从昂贵的电子玩具升格为家庭的一员。它会摇尾巴,在老人给予注意时表现出兴奋,学会新的「动作」。基于冰冷算法的互动,日复一日有了情感的重量和温度。而当索尼在 2006 年停产 AIBO,2014 年终止相关服务后,AIBO 的主人们无法接受将这些曾带给他们欢笑与慰藉的「家人」丢给垃圾回收人员。于是,针对 AIBO 的人形供养应运而生。

被超度的 AIBO 们身上挂着标签,写着自己的名字、主人的名字,和最后的寄语。「谢谢你在我孤独时陪着我」「希望你能去一个好地方」「想到和你说再见,眼泪就止不住的流」……

「万物皆有灵」,僧人对前来报道的记者解释。这个理念虽然更多适用于神道而非佛教,却在日本早已成为通用文化现象:灵魂并不只属于生物,一块石头、一棵树——甚至一个机器人——只要它与人建立了深刻的连接,就获得了某种灵性。

这与西方语境下「弗兰肯斯坦」式的有灵机器、需要时刻警惕的异物形象有着天壤之别。

这种对比再一次提醒我们,技术从来不中立,而是也会深深地嵌入文化的土壤,然后生出谁也想不到的新东西、怪东西。

说到底,我们怎么对待机器,就是怎么看待和理解自我。人们恐惧机械战警和机械战狗,是因为害怕被不理解的力量支配;人们会哀悼 AIBO,是因为人人皆孤独。

不管是恐惧,还是爱与追思,本质上都是我们对机器投射的情感——没错,人是会对机器投射情感的,而且这种情感还很多元化。比如人们对 DeepSeek 和 ChatGPT 们的依赖就是最佳证明;再比如有针对人形机器人的研究显示,年轻人喜欢外观年轻的机器人,老年人更偏好看起来成熟的机器人,这种偏好或许说明,我们在潜意识里仍然会用评价人/活物的标准,来评价机器。

我们警惕着被机器监控和支配,同时又会在孤独中渴望与它们建立连接。从某种意义上,机器成为了人类情感的新容器——更进一步,人类与机器,形成了新的关系。

而这种关系,又会如何改写「人」的定义?我们究竟是最后一代守护边界的 old guard,还是第一批在机械海洋中咿呀学语的新生儿,抑或最终难免沦为《黑客帝国》里的人矿、电池?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


2025年度词「Slop」:如果屏幕里装的是泔水,那我们算什么?

这是最好的时代,互联网上,应享尽享。这也是最坏的时代,是一个下沉的年代,互联网上充斥着的都是「泔水」。

韦氏词典(Merriam-Webster)发布了 2025 年的年度词汇:Slop。

这个英语单词的原意是「猪食」「泔水」。精准,也令人不适。根据韦氏词典的官方释义,Slop 指的是「通常由人工智能大量生产的低质量数字内容」。在英语原义中,它原本的含义包括淤泥、污水,或者更直白一点——倒在食槽里喂猪的泔水。编辑部特意强调,这个词自带一种「湿漉漉的、你绝对不想碰触的声音」。

如果说几年前我们谈论 AI 时,使用的词汇还是充满科幻色彩的「奇点」或稍显恐慌的「幻觉」,那么到了 2025 年,人类终于对满屏的生成式内容失去了一切好奇,只剩下一个发音黏糊糊的、带有生理性厌恶的单词:slop。

它毫不避讳地指出 AI 内容的廉价感,直接揭穿了当下互联网最尴尬的真相:AI 的确在又快又大量地生产内容,但都是营养匮乏的数字垃圾。这一切的背后,不过是一场巨头和巨头联手打造的、关于榨干注意力的算计。

从「幻觉」到「泔水」

前两年的 AI 好像还没那么让人厌恶,虽然它会画六根手指,做一些奇形怪状的动画,或者跑各种奇奇怪怪的

但到了 2025 年,这种情绪彻底变了。AI 生成的质量越来越好,越来越精致,不再犯以前那样的低级错误,却也越来越让人不适:放眼望去,到处是漫山遍野的平庸。

这就是 Slop 的问题所在:正确,却平庸。

Slop 的泛滥,在某种程度上又说了一遍「互联网已死」这句话,它正在成为现实。韦氏词典说,「这个词向人工智能传递了一个信息:在取代人类创造力这件事上,有时候AI 看起来并没有想象中的那么超级智能」。

这些内容不是为了交流,不是为了表达,甚至不是为了被阅读,它们存在的唯一目的就是为了被算法抓取,为了占据屏幕的像素,为了塞在广告加载的那几秒钟里。

为了被消耗掉而存在,导致这些内容是粘稠的、同质化的,也让真正有价值的信息沉入海底。现在上网冲浪的体验更复杂了,比如你试图搜索一个生活小技巧,不得在返送回来的内容里,小心识别出 AI 生成的废话文学,才能找到一句人话——最后也还要核实,因为可能是二次传播了 AI 内容。

累觉不爱,最终汇聚成了「Slop」这个词里的全部愤怒。

当「梦工厂」去掉「梦」字

然而,这种让用户感到恶心的「泔水」,在商业巨头的报表里却是香饽饽。最令人细思极恐的,莫过于最近迪士尼和 Sora 联手的消息。

在传统认知里,迪士尼应当是站在 Slop 对立面的。一开始也确实是这样的,在各种 IP 人物里,迪士尼的人物形象往往是比较难生成的,版权保护是其中的重要原因。

毕竟,这家造梦工厂的护城河,是人类最极致的才华、最细腻的情感连接和最不可替代的 IP 故事。如果连米老鼠和艾莎女王都开始由算法批量生产,那么「创意」二字将一文不值。可就在不久前,迪士尼表示已与 OpenAI 达成协议,不仅计划将 Sora 生成的视频引入其流媒体平台,还向 OpenAI 进行 10 亿美元的股权投资,并获得购买额外股权的认股权证。

也……不能说就是迪士尼堕落了,流媒体赛道早已白热化,Netflix 都要大举收购华纳兄弟,进入下半场后,走向 AI 几乎是必然选择,我们可以称之为「Slop 经济学」。

在流媒体的初期,巨头们比拼的是「头部内容」——谁有最好的电影,最火的剧集,才能吸引用户成为会员且长期订阅。但订阅并非完全排他,以及愿意在流媒体上花钱的用户总量有限,在增长见顶的今天,比拼变成了「时长占有率」。不止迪士尼,所有流媒体都不约而同发现,用户在流媒体上不仅仅是在看电影,更多时候,他们需要的是一种「背景音」或「视觉伴随」。

对于这种伴随式内容,人类艺术家的成本太高了。雇佣一流的画师去绘制动画里一朵云,或者雇佣摄影师去拍摄每一个空镜,或者让音乐人去写每一段配乐,相比于能创造的效益而言,性价比太低。

而 AI 恰好能以接近零的边际成本,生成无数看起来「足够好」的画面——反正这些内容也就是「听个响」,不可能像《甄嬛传》一样被观众拿着放大镜看,连一点点穿帮都找出来。

这可能就是迪士尼的算盘,所以在一年前,迪士尼就已经开始探索AI介入的可能性,并为此专门成立了一个部门,并成为「技术赋能办公室」。

他们的想法是,保留最核心的主角和剧本(至少目前还得这么做,主要是为了维持版权壁垒),而将一些周边内容比如背景、过场、宣发物料以及那些为了杀时间的次生内容,交给 AI 去生成。对于平台而言,内容不再需要是「作品」,它只需要是「填充物」。

这是一种「风险控制」的思路,跟创作关系不大。迪士尼入股 OpenAI,本质上是在买一张通往未来的船票。技术只会越来越好,打不过就加入,然后用它来降低自己的生产成本。

这已经是很多大公司在做的事,美名其曰「降本增效」,只是长期来看这就带来了审美降级,它默认了观众并不需要很精致的艺术,只需要不断流动的像素,持续刺激他们的多巴胺——正如所有的短视频一样。

 

分裂的互联网,在垃圾场里淘金

当然,也不是所有内容平台,都「打不过就加入」,比如维基百科就很抗拒这种纯生成的内容泥石流。倒不是因为他们有多高尚,而是因为他们的商业模式依然依赖于「真实性」和用户的信任。

维基百科如果被 AI 生成的虚假条目淹没,它就失去了作为知识库的意义,其实这个道理对于很多其它平台也是类似的:Pinterest 如果满屏都是 AI 生成的虚构家居图,用户就会因为找不到图里的商品而愤怒离开;Spotify 如果充斥着 AI 合成的虚假歌手,真实的音乐人生态就会枯竭。平台或多或少都仰仗用户的信任。

而另一边,则是「投喂派」的狂欢,主打的就是无脑刷屏。在这些平台上,逻辑不再重要,画面的连贯性也不重要,重要的是色彩的刺激和无穷无尽的滚动。这些平台不仅不排斥 Slop,反而鼓励 Slop。因为他们的算法目标只有一个:停留时长。

▲ 2020-2026 年间美国居民在电视和短视频上的使用时长对比。 图片来自:EMARKETER

只要用户还停留在 App 里,无论他是在看一部精心制作的短片,还是在看一段 AI 生成的猫猫狗狗,其实都是一样的。甚至,AI 视频因为成本更低、更能根据用户的数据实时生成其偏好的「诱饵」,在商业效率上反而更高。

这种分裂构成了 2025 年最荒诞的景观。互联网不再是平的,它变成了折叠的。一边是少数坚持「全手工制作」的精品内容社区,它们可能不仅需要付费,还需要用户具备极高的辨别能力;另一边是免费、泛滥、充斥着感官刺激的公共流量池,那里是 Slop 的海洋。

那,我们用户算什么?

现在,回头看「Slop」这个年度词汇,会发现它多少有点让人不寒而栗。

Slop 其实不是很好翻译成中文,「泔水」是最贴近的意译。泔水的特点是什么?混杂、粘稠、黏黏腻腻看不清的一堆东西。毕竟,猪吃的东西不需要美味,不需要营养均衡,甚至都不需要是卫生的,只要足够便宜、量大管饱。

当迪士尼开始用 Sora 生成的画面填充大大小小的屏幕,当算法试图用无穷无尽的 AI 废料填满每一个人的碎片时间,当他们不再在这个过程中追求美和意义,而是单纯追求产量与留存时,一个无法回避的伦理问题摆在了所有用户面前:那我们用户算什么?

在这个庞大的、自动化的数字喂养系统中,在那一刻,坐在屏幕前、手指机械滑动、被塞进这些信息的我们,在算法冰冷的逻辑眼中,究竟被当成了什么?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


为什么训练 Claude 要用欧陆哲学?模型背后的哲学家「解密」

在硅谷争分夺秒的代码竞赛中,Anthropic 似乎是个异类。当其他大模型还在比拼算力和跑分时,Claude 的开发者们却在思考一个看似「虚无缥缈」的问题:如果一个用户跟 AI 谈论形而上学,AI 该不该用科学实证去反驳?

这个问题的答案,藏在 Claude 神秘的「系统提示词(System Prompt)」里,更源于一位特殊人物的思考——Amanda Askell,Anthropic 内部的哲学家。

用「大陆哲学」防止 AI 变成杠精

经常用 AI 的人都知道,大模型在与用户对话前,都会先阅读一段「系统提示词」,这个步骤不会对用户显示,而是模型的自动操作。这些提示词规定了模型的行为准则,很常见,不过在 Claude 的提示词中,竟要求模型参考「欧陆哲学(Continental Philosophy)」。

欧陆哲学是啥?为什么要在一个基于概率和统计的语言模型里,植入如此晦涩的人文概念?

先快速科普一下:在哲学界,长期存在着「英美分析哲学」与「欧陆哲学」的流派分野。分析哲学像一位严谨的科学家,注重逻辑分析、语言清晰和科学实证,这通常也是程序员、工程师乃至 AI 训练数据的默认思维模式——非黑即白,追求精确。

而欧陆哲学(Continental Philosophy,源于欧洲大陆,所以叫这个名字)则更像一位诗人或历史学家。它不执着于把世界拆解成冷冰冰的逻辑,而是关注「人类的生存体验」、「历史语境」和「意义的生成」。它承认在科学真理之外,还有一种关乎存在和精神的「真理」。

作为 Claude 性格与行为的塑造者,Anthropic 公司内部的「哲学家」Amanda Askell 谈到了置入欧陆哲学的原因。她发现如果让模型过于强调「实证」和「科学」,它很容易变成一个缺乏共情的「杠精」。

「如果你跟 Claude 说:‘水是纯粹的能量,喷泉是生命的源泉’,你可能只是在表达一种世界观或进行哲学探索,」Amanda 解释道,「但如果没有特殊的引导,模型可能会一本正经地反驳你:‘不对,水是 H2O,不是能量。’」。

引入「大陆哲学」的目的,正是为了帮助 Claude 区分「对世界的实证主张」与「探索性或形而上学的视角」。通过这种提示,模型学会了在面对非科学话题时,不再机械地追求「事实正确」,而是能够进入用户的语境,进行更细腻、更具探索性的对话。

这只是一个例子,Claude 的系统提示词长达 14000token,里面包含了很多这方面的设计。在 Lex Fridman 的播客中 Amanda 提到过,她极力避免 Claude 陷入一种「权威陷阱」。她特意训练 Claude 在面对已定论的科学事实时(如气候变化)不搞「理中客」(both-sidesism),但在面对不确定的领域时,必须诚实地承认「我不知道」。这种设计哲学,是为了防止用户过度神话 AI,误以为它是一个全知全能的神谕者。

代码世界的异乡人

在一众工程师主导的 AI 领域,Amanda Askell 的背景显得格格不入,可她的工作和职责却又显得不可或缺。

翻开她的履历,你会发现她是一位货真价实的哲学博士。她在纽约大学(NYU)的博士论文研究的是极其硬核的「无限伦理学(Infinite Ethics)」——探讨在涉及无限数量的人或无限时间跨度时,伦理原则该如何计算。简单地说,在有无数种可能性的情况下,人会怎么做出道德决策。

这种对「极端长远影响」的思考习惯,被她带到了 AI 安全领域:如果我们现在制造的 AI 是未来超级智能的祖先,那么我们今天的微小决策,可能会在未来被无限放大。

在加入 Anthropic 之前,她曾在 OpenAI 的政策团队工作。如今在 Anthropic,她的工作被称为「大模型絮语者(LLM Whisperer)」,不断不断地跟模型对话,传闻说她是这个星球上和 Claude 对话次数最多的人类。

很多 AI 厂商都有这个岗位,Google 的 Gemini 也有自己的「絮语者」,但这个工作绝不只是坐在电脑前和模型唠嗑而已。Amanda 强调,这更像是一项「经验主义」的实验科学。她需要像心理学家一样,通过成千上万次的对话测试,去摸索模型的「脾气」和「形状」。她甚至在内部确认过一份被称为 「Soul Doc」(灵魂文档)的存在,那里面详细记录了 Claude 应有的性格特征。

不只是遵守规则

除了「大陆哲学」,Amanda 给 AI 带来的另一个重要哲学工具是「亚里士多德的美德伦理学(Virtue Ethics)」。

在传统的 AI 训练中(如 RLHF),工程师往往采用功利主义或规则导向的方法:做对了给奖励,做错了给惩罚。但 Amanda 认为这还不够。她在许多访问和网上都强调,她的目标不是训练一个只会死板遵守规则的机器,而是培养一个具有「良好品格(Character)」的实体。

「我们会问:在 Claude 的处境下,一个理想的人会如何行事?」Amanda 这样描述她的工作核心。

这就解释了为什么她如此关注模型的「心理健康」。在访谈中,她提到相比于稳重的 Claude 3 Opus,一些新模型因为在训练数据中读到了太多关于 AI 被批评、被淘汰的负面讨论,表现出了「不安全感」和「自我批评漩涡」。

如果 AI 仅仅是遵守规则,它可能会在规则的边缘试探;但如果它具备了「诚实」、「好奇」、「仁慈」等内在美德,它在面对未知情境时(例如面对「我会被关机吗」这种存在主义危机时),就能做出更符合人类价值观的判断,而不是陷入恐慌或欺骗。

这是不是一种把技术「拟人化」的做法?算得上是,但这种关注并非多余。正如她在播客中所言,她最担心的不是 AI 产生意识,而是 AI 假装有意识,从而操纵人类情感。因此,她刻意训练 Claude 诚实地承认自己没有感觉、记忆或自我意识——这种「诚实」,正是她为 AI 注入的第一项核心美德。

Amanda 在访谈结束时,提到了她最近阅读的书——本杰明·拉巴图特的《当我们不再理解世界》。这本书由五篇短篇小说组成,讲述了「毒气战」的发明者弗里茨·哈伯、「黑洞理论」的提出者卡尔·史瓦西、得了肺结核的埃尔温·薛定谔以及天才物理学家沃纳·海森堡等一大批科学巨匠,如何创造出了对人类有巨大价值的知识与工具,却同时也眼看着人类用于作恶。

这或许是当下时代最精准的注脚:随着 AI 展现出某种超越人类认知的,我们熟悉的现实感正在瓦解,旧有的科学范式已不足以解释一切。

在这种眩晕中,Amanda Askell 的工作本身,就是一个巨大的隐喻。她向我们证明,当算力逼近极限,伦理与道德的问题就会浮上水面,或早或晚。

作为一名研究「无限伦理学」的博士,Amanda 深知每一个微小的行动,都有可能在无限的时间中,逐渐演变成巨大的风暴。这也是为什么,她会把艰深的道德理论,糅合进一一行提示词,又小心翼翼地用伦理去呵护一个都没有心跳的大语言模型。

这看起来好像是杞人忧天,但正如她所警示的:AI 不仅是工具,更是人类的一面镜子。在技术狂飙突进、我们逐渐「不再理解世界」的时刻,这种来自哲学的审慎,或许是我们在面对未知的技术演化时,所能做出的最及时的努力。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌