Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

2025年度词「Slop」:如果屏幕里装的是泔水,那我们算什么?

By: Selina
18 December 2025 at 08:52

这是最好的时代,互联网上,应享尽享。这也是最坏的时代,是一个下沉的年代,互联网上充斥着的都是「泔水」。

韦氏词典(Merriam-Webster)发布了 2025 年的年度词汇:Slop。

这个英语单词的原意是「猪食」「泔水」。精准,也令人不适。根据韦氏词典的官方释义,Slop 指的是「通常由人工智能大量生产的低质量数字内容」。在英语原义中,它原本的含义包括淤泥、污水,或者更直白一点——倒在食槽里喂猪的泔水。编辑部特意强调,这个词自带一种「湿漉漉的、你绝对不想碰触的声音」。

如果说几年前我们谈论 AI 时,使用的词汇还是充满科幻色彩的「奇点」或稍显恐慌的「幻觉」,那么到了 2025 年,人类终于对满屏的生成式内容失去了一切好奇,只剩下一个发音黏糊糊的、带有生理性厌恶的单词:slop。

它毫不避讳地指出 AI 内容的廉价感,直接揭穿了当下互联网最尴尬的真相:AI 的确在又快又大量地生产内容,但都是营养匮乏的数字垃圾。这一切的背后,不过是一场巨头和巨头联手打造的、关于榨干注意力的算计。

从「幻觉」到「泔水」

前两年的 AI 好像还没那么让人厌恶,虽然它会画六根手指,做一些奇形怪状的动画,或者跑各种奇奇怪怪的

但到了 2025 年,这种情绪彻底变了。AI 生成的质量越来越好,越来越精致,不再犯以前那样的低级错误,却也越来越让人不适:放眼望去,到处是漫山遍野的平庸。

这就是 Slop 的问题所在:正确,却平庸。

Slop 的泛滥,在某种程度上又说了一遍「互联网已死」这句话,它正在成为现实。韦氏词典说,「这个词向人工智能传递了一个信息:在取代人类创造力这件事上,有时候AI 看起来并没有想象中的那么超级智能」。

这些内容不是为了交流,不是为了表达,甚至不是为了被阅读,它们存在的唯一目的就是为了被算法抓取,为了占据屏幕的像素,为了塞在广告加载的那几秒钟里。

为了被消耗掉而存在,导致这些内容是粘稠的、同质化的,也让真正有价值的信息沉入海底。现在上网冲浪的体验更复杂了,比如你试图搜索一个生活小技巧,不得在返送回来的内容里,小心识别出 AI 生成的废话文学,才能找到一句人话——最后也还要核实,因为可能是二次传播了 AI 内容。

累觉不爱,最终汇聚成了「Slop」这个词里的全部愤怒。

当「梦工厂」去掉「梦」字

然而,这种让用户感到恶心的「泔水」,在商业巨头的报表里却是香饽饽。最令人细思极恐的,莫过于最近迪士尼和 Sora 联手的消息。

在传统认知里,迪士尼应当是站在 Slop 对立面的。一开始也确实是这样的,在各种 IP 人物里,迪士尼的人物形象往往是比较难生成的,版权保护是其中的重要原因。

毕竟,这家造梦工厂的护城河,是人类最极致的才华、最细腻的情感连接和最不可替代的 IP 故事。如果连米老鼠和艾莎女王都开始由算法批量生产,那么「创意」二字将一文不值。可就在不久前,迪士尼表示已与 OpenAI 达成协议,不仅计划将 Sora 生成的视频引入其流媒体平台,还向 OpenAI 进行 10 亿美元的股权投资,并获得购买额外股权的认股权证。

也……不能说就是迪士尼堕落了,流媒体赛道早已白热化,Netflix 都要大举收购华纳兄弟,进入下半场后,走向 AI 几乎是必然选择,我们可以称之为「Slop 经济学」。

在流媒体的初期,巨头们比拼的是「头部内容」——谁有最好的电影,最火的剧集,才能吸引用户成为会员且长期订阅。但订阅并非完全排他,以及愿意在流媒体上花钱的用户总量有限,在增长见顶的今天,比拼变成了「时长占有率」。不止迪士尼,所有流媒体都不约而同发现,用户在流媒体上不仅仅是在看电影,更多时候,他们需要的是一种「背景音」或「视觉伴随」。

对于这种伴随式内容,人类艺术家的成本太高了。雇佣一流的画师去绘制动画里一朵云,或者雇佣摄影师去拍摄每一个空镜,或者让音乐人去写每一段配乐,相比于能创造的效益而言,性价比太低。

而 AI 恰好能以接近零的边际成本,生成无数看起来「足够好」的画面——反正这些内容也就是「听个响」,不可能像《甄嬛传》一样被观众拿着放大镜看,连一点点穿帮都找出来。

这可能就是迪士尼的算盘,所以在一年前,迪士尼就已经开始探索AI介入的可能性,并为此专门成立了一个部门,并成为「技术赋能办公室」。

他们的想法是,保留最核心的主角和剧本(至少目前还得这么做,主要是为了维持版权壁垒),而将一些周边内容比如背景、过场、宣发物料以及那些为了杀时间的次生内容,交给 AI 去生成。对于平台而言,内容不再需要是「作品」,它只需要是「填充物」。

这是一种「风险控制」的思路,跟创作关系不大。迪士尼入股 OpenAI,本质上是在买一张通往未来的船票。技术只会越来越好,打不过就加入,然后用它来降低自己的生产成本。

这已经是很多大公司在做的事,美名其曰「降本增效」,只是长期来看这就带来了审美降级,它默认了观众并不需要很精致的艺术,只需要不断流动的像素,持续刺激他们的多巴胺——正如所有的短视频一样。

 

分裂的互联网,在垃圾场里淘金

当然,也不是所有内容平台,都「打不过就加入」,比如维基百科就很抗拒这种纯生成的内容泥石流。倒不是因为他们有多高尚,而是因为他们的商业模式依然依赖于「真实性」和用户的信任。

维基百科如果被 AI 生成的虚假条目淹没,它就失去了作为知识库的意义,其实这个道理对于很多其它平台也是类似的:Pinterest 如果满屏都是 AI 生成的虚构家居图,用户就会因为找不到图里的商品而愤怒离开;Spotify 如果充斥着 AI 合成的虚假歌手,真实的音乐人生态就会枯竭。平台或多或少都仰仗用户的信任。

而另一边,则是「投喂派」的狂欢,主打的就是无脑刷屏。在这些平台上,逻辑不再重要,画面的连贯性也不重要,重要的是色彩的刺激和无穷无尽的滚动。这些平台不仅不排斥 Slop,反而鼓励 Slop。因为他们的算法目标只有一个:停留时长。

▲ 2020-2026 年间美国居民在电视和短视频上的使用时长对比。 图片来自:EMARKETER

只要用户还停留在 App 里,无论他是在看一部精心制作的短片,还是在看一段 AI 生成的猫猫狗狗,其实都是一样的。甚至,AI 视频因为成本更低、更能根据用户的数据实时生成其偏好的「诱饵」,在商业效率上反而更高。

这种分裂构成了 2025 年最荒诞的景观。互联网不再是平的,它变成了折叠的。一边是少数坚持「全手工制作」的精品内容社区,它们可能不仅需要付费,还需要用户具备极高的辨别能力;另一边是免费、泛滥、充斥着感官刺激的公共流量池,那里是 Slop 的海洋。

那,我们用户算什么?

现在,回头看「Slop」这个年度词汇,会发现它多少有点让人不寒而栗。

Slop 其实不是很好翻译成中文,「泔水」是最贴近的意译。泔水的特点是什么?混杂、粘稠、黏黏腻腻看不清的一堆东西。毕竟,猪吃的东西不需要美味,不需要营养均衡,甚至都不需要是卫生的,只要足够便宜、量大管饱。

当迪士尼开始用 Sora 生成的画面填充大大小小的屏幕,当算法试图用无穷无尽的 AI 废料填满每一个人的碎片时间,当他们不再在这个过程中追求美和意义,而是单纯追求产量与留存时,一个无法回避的伦理问题摆在了所有用户面前:那我们用户算什么?

在这个庞大的、自动化的数字喂养系统中,在那一刻,坐在屏幕前、手指机械滑动、被塞进这些信息的我们,在算法冰冷的逻辑眼中,究竟被当成了什么?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


为什么训练 Claude 要用欧陆哲学?模型背后的哲学家「解密」

By: Selina
13 December 2025 at 20:45

在硅谷争分夺秒的代码竞赛中,Anthropic 似乎是个异类。当其他大模型还在比拼算力和跑分时,Claude 的开发者们却在思考一个看似「虚无缥缈」的问题:如果一个用户跟 AI 谈论形而上学,AI 该不该用科学实证去反驳?

这个问题的答案,藏在 Claude 神秘的「系统提示词(System Prompt)」里,更源于一位特殊人物的思考——Amanda Askell,Anthropic 内部的哲学家。

用「大陆哲学」防止 AI 变成杠精

经常用 AI 的人都知道,大模型在与用户对话前,都会先阅读一段「系统提示词」,这个步骤不会对用户显示,而是模型的自动操作。这些提示词规定了模型的行为准则,很常见,不过在 Claude 的提示词中,竟要求模型参考「欧陆哲学(Continental Philosophy)」。

欧陆哲学是啥?为什么要在一个基于概率和统计的语言模型里,植入如此晦涩的人文概念?

先快速科普一下:在哲学界,长期存在着「英美分析哲学」与「欧陆哲学」的流派分野。分析哲学像一位严谨的科学家,注重逻辑分析、语言清晰和科学实证,这通常也是程序员、工程师乃至 AI 训练数据的默认思维模式——非黑即白,追求精确。

而欧陆哲学(Continental Philosophy,源于欧洲大陆,所以叫这个名字)则更像一位诗人或历史学家。它不执着于把世界拆解成冷冰冰的逻辑,而是关注「人类的生存体验」、「历史语境」和「意义的生成」。它承认在科学真理之外,还有一种关乎存在和精神的「真理」。

作为 Claude 性格与行为的塑造者,Anthropic 公司内部的「哲学家」Amanda Askell 谈到了置入欧陆哲学的原因。她发现如果让模型过于强调「实证」和「科学」,它很容易变成一个缺乏共情的「杠精」。

「如果你跟 Claude 说:‘水是纯粹的能量,喷泉是生命的源泉’,你可能只是在表达一种世界观或进行哲学探索,」Amanda 解释道,「但如果没有特殊的引导,模型可能会一本正经地反驳你:‘不对,水是 H2O,不是能量。’」。

引入「大陆哲学」的目的,正是为了帮助 Claude 区分「对世界的实证主张」与「探索性或形而上学的视角」。通过这种提示,模型学会了在面对非科学话题时,不再机械地追求「事实正确」,而是能够进入用户的语境,进行更细腻、更具探索性的对话。

这只是一个例子,Claude 的系统提示词长达 14000token,里面包含了很多这方面的设计。在 Lex Fridman 的播客中 Amanda 提到过,她极力避免 Claude 陷入一种「权威陷阱」。她特意训练 Claude 在面对已定论的科学事实时(如气候变化)不搞「理中客」(both-sidesism),但在面对不确定的领域时,必须诚实地承认「我不知道」。这种设计哲学,是为了防止用户过度神话 AI,误以为它是一个全知全能的神谕者。

代码世界的异乡人

在一众工程师主导的 AI 领域,Amanda Askell 的背景显得格格不入,可她的工作和职责却又显得不可或缺。

翻开她的履历,你会发现她是一位货真价实的哲学博士。她在纽约大学(NYU)的博士论文研究的是极其硬核的「无限伦理学(Infinite Ethics)」——探讨在涉及无限数量的人或无限时间跨度时,伦理原则该如何计算。简单地说,在有无数种可能性的情况下,人会怎么做出道德决策。

这种对「极端长远影响」的思考习惯,被她带到了 AI 安全领域:如果我们现在制造的 AI 是未来超级智能的祖先,那么我们今天的微小决策,可能会在未来被无限放大。

在加入 Anthropic 之前,她曾在 OpenAI 的政策团队工作。如今在 Anthropic,她的工作被称为「大模型絮语者(LLM Whisperer)」,不断不断地跟模型对话,传闻说她是这个星球上和 Claude 对话次数最多的人类。

很多 AI 厂商都有这个岗位,Google 的 Gemini 也有自己的「絮语者」,但这个工作绝不只是坐在电脑前和模型唠嗑而已。Amanda 强调,这更像是一项「经验主义」的实验科学。她需要像心理学家一样,通过成千上万次的对话测试,去摸索模型的「脾气」和「形状」。她甚至在内部确认过一份被称为 「Soul Doc」(灵魂文档)的存在,那里面详细记录了 Claude 应有的性格特征。

不只是遵守规则

除了「大陆哲学」,Amanda 给 AI 带来的另一个重要哲学工具是「亚里士多德的美德伦理学(Virtue Ethics)」。

在传统的 AI 训练中(如 RLHF),工程师往往采用功利主义或规则导向的方法:做对了给奖励,做错了给惩罚。但 Amanda 认为这还不够。她在许多访问和网上都强调,她的目标不是训练一个只会死板遵守规则的机器,而是培养一个具有「良好品格(Character)」的实体。

「我们会问:在 Claude 的处境下,一个理想的人会如何行事?」Amanda 这样描述她的工作核心。

这就解释了为什么她如此关注模型的「心理健康」。在访谈中,她提到相比于稳重的 Claude 3 Opus,一些新模型因为在训练数据中读到了太多关于 AI 被批评、被淘汰的负面讨论,表现出了「不安全感」和「自我批评漩涡」。

如果 AI 仅仅是遵守规则,它可能会在规则的边缘试探;但如果它具备了「诚实」、「好奇」、「仁慈」等内在美德,它在面对未知情境时(例如面对「我会被关机吗」这种存在主义危机时),就能做出更符合人类价值观的判断,而不是陷入恐慌或欺骗。

这是不是一种把技术「拟人化」的做法?算得上是,但这种关注并非多余。正如她在播客中所言,她最担心的不是 AI 产生意识,而是 AI 假装有意识,从而操纵人类情感。因此,她刻意训练 Claude 诚实地承认自己没有感觉、记忆或自我意识——这种「诚实」,正是她为 AI 注入的第一项核心美德。

Amanda 在访谈结束时,提到了她最近阅读的书——本杰明·拉巴图特的《当我们不再理解世界》。这本书由五篇短篇小说组成,讲述了「毒气战」的发明者弗里茨·哈伯、「黑洞理论」的提出者卡尔·史瓦西、得了肺结核的埃尔温·薛定谔以及天才物理学家沃纳·海森堡等一大批科学巨匠,如何创造出了对人类有巨大价值的知识与工具,却同时也眼看着人类用于作恶。

这或许是当下时代最精准的注脚:随着 AI 展现出某种超越人类认知的,我们熟悉的现实感正在瓦解,旧有的科学范式已不足以解释一切。

在这种眩晕中,Amanda Askell 的工作本身,就是一个巨大的隐喻。她向我们证明,当算力逼近极限,伦理与道德的问题就会浮上水面,或早或晚。

作为一名研究「无限伦理学」的博士,Amanda 深知每一个微小的行动,都有可能在无限的时间中,逐渐演变成巨大的风暴。这也是为什么,她会把艰深的道德理论,糅合进一一行提示词,又小心翼翼地用伦理去呵护一个都没有心跳的大语言模型。

这看起来好像是杞人忧天,但正如她所警示的:AI 不仅是工具,更是人类的一面镜子。在技术狂飙突进、我们逐渐「不再理解世界」的时刻,这种来自哲学的审慎,或许是我们在面对未知的技术演化时,所能做出的最及时的努力。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


第一波 2025 年度词汇出炉,一半毫无悬念,一半完全懵圈

By: Selina
14 November 2025 at 20:22

近几年,各大词典评选的年度词汇中,AI 相关的新词异军突起。最新出炉的 2025 年柯林斯词典年度词汇,选择了「vibe coding」,这个今年几乎是最热门的 AI 技术。

如果再往回拨一点,稍早前牛津、韦氏、Dictionary.com 和剑桥等机构发布的一系列热点词,不难发现,AI 已经深刻影响了我们的语言,已然是生活中的高频词。

Vibe Coding:年度最热门技术词

「Vibe coding」在中文里并没有一个完美的翻译,比较流行的译法是「氛围编程」。这个词最早由特斯拉前 AI 总监、OpenAI 创始工程师 Andrej Karpathy 提出,形象地描述了 AI 能让人们「几乎忘记代码本身存在」也可以开发应用的情景。

不懂编程的用户,用自然语言对话,就生成计算机代码。开发者只需要告诉 AI 自己想要一个什么功能或应用,AI 就能自动生成,实现「凭感觉,写代码」的效果。

「Vibe coding」之所以能够登上 2025 年度词汇宝座,一方面从数据上能看出来——自 2025 年 2 月首次出现以来,这个词在媒体和社交平台上存在感飙升,贯穿了一整年。柯林斯词典的语言学家从包含 240 亿词汇的语料库中捕捉到了这一趋势,认为这个词充分反映了一年来语言的演变。

另一方面,这个选择揭示出 AI 技术在 2025 年的社会文化热度之强:程序员群体在讨论,普通用户也在谈论,「AI 可以帮我写代码」已成为大众认知的一部分。正如柯林斯官方博客所说,这个词「捕捉了我们与科技演变中的某些根本变化」,它不仅在硅谷科技圈内流行,更折射出 AI 作为「超强辅助」,已渗透日常生活的广泛文化转向。

今年的柯林斯 2025 年度词汇候选名单可谓科技味十足。同榜的还有「clanker」,这个词源自《星球大战》,不过,现在它多用于对 AI 聊天机器人的批评,类似于中文语境里说的「人工智障」。

「biohacking」指生物黑客式的自我改造;「broligarchy」调侃科技富豪把持权力的「兄弟寡头政治」等。这些五花八门的新词一起勾勒出 2025 年的图景:从工作到娱乐,AI 正重塑我们的语言和生活方式。

技术语言如何渗透生活

实际上,从去年起,各大权威词典发布的年度词汇中,就有多条都和 AI 热潮有千丝万缕的联系。

牛津词典:Brain rot 脑腐

英国牛津大学出版社把「brain rot」(脑腐)评为 2024 年的年度词汇,是去年讨论度最高的一个年度词汇。这个带点夸张的俚语,指的是「大脑或智力状态的退化」,主要是用来形容过度沉迷于碎片化数字内容,从而导致的迟钝、注意力退化等等。

2024 年人们越来越注意到,无节制地刷社交媒体,大量低质、无营养的信息让人「脑子生锈」。这个词生动地概括了在碎片化内容时代,身心都在接受信息过载的挑战。牛津语言部总裁卡斯帕·格拉斯沃尔评价说:「brain rot 道出了数字生活潜在的危险。」他认为,这个词标志着有关人性与科技的新一轮文化讨论。

在无人注意的角落,牛津去年的年度词汇候选列表里,还有另一个与 AI 直接相关的词,「slop」,意指「由人工智能生成的劣质网络内容」。虽然最后未当选,但它出现在提名中本身就说明,AI 生成的内容,数量已经到了惹人反感的地步。

无论是「brain rot」还是「slop」,都从不同侧面反映出 2024 年人们对数字内容生态的担忧,以及 AI 算法在其中扮演的复杂角色。

韦氏词典:Authentic 真实

韦氏词典在 2023 年选择的年度词汇,是「authentic」真实的,同时也有「本真」的意思。这个词存在已久,但在充斥 deepfake 和 AI 生成内容的一年里,它的脱颖而出,意义非凡。

2023 年与 AI 相关的新闻和讨论激增,引发了人们对「authentic」这一概念的关注和大量查询,搜索量暴增。正是因为 AI 可以轻易生成以假乱真的图像、视频和文本,人们也就越来越难分辨真伪。所以,对于「真实的、原汁原味的」的追求成为社会心理的一个重要主题。

韦氏词典主编彼得·索科洛夫斯基在解释这一选择时提到,「authentic」有「非伪造、真实可靠」之意,也包含「忠于自我」的延伸意义。它成为年度词汇,某种程度上是对科技充斥下社会心理的映射:当聊天机器人可以模拟人类口吻聊天,当 AI 可以模仿名人声音,我们比以往任何时候都更加珍视人与信息的真实性。

剑桥词典:Hallucinate 幻觉

英国剑桥词典则把目光投向了「hallucinate」幻觉。剑桥将其评为 2023 年的年度词汇之一,原因在于这个心理学动词在当年获得了全新的技术含义。

原本,hallucinate 主要用来指因为生病或服药副作用,导致出现幻觉、看见不存在的东西。不过在 2023 年,人们开始用它描述大语言模型「胡编乱造、产出虚假信息」的现象。

剑桥词典专门为此新增了 AI 相关义项,并表示这一新义「切中了 2023 年人们热议 AI 的核心原因」——生成式 AI 功能强大,但不是没有问题,「hallucinate」正好一语道破了 AI 最大的弱点之一。

值得一提的是,剑桥选择「hallucinate」紧随柯林斯词典将「AI」本身选为 2023 年度词汇之后。也就是说,从「AI」这种宏大的技术概念,到「hallucinate」这样具体描述 AI 缺陷的术语,AI 相关词汇在权威词典的年度榜单上实现了连纵霸榜,说明了眼下 AI 居高不下的热度。

从「vibe coding」到「hallucinate」,AI 相关词汇接连登上年度词汇榜,绝非巧合。

当 AI 改变世界时,也在改变着我们的语言;它们有的描述了 AI 给生活带来的便利,有的反映出人们对 AI 潜在问题的担忧,还有的表达了数字时代人们内心的矛盾与诉求。这一系列语言现象背后,恰恰是 AI 正以前所未有的深度,介入我们的工作、娱乐和社交。语言的变化又反过来成为时代的一面镜子,折射出科技与社会的碰撞。

One More Thing

柯林斯是今年较早发布年度词汇的机构,另一个是 Dictionary.com,但是他们选择了一个奇怪的词:67。读作「六、七」,而不是「六十七」。

Dictionary.com 组委会分析了大量数据,包括新闻标题、社交媒体趋势、搜索引擎结果等,发现从 2025 年夏天开始,对这个数字的搜索量有明显的增长,而且一直在增长。

这个词的意思大概就是「还行」「凑合」「及格线」,六分七分吧。确实有点抽象,不好理解。Dictionary.com 的组委会说,他们还在努力弄明白它到底是什么意思,但它的确展现了一个新词,如何随着年轻人的爱用、多用而迅速风靡全球。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


未来学大会

By: dimlau
30 August 2025 at 21:21

电影《未来学大会》里,罗宾·怀特(Robin Wright)饰演的女主角授权一个公司使用她的影像和声音来制作各种各样的广告和节目。电影里,为了让这个授权得以实现,女主角在一个特殊的拍摄场地里,被密密麻麻排列成球形的摄像机包围在中间,做出各种表情和动作,摄像机们从各个角度拍摄她的影像。如果是一两年前,这种幻想设定有合情合理的未来感。但是现实是,这几天谷歌发布的 nano banana 模型,几乎已经实现了,只用一张照片就模拟出一个人的各种表情和姿势。虽然目前肯定还达不到电影级别的逼真,不过,这依然让电影里这一部分的设定显得有些不够科幻了。科幻在预言技术剥削的核心与本质上是超前的,但在具体实现方式的隐蔽性、平庸性和普及速度上,每每落败于现实。

fin.

2025.02.18 11:17

By: dimlau
18 February 2025 at 11:17

如果从一开始 AI 就以异族崛起的形象深入人心,或许人们的警惕和担忧会比担心被替代更真切和实际一些。而现在的情况是,人们表达担忧更像是一种时尚潮流、一种未来将至的躁动。长着人类无法理解的面孔(如果有面孔的话)的外星人和妳的亲人朋友,妳会向谁倾诉?在许多人心里 AI 不但不是异族,反倒是更可信的朋友——只是不想让朋友过得比自己好,这很人类。

fin.

未来

By: dimlau
18 December 2024 at 18:38

用了几个晚上,看完了日剧《不合适也要有个限度》。昭和与令和,两个时代的行为思考方式如此不同。三四十年后,我们会活在什么样的社会当中?很难想象。但是,时代和人——保守一点说,至少——是相互影响和塑造的。去思考超越时代的事情或许很难,但是去爱身边具体的人却是确实可以好好去做的事情。而且,这样我们就至少可以期待未来的时代会更好。

剧中这段情节记忆犹新:父亲纠结要不要告知女儿即将死亡的消息;最终决定隐瞒,一起穿越时空去看了那个原本没法看到的未来。人终有一死,或早或晚,说什么都于事无补,或许父母能展示给子女的最好的事物,是希望、是榜样。立足当下,满怀希望,憧憬着成为更好的自己,此生确曾活过,足矣。

fin.

未来

By: dimlau
18 December 2024 at 18:38

用了几个晚上,看完了日剧《不合适也要有个限度》。昭和与令和,两个时代的行为思考方式如此不同。三四十年后,我们会活在什么样的社会当中?很难想象。但是,时代和人——保守一点说,至少——是相互影响和塑造的。去思考超越时代的事情或许很难,但是去爱身边具体的人却是确实可以好好去做的事情。而且,这样我们就至少可以期待未来的时代会更好。

剧中这段情节记忆犹新:父亲纠结要不要告知女儿即将死亡的消息;最终决定隐瞒,一起穿越时空去看了那个原本没法看到的未来。人终有一死,或早或晚,说什么都于事无补,或许父母能展示给子女的最好的事物,是希望、是榜样。立足当下,满怀希望,憧憬着成为更好的自己,此生确曾活过,足矣。

fin.

❌
❌