Reading view

There are new articles available, click to refresh the page.

中国规定网络平台AI生成内容须添加标识

中国政府规定星期一(9月1日)起,所有人工智能(AI)生成的文字、图片、视频等内容都必须添加标识。

中国国家网信办等四部门今年3月联合发布的《人工智能生成合成内容标识办法》(《标识办法》)星期一起正式施行。

《标识办法》规定,有关内容标识包括显式和隐式标识。显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现,并可以被用户明显感知到;隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到。

标识适用于利用AI技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。

据央视网报道,平台在服务提供者的内容上架或上线时,须审核核验生成合成内容标识,对未标识或疑似生成内容要添加风险提示,在传播端阻断虚假信息扩散。

中国目前生成式AI产品的用户规模达2.3亿人。随着AI快速发展,随之而来的问题也日益突出。中共中央网信办今年重点整治AI技术滥用乱象,打击借AI技术生成虚假信息等问题。

阿里云:采购寒武纪15万GPU晶片消息不实

阿里巴巴旗下阿里云证实,网传公司向寒武纪采购15万片先进处理器(GPU)晶片的消息不实;寒武纪星期一(9月1日)股价低开短线跳水。

综合中国每日经济新闻、证券时报网等媒体报道,日前市场传言称阿里云通义千问大模型面临算力缺口,阿里紧急追加寒武纪思元370晶片订单至15万片,以填补英伟达H20晶片断供缺口等。

阿里云星期一(9月1日)回应表示,阿里云确实一云多芯支持国产供应链,但传言阿里采购寒武纪15万片GPU的消息不实。

否认消息一出,寒武纪星期一股价低开,短线跳水,跌幅一度扩大至8.96%。此前寒武纪股价持续大涨,上星期四(8月28日)股价大幅收涨15.73%,超越贵州茅台成为A股“股王”。

《华尔街日报》上星期六(8月30日)报道,美国科技巨头英伟达H20晶片在华销售持续受阻之际,阿里巴巴已研发一款新型晶片,可支持更广泛的人工智能(AI)推理任务。

世界著名统计学家刘军归国全职加盟清华大学

美国科学院院士、国际著名统计学家刘军受聘为清华大学全职教授,在人工智能大背景下推动清华统计学、数据科学等学科快速发展。

据清华新闻网消息,清华大学在星期六(8月30日)为刘军举行“清华大学兴华卓越讲席教授”聘任仪式。

清华大学校长李路明说,期待刘军全职加盟清华后,充分发挥自身广泛的学术影响力,抢抓以人工智能为引领的第四次工业革命机遇,推动清华统计学、数据科学等学科建设不断迈上新台阶。

刘军表示,他在清华园出生、长大,如今跨越一甲子选择回来,是对教育科研事业的热爱,也是家国情怀的召唤。

他指出,统计与数据科学作为人工智能发展的重要基石,具有广阔的发展前景。他未来将尽己所能推动清华统计学、数据科学等学科实现快速发展,助力统计与数据科学系建设,成为国内外知名的产学研一体化学术重镇。

公开资料显示,刘军是清华附中校友,1985年取得北京大学数学学士学位后赴美深造,自2000年起担任美国哈佛大学统计系终身教授,2025年当选美国国家科学院院士。

刘军从2005年起担任清华大学客座教授,2015年主导创建清华大学统计学研究中心,并于2024年帮助清华大学建立了统计与数据科学系。

任正非梁文锋等入选《时代》周刊AI影响力人物榜单

中国科技巨头华为创始人任正非、初创公司深度求索(DeepSeek)创始人梁文锋以及宇树科技CEO王兴兴等入选美国《时代》周刊AI领域影响力人物榜单。

《时代》周刊网站星期五(8月29日)发布2025年度AI领域最具影响力的100人名单,当中不少中国面孔,包括任正非、梁文锋、王兴兴以及小马智行CEO彭军等。

其中,任正非、梁文锋和王兴兴被归于“领导者”类别,同样在这类别的还有xAI 创始人埃隆马斯克、OpenAI首席执行官萨姆・奥尔特曼、英伟达联合创始人兼CEO 黄仁勋、Meta创始人兼CEO马克扎克伯格、 台积电董事长兼CEO魏哲家等。

彭军则出现在“创新者”类别中。此外,在“塑造者”类别中,还包括斯坦福大学教授、“人工智能教母”李飞飞;“思想者”类别中,包括清华大学苏世民书院院长薛澜、华人作家兼资深记者郝珂灵(Karen Hao)等。

微信进一步规范人工智能生成合成内容标识

中国跨平台通讯工具微信进一步规范人工智能(AI)生成合成内容标识,以保障用户信息获取的透明度与可信度。

据“微信珊瑚安全”公众号星期天(8月31日)发布的《关于进一步规范人工智能生成合成内容标识的公告》,微信平台将进一步优化内容识别能力,以保障用户信息获取的透明度与可信度。

公告指,平台应对AI生成合成内容,添加显式标识或隐式标识,并对可能是AI生成合成的内容进行相应提示,以便用户清晰辨识。

为避免发布的内容在传播过程中引起混淆或误认,用户发布的内容为AI生成合成的,发布时需主动进行声明。

公告还提到,依据《人工智能生成合成内容标识办法》规定,用户在发布或传播AI生成合成内容时,不得以任何方式删除、篡改、伪造或隐匿平台添加的AI标识。同时不得利用AI技术制作传播虚假信息、侵权信息以及从事任何违法违规活动。对于违反法律法规及平台规范的行为,平台将视违规情况进行处罚。

未来学大会

电影《未来学大会》里,罗宾·怀特(Robin Wright)饰演的女主角授权一个公司使用她的影像和声音来制作各种各样的广告和节目。电影里,为了让这个授权得以实现,女主角在一个特殊的拍摄场地里,被密密麻麻排列成球形的摄像机包围在中间,做出各种表情和动作,摄像机们从各个角度拍摄她的影像。如果是一两年前,这种幻想设定有合情合理的未来感。但是现实是,这几天谷歌发布的 nano banana 模型,几乎已经实现了,只用一张照片就模拟出一个人的各种表情和姿势。虽然目前肯定还达不到电影级别的逼真,不过,这依然让电影里这一部分的设定显得有些不够科幻了。科幻在预言技术剥削的核心与本质上是超前的,但在具体实现方式的隐蔽性、平庸性和普及速度上,每每落败于现实。

fin.

糟了糟了!我成 agent 了!

作为一个练习时长六年半的 Pixel 手机用户,我皱着眉头看完了昨天凌晨的 Made by Google 发布会。

#DeadInside

作为产品线的第十代产品,Pixel 10 并没有像曾经的 iPhone X 那样,为我们带来一次从产品形态到使用形式的变革,反而在这个连 iPhone 都准备大改设计的时候,玩起了保守主义。

单纯从硬件方面讲,今年的四款 Pixel 新机—— 10、10 Pro、Pro XL、Pro Fold 除了台积电处理器之外没有任何亮点,影像能力更是有进有退。

曾经,我们有一个更贴切的名称来描述这样的升级:Pixel 9s ——

在产品力本身已经普普的前提下,本次 Made by Google 发布会本身则更是一言难尽。

从正常的角度思考,「产品发布会」的目的应该是清晰的展示和介绍产品,尽最大程度体现出产品的优势,然后告诉大家价格——

但谷歌似乎对发布会有不一样的想法。

今年的 Made by Google 与其说是发布会,不如说是一次营业感极强的谷歌年会,哪怕是肥伦(Jimmy Fallon)负责串场也没有办法把各种零碎的场景拼在一起,回答那个最重要的问题:

今年的 Pixel,到底升级了啥?

真正的 AI 硬件,只需要最朴素的形态

不得不承认:谷歌手握着 Gemini,以及 Veo 3、Flow、Genie 3 等等工具,无疑是现在地表功能最强大的 AI 模型之一,甚至不需要之一。

Genie 3 能够以 720P 24 帧实时生成「可交互的模拟环境」,而非视频|Youtube @Fireship

而谷歌自然也清楚艾伦·凯那句「对软件足够认真的人,应该制造自己的硬件」的含金量,十年前放弃厂商合作代工的 Nexus 系列手机、转为开发流程彻底内部化的 Pixel 就可见一斑。

然而问题是,随着时间的推进,这个「软件」的定义是会变的:

  • 2016 年的初代 Pixel,代表一种对于 Android 系统标准化硬件
  • 2017 年的 Pixel 2,代表的是一种对于计算摄影(computational photography)的标准化硬件
  • 2021 年的 Pixel 6,又变回了对于Android 12 主导的 Material You 设计的标准化硬件

至于今年的 Pixel 10,在复盘过整场发布会之后,爱范儿编辑部觉得,谷歌的意图已经昭然若揭:

Pixel 10 系列是一套完全为 Gemini 打造的 AI 硬件,无论 Rabbit R1、Humane AI Pin,还是 OpenAI 拉着 Jony Ive 一起搞的那个 AI 配饰,跟 Pixel 10 一比都得说自己不够纯粹。

如果用艾伦·凯的公式来描述,谷歌其实就是从「对 Android 系统足够认真」逐渐转变成了「对 AI 足够认真」—— Pixel 手机作为硬件形态,反而是不需要什么变化的。

图|PhoneArena

换句话说,今年的 Pixel 10 系列无论对于 Android 16 还是谷歌的计算摄影,其实都不是那么重要了。

恰恰相反,Pixel 10 是 Gemini 在现实世界的延伸,一个 799 美元的 AI 入口——只不过顺便还能接打电话或者拍拍照片而已。

但这不是我们想要的 AI 硬件

当然,谷歌这样将 Pixel 打造成专属于 Gemini 的硬件入口,这个行为本身是无可厚非的,毕竟手机的硬件形态再挤牙膏,也比 Rabbit R1 和 Humane AI Pin 那种故意区隔化的外观要实用许多。

图|CNET

然而现阶段的 Pixel 哪怕可以算作 AI 硬件,也依然没有解决一个非常重要的问题:

它的工作逻辑和我们预想的 AI 硬件不一样。

无论是科幻作品还是概念描绘中,我们大多都会为 AI 赋予一个拥有承载功能的具像化形态,无论是液态金属做的 T-1000 型终结者,还是 HAL 9000 与 MOSS 的红眼睛:

图|流浪地球 Wiki

既然我们能够接受机箱里面装着的 MOSS ,那么 Pixel 手机里面装着的 Gemini 也无可厚非,但问题是,用户使用 Gemini 的方式,与想象中刘培强使用 MOSS 的方式可谓大相径庭。

纵观本场发布会,谷歌主要展示的两项新 AI 功能 Camera Coach 和 Magic Cue,以及相册中的 Gemini 修图,全部都是分散在各项系统功能内部、甚至只有使用过程中才会弹出的

这根本不符合过去几十年里人们对于 AI 的想象——

我不需要 Magic Cue 在我打电话之后才在屏幕上显示对话的相关信息,我想要 AI 自动核对我的行程信息和订票邮件,发现不对之后智能的给航司打退票电话。

我也不需要谷歌相册必须要我点击编辑按钮之后才会弹出 Gemini 对话框,我需要直接唤醒 Gemini:帮我把我刚才拍的两百张酒吧照片里面模糊的删掉,P 一下亮度和颜色,然后选出 9 张不一样的鸡尾酒发朋友圈

在过去十多年的科幻作品与 AI 设想中,AI 的运行逻辑应该是由人类用户下达指令、AI 自动理解指令并主动结合周围的一切资源开始自动执行任务,而不是我用轮椅把 AI 送到桌子前面、给它摆上笔墨纸砚,然后它开始作画。

图|36氪

也就是说,现在 Pixel 的 AI 功能全都散落在系统的各个角落,你必须先开始一项任务,才能得到 AI 相应的帮助——这其中较包括很多原本可以很轻松的被 AI 串联起来、代理我们动手的功能,比如把照片发到某个社交软件。

七年前的 Bixiby 都能用主动适配实现类似的应用功能调用,软硬结合更强的 Pixel 却不行|YouTube @爱否科技

更加令人难绷的则是相机中的构图辅助 Camera Coach ——在刚刚看到演示的时候,我们还以为它可以通过系统的底层接口,实时读取画面内容并生成构图建议。

然而现实却是,你必须手动打开功能,Gemini 才会悄悄拍一张照片、以此为依据推荐不同的构图方式——视角不符的时候甚至会直接调用 AI 帮你粗略的画出来——然后你再根据 AI 的指导一点点调整位置,直到你按下快门:

图|YouTube @9to5Google

且不说特意抬手点一下这种非常打断心流的操作究竟是怎么被想出来的,整个 Camera Coach 功能都像是谷歌为了想办法整合 Gemini 部门和 Pixel 部门的功能 KPI 而硬缝出来的东西。

构图辅助的本意应该是帮助你拍照,但是经过这样一番操作,哪怕有 Tensor G5 的算力加持端侧小模型,目前看到的推理速度和建议结果都不那么尽如人意。

有等待 AI 操作的时间,效率高的朋友早就已经换过好几套姿势,前后左右上下摇摄拍出一连串照片了,还能更好的发挥出 Tensor G5 升级后的 ISP 性能。

这种反客为主的操作方式,和 Android 16 中其他必须要你先操作一点功能、然后才会介入的 Gemini AI 功能一样,完全颠覆了我们曾经对于 AI 的期待——

我怎么变成给 Gemini 搬运资料、提供信息的 agent 了?

虽然很讽刺,但使用 Gemini 生成

换个角度想想,Pixel 10 不像是一个给人用的 AI 手机,反而更像是给 Gemini 用的 AI 手机,所有新功能的使用方式都是由人给 Gemini 提供信息,然后再由 AI 出手整合。

这种散落在功能过程里面的 AI,虽然客观上能够防止 AI 过度介入,但在用户体验上就是会让我们觉得被 AI 反客为主了。Gemini 像是那个陪小孩子堆沙堡的家长,等小孩把沙子拢起来,发出请求之后,才开始在上面塑出城堡的轮廓。

此外,还有一点不得不警惕的是,Pixel 10 很容易变成一个给其他手机厂商开的坏头——一个只靠 AI 有进步就可以放任硬件基础不管的坏头。

图|Android Central

而如果谷歌在未来继续用相同的套路拉扯下去的话,会产生一个非常糟糕的结果:Pixel 用户想要的 Pixel 消失了,AI 用户想要的真正 AI 手机又根本不是这样的

这种形式的未来产品,恐怕是谷歌和消费者都不想见到的。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


我的认知突围:从文字信徒到多媒体拥趸?

土木坛子

每个人心中的成见,都是一座大山。

作为一个多年来以文字为创作载体的老博主,我曾深深地热爱文字,因为它简单、便捷,便于检索、保存和传递。相较之下,声音、图片乃至视频似乎总显得冗长而繁琐。阅读文字,信息传达得更为高效,而视频播放时需要调速来提高效率——毕竟,语言的语速远不如阅读的速度快,使得我们在主动控制上的感觉相对薄弱。

我也曾见过一些极端的文字控,他们甚至对带格式的文字嗤之以鼻,唯独钟情于最纯粹的文本文字,简洁到近乎苛刻的地步。可是,当我们看到如今各种短视频和直播内容的流行,显而易见,视频形式正以其独特魅力俘获大众的心。这无疑是对传统文字模式的一种挑战。

回想上一次阅读《乔布斯传》时,我惊叹于80年代乔布斯如何通过图形界面改变电脑的使用体验。当时,IBM等厂商仍然坚持命令行文字的操作模式,部分原因在于硬件配置限制了图形化处理的可能性。而到了今天,我们看到大多数用户更依赖于直观、友好的图形界面——无论是Windows还是苹果系统,都证明了图形界面的巨大优势(虽然Linux命令行流行于服务器领域)。或许我曾对自己固守的习惯过于执着,成长意味着要敢于对那些不再适应时代发展的坚持进行选择性放弃。

不可否认,无论是文字还是视频,都充斥着大量的垃圾信息,需要我们在海量内容中慧眼识珠。事实上,优秀的视频作品也不在少数,它们直观、信息密度高,甚至在高速网络的支持下能迅速传递到每个角落。随着AI技术的发展,这些优质视频内容同样可以被智能识别、总结和检索。或许,我只是不曾及时跟上这个时代的步伐。

如今,我终于意识到,是时候放下对视频创作、展示、传输与保存信息的偏见了。现代硬件、高速网络和先进搜索引擎技术已足以应对视频和图片信息的处理。未来,或许我们还会见到结合气味、触觉的多感官信息传递方式,使虚拟世界与现实世界之间的连接更加紧密。

在这个瞬息万变的时代,我们每个人都应学会及时更新自己的固有观念,勇敢地拥抱变化,让自己始终走在时代的前沿。这是我对自己的忠告。

AI让效率再次提升,人类该干什么?

AI vs Human beings

人工智能时代:当效率革命点燃创新之火

我很久没有为互联网感到兴奋了。这些年,它似乎被困在某种惯性中,缺乏真正触动心灵的创新。然而,人工智能的崛起,像一簇突然迸发的火星,重新点燃了我对技术变革的热情。

从ChatGPT的诞生到如今,几乎人人都在谈论人工智能。我也亲自体验过它的魔力:无论是生活琐事、工作难题,还是学习中的困惑,只需将问题抛向AI,不到5秒钟,它便能给出一个逻辑清晰、甚至堪称完美的答案或方案。这种效率的跨越,让我不禁想起人类获取信息的进化史。

从图书馆到AI:效率的跃迁

在互联网诞生前,若想查资料,我们只能奔向图书馆,在浩如烟海的目录中翻找对应书籍,再逐页检索、誊抄、总结。尽管最终能找到答案,但过程漫长而笨拙。

互联网搜索引擎的出现,将效率提升了一个量级。输入关键词,海量链接瞬间呈现,我们仍需逐一筛选、分析、整合,但至少电子化手段替代了手工检索的繁琐。

而如今,人工智能彻底颠覆了这条路径。它不再需要我们“大海捞针”,而是直接整合全网数据、预处理信息,甚至模拟深度思考,最终将答案和盘托出。这就像过去做菜需要自己找菜谱、买食材,而现在只需对AI说“我要一盘糖醋排骨”,它便能在五秒内端出成品。若口味不合,还能随时提出修正——效率之高,令人惊叹。

生产力解放:人类与AI的共生

作家郑渊洁说,他让AI以“郑渊洁风格”写一篇皮皮鲁的童话,结果AI输出的作品竟比他本人写得更好。他感慨输给了AI,但我却觉得无需悲观。AI之所以能模仿郑渊洁,正是基于他本人创作的无数经典文本。若世上本无郑渊洁,AI又如何凭空生成“郑式童话”?

这恰恰揭示了人类与AI的关系:AI是效率工具,而非创造力的源头。它的能力建立在人类已有的智慧积淀之上。当AI接管重复劳动与低效环节,信息如此容易获取,知识如此海量廉价,我们反而能腾出双手和大脑,专注于真正的创新——那些尚未被定义、被探索的领域。

拥抱变革:效率即自由

有人担忧AI会取代人类工作,但历史早已证明,每一次技术革命淘汰旧岗位的同时,也会催生新机遇。当机器替代了流水线工人,人类转向了设计、编程与服务;当AI接管了基础信息处理,我们便能更聚焦于创造、情感与战略。

正如工业革命将人类从体力劳动中解放,AI或许正将我们推向“脑力解放”的新阶段。不必为消失的重复性职业哀叹,因为社会进步的本质,正是让人摆脱“浪费时间的工作”,追求更高级的创造与价值,难道这不就是人类追求的解放与自由吗?

人工智能带来的不是威胁,而是一场效率革命。它让我们离“终极自由”更近了一步——不再被琐事捆绑,而是用技术赋能各行各业的创新,用高效率重新催生各行各业的可能性。

此刻,我仿佛回到了互联网初生的年代,那种对未知的期待与悸动再次涌上心头。与其恐慌,不如拥抱这个时代。因为AI不是终点,而是人类探索星辰大海的新起点。

2025.02.18 11:17

如果从一开始 AI 就以异族崛起的形象深入人心,或许人们的警惕和担忧会比担心被替代更真切和实际一些。而现在的情况是,人们表达担忧更像是一种时尚潮流、一种未来将至的躁动。长着人类无法理解的面孔(如果有面孔的话)的外星人和妳的亲人朋友,妳会向谁倾诉?在许多人心里 AI 不但不是异族,反倒是更可信的朋友——只是不想让朋友过得比自己好,这很人类。

fin.

人何以为人

「年」终于过去了,我终于又能在工作缝隙,不经意地听客人们的聊天;她们在聊 DeepSeek。这让我想到近期看到的两个观点,其一来自某篇英文博客文章——不知怎么我的 RSS 阅览器数据库清空了,所以抱歉找不到原文地址——大致是说:我们曾以为人工智能会帮人类洗衣做饭,人类则有时间去做更有创造性的工作,而现实是人类在做更多的琐碎杂事,人工智却被用来创作绘画、作曲、做视频。其二是刚看到如一兄说「铺床可以对抗 AI,因为这件事 AI 没法帮妳做」。一个抱怨 AI 不会铺床,一个则是用铺床对抗 AI。多么有趣。

着手研发会铺床的 AI,以便人类可以腾出时间去创作;等到 AI 学会铺床的时候,依然坚持自己铺床。这两者在我看来都是在确认自身价值和意义。归根结底,是在追问人类何以为人。人的价值既在于创造,也蕴含在那些看似琐碎的小事中。即使有一天 AI 能取代人类的所有工作,它也无法否定人的意义。

fin.

新的阶级依据

Ai 的普及将会诞生更多不求甚解的普信男。
古典的百科全书式人类不会被赛博囚禁。

推论:
新阶级的划分依据是,是否具备物理世界生活常识。

蒸馏认知

有两种方式「通晓一切」:

1、穷具并知晓每一种可能性;
2、找到底层原理后高效推理。

定理:
1、海量数据和滔天算力是不持久的;
2、通用性和低能耗是持久的。

推论:
任何人工智能都需要蒸馏出「认知」才能活下去。

前提:
本地且联网的传感器

描觀念 繪感受|超微型 AI 觀念畫展

前言:

*為了減緩閱覽速度,充分感受和理解,因此採用繁體中文。

最近的工作狀態和社會新聞,讓我感覺到非常疲憊。一次次的憤怒和失望,和一次次的徒勞無功,身在漩渦當中無法抽身,只能通過一點點表達來疏解。三幅畫都是用 Midjourney 來繪制的,但 prompt 無法直接描述所要表達的觀念和感受,因此得用視覺化的語言來向 AI 描述想呈現的畫面。

這組圖,可以當作是一次超微型的 AI 觀念畫展。

*每張圖都可以通過「點擊放大」獲得完整尺寸的高清版本。

第一部分:《異類》
[ 点此可下载:经 AI 放大处理后的超高清图像 11.3MB ]

我們是怎麼看待「他者」的呢?

在公共輿論場中,尤其是此時此刻的中文網絡輿論環境當中,我們是看不到任何「人」的。一個個觀點匯聚了大量的「賬號」,牠們沒有個性、閱歷、身份,只要有一塊肉掉在地上,就會瞬間蜂擁而至,吃個乾淨。但我們很難說,「我們」不是「牠們」。因為在「我們」眼中的「牠們」,恐怕與「牠們」眼中的「我們」並沒有什麼本質的區別。

我們都是對方眼裡的「他者」。

人與人之間的觀念差異之大,如克蘇魯眷屬與地球人之間一般,亦如人類和腳下的螞蟻,並無關好壞,而是徹底的「異化」和「無所謂」。在各自的眼中,對方只是一群穿著人類服裝的「蟲子」,是與我們不在同一個世界裡的「異類」,是「偽裝」成「我們」的臥底、特工和間諜。總之,「他者」都不是「人」,「他者」就意味著「異類」,是被異化的不同於自身的存在,是被敵視的「蟲子」。

信任體系崩潰,人就不是人。

第二部分:《共鳴》
[ 点此可下载:经 AI 放大处理后的超高清图像 11.4MB ]

所以群體不再重要,也無法重要,因為在破碎的環境中無法建立起大面積的信任。我之所以不信任 DAO 這種組織形式,並非老頑固或者害怕前進,恰恰相反,作為一個向來積極主動擁抱新技術的人,我無法對人類持有這樣樂觀的想法。人與人之間的「心之壁」是與生俱來的系統限制。因為語言本身並不是一種優秀的系統,它是抽象和概括的。每一次「對話」都需要經歷至少四次「轉譯」:

來自 A 對世界的體會和理解的語言化,A 向 B 表達時將語言化的觀念輸出成的語言,來自 B 對世界的體會和理解的語言化,B 用自己語言化體系所理解的 A 的語言。

這種信息傳遞效率如此之低,因此需要大面積和海量的交流把「同類」們連接起來。

但互聯網放大了「同類」這個概念的同時,縮小了「個體」的存在感。並不是被網絡連接的人數多了,可以公開表達觀點的人多了,就等於「個體」被彰顯。因為這些「個體」並沒有作為「獨立個人」存在,牠們依然依附於各種「觀點」和「趨勢」之中,牠們的聲音也不代表著一個活著的人類的思想,而是一股潮流和陣痛當中的一次次伴隨。無論是網絡語言暴力,還是人人都掛在腦門上的 MBTI 性格分類標籤,都只是把「個體」隱藏在事件背後的一種障眼法。

人腦會本能地「簡化」信息,以降低能耗比。這是生存策略,也是系統的短板。一個人要與另一個人產生情理上的連接,不僅需要花時間,還需要有耐心去解開雙方轉譯過程中的一次次「雞同鴨講」,必須兩個人同時站在對方的位置上去理解對方的語言,才能達成共鳴。他們必須用最複雜的方式,走通這條最短的路。

因此,共鳴只存在兩個個體之間。

我不信任 DAO 的最主要原因,就是不相信這種「共識」可以不被「簡化」和「異化」地傳遞到每一個參與者當中。只要這一點無法在技術層面上落實,那麼任何一種觀念或者 DAO 都與舊世界無異。

第三部分:《武陵》
[ 点此可下载:经 AI 放大处理后的超高清图像 24.1MB ]

但如果可以通過限制准入標準的方式,把「個體」簡化或者降維成不容易產生差異的「標準型號」呢?

這源於我對《桃花源記》的一種怪異解讀:

武陵漁人所去到的「桃花源」並非一個地區,而是一顆巨大的桃樹。他所穿過的「山」只是巨大桃樹根部的一處彎曲,那個彷彿若有光的「洞」,不過是盤根錯節的樹根中間的一處縫隙。之所以目之所及的地方都是落英繽紛,中無雜樹,是因為他此時身處桃樹之中。他在遇到和穿過桃樹根的時候,就被縮小成了螞蟻大小的微縮小人兒了。因為長期處於這樣的螞蟻社會中,當中的人們自然也就成了「小國寡民」的狀態,行為和思想也因此被簡化,成了雞犬相聞、夜不閉戶的簡單狀態。

南陽劉子驥尋不著這個地方,不是他找不到,是因為他沒有經過樹根那一輪「降維標準化」。身為一名「高尚士」,他應該是一個見識、思想異於常人的「個體」,怎麼可能輕易被「簡化」呢?他與桃花源的協議不兼容,自然是無法進入和連接了。

理想模型之所以是理想,就是因為理想實驗環境往往就意味著屏蔽了諸多複雜的干擾因素,簡化了條件。

這樣好麼?我並不這麼認為。

複雜性是人性的基礎,放棄了人性的豐富與複雜,化身成桃花源中的白衣男女,無怨無恨,亦如死人一般。因此常有把桃花源解做「誤入墳塋」的故事版本,這並非沒有道理。我們在排練《暗戀桃花源》的時候,也曾反覆思考過,為什麼其中的白衣男女與世俗社會中的老陶、袁老闆、春花如此不同?陶袁花的故事可笑,但白衣男女也可笑,他們並沒有什麼差別。有沒有煩惱,都很可笑。

可笑是矛盾的表現,也是價值所在。

如果消解矛盾和分歧的方式是所有人都歸於 LCL 之海,那麼當我中有你、你中有我,我們彼此不分的時候,所謂的「我」還有什麼存在的意義呢?如果一切都要歸於熵,那所有的分歧和衝突對立,也只是笑話。

唯一可做的,也只有減緩自己的熵增。


後記:

為了創作出對應於「觀念」和「感受」的畫面,我花了很多時間在 prompt 的調整上,因為用語言生成畫面這件事,本身就充滿了對語言的誤讀和轉譯,而 AI 基於概率的運行方式,也增加了難度。因此,把腦海裡的觀念和情緒先通過語言表達出來,變成一種對某一類具體畫面的描述後,才能在一次次的 /imagine 中找到更合適的語言和畫面。

這種創作體驗很奇特。

過往的繪畫訓練或寫作表達,手頭功夫的訓練是至關重要的。但使用 AI 畫畫來表達觀念,會因為表達這個目標倒逼我把觀念拆解成更為細緻的狀態,不止是邏輯的細化,更需要把細化的觀念給圖像化,用視覺語言來描述它。

同樣是昆蟲人,面容的風格、眼神的選擇、肌理所呈現的氛圍、服裝的細節,都會影響表達的效果。選錯了表達方式,很容易就會得到一個一眼看上去就遭人討厭的怪物,或者因為太像人而失去了異化的感受。那樣就和我想表達的意思,背道而馳了。

*部分被放棄的方案

關於共鳴那部分,應該是我做了最久的。

因為「共鳴」太抽象了,怎樣的人物狀態、神情和與環境的關係,都試了很多種畫面邏輯。從山上到海裡,從逆光的傍晚到深夜的月光,從全身像面對面站立到半身和面部的特寫,面孔的表達又在歐美人、亞洲人、東西混血中嘗試了一些,畫面色調和畫風也會有很直觀的影響。這麼「簡單」的畫面,想要找到那個比較精準的感覺和情緒,也花了兩天,才從約 300 個方案中找到最恰到好處的那一個。

*部分被放棄的方案

網上有很多用 Stable Diffusion 畫美女和裸女的,說實話,好看的那些確實顯得很「精緻」,哪怕是色情畫面也精緻得嘆為觀止。但這就和攝影術發明之初類似,攝影像油畫是沒有任何意思的,它應該有它的新的用法和創作思路。對我來說,AI 繪畫的最底線應該是輔助我把腦海的觀念傳遞出來,而不是畫很多精緻得像量產網紅一樣的裸女畫。

我並不是反對量產的 AI 裸女畫,只是想從創作的思路去看待:當刺激感官衝動成為 AI 可以輕而易舉做到的事情之時,更複雜和更深入的連接才是人類創作者應該去嘗試的領域。

這確實不容易,但 AI 讓這件事方便了很多。

借行业科普聊了一次 AI 与设计师的关系

上个月去上海之前,@取景框看世界 在微信上邀请我一起做一期关于设计行业的科普视频,面向学生群体做一次对行业整体状况的分享。这次是 B站 向他发起的约稿,也是他频道的主要内容类型之一。答应他后,从上海回来我就根据自己这么些年的体会和反思,录了一期比较掏心窝的内容。由于参与的人比较多,直到前天,节目才终于上线。

🎥 点击图片跳转到播放页面

因为参与的人数比较多,我说的话也比较多,所以在汇总的成片里需要剪掉一些。但我又觉得难得录一期视频(从去年11月到现在都没有更过视频了),为了保证表达的完整性,我还是得有一个自己的版本。但因为实在忙得顾不过来,于是麻烦 @小雨 帮我把这条视频剪了出来。

毕竟是 @怪物尚志 的御用摄影/后期,有他的帮忙,我的视频里头一回多了许多配合文案的动画,比我一个人在镜头前单口相声好看多了。这一期花絮,也在昨天发了出来,跟正片错开一天。

🎥 点击封面跳转到播放页面

这期视频的封面是我昨晚用 midjourney 画的。

在这条视频里,除了科普工业设计的一些基本概念和行业现状,我也特别聊了一下 AIGC 和设计师之间的关系。前两个月虽然一直很忙,但我也一直在关注 AIGC 的动向。这两个月的变化实在是过于惊人了!

以下是我去年八九月用 midjourney 画的一些东西:

然而在这短短半年内,版本已经从当时的 v3 发展到了现在的 v5。ChatGPT 也从 GPT-3 发展到了 GPT-4,坊间传言 GPT-5 的研发已经完成且爬完了全网所有视频,可以直指某一条视频中的某一段话,只是还没发布。可以说开年后的这两个月内,AIGC 的发展速度已经大大超乎了预料,甚至正处于失控的边缘,它们正在开始颠覆一些东西。将来会发生什么,无法预料,但一定有什么事情已经在发生了。

所以我觉得,无论如何,再忙也得重新用起来。光是跟进各种新闻和消息是不行的,midjourney 前两天刚发布了由图片转译成 prompt 的新功能,多模态的 AI 已经不远了,这会更进一步推动人和 AI 之间的交互。我觉得,自己还是得保持使用状态才行。所以前两天我又重新充了值,开始体验它的新版本。

我先试着画了一些机甲的东西,例如这样的:

上面的两张的用 prompt 直接生成的,但下面的两张,是用 /remix 命令修改了部分描述词后的新图。可以看到下面的图和上面的图保持了相关性,于是我想试试,如果用这个命令替换背景会是什么效果,于是有了这组车的图:

上面的两张图是用 prompt 直接生成的,当我用 /remix 替换了背景描述的 prompt 之后,就生成了下面的两张。更换环境之后,车辆的姿态和镜头视角几乎没有变化,车身的反光与环境之间的关系也很自然,这个效果已经可以说非常惊人了!

然后,我随便画了一些白色的机器人站在燃烧废墟上的场景:

用 /remix 替换了机器人配色部分的描述词后,生成了下面这样的图:

对 /remix 有了基本的体感之后,我开始尝试用 /blend 命令来做一些融合的实验。

首先,我随便描述了一个赛博少女,得到一些随机的图:

接着,我再随便生成一个红发少女:

材料准备好之后,开始把它们进行组合。

第一次先尝试融合两张图,一个是游戏画风的机甲人,一个是二次元的赛博少女。

它们俩合成后,得到了以下这个人物:

新角色具备其中一张图里人物的长相特征与体态,也有另一张图的配色和机甲特点。虽然得到的结果具有随机性,但既然可以这样融合,那么应该也可以通过 /blend 命令来得到一些更有目的性的创作。

有了第一次的体验后,第二次我用三张图片进行合成:

图一是现画的半透明金属机器人,图二是上面准备好的红发少女,图三是现画的骑士。

这三个合成出来的新角色,同时具备了细碎的金色细节、波浪红发、银白色盔甲:

但这不是我想要的,我想试试加大红发少女的比例。在垫图的方式下,可以通过 –iw 命令来分配各个图片之间的权重占比,但是在 /blend 中不能这么操作。于是,我想通过把合成的新图作为素材,再一次与红发少女进行融合,并加入机甲的元素来强化她身上盔甲的质感。

二次合成使用的图,如下:

合成出来的新角色我非常满意!

她既有红发少女面部和眼神的特征,又把两副银白外甲融合得非常优雅,也保留了初始半透明金属机器人遗传下来的金色金属关节的特征,又做出了图三机甲的坚硬感和图一外甲的银白光泽。这一次的融合很成功。

但如果 /remix 可以局部替换特征,那么这些没有写 prompt 而是通过 /blend 直接合成的图,能否通过 /remix 加入新的 prompt 来修改已有的特征呢?

为了让实验效果明显一些,我想让盔甲的白色部分比例缩小,增加金属部分的比例,于是就先把这批图重新刷了几遍,直到出现肩甲是金色的变异版本:

然后不断在此基础上进一步变异,强化金色肩甲的特征:

所有图片均可以点击放大下载原图

准备好之后,我在 /remix 中添加新的 prompt:pink armor

以下是修改特征后的结果:

所有图片均可以点击放大下载原图

整体的效果我还是挺满意的。一来,新生成的人物很好地保持了最初红发少女的眼神和神态;二来,金色金属被替换成粉色金属后,金属质感的表达是正确的。虽然头发也一起变成了粉色,这确实是没完全理解指令,但原有的发色搭配新的粉色盔甲也确实不是很和谐。

到此,重新开始用 AIGC 工具的热身完毕,找回一些感觉了。

至于这期视频封面里用到的车图,是我昨晚用 Maserati 和 Ferrari 以及 Apple 和 Tesla 分别杂糅出来的缝合怪。虽然乍一看好像没什么新奇的,但是如果我把去年八月底用 midjourney 画的汽车拿出来对比,就会意识到这是多么疯狂的进化速度了:

上面三个是去年八月用 v3 画的车;

下面这些是昨晚用 v5 画的车:

所有图片均可以点击放大下载原图
视频封面使用的图片
所有图片均可以点击放大下载原图

虽然工业设计有大量的细化和落地工作是 AI 无法干的,但从目前来看,无论是 midjourney 还是 Stable Diffusion + controlNET 都已经可以很好地帮助设计师完成概念发散和快速枚举了。这样的图像质量,通过垫图、remix 和 blend 的组合使用,完全可以在创意初期快速拉出一批高质量的「草图」,设计师可以把更多的精力放在对方案思路的推敲、对细节的考据以及各个环节的沟通协调上。

从今年二三月开始到往后的十一二年,人类社会将迎来一场以破坏为开端的变革和创新。

无论我们是否愿意,都将一起进入新的世界。

让 MJ 学我画两张小画儿

昨晚吃饭前跟儿子一起画画,我随便画了一下我们在 Minecarft 里的第二个家,和随便画的一个岩浆包围的高堡:

后来想说看看 Midjourney 能模仿成怎么程度,就丢进去试了一下:

emmm,画得还行……

就是画风不太相关,它有它的训练痕迹,哈哈哈哈哈哈哈~

测试所使用的 prompt:

Tree house, jungle, rainforest, simple little house –sref+空格+两张手绘图的地址 –ar 9:16 –s 50 –v 6.0 –style raw

經濟再差也不能公開談論

經濟狀況究竟有多糟糕呢?從各大品牌在售後策略、降價思路和運營的混亂程度等方面的表現,均可窺見一斑。尤其是當你置身於自媒體、電商與品牌運營三者的交匯點上,這種巨大的荒謬性將更加明顯。

上週末出差重慶,兩周沒在家,難得一個週末,結果倆人坐下後就被各自工作群里的事情纏著,不是回消息就是打電話,咖啡都沒喝上一口。

在國內的社交媒體似乎不讓提「經濟不好」這樣的事,與之相關的話也會被限制,索性我就轉成日語來發了:

経済状況は本当にどれほど悪いのでしょうか?各大ブランドのアフターサービス戦略、値引きの考え方、そして運営の混乱度などから、その一端を窺い知ることができます。特に、個人のネットワークソーシャルメディア、ECサイト、およびブランド運営の交差点に立つと、この巨大な不条理さがさらに明白になります。

先週末、出張で重慶に行ってきました。二週間も家に帰っていなかったので、久しぶりの週末を楽しみにしていたのですが、結果として、座った途端、それぞれの仕事グループからの連絡が絶えず届き、メッセージを返したり、電話をしたりすることに追われてしまいました。コーヒーすら一口も飲めないままです。

為什麼是轉日文不是英語呢?因為即便是英語,在內地的網絡環境里也顯得有些直白了。日語反而更有「似乎知道在說什麼,但根本看不懂」的戲劇化的「陌生化」的效果。

好不容易,終於把翻了一年的《夜航西飛》讀完了。

這是我今年讀完的第三本書。

昨天去宜家看洗手檯和鏡櫃,直到在餐廳排隊前一秒,都沒想起宜家給我發的領生日蛋糕的短信。可就是那麼巧,下周生日,昨天正猶豫要不要去店裡看看,我就慫恿筱燁說想幹就幹,這一來才想起有一個蛋糕等著領。這就是天注定的意思。

苹果停车转 AI 将引发人才大震荡

1、没有 AI 的汽车、手机、电脑、平板等,将是一堆废铁;

2、一家公司的核心战略不能同时放在两个大方向上。

综上,停下造车全攻 AI 是非常明智的。

连键盘侠都知道「不难」的造车,没造出来不是造不出来,是制定的目标太远太高。苹果之前想一步到位搞出 L4 的移动座舱,但现阶段的人类还没有办法,这太难了。在他们之前的设想中,自动驾驶的汽车和 Apple Vision Pro 是可以放在同一个场景里的。但很显然,这个步子太大了。用新势力们的方式当然可以,但那不是苹果想做的。

最关键的是,AI 的大爆发是此前大家都没料到的。没有这事儿,车还是一个重要的方向,但这一波爆发的 AI 不是资本热潮,而是实打实的浪潮了,此时不全力转向,是真的会死的。况且苹果并不是没有在 AI 上投入的,这些年一直都在积累,只是权重还没拉到那么高。现在切方向,即是大势所趋的必须,也是归拢资源的必要。

过去 Jony 可以对供应商说,这里有一桶取不完的钱,你能做到你就能拿走,以此把工业设计拉高到一个令人望尘莫及的程度;今天的苹果比二十年前拥有更多的现金,有自己的芯片和庞大的人才库,有海量的设备和训练数据,可以说:

比起造车,AI 才是更适合苹果干的事;

干好 AI 所需的人才、数据、算力,也是他们的优势。

以苹果的财力,下这样的决心,恐怕要出现一次人才流动的大震荡。

原文发布于知乎提问:

苹果取消探索十年之久的电动汽车项目,将团队转向生成式 AI,原因有哪些?会带来哪些影响?

表达的精度就是人类外延的尺度|Midjourney 
V6 Alpha 自然语言生图测试

Midjourney V6 的质感和细节,真的是飞跃式的成长!

和今年三月相比,已经完全脱胎换骨了。对自然语言的理解和再表达,也已经在渐渐脱离「咒语」的局限,结合 ChatGPT 的语言转译,一个人能够用母语把尚不明确的观念表达清晰,愈发显得重要。

点击图片,可查看原始尺寸高清大图:

当 AI 越来越擅长理解人类的自然语言,我们就愈发迫切地要掌握「用语言表达思想」这件事情。

因为语言的精度和颗粒度,将会在人类与 AI 的相处、合作中,展现出人类智力的上限所在,以及外延的纵深能够得着多远。

Upscale from Variations
Upscale(Subtle)
Upscale from Variations
Upscale(Subtle)
Upscaled (Subtle)
Upscaled (Creative)
Upscaled (Subtle)
Upscaled (Creative)
–Style 50
–Style 100
–Style 250
–Style 750
–Style 1000

❌