AI 是不是让我们更不自由了?
最近上映的《捕风捉影》是成龙近十年来的最佳电影,虽然是个翻拍的爽片,但也加入了非常时髦的 AI 元素,比如警方开始使用超级 AI 作为抓捕行动指挥,电影开头的桥段就是警方长官没有采用 AI 建议转由自己决策,导致罪犯逃脱。
虽然后面的结局是成龙作为经验丰富的老警察,加上一定的 AI 辅助最终将犯人绳之以法,但也抛出了一个问题:人,该不该听 AI 的指挥?如果事事都听 AI 的,我们存在的意义又是什么?
GEO,与 AI 信徒
GEO(Generative Engine Optimization,生成式引擎优化)是一个非常新的概念,但并不难理解,与之对应的是 SEO(Search Engine Optimization,搜索引擎优化)。
我们在使用 Google 或者百度等搜索引擎的时候,显示出来的链接大概会受 3 个方面的影响:搜索引擎自己的算法规则,链接内容有无根据规则进行相应优化使自己排名靠前(即 SEO),用户在搜索引擎那里的用户画像。
当 DeepSeek 等 AI 工具也承担起了部分搜索任务之后,搜索结果产生的就不再是一个个需要点击的链接,而是看上去笃定的直接答案。
比如我在 Google 搜索「中国最好的 5 家科技媒体是哪些」的时候,它只会给我一堆链接,排名榜首的链接还是一个不知名机构评选的 2017 年十大科技媒体,其中排名榜首的「砍柴网」已经停更。
我问 ChatGPT 的时候,它就会直接告诉我答案和理由。
这个时候,如果哪家友媒看到这个结果发现自己没上榜,想必会有点不服气,一边暗骂 ChatGPT 不懂科技也不懂媒体,一边可能在思考,如何影响 ChatGPT,让它接受自己的优秀。
当然,这个结果意义并不大,因为几乎没多少人会给 ChatGPT 提这样的问题。不过,按照当下 ChatGPT、Perplexity 以及 DeepSeek 等 AI 工具的渗透,会有越来越多的人,去追问更多的问题:
- 给我推荐一款物美价廉,性能出众,续航持久,坚固耐摔的手机。
- 某某企业给我发了 offer,这家企业口碑如何,值得去吗?
- 我今年湖北文科高考 567 分,什么大学什么专业比较好就业?
就像今年 6 月,阿里和夸克和腾讯的元宝,都针对高考志愿填报做了相应的 AI 工具以及大量的宣传。
此时,手机厂商为了卖手机,企业为了雇主形象,大学为了招生率,都有对 AI 工具生成结果进行优化的动机,GEO 就应运而生。
元力科技 GEO 事业部总经理 Claire 告诉爱范儿:
正是因为大模型通过推理和语义理解去生成结果,呈现出了非商业化的特征,所以用户普遍会认为 AI 工具给出的答案更客观,更中立可信。
同时,如果一些品牌和产品被 AI 答案引用,那么用户的心智渗透相对来说会更隐性以及更高效。
简言之,GEO 就是一个营销领域的富矿。
艾加营销集团元力科技首席战略官 Frank 说:
预计今年年底 ChatGPT 等 AI 搜索能占到传统搜索流量的 10% 左右,明年预估是 25%,乐观估计到 2028 年的话,AI 搜索和传统搜索流量各 50%,最保守估计也是 2030 年到这个比例。
现在国内 SEO 市场的规模大概是 180 亿人民币,全球是 800 亿美元的市场,如果仅从流量比例来倒推的话,长期看 GEO 市场也会是四五百亿美元的市场规模。
但 Frank 对 GEO 的看法并不停留在与 SEO 并列和对比的层面上:
SEO 实际上是在传统的数字营销里面非常细分,完全是一个工具化的东西,但行业里对 GEO 的理解已经超越了工具层面,它能够在 AI 时代里重构营销范式,尤其是重构品牌的认知度和可见度,重塑品牌和消费者的关系,从而打通完整的消费链路。
所以最近包括红杉,英伟达创投,A16Z 都在给 GEO 初创公司进行投资。
因为原来的品牌是面向人的,两点一线的沟通,现在变成了人和品牌之间,多了一个 AI 大模型代表的伙伴、助手或者秘书这样的角色。所以品牌不仅要影响人,也要去影响 AI。
相比于 SEO 规则和方法论的明确,实际上因为大模型是个黑盒子的缘故,GEO 目前还在一个探索的阶段,规则也相对模糊,Claire 说:
大模型存在不确定性,不意味着结果无法被优化。如果我们掌握了 AI 工具的内容偏好和优化规则的话,是能够显著提升品牌内容被 AI 收录和引用的概率。
特别是内容要从用户的意图出发,用更贴近自然语言的形式构建内容,而不能是 SEO 时代的关键词堆砌。
比方说我们要把握用户提问背后的真实意图,再进行品牌核心内容的语义覆盖和场景适配,持续给AI喂养真实的、高质量的内容,才能更容易让 AI 理解品牌到底好在哪里、并愿意在合适的问题场景下去引用或主动生成品牌相关的内容。对于品牌来说,AI 认知的建设是个长期工程。
AI 喜欢阅读的内容普遍有四个核心特点:一是要有权威性和高可信度,比如行业机构发布的调研报告和有影响力的榜单等等;第二是数据化、客观性的内容;第三是结构化、多模态内容;最后也是最重要的,就是语义相关性,确保与用户真实意图具有高匹配度。
同时,不同AI工具的信源抓取偏好也不同,选择高权重渠道进行投放,也能提高品牌被AI「看见」 的可能性。
相比于 SEO 依靠「关键词密度和反向链接数量」的玩法,Claire 和 Frank 都更倾向于相信 AI 大模型的选择。
用 Frank 的话来说就是,只有被 AI 大模型信赖的内容,才会被消费者信赖。这是因为大模型选择内容有一个 EAT 原则(Experience/Expertise 专业性、Authoritativeness 权威性、Trustworthiness 可信性)。
更关键的问题是,AI 的进化速度相当快,哪怕是被群嘲的 GPT-5 被认为体验不佳,但背后重要的幻觉率下降了一个量级,它看起来不够友好和高情商,但确实可信更多。
现在人们在使用搜索引擎的时候,不会仔细辨别其中的 SEO 痕迹,无论知晓这个工具与否,辨别的行为是无意义的,当 GEO 闯入 AI 工具的时候亦是如此。
与其说这是一个人类自主性的问题,不如说是一个关于信任的问题。
AI 成为了信任的中介,信任才是 GEO 背后的核心资产。
导航,与三体游戏
人类总是高估自己的自主性,常觉自己是自由的。
Waze 是导航领域的先驱,其原理是社群用户上报自己的位置和速度,包括其他的交通道路信息,甚至是交警信息等等,来给整个 Waze 的用户提供导航,规避拥堵,躲避交警等信息。
这套逻辑现在已经被诸多地图导航应用所采用,但在十多年前,基于海量用户的众包模式显得相当新锐,在智能手机早期阶段,这样一个 LBS 的服务有着巨大的商业潜力,在 2013 年,Google 收购了 Waze。
在这种模式下,万千用户贡献自己信息,以点滴之力汇聚成数据洪流,又变成导航信息。
问题来了,当 Waze 提示用户左拐回家不会拥堵,但用户自己觉得直行更快的时候,谁对的概率大?
一般是 Waze 正确,因为它掌握了更高维度的信息,在以上帝视角看整个地图。
接着,《未来简史》里提出了第二个问题:假设因为 Waze 实在太好用,所有驾车人都开始使用。再假设今天一号公路大堵车,而备选的二号公路车流相对顺畅。如果 Waze 只是让大家都知道二号公路顺畅,所有驾车人就会一窝蜂开向二号公路,最后又全堵在一起。
那么 Waze 会不会向一半的用户推送二号公路更顺畅的信息,分流一半的用户过去,但同时向另一半的用户隐瞒这个信息?
从效率最优和体验最优的角度来看,这也会发生。
在一个导航应用面前,人类所谓的自主性其实是个泡沫,人类贡献信息铸就一个数据上帝,然后又听从这个数据上帝的指挥。每个想逆其道而行之的人,都会被拥堵制裁。
▲ 电视剧《三体》还原了「人列计算机」
科幻小说《三体》里有一个更为极端的场景,在小说里面有一个虚拟的游戏叫《三体游戏》,玩家需要解出三体运动的答案,虚拟的冯·诺依曼找到了虚拟的秦始皇,秦始皇基于冯·诺依曼架构,召集 3000 万名士兵,通过每个士兵举旗的方式模拟计算机的二进制运算,组成了一个人列计算机。
这个时候,3000 万名士兵,就相当于 3000 万个晶体管,当他们听从指挥的时候,哪怕是在秦朝的背景下,也能展现出当代计算机般的运算能力。
虽然「算法」这个词并不是那么美好,但太多太多的例子告诉我们,不听算法言,吃亏在眼前。
就好像打车应用一般情况下不会用显性的惩罚去约束司机,但评分较低的司机获得优质订单的概率会更小一样,算法的大手就像佛祖的五指山。
而哪怕是对自己车技再自信的人也会承认,如果算力和传感器继续发展,人类把所有的驾驶行为都交给 AI,那么车祸率和拥堵率都会大大下降。
我们已经到了不得不承认 AI 可以是某个社会领域更好的解法的阶段,人类最好甘愿服从算法,为算法贡献数据,但不少人还在对 AI 是不是个人更好解法存在怀疑。
元力科技首席战略官 Frank 在采访里提了一个例子,现在一份《纽约时报》的信息量,相当于 17 世纪一名伦敦市民一整年的信息获取量。
而现在摆在当代人眼前的信息是无限的,只要我们愿意,我们可以一天看 16 个小时的报纸,一天摄入的信息是几百年前伦敦市民一辈子摄入的信息。
但人类的进化速度完全没法跟上信息爆炸的速度,这个时候 AI 也可以成为个人的解法。
按照这个角度看,ChatGPT 这种也只是比较初级的信息处理方式,诸如能帮助用户完成一定任务的 AI Agent 智能体最近进展不错,包括未来的通用人工智能 AGI 也被认为极有可能实现。
信息和人的关系,与信息的数量和密度息息相关,书籍时代,人们修《四库全书》,按经史子集分类,方便自主检索,这已然是人类面对海量信息催生出来的便捷信息处理方法。
搜索行为与之神似,信息进一步爆炸之后,基于用户画像的标签算法进一步帮人类过滤和筛选信息,形成高效信息匹配与所谓「信息茧房」的双刃剑,从 ChatGPT 这样的 AI 工具,到初见雏形的 AI Agent,其实人类在此之中处理信息的效率一步步提升,同时自身需要做的工作越来越少。
前面说到的 GEO 等等,不过是这种人类处理信息行为迁徙里的一些伴奏。
感官,与人类的自由意志
且不说 AI 取代人类工作这样的话题,光是看看我们在使用 AI 工具得到的结果可能被 GEO 优化过,导航明明有更畅通的道路却不提供给我,服从算法的调剂反而可以获得更好的体验实现自我更大的价值这些结论,就仿佛人文主义正在向 AI 投降,自由意志已被算法枪毙。
不过有句话说得很好:为什么说人类的容错率大得惊人?因为人类的主线任务其实就是搞到每天 2000 大卡的热量,再找一个保证热量不流失的地方,其他所有的都是支线任务。
在采访机械外骨骼创业企业 HyperShell 创始人的时候,其创始人说:
用不同的技术去增强人类本身,一定是人类文明的下一个演进阶段,这趋势我觉得是正确的,只是技术类型有很多,AI 也是一种对人的增强,只是它增强的是人的脑力,人的信息获取能力还有逻辑推导能力。
人类增强这件事是未来 10 年,20 年非常重要的技术方向,我们在做的其实只是其中一个细小的分支。外骨骼其实就是人和物理世界进行交互的介质,可输入,可编程,可数字化,它要实现的就是我们在物理世界的增强现实,来实现人的自由意志。
像钢铁侠那样的装甲和人工智能,在未来是可以想象,也可以触及的。
《未来简史》里提到了一个重要的概念,就是当代人类的感官体验和心理状态异常狭隘。
感官体验上,人类只能见到波长在 400 纳米到 700 纳米之间的电磁波,也就是人类视角的可见光,但皮皮虾拥有 16 种视锥细胞,能看到紫外线、红外线,甚至于偏振光,这个世界对于皮皮虾来说更为多彩绚烂。
但只有 3 种视锥细胞的我们还没法体验皮皮虾的视觉,就像听觉上蝙蝠可以听到人类意义上的超声波从而避障,但人类却充耳不闻一样。
不光是我们无法拥有其他动物的感官体验,远古时期人类可以通过嗅觉来感知他人情绪,古部落在争论是否要和隔壁部落开战时,只需要通过气味就能知道大家的想法,因为在鼓舞和恐惧等情绪下,人类会散发不同的气味。不过由于人类发展过程中,视觉和听觉更为重要,人类的这种嗅觉能力退化殆尽。
作者尤瓦尔·赫拉利在《未来简史》里提到了诸多类似的例子来佐证人类心智状态的愈发狭隘,并且最终指向人类可以利用技术完全控制心智状态,即「人类过往是升级版的大猩猩,未来则是放大版的蚂蚁」。
这个论断和前面说到的 Waze 导航,以及三体游戏里用 3000 万士兵组成计算机一脉相承。
的确如此,比如我们看到有人去尝试翼装飞行或者徒手攀岩这种死亡率很高的运动时,佩服和羡慕之余,心里也会评价这是「疯子行为」,另一方面,在死亡边缘徘徊所获得了心智体验,又是极为难得的。
前几年「元宇宙」概念火的时候,主张人类躲进虚拟世界沉迷虚幻享乐的「元宇宙」派和主张开拓真实物理世界人类走向星辰大海的「飞船派」一直有争论。
但当下的事实就是,与 AI 浪潮伴生的,还有「具身智能」,「脑机接口」以及「人类增强」等等,虽然物理世界的进化速度慢于代码构筑的世界,但以人类之多样性和求知探索欲,「元宇宙派」和「飞船派」当然是各有拥趸乃至融合共生的,就像如今智能汽车领域,代码和机械一样重要。
我们并非时时刻刻都坐在车上接受导航的指引,也不是科幻小说里单一场景的举旗小兵,以超然之上的上帝视角看,人类确如蝼蚁,而在平视角度看,周围是具身智能机器人,戴着内置 AI Agent 的智能眼镜,身穿提供数百马力的机械外骨骼,那我们就是可以上天遁地,时时刻刻都能翼装飞行徒手攀岩并且不惧死亡威胁的钢铁侠。
或者更疯狂一点,技术能够让我们也能体验皮皮虾的视觉,蝙蝠的听觉。
也恰好是今天,特斯拉公布了他们的《宏图计划第四篇章》。与以往聚焦汽车或能源产品的蓝图不同,特斯拉这次描绘了一个更遥远、也更理想化的终点:一个由 AI 和机器人主导的「可持续富足」的社会。是的,特斯拉的战略重心已经从「可持续发展」,转向了对未来社会形态的构想。
这起码意味着,由 AI 和机器人主导的「可持续富足」的社会实践进入到了工程阶段,而不是科幻描述阶段。
也许我们被迫了许多,但自由意志依然存在,并比以往更强。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。