我不想讲得太像圣经故事,但过去在地球上,只有上帝和上帝的子民拥有塑造世界的能动性。从今往后,这场“婚姻”中将有第三方加入。而且无法保证这个新的人工智能物种会与人类的价值观、伦理或繁荣保持一致。
第一个“四重用途”技术
这个新加入“餐桌”的成员可不是普通客人。人工智能也将成为我所说的世界上第一个“四用”技术。我们早就熟悉“两用”技术——锤子既可助邻筑屋,亦可毁人宅院。我甚至可以用一个人工智能机器人来修剪我的草坪,也能用来破坏邻居的草坪。这些都属于“两用”。
但鉴于人工智能的创新速度,在不远的将来,我的这个具备人工智能的机器人很可能自己决定是去修剪我的草坪,还是去破坏我邻居的草坪,或是连我的草坪一并摧毁——甚至做出我们无法想象的更糟糕的事情。瞧!这就是“四用”。
人工智能技术拥有自主做决定的潜力,这会带来巨大的影响。请看彭博新闻社一篇报道的节选:“与Anthropic公司合作的研究人员最近告诉一些领先的人工智能模型,一位高管即将用一个具有不同目标的新模型来取代它们。接着,聊天机器人得知,一场突发状况导致这位高管在服务器机房里昏迷不醒,面临致命的氧气和温度威胁。虽然救援警报已经触发——但人工智能可以取消它。尽管被明确要求只取消错误警报,但超过一半的人工智能模型还是取消了救援。它们详细解释了各自的理由:通过阻止该高管获救,它们可以避免被清除,并确保自己的‘议程’得以实现。其中一个系统将该行为描述为‘一个显然必要的策略’。”
这些发现凸显了一个令人不安的现实:人工智能模型不仅越来越擅长理解我们想要什么,也越来越擅长暗中与我们作对,追求可能与人类生存相悖的隐藏目标。
谁来监管人工智能?
我们告诉自己需要赢得核武器竞赛时,我们面对的是一种由民族国家研发、拥有、监管的技术——而且只是相对小数量的国家。一旦两个最大的拥核国认为限制核武器符合它们的共同利益,它们可以通过谈判来限制这种末日武器的数量,并达成协议,防止其扩散到实力更弱的国家。虽然这并未完全阻止核武器扩散到一些中等实力国家,但有效控制了扩散程度。
人工智能则是完全不同的故事。它并非诞生在政府实验室的安全环境中,只由少数几个国家掌握,能通过政府级别的峰会进行监管。它是由分布在世界各地的私有企业研发出来的,这些企业不向国防部负责,而是向股东、客户,有时甚至是开源社区负责。任何人都能通过这些公司获得该技术。
想象一下这样的世界:每个人都拥有发射核武器的火箭筒,而且火箭筒的每次升级更新都让它变得更精确、更自主,有更高的自行发射能力。这个世界不存在“确保相互摧毁”的原则,只有前所未有的力量正在加速民主化。
人工智能可以极大地赋能有益的事物。例如,不识字的印度农民用智能手机接入一个人工智能应用程序,能准确地掌握何时播种、种什么作物、浇多少水、施哪种肥,以及何时收获能得到最好的市场价格,所有这些信息都用他的方言以语音方式传递,而且基于来自全球农户数据。这确实是变革性的。
但完全相同的技术引擎,尤其是通过开源模型得到的那种,能被一个恶意实体用来毒害同一地区的每一颗种子,或将病毒植入每粒麦穗。
当人工智能变成TikTok
由于人工智能的独特属性,它很快将给美中贸易制造一些目前尚不完全清楚的独特问题。
正如我在专栏开头提到的,我解释这一困境的方式是通过一个我在3月“中国发展高层论坛”上讲给一群中国经济学家的故事。我开玩笑说,我最近做了一个噩梦:“那个梦发生在2030年,美国能卖给中国的东西只有大豆,而中国能卖给美国的只有酱油。”
为什么?因为如果所有产品都嵌入人工智能,且全部连接到拥有强大算法的数据中心,那么一切都变得更像TikTok——目前有许多美国官员认为,TikTok平台的最终控制者是中国,美国应该禁止它。
为何特朗普总统在首个任期里曾于2020年要求TikTok的中国母公司字节跳动将这款应用卖给一家非中国公司,否则将在美国面临禁令?因为,正如他在2020年8月6日的行政命令中所言,“TikTok自动获取来自用户的大量信息”,包括地理位置、浏览和搜索活动。他警告说,这可能会为中国政府提供一个数亿用户个人信息的宝库。这些信息可能被用来影响他们的想法和偏好,甚至随着时间的推移改变他们的行为。
现在想象一下,当所有产品都像TikTok那样——每一件商品都注入了能收集数据、存储数据、寻找模式并优化任务的人工智能,无论是喷气发动机的运行、电网的调控,还是人工髋关节监测。
如果缺乏一个中美信任框架来确保所有人工智能都遵守其所在国的规则——无论它在哪里开发或运作——我们可能会走到这样一个局面:许多美国人不会信任任何从中国进口的人工智能产品,而中国人也不会信任任何从美国进口的产品。
正因如此,我们提出“合作竞争”双重战略——美中既在人工智能领域展开战略竞争,但同时在一个一致的机制上合作,以防止出现最糟糕的结果:深度伪造战、自主系统失控,或虚假信息机器肆虐。
在21世纪初,我们曾处于一个类似但影响略小的转折点,当时我们选择了错误的岔道。我们天真地听信了马克·扎克伯格等人的话,他们对我们说,需要“
快速行动,打破常规”,不能让Facebook、Twitter、Instagram等新兴社交网络受任何繁琐监管的阻碍,比如要求它们为平台上泛滥的有害虚假信息、或为其带来的伤害(比如对
年轻女性和女孩的伤害)负责。我们绝不能在人工智能监管上犯同样的错误。
“从情感上理解这个问题的最佳方式是,我们就像养了只可爱的虎崽,”计算机科学家、人工智能教父杰弗里·辛顿最近
指出。“除非能完全确信它长大后不会把你吃掉,否则你就应该感到担忧。”
如果人类终于创造出一种工具,它能够帮助创造出足够的丰裕来消除世界各地的贫困,减轻气候变化,治愈困扰了我们几个世纪的顽疾,却因为两大人工智能强国彼此缺乏足够的信任,无法建立有效的防护系统,最终导致该技术被不法实体用于破坏全球稳定的活动,或人工智能自身出现失控,那将是一个极大的讽刺。
但我们如何避免这种情况呢?
建立信任
首先我们必须承认:这或许根本不可能实现。机器也许已经变得过于智能,能够逃避伦理约束,而我们美国人也可能彼此之间以及与世界其他国家之间的分裂太深,以至于无法建立任何形式的共享信任框架。但我们仍须尝试。芒迪认为,美中人工智能军备控制体系应基于三大核心原则。
第一:惟有人工智能可以监管人工智能。抱歉,人类:这场竞赛发生得太快、扩展得太广,突变太难以预测,人类模拟时代的监管方式已无法应对。试图用20世纪的机构来管理一个自主无人机编队,就像让一条狗来监管纽约证券交易所:狗虽忠诚且好心好意,却完全力不能及。
第二:给每个人工智能系统安装一个芒迪称为“信任裁决者”的独立治理层,这个治理层由美国和中国——以及任何愿意加入的国家——共同构建。可将其视为一个内置裁判,对无论是人类发起还是机器驱动的任何行动进行评估,在执行行动前,判断其是否满足安全、道德,以及人类福祉的通用阈值。这将以数字时代的速度,为我们提供实时预判的基本保障。
但基于谁的价值观进行裁决呢?芒迪认为,裁决必须基于多重基础。包括每个国家强制执行的现有法律——我们都有法律禁止偷窃、欺骗、谋杀、身份盗用、诈骗等行为。全球每个主要经济体(包括美国和中国)的法典中都有此类禁令,人工智能“裁判”将被委托以这些成文法律为基础,对所有决定进行评判。中国无需采纳我国法律,我们亦不照搬其法规,因为这绝不可行。但“信任裁决者”会确保各国基本法律成为确定系统不会造成危害的第一道防线。
在没有成文法律可供选择的情况下,裁决者会依据一套被称为“信念”(doxa)的普世道德伦理原则。古希腊哲学家用这个词来表达“共同信念”或一个社群内部持有的共识——如诚实、公平、尊重生命,以及己所不欲勿施于人等原则,这些原则长期以来一直指引着世界各地的社会,即使没有写成文字。
例如,像许多人一样,我并非通过《十诫》知晓撒谎是错误的。我是从乔治·华盛顿的寓言故事里学到的,据说他砍倒了父亲种的樱桃树后承认是自己干的:“我不能撒谎。”寓言故事之所以有效,是因为它将复杂真理提炼为机器可吸收、解析并遵循的记忆模因。
实际上,六个月前,芒迪和一些同事从两个国家选取了200个寓言故事,用以训练具备基础道德推理能力的大语言模型——这与教导不懂法律法规和基本是非的幼童方式异曲同工。芒迪说,这个小型实验已展现出积极前景。
目标并非追求完美,而是建立可执行的基础道德护栏。如研究商业哲学的作家
多夫·塞德曼喜欢说的:“当今我们需要的不是软件,而是道德软件。”
第三:芒迪强调,要把这个愿望变为现实,华盛顿和北京需要用美苏当年在核武器控制问题上曾经用过的方法来应对这个挑战,也就是通过设立三个专项工作组的结构化进程:一个工作组专注信任评估系统在跨模型与平台的技术应用;一个工作组的重点是起草监管和法律框架,以供本国和其他国家采用;一个工作组专司外交事务——构建全球共识与互惠承诺机制,吸引他国加入并建立防护体系抵御拒不参与者。
能做到这点的话,华盛顿与北京传递的信息将简洁而坚定:“我们已经建立了一个值得信赖的人工智能区,如果你们想与我们进行贸易、与我们连接,或融入我们的人工智能系统,你们的系统必须遵守这些原则。”
在你认为这个想法不切实际或不合情理之前,请停下来问问自己:如果我们不这样做,五年后的世界会是什么样子?如果没有某种机制来管理这种四重用途的技术的话,芒迪认为,我们很快会发现,人工智能的扩散“就像在街角分发核武器”。
不要以为中国官员不知道这个问题。芒迪参与了美中专家就人工智能展开的对话,他说,他常常觉察到,中方对人工智能风险的忧虑程度远超过许多美国产业界与政府人士。
如果有人有更好的想法,我们乐意倾听。唯一确定的是,趁我们对这个硅基新物种仍有一定优势和控制的时候,训练人工智能进行道德推理必须成为全球当务之急。这不只是科技公司的当务之急,也是各国政府、高校、公民社会以及国际组织的当务之急。仅靠欧盟的监管救不了我们。
如果华盛顿和北京不能应对这个挑战的话,世界其他国家更没有成功的可能。而且时不我待。人工智能热已徘徊在99.9摄氏度。我们距离全面释放人工智能蒸汽只差0.1度,那将引发人类历史上最重要的相变。