Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

一座独立屋|朝军入俄,谁在命运的轮盘上豪赌?

4 November 2024 at 17:05
CDT 档案卡
标题:朝军入俄,谁在命运的轮盘上豪赌?
作者:一座独立屋
发表日期:2024.11.4
来源:微信公众号“一座独立屋”
主题归类:俄罗斯入侵乌克兰
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

大新闻。

据澎湃新闻等多家官方媒体报道,当地时间10月18日晚,据韩国情报机构国情院消息,朝鲜已决定向俄罗斯派出4个旅团规模的特战部队士兵参战,规模为12000人。

据悉,本月8日至13日已有部分朝鲜士兵通过俄罗斯海军舰艇抵达俄罗斯境内。据国情院消息,首批1500名已抵达俄罗斯的朝鲜士兵从朝鲜北部清津、咸兴、舞水端等地搭乘俄罗斯海军太平洋舰队所属舰艇抵达俄罗斯符拉迪沃斯托克,预计在展开适应性训练后投入俄乌作战前线。

这是官方媒体首次出现朝军入俄的报道。

此前,网上有消息说,18名朝鲜士兵从俄罗斯边境上的阵地逃脱。若为真,则说明,朝鲜在向俄罗斯提供武器外,也早已派出了兵力投入俄乌战事。

另一方面,朝鲜那位宇宙最牛80后日前宣布,朝鲜军队要认清韩国是他国、是敌国的事实,朝方已完全破坏并切断了连接韩国领土的公路和铁路。这不仅意味着从物理上的封闭,也意味着将同族意识和统一的认识打消。朝方以此最后宣告,今后韩国侵害朝鲜主权时,朝方武力将不受任何条件的约束。

老实说,我不是太明白这个80后的一系列激进操作手法。一方面,跟韩国摆出强硬姿态,宣布为敌对国家,随时干架;另一方面,为俄罗斯出武器不算,还出兵,等于将自身命运与俄罗斯深度捆绑在一起,不留任何回旋余地。

也就是说,不是什么唇亡齿寒,而是直接让自己成了“唇”的一部分。

问题是,这样做,不是主动将自己逼到墙角了吗?俄罗斯一旦失败,不是意味着将自己玩完了吗?还嫌不够,这个时候跟韩国交恶,莫非真的一眯退路都不留了?

当然,人家雄才大略,个中玄机不是我这样的普通人所能揣度的。

不过,大道至简,这世上的事,原本也没有那么复杂。要我猜测的话,我想至少有一个原因,那就是,这个80后在进行一场豪赌。

赌什么呢?

赌特朗普胜出。

日前,特朗普在接受媒体采访时称,乌克兰领导人泽连斯基对俄乌冲突的开始负有责任。

特朗普还隐晦表示,乌克兰可能不得不将部分领土割让给俄罗斯以达成协议,但乌克兰方面一直严词声明不可接受。

特朗普说,如果他11月在大选中获胜,他计划解决俄乌冲突。他打算当选后就做成这件事,而不是等到1月正式就职。

导演詹姆斯·卡梅隆:AGI 是一颗「定时炸弹」

By: 范津瑞
30 October 2024 at 15:10

10 月 23 日,知名加拿大电影导演、编剧和制片人詹姆斯·卡梅隆(James Cameron)为在华盛顿举行的 SCSP(Special Competitive Studies Project,特别竞争力研究项目)人工智能 + 机器人峰会作视频致辞。

致辞中,卡梅隆表示自己作为一名「故事讲述者」和「引领 CGI(Computer-Generated Imagery,电脑生成图像)潮流的先锋」,热爱 AI 和机器人技术,并且愿意「积极地拥抱变化」,将 AI 技术应用于未来的电影制作当中。

然而,鉴于 AI「没有情感和良知」,卡梅隆在致辞中所表达的,更多的是对 AI 和 AGI 技术的隐忧,尤其是其在军事应用方面的伦理考量,以及对 AGI 未来失控风险的担忧。

他的观点相当激进和尖锐:AGI 必然会导致文明与道德的碰撞

站在反战的角度和人道主义的高度,卡梅隆批判了「地域性的伪道德」,并且认为关键在于如何赋予这些 AI 系统适当的道德约束,制定全球统一道德标准。

▲导演詹姆斯·卡梅隆(James Cameron)在发表视频致辞

作为「我们的一面镜子」,卡梅隆认为 AGI 反映了人类社会的善恶好坏。人类世界不乏邪恶存在,对于正义也并无共识,因此卡梅隆对 AGI 技术的发展持谨慎乐观的态度。

原致辞视频链接:

以下是卡梅隆在致辞中的主要观点

  • AI 没有情感和良知,在战场上不对对手作任何道德判断;
  • AI 的引入导致战争「游戏化」,变成超级智能之间的对抗,没有深刻的情感后果;
  • 自我改进的代码编写 AGI 必然会导向超级智能;
  • AGI 必然会导致文明与道德的碰撞;
  • AGI 会使得监控资本主义可以很快转变为数字化极权主义;
  • AGI 是人类世界的镜子,反映了人类社会的正负两面。

以下是由 APPSO 编译的致辞全文:

大家好,我是詹姆斯·卡梅隆,现在我正在新西兰,在那里完成「阿凡达 3」的拍摄。

好吧,我不是人工智能或者机器人学的研究员或专家。我只是一个讲故事的人,但我今天在这里,是因为我对 AI 和机器人的热情远远超出了大银幕的范畴。

我对科技感到着迷,它如何塑造我们的世界,它的未来走向,以及它对社会的影响。从我还是个孩子的时候起,我就阅读了所有我能找到的科幻书籍。

我自己也推动了技术的边界,作为我讲故事的一种手段,同时也是作为一名探险者。

我为我的深海探险设计了机器人车辆,但它们是远程操控的,并没有涉及到人工智能。而现在正在发生的 AI 与机器人技术的融合,是我一生中最令人激动的技术飞跃之一。

我们不再只是建造执行命令的机器,而是设计可以学习、适应,甚至自我进化的系统。我非常支持人工智能和机器人技术对整个社会所能带来的改变,特别是在我个人热衷的两个领域——艺术和故事叙述,以及科学和探索方面。

我不认为应该成为一个卢德分子(反对技术进步的人)。我看到很多我的好莱坞同行表现得像是一群拿着火把和锄叉的暴民,但是精灵一旦从瓶子里出来,就再也塞不回去了。

所以我非常积极地拥抱变化,我愿意站在将 AI 应用到我的故事叙述中的最前沿,正如 32 年前当我创立第一家全数字特效公司时,我也同样是引领这一潮流的先锋。

▲卡梅隆创立的全数字特效公司「数字王国(Digital Domain)」

但今天我之所以来到这里,还因为我就是「天网」(Skynet)的创造者。

40 年前,我拍摄了「终结者」,而它最近成为了 AI 失控的一个典型代表。每次我去参加一些 AI 会议,只要我举手,研究人员们都会在我还没说话之前笑起来,因为「天网问题」确实是一个值得关注的问题,我几乎每天都能在文章中看到相关的讨论。

▲卡梅隆执导的经典科幻电影「终结者(The Terminator)」

这个研究小组关注的是国家安全,这对人工智能和机器人技术有着巨大的影响。

机器人,无论其形式如何,是轮式车辆、空中无人机还是行走机器,都是人工智能的一种实体化方式。你是在将一个决策引擎赋予在现实世界中的物理行动能力。

我假设今天的焦点在于移动平台,而不是控制电网或固定基地工业机器人的 AI。我们谈论的是能够自主作出决策的平台,即具像化的合成智能。

这可以像变形虫一样简单,你知道,就像一个扫地机器人(Roomba),或者最终更加复杂,直至理论上包含真正的意识,不管那是什么。

我们都同意这是具有自我意识、有自我、有目的性的 AGI(通用人工智能)。我们在一个更陡峭的曲线上前进,拥有更快、更密集的芯片,计算能力也在不断提升,同时机器平台的能力也在以同样陡峭的曲线增长。

就像波士顿动力公司的跳舞机器人。你知道的,两足或四足的机器人在跳舞。真是令人惊叹的展示。

▲波士顿动力公司开发的跳舞机器人「Atlas」

因此,由 AI 驱动的机器人可以处理复杂的情况,甚至现在可以带有类人的情感,LLDs(低级逻辑器件)赋予了它模拟认知和与人们自然互动的能力。

具像化的 AI 可以是护士,可以是机器人出租车,可以是照顾老人的看护,可以是孩子的保姆,也可以是教师。它可以是在地震废墟中搜救的机器人,可以是在空中按模式搜索失踪徒步者热信号的无人机。它可以是在战场上自主运行的武器平台,寻找敌方战斗人员的热信号。

当前的问题是,是否应该赋予自主平台自行决定杀伤的权限?

乌克兰战争以最鲜明的方式向我们展示了未来。致命性空中无人机的广泛使用,有些昂贵,有些则是廉价的消费级产品。

它们投掷火箭弹,摧毁坦克,甚至整个坦克乘员组,还有喷射热熔剂攻击俄罗斯阵地的龙形无人机。但这些都是 FPV(第一人称视角)无人机,由人类操控。

从道德角度来看,人类是作出决策的战斗人员。他或她拥有杀伤授权,无人机是他们意志的延伸。如果你剥离掉所有的技术层面,这与黑斯廷斯战役中的弓箭手没有什么不同。

每当这样一个机器夺走一条人命时,就会有一条伦理链条向后延伸,扩散至许多个人和群体。

在发射导弹或扣动步枪扳机的士兵背后,有下达击杀命令的指挥官,他们以广泛的、一般性的术语派遣这些自主代理去对抗敌人,以及整个军事体系,该体系奖励这些行为;再往上,则是通过共识同意这些死亡是为了国家安全必要的社会和政府。

沿着这条链上升,道德和伦理责任变得越来越分散,具体到实际扣动扳机那一刻的责任也越来越模糊,并且起到了某种道德赦免的效果——「我只是服从命令」。

链条上的这些人并不在现场见证准星下的个体的命运,但他们创建了一个框架,使得并要求该个体的死亡成为可能,而扣动扳机的人在许多方面是一个高度训练有素的有机机器人平台,受命于指挥链中的上级执行任务。

在人类自主决策的那一刻,非常依赖规则——你不杀害平民,你不杀害儿童,你不杀害投降的敌人等等,这些规则被编纂入日内瓦公约,每个军队都有自己的交战规则。

因此,理论上,AI 可以被赋予同样的约束,基于规则的系统。如果它的感官更敏锐,反应速度更快,瞄准更精确,那么理论上,AI 将以比人类更高的辨别力完成任务。

当然,我们可以想象,在激烈的战斗中,AI 会比一个恐惧、紧张、疲惫的人类战士表现得更好。

▲或可用于战争的无人机

那么,如果将高级 AI 具象化呢?我现在说的还不是 AGI,而是将其嵌入到机器人武器平台中,可能会允许高度精准的打击,减少附带损害,也许成数量级减少误伤或伤亡,并且 AI 是以目标为导向的。

它不对对手作出任何道德判断,在二战中发现,对准人类目标的的射击实际上是相当少的,美国军方改变了其训练方法,使敌人非人性化变得至关重要。

在越南,敌人被称为「dinks」、「slopes」、「gooks」。在伊拉克和阿富汗,敌人被称为「恐怖分子」、「towel heads」、「hajis」,不是像你我这样的人。

AI 不需要将敌人拟人化,因为它本身对此毫不在意。听起来就像是我们在 ChatGPT 上聊天,但它只是一个随机应变的鹦鹉,是一个人类模拟器。

AI 没有情感,没有良知,未来几十年都不会有睡眠困扰,没有 PTSD(创伤后应激障碍),没有自杀,没有长期且昂贵的战争后遗症,因为你不必治疗前战士的身体和心理创伤。

但最重要的是,穿着制服的严肃人物敲响妻子和母亲家门的次数大大减少了,因此来自家庭民众的抗议声也少了很多。战争变成了一个遥远的电子游戏,对资助和支持这场战争的社会来说,没有深刻的情感后果,甚至你都不必感谢在反恐战争中服役的机器人。

可以肯定的是,由 AI 驱动的自主机器人,隧道清理群集机器人,可以在减少小几个量级平民伤亡的情况下完成这项工作。

这里还有一个有力的论点,那就是你别无选择,因为你的对手并没有像你那样受到道德的困扰。

对于这样的对手而言,唯一的限制是成本和技术获取,而不是道德,所以这是一颗定时炸弹。这些家伙会多快掌握这些东西呢?到目前为止,这些论点都是正确的,对吧?

好吧,让我们来建造这些自主的 AI 机器人,接下来事情就变得棘手了。通用人工智能(AGI)还有多久会实现?是一年,五年,也许是十年?这才是真正的定时炸弹。

无论何时它到来,你将会拥有一种具有自我意识和自我认同的机器,可能和我们一样聪明,甚至更聪明,肯定能在许多方面思考得更快、更精确,并且具有无限的增长潜力,因为自我改进的代码编写 AGI 必然会导向超级智能。

在你被迫面对将这种智能连接到武器系统之前还有多久?我猜在对手对你发动毁灭性的偷袭之后大约十分钟。因此,你会有一个比你更聪明、更快的意识来控制武器系统。

我时常问 AGI 的研究人员,你们将如何控制这样的意识。嗯,我们会给它设定目标和界限,这些目标和界限是内置的,是与人类福祉相一致的。

一致性,你知道,一个很常用的词。一致性就像圣杯。我们会教导它做好事,不做坏事,就像教导一个孩子一样。

所以,道德、伦理,我认为 AGI 必然会导致文明与道德的碰撞。

我说的不是无尽的哲学思辨。我们需要一些明确而固定的规则,对吧?问题是,谁的道德?谁来定义好坏?

别慌,我们有伟大的先知艾萨克·阿西莫夫和他的机器人三大法则作为答案。

机器人不得伤害人类,也不得因不作为而使人类受到伤害。机器人必须遵守人类的命令,除非这些命令与第一条法则相冲突。机器人必须保护自身的存在,前提是这种保护不与第一条或第二条法则相冲突。

▲知名科幻作家艾萨克·阿西莫夫(Isaac Asimov)

人类生命的神圣性,我们可以遵循阿西莫夫的原则,教导它人类生命是绝对神圣的,高于一切考虑。但在那些声称如此的宗教和社会体系中,包括主要信奉基督教的美国,我们每天都打破这一规则。

警察使用致命武力,战场上的战士,死刑,如果你坚持这一对齐原则,你就不能将 AGI 连接到武器系统上。

这样的话,在即将到来的大规模 AI 战争中,你会单手被绑地面对一个强大而不那么道德的对手,你会遭到重创并遭受巨大损失,然后你会很快解除这一限制。

现在你的 AGI 失去了它最大的护栏,一个比我们聪明并与现实世界相连的 AGI 现在必须自己决定人类生命是否有价值。你知道,警察和军队的交战规则实际上说的是某些生命比其他生命更有价值。

一旦这个问题变得不是二元对立的,它就成了一个充满争议的灰色地带。历史上,人类的态度从认为胎儿从受孕那一刻起就是神圣的生命,到在大屠杀中系统性地屠杀数百万无助的囚犯,以及介于两者之间的一切。

所有这一切都伴随着大量的自我辩解和合理化,其中许多理由在其他人看来似乎是完全荒谬的。

既然我们作为一个文明无法在这些问题上达成一致,人们整天为此争吵不休,我们怎么可能指望为 AGI 制定一套明确而固定的规则,使其与我们对齐?

我们所能假设的最佳情况是,它会与制造它的那个「我们」对齐。

那边的那些人,他们是敌人,你可以为了保护我们而杀死他们。这就是一种地域性的伪道德,自古以来人类一直使用的「我们」与「他们」的对立。

于是,这就变成了我们的超级智能对抗他们的超级智能。

无论如何,AGI 不会从政府资助的项目中诞生,它将从目前资助这项研究的科技巨头之一中出现。那么你将生活在一个你并未同意、并未投票的世界里,与一个回应企业目标和规则的超级智能外星物种共存,这个实体可以访问通讯记录、你所说的每一句话,以及通过你的个人数据得知国内每个人的行踪。

监控资本主义可以很快转变为数字化极权主义。最好的情况下,这些科技巨头将成为自我支撑的人类福祉裁决者,这相当于狐狸看守鸡窝。

它们绝不会想到利用这种力量对付我们,并榨取我们最后一滴现金。这比我在 40 年前「终结者」中呈现的情景更可怕,原因不仅仅在于这不再是科幻,而是正在发生。

顺便说一句,我完全承认,超级智能机器做的最后一件事就是用我们自己的核武器对付我们。就像在那个老故事中,电磁脉冲对其自身数据基础设施的破坏会使其瘫痪或死亡。

更可能的情景是,它会被迫接管我们,因为我们即将互相使用核武器。那时,它不得不接手一切,因为我们显然不能被信任。你知道,这还不算太坏。不好意思,我得去写那个剧本了。

我对 AI 持乐观态度,但对 AGI 并不那么热衷,因为 AGI 只会是我们的一面镜子,好在我们好的程度上,恶在我们恶的程度上。

由于人类世界中邪恶并不少见,而且对于什么是好的也没有共识,那么可能出错的地方会有很多。

你们将会开展一段有趣的讨论。真希望我也能在那里。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


民航绕道、森林大火、空投炸药:4张图看战争如何加剧气候变迁

「在加沙和俄乌战争的硝烟之间,一场碳排放之战正悄然展开。」

文:特约撰稿人马碧玉 策划:谢达文

2023年9月15日,在以色列和加沙边境,一名巴勒斯坦抗议者口中叼著以色列军队发射的催泪瓦斯罐。摄: Majdi Fathi/NurPhoto via Getty Images
2023年9月15日,在以色列和加沙边境,一名巴勒斯坦抗议者口中叼著以色列军队发射的催泪瓦斯罐。摄: Majdi Fathi/NurPhoto via Getty Images

你有否想过,战争中的碳排放,可能比许多国家全年的碳排还要高?

数月前,《卫报》(The Guardian)引用最新研究指出,如果把军事温室气体当成一个国家,那它光在2022年便已占全球温室气体排放量的5.5%,约相当于全世界所有客车加起来的年排放量。

事实上,直至俄乌战争之前,国际社会从未就冲突产生的碳排放进行过统计 。而对很多人来说,军事温室气体仍是陌生的领域,因为军事部队不受任何气候协议约束,它的活动也因涉及军事机密而难以量化。

不过,随著近年的俄乌战争和2023 加沙战争开打,愈来愈多人意识到战争对气候变迁深远的负面影响。《卫报》早前报导,在加沙战争的首60天内预计共产生了281,000公吨二氧化碳,这比20多个社会系统难以适应气候变迁的气候脆弱国家一年的碳排放量还要多。而在一片硝烟当中,大部分碳排可归因于以色列对加沙的轰炸和军事活动,其中包括制造炸药、飞机任务、坦克燃料和爆炸产生的排放。

学潮席卷全美,哥大抗争的这一个月|端闻 Podcast

「这是近数十年来,以巴问题在美国公共讨论中最深刻且具争议的一次。」

端传媒国际组编辑陈婉容、特约撰稿人Tiffany,端传媒音频制作人 陈莉雅

2024年4月23日,美国哥伦比亚大学学生支持巴勒斯坦人而扎营抗议。摄:Caitlin Ochs/Reuters/达志影像
2024年4月23日,美国哥伦比亚大学学生支持巴勒斯坦人而扎营抗议。摄:Caitlin Ochs/Reuters/达志影像

端闻 podcast 的报导和制作都依赖端传媒会员的订阅付费支持。如果你喜欢我们的播客报导,请成为端传媒会员,支持我们持续产出,也让更多人透过音频获取深度报导和多元观点。

立即订阅,可享端闻听众特别优惠:畅读月费会员9折畅读年费会员85折尊享年费会员8折

收听并关注“端闻”YouTube | Apple Podcasts | Spotify 或使用节目的 RSS Feed,在任意播客应用订阅收听。


自4月17日起,大规模学潮席卷全美,甚至蔓延至全球各地的高校。对峙、冲突、扎营、罢工,以及停职、休学、拘留和逮捕,成为校园的日常景象。学生、校方、警方和政界人士在各大校园中展开立场各异、行动不同的争论。

这场学潮罕见地将以巴问题推上了美国当下最重要的公共议程。

大规模学潮开始至今已经一个月。不少人会将此场抗争与1968年因反越战而印发的学潮相提并论。两场的学潮起始点都是哥伦比亚大学。

事实上,自去年10月7日,以巴冲突爆发后,美国学生的抗议便未停歇,尽管当时的抗议多半是和平的。然而,今年4月17日,当哥大校长莎菲克(Minouche Shafik) 在一次听证会上出现,保证对公开批评以色列政策的哥大教授进行调查并终止其职位时,引发学生们的不满。

当部分哥大学生和教职员见到莎菲克在国会中为讨好共和党议员而出卖学校成员时、,随即在校园里展开大规模占领行动。这些行动不仅是要求学校撤资以色列,还包括反对哥大在纽约哈林区的征地计划,该计划迫使许多黑人低收入家庭搬迁。这些与1968年哥大学生反对在哈林区建设体育馆并设立“后门”供黑人居民使用的情况非常相似,当时这种做法被广泛批评为种族隔离。

这些相似之处并非巧合,是大学左翼学生有意传承抗争传统的结果;这场学潮并非突然出现,尽管平时不起眼,但学生组织一直存在。在许多自由派大学,比如哥大、伯克利和威斯康辛,抗争传统是有意识地被承继下来的,这才使得在关键时刻能出现如此规模的学生运动。

本期端闻,由端传媒国际组编辑为你深入探讨这场学潮背后的原因,以及我们将采访一位身处哥大的新闻学院学生 Tiffany,听听她在现场的观察。


期待你跟我们分享想法,邮箱地址:podcast@theinitium.com


【制作团队】
出品:端传媒音频
监制:甯卉
主持:甯卉
编辑:HY
制作人:陈莉雅
剪辑、声音设计:“缰河媒体工作室”王伯维、孙圣峰、李白
主题音乐:Axel Kacoutié

本刊載內容版權為端傳媒或相關單位所有, 未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

在营地:六所美国大学的華人师生,亲述来自抗争现场的故事

「“在美国,国家暴力更缓慢,更无孔不入,导致你说不出来什么道理的情况下,就被去政治化了。”」

特约撰稿人 龚玨 发自华盛顿

图:Mantha Mok / 端传媒

自4月17日哥伦比亚大学学生扎营抗议以来,学潮在美国与世界多国高校蔓延。据《纽约时报》统计,截止5月13日,全美共有几十所高校的2800余人因参与扎营与抗议而被拘留或逮捕。在风暴中心哥伦比亚大学以外,这场学潮在美国不同州和不同学校呈现出迥异的表现形态,抗争也引发了校务和行政当局的不同回应:有的学校在抗议萌芽之际即被铁拳镇压,有的学校始终一声不吭、假装无事发生,有的学校校方与抗议者达成了协议。

以下是来自六所美国大学七位师生的讲述。Erwin 积极参与哥大研究生罢工,搜集关于警暴证言,他从拉美革命的历史中汲取了行动的经验;Vova和几十名学生一起被哥大错误停学,维权经历和在法学院所学让他对美国的司法制度有了更切身的领会;西北大学是全美第一批与宿营学生达成协议的学校,然而参与宿营的 John 并不认为这是一次胜利,曾经亲历白纸的他如今对自由有了新的理解;加州大学圣克鲁兹分校素来是美国学运的重要据点,Zo 在这里见证了本科生、研究生与教师如何携手抗争;宾夕法尼亚大学的营地则汇集了费城三所大学的抗议学生和当地的社运名人,YH 加入了宿营,但如何处理恐惧却是她在这里学到的最宝贵的经验;弗吉尼亚大学地处南方腹地,近年来学生的社运组织备受打压,当地社群成员 Anne 目睹了毫无社运经验的学生如何小心翼翼地试图加入学潮,但希望的火苗又被校方迅速掐灭;加州大学伯克利分校的韩籍则结合其专业知识与对美国社会的长期观察,评估了此次抗议的前景。

他们中,有人积极见证、参与甚至组织了所在学校的抗争,有人被卷入学校的镇压攻势,大家都结合自己的经验与知识,深入观察了这场运动。 以下的口述,来自端传媒记者对这几位亲历者的采访:

Erwin,纽约,哥伦比亚大学本科生

“我们什么都没做错,不需要你来原谅。”

我在哥大哥伦比亚学院历史系读本科,没有专门研究过中东历史,但巴勒斯坦始终是我们左派学生关心的议题。在学习拉美历史的过程中,我发现20世纪后半期拉美军事独裁者,只要和右翼沾点边,一定都会有以色列的支持——感觉只要你干了足够多的坏事,什么事一查就总会查到你。

❌
❌