Normal view

There are new articles available, click to refresh the page.
Today — 4 May 2025中国数字时代

【重温】歪脑|武汉封城5年之后,那些点滴的创痛印记,以及在日常中抵抗失忆的普通人

4 May 2025 at 07:07
CDT 档案卡
标题:武汉封城5年之后,那些点滴的创痛印记,以及在日常中抵抗失忆的普通人
作者:祖唯纳
发表日期:2025.3.5
来源:歪脑
主题归类:武汉封城
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

CDT编辑注:自由亚洲旗下的新媒体平台“歪脑”日前因特朗普行政令而暂停运营。成立于2017年的歪脑主要面向华语世界青年群体传播自由主义价值。本文发表于2025年3月5日。CDT近期将持续回顾歪脑的报道。

一个人能在鼠疫和生活的赌博中所赢得的全部东西,就是知识和记忆。
——加缪小说《鼠疫》

1 当年的志愿者:“武汉哪里还有什么新冠疫情的痕迹?”

“当年做抗疫志愿者的时候,这还是个新车,只开了50公里。现在已经有40万公里了!还有两年就要报废了。”潘欣转着他的方向盘说。这是2025年2月的一天,他的车正穿行在武汉的街巷上。

img

潘欣手机上存档的疫情期间“防控车辆专用通行证”。(祖唯纳摄)

他总有点不相信,2020年1月23日武汉封城,那一天,至今过去已经五年了。那时候,人心惶惶,他刚入行做网约车司机才两个星期。此前他刚从一家倒闭的外企出来,刚30岁,充满了工作激情,总想做点什么。封城了,在家里待着也是无聊,正好领导问他要不要去志愿者,他没有犹豫就报了名。

潘欣是他所在团队的300多个志愿者之一。在全城人心惶惶的日子里,接送了许多前往医院的孕妇、病人以及往返养老院的老人。“刚开始根本不知道怕,到怕的时候已经回不去了。”回顾起来,他说。

潘欣户籍所在地是江汉区,做志愿者在是东湖高新区,因为不能跨区,他整整半年没回家,前两个月就睡在车里,后来才被安排了地方住。

“前两个月是太苦了,吃了两个月泡面。” 记忆中,到现在还是那同一个味道的“红烧牛肉味杯面”。每天,在社区站点的白色工作台上吃方便面,口罩直接拉到下巴处,头上有志愿者字样的红色鸭舌帽也不取下来。刚开始还能接受,可吃到半个月就受不了了,“就算山珍海味天天吃也会腻啊。”他说。但那时物资紧缺,外面援助还没进来,能吃的食物只有泡面加火腿肠,没办法,只能熬着。

其实如果不是被问起,潘欣很少和别人主动说起疫情那几年的事情。

武汉哪里还有什么新冠疫情的痕迹?他想不到,顶多想到雷神山和火神山两座医院——这是市政府为接纳疫情期间的病患建设的临时医院,两家医院,据说用了4万人,各用了10天时间就建成了,当时被官方媒体称为“奇迹”,但现在基本处于关闭状态。“两座医院现在都停了!”他说。语气中带着惋惜。

他的武汉普通话尾音拖长,语调上扬着重复:“新冠疫情都过了好多年了!人们都已经遗忘了。”

但他忘不了。疫情结束了,那些生命里的痕迹还以实体的形式存在着,不经意,就会和他撞个满怀。

他开的比亚迪T3车头上放着一枚“抗疫英雄”的徽章,这算是政府对他当时做志愿者的表彰。武汉市公安交通管理局当年给他的车发的“中心城区专用通行证”的牌子,他也一直保管着,放在车上天天日晒,已经有些褪色了。上面有“2020.04”的字样。当年的4月8日,是武汉解除封城的日子。

img

潘欣后来得到的“抗疫英雄”徽章。(祖唯纳摄)

潘欣自己并不常玩抖音。但疫情那会儿,除了做志愿者接送人,也没别的事情,他就拍下一些穿着防护服、参加培训工作的视频,放在自己的抖音帐号上。这些视频,到现在都还在。他偶尔会打开,帮他回忆起那段时光。他也记得,自己当初做志愿者,并不知道有无补贴。好在疫情结束后,政府补贴了每天六百元。

和潘欣不一样,今年45岁的段师傅沒拿到徽章和补贴,他就做了一个星期的志愿者,帮医生送帽子、衣物等,后来太害怕就没做了。他说,后来全国许多城市都封城,但肯定都没有武汉当时恐怖,他所在的小区里当时有老人死了,尸体停在家十天都没有救护车来。“殡仪馆人都满了。”

段师傅说,现在他对疫情已经没有记忆了,“就当一个经历吧,没有什么特别的。”但真回忆起来,还是有恐惧。“怎么说呢?反正没到我头上吧。”

2 “我会把抖音和新华社、人民日报结合起来看。”

img

华南海鲜市场所在的新华路大道上,路两旁屹立着不少梧桐树,曾经的市场被淡蓝色的围墙挡得严严实实,上面写着“华南市场整体搬迁到黄陂区汉口北大道”的字样。还有一些”社会主义核心价值观”的宣传语和广告。从疫情结束后到现在,这沉默的围墙,是武汉少有的关于新冠疫情曾经爆发过的痕迹。

img

旧华南海鲜市场蓝色铁皮栏上的广告牌。(祖唯纳摄)

“那个市场就放在那,没拆也没用。”潘欣说。至今,他和段师傅都不相信疫情和华南海鲜市场有任何实质关联。段师傅说“华南海鲜市场吃蝙蝠是扯淡。”潘欣也说,武汉人并不怎么吃野味,怎么可能从蝙蝠传到人身上?“这只是政府为了安抚人心的说法。”

至今新冠疫情的起源仍未有定论,华南海鲜市场一度被中国官方解释为疫情爆发的源头。

2020年1月政府关闭了华南海鲜市场,有些摊户被迁到了郊区。如今的市场周围,还有不少眼镜店和小卖铺,但是四五百米内,都很难找到一家开张的餐厅。

img

华南海鲜市场附近的沙县小吃和热干面店都关着门。(祖唯纳摄)

2025年2月,春节过后不久。一位年长的男士牵着一个小孩的手经过这里,他解释说,旁边这些商铺封起来跟华南海鲜市场无关,是要重新装修的,3月就会开张。

他说自己就住在华南海鲜市场附近,起初疫情爆发时,他没有感染。2022年,感染了“奥密克戎”,但“两三天就好了”。说到疫情的来源,他也不相信疫情和华南海鲜市场有关。

2020年3月,时任中国外交部发言人赵立坚在推特上的发言,曾暗示是参加军运会的美国军人将病毒带过来这一说法。疫情爆发五年后,这位先生和我随即交谈的七八位武汉市民一样,都和政府的看法一致。

政府的宣传显然影响到了普通人的判断。段师傅也是他们中的一位。“你听过一个词叫做‘信息茧房’吗?你刷的东西如果是美食、旅游,给你推送的就主要是美食、旅游,我喜欢看军事、政治方面。”他对我说。他承认中国有舆论控制,但自认为现在的中国互联网上,获取信息的渠道也很多,“我会把抖音和新华社、人民日报结合起来看。”

3 消失的一款咖啡,名字叫“吹哨者”,以及“哦,那个死去的医生”

img

武汉地处长江与汉江交汇处,是中国中部最大的城市,九省通衢,同时也是中国铁路网、公路网和华中地区航空的主要枢纽。

2025年的1月23日成了武汉人难忘的日子。五年前这天,武汉宣布封城,在佛山做钢材生意的喻先生当时正在从广东赶回武汉老家过春节,他在路口被拦住做选择:要么现在掉头,要么就走不了,等解封。他选择了回武汉的家,“肯定是要回家过年嘛。”5年后的这个2月,采访中,他对我说。

在武汉,至今“76”都是一个特别的数字。从2020年1月23日封城,到4月8日解封,武汉人整整经历了76天被封锁在家中,几乎完全失去自由的生活。

尽管作为武汉人经历了那样艰难的时刻。但对很多人来说,如今在这座城市,并没有什么地方可以体现出那一段时间武汉人承受的这一切——没有纪念碑、没有展览馆。对他们的痛苦,没有真正的纪念。

img

第一批接受病患的金银潭医院。这是医院汉江北路的健康管理门诊部。(祖唯纳摄)

但总是有一些地方,提醒着人们疫情曾经席卷过这个城市。

疫情爆发后第一批接受病患的金银潭医院就是其中一个地标。这家医院是著名的传染病专科医院,2024年4月,医院宣布正式将感染性疾病区和日常综合医疗服务分区,这象征着它向综合型医院的转变。

医院的健康门诊部位于江汉北路。坐落在社区里,显得静谧,不见了当年的紧张和忙碌气氛。中午十二点多,对面的卤肉大饼店排起了长龙。

同济医院也是首批接诊大量患者的医院,疫情期间特别收治了许多危重症患者。医院的汉口主院区坐落在硚口区解放大道,这条贯穿城市南北的主干道如今车流如织。医院正门旁位于医院一层的急诊部,暮色中,红色标识格外醒目。

钱师傅说,他唯一能想起的、在公开场合能看到的关于疫情的纪念,在同济医院附近的天桥上。那里标记了当年各地不同省市驰援武汉疫情的医护人员人数。

不过他记成了栏杆上有具体的外省医院医护人员的名字,而实际上只有一个个统计数字。凑近看,其中“西藏医疗队”是“3人”。

img

同济医院附近天桥上的各地医疗队“驰援武汉”人数标记,是武汉为数不多的对那场疫情的公共纪念。(祖唯纳摄)

李文亮医生工作的武汉市中心医院,一度是医护感染最严重的医院之一。

医院位于南京路,对面是历史文化街区咸安坊,红砖外墙,里弄布局。现在除了一些连锁的餐厅店,这里还有许多特色的小资店铺。关于疫情的记忆,偶尔也会在这里跳出来。

img

“吹哨人”李文亮医生曾经工作的武汉市中心医院外观。(祖唯纳摄)

医院附近有一家结合了咖啡和复古胶片的小酒馆,开业一年,但老板说已经算是“开了蛮长时间了”。还有一间结合了中古首饰和设计师服饰的咖啡厅,去年十月份开业,店员小杨说“这边咖啡厅更换得太快了。”

2021年时,附近的一家咖啡厅餐牌上,曾有一款咖啡名为“吹哨者咖啡——100%有争议”,还有媒体报道过。如今,这家咖啡馆已不复存在。在一家装置显得先锋的酒馆里,有许多女性主义的布展,很多顾客留下书和推荐语,书柜上有很多探讨关于死亡的留言、还有本关于眼科学的书,但没有任何痕迹有关李文亮医生。似乎人们心照不宣,没有人会公开提到李医生。

img

武汉中心医院附近一家小酒馆里的“女性主义”主题展览。(祖唯纳摄)

当时在武汉中心医院做眼科医生的李文亮,后来被称为新冠疫情的吹哨者,因在疫情初期率先在校友群“预警”注意防范病毒,被当局训诫,并说成是“造谣者”。2020年2月7日凌晨,武汉市中心医院宣布年仅34岁的李文亮去世,在互联网上引发了极大的社会震动。

在武汉循礼门地铁站F出口,距离李文亮工作的医院骑行八分钟左右的地方,是一个大型商场,和中国其他城市有着类似的奶茶店、美食打卡地标、美容院。商场对面一家换手机膜的街头小店的老板,边用酒精棉擦拭着手机边说:“李文亮是谁啊?我不认识啊!”

img

没听说过李文亮的贴膜店老板。(祖唯纳摄)

再一问,原来他不是武汉人,三年前才从湖南来武汉工作。武汉本地人大多听说过李文亮,如今再提起这个名字,有人会说道:“哦,那个死去的医生。”

在李文亮曾工作的医院,专家墙上不见这位已逝医生的名字。服务台的工作人员回答起关于他的问题也相当谨慎:“他以前在这工作,但我们不认识他,不是很清楚。”医院门口报刊亭的老板娘说,“人死都死了,疫情都结束了,我也不是很了解,这东西不能瞎说的。你自己上网了解下。”

img

2025年2月,有病患走过武汉市中心医院里的“专家墙”。(祖唯纳摄)

互联网上,令国人自豪、可与chatGPT媲美的人工智能DeepSeek回答不上“李文亮是谁?”这个问题。一行字显示:“你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。”

不过在有些地方,李文亮从未被忘记。新浪微博上,他当年最后一条公开的内容,永远停留在2020年2月1日:“今天核酸检测结果阳性,尘埃落定,终于确诊了。”

这条微博下面的评论在那天之后,每一天都在更新,已经超过一百万条。2025年情人节这天,有人在评论区跟他“絮叨”:“元宵节和情人节分手了,知道分的对,但是这事谁会开心呢对吧。要去考科目三了,希望能一次过。” 还有人这样表达想念:“老李,北京的花快开了。”

武汉没有纪念他的痕迹,但还是有无数的中国人在纪念他。

4 “商铺一条一条街地关”,以及突然火起来的旅游业

img

疫情给武汉留下了什么?钱师傅觉得,武汉遭受的最大影响是,经济变得萧条,“那些商铺整片整片地关,一条一条街地关。”他觉得全国经济这几年都不好,但武汉更明显。

封城在家时,他还没做网约车司机。他本来经营着一家开了十年的儿童摄影店,疫情期间,门可罗雀,生意做不下去,只能关门。店铺倒闭后,他在家休息了一段时间,还是入了网约车这一行。疫情后他收入严重降低,网约车平台抽成后,收入并不高。他说,如果是武汉的普通上班族,每个月收入就在四五千元,可武汉的消费水平一点儿也不算低。

img

2025年2月的武汉,人们在路边吃早餐。(祖唯纳摄)

在商场做招商工作的蒋婷,同样感受到疫情让这座城市在经济上受创。她觉得,当年刚解封时,人们还报复性消费了一阵,但很快就迎来“消费降级”。餐饮业所受影响相对较小,但许多品牌服装业明显式微。在给商场做店铺招商时,她听到许多租户说,营业额都变差了。她的父母多年前从浙江温州来武汉做服装生意,疫情期间也结业回了老家。

互联网上,也有很多人讲述自己的生活如何被疫情影响。曾经写“武汉日记”的“蜘蛛猴面包”曾经在微博上发问:关于疫情的第五年,你们有什么想说的?有一个叫谜迦的网友,留言说,她现在只有疫情前四分之一的收入,生活水平直线下降,但和许多武汉人一样,她心态依然积极:“感激熬过了疫情的病毒,而人总是要继续奋斗的,希望在明天。”

在经济低迷中,武汉的旅游业却得到意外的发展。2020年中国社科院发布的《新冠肺炎疫情下的旅游需求趋势调研报告》显示,武汉成了游客最想去的城市,超过了曾位列第一的北京。

疫情过后,当地政府顺势倾斜资源大力发展旅游业。2025年,长江网一篇文章提到,要把武汉黄陂区打造成为武汉建设世界旅游目的地城市“先行区”。我采访的喻先生说,他在疫情结束后,因为要照顾孩子读书,从广东搬回了武汉生活。他记得,疫情刚结束后的十一长假,武汉长江大桥和黄鹤楼上的人山人海,“我都震惊了”,前年春节时,许多外地游客来武汉过年,他还记得那一年鹅毛大雪,密密麻麻的人,挤在长江两岸放烟花,“感觉武汉名气越来越大。”

img

武汉著名景点“黄鹤楼”外。(祖唯纳摄)

5 公务员考试培训中,不能被提及的“疫情”两个字,以及那些被回避的创痛

尽管官方刻意营造“英雄城市”的叙事,以及旅游业出乎意料地发展,让城市多了一些热闹。但真正生活在这里的武汉人,在“封城”过去五年之后,创痛依然存在。他们很少主动提起疫情,也刻意回避创伤记忆,“好像有了PTSD,对生活有极度的不安全感”,在无能为力中也丧失了参与对公共事务的热情,“更讨厌和柴米油盐离得很远的宏大叙事了。”一位受访者告诉我。

“疫情”也是官方要淡化的词。在广东准备公务员考试的宗阳,在参加公务员面试培训时被告知,一定不要在回答中用“疫情”这个词。培训班老师说,提了会扣分,只能用“那几年”来替代。2024年春节联欢晚会,武汉市成为分会场之一,不过主持人并未提到这座中部最大的城市曾和疫情有任何关联。

也有人选择不忘记。五年前,武汉解封前两天,生活在这里的胡琪琛告诉我,她感到人们太健忘。随着解封而来的是,“没有追责,好像什么都好了一样”。她认为,一切肯定都会过去,但疫情这两个月期间的种种悲剧在她心里过不去。她说,“我会一直记得这种感受。”

五年后我再次联系到她。她说,疫情期间那些记忆仍很深刻:仓促的封城、挤兑的医疗资源、停摆的交通、看不上病的病人、发“牺牲一座城拯救一个国”从而有分歧的朋友……她依然为作为一个公民竟可以被关在家里两个月感到愤怒,也不认同要为集体牺牲个人,“因为你没有被抛弃,你还有得活,但是很多人真的没得活。”

事实上,武汉解封第二天,她就去了香港。她说,疫情直接影响了她对未来生活的选择。她本考虑去北京工作,但作为媒体从业者,疫情时她采访人也被采访,又经历爷爷逝世。亲历种种,她感到受伤以及在内地做记者的极度不自由,“没法改变,只能逃。”

过去这些年,她一共就回了武汉四次,主要是探望家人,每次待的时间也就几天。她发现,武汉有一些改变,比如新建了东湖绿道,武汉光谷也有越来越多科技公司。但她觉得自己对这个城市并无太多留恋。“武汉是在进步,但是再进步,也没法留住我。”

而疫情之后,对很多生活在武汉,也从未想过逃离的人来说,生活还是该干嘛干嘛,只不过许多武汉人习惯了常常戴口罩。小杨说:“武汉人对这个可能更注重一些,被伤过。”

img

2025年2月,武汉一家餐厅,服务员都被要求带上口罩。(祖唯纳摄)

25岁的小杨一直在武汉生活。现在想起疫情那段时间,小杨仍觉魔幻,先是没料到封城,后来也是生平第一次看着不甘被封的人们聚集、闹着上街。她不爱宅着,最初封城时,她不知道在家做什么好。家对面是武汉第六医院,每天她就在阳台看外面车来车往,听着“呜哇呜哇”的急促救护车声,心情焦躁无比,只能借由整日整夜看《甄嬛传》来舒缓。

img

一张被丢弃的口罩。小杨拍摄于医院附近的中山公园。(小杨摄)

持续三年的疫情中,她印象最深的场景是深夜看着女朋友被社区的车拉走。那是2022年,她和小她一岁的女朋友小傅出去游玩了一天后,在黄陂区的家里住,深夜近十二点,突然接到社区电话。电话铃响,她们犹豫很久要不要接、要不要开门。后来开了门,穿着防护服的工作人员把行程跟她一致,却不知何故就变成“密接”的小傅送上大巴,拉到郊区隔离。

车上全都是戴着口罩的人,小傅上车后,车子继续去不同的地方拉人,凌晨一两点才到达郊区某便捷宾馆。大概做了很多次隔离点,宾馆电梯和走廊全部都罩上塑料薄膜,装潢设施都很老旧,“厕所也都黄黄的”。那天晚上,小傅很害怕,跟本来已经睡着的小杨打了整夜的视频。

好在就隔离了一天,第二天小区群里越来越多人说自己“阳”了。很快,所有人都感染了新冠病毒,大家对“阳”这件事再不忌惮了。

如今,小傅回忆说,自己有段时间甚至有了创伤应激反应,不敢接别人电话,怕电话一结束就又被拉走,甚至学校辅导员打来,都觉得可怕,担心是督促她在早上八点前做健康监测打卡。

6 拥有了一部相机的女孩:“我想用记录抵抗遗忘”。

img

2022年,小杨在天桥见到一位阿姨望向远方,仿佛也和她一样不知未来要去往何方。(小杨摄)

疫情对人们的生活似乎也有些正面影响:封城前,小杨按父母的安排在一间公司做文员工作,但封城后,她觉得,要把想做的事赶紧做了。要不然死了做不了怎么办?她一直很想做摄影师,于是封城隔日,就去家附近还开着的相机铺买了部佳能90D。解封后,她就背着这部相机,在城里捕捉想要拍摄的场景和瞬间。用快门定格画面,“我想用记录抵抗遗忘”。

2022年,她在天桥上看到一个阿姨在看着远方发呆,这场疫症让“人心惶惶”,小杨感到她似乎也和自己一样,在想象着未来会是怎样,她按下了快门。

疫情期间政府在路上封了很多铁皮栏,但时而可以看到某处的铁皮栏被戳开了一个洞,大家通过这个洞递送物资。疫情近尾声时,小杨通过这个洞看到大家陆续在生活了,她就定格下从洞里望出去骑着共享单车的阿姨,和谋生中的外卖员。

img

政府安装的铁皮栏被戳开了一个洞,从洞口望出去,见到为生计奔走的快递骑手。(小杨摄)

img

同上,洞口外看到的路人。(小杨摄)

小杨说,对疫情,人们也不能说是淡忘,如果聊起,大家还是有很多可以说。“一提起那段时间,武汉人就会说,那段时间你干嘛了我干嘛了,然后就会觉得,真牛啊,我们。”仿佛人人都是幸存者。

疫情期间小杨经历了亲人离世。她爷爷是慢性阻塞性肺病患者。疫情期间病情加剧过世。爷爷去世前几天,他们点了一大桶肯德基,一起围着吃鸡腿。小杨说,如果回到那时候,很想再跟从小带大自己的爷爷说,她很爱他。“回想以前的记忆的时候,总想要做到更好,想说能不能更好点。”

亲人离世,也让小杨也第一次反思了生死的问题,“死了的人就是死了,活着的人得好好活着,除了热爱生命,也没有其他办法。” 抗疫志愿者潘欣也有同样的感悟。

小傅也觉得,疫情让她更珍惜和小杨的感情,经历了疫情的磨炼,两人的关系也更坚固了。疫情时,两人前后生病,互相照顾,抚慰对方焦躁和害怕的心情。小傅隔离时,小杨陪她整夜打电话;小杨送外卖,小傅也跟她一起送。

那会儿因原本工作的法餐厅在疫情期间关门,小杨想去送外卖补贴收入。某天深夜十一点多,有人叫了炸鸡外卖。她们到炸鸡店时才发现,炸鸡店门全被封住了。炸鸡炸好后,厨师只能从门上面递炸鸡过来。两人接过炸鸡,告别在等外卖时和她们唠嗑的大叔,踩上电动车,前往封控的社区送餐。

img

影子(小杨摄)

炸鸡的香味和相伴的柔情永远留在了记忆里。小傅笑着总结:“现在觉得,可能恋爱的感觉把疫情的感觉都冲淡了。”

米兰·昆德拉在文学论中提到一个三十岁的男人约拿斯游荡的故事:约拿斯醒来,发现自己所在的世界是空的,几个月的时间里,在他自杀之前,他走遍世界绝望地寻找他生命的痕迹,寻找自己甚至别人的回忆。

对生活在后疫情时代、依然要面对生活艰辛的很多武汉人来说,呵护自己的记忆,抚平伤痛,同时对抗遗忘,依然是不经意间同时在做的事。

img

影子(小杨摄)

(为保护受访者,文中网约车司机潘欣使用了化名)

益两|五一特辑:为什么地铁上的辱骂与保洁休息室是同一件事

4 May 2025 at 06:14

从垃圾站下班之后,老刀回家洗了个澡,换了衣服。白色衬衫和褐色裤子,这是他唯一一套体面衣服,衬衫袖口磨了边,他把袖子卷到胳膊肘……他在垃圾站上班,没必要穿得体面,偶尔参加谁家小孩的婚礼,才拿出来穿在身上。这一次他不想脏兮兮地见陌生人。他在垃圾站连续工作了五小时,很担心身上会有味道。
——《北京折叠》

CDT 档案卡
标题:五一特辑:为什么地铁上的辱骂与保洁休息室是同一件事
作者:小草、ch、yn
发表日期:2025.5.3
来源:微信公众号“益两”
主题归类:劳工权益
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

郝景芳写于2012年的短片科幻小说《北京折叠》,是继刘慈欣的《三体》之后第二部获得雨果奖的中文作品。小说里,未来的北京被分成三个互不相通的空间,分别居住着统治阶级、中产阶级,和底层劳动者。三个空间的人轮流醒来,互不干扰彼此的生活。小说的主角老刀是生活在第三空间的垃圾工,蜗居在昏暗的地下胶囊,仅能在深夜的十二小时苏醒,用布满裂痕的双手分拣着整座城市的残渣。而现实中的劳动者们,则以更隐晦的方式经历着与老刀相似的“折叠”。

在北京的晚班地铁,一名农民工正常地坐在座位上,却因衣服沾有粉尘遭到邻座男子无端地辱骂;在许多公共场所,清洁员们往往没有固定的休息区域,只能在杂乱的工具间、洗手间里的一格,或漆黑楼梯间用餐与休憩;而在一些标榜“高端”的商场,外卖员因“形象不好”的理由被禁止入内,即便作为消费者短暂停留,身着工作服的骑手仍会遭到劝离。

在这些场景中,本应属于所有人的公共空间在无声中设立了“体面”的门槛,悄悄评判着“谁有使用公共空间的权利”。现实中的种种案例告诉我们,有些折叠并不需要机械装置,偏见本身便是最锋利的裁纸刀。

ONE 隐形的双手

image

摘自小红书 小猪的人间日记

之所以将地铁上被“嫌弃”的农民工、“不配”拥有休息室的保洁阿姨写在一起,是因为我们发现他们所面临的并非是个体的歧视或偏见,而是一种系统性的漠视和敌意。对于北京地铁上劳动者遭到歧视的事件,我们当然可以指责歧视劳动者的个人缺乏同理心或刻薄冷漠,但保洁阿姨休息室的缺乏告诉我们,即使没有个体对个体的歧视与偏见,我们的劳动者们依然面临着结构性的困境,即“不被看到”。

“不被看到”很多时候并非是明晃晃的敌意,不会以肉体攻击或语言羞辱这样激烈的方式展开,但会像一根小刺,扎在劳动者勤劳的双手中。在一项关于清洁工的访谈中,许多清洁工提到,"在你工作的时候,人们可以从你身边经过,就好像你是隐形的一样”。这样的无视是我们习以为常的,或许也是体力劳动者们习以为常的,但这并不是一个人所应当过的有尊严的生活。我们希望被当作平等的个人,没有人希望蜗居在厕所隔间进食。我们希望工作成果被尊重,没有人希望刚刚完成的工作变为一团乱麻。我们在工作中得到肯定,没有人希望在完成一切后被无视存在。

但这些希望没有达成,本质上而言,这其实是一种对于劳动者全然的异化。在工作岗位中,ta们不再被视为是有灵魂、有情感的个人生命,而被纯粹地当作了清洁工具或运输方式。因此我们不需要向他们问好,不需要考虑他们的情感需求;系统也无需考虑ta们的休息与尊严,留在ta们生命中的,唯有工作。

TWO 偏见的眼神

img
img

图源来自网络

然而,在不被看到的同时,体力劳动者往往还要面临更为激烈的暴力,社会学家称之为我们将之称为“超可见性”(Hypervisibility)。具体而言,如果建筑工人出现在建筑工地,ta面对的是路人的漠视。庞大的城市有太多的施工场所,没有人会想到应该和水泥色的工人打个招呼。但就是这样一群“隐形人”,如果他们穿着水泥色的工作服装进入公共交通、商场、图书馆,他们将被所有人关注,忽然之间便成为了“巨星”。而这样异常高的关注有时则会演变为更进一步的语言或肢体的暴力,正如地铁与商场对建筑工人和外卖骑手的驱逐。

  究其本质,这样的高度关注与驱逐背后所反映的是鲜明的“界限”。在《北京折叠》中,“界限”直接呈现为空间和时间的生硬划分,第三空间的垃圾工只能在无人的深夜活动在无人的街头。而在我们所面临的现实中,我们看不见摸不到科幻小说中的“界限”,但却时刻能感受到这堵无形的墙。当体力劳动者与中产市民同乘地铁,市民愤怒了,卑微如尘土的工人为什么可以与他同乘?当保洁员拥有体面的休息室,有人疑惑了,肮脏的工作凭什么有干净的生活。界限不被允许打破,一切越界者都将被驱逐。

但问题在于,我们之间真的应当存在“界限”吗?在五一劳动节前夕,我想“劳动最光荣”这句听起来颇具年代感的话不应真正过时。一切平凡的劳动者,当然有权有干净整洁的休息室,有权搭乘公共交通工具,有权读书写字,有权有尊严受尊重的生活。

当然,我们并非指责任何一个个体,在今天每一个人都在为求生筋疲力竭,体力劳动者的困境也不仅仅是有尊严的生活。但在异常艰难的当下,或许携起手来,才能共同前行。看到我们身边与我们共同经受一切的体力劳动者们,将ta们当作与我们相同的兄弟姐妹,关注自己,关注ta们。

THREE 我们能做些什么

目前,我们已采取多种措施试图改善这一问题。上海闵行区的公厕为保洁员们设立了专门的休息室。十五平方米的房间里,设施配置齐全,解决了保洁员吃饭难、喝水难、休息难的问题。针对农民工、外卖骑手的法律保障措施也在逐步落地。(央视新闻:这些照片让人心疼!请给保洁员一个休息空间)

但改善劳动者处境并非一朝一夕可完成的事业,我们也想向益两的读者发出呼吁。不管你是公益机构或企业的员工、高校学生、或是小区居民,我们都可以为改善身边底层劳动者的处境做些什么。

正视:承认体力劳动者为社会发展做出的不可磨灭的贡献,拒绝歧视。
看见:和他们聊聊天,尝试了解他们的工作和生活。
支持:在日常生活中做出力所能及的帮助,比如顺手将垃圾扔进垃圾桶。
帮助:发现劳动者的困境后,可向公司、学校或机构的管理层反映。
进步:通过本地的政务APP、市长信箱等民众参与渠道提出建言。
平等:我们也要意识到,我们所做的并不是施舍或“献爱心”,得到尊重是劳动者应得的基本权利。

image

更多内容扫码查看益两词条【劳动权益】

【404文库】协和医学院规培医生董袭莹博士论文, 中国知网已删除

4 May 2025 at 02:40

CDT编辑注:日前,中日友好医院医生肖飞被其妻举报婚外情,其中一位当事人为规培医师、协和医学院博士生董袭莹。举报信中还指出,肖飞曾在手术过程中与护士发生冲突,期间不顾患者安危,与董袭莹一同离开手术室。随后,董袭莹的教育背景引发网络关注。公开信息显示,董袭莹本科就读于美国哥伦比亚大学下属的女子学院——巴纳德学院,主修经济学,2019年被北京协和医学院“4+4”临床医学长学制试点班录取为博士研究生。相比中国传统医学教育体系通常更长的教学与规培周期,协和“4+4”模式在公平性与专业性方面引发质疑。与此同时,有网民指出,董袭莹的博士论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。事件持续发酵后,中国知网已将其博士论文下架,而这篇论文的下架流程是否遵循既定的撤稿标准亦受到质疑。有网友在此之前保存了论文PDF,并上传至GitHub。以下文字和图片由CDT通过PDF版转录存档。

北京协和医学院临床医学专业毕业论文
学校代码:10023
学 号: B2019012012

跨模态图像融合技术在医疗影像分析中的研究

专业年级:北京协和医学院临床医学专业 2019 级试点班
姓名: 董袭莹
导师: 邱贵兴(教授)
北京协和医学院 临床学院(北京协和医院)
骨科
完成日期:2023年5月

目录

摘要 …………………………………………………………………………………………………………………… 1
Abstract ………………………………………………………………………………………………………………. 3

  1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测 ………………………………… 6
    1.1. 前言 …………………………………………………………………………………………………….. 6
    1.2. 研究方法 ……………………………………………………………………………………………… 7
    1.2.1. 研究设计和工作流程 ………………………………………………………………….. 7
    1.2.2. 跨模态图像融合 …………………………………………………………………………. 7
    1.2.3. 宫颈癌病变区域检测 ………………………………………………………………… 11
    1.3. 实验 …………………………………………………………………………………………………… 11
    1.3.1. 临床信息和影像数据集 …………………………………………………………….. 11
    1.3.2. 模型训练过程 …………………………………………………………………………… 12
    1.3.3. 评价指标 ………………………………………………………………………………….. 13
    1.3.4. 目标检测模型的结果与分析 ……………………………………………………… 14
    1.4. 讨论 …………………………………………………………………………………………………… 15
    1.5. 结论 …………………………………………………………………………………………………… 16
  2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断 ………………………………. 18
    2.1. 前言 …………………………………………………………………………………………………… 18
    2.2. 研究方法 ……………………………………………………………………………………………. 19
    2.2.1. 研究设计和工作流程 ………………………………………………………………… 19
    2.2.2. 骨转移目标区域检测 ………………………………………………………………… 20
    2.2.3. 基于特征转换的跨模态数据融合 ………………………………………………. 20
    2.2.4. 乳腺癌骨转移的分类模型 …………………………………………………………. 21
    2.3. 实验 …………………………………………………………………………………………………… 22
    2.3.1. 临床信息和影像数据集 …………………………………………………………….. 22
    2.3.2. 模型训练过程 …………………………………………………………………………… 23
    2.3.3. 评价指标 ………………………………………………………………………………….. 24
    2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析 ……………………………………………………………………………………………….. 25
    2.4. 讨论 …………………………………………………………………………………………………… 30
    2.5. 结论 …………………………………………………………………………………………………… 32
    全文小结 ………………………………………………………………………………………………………….. 33
    参考文献 ………………………………………………………………………………………………………….. 35
    缩略词表 ………………………………………………………………………………………………………….. 40
    文献综述 ………………………………………………………………………………………………………….. 41
  3. 跨模态深度学习技术在临床影像中的应用 ……………………………………………………. 41
    3.1 Preface ………………………………………………………………………………………………… 41
    3.2. Deep Neural Network (DNN) ……………………………………………………………….. 42
    3.2.1. Supervised learning ……………………………………………………………………. 43
    3.2.2. Backpropagation ………………………………………………………………………… 46
    3.2.3. Convolutional neural networks (CNN) …………………………………………. 46
    3.3. Cross-modal fusion ………………………………………………………………………………. 49
    3.3.1. Cross-modal fusion methods ……………………………………………………….. 50
    3.3.2. Cross-modal image translation …………………………………………………….. 51
    3.4. The application of cross-modal deep learning ………………………………………….. 52
    3.5. conclusion …………………………………………………………………………………………… 55
    参考文献 …………………………………………………………………………………………………… 57
    致谢 …………………………………………………………………………………………………………………. 60
    独创性声明 ………………………………………………………………………………………………………. 61
    学位论文版权使用授权书 …………………………………………………………………………………. 61

摘要

背景

影像学检查是医疗领域最常用的筛查手段,据统计,医疗数据总量中有超过90%是由影像数据构成[1]。然而,根据亲身参与的临床病例[2]可知,很多情况下,仅凭医生的肉眼观察和主观诊断经验,不足以对影像学异常作一明确判断。而诊断不明引起的频繁就医、贻误病情,则会严重影响患者的生活质量。

相较于传统的主观阅片,人工智能技术通过深度神经网络分析大量影像和诊断数据,学习对病理诊断有用的特征,在客观数据的支持下做出更准确的判断。为了模拟临床医生结合各种成像模式(如 CT、MRI 和 PET)形成诊断的过程,本项目采用跨模态深度学习方法,将各种影像学模态特征进行有机结合,充分利用其各自的独特优势训练深度神经网络,以提高模型性能。鉴于肿瘤相关的影像学资料相对丰富,本项目以宫颈癌和乳腺癌骨转移为例,测试了跨模态深度学习方法在病变区域定位和辅助诊断方面的性能,以解决临床实际问题。

方法

第一部分回顾性纳入了220 例有FDG-PET/CT 数据的宫颈癌患者,共计72,602张切片图像。应用多种图像预处理策略对PET 和CT 图像进行图像增强,并进行感兴趣区域边缘检测、自适应定位和跨模态图像对齐。将对齐后的图像在通道上级联输入目标检测网络进行检测、分析及结果评估。通过与使用单一模态图像及其他 PET-CT 融合方法进行比较,验证本项目提出的 PET-CT 自适应区域特征融合结果在提高模型目标检测性能方面具有显著性优势。第二部分回顾性纳入了233 例乳腺癌患者,每例样本包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有3051 张CT 切片,3543 张MRI 切片,1818 张PET 切片。首先训练YOLOv5 对每种单一模态图像中的骨转移病灶进行目标检测。根据检测框的置信度划分八个区间,统计每个影像序列不同置信度区间中含有检出骨转移病灶的个数,并以此归一化后作为结构化医疗特征数据,采用级联方式融合三种模态的结构化特征实现跨模态特征融合。再用多种分类模型对结构化数据进行分类和评估。将基于特征转换的跨模态融合数据与特征转换后的单模态结构化数据,以及基于 C3D 分类模型的前融合方式进行比较,验证第二部分提出的方法在乳腺癌骨转移诊断任务中的优越性能。

结果

第一部分的基于跨模态融合的肿瘤检测实验证明,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性。相比使用CT 或PET 单模态图像以及其他融合方法生成的多模态图像作为网络输入,目标检测的平均精确度分别提高了 6.06%和 8.9%,且消除了一些假阳性结果。上述测试结果在使用不同的目标检测模型的情况下保持一致,这表明自适应跨模态融合方法有良好的通用性,可以泛化应用于各种目标检测模型的预处理阶段。第二部分基于特征转换的跨模态病例分类实验证明,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能。相较于单模态数据,跨模态融合数据的平均准确率和AUC分别提高了7.9%和8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也具有相同的实验结论:在不同的分类模型中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

结论

本项目主要包含两个部分。第一部分证实了基于区域特征匹配的跨模态图像融合后的数据集在检测性能上优于单模态医学图像数据集和其他融合方法。第二部分提出了一种基于特征转换的跨模态数据融合方法。使用融合后的数据进行分类任务,其分类性能优于仅使用单模态数据进行分类或使用前融合方法的性能。根据不同模态医学图像的特征差异与互补性,本项目验证了跨模态深度学习技术在病变区域定位和辅助诊断方面的优势。相比于只使用单模态数据进行训练的模型,跨模态深度学习技术有更优的诊断准确率,可以有效的成为临床辅助工具,协助和指导临床决策。

关键词:跨模态融合,深度学习,影像分析,宫颈癌,乳腺癌骨转移

Abstract

Background

Imaging examinations serve as the predominant screening method in the medical field. As statistics reveal, imaging data constitute over 90% of the entire medical dataset. Nonetheless, clinical cases have demonstrated that mere subjective diagnoses by clinicians often fall short in making definitive judgments on imaging anomalies. Misdiagnoses or undiagnosed conditions, which result in frequent hospital visits and delayed treatment, can profoundly affect patients’ quality of life.

Compared to the traditional subjective image interpretation by clinicians, AI leverages deep neural networks to analyze large-scale imaging and diagnostic data, extracting valuable features for pathology diagnosis, and thus facilitating more accurate decision-making, underpinned by objective data. To emulate clinicians’ diagnostic process that integrates various imaging modalities like CT, MRI, and PET, a cross-modal deep learning methodology is employed. This approach synergistically merges features from different imaging modalities, capitalizing on their unique advantages to enhance model performance.

Given the ample availability of oncologic imaging data, the project exemplifies the efficacy of this approach in cervical cancer segmentation and detection of breast cancer bone metastasis, thereby addressing pragmatic challenges in clinical practice.

Methods

The first part retrospectively analyzed 72,602 slices of FDG-PET/CT scans from 220 cervical cancer patients. Various preprocessing strategies were applied to enhance PET and CT images, including edge detection, adaptive ROI localization, and cross-modal image
fusion. The fused images were then concatenated on a channel-wise basis and fed into the object detection network for the precise segmentation of cervical cancer lesions. Compared to single modality images (either CT or PET) and alternative PET-CT fusion techniques,
the proposed method of PET-CT adaptive fusion was found to significantly enhance the object detection performance of the model. The second part of the study retrospectively analyzed 3,051 CT slices, 3,543 MRI slices and 1,818 PET slices from 233 breast cancer patients, with each case containing whole-body imaging of one to three modalities (CT, MRI, or PET). Initially, YOLOv5 was trained to detect bone metastases in images across different modalities. The confidence levels of the prediction boxes were segregated into eight tiers, following which the number of boxes predicting bone metastases in each imaging sequence was tallied within each confidence tier. This count was then normalized and utilized as a structured feature. The structured features from the three modalities were fused in a cascaded manner for cross-modal fusion. Subsequently, a variety of classification models were then employed to evaluate the structured features for diagnosing bone metastasis. In comparison to feature-transformed single-modal data and the C3D early fusion method, the cross-modal fusion data founded on feature transformation demonstrated superior performance in diagnosing breast cancer bone metastasis.

Results

The first part of our study delivered compelling experimental results, showing a significant improvement in the accuracy of cervical cancer segmentation when using adaptively fused PET-CT images. Our approach outperformed other object detection algorithms based on either single-modal images or multimodal images fused by other methods, with an average accuracy improvement of 6.06% and 8.9%, respectively, while also effectively mitigating false-positive results. These promising test results remained consistent across different object detection models, highlighting the robustness and universality of our adaptive fusion method, which can be generalized in the preprocessing stage of diverse object detection models. The second part of our study demonstrated that cross-modal fusion based on feature transformation could significantly improve the performance of bone metastasis classification models. When compared to algorithms employing single-modal data, models based on cross-modal data had an average increase in accuracy and AUC of 7.9% and 8.5%, respectively. This improvement was further corroborated by the shapes of the ROC and PR curves. Across a range of classification models, feature-transformed cross-modal data
consistently outperformed single-modal data in diagnosing breast cancer bone metastasis. Moreover, late fusion strategies grounded in feature transformation exhibited superior performance in classification tasks when juxtaposed with early fusion methods such as C3D.

Conclusions

This project primarily consists of two parts. The first part substantiates that deep learning object detection networks founded on the adaptive cross-modal image fusion method outperform those based on single-modal images or alternative fusion methods. The second part presents a cross-modal fusion approach based on feature transformation. When the fused features are deployed for classification models, they outperform those utilizing solely single-modal data or the early fusion model. In light of the differences and complementarity in the features of various image modalities, this project underscores the strengths of cross-modal deep learning in lesion segmentation and disease classification. When compared to models trained only on single-modal data, cross-modal deep learning offers superior diagnostic accuracy, thereby serving as an effective tool to assist in clinical decision-making.

Keywords: cross-modal fusion, deep learning, image analysis, cervical cancer, breast
cancer bone metastasis

1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测

1.1. 前言

宫颈癌是女性群体中发病率第四位的癌症,每年影响全球近 50 万女性的生命健康[3] 。准确和及时的识别宫颈癌至关重要,是否能对其进行早期识别决定了治疗方案的选择及预后情况[4]。氟代脱氧葡萄糖正电子发射计算机断层显像/电子计算机断层扫描(fluorodeoxyglucose-positron emission tomography/computed tomography, FDG-PET/CT),因其优越的敏感性和特异性,成为了一个重要的宫颈癌检测方式[5] 。由于CT 能够清晰地显示解剖结构,FDG-PET 能够很好地反映局灶的代谢信息形成功能影像,FDG-PET/CT 融合图像对可疑宫颈癌病灶的显示比单独使用高分辨率 CT 更准确,特别是在检测区域淋巴结受累和盆腔外病变扩展方面[6] ,[7] ,[8] 。然而,用传统方法为单一患者的 FDG-PET/CT 数据进行分析需要阅读数百幅影像,对病变区域进行鉴别分析,这一极为耗时的过程已经妨碍了临床医生对子宫颈癌的临床诊断。

随着计算机硬件和算法的进步,尤其是以深度学习[9] 、图像处理技术[10] ,[11] 为代表的机器学习技术的革新,这些人工智能算法在临床医学的许多领域中起着关键作用[12]。基于其强大有效的特征提取能力[13] ,[14] ,深度学习中的卷积神经网络可以通过梯度下降自动学习图像中的主要特征[15 ,极大地提高目标识别的准确性 [16],使深度学习成为计算机图像处理领域的主流技术[17] ,[18]。利用深度学习技术对宫颈癌影像进行分析可以辅助临床医生做出更为准确的判断,减轻临床医生的工作负担,提高诊断的准确性[19]。

目前已经有很多在单一模态图像中(CT 或 PET)基于深度学习技术进行病变检测的工作:Seung等使用机器学习技术依据PET图像对预测肺癌组织学亚型[20];Sasank 进行了基于深度学习算法检测头 CT 中关键信息的回顾性研究[21];Chen 使用随机游走(random walk)和深度神经网络对 CT 图像中的肺部病变进行分割[22] ,[23]。但很少有关于使用跨模态图像融合深度学习方法进行病变检测的研究。

基于 PET/CT 融合图像的病变检测项目包括三个研究任务:区域特征匹配[24],跨模态图像融合[25 和目标病变区域检测[26]。Mattes 使用互信息作为相似性标准,提出了一种三维PET 向胸部CT 配准的区域特征匹配算法[27]。Maqsood 提出了一种基于双尺度图像分解和稀疏表示的跨模态图像融合方案[28]。Elakkiya 利用更快的基于区域的卷积神经网络(Faster Region-Based Convolutional Neural Network, FR-CNN)进行颈部斑点的检测[29]。目前还没有将上述三个研究任务,即区域特征匹配、跨模态图像融合、病变区域检测任务,结合起来的研究工作。

为了减轻临床医生的工作负担,基于跨模态深度学习方法,本项目的第一部分提出了一个统一的多模态图像融合和目标检测框架,用于宫颈癌的检测。

1.2. 研究方法

1.2.1. 研究设计和工作流程

本项目旨在检测 CT 和 PET 图像中宫颈癌的病变区域,工作流程如图 1-1 所示:扫描设备对每位患者进行PET 和CT 图像序列的采集;通过区域特征匹配和图像融合来合成清晰且信息丰富的跨模态图像融合结果;采用基于深度学习的目标检测方法在融合图像中对可疑宫颈癌的病变区域进行目标检测。在图 1-1 的最后一行中,矩形框出的黄色区域及图中右上角放大的区域中展示了检测出的宫颈癌病变区域。

图 1-1 工作流程

img

1.2.2. 跨模态图像融合

图 1-2 展示了跨模态图像融合算法的流程图。根据计算发现两种模态图像的比例和位置不同,如仅进行简单的融合会错误地将处于不同位置的组织影像重叠,从而使组织发生错位,定位不准,产生不可接受的误差。因此,第一部分提出了一种跨模态图像融合策略,其中的步骤包括对感兴趣区域(region of interest, ROI)的自适应定位和图像融合。

在PET 和CT 图像中,自适应ROI定位能够精准识别待分析处理的关键目标,即人体组织影像,然后计算不同模态图像下组织影像之间的比例和位移。依据上述计算结果通过缩放、填充和裁剪的方式来融合 PET 和CT 图像。

图 1-2 CT 和PET 跨模态图像融合算法的流程图

img

1.2.2.1. 自适应ROI 定位

鉴于数据集中 PET 图像与 CT 图像的黑色背景均为零像素值填充,ROI 内非零像素值较多,而 ROI 边缘的非零像素值较少,因此,选用线检测方法来标画两种模态图像中的 ROI,最终标划结果如图 1-2 中的绿色线框出的部分所示,这四条线是 ROI 在四个方向上的边界。在不同方向上计算比例尺。在将 PET 图像放大后,根据ROI实现CT 和PET 图像的像素级对齐。裁剪掉多余的区域,并用零像素值来补充空白区域。如图 1- 3(a)所示,线检测方法从中心点出发,向四个方向即上下左右对非零像素值进行遍历,并记录下行或列上的非零像素值的数量。如图1- 3(b)所示,红色箭头代表遍历的方向。在从 ROI 中心向边缘进行遍历时,沿遍历经线上的非零像素值数量逐渐减少,如果某一线上非零像素值的计数低于预设的阈值,那么意味着该线已经触及到 ROI 的边缘,如图 1- 3(c)所示。然而,如果直接对未经预处理的图像应用线检测方法,会因受模糊边缘及其噪声的影响,得到较差的对齐结果,难以设置阈值。因此,需对PET 和CT 图像单独执行图像增强预处理,以优化 ROI 标化结果,改善跨模态融合效果。

由于PET 和CT 图像具有不同的纹理特征,应用不同的预处理策略,分别对图像进行增强处理,以强化 ROI 的边缘特性,同时消除噪声产生的干扰,再在两种不同模态图像中进行 ROI 定位,如图1-2 所示。

图 1-3 ROI 检测示意图

img

CT 图像是用 X 射线对检查部位一定厚度的组织层进行扫描,由探测器接收透过该层面的 X 射线,经数字转换器及计算机处理后形成的解剖学图像。CT 图像通常比 PET 图像更清晰。为了提取 ROI,需利用图像增强技术对 CT 图像进行预处理:首先,通过图像锐化增强边缘特征和灰度跳变部分,使 CT 图像的边缘(即灰度值突变区域)信息更加突出;由于锐化可能导致一定的噪声,再使用高斯模糊滤波器(Gaussian blur)[30 进行图像平滑去噪,将噪声所在像素点处理为周围相邻像素值的加权平均近似值,消除影响成像质量的边缘毛躁;并执行Canny边缘检测(Canny edge detection )[31 来设定阈值并连接边缘,从而在图像中提取目标对象的边缘。尽管Canny边缘检测算法已包含高斯模糊的去噪操作,但实验证实两次高斯模糊后的边缘提取效果更优。在对图像进行锐化处理后,将提取的边缘图像与高斯模糊后的图像进行叠加。具体地,对两个图像中的每个像素直接进行像素值相加,最终得到边缘更清晰且减轻噪声影响的增强后 CT 模态图像。

PET 图像是基于间接探测到的由正电子放射性核素发射的 γ 射线,经过计算机进行散射和随机信息的校正,形成的影像,能够显示体内代谢活动的信息。尽管PET 可以显示分子代谢水平,但由于成像原理的差异,PET 图像相较于 CT 图像显得模糊。对PET 的预处理方式与对CT 图像的类似,但省略了高斯模糊处理图像噪声的步骤,因为在锐化 PET 模态图像后产生的噪声较少,为防止有效特征信息的丢失,略过这一环节。

为了将两个模态的图像进行区域特征匹配,使用PET 和CT 图像中的矩形ROI框来计算缩放比例和位移参数,并通过缩放、填充和裁剪操作对PET 和CT 图像中的ROI 进行对齐。

1.2.2.2. 图像融合

CT 和 PET 图像的尺寸分别为 512×512 像素和 128×128 像素,ROI 特征区域位于图像的中心位置。通过缩放、零值填充和剪切,放大PET 图像的尺寸以与CT 图像的尺寸保持一致,并且将两个模态图像之间的 ROI 对齐,以便后续的融合处理。经处理的PET 和CT 图像转化为灰度形式,分别进行加权和图像叠加,将其置于不同通道中,作为网络的输入层。由于 PET 图像能展示体内分子层面的代谢水平,其对于肿瘤检测的敏感性高于CT 图像。因此,本研究的图像融合方法为PET 图像的ROI 分配了更多权重,以提高宫颈癌检测任务的表现。

图 1-4 比较了本项目提出的自适应图像融合的结果和直接融合的结果,选取人体不同部位的 CT、PET 和 PET/CT 图像的融合结果进行展示。第一和第二列分别展示了未经处理的原始 CT 和 PET 图像。简单融合算法仅将两个图像的像素点相加,并未执行特征匹配过程,得到的融合图像无任何实用价值。由于通道拼接融合后的图像转变为高维多模态数据,而非三通道数字图像,因此图 1-4 并未展示通道拼接融合方法所得图像。而本项目提出的自适应图像融合方法实现了跨模态图像的精准融合,可用于进一步的观察和计算。

图 1-4 不同图像融合方式的可视化结果

img

1.2.3. 宫颈癌病变区域检测

先由两位临床医生对跨模态融合图像中的病变区域进行人工标注,并训练YOLOv5 [32] 目标检测网络来识别融合图像中的病灶区域,如图 1-5 所示。模块骨架用于提取图像的深层特征,为减少通过切片操作进行采样过程中的信息损失,采用聚焦结构,并使用跨阶段局部网络(cross-stage partial network, CSPNet)[33] 来减少模型在推理中所需的计算量。头模块用于执行分类和回归任务,采用特征金字塔网络(feature pyramid network, FPN)和路径聚合网络(path aggregation network, PAN)[34]。

为了提高对极小目标区域的检测效果,输入层采用了mosaic数据增强(mosaic data augmentation)[35] 方法,将四个随机缩放、剪切和随机排列的图像拼接在一起。模块骨架包括 CSPNet 和空间金字塔池化(spatial pyramid pooling, SPP)[36] 操作。输入图像通过三个 CSP 操作和一个 SPP 操作,生成了一个四倍于原始大小的特征图。头模块有三个分支网络,分别接收来自不同层的融合特征、输出各层的边界框回归值和目标类别,最后由头模块合并分支网络的预测结果。

图 1-5 目标检测网络结构

img

1.3. 实验

1.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2010 年 1 月至 2018 年 12月期间在国家癌症中心中国医学科学院肿瘤医院被诊断为原发性宫颈癌的患者 2)有FDG-PET/CT 图像;3)有电子病历记录。总共入组了 220 名患者,共计 72,602 张切片图像,平均每位患者有 330 张切片图像入组实验。其中,CT 切片图像的高度和宽度均为512 像素,而PET 切片图像的高度和宽度均为128 像素,每个模态的数据集都包含了6,378张切片图像,即平均每位患者有29张切片图像,用于训练和测试。在入组进行分析之前,所有患者数据都已去标识化。本研究已获得北京协和医学院国家癌症中心伦理委员会的批准。

该数据集包含220 个患者的全身 CT 和全身 PET 图像数据,因入组的每位患者均确诊为宫颈癌,数据集中各例数据均包含病变区域,如表 1-1 所示。鉴于所有患者的CT 和PET 均在同一时间且使用相同设备采集,因此 CT 和PET 展示的解剖信息与代谢信息来自同一时刻患者身体的同一区域,其特征具有一对一对应且可匹配的特性。根据肿瘤大小、浸润深度、盆腔临近组织侵犯程度、腹盆腔淋巴结转移的情况可将宫颈癌的进展程度进行分期,主要包括四期,每期中又进一步细分为更具体的期别。国际妇产科联盟(International Federation of Gynecology and Obstetrics,
FIGO)于 2018 年 10 月更新了宫颈癌分期系统的最新版本[37]。本项目数据集囊括了 FIGO 分期全部四个期别的宫颈癌影像。为了保持训练和测试的公平性,纳入训练集和测试集的不同期别影像的分布,即不同 FIGO 分期的划分比例,需保持一致,否则可能会导致某些 FIGO 期别的数据集无法进行训练或测试。因此,在保证处于不同期别的患者数据的划分比例的基础上,采用五折交叉验证方法将220 名患者的数据进行五等分,每个部分大约包括了 45 例患者的数据,在每轮验证中随机选择一个部分作为测试集。所有模型都需要进行5 次训练和评估,以获取在测试集上表现出的性能的平均值和标准差。

表 1-1 数据集中的病例数及临床分期

img

1.3.2. 模型训练过程

在按上述步骤准备好数据集后,首先将图像从 512×512 像素调整为 1024×1024像素,然后使用多种数据增强方法,包括 mosaic 增强[38]、HSV(Hue, Saturation, Value)颜色空间增强[39]、随机图像平移、随机图像缩放和随机图像翻转,增加输入数据集对噪声的鲁棒性。在每次卷积后和激活函数前进行批归一化(Batch Normalization, BN)[40] 。所有隐藏层都采用 Sigmoid 加权线性单元 (Sigmoid-Weighted Linear Units, SiLU)[41 作为激活函数。训练模型所用的学习率设置为 1e-5,并在起始训练时选择较小的学习率,然后在 5 个轮次(epoch)后使用预设的学习
率。每个模型使用PyTorch 框架在4 个Nvidia Tesla V100-SXM2 32G GPU 上进行50个轮次的训练。使用 0.98 的动量和 0.01 的权值衰减通过随机梯度下降法(Stochastic Gradient Descend, SGD)来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。所有实验中的性能测量都是在采用最优参数设置的模型中对测试集进行测试得到的,详见表 1-2。

为了进一步证明本项目所提出的模型的普适性,选择了六个基于深度学习的目标检测模型作为基准,并测试了所有模型在输入不同的图像融合结果时的性能。每个模型的输入完全相同,而唯一的区别是神经网络中的超参数来自每个模型的官方设置,而这些超参数因模型而异。

表 1-2 网络训练的超参数

img

1.3.3. 评价指标

本项目使用“准确度精值50”(Accuracy Precision 50, AP50)来评估目标检测的性能。AP50 是当交并比(Intersection over Union, IOU)阈值为0.5 时的平均精度,如公式3所定义,其中P和R分别是精度(Precision)和召回率(Recall)的缩写。模型的预测结果会有不同的召回率和精度值,这取决于置信度阈值。将召回率作为横轴,精度作为纵轴,可以绘制 PR 曲线,而 AP 是该曲线下的面积。IOU 是将真实标注区域和模型预测区域的重叠部分除以两区域的集合部分(即真实区域和预测区域的并集)得到的结果,如公式4 所示。精度和召回率的计算方式分别在公式1 和2 中列出,其中真正例表示预测为正例的正样本,假正例和假负例代表的概念以此类推。精度表明在模型预测结果里,被判断为正例的样本中有多少实际是正例,而召回率表示实际为正例的样本中多少被预测为正例。表 1-3 记录了图像数据集交叉验证后各个目标检测模型的 AP50 的平均值和方差。

img

1.3.4. 目标检测模型的结果与分析

本项目采用不同的目标检测模型,包括单阶段目标检测模型(YOLOv5 [32]、RetinaNet[42]、ATSS [43 )和二阶段目标检测模型(Faster-RCNN [44
、CascadeRCNN [45]、LibraRCNN[46]),在五折交叉验证下比较了使用 CT 图像、PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像(concat fusion)和本项目所提出的 PET-CT自适应区域特征融合图像作为输入数据集时,每个模型的目标检测性能。其中,CT和PET是单模态图像,而PET-CT简单融合图像、PET-CT通道拼接图像和PET-CT 自适应区域特征融合图像是跨模态融合图像。简单融合是指将 PET 图像简单地缩放到与 CT 图像相同的大小后进行像素值的叠加,而通道拼接融合是直接将两种模态图像在通道上串联在一起作为网络的输入。

如表 1-3 所示,加粗的数字代表每行中最好的实验结果。与使用单一模态数据进行肿瘤检测模型分析(如只使用CT 或PET 图像)相比,本项目所提出的自适应跨模态图像融合方法在目标检测任务中展现出了更高的检测精度。由于自适应融合方法能够在跨模态融合之前将两种模态图像的信息进行预对齐,对 CT 图像和PET图像的结构特征进行一一配准,因此,与简单融合方法和通道拼接融合方法相比,自适应融合方法的性能最佳。上述针对不同模态图像及使用不同跨模态融合方法作为输入得到的测试性能结果在使用不同的目标检测模型的情况下保持一致,这表明本项目所提出的跨模态自适应融合方法有良好的通用性,可以泛化应用到各种目标检测模型的预处理中。

表 1-3 五折交叉验证目标检测实验的结果(“*” 表示交叉验证中的某一折在训练过程中出现梯度爆炸,数值为目标检测模型的 AP50 的均值和方差)

img

图 1-6 将不同模态图像下目标宫颈癌病变区域的检测结果和实际标注的癌灶区域进行了可视化。其中绿色框是由医师标注的真实病变区域,黄色框是目标检测模型的预测结果。分析图像模态信息可知,CT 图像既包含了人体正常结构的信息,也包含病灶的解剖信息,前者可能会干扰宫颈癌病变区域特征的识别和检测。因此,在单一 CT 模态下会有一些漏检。与 CT 模态的预测框相比,PET 模态下的预测框与标注框的 IOU 更高,或许是由于 PET 影像有更多能表现宫颈癌区域特征的信息。在 PET-CT 区域特征跨模态融合图像中检测效果最佳,因为 PET-CT 融合图像融合了两种模态的不同特征,从而大大提高检测的准确性。

图 1-6 跨模态融合图像的目标检测结果

img

1.4. 讨论

本项目旨在评估深度学习算法是否可以跨模态融合 FDG-PET 和 CT 图像,并在融合图像中实现宫颈癌病灶区域的自动检测。我们提出了一个基于跨模态融合图像的检测框架,包括区域特征匹配、图像融合和目标检测等步骤。融合 CT 和PET 图像可以最大程度地提取各个模态中包含的信息,因此 PET-CT 跨模态融合图像含有丰富的解剖和功能信息。目标检测实验证明,本项目提出的跨模态融合方法得到的融合图像显著提高了目标检测的准确性,相比单模态和其他融合方法得到的多模态图像,目标检测平均精确度分别提高了 6.06%和8.9%。

表 1-3 展示了基于不同的图像融合方法形成的多模态图像,不同检测模型在五折交叉验证下的结果。因在解剖和功能影像中均有异常表现的区域更可能是癌变,我们推测,图像信息对齐有利于对宫颈癌病灶的目标区域检测。图 1-6 展示了在不同目标检测模型和不同输入图像数据模态下目标检测效果的可视化图像。基于本项目提出的跨模态融合方法生成的图像进行的目标检测的检测结果更为准确,并消除了一些假阳性结果。根据医生的日常诊断习惯,生成了以红色和黄色为主色的融合图像。

利用 FDG-PET/CT 对宫颈癌进行及时、准确的分期能够影响患者的临床治疗决策,进而延缓疾病进展,并减少肿瘤治疗相关的整体财务负担[47] 。对 FDG-PET/CT 图像的解释在很大程度上依赖临床上获得的背景信息,并需要综合临床分析来确定是否发生癌症的浸润和转移[48]。在某些情况下,核医学科阅片医师可以迅速识别局部扩展和淋巴栓塞。而多数情况下,核医学科医师分析一位患者的FDG-PET/CT 影像学检查结果平均需要三个小时。比起占用医师昂贵且稀缺的时间,利用计算机进行此项工作既能节约成本,预计耗时又短,且可以全天候运行。本项目的目标是通过人工智能方法实现PET 和CT 图像的自动融合,并利用目标检测技术识别宫颈癌的浸润和转移,作为辅助工具加速 FDG-PET/CT 的阅片过程,从而使临床医生能够在最短的时间内按照 FIGO 指南对宫颈癌进行分期。

这项研究仍存在一些局限性。虽然本项目对基于 PET-CT 自适应融合图像的目标检测方法与其他最先进的基于深度学习的目标检测方法进行了比较,但将该方法拓展应用到其他病种的影像学分析的可行性仍需评估。此外,我们提出的跨模态融合框架在图像融合时并未考虑每种模态图像的权重分布。未来可以设计一种特殊的损失函数来调整 ROI 内每个像素的权重分布,以提高目标检测结果的准确性。

1.5. 结论

本项目提出了一种基于跨模态图像融合的多模态图像进行病变区域检测的深度学习框架,用于宫颈癌的检测。为了应对医学影像中单一模态图像在肿瘤检测方面的性能不足,提出了一种基于区域特征匹配的自适应跨模态图像融合策略,将融合后的多模态医学图像输入深度学习目标检测模型完成宫颈癌病变区域检测任务,并讨论了深度学习模型在每种模态图像输入间的性能差异。大量的实验证明,与使用单一模态的影像及基于简单融合方法或通道拼接融合方法的多模态影像相比,自适应融合后的多模态医学图像更有助于宫颈癌病变区域的检测。

本项目所提出的技术可实现 PET 和CT 图像的自动融合,并对宫颈癌病变区域进行检测,从而辅助医生的诊断过程,具备实际应用价值。后续将基于第一部分的目标检测模型基础,利用特征转换的方法,将图像数据转换为结构数据,将跨模态融合方法应用于分类问题。

2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断

2.1. 前言

骨骼是第三常见的恶性肿瘤转移部位,其发生率仅次于肺转移和肝转移,近 70%的骨转移瘤的原发部位为乳腺和前列腺[49] ,[50] 。骨转移造成的骨相关事件非常多样,从完全无症状到严重疼痛、关节活动度降低、病理性骨折、脊髓压迫、骨髓衰竭和高钙血症。高钙血症又可导致便秘、尿量过多、口渴和疲劳,或因血钙急剧升高导致心律失常和急性肾功能衰竭[51 。骨转移是乳腺癌最常见的转移方式,也是患者预后的分水岭,其诊断后的中位生存期约为 40 个月[52] ,[53] 。因此,及时发现骨转移病灶对于诊断、治疗方案的选择和乳腺癌患者的管理至关重要。目前,病灶穿刺活检是诊断骨转移的金标准,但鉴于穿刺活检有创、存在较高风险、且假阴性率高,临床常用影像学检查部分替代穿刺活检判断是否发生骨转移。

Batson的研究表明,乳腺的静脉回流不仅汇入腔静脉,还汇入自骨盆沿椎旁走行到硬膜外的椎静脉丛[54] 。通过椎静脉丛向骨骼的血液回流部分解释了乳腺癌易向中轴骨和肢带骨转移的原因。因潜在骨转移灶的位置分布较广,影像学筛查需要覆盖更大的区域,常要求全身显像。常用的骨转移影像诊断方法包括全身骨显像(whole-body bone scintigraphy, WBS)、计算机断层扫描(computed tomography, CT)、磁共振成像(magnetic resonance imaging, MRI)和正电子发射断层显像(positron emission tomography, PET)[55]。CT 可以清晰地显示骨破坏,硬化沉积,和转移瘤引起软组织肿胀;MRI 具有优异的骨和软组织对比分辨率;因 [18F] 氟化钠会特异性地被骨组织吸收、代谢, PET 可以定位全身各处骨代谢活跃的区域。然而,单一模态影像常不足以检测骨转移,且用传统方法综合单一患者的 CT、MRI、PET 数据筛查骨转移病灶需要对上千幅影像进行解读,这一极为耗时的过程可能影响临床医生对乳腺癌骨转移的诊断,造成误诊、漏诊。而骨转移的漏诊会误导一系列临床决策,导致灾难性后果。

作为一种客观评估体系,人工智能辅助骨转移自动诊断系统通过减少观察者间和观察者内的变异性,提高了诊断的一致性和可重复性,降低了假阴性率。在减轻临床医师的工作负担的同时,提高诊断的准确性。目前已经有很多在单一模态图像中(CT、MRI 或 PET)基于深度学习技术进行骨转移病变检测的工作: Noguchi 等人开发了一种基于深度学习的算法,实现了在所有 CT 扫描区域中对骨转移病灶的自动检测 [56];Fan 等人用 AdaBoost 算法和 Chan-Vese 算法在 MRI 图像上对肺癌的脊柱转移病灶进行了自动检测和分割肺[57];Moreau等人比较了不同深度学习算法在 PET/CT 图像上分割正常骨组织和乳腺癌骨转移区域的性能[58] 。但很少有使用跨模态数据融合的深度学习方法,判断是否存在骨转移灶的相关研究。

旨在减轻临床医生的工作负担,本章提出了基于特征转换的跨模态数据融合方法,用于分析 CT、MRI 和 PET 图像,以判断其中是否存在乳腺癌骨转移病灶。

基于特征转换的 CT、MRI 和 PET 跨模态图像数据融合,进行骨转移病变分类(即存在骨转移病灶和不存在骨转移病灶两类)项目包括三个研究任务:目标病变区域检测,特征构造及转换和分类任务。具体地,采用目标检测模型对不同模态的医学图像序列数据进行单独的骨转移瘤目标检测,再对这些检测结果进行特征提取。所提取的特征包括不同模态下检测结果置信度的区间占比、检测框的面积大小、检测框在图像中的空间位置分布等。这些特征被整理成结构化数据格式,完成了从非结构化影像数据到结构化数据特征的特征转换和融合过程。最后,将转换后的特征输入分类模型进行分类任务。实验比较了基于特征转换的跨模态数据融合方法在乳腺癌骨转移肿瘤分类任务的性能,与仅使用单模态数据执行分类
任务的性能。同时,还将本项目提出的基于特征转换的融合策略与其他融合方法进行了对比。

2.2. 研究方法

2.2.1. 研究设计和工作流程

本项目旨在判断 CT、MRI、PET 图像序列中是否存在乳腺癌骨转移病灶。工作流程如图 2-1 所示:扫描设备对每位患者进行 CT、MRI 或 PET 图像序列的采集;使用目标检测模型分别在不同模态图像中对可疑乳腺癌骨转移灶进行目标检测;对检测结果进行特征提取、构造和融合,得到具有可解释性的结构化医疗数据;用分类模型对结构化数据进行分类任务,得出预测结果,从而判断乳腺癌骨转移是否发生。

图 2-1 工作流程

img

2.2.2. 骨转移目标区域检测

先由两位临床医师对多模态数据集图像中的骨转移病灶进行人工标注,并对患者进行分类(标签分为乳腺癌骨转移和非乳腺癌骨转移),并训练 YOLOv5 目标检测网络,以识别各个单一模态图像中的乳腺癌骨转移病灶。

2.2.3. 基于特征转换的跨模态数据融合

在本项目的数据集中,各种模态序列影像的扫描范围均涵盖了患者的全身。某患者的影像序列(不论是单模态图像还是多模态图像)中检测到含有骨转移病灶的切片图像数量越多,则意味着该患者发生乳腺癌骨转移的概率越大。根据这一基本推理,采用后融合方法,将一个影像序列中含有肿瘤切片图像的比例(百分比)作为结构化的数据特征,作为后续分类任务的依据。

具体操作如下:在每个模态的图像中完成骨转移区域的目标检测任务训练后,统计每个图像序列中检测到转移瘤目标区域的检测框数量。按照检测框的置信度划分为 8 个区间:10%~20%、20%~30%、30%~40%、40%~50%、50%~60%、60%~70%、70%~80%和大于 80%。在每个区间内,分别统计各模态图像序列中转移瘤检测框数量,再除以该序列中切片图像的总数,得到每个置信度区间内每种模态图像序列中含有转移瘤检测框的百分比。接着将三种模态图像提取出的统计特征拼接,组成结构化数据,实现跨模态数据融合。若患者缺失某种模态数据,相应的统计特征(百分比)将被置为零。特征转换后的结构化数据如图 2-2 所示,每种模态数据包括 8 个特征,即不同的置信区间,最后一列为标签值,其中“0”表示负例,“1”表示正例。

图 2-2 特征转换后的结构化数据

img

2.2.4. 乳腺癌骨转移的分类模型

利用构建好的结构化医疗特征进行乳腺癌骨转移分类任务,融合跨模态图像数据特征判断是否发生乳腺癌骨转移。本项目采用分类模型主要以模式识别基础模型为主,包括SVM[59]、AdaBoost[60]、RandomForest[61]、LightGBM[62]、GBDT[63]。SVM 是一种基于核函数的监督学习模型,用于解决分类问题,通过寻找最优超平面在特征空间中将样本分为不同类别,决策函数映射输入特征到输出标签,核函数将特征映射到新空间,损失函数度量决策函数性能,最大化超平面与样本间距离实现分类,可使用不同核函数处理高维特征。Adaboost 是一种迭代算法,于1995 年由 Freund Y 等人提出,能够将多个弱分类器结合成一个强分类器,通过选择初始训练集、训练弱分类器、加权重新分配样本和重复训练直到训练完成所有弱学习器,最后通过加权平均或投票得出最终决策。由 Breiman L 等人于 2001 年提出得 RandomForest 是一种基于决策树的机器学习算法,可用于分类和回归任务。通过构建多个决策树并对它们的预测结果进行平均或投票来得出最终预测结果,训练过程中随机选择特征,以避免过拟合并减少计算量。机器学习模型 LightGBM是一种基于决策树的梯度提升机算法,由Ke G 等人在2017 年提出,适用于结构化数据的分类任务。具有高效、内存友好、支持并行处理和多 CPU 等特点,能快速处理大量特征,通过基于直方图的决策树算法减少训练时间和内存使用量。通过损失函数的泰勒展开式来近似表示残差来计算损失函数。由 Friedman J H 等人于2001 年提出的 GBDT 是一种迭代的决策树算法,通过构建多个决策树来拟合目标函数,每一步都在上一步的基础上构建新的决策树,以不断减小误差,流程包括选取子集、训练弱学习器、梯度下降法最小化误差,最终将弱学习器加入总体模型,重复以上步骤直至达到最优解。

2.2.4.1. 基于C3D 的跨模态数据融合分类模型

本项目采用C3D[64 分类模型作为对照模型,基于3D 卷积神经网络的深度学习方法,使用跨模态数据融合中的前融合策略。如图 2-1 所示,该融合策略从每个模态的图像序列中筛选出一部分,合并一个完整的多模态图像序列,并在通道上进行级联,进行跨模态数据融合。融合后的数据作为 3D 卷积神经网络的输入,经过多个 3D 卷积层提取特征,最终在全连接层中执行分类任务,以判断影像中是否存在乳腺癌骨转移病灶。

2.3. 实验

2.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2000 年 01 月至 2020 年 12月期间在北京协和医院或国家癌症中心中国医学科学院肿瘤医院被诊断为原发性乳腺癌的患者 2)有全身 CT 或 PET 或 MRI 其中任一模态的全身影像数据;3)有电子病历记录。入组患者中有145名被确诊为乳腺癌骨转移,作为正例样本,有88名患者未发生乳腺癌骨转移,作为负例样本。每例样本数据包含一至三种不同模态的图像序列,其图像尺寸和切片图像数量各异。乳腺癌骨转移的多模态医学图像数据集对患者的全身进行采样,由于患者的 CT、MRI 或 PET 是不同时间、在不同设备上采集的,不同模态间的特征并非一一匹配。其中,CT 模态共有3051 张切片,MRI 模态共有 3543 张切片,而 PET 模态共有 1818 张切片。在入组进行分析之前,所有患者数据都已去标识化。本研究已通过北京协和医院伦理委员会批准。

该数据集可以用于执行目标检测任务和分类任务。

骨转移目标检测任务仅分析数据集中的正例样本,进行五折交叉验证:将 145例患者的数据按模态分为三组(CT组、MRI组、PET组),在每个组内对数据进行五等分,在每轮验证中选取一部分作为测试集。为获得测试性能的平均值,所有模型都需进行5 次训练和评估。

在利用结构化数据执行分类任务时,需要平衡正负样本数量,因此要扩充数据集。将具有多种模态的样本拆分为包含较少模态的样本,如将“CT+MRI+PET”类型拆分为“CT+MRI”或“CT+PET”等。如表 2-1 所示,扩充后共有 380 例样本数据,包括188 个正样本和 192 个负样本。下一步,合并五折交叉验证的目标检测结果,此后,进行特征构建和转换,从而获得适合跨模态数据融合和分类任务的结构化数据;对于负样本数据,也需要在合并骨转移目标检测模型的推理结果后,对数据进行结构化处理。

为证实在乳腺癌骨转移判断的分类任务中,基于特征转换的跨模态融合数据性能优于单一模态数据,需要进行多模态融合数据与单模态数据的对照实验。如表 2-1 所示,单模态数据包括仅有 CT、仅有 MRI 和仅有 PET 三种类型的数据集合,总计 212 个样本,而多模态数据涵盖了CT+MRI、CT+PET、MRI+PET 和CT+MRI+PET 四种类型,共计 168 个样本。分别对单模态数据和多模态数据进行独立划分,将每种模态数据进行五等份,进行五折交叉验证。在每轮验证中,选择一部分作为测试集。利用 SVM、AdaBoost、RandomForest、LightGBM、GBDT以及 C3D 模型进行实验,每个模型都需进行 5 轮训练和评估,以获得测试集上性能的平均值。

为适应 C3D 模型对图像统一尺寸的要求,针对不同患者切片数量、大小的差异,进行预处理。在每种模态图像序列中等间隔抽取 60 张图像切片,并进行缩放,使其组合为 180 张 128×128 像素的切片。对于缺失的模态数据,用 60 张零像素值的黑色图像切片进行填充。从 180 张切片中随机选取一个起始位置,连续抽取 120张切片作为模型的最终输入,确保输入尺寸为 128×128×120 像素。

表 2-1 扩充后的分类数据集

img

2.3.2. 模型训练过程

在按上述步骤准备好数据集后,进行目标检测任务训练时,将每个模态的图像大小统一到1024×1024像素,然后使用多种数据增强方法,增加输入数据集对噪声的鲁棒性。

目标检测模型采用 YOLOv5 模型模型并使用 PyTorch 深度学习框架在 2 个Nvidia Tesla V100-SXM2 32G GPU 上进行 70 个轮次的训练。初始学习率为 0.00001,使用 0.98 的动量和 0.01 的权值衰减通过 SGD 来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。

进行分类任务时,采用 LightGBM、GBDT、AdaBoost、RandomForest 以及SVM,上述模型均为机器学习模型,其超参数对模型预测结果影响较大,在分类任务中,采用SVM、AdaBoost、RandomForest、LightGBM以及GBDT等机器学习模型。因其超参数会对预测结果产生较大影响,在训练过程中,使用网格搜索策略为这些模型寻找最佳参数。网格搜索策略在一定范围的超参数空间内寻找最佳的超参数组合,通过枚举各种可能的组合并评估模型预测结果,最终选择表现最优的超参数组合。要搜索的超参数包括学习率、树的最大深度、叶子节点数量、随机抽样比例、权重的L1正则化项和权重的L2正则化项等。实验结果将基于最优超参数设定下的预测模型。模型训练的网络结构图如图 2-3 所示。

用于对照的 C3D 模型使用 PyTorch 深度学习框架在 1 个 NVIDIA Tesla V100-SXM2 32GB GPU 上训练 100 个轮次,初始学习率为 0.00001,使用动量为 0.9,权值衰减为0.0005 的 SGD 梯度下降优化器对各网络层权重的目标函数进行优化。

图 2-3 网络结构图

img

2.3.3. 评价指标

本项目中的骨转移目标检测任务采用 AP50 作为评价指标,其介绍详见上一章节。

而在分类任务中,采用准确率(Accuracy, Acc)、敏感性(Sensitivity, Sen)、特异性(Specificity, Spe)、AUC(Area Under Curve, AUC)作为评价指标,并采用ROC 曲线和PR 曲线对模型进行评估。准确率是指对于给定的测试集,分类模型正确分类的样本数占总样本数的比例,如公式 5 所示,其中真正例(True Positive, TP)表示预测为正例且标签值为正例,假正例(False Positive, FP)表示预测为正例但标签值为负例,和假负例(False Negative, FN)和真负例(True Negative, TN)代表的概念以此类推。如公式 64 和公式 7 所示,敏感性和特异性的定义分别为:预
测正确的正例占所有正例的比例,以及预测正确的负例占所有负例的比例。ROC曲线是一种评估二分类模型的方法,其横轴为假阳性率(False Positive Rate,FPR),其计算方式与上一章的召回率(Recall)相同,纵轴为真阳性率(True Positive Rate,TPR),TPR 和 FPR 的计算方式详见公式 8 和公式 9。ROC 曲线展示了在不同阈值下,TPR 与 FPR 的变化关系。因为左上角点对应的假阳性率为 0,真阳性率为 1,表明模型将所有正例样本分类正确,且未将任何负例样本误判为正例。若 ROC 曲线靠近左上角,提示模型性能较好。AUC代表ROC曲线下的面积,即从(0,0)到(1,1)进行积分测量ROC曲线下二维区域的面积。AUC综合考虑所有可能的分类阈值,提供了一个全面的性能度量。AUC 值表示随机从正负样本中各抽取一个,分类器正确预测正例得分高于负例的概率。AUC 值越接近 1,说明模型性能越优秀。PR曲线的绘制方法详见上一章, PR曲线在不同分类阈值下展示了分类器在精度(Precision, P)和召回率(Recall, R)方面的整体表现。

img

2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析

本项目对乳腺癌骨转移多模态医学图像数据集(包括 CT、MRI、PET)进行了单模态肿瘤检测实验和基于特征转换的跨模态病例分类实验。其中,单模态肿瘤检测实验是多模态肿瘤分类实验的前置步骤。

采用单阶段目标检测模型 YOLOv5,在五折交叉验证下比较了使用单模态 CT图像、PET图像、MRI图像作为输入数据集时,模型的目标检测性能。并在将目标检测结果进行特征转换后,采用不同的分类模型,包括后融合分类模型(LightGBM、GBDT、AdaBoost、RandomForest、SVM) 和 前 融 合 分 类 模 型(C3D),在五折交叉验证下比较了使用单模态数据和跨模态融合数据作为输入时,每个模型的分类性能。

表 2-2 展示了在不同单一模态数据上,五折交叉验证得到的骨转移病灶检测结果,评估指标为 AP50。实验结果表明,PET 模态的检测精度较高,而 CT 模态的检测精度最低。输入数据量较少、检测目标面积小、转移瘤的特征难以与正常骨组织区分是提高检测精度的难点。图 2-4 不同单一模态图像下目标骨转移病变区域的检测结果和实际标注的癌灶区域进行了可视化。绿色框由医师标注,目标检测模型标注的预测框为黄色。

表 2-2 单模态骨转移灶检测五折交叉验证结果

img

图 2-4 可视化单模态目标检测结果

img

将 CT、MRI 和 PET 的数据组成单模态子数据集进行单模态分析,而将两种及两种以上的数据组成跨模态子数据集进行多模态分析。表 2-3 和表 2-4 展示了在上述两种子数据集中进行五折交叉验证的结果,对比了6 种不同模型每一折的准确率、AUC,及其平均值。这 6 类模型中的前 5 种模型使用后融合策略,而作为对照的C3D 模型采用前融合策略。对比表 2-3 和表 2-4 的实验结果可知,在任一模型(包括前融合模型)中,基于特征转换的跨模态融合数据在乳腺癌骨转移分类任务上相较于仅使用单模态数据的性能有所提高:平均准确率提高了7.9%;平均AUC 提高了8.5%。如表2-5 和2-6 所示,跨模态融合方法比单模态方法的平均敏感性提高了7.6%,平均特异性提高了 9.4%。

表 2-3 基于单模态子数据集进行分类任务的准确率和 AUC

img

表 2-4 基于跨模态子数据集行分类任务的准确率和 AUC

img

表 2-5 单模态数据分类的敏感性和特异性

img

表 2-6 跨模态融合数据分类的敏感性和特异性

img

图 2-5 和图 2-6 分别展示了 6 个模型利用单模态数据进行分类实验和利用特征转换和融合后的跨模态数据进行分类实验的 PR 曲线。可以根据曲线形状和曲线下方面积来评估不同模型的性能表现,曲线下面积越大,提示模型的性能越优秀。综合观察单模态和跨模态分类实验的P-R曲线图,可以发现,基于跨模态数据的分类任务的P-R 曲线下面积大于基于单模态数据的分类任务的P-R 曲线下面积,提示跨模态数据作为输入时分类模型的表现更加出色。

比较基于单模态数据进行分类的模型的 P-R 曲线,可见 3D 卷积网络的训练方式相较于其他后融合模型的性能表现更优。然而,在基于跨模态数据进行分类的模型的 P-R 曲线中,基于特征转换的跨模态后融合策略相对于基于 3D 卷积的前融合方法具有更好的性能。

图 2-5 基于单模态数据不同分类模型的的PR 曲线

img

图 2-6 基于跨模态数据不同分类模型的的PR 曲线

img

图 2-7 和图 2-8 展示了 6 种分类模型在使用单模态数据进行分类实验和使用跨模态数据进行分类实验的情况下的ROC 曲线。通过对比观察六个模型的ROC 曲线的形状和面积来评估不同模型的性能。靠近左上角的 ROC 曲线表示假阳性率接近0,真阳性率接近 1,趋近于左上角的 ROC 曲线提示模型性能优越。对比图 2-7 和图 2-8 可知,使用基于特征转换的跨模态数据的骨转移病例分类模型的性能更为优越。

图 2-7 基于单模态数据不同分类模型的的ROC 曲线

img

图 2-8 基于跨模态数据不同分类模型的的ROC 曲线

img

本文提出的跨模态数据融合方法是基于特征转换的后融合策略,相较于前融合策略具有更好的性能。实验表明,无论采用前融合或后融合策略,基于跨模态融合数据的实验都表现出了显著的优势。相较于多模态数据,单一模态数据所捕获的特征较为单一(如仅有结构信息) ,可能由于缺乏关键和全面的特征信息导致模型性能不佳,而跨模态融合方法则能从不同模态中获取更多的有效特征,并将其融合,从而提高准确率。

2.4. 讨论

本项目旨在评估基于特征转换的跨模态数据融合方法是否可以跨模态融合 CT、MRI 和 PET 图像的有效特征,以对乳腺癌患者进行是否发生骨转移的评估。本项目提出了一个基于特征转换的跨模态融合图像数据框架,用于对骨转移病变进行分类,包括目标病变区域检测、特征构造及融合形成可解释的结构化数据以及跨模态融合数据分类步骤。融合 CT、MRI 和 PET 的转换特征数据能够充分利用各个模态中的信息,为分类任务提供更多的数据支持,并增加辅助判断的特征线索。基于特征转换的跨模态病例分类实验证明,本项目提出的跨模态融合数据显著提高了对影像序列进行二分类任务的性能,相较于单模态数据,平均准确率和 AUC分别提高了7.9%和 8.5%。

如表 2-2 所示,单模态目标检测模型在 PET 图像中的检测精度较高,而在 CT和 MRI 图像中的精度相对较低。图 2-4 展示了在 YOLOv5 目标检测模型中不同单一输入图像模态下乳腺癌骨转移检测效果的可视化图像。分析各种图像模态信息可知,CT 和 MRI 图像不仅包含病灶的解剖信息,还包含了人体正常组织的结构信息,而后者可能会干扰宫颈癌病变区域特征的识别和检测,导致单一CT或MRI模态下出现漏检现象。与之不同,PET图像展示的是组织代谢信息。骨转移病灶通常伴随着频繁的成骨和破骨活动,在 PET 影像中呈高代谢,而正常骨组织的代谢相对较缓慢,通常不会显示在图像中。因此,PET 对背景组织的干扰较 CT、MRI 更不敏感,有助于目标检测模型识别异常代谢区域。因早期无症状骨转移病灶通常体积较小,可能因目标区域面积过小影响目标检测结果。在模型处理过程中,池化(pooling)操作可能导致特征或图像信息的损失,从而造成特征缺失。为了克服这一问题,后续研究可以关注提高模型在处理小目标区域时的性能。

表 2-4 和表 2-6 展示了在各种分类模型中,基于跨模态结构化数据在五折交叉验证下的分类性能。通过对比分析发现,相对于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在性能方面有所提高。医学影像数据有数据量较少、维度高、结构复杂以及样本识别难度大等特点,这导致将特征提取任务交由模型完成,直接输入原始数据或经过简单预处理的数据,让模型自主进行特征提取并生成最终输出的这种端到端的前融合方法效果不尽如人意。由于患者在体型、身高等方面的个体差异,一个图像序列内的CT和MRI切片数量也有所不同。因此,需要对图像进行归一化处理,将其转换为统一的标准格式,如调整到相同尺寸、修正切割后图像中心的位置等。归一化操作旨在对数据进行统一格式化和压缩,但这可能会导致图像未对齐、图像与特征错位、数据压缩过度以及特征丢失等问题。因此,采用基于特征转换的后融合策略可能更合适本项目。前融合所采用的 C3D分类模型是一种在三维数据上进行分析的网络模型。三维数据具有尺度高、维度大以及信息稀疏等特点。尽管 C3D 网络训练过程中增加了一个维度的信息,但同时也提高了算法分析的复杂性,特别是在模型训练过程中,占用了大量显存等硬件资源,可能导致批归一化不理想和网络收敛不完全的问题。与 C3D 相比,本文提出的二阶段后融合方法实现了特征压缩,提取置信度这种可解释的特征,并去除了无关的稀疏特征。在有限的硬件资源和数据量的限制下,这种方法能更好地学习数据特征,起到了类似正则化(通过在损失函数中添加约束,规范模型在后续迭代过程中避免过度拟合)的效果。

乳腺癌骨转移病灶在代谢和结构方面都较正常骨组织显著不同。因此,通过融合 CT、MRI 和 PET 图像的特征信息,实现解剖和功能信息的跨模态融合,能更有效地完成分类任务,帮助诊断乳腺癌骨转移。然而,综合分析全身 CT、MRI 和PET图像信息需要医师投入大量时间,且存在较大的观察者间差异。一旦发生漏诊,会导致严重后果。利用计算机辅助医师判断乳腺癌是否发生骨转移不仅可以节省成本和时间,还能提供更加客观的评估标准。计算机辅助诊断工具可以综合多模态图像的结果进行特征转换和分析,预防漏诊的发生。因此,在未来的研究中,可以重点关注开发此类计算机辅助诊断系统,以提高乳腺癌骨转移诊断的准确性和效率。

这项研究仍存在一些局限性。从单个影像模态中提取的特征较为单一,仅有置信区间,可以在后续的训练中可以从临床角度出发加入更多可能影响骨转移判断的因素作为分类特征,如检测目标的面积,或增加中轴骨检出目标的权重。因本项研究具有多模态影像数据的病例量不够,未来可以尝试除五折交叉验证之外其他的模型训练方法以降低数据量对分类模型性能的影响。

2.5. 结论

本项目提出了一种基于特征转换的跨模态数据融合方法进行分类任务的深度学习框架,用于判断是否发生乳腺癌骨转移。首先独立对不同模态的医学图像数据进行肿瘤检测,根据目标检测结果进行特征构造,并将其组织成结构化数据的形式,完成从非结构化数据特征到结构化数据特征的转换与融合。最终,将结构化数据特征输入分类器,进行骨转移的分类任务,并对照 C3D 前融合模型,讨论了基于特征转换方法进行跨模态数据后融合的优势。大量的实验证明,使用基于特征转换的跨模态融合数据进行分类任务的性能优于基于单模态数据的分类性能;使用本项目提出的后融合策略执行分类任务较使用前融合策略的分类模型(C3D)的性能更好。

本项目所提出的技术可综合 CT、MRI 和 PET 模态数据的特征,对乳腺癌患者是否发生骨转移进行判断,辅助临床医师进行乳腺癌骨转移病灶的筛查,具备实际应用价值,也为在医学图像分析任务中更有效地应用跨模态融合方法,提供了关键的理论支持。

全文小结

目前,医学影像学的解读大量依赖临床医生个人的主观诊断经验,人工阅片易漏诊小目标,难以推广及表述,具有一定的局限性。与此相比,人工智能技术可以通过深度神经网络对大量积累的影像数据和诊断数据进行分析,学习并提取数据中对病理诊断有用的特征,从而在数据支持下做出更客观的判断。按成像方式不同,医学影像数据可分为多种模态,如B超、CT、MRI、PET。为了最大限度模拟临床医生结合不同模态影像检查结果形成诊断的过程,设计人工智能模型时,应将各种影像学模态的特征进行有效的融合,即本项目中应用的跨模态深度学习方法,充分利用不同模态图像的独特优势训练深度神经网络,从而提高模型性能。本项目以宫颈癌和乳腺癌骨转移为例,验证了跨模态深度学习方法在病变区域定
位和辅助诊断方面的性能。

在第一部分中,我们回顾性纳入了220例有FDG-PET/CT数据的宫颈癌患者,共计 72,602 张切片图像。通过图像增强、边缘检测,实现 PET 和 CT 图像的 ROI自适应定位,再通过缩放、零值填充和剪切的方式,将两种模态图像的 ROI 对齐。经过加权和图像叠加,进行图像融合,将融合后的图像作为目标检测网络的输入层,进行宫颈癌病变区域检测。实验证明,相比使用单一 CT 图像、单一 PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像作为网络输入,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性,目标检测的平均精确度(AP50)分别提高了 6.06%和 8.9%,且消除了一些假阳性结果,展现出可观的临床应用价值。

在第二部分中,我们回顾性纳入了 233 例乳腺癌患者,每例样本数据包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有 3051 张 CT 切片,3543 张 MRI切片,1818 张 PET 切片。首先训练 YOLOv5 目标检测网络,对每种单一模态图像中的骨转移病灶进行目标检测。统计每个影像序列中含有检出骨转移病灶的个数和置信度,将每个置信区间内含有目标检测框的百分比作为结构化医疗特征数据。采用级联方式融合三种模态的结构化特征,得到具有可解释性的结构化医疗数据,再用分类模型进行分类,预测是否发生骨转移。实验证明,相较于单模态数据,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能,平均准确率和 AUC 分别提高了 7.9%和 8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也有相同的实验结论。在不同的分类模型(SVM、AdaBoost、RandomForest、LightGBM、GBDT)中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

综上所述,本文基于人工智能深度学习算法,针对不同模态医学图像的特征差异与互补性,进行多模态医学影像数据的跨模态融合,提高了模型的肿瘤检测和分类性能,检测模型和分类模型可以辅助影像学阅片过程,具有显著的临床实际应用价值。

参考文献

[1] 陈思源, 谭艾迪, 魏双剑, 盖珂珂. 基于区块链的医疗影像数据人工智能检测模型[J] . 网络安全与数据治理, 2022, 41(10): 21-25.
[2] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J . Gastroenterology, 2023, 164(2): 191-193.
[3] Arbyn M, Weiderpass E, Bruni L, et al. Estimates of incidence and mortality of cervical cancer in 2018: a worldwide analysis[J . The Lancet Global Health, 2020, 8(2): e191-e203.
[4] Marth C, Landoni F, Mahner S, et al. Cervical cancer: ESMO Clinical Practice Guidelines for diagnosis, treatment and follow-up[J . Annals of Oncology, 2017, 28:iv72-iv83.
[5] Gold M A. PET in Cervical Cancer—Implications forStaging,’Treatment Planning, Assessment of Prognosis, and Prediction of Response[J . Journal of the National Comprehensive Cancer Network, 2008, 6(1): 37-45.
[6] Gandy N, Arshad M A, Park W H E, et al. FDG-PET imaging in cervical cancer[C] .Seminars in nuclear medicine. WB Saunders, 2019, 49(6): 461-470.
[7] Grigsby P W. PET/CT imaging to guide cervical cancer therapy[J . Future Oncology, 2009, 5(7): 953-958.
[8] Mirpour S, Mhlanga J C, Logeswaran P, et al. The role of PET/CT in the management of cervical cancer[J . American Journal of Roentgenology, 2013, 201(2): W192-W205.
[9] LeCun Y, Bengio Y, Hinton G. Deep learning[J . nature, 2015, 521(7553): 436-444.
[10] Szeliski R. Computer vision: algorithms and applications Springer Science & Business Media[J] . 2010.
[11] Ma B, Yin X, Wu D, et al. End-to-end learning for simultaneously generating decision
map and multi-focus image fusion result[J . Neurocomputing, 2022, 470: 204-216.
[12] Anwar S M, Majid M, Qayyum A, et al. Medical image analysis using convolutional
neural networks: a review[J . Journal of medical systems, 2018, 42: 1-13.
[13] Ma B, Ban X, Huang H, et al. Deep learning-based image segmentation for al-la alloy
microscopic images[J . Symmetry, 2018, 10(4): 107.
[14] Li Z, He J, Zhang X, et al. Toward high accuracy and visualization: An interpretable feature extraction method based on genetic programming and non-overlap degree[C] . 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2020: 299-304.
[15] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J] . nature, 1986, 323(6088): 533-536.
[16] He K , Gkioxari G , Dollar P , et al. Mask R-CNN[C . International Conference on Computer Vision. IEEE Computer Society, 2017, pp. 2980-2988.
[17] Ma B, Wei X, Liu C, et al. Data augmentation in microscopic images for material data mining[J] . npj Computational Materials, 2020, 6(1): 125.
[18] Ma B, Zhu Y, Yin X, et al. Sesf-fuse: An unsupervised deep model for multi-focus image fusion[J] . Neural Computing and Applications, 2021, 33: 5793-5804.
[19] Kermany D S, Goldbaum M, Cai W, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J . cell, 2018, 172(5): 1122-1131. e9.
[20] Hyun S H, Ahn M S, Koh Y W, et al. A machine-learning approach using PET-based radiomics to predict the histological subtypes of lung cancer[J . Clinical nuclear medicine, 2019, 44(12): 956-960.
[21] Chilamkurthy S, Ghosh R, Tanamala S, et al. Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study[J . The Lancet, 2018, 392(10162): 2388-2396.
[22] Chen C, Xiao R, Zhang T, et al. Pathological lung segmentation in chest CT images based on improved random walker[J] . Computer methods and programs in biomedicine, 2021, 200: 105864.
[23] Chen C, Zhou K, Zha M, et al. An effective deep neural network for lung lesions segmentation from COVID-19 CT images[J] . IEEE Transactions on Industrial Informatics, 2021, 17(9): 6528-6538.
[24] Hill D L G, Batchelor P G, Holden M, et al. Medical image registration[J] . Physics in medicine & biology, 2001, 46(3): R1.
[25] Du J, Li W, Lu K, et al. An overview of multi-modal medical image fusion[J] .Neurocomputing, 2016, 215: 3-20.
[26] Watanabe H, Ariji Y, Fukuda M, et al. Deep learning object detection of maxillary cyst-like lesions on panoramic radiographs: preliminary study[J] . Oral radiology, 2021, 37: 487-493.
[27] Mattes D, Haynor D R, Vesselle H, et al. PET-CT image registration in the chest using free-form deformations[J] . IEEE transactions on medical imaging, 2003, 22(1): 120-128.
[28] Maqsood S, Javed U. Multi-modal medical image fusion based on two-scale image decomposition and sparse representation[J] . Biomedical Signal Processing and Control, 2020, 57: 101810.
[29] Elakkiya R, Subramaniyaswamy V, Vijayakumar V, et al. Cervical cancer diagnostics healthcare system using hybrid object detection adversarial networks[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 26(4): 1464-1471.
[30] Al-Ameen Z, Sulong G, Gapar M D, et al. Reducing the Gaussian blur artifact from CT medical images by employing a combination of sharpening filters and iterative deblurring algorithms[J] . Journal of Theoretical and Applied Information Technology, 2012, 46(1): 31-36.
[31] Canny J. A computational approach to edge detection[J] . IEEE Transactions on pattern analysis and machine intelligence, 1986 (6): 679-698.
[32] Jocher G, Stoken A, Borovec J, et al. ultralytics/yolov5: v5. 0-YOLOv5-P6 1280 models, AWS, Supervise. ly and YouTube integrations[J . Zenodo, 2021.
[33] Wang C Y, Liao H Y M, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020: 390-391.
[34] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C .
Proceedings of the IEEE conference on computer vision and pattern recognition, 2018:
8759-8768.
[35] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv, 2020, 2004: 10934.
[36] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J . IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.
[37] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J . Radiology, 2019, 292(1): 15-24.
[38] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv:2004.10934, 2020.
[39] Smith A R. Color gamut transform pairs[J . ACM Siggraph Computer Graphics, 1978, 12(3): 12-19.
[40] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by
reducing internal covariate shift[C . International conference on machine learning.
pmlr, 2015: 448-456.
[41] Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J . Neural Networks, 2018, 107: 3-11.
[42] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C] .Proceedings of the IEEE international conference on computer vision. 2017: 2980-2988.
[43] Zhang S, Chi C, Yao Y, et al. Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 9759-9768.
[44] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J . Advances in neural information processing systems, 2015, 28.
[45] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality object detection[C] .Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:6154-6162.
[46] Pang J, Chen K, Shi J, et al. Libra r-cnn: Towards balanced learning for object detection[C] . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019: 821-830.
[47] Cohen P A, Jhingran A, Oaknin A, et al. Cervical cancer[J . The Lancet, 2019, 393(10167): 169-182.
[48] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J] . Radiology, 2019, 292(1): 15-24.
[49] Coleman R E. Metastatic bone disease: clinical features, pathophysiology and treatment strategies[J . Cancer treatment reviews, 2001, 27(3): 165-176.
[50] Cecchini M G, Wetterwald A, Van Der Pluijm G, et al. Molecular and biological mechanisms of bone metastasis[J . EAU Update Series, 2005, 3(4): 214-226.
[51] Cuccurullo V, Lucio Cascini G, Tamburrini O, et al. Bone metastases radiopharmaceuticals:
an overview[J . Current radiopharmaceuticals, 2013, 6(1): 41-47.
[52] Emens L A, Davidson N E. The follow-up of breast cancer[C . Seminars in oncology. WB Saunders, 2003, 30(3): 338-348.
[53] Chen W Z, Shen J F, Zhou Y, et al. Clinical characteristics and risk factors for developing bone metastases in patients with breast cancer[J . Scientific reports, 2017, 7(1): 1-7.
[54] Batson O V. The function of the vertebral veins and their role in the spread of metastases[J . Annals of surgery, 1940, 112(1): 138.
[55] O’Sullivan G J, Carty F L, Cronin C G. Imaging of bone metastasis: an update[J] .World journal of radiology, 2015, 7(8): 202.
[56] Noguchi S, Nishio M, Sakamoto R, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J . European Radiology, 2022, 32(11): 7976-7987.
[57] Fan X , Zhang X , Zhang Z , et al. Deep Learning on MRI Images for Diagnosis of Lung Cancer Spinal Bone Metastasis[J . Contrast Media & Molecular Imaging, 2021, 2021(1):1-9.
[58] Moreau N, Rousseau C, Fourcade C, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[C] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). IEEE, 2020: 1532-1535.
[59] Boser B E, Guyon I M, Vapnik V N. A training algorithm for optimal margin classifiers[C] . Proceedings of the fifth annual workshop on Computational learning theory, 1992: 144-152.
[60] Freund Y, Schapire R E. A decision-theoretic generalization of on-line learning and an application to boosting[J] . Journal of computer and system sciences, 1997, 55(1): 119-139.
[61] Breiman L. Random forests[J . Machine learning, 2001, 45: 5-32.
[62] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree[J] . Advances in neural information processing systems, 2017, 30: 52.
[63] Chen T, Guestrin C. Xgboost: A scalable tree boosting system[C . Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016: 785-794.
[64] Tran D, Bourdev L, Fergus R, et al. Learning spatiotemporal features with 3d convolutional networks[C . Proceedings of the IEEE international conference on computer vision, 2015: 4489-4497.

img

文献综述

3. 跨模态深度学习技术在临床影像中的应用

The Application of Deep Learning and Cross-modal Fusion Methods in Medical Imaging

Abstract

Deep learning technology is gaining widespread prominence across various fields in this era. In the realm of medical imaging, it has steadily assumed a pivotal role in tasks such as feature recognition, object detection, and image segmentation, since its inception. With the continuous evolution of imaging techniques, the individual patient often possesses an expanding wealth of multi-modal imaging data. It is evident that deep learning models utilizing cross-modal image fusion techniques will find diverse applications in a lot more clinical scenarios. In the future, deep learning will play a significant role in the medical sector, encompassing screening, diagnosis, treatment, and long-term disease management. To provide a reference for future research, this review aims to present a concise overview of the fundamental principles of deep learning, the nature of cross-modal fusion methods based on deep learning, with their wide-ranging applications, and a comprehensive survey of the present clinical uses of single-modal and cross-modal deep learning techniques in medical imaging, with a particular emphasis on bone metastasis imaging.

Keywords: deep learning, cross-modal, tumor imaging, bong metastasis

3.1 Preface

Nowadays, data are generated in massive quantities in the healthcare sector, from sources such as high-resolution medical imaging, biosensors with continuous output of physiologic metrics, genome sequencing, and electronic medical records. The limits on the analysis of such data by humans alone have clearly been exceeded, necessitating an increased reliance on machines. The use of artificial intelligence (AI), the deep-learning subtype in particular, has been enabled by the use of labeled big data, along with markedly enhanced computing power and cloud storage. One field that has attracted particular attention for the application of AI is radiology, as the cost of medical scans is declining, and the use of imaging studies is now at least as common as physical examinations, even surpassing the latter in surgical emergencies out of humanism and accuracy concerns. AI can greatly aid clinicians in diagnosis, especially in the interpretation of radiographic images, the accuracy of which heavily relies on the clinical experience and scrutiny of their interpreters, thus freeing clinicians to devote more of their attention to providing bedside healthcare. The radiologic screening and staging of tumors rely heavily on radiologists’ subjective judgments. For some minuscule or ambivalent lesions, it is often difficult to arrive at a definitive diagnosis based solely on clinical experience. A case reported by Dong et al. proves the vulnerability of relying on error-prone human judgment[1 . AI methods mainly analyze medical images through image processing and deep learning techniques. As an assistant for clinicians, deep neural networks can be trained with large datasets of radiologic images or clinical information, automatically learning features key to the revelation of pathology or lesion localization. In addition to deep learning models based on images of a single modality, researchers have also proven the feasibility of integrating multi-modal medical imaging data in algorithms, with improved model robustness. A combination of feature representations from different imaging modalities can effectively improve the performance of tumor detection, classification, and segmentation. Artificially generating relatively scarce imaging data from more easily accessible radiographs by way of cross-modal image translation can not only aid diagnoses but also improve the performance of deep learning models.

This article will briefly review the relevant background of deep neural networks (DNNs), as well as the up-to-date development of cross-modal fusion and image translation methods. An overview of the current clinical applications of single-modal and cross-modal deep learning in tumor imaging, especially in bone metastasis imaging, is also provided.

3.2. Deep Neural Network (DNN)

Traditional machine learning methods face limitations in handling data in its raw form, as creating a suitable internal representation or feature vector requires a meticulous feature extractor designed manually to convert raw data, such as image pixels. Only after then a classifier, every detail of which was manually set and adjusted, could detect or classify patterns in the input, and spell out its outcome. Because of the varying qualities of images, lots of intricate image enhancement or filtering algorithms, such as adaptive Gaussian learning, histogram equalization, and de-noising, are designed alone for the purpose of pre-processing images to be ready for the feature extractor. Another downside of conventional machine learning is that manually coded algorithms would only, with images with finer details or better contrast, allow for automatic execution of the thought processes that can best mimic, not surpass, that of a clinician. All the key features to be extracted and used in encoding the classifier were essentially the same set of “inputs” a clinician would use to make his or her judgment.

In contrast, “representation learning” is a set of techniques utilized in deep learning, which enable machines to analyze raw data without manual feature engineering. This allows the system to automatically identify the relevant patterns or features needed for classification or detection. Pattern recognition using deep neural networks (DNNs) can help interpret medical scans, pathology slides, skin lesions, retinal images, electrocardiograms, endoscopy, faces, and vital signs. Deep learning algorithms employ multiple tiers of representation through the composition of nonlinear modules, which transform the input representation from one level to the next, beginning with the raw input and continuing to higher and more abstract levels. It is helpful to think of the entire network as, nonetheless, a “function”, that takes in a set of inputs and spills out an output, though with absurdly complicated parameters and transformations. Irrelevant variations or noise can be lost as stepping up towards the higher layers of representation that amplify only features important for discrimination. By this “layering” method, very complex functions can be learned. A key differentiating feature of deep learning compared with other subtypes of AI is its autodidactic quality, i.e. neither the number of layers nor features of each layer is designed by human engineers, unencumbered by either the essence or the flaws of the human brain.

3.2.1. Supervised learning

Supervised learning is the process of learning with training labels assigned by the supervisor, i.e. the training set of examples has its raw input data bundled with their desired outputs. When used to classify images into different categories, the machine is shown an image and produces an output in the form of a vector of scores, one for each category during training. In supervised learning, the machine receives immediate feedback on its performance when its output does not match the expected output. The aim is to assign the highest score to the desired category among all categories. This is achieved by calculating a cost function that measures the average error or distance between the output scores and the expected pattern of scores. The inputs of the cost function are the parameters of the machine. Much like the “update rule” used in the Mixed Complementarity Problem (MCP), the perceptron learning algorithm updates its internal adjustable parameters to minimize errors when it predicts the wrong category[2]. The adjustable parameters consist of weights and biases, where weights control the input-output function of the machine. The algorithm learns from its mistakes rather than successes, and the weights can number in the hundreds or millions. Weights are assigned to the connections between neurons from the input layer and one of the neurons in the next layer, in some sense representing the “strength” of a connection. The activation of a single notch of neurons in the next layer was computed by taking the weighted sum of all the activations of the first layer, e.g., greyscale values of the pixels. Just like biological neurons may have different thresholds that the graded sum of electric potentials at the cell body needed to reach for axonal propagation, the algorithm may not want its neuron to light up simply over a sum greater than 0. So, a “bias for inactivity” is introduced into the weighted sum formula. For example, if a neuron is designed to be active only if the weighted sum exceeds 10, then a 10 is subtracted from the formula before the transformation that follows. Weights represent the pixel pattern (weight assigned to each pixel can be visualized as a pixel pattern) that the algorithm identifies, while biases provide a threshold indicating the required level of weighted sum for a neuron to become meaningfully active. When the goal is to have the value of activations of the next layer between 0 and 1 and were the mapping to be smooth and linear, then the weighted sum can be pumped into a sigmoid function, i.e. 1/(1 + exp(−w)), where w is the weighted sum. A sigmoid transformation compresses the continuum of real numbers, mapping them onto the interval between 0 and 1, effectively pushing negative inputs towards zero, and positive inputs towards 1, and the output steadily increases around the input 0. Say the mapping is from p neurons from the one layer to the q neurons of the next layer, there would be p×q number of weights and q biases. These are all adjustable parameters that can be manipulated to modify the behavior of this network. In a deep learning system, changing the parameters may reflect a shift in the location, size, or shape of the representations to find “better” features to travel through the layers to get to the desired output.

At present though, preferred mappings in DNN are neither smooth nor linear. By applying a non-linear function to the input, the categories become separable by the last output layer in a linear way, resulting in a definitive category output, unlike the previously mentioned range of numerical values that would require arbitrary cut-off points to finalize the categorization. A sigmoid transformation was once popular in the era of Multilayer Perceptron, during which a machine was simply an executor of commands, and the feature detected by each layer was designed and programmed by human engineers, such that the final output, as a continuous variable, would be interpretable[3]. The rectified linear unit (ReLU) is currently the most widely used non-linear function, which introduces non-linearity into the network by setting all negative values to zero. This is in contrast to the smoother non-linearities, such as tanh(z) or 1/(1 + exp(−z)), used in previous decades.
ReLU has proven to be a faster learner in deep networks compared to these other non-linear functions and allows for the training of deep supervised networks without the need for unsupervised pre-training[4].

This would not work in DNN, as hidden layers would not be picking up edges and patterns based on our expectations. How the machine gets to the correct output is still an enigma, and its intelligence still awaits revelation.

The essential of learning by neural networks is to minimize the cost function. It is important for this cost function to have a nice and smooth output so that the local minimum can be obtained by taking little steps downhill, rather than being either on or off in a binary way the way biological neurons are. To adjust the weight and bias values of the parameter vector in a high-dimensional space, the learning algorithm computes a gradient vector that specifies how much the error, or cost, would increase or decrease if each parameter were slightly modified. In mathematical terms, this is similar to taking derivatives of a function with respect to a variable to observe the trend of the function between the two infinitesimally close values of that variable. In multivariate calculus, the gradient of a function indicates the path of the steepest incline, pointing towards the direction in the input space where one should move to minimize the output of this cost function with the utmost speed, and the length of the vector indicates exactly how steep the steepest ascent is. The weight vector is modified by shifting it in the opposite direction of the gradient vector, and the size of the adjustments is proportional to the slope of the gradient vector. When the slope of the gradient vector approaches the minimum, the step size decreases to prevent overshooting. This is the so-called “gradient descent” that converges on some local minimum. Minimizing the cost function can guarantee better performance across all training samples. Viewed from a different perspective, the gradient vector of the cost function encodes the relative importance of weights and biases, which changes to which weights matter the most to minimize the cost. The magnitude of each component represents
how sensitive the cost is to each weight and bias.

In practice, most practitioners use a procedure called stochastic gradient descent (SGD). It involves randomly selecting a few input vectors as mini-batches, computing the corresponding outputs, errors, and the gradient descent step. The weights were adjusted accordingly. This process is repeated for many small subsets of examples from the training set until the average cost function stops decreasing. Each small subset of examples gives a noisy estimate of the average gradient over all examples, and thus the “stochasticity”. Despite its simplicity, SGD often achieves good results with far less computation time than more complex optimization techniques[5].

3.2.2. Backpropagation

Recursively adjusting the weights in proportion to the activation of the second-to-last layer, vise vera, or altering the biases to decrease the cost for a single training sample is a single round of digital learning. In a nutshell, the backpropagation procedure is an algorithm of computing the gradient descent efficiently. Calculating the gradient of a cost function with respect to the weights in a stacked multilayer module is a practical application of the chain rule of derivatives. A key insight is that the derivative of the cost function concerning the input can be obtained by reversing the order of the layers, working from the higher to the lower layers. The process of backpropagation entails computing gradients through all layers. From the uppermost layer where the network generates predictions down towards the lowermost layer where the external input is introduced. Once these gradients have been calculated, it is straightforward to determine the gradients with respect to the weights and biases of each module. After these gradients are computed, it becomes a straightforward task to derive the gradients with respect to the weights and biases of each module. The average of desired changes, obtained by traversing the backpropagation route for alternate training samples, was the optimal adjustment that parameters could make to make the model performs better in the training set.

It was commonly thought that a simple gradient descent would get trapped in suboptimal local minima — weight configurations for which no small change would reduce the cost function, as finding the global minimum would be an intractable task. Recent theoretical and empirical results strongly suggest the cost function’s landscape is actually filled with a huge number of saddle points where the gradient is zero, indicating that the optimization challenge is more complex than originally thought, but most of these points have similar cost function values[6]. In other words, the depth of the local minima is almost the same across different saddle points, so it is not crucial which one the algorithm gets stuck at.

3.2.3. Convolutional neural networks (CNN)

Convolutional neural networks (CNNs) are easier to train and have better generalization capabilities compared to other feedforward networks with fully connected layers. They are specifically designed to process data represented as multiple arrays, such as grayscale images consisting of a single 2D array containing pixel intensities of varying values.

The four key ideas behind CNN are inspired by the properties of natural signals and visual neuroscience: local connections, shared weights, pooling, and the use of multi-layer. The convolutional and pooling layers are directly inspired by the concept of simple cells and complex cells, respectively, in the visual cortex, and the overall architecture is reminiscent of the LGN-V1-V2-V4-IT hierarchy in the visual cortex’s ventral pathway[7][8]. Local groups of values in array data often exhibit high correlation and form characteristic local motifs that can be readily identified. Therefore, pattern recognition makes CNN most useful in detecting images.

3.2.3.1. Convolution

The main function of the convolutional layer is to identify and extract local combinations of features from the preceding layer (Fig. 1). The actual process of matching is accomplished through filtering in the convolutional layer: A filter bank can be thought of as a small matrix of representative features (of real numbers) for which the number of rows and columns, eg. n× n, of pixels is arbitrarily set. The filter and image patch are lined up, and each image pixel is multiplied (dot product) by the corresponding feature. The result is added up and divided by the total number of pixels in the filter to arrive at a specific feature value. Feature value indicates how well the feature is represented at that position. Sliding over n pixels, the same procedure is repeated for every n× n block of pixels for the entire input image, and a feature map, a “map” of where the filter feature occurs, is obtained. All units in a feature map share the same filter bank. Therefore, the local characteristics of images and other signals remain constant regardless of their location. In simpler terms, a pattern that appears in one part of the image can appear in any other part as well. Hence, the approach of employing units with identical weights to identify corresponding patterns across various sections of the array is adopted. In a convolution layer, filtering can be performed for a bunch of features and create a stack of filtered images. Each feature map in a layer employs its own filter bank. From a mathematical standpoint, the operation of filtering executed by a feature map can be described as a discrete convolution, hence the name.

img

Fig. 1: Example of a filter (kernel) convolution. Note the new pixel value shown in the figure has not been weighted by the number of windows in the filter.

3.2.3.2. Pooling

The aim of the pooling layer is to reduce the size of a feature map by merging similar features into a single one through the following steps: (1) choose an appropriate window size, usually 2×2 or 3×3 pixels; (2) pick a stride (by how many pixels the window steps down to run through a feature map) accordingly, usually 2 pixels; (3) walk the window by its stride across the filtered images; (4) take the maximum value in each window as the pooling result and form a “pooled map”. A robust motif detection can be accomplished by simplifying the positioning of each feature across all feature maps that are fed into this CNN layer. Pooling helped the algorithm to neglect where in each window the maximum value occurs, making it less sensitive to small shifts in position, either parallel or rotational, an image that strongly fits the filter will still get picked up.

3.2.3.3. Normalization

To keep the math from blowing up, a layer is then passed through a non-linearity such as a ReLU making negative values all 0. This procedure of nonlinear transformation is “normalization” in deep learning terms.

The CNN architecture involves stacking multiple stages of convolution, non-linearity (normalization), and pooling on top of each other, followed by a final fully connected layer (Fig. 2). Each layer’s filter banks in the convolutional layers and voting weights in the fully connected layer are learned through the backpropagation algorithm. In the fully connected layer, also known as the dense layer due to the fact that a large number of neurons are densely connected with each other, a list of feature values becomes a list of votes, when timed by relevant weights that map this layer to the output layer gives the final answer. It is worth noting that this list of votes in the fully connected layer looks a lot alike a list of feature values. Indeed, the output of this layer as intermediate categories can still feed into the input of the next layer, propagating the cycle instead of becoming the final votes.

img

Fig. 2: Example of a CNN with various types of layers. The convolutional layer does not decrease the size, i.e., the number of pixels, of the input figure, rather it encodes the feature of its input. The pooling layer does decrease the size of its input. The amount of which the size decreases depends on the size of the pooling window and the stride.

3.3. Cross-modal fusion

Cross-modal fusion refers to the process of integrating data from different modalities. PET/CT is a classic example of cross-modal fusion. CT is a type of imaging modality that provides high-resolution, cross-sectional images with excellent clarity and density resolution. PET, on the other hand, is a nuclear imaging technique that generates images showing the spatial distribution of positron-emitting radiopharmaceuticals within the body. With less precise structural details, PET images are well capable of displaying metabolic activity. PET/CT fuses CT with PET, possessing information on both the anatomical details and the metabolic spectrum. As each different information stream possesses unique characteristics, single-modal data often do not contain all the effective features to produce accurate results, whether for data analysis or prediction tasks. Cross-modal deep learning models combine data from two or more different modalities, learning different feature representations from different modalities and facilitating communication and transformation among different information streams, to accomplish specific downstream tasks. This special type of deep learning can improve the accuracy of predictions and enhance the robustness of models.

3.3.1. Cross-modal fusion methods

Cross-modal fusion methods can be categorized into three types: early fusion, late fusion, and hybrid fusion. In early fusion, unimodal features are combined into a single representation before the feature extraction or modeling process[9] . After feature extraction or modeling is performed separately to reduce unimodal features, the outputs are integrated to learn concepts and obtain the final prediction in late fusion[10] . Whereas hybrid fusion combines early and late fusion methods, where fusion is performed at both the feature level
and the output layer [11].

There are various methods of early fusion, including operating on elements at the same position in different modalities. For example, in the field of medical imaging, different imaging modalities can be fused into an integrated image. Nefian et al. proposed a cross-modal early fusion method that used both the factorial and the coupled hidden Markov model for audio-visual integration in speech recognition[12] . Early fusion was done by multiplying the corresponding elements of visual features that capture mouth deformation over consecutive frames and the vector representation, representing the frequency of audio observations, learned by long short-term memory neural networks. A dimensionality reduction was then done on the observation vectors obtained by concatenation of the audio and visual features. Indeed, early fusion methods are often simple in structure with low computational complexity. However, the resulting feature is often high in dimensions, which can impose a significant computational burden on the subsequent model if dimensionality reduction is not performed.
As an example of late fusion, in 2014, Simonyan et al. proposed an architecture that separately inputs spatial and temporal recognition streams of videos, where the spatial stream recognizes actions from still video frames, whilst the temporal stream is in charge of action recognition from motion in the form of dense optical flow[13]. The learned feature outputs are combined by late fusion via either averaging or a linear support vector machine (SVM). As fusion significantly improves on both streams alone, the result proves the complementary nature of inputs spatial and temporal recognition streams and that cross-modal fusion indeed preserves more information of use in the algorithm. Late fusion does not explicitly consider the inter-modality correlation at the feature level, which may result in a lack of interaction among different modalities at the feature level. Consequently, the resulting feature representations after cross-modal fusion may not be rich enough, potentially limiting the effectiveness of the fusion approach.

There is no one optimal solution for all, and the choice of fusion method should be case-by-case.

3.3.2. Cross-modal image translation

Cross-modal image translation has gradually matured in the field of computer vision. Given sufficient training data, deep learning models are capable of learning discriminative features from images of different modalities, and the process of image-to-image translation can be viewed as transforming one potential representation of a scene to another.

In 2017, Isola et al. released a Pix2Pix software that is effective at various image translation tasks, such as synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images[14] . Conventional CNN learns to minimize a loss function that is arbitrary, the making of which takes a lot of manual effort. The Pix2Pix software adopts conditional Generative Adversarial Networks (GANs) that automatically learn the loss function to train the mapping from input to output images, besides learning the mapping itself, as a generic solution to pixel-to-pixel prediction. These networks solve the whole genre of problems that used to require very different loss functions. Conditional GANs differ from other formulation in that it treats output pixels as mutually dependent and thus learns a structured loss, which penalizes the joint configuration of the output. Pix2Pix has good performance on many image translation tasks, but its ability in generating high-resolution images is suboptimal. Wang et al. improved upon Pix2Pix by proposing a new image translation framework for synthesizing high-resolution photo-realistic images from semantic label maps using conditional GANs in 2018. Compared to Pix2Pix, this method has two main improvements: image translation at 2048 × 1024 resolution and semantic editing of images. To generate high-resolution images, their method uses a coarse-to-fine generator, which is composed of a local enhancer for fine high-resolution image conversion and a global generator for coarse low-resolution image conversion respectively, a multi-scale discriminator architecture, and a robust adversarial learning objective function.

Additionally, it adds a low-dimensional feature channel to the input, which allows for the generation of diverse results images based on the same input label map. Zhu et al. proposed the BicycleGAN model combining both the conditional Variational Autoencoder GAN approach and the conditional Latent Regressor GAN approach, based on Pix2Pix in 2017[15] . BicycleGAN is a technique for multi-modal image translation that accomplishes not just the primary objective of mapping the input, together with the latent code to the output, but also concurrently learns an encoder that maps the output back to the latent space. The bijection between the output and the latent space prevents multiple distinct latent codes from producing the same output, also known as non-injective mapping. BicycleGAN allows the generator to model a distribution of high-dimensional output given different encoders, producing diverse and realistic results while remaining faithful to the input.

To accurately transform specific objects among different modalities is the main challenge of cross-modal image translation. Most cross-modal image translation methods require paired data as the input, and due to the scarcity of the paired data, the translated images are often suboptimal or suffer from mode collapse, where the output only represents a limited number of real samples, etc. Therefore, how to achieve high-quality cross-modal image translation with a small amount of paired data is a valuable direction for research.

3.4. The application of cross-modal deep learning

AI is increasingly being studied in metastatic skeletal oncology imaging, and deep learning has been assessed for tasks such as detection, classification, segmentation, and prognosis. Zhao et al. developed a deep neural network-based model to detect bone metastasis on whole-body bone scan (WBS), irrespective of the primary malignancy[16 . Compared to experienced nuclear medicine physicians, the deep learning model not only had a time savings of 99.88% for the same workload, but it also had better diagnostic performance, with improved accuracy and sensitivity. To overcome the constraint of the time-consuming effort required for precise labeling of large datasets, Han et al. proposed a 2D CNN classifier-tandem architecture named GLUE, which integrates whole body and local patches for WBS of prostate cancer patients[17 . The 2D-CNN modeling is the best fit for planar nuclear medicine scans, provided there is a massive amount of training data available. The GLUE model had significantly higher AUCs than a whole-body-based 2D CNN model when the labeled dataset used for training was limited. Noguchi et al. developed a deep learning-based algorithm, with high lesion-based sensitivity and low false positives, to detect bone metastases in CT scans[18 . An observer study was also done to evaluate its clinical efficacy, which showed improved radiologists’ performance when aided by the model, with higher sensitivity, by both lesion-based and case-based analyses, in less amount of interpretation time. Fan et al. used AdaBoost and Chan-Vese algorithms to detect and segment sites of spinal metastasis of lung cancer on MRI images[19 . Chan-Vese algorithm had the best performance. The accuracy of the segmentation, expressed in terms of DSC and Jaccard coefficient scores, were 0.8591 and 0.8002, respectively. Liu et al. built a deep learning model based on 3D U-Net algorithms for the automatic segmentation of pelvic bone and sites of prostate cancer metastases on MRI-DWI and T1-weighted MRI images[20 . The model was found to work best on patients with few metastases, boosting the use of CNN as an aid in M-staging in clinical practice. Multiple deep classifiers were developed by Lin et al. to automatically detect metastases in 251 thoracic SPECT bone images[21 . The performance of the classifiers was found to be excellent, with an AUC of 0.98. Moreau et al. compared different deep learning approaches to segment bones and metastatic lesions in PET/CT images of breast cancer patients[22]. The results indicated that the U-NetBL-based approach for bone segmentation outperformed traditional methods, with a mean DSC of 0.94 ± 0.03, whereas the traditional methods struggled to distinguish metabolically active organs from the bone draft.

Compared to the aforementioned deep learning examples, the more avant-garde cross-modal image fusion and translation techniques have not been widely investigated in bone metastasis imaging. Xu et al. adopted two different convolutional neural networks for lesion segmentation and detection and combined the spatial feature representations extracted from the two different modalities of PET and CT[23] . Their cross-modal method completed the three-dimensional detection of multiple myeloma, outperforming traditional machine learning methods. The research conducted by Wang et al. revealed that texture features extracted from multiparametric prostate MRI before intervention, when combined with clinicopathological risks such as free PSA level, Gleason score, and age, could effectively predict bone metastasis in patients with prostate cancer[24] . The outcome of this study can be seen as a proof of concept for the significance of cross-modal data.

Even though cross-modal investigations regarding the sites of bone metastases are limited by now, there has been plenty of evidence proving the utility of cross-modal fusion in oncological imaging. These applications and trains of thought can be well extrapolated to the field of osseous metastasis imaging. Cross-modal fusion can be applied to tasks such as tumor detection, segmentation, and classification to improve model the performance of deep learning models. Cross-modal image translation can be used for data augmentation to facilitate various downstream tasks.

Cross-modal fusion methods are often employed to enrich the models with cross-modal image features, thus improving the performance of tumor detection. Further, convolutional neural networks are used to capture the relationships between adjacent pixels and extract effective features from the image in deep learning-based cross-modal tumor detection algorithms. In 2021, Huang et al. proposed a ResNet network-based framework, AW3M, that used ultrasonography of four different modalities jointly to diagnose breast cancer[25]. By combining the cross-modal data, the AW3M based upon multi-stream CNN equipped with self-supervised consistency loss was utilized to extract both modality-specific and modality-invariant features, with improved diagnostic performance.

As for tumor segmentation, many researchers hinge on either the four types of MRI image modalities or the two modalities of PET/CT encompassing anatomical and metabolic information to perform cross-modal fusion and improve segmentation performance. For instance, Ma et al. explored CNN-based cross-modal approaches for automated nasopharyngeal carcinoma segmentation[26]. Their proposed multi-modality CNN utilizes CT and MRI to jointly learn a cross-modal similarity metric and fuse complementary features at the output layer to segment paired CT-MR images, demonstrating exceptional performance. Additionally, the study combines the features extracted from each modality’s single-modality CNN and multi-modality CNN to create a combined CNN that capitalizes on the unique characteristics of each modality, thereby improving segmentation performance. Fu et al. introduced a deep learning-based framework for multimodal PET-CT segmentation that leverages PET’s high tumor sensitivity in 2021[27 . Their approach utilized a multimodal spatial attention module to highlight tumor regions and suppress normal regions with physiologic high uptake from PET input. The spatial attention maps generated by the PET-based module were then used to target a U-Net backbone for the segmentation of areas with higher tumor likelihood at different stages from CT images. Results showed that their method surpasses the state-of-the-art lung tumor segmentation approach by 7.6% in the Dice similarity coefficient.

As the diagnostic procedure often requires the integration of multi-modal information, such as chief complaints, physical examinations, medical histories, laboratory tests, and radiology, cross-modal fusion methods are also commonly utilized in disease classification tasks. Cross-modal fusion synthesizes data from different modalities to enrich effective feature representations, enabling deep learning models to extract useful information from different modalities to aid in diagnosis. Zhang et al. proposed a technique for prostate cancer diagnosis using a multi-modal combination of B-mode ultrasonography and sonoelastography[28] . Quantitative features such as intensity statistics, regional percentile features, and texture features were extracted from both modalities, and an integrated deep network was proposed to learn and fuse these multimodal ultrasound imaging features. The final step of disease classification was completed by a support vector machine.

Due to the relative scarcity of medical images, cross-modal image translation is often used to synthesize part of the data in the training set as a data augmentation method for a better-performing deep learning model with a small sample size. Since integrated data from different modalities often exhibit better performance in deep learning models, the multi-modal image data input generated by cross-modal image translation methods can be directly used as targets for tumor detection. A two-step approach for semi-supervised tumor segmentation using MRI and CT images was proposed by Jiang et al[29 . The first step is a tumor-aware unsupervised cross-modal adaptation using a target-specific loss to preserve tumors on synthesized MRIs from CT images. The second step involves training a U-Net model with synthesized and limited original MRIs using semi-supervised learning. Semi-supervised learning is used to boost the accuracy (80%) of tumor segmentation by combining labeled pre-treatment MRI scans with synthesized MRIs, while training with synthesized MRIs had an accuracy of 74%. The proposed approach demonstrated the effectiveness of tumor-aware adversarial cross-modal translation for accurate cancer segmentation from limited imaging data.

In general, there have been bounties of research supporting the application of deep learning in bone metastasis imaging, but the specific application of cross-modal fusion methods is still lacking. Whereas, clinical evaluations regarding bone metastasis often require multi-modal data, such as a chief complaint of lower back pain, a past medical history of pathological fractures, a positive genetic test for specific mutations indicating a higher risk of bone metastasis, or increased blood calcium and alkaline phosphatase concentrations in laboratory reports, etc. Therefore, evaluating osseous lesions with multi-modal data can improve the specificity of diagnosis and reduce the false positive rates in the diagnostic and treatment process. The application of cross-modal deep learning methods in the field of bone metastasis imaging and diagnosis is worth further exploration.

3.5. conclusion

The above review covers the definition and basic principles of deep learning and cross-modal image generation and fusion methods, briefly describes some common cross-modal deep learning algorithms, and summarizes bits of current research on the application of deep learning models in medical imaging, especially bone metastasis imaging. Compared to traditional deep learning models fed with data input of a single modality, multi-modal methods are more recent, with a limited number of relevant research. Given the increasing prevalence of cancer screening and the significant surge in patient-specific clinical data, including radiographs and laboratory tests, it is reasonable to anticipate an unparalleled demand for advanced, intelligent cross-modal deep learning methods in the future. Nevertheless, the use of AI in medical imaging analysis faces various challenges and limitations. These include the need for extensive and diverse datasets for training and validation, the potential for bias and overfitting, as well as the inherent black-box nature of deep learning algorithms[30 . Even though the demand for a large training set reiterates the merit of cross-modal deep learning, which enables the automatic generation of sample images through cross-modal image translation, the size of the training set still has a profound impact on the performance of algorithms. In parallel, the demand for “explainability” has led to the notion of “interpretable machine learning”, utilizing heat maps and metrics to track the focus of deep neural networks[31] . Overall, there is still much to be investigated regarding the application of cross-modal deep learning in the field of medical imaging.

In summary, the project should be founded on the application of cross-modal deep learning techniques to offer practical solutions for challenges encountered in the clinical setting.

参考文献

[1] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J] . Gastroenterology, 2023, 164(2): 191-193.
[2] Aswathi R R, Jency J, Ramakrishnan B, et al. Classification Based Neural Network Perceptron Modelling with Continuous and Sequential data[J] . Microprocessors and Microsystems, 2022: 104601.
[3] Gardner M W, Dorling S R. Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences[J] . Atmospheric environment, 1998, 32(14-15): 2627-2636.
[4] Glorot X, Bordes A, Bengio Y. Deep Sparse Rectifier Neural Networks[J] . Journal of Machine Learning Research, 2011, 15: 315-323.
[5] Bottou L, Bousquet O. The tradeoffs of large scale learning[J] . Advances in Neural Information Processing Systems, 2007, 20: 1-8.
[6] Dauphin, Y. et al. Identifying and attacking the saddle point problem in high-dimensional non-convex optimization[J] . Advances in neural information processing systems, 2014, 27: 2933–2941.
[7] Hubel D H, Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex[J] . Journal of Physiology, 1962, 160(1): 106-154.
[8] Cadieu C F, Hong H, Yamins D, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition[J] . Plos Computational Biology, 2014, 10(12): e1003963.
[9] Nefian A V, Liang L, Pi X, et al. Dynamic bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[10] Snoek C G M, Worring M, Smeulders A W M. Early versus late fusion in semantic video analysis[C] . Proceedings of the 13th annual ACM international conference on Multimedia, 2005: 399-402.
[11] Wu Z, Cai L, Meng H. Multi-level fusion of audio and visual features for speaker identification[C] . International Conference on Biometrics Springer, Berlin, Heidelberg, 2005: 493-499.
[12] Nefian A V, Liang L, Pi X, et al. Dynamic Bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[13] Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[J] . Advances in neural information processing systems, 2014, 27: 568–576.
[14] Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C] . Proceedings of the IEEE conference on computer vision and pattern recognition, 2017: 1125-1134.
[15] Zhu J Y, Zhang R, Pathak D, et al. Toward multimodal image-to-image translation[J]. Advances in neural information processing systems, 2017, 30: 465–476.
[16] Zhao Z, Pi Y, Jiang L, Xiang Y, Wei J, Yang P, et al. Deep neural network based artificial intelligence assisted diagnosis of bone scintigraphy for cancer bone metastasis[J] . Scientific Reports, 2020, 10(1): 17046.
[17] Han S, Oh J S, Lee J J. Diagnostic performance of deep learning models for detecting bone metastasis on whole-body bone scan in prostate cancer[J] . European journal of nuclear medicine and molecular imaging, 2021, 49(2): 1-11.
[18] Noguchi S, Nishio M, Sakamoto R, Yakami M, Fujimoto K, Emoto Y, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J] . European Radiology, 2022, 32(11): 7976-7987.
[19] Fan X, Zhang X, Zhang Z, Jiang Y. Deep learning on MRI images for diagnosis of lung cancer spinal bone metastasis[J] . Contrast Media & Molecular Imaging, 2021, 2021(1): 1-9.
[20] Liu X, Han C, Cui Y, Xie T, Zhang X, Wang X. Detection and segmentation of pelvic bones metastases in MRI images for patients with prostate cancer based on deep learning[J] . Frontiers in Oncology, 2021, 11: 773299.
[21] Lin Q, Li T, Cao C, Cao Y, Man Z, Wang H. Deep learning based automated diagnosis of bone metastases with SPECT thoracic bone images[J] . Scientific Reports, 2021, 11(1): 4223.
[22] Moreau N, Rousseau C, Fourcade C, Santini G, Ferrer L, Lacombe M, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[J] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society, 2020: 1532-1535.
[23] Xu L, Tetteh G, Lipkova J, et al. Automated whole-body bone lesion detection for multiple myeloma on 68Ga-pentixafor PET/CT imaging using deep learning methods[J] . Contrast media & molecular imaging, 2018, 2018: 2391925.
[24] Wang Y, Yu B, Zhong F, Guo Q, Li K, Hou Y, et al. MRI-based texture analysis of the primary tumor for pre-treatment prediction of bone metastases in prostate cancer[J] . Magnetic Resonance Imaging, 2019, 60: 76-84.
[25] Huang R, Lin Z, Dou H, et al. AW3M: An auto-weighting and recovery framework for breast cancer diagnosis using multi-modal ultrasound[J] . Medical Image Analysis, 2021, 72: 102137.
[26] Ma Z, Zhou S, Wu X, et al. Nasopharyngeal carcinoma segmentation based on enhanced convolutional neural networks using multi-modal metric learning[J] . Physics in Medicine & Biology, 2019, 64(2): 025005.
[27] Fu X, Bi L, Kumar A, et al. Multimodal spatial attention module for targeting multimodal PET-CT lung tumor segmentation[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 25(9): 3507-3516.
[28] Zhang Q, Xiong J, Cai Y, et al. Multimodal feature learning and fusion on B-mode ultrasonography and sonoelastography using point-wise gated deep networks for prostate cancer diagnosis[J] . Biomedical Engineering/Biomedizinische Technik, 2020, 65(1): 87-98.
[29] Jiang J, Hu Y C, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C] . International conference on medical image computing and computer-assisted intervention. Springer, Cham, 2018: 777-785.
[30] Castelvecchi D. Can we open the black box of AI?[J] . Nature, 2016, 538(7623): 20.
[31] Kuang C. Can A.I. Be Taught to Explain Itself?[J] . The New York Times, 2017, 21.

致谢

首先,感谢我的导师,邱贵兴院士,涓涓师恩,铭记于心。感谢吴南师兄,知遇之恩无以报。感谢吴东老师,三生有幸,得您伴我一程风雪。也感谢所有参与此项目的科研合作伙伴和课题组的师兄师弟们,你们的帮助让这项研究得以顺利进行。

感谢在协和遇到的所有老师们,学生朽木,希望未来也能如你们一样,不负一袭白衣。

最后,要感谢我的家人。Wherever I go, this family is my fortress.

这路遥马急的人间,你我平安喜乐就好。

Yesterday — 3 May 2025中国数字时代

毕导|董小姐,29页论文拿下协和医学博士

3 May 2025 at 22:34

最近沸沸扬扬的中日友好医院肖医生和董小姐事件,大家都了解吗?

起因是中日友好医院肖飞的妻子递交了一封举报信,里面详列了肖飞婚后出轨多名女性、出轨规培医生董袭莹、帮董在医院违规操作、拉着董离开手术室扔下手术台上的病人40分钟等恶劣事件。

img

肖医生倒是手术室冲冠一怒为红颜了,我要是在场护士和麻醉台上的病人,是真得麻了……这种人也能配叫医生吗??这是人干的事吗??

随后大家顺着这名出轨对象董袭莹开挖,发现更惊人的内幕都在她这啊!

img

网上舆论已经从普通的出轨讨论,变成对教育公平甚至医生轻视患者生命安全的质疑,事情非常错综复杂,我深扒了一下董医生的学术之路,这就给大家梳理下!

1、董医生的速通学医路

在协和官方通稿中,董小姐是作为优秀案例出现的。哥大经济学本科、4+4医学试点班、毕业成为协和医学博士,名校海归+协和博士光环拉满!但深挖一下发现根本经不起深挖啊!

img

董袭莹的本科是哥伦比亚大学巴纳德学院经济学专业。哥大确实是世界顶级名校,巴纳德学院也是哥大旗下的学院。网上有说这是三本野鸡学院,但我查了下它在全美211所文理学院的排名第14名,其实也不错的。但招生门槛确实低于哥大主校,不能以哥概全。

img

其次是让学经济的董小姐、变成医学博士的4+4医学试点班。

这个是协和推出的改革试点班,针对本科不是医学专业的同学,经过录取后你学4年医,出来就是协和医学博士了。这个制度是为了将多学科基因融入医学界。不过看介绍大学也得对生物、化学有学科基础,不知道董小姐学经济时有没有学到。

img

招生条件我从截图了官网,大家可以自行对比你能不能上。

img

这里还有一个疑惑,董小姐是2019年入学协和4+4,我去翻了下2019年的U.S. News文理学院排名,巴纳德学院仅排名25?可能每年的入学要求也各不相同吧。

img

关键董医生学得咋样呢?她2019年到2023年在协和经历了4年医学博士培训,普通医学生动辄8年或者5+3+4共计12年的学医路,她4年就走完了,还包括疫情时期,不知道她学医上不上网课。

而神奇的是,她的博士论文开篇写的是妇科影像相关 

img

博士论文的指导导师是骨科大拿

img

学位是内科博士

img

还是膀胱癌临床实践指南的一作

img

此外根据前面爆料,她现职为泌尿外科住院医师。真是一位跨学科领域的复合型人才啊!而这一切的成就,她只用了4年时间,这才是真正的天降神童吧,华佗扁鹊加在一起都不如她。

2、董医生的学术成果一览

深挖董医生的学术成果,也是叹为观止。我找到了董医生的博士毕业论文,细看了一下我都快崩溃了。

CDT 档案卡
标题:毕导|董小姐,29页论文拿下协和医学博士
作者:毕导
发表日期:2025.5.3
来源:微信公众号“毕导”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

整个博士论文一共就三章啊?我本科论文都比这个长!一般博士论文第一章绪论,二三四五章是具体工作,第六章是结论与展望。董博士只用三章,加上开头致谢独创性声明使用授权书一共61页就搞定了?!

img

再细看,她先用12页讲完了宫颈癌检测成果,再用17页讲完了乳腺癌的骨转移成果,其实她的博士论文部分到这29页就完结了!后面就是参考文献了!

后面那个16页的第三章,是一个英文综述,并不是她的科研成果。我不太了解医学领域,是医学博士论文固定就有这么个环节,还是说不加这个综述的话论文打印出来的厚度不足以在书脊上写题目?

我看着我那139页的博士论文嘴都气歪了。

img

而这篇她以第一作者身份发表了《Clinical practice guideline on bladder cancer 》也很有趣。董袭莹作为一个2023年5月才毕业的学生,在同年的五月,居然就成为了这篇膀胱癌临床实践指南的一作。对董小姐来说,真是一个丰收的五月啊!

img

凡是写过论文的,都明白一作在众多作者中的份量!那董具体做了什么呢?作者贡献部分写的是,董承担了翻译工作,甚至她的翻译还不是独立完成的,后面还跟着俩人…

img

这就名列一作了?好家伙所有翻译软件AI工具都有资格给一作了吧?这种拿一作方式我只敢在做科研狗美梦时畅想过…

看到这,一个在美四年经济学学成归来,四年速成顶级医学博士研究成果遍布妇科骨科内科膀胱癌的天才医学生形象,已然立住。

img

3、董医生的超强医院特权

毕业后,董医生又在医院享受超强特权。根据举报内容,她本来应该从胸外科转到脊柱外科,但不想转。于是肖飞医生和骨科教秘打招呼,被拒。她又通过个人关系,联系了两位主任达到目的。这背景和实力,令人叹为观止!

img

值得一提的是,这位和肖飞大吵的麻大夫还是盘尼西林的乐队成员。白天行医对抗业内黑幕,晚上还能玩乐队,好强!

img

在手术台上,董因为和护士起争执,肖飞直接带着董离开手术台40分钟,还好有一名格格巫护士不卑不亢,据理力争!很刚很顶!

img

这位肖飞医生,是不是把自己带入什么医学霸总了啊?综合看来,把病人晾在手术台、多次出轨、帮董进行违规操作、还想抢原配房子抚养权…这人真是集所有渣于一体,医德和个人道德都极其低劣的水平。

董医生的“注水”学医之路,令人触目惊心。如果专业能力不足者竟能一路绿灯,跻身国内顶级医院的手术台,这不仅是对寒窗苦读数十载的医学生的羞辱,是对熬夜加班、连口热饭都吃不上的规培生的践踏,更是对无数在科研与临床中挣扎求生的博士生群体的不公。

而最不可容忍的是——这是对患者生命的极端漠视。

希望关于整件事能有更加明确的调查结果,别让讨论止步于讨论。

别让讨论止步于讨论

简法|《民营经济促进法》来了,然后呢?

3 May 2025 at 22:07

img

《促进法》选择“重申”而非“重建”,简单地指向那个可能本就运转不畅的旧有体系,这能在多大程度上带来实质性的改变?

新法出台

《民营经济促进法》终于出台了,像一颗投入水中的石子,在舆论场上激起了不少涟漪。

立法本身无疑是个大动作,毕竟“民营经济”这四个字的分量,在当下中国的经济版图和社会生活中,没人能否认。高层反复强调“两个毫不动摇”,现在又有了专门的法律背书。

CDT 档案卡
标题:简法|《民营经济促进法》来了,然后呢?
作者:简法
发表日期:2025.5.3
来源:微信公众号“简法”
主题归类:民营经济促进法
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

但多年的社会经验告诉我们,法律文本是一回事,现实运行往往是另一回事。我们发现,《民营经济促进法》很多意在约束不当行为、包括潜在的政府干预的条款,其法律后果最终指向的还是“依法”处理。这本身没问题,法律体系本就该相互支撑。可问题在于,“依法”的那个“法”在实践中是如何被解释、被执行的?是所有市场主体真的能在同一个起跑线上,面对同一套规则,得到同一种对待吗?还是说,依然存在着某种“身份”上的隐形差异?

“依法”的困境

我们清楚的是,《民营经济促进法》本身并不是独立的处罚依据,它更像是一个指引,将具体的惩戒权力交回给《行政处罚法》、《反垄断法》等现存的法律框架。该罚的,依据原有法律本就该罚

这种安排的潜在问题是显而易见的。如果说,那些损害民营经济的行为,本就已在现有法律的规制之下,那么现实中挥之不去的困境(如选择性执法、地方保护、隐性壁垒),恰恰说明了原有法律体系在执行层面的不足或扭曲。如今,《促进法》选择“重申”而非“重建”,简单地指向那个可能本就运转不畅的旧有体系,这能在多大程度上带来实质性的改变?这是否回避了真正的难题——即如何确保那些既有的“法”能够被公正、有效、不打折扣地执行,尤其是在涉及到权力制约和政府自身行为规范时?

更进一步说,这种路径依赖,是否会让这部《促进法》沦为一种“立法上的表态 它满足了程序上的需求,传递了某种积极信号,但在具体的约束力上却可能显得绵软无力。毕竟,若处罚的依据、标准、程序乃至最终裁量权都没有本质变化,那么仅仅多了一部“指引性”的法律,对于那些在复杂政商关系中早已游刃有余的潜规则而言,又能构成多少真正的威慑?它更像是在呼吁一种理想状态,却未能提供足够坚实的工具去锻造它。这部法律的象征意义,似乎远大于其可能产生的直接法律效果。

落地之间

我们不能脱离现实的土壤去谈论法律。过去这些年,民营企业经历过高光时刻,也感受过阵阵寒意。政策的钟摆、执法的尺度、市场的“玻璃门”、“旋转门”……这些东西塑造了企业家的真实体感和预期。一部法律的出台,能否真正扭转一些根深蒂固的观念,改变一些由来已久的习惯性做法?比如,地方政府在招商引资、项目审批、资源分配时,能否真正做到不偏不倚?当民企与国企、或者与政府部门发生纠纷时,天平是否能真正保持水平?当遭遇不公时,寻求救济的渠道是否真的畅通且有效?执行层面的决心和能力,可能比法律条文本身更牵动人心。

说到底,信心这东西,不是靠一纸法律就能“促进”出来的。它是过往经验的积累,是对未来稳定性的预期。这部法律提供了一个新的起点,一个新的观察窗口。它更像是一个官方的“承诺书”,承诺要为民营经济提供一个更好的环境。但承诺能否兑现,承诺的分量有多重,还需要时间和无数个具体案例来检验。

民营经济的活力,关系着就业、创新、税收,最终也关系到我们每个普通人的生活。它的兴衰,从来不只是经济问题,也是社会问题,甚至关乎更深层次的社会结构和信任基础。

且看未来

所以,这部法律出台了,很好。但兴奋过后,更多的是冷静的观察。它会成为那根撬动现实改变的杠杆,还是仅仅停留在“看上去很美”的层面?我们每个人,无论是企业家、打工人还是消费者,其实都在用自己的方式参与和见证着这个过程。历史会给出答案,而在此之前,不妨多一份审慎的关注,少一些轻率的断言。

路,才刚刚开始。

三月云|五一劳动节|再论女性与劳动

CDT 档案卡
标题:五一劳动节|再论女性与劳动
作者:三月vulcanus
发表日期:2025.5.2
来源:三月云
主题归类:五一劳动节
主题归类:女性权利
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

今天是五一国际劳动节,在此向奋斗在各个领域、各条战线中的姐妹们致以节日的祝贺和崇高的敬意!

五一劳动节并非一个只是“歌颂”劳动者的节日,而是一个纪念劳动者所做过的抗争的节日。

劳动节的由来要从19世纪80年代说起,那时美国资产阶级为了利润,对工人进行着残酷的压榨。哪里有剥削,哪里就有反抗。自1877年开始,美国各地不断出现罢工运动。迫于压力,美国国会制定了相关法律,但这些条文从未得到真正落实,工人的斗争还在继续。1886年5月1日,以芝加哥为中心,2万多家企业的35万人发起罢工游行,要求改善劳动条件,实行八小时工作制。5月3日,芝加哥政府出动警察进行镇压,开枪打死两名工人。5月4日,工人在干草市场举行抗议,再次与警察发生激烈冲突,造成200多名民众伤亡、7名警察死亡,史称“干草市场惨案”。

1888年,在英国伦敦勒·博火柴厂,有672名工人为了争取劳动保障、改善劳动条件进行了罢工。她们由于在无防护的情况下长期接触有毒的磷,导致面部溃烂至完全畸形,而生病后的工人则会遭到工厂解雇。同时,她们的工资仅有当时英国男工人工资的三分之一。于是,她们为了自己的权益,走上街头进行罢工。

img

▲长期接触磷后面部畸形的工人。

这是历史上第一次全女性的罢工,并产生了一个早期的女性工会组织——“火柴制造者工会”。社会改革家安妮·贝桑特(Annie Besant)对她们进行了采访,并写成文章登载在报纸上。她们遭受的压榨激起了社会各界的声援与同情,起初态度强硬的工厂也不得不进行让步和屈服:不再解雇工人,并且改善劳动环境,让她们不必再长期接触磷。

img

▲安妮·贝桑特(Annie Besant)

1889年,为了纪念劳动者们为了自身权益所做的斗争,第二国际将每年的五月一日设立为国际劳动节。

让我们一起来高呼,呼声响遍人间和天上:八小时工作,八小时休息,剩下的八小时全都归自己!

——《八小时之歌》(1878年)

我们最后对于“五一”纪念日的自身,希望它早日完成那“八小时”运动的使命,更进而负起“六小时”运动的新使命来。

——李大钊《“五一”May Day 运动史》(1920年)

因此,五一劳动节的真正意义与内核,不在于虚假的“劳动最光荣”,也不在于虚伪地歌颂苦难,而是纪念她们曾经的不屈抗争,是实实在在地去缩短工作时长,改善劳动条件,提高劳动保障。

这很好理解——女性一直在劳动,但直到近代才拥有工资。为什么?不是因为她们更加起劲地进行劳动了,而是因为她们开始抗争了。

劳动既不是权力,也不能带来权利。对劳动能力的支配,对劳动过程的控制,对劳动产品的占有,才是权力,也决定了权利。如果只靠劳动与歌颂劳动就能带来权利与保障、权势与财富,那么世界首富将会是一头牛。

img

所以,财产靠母父,家务靠妻子,开销靠姐妹,出生都靠女人的货色,竟然还敢反咬一口鉴定女人是不是“劳动妇女”和“独立女性”?

img

img

img

▲真女权不但劳动,还要革了田力的命。怎么小田力只敢挑对自己有利的方面说呢?

而在今天这个劳动者的节日中,还有一个好消息:《中华人民共和国农村集体经济组织法》将于2025年5月1日正式生效。这部法律,第一次明确规定:“妇女享有与男子平等的权利,不得以妇女未婚、结婚、离婚、丧偶、户无男性等为由,侵害妇女在农村集体经济组织中的各项权益”。

此前,在农村,只有男人才有资格分配村里的资源,女人则必须要到了年纪就嫁出去,自始至终都算不得本村成员而是某个男人的村子里的成员。男的生来就永久享受村民资格,而女性则必须要成为某个男人的妻子才能跟着获得村民资格。一旦她们的婚姻状况发生变化,例如离异改嫁,她们自己连同子女都会被立刻取消村民资格,丧失仅有的那一点土地权益,娘家和婆家两头空。2016年的一项社会调查显示,中国农村中的出嫁和离异女性不享受村民待遇的有84.45%,而判过刑或正在监狱中的男罪犯不享受村民待遇的只有20.43%。2019年,浙江杭州则规定拆迁户家里如有两个儿子可以分得三个人的面积,而两个女儿只能分得两个人的面积。

据千千律师事务所数据,关于农村女性土地权益的案件,47.1%的法院甚至会直接驳回起诉拒不审理。为什么?农村失地女性维权难的最重要原因就是此前的法律依据不清晰,法院即便判决,也往往会推给“村民自治”,也就是让村里的老登来决定——结果可想而知。而这一次,她们应有的权利终于有了明确的法律保障。

这样的成果并非“时代进步”的自发馈赠,而是无数农村女性、女法律工作者、女学者以及广大社会力量不懈努力、不屈抗争的结果。

img

而可笑的是,在农村中,劳动主力一直都是女性:

img

可她们不但没有得到与付出的劳动相匹配的权益,甚至连自己的名字都被遮蔽——“农民伯伯”。

此外,很多cgg总是喜欢天天把什么“下矿”“工地”的挂嘴上。然而,这不过是他们企图垄断“弱势群体”与“劳动者”形象的惯用手段,以此来抹杀女性劳动者的存在,并恬不知耻地把自己这个吃尽红利的性别群体伪装成社会的受害者。

img

img

首先,重体力劳动行业不但是“有女的”,甚至是女性占多数,因为男人都去更加有利可图的行业和岗位去了,只剩下了最苦最累的岗位留给女人。以工地为例,工地上真正的脏活累活,例如抡大锤拉水泥往往是女的在干,而赚钱多的大工或者说技工才是被男人垄断的领域。

img

所谓的底层女劳动者与“底层男劳动者”,正如保洁与保安。真正辛苦还赚钱少、毫无劳动保障的,绝不是天天躺在保安室里装成“弱势群体”的老头。

并且,在当前这个90%的财富与权力被男人所垄断的社会中,不劳而获的男人比不劳而获的女人多出成百上千倍。对着这个社会真正的既得利益者与特权群体视而不见甚至热情跪舔,看到“男贫困生”用着苹果全家桶穿着AJ玩着steam只是一笑而过,而看到女人喝了口奶茶却立刻七窍生烟狗急跳墙,跑到贴吧上大骂什么“小仙女”、“阶级”、“生产力”云云。

那我只能说,所有田力受到的所谓“压迫”都是应得的。别怪以后我看到任何举着身份证的小田力都只会说这男的应该是仙人跳诬告价钱没谈好吧。问就是前集短砍树后集短暴晒,他们的前辈把路走绝了。

第二,也是最重要的。cgg天天说什么当兵下矿工地没有女人,可到底是女人不愿去还是这些领域在系统性地排斥女人?

之前,很多人对这种现象的解释是“逆向歧视”。就是说既然他们歧视女性,认为女性没有能力承担这些工作,那么这些工作只由男性承担就是歧视的代价,是回旋镖。但我不同意逆向歧视这个概念。因为,“逆向歧视”尽管认为田力活该,却还是预设了男人从事这些行业是受害者。不,不是,他们从来都不是受害者——只要你能看到他们身边的底层女性在过什么生活。

是的,男矿工辛苦、危险。但,如果你能意识到还有名义上和他们处于同一阶层,但完全被隐身、被噤声的女性呢?她们还在地里干着无比辛苦繁重的农活,忙碌了一天之后还要回家烧饭做家务,劳动强度比起矿工有过之而无不及。但收入呢?很多农村女性辛辛苦苦务农一年,收入仅仅几千元,不及男矿工一个月的收入。

不是她们吃不了苦,她们现在的生活更苦——怎么没见到结婚生孩子的时候他们说女人吃不了苦得保护女性不能干这些呢?下矿并不比在村里务农做家务辛苦多少,但收入却是后者的几十倍。禁止女性从事某某行业,到底是为了“保护女性”,还是保障底层男的工作、维护他们的经济地位?事实上,因为“女人不下矿”,她们为了赚钱只能前往更没有保障和更加危险的黑煤窑里干活。

img

img

先是禁止底层女性从事这些虽然辛苦但收入较高的行业,再在网上胡说什么“小仙女逃避劳动”,最后玩一手田忌赛马忽视社会上占比90%的男老板男富豪男官员,把“阶级矛盾”和终极压迫者归结为“中产小资女喝奶茶”。这才是真正对我们这个社会主义国家的挑衅,以及对人类本质的侮辱。

如果再遇到田力不怀好意地问什么支不支持女人也应该有下矿的权利,我的回答是:当然支持。我支持贫穷女性拥有成为正式矿工、工地技工、海员、保安、货车司机和维修工的权利,我支持广大女性拥有成为技术骨干、企业管理者和机关事业单位干部的权利,我支持高层女性拥有成为国家领导人的权利。

事实上,很多天天把“没有性别矛盾只有阶级矛盾”挂嘴上的人忘记了:男权统治发生于阶级形成之前,跪着的母亲生不出站着的人类。不是女性解放被包含于工人解放之中,而是只有女性真正解放了,才会有全人类的解放与无产阶级的胜利。

在今天这个属于劳动者的节日里,我不说什么“劳动最光荣”。在一个剥削社会中,为特权者增加财富的劳动并不光荣。我只衷心地祝愿各位姐妹们工作有尊严,劳动有保障,收入节节高!

浣溪沙杜甫|屠呦呦当选美国科学院院士,在4+4的衬托下更有价值了

img

CDT 档案卡
标题:屠呦呦当选美国科学院院士,在4+4的衬托下更有价值了
作者:徐鹏1
发表日期:2025.5.2
来源:微信公众号“浣溪沙杜甫”
主题归类:屠呦呦
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

近日,由肖飞和董袭莹的烂事顺藤摸瓜还牵扯了协和医院4+4模式,甚至还牵扯出了一些院士。

比如董袭莹在协和4+4的导师邱贵兴也是中国工程院院士。

特别的一点,邱贵兴作为一个骨科权威专家,却成为董袭莹妇科影像学的导师。

这跨度之大,让人震惊。

而且董袭莹的博士论文只有薄薄的30页,完全不符合一般博士论文的字数要求,就这么个小册子,邱贵兴居然给审核通过了。这是为什么呢?

董袭莹在中日友好医院规培的时候,本来就应该各个科室轮流实习,这是规培的铁律,可她和肖飞好上了,只想留在肖飞身边,最后还和医院的其他医生护士吵起来,最后是堂堂的邱贵兴院士打招呼,把董袭莹违规留在肖飞身边。

都说院士是国之重器,怎么尽在帮董袭莹擦屁股。

利用学术权威,干预临床安排,破坏规培制度的公平。

都说将军有剑,不斩苍蝇,是形容国之重器,不会轻易为了些小事出手,而邱贵兴院士在董袭莹面前却让人感觉,院士有纸,尽擦屁股。

而且在协和4+4名单里,还有两个,邱靖涵(2024级)和邱靖婷(2026级),两个姓邱的而且看着名字还像两姐妹。

要知道进协和4+4,对于普通人是有多难?可这邱姓两姐妹却双双入选,这难度比苏轼苏辙两兄弟同时中进士还难。

网友纷纷猜测这两人和邱贵兴有关,说他在搞学术近亲繁殖。

我觉得邱院士在此时就该公布其家庭背景,还有入学的推荐信,面试材料都公布了吧,以正视听,别逼着网友去调查。

看到邱贵兴在这场舆论风暴中的表现,也对院士这个群体窥豹一斑。

中国首位获得诺贝尔奖的科学家屠呦呦教授,即使得了诺贝尔奖,也没能成为中国的院士,屠呦呦的院士难封,也看出评选院士的严苛,即使得了诺奖也没法成为中国的院士。有人说屠呦呦没成为院士是因为超龄了。

如果屠呦呦成为了院士,那至少可以说我们的院士里得过一次诺奖。而现在,每年那么多经费,却没有一块诺奖。

屠呦呦虽然没能成为中国的院士,但她在最近却当选了美国科学院的外籍院士。

img

没想到吧,这是屠呦呦教授实至名归,而不是美帝故意刺激人。

她是真正的院士,一生潜心做科研,发现青蒿素,开创治疗疟疾的新方法,拯救了无数人,是现在最伟大的科学家。

只可惜屠呦呦教授当选美国科学院院士这样的新闻,完全被董袭莹的烂事压住了热度。报道此事的媒体少,报道董袭莹的媒体多。

不过这样也好,没有对比就没有伤害,特别是在协和4+4的衬托下,更有价值了。

协和4+4的瓜还有很多,只是越扒越凄凉。

希望我们这个社会,多一些屠呦呦,少一些董袭莹。

全文完

请关注点赞转发评论

老干体v|美方11次下跪求谈,要不要给面子?我方正在评估!

By: unknown
3 May 2025 at 01:27
CDT 档案卡
标题:美方11次下跪求谈,要不要给面子?我方正在评估!
作者:老干体v
发表日期:2025.5.2
来源:老干体v
主题归类:中美关税战
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

我在《一部《不跪》惊天下,毛主席智慧贯全片!》中说,说这么狠的话,应该是已经开始谈判了,占个嘴上便宜。

果然,商务部昨日表示,美方近期通过相关方面多次主动向中方传递信息,希望与中方谈起来。对此,中方正在进行评估。

在一些人看来,谈判就是「跪」。按他们的逻辑,美帝这次一定跪了。

秦始皇又摸电门了。

但说实话,正如家传编辑部一位读者留言:若有利于国民,跪一下又何妨呢?勾践当年还为吴王夫差尝便呢。

川皇这个人,一方面死要面子,另一方面却并不执念于面子,该软则软,用他们的话说,就叫「战略不确定」。

他像个小猴乱窜,我方一开始还跟着跳舞,后来发现被戏得像厚重的大象,一时竟无法决断,干脆不再跟牌。

就像一首老歌,山不转水转:我方如山,美方似水。

川皇此时求谈,看似气势如虹,实际上也难得很。他的百日维新四面楚歌,股市大跌、民调大跌,就连最心爱的左膀右臂也都断翅:

  • 今日,白宫为马斯克举行欢送会。

  • 昨日,国家安全顾问沃尔兹被贬谪为驻纽约联合国大使,顾问一职由国务卿卢比奥兼任。

  • 沃尔兹因为在群里聊军国大事被贬,国防部长能否保住也在两可之间。

此时美方的局势并不稳定,正因如此,CCT视旗下的小号也明说了:「有“不确定”,那我们就消除“不确定”——美方如果想和中方进行接触,中方就利用这些接触意图,逼出其真实的意图,更好地掌握主动权。」

有意思吧?这话特别像胡锡进的口气,很接地气。

当然,也像中医疗法,将寒气「逼」出来。

当然,这也是武侠常用术语,将毒气「逼」出来。

能不能逼出来我不知道,但在短短10天之内,川皇团队至少说了11次「在和中国联系」,这让我方挣足了面子。

以至于CCT视的视频号在播放商务部消息时,语速慢得如同大丧之音,生怕用户漏掉了一个字。

而且,小号还用了「洞穿美国的谈判心理,就会发现,在接触方面,我们不是理亏的一方,也不应该藏着掖着,我们很坦然」的话语。

但问题是,这篇文章仍然发在小号上,还是留了退路,以防万一川皇又变卦,弄得我方措手不及,失了面子。

因此,如此重要的一篇文章,竟然到目前为止只有6.8万阅读量,留言一条也没有!

可见对如何引导舆论,还是进退两难,干脆先关闭留言,直到「逼出其真实的意图」。

细究原因,是不是吸取了之前的教训?

比如没有摸清美方的真实意图,在应对时失了方寸,办了些不甚得体的事、说了些不甚适宜的话?

听说《不跪》这个视频,已经不让转发了,所以官媒都没有跟进。

以及6月份结束的最高党报海外版和球报「中美友好交流故事」征文大赛,还要不要继续办?

形势变化很快,一不小心就要被耍,还是小心为上。

既然双方都要谈,有没有前置条件?现在看来都有。

  • 美财长贝森特:高关税,这就是大棒;而胡萝卜就是——来找我们,取消你们的关税,取消你们的非关税贸易壁垒,停止操纵货币,停止补贴劳动力和资本,然后我们再谈。

  • 我方商务部:美方想谈就应拿出谈的诚意,要在纠正错误做法、取消单边加征关税等问题上做好准备,拿出行动……任何可能的对话、会谈中,如果美方不纠正错误的单边关税措施,则说明美方完全没有诚意,且会进一步损害双方互信。

看双方的条件,我竟然觉得有得谈。

一方面,双方所谓的条件,其实都是要谈的内容,而非开谈的条件,更像是提前要价。

但CCT视小号又说,在美国没有实质性举动前,中方没必要和美方谈,不知这是否代表了官方态度。

不过,小号又说,美国如果希望同中国接触,现阶段对中国来说也没有坏处。

好扭捏啊,就像个哄不好的小媳妇,弄得我也摸不清小号的真实意图。

此外,小号已将其他国家有可能的谈判成果归到自己名下:中国是被加征所谓「对等」关税最高的国家,如果连中国都要作出巨大的让步,主动去找美国谈判,那对其他国家而言,能够争取的空间就非常有限了。

——换言之,如果他国得了好处,那也是通过中国的抗争换来的。

在80年前的抗战中,是中国的中流砥柱。

在2025年贸易战中,是全球的中流砥柱。

「横空大气排山去,砥柱人间是此峰。」那就大气一点,赏美帝个面子,谈谈?

那些原本是废话的常识|比“内卷不如作弊”更可怕的是“为后代能作弊而努力”

By: unknown
3 May 2025 at 01:21
CDT 档案卡
标题:比“内卷不如作弊”更可怕的是“为后代能作弊而努力”
作者:叶克飞
发表日期:2025.5.1
来源:那些原本是废话的常识
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

随便写几句吧。

协和这事儿并不是创新发明,而是国际经验。但国际上培养人才的有效渠道,到这里就变成捷径。

有人慨叹“孩子再怎么内卷,也比不上能作弊的”,这就是现实。普通人家孩子要想实现世俗意义上的成功,得寒窗苦读多少年?一路上要把多少人挤在身后?但有些人就是能用更短的时间、更轻松的方式实现这一目标。有人担心这些人拿手术刀,其实没必要,因为他们的真实目标是转入管理岗位。

网上很多人觉得这事儿过于惊悚,这反应多少有点装外宾,这类事情在各个领域不都是常态吗?小到孩子入学,大到职场晋升,总有捷径专供某些人。

有人根据各种爆料信息(部分已经辟谣),认为当事人算不上权贵婆罗门出身,这种“曲线救国”的模式恰恰说明当事人父母办法不多。这话或许没错,很多人觉得不可思议的捷径,可能在真正“有办法的人”那里就是最笨的办法,这就好比前几年那句流行语,“有钱人的生活超出我的想象”,婆罗门的捷径同样是超出大多数人想象能力的。

但问题恰恰在这里,留意现实就会看到,无数人都在竭尽全力,用手中或多或少的权力供下一代作弊。“孩子再怎么内卷,也比不上能作弊的”,在我眼中还算不上最可怕的,最可怕的是“拼命努力,是为了让自己的下一代有作弊的资格”。

这几乎是这片土地上自古以来、根深蒂固的常态。拼命参加科举考试是为了什么?为了黄金屋和颜如玉,为了做官,因为做官才能做“人上人”。只有成为“人上人”,才能拿到各种特权。这个无法改变的传统,才是一代代人要面对的真相。

捉刀时间max|美国从《永乐大典》中还“偷”走了什么?

By: unknown
3 May 2025 at 01:16
CDT 档案卡
标题:美国从《永乐大典》中还“偷”走了什么?
作者:捉刀时间max
发表日期:2025.5.2
来源:捉刀时间max
主题归类:网络民族主义
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

无意中点开了一个人的作品:什么电脑出自《易经》,手机来自《天工开物》,牛顿抄袭的《奇器图说》,奔驰山寨的木牛流马,青霉素取自《伤寒杂病论》,就连福特级核动力航母的图纸,都是剽窃明代魏学洢的《核舟记》。他宣称,这一切在《永乐大典》中都有记载,甚至他还宣称,人类对《永乐大典》的开发不足千分之一。比如马斯克只是秘密得到了《永乐大典》的一点儿残本,就敢夸下海口移民火星。

质疑是迈向真理的第一步,从布鲁诺疑惑地心说,到爱因斯坦怀疑牛顿,质疑如同一把锋利的手术刀,剖开表象、直指真理。但质疑不是无脑的牵强附会,不是张冠李戴的自我催眠,而是对真理的执着追寻。可以怀疑后人托名附会亚里士多德,但不是看到《核舟记》这三个字,就把它吹嘘成是核动力航母的设计图纸。

img

我一直以为那些是搞笑作品,但是看到几十万的点赞,不免就陷入了沉默,然后再看看他们带的货,名贵的保健品、酱香的珍藏酒,便又恍然大悟。

不过,我还是有一个疑问,为什么他们热衷于说西方的科学发明来源于《永乐大典》,而不说西方的人文发明也来源于《永乐大典》呢?比如美国国父的六大发明。今天,我们来一起看看,美国国父们在《永乐大典》里偷走了什么。

第一、制宪会议。

1787年,美国在费城召开制宪会议,这一事件本身就是一个重大发明。55名代表坐下来,通过会议来创建国家,而不是凭借谁的钱多,或者谁兵强马壮。代表们通过开会来讨论国家的根本大法,他们进行的不仅仅是创建国家,更是人类首次系统的实践启蒙思想家的社会契约论。

这一制度发明体现在三个方面:首先,会议的代表并非各州官方指定,而是人民选出来的代表。其次,会议的程序突破了原来的邦联条例,采用了一人一票的表决机制。最后,宪法的批准由各州单独审批。

这种自下而上的建国模式,彻底颠覆了传统国家的叙事逻辑。正如美国宪法之父麦迪逊所说:制宪会议不在于邦联条例的授权,而在于人民主权的直接行使。

img

第二、成文宪法。

1787年,美国宪法文本的制定标志着成文宪法范式的确立。美国宪法以6000多字的精炼文本,实现了国家规则的明文化。富兰克林曾经充满深意的指出:我们正在为世界立范,这个实验的成功将改变人类文明的进程。

与英国不成文的宪法相比,美国宪法的成文化具有革命性的意义:第一、确立了宪法作为最高法的地位。第二、建立了刚性的修改程序。第三、创设了宪法的解释机制。这种将政治契约法典化的模式,成为了宪政国家的标准。正如《独立宣言》的起草人杰斐逊所说:将权力关进法律文本的牢笼。

第三、分权制衡。

美国表面看是三权分立,但其实是八权分立。只是因为国家机构只有三权而已,另外的新闻权、工会权、持枪权等等并不在国家机构手中。

麦迪逊在《联邦党人文集》中指出:野心只能用野心来对抗。美国国父们将孟德斯鸠的三权分立理论,发展成了错综复杂的动态制衡体系。让立法、行政、司法三种权力,既相互独立,又彼此制约。这种既对抗又协作的制衡体系,确保了任何权力分支都无法一家独大。正如美国第28任总统威尔逊所说:不是简单的分权,而是交织的制衡。

第四、权利法案。

1791年美国各州批准的《权利法案》,将自由主义之父洛克的自然权利理论,转化为了具体的宪政实践。杰斐逊在给麦迪逊的信中说:《权利法案》是人民的必要武器,没有它,宪法只不过是统治者的游戏规则而已。

比如:1971年《纽约时报》诉沙利文案,最高法通过开放性的解释,维护了第一修正案。《权利法案》的开放性解释机制,让它历经230余年仍能适应时代的变迁。

img

第五、司法审查。

1803年,马伯里诉麦迪逊案确立了司法审查权,首席大法官马歇尔在判决书中创造性地指出:解释法律是司法部门的权力,与宪法相抵触的法律无效。

这一制度发明也体现三个方面:第一、司法权是宪法争议的终极仲裁者。第二、司法权充当了联邦权与地方州权的协调者。第三、司法权是公民权利的最后保障。正如托克维尔在《论美国的民主》一书中所说:美国问题的最终解决,迟早都会变成司法的问题。托克维尔的预言无一不准,因为后来有一次美国总统大位的归属,都变成了司法的问题。

第六、复合共和。

美国联邦制的创新在于构建了双重主权的体系,也就是既非单一制国家的中央集权,也非邦联制的松散联合。形象表述就是:大共和国里套着一堆小共和国。这种权力划分,创造性地解决了大国治理的规模难题。正如托克维尔所说:各州如同实验室,不断进行制度的创新。而联邦既给予各州自由,又提供国家力量,这是美国保持活力的奥秘。

img

美国国父们的六大发明,环环相扣,构成了相互支撑的体系:制宪会议确立了人民主权的原则,成文宪法提供了根本的规范,权利法案保护个人的自由,司法审查维系宪法的权威,分权制衡防止权力的滥用,复合共和平衡中央与地方。正如《联邦党人文集》的作者之一杰伊所说:这个国家不是建立在抽象的理论之上,而是基于对人性的深刻认知。

美国国父们的六大发明,或许是抄袭的《永乐大典》,但《永乐大典》的缔造者明帝国,显然并不承认。

新新默存|王五四:这届兄弟会不行

By: unknown
3 May 2025 at 01:00
CDT 档案卡
标题:王五四:这届兄弟会不行
作者:王五四
发表日期:2025.5.1
来源:新新默存
主题归类:外卖员
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

不得不承认,“兄弟”这个词特别适合北方语系的人讲出来,江苏宿迁的大强子一说“兄弟”,就有种他老乡项羽的霸气感,这种感觉就像2018年5月16日,刘强东在第二届世界智能大会上说的,“京东不会开除任何一个兄弟。”霸气侧漏,言简意赅,不拖泥带水,没有说“兄弟”的最终解释权归他所有。要是换成潮汕无党派人士马化腾,兄弟二字一出口,你就感觉两肋上要被插两刀,而且不用说也知道,“兄弟”二字的解释权归深圳市腾讯计算机系统有限公司所有。

去年刘强东又重新定义了一下兄弟,“凡是长期业绩不好,从来不拼搏的人,不是我的兄弟”“不想拼没错,但你不是我的兄弟,你是路人,我们不应该共事”,“兄弟”这种关系其实挺脆弱挺危险,既没有血缘,又没有商业合同,全靠江湖道义和个人道德支撑,随时都有被重新定义和增加附加条件的风险,在社会江湖上还好,这个行业讲究的就是个道义,“兄弟”关系相对牢靠,但放在商业江湖里,“兄弟”如衣服,远不如“合伙人”“股东”来的踏实些,我的利益就是我的利益,我躺着也是我的,我不拼搏也是我的,不是你赏赐给我的,不是你想剥夺就能剥夺的。

前几天,京东宣布入局外卖市场,刘强东还亲自送了几单外卖,在和骑手们的聚餐上,大强子一举酒杯,“欢迎美团、饿了么兄弟们加入我们京东。”有点电影《阳光灿烂的日子》里小混蛋的模样,在电影里,王朔饰演的社会大哥小混蛋刚刚和解了一场群殴,在事后的聚餐上,他酒杯一举说了句,“四海之内皆兄弟,五洲震荡和为贵”,大强子总提兄弟,可惜还处于兄弟会的初级阶段,是想让兄弟们为了“兄弟”二字一起给他卖命,他心里还没有“和为贵”。急于在外卖市场站住脚的大强子杀气腾腾,完全没有领悟和气生财的道理,他的急迫和他的杀气,都源于京东在骑手数量和商家数量上的不足,他嘴上强调的骑手待遇和商家品质,看似是在揭露行业弊端,实则还是他的急迫和杀气的具体体现。他嘴里的兄弟,就是他口水战的杀器,他需要通过口水战吸引商家和骑手的注意力以及他们大量的加入,尽快补齐短板,可是罗马不是一天建成的,骡马也不是一天招募齐的。江湖上一提兄弟情义,最容易点燃众人情绪,可真遇到事情,真看到现实的残酷,利益当前,性命攸关,“兄弟”二字就再也硬不起来了,李雪健老师饰演的张作霖曾经说过,什么是江湖,江湖不是打打杀杀,江湖是人情世故。不懂人情世故,只想利用兄弟们的一腔热血成就自己的霸业,连古惑仔都不如。

在知道刘强东之前,我先知道的是刘华强,以前只觉得孙红雷演技好,现在回头看看,刘华强的台词也写的不错。特别是这句,“我有我的兄弟,我得为他们的生命负责。”作为一个黑社会老大,需要的是兄弟们以命相博,但他没跟兄弟们说,凡是长期收不到保护费的,业绩不好的,从来不拼命的,不是我的兄弟。反而要对兄弟们的生命负责。他公开对兄弟们讲的是“在爱情和道义之间,我选择的是道义。”而不是一口道义一口奶茶。遇到危险的时候,他说的是“兄弟,要走一起走!”他深明大义,处处为兄弟着想却从没想过让兄弟们感恩戴德,“宋大哥有宋大哥的兄弟,华强有华强的朋友,我那些朋友也都是靠我吃饭的。”在他眼里,兄弟也是朋友,靠他吃饭,天经地义,而不是说,“不想拼没错,但你不是我的兄弟,你是路人,什么叫路人,就是你既不是我朋友,也不是我兄弟”,左一个兄弟右一个兄弟,说来说去全是利益。

作为大哥,刘华强心里一直装着兄弟,刚跟两个兄弟见面就送钱,这点很像一千年以前的一位大哥,及时雨宋江,一见兄弟就给钱。不仅仅是大哥,作为大国,有责任有担当的大国,我们也是经常给非洲兄弟送钱,那么大强子,作为一个大老板,是不是也应该像大哥和大国学习呢。况且,你现在已经是事业巅峰期了,不要老是一副“先帝创业未半而中道崩殂”的样子,不要总想着“想当初,老子的队伍才开张,拢共只有十几个人,七八条枪”的凄凉景象,现在可以让兄弟们跟着吃了,而不是想当初那会儿,都是跟着你吃苦和吃亏。

兄弟是可以一起打江山的,但一起坐江山很难,哪怕是亲兄弟,比如玄武门之变,比如烛影斧声,比如九子夺嫡,大家都想把那个“最终解释权”抢到手,否则前面说的再好听,一解释就完蛋了。哪怕像太平天国的洪秀全,贵为天王,上面还有个天父,天父本来应该是个如梦幻泡影如露亦如电的存在,不会影响天王的一人独大,却偏偏出来个东王杨秀清,声称自己能请天父下凡,而且还降临到他的身体上,借他的口发号施令,如此一来,天王的“最终解释权”就落在了东王身上,借着这个最终解释权,东王鞭打过天王,东王借天父口气对洪秀全说:“你与东王都是我的儿子,东王有这么大功劳,为什么只称九千岁呢?”洪秀全只能回答:“东王打江山,亦当是万岁。”洪秀全当初也没想到,这个曾经蛊惑人心拉拢队伍的做法,到了最后竟然成为别人打压操控自己的政治工具。

兔死狗烹,韭尽镰藏,是历史发展进程中常见的现象。打天下时,兄弟之间相互信任,休戚与共,坐天下时,兄弟关系成了君臣关系,手握重兵的功臣以及知根知底的前兄弟,对新王和新王朝来说,都是一个潜在的威胁,双方互帮互助协同合作的关系,变成了竞争甚至敌对的关系,比如朱元璋,对一起打天下的兄弟痛下杀手。商场不是战场,没有那么血腥,所以大强子也特意强调,不是兄弟也不是敌人,是路人,但却有点此地无银三百两欲盖弥彰的味道。

从市场经济的角度来看,一家大型互联网企业入局外卖市场,不论是对餐饮商家、骑手,还是用户,都是有好处的,不管是鲶鱼效应重振活力也好,还是改善骑手职业环境,以及餐饮行业的生存困境,或者说让更多的人关注外卖行业,关注骑手,关注餐饮……,都是非常有必要的。面对京东来势汹汹的进攻,大家都没有急吼吼地正面硬刚,美团发了一首诗,“他强由他强,清风拂山岗。他横任他横,明月照大江。”无视他人,做好自己,阿里太极推手般的应对也是“闪”了大强子的腰一下,淘宝天猫旗下推出了即时零售业务“淘宝闪购”,并在淘宝app首页以“闪购”一级流量入口展示。这在我看来,可以说是长效反击,也可以看作防御升级,但更像是在即时零售这个业态里射出的最长的一枪,让子弹飞一会儿。因为互联网行业发展至今,早就没有你死我活的竞态了,而是各自发力,各尽所能,共同推动行业的发展,嘴里喊打喊杀的,基本都是先把水搅混想趁火打劫的混子。“即时零售”“闪购”是非常清晰的商业表述,就是指服务用户的态度和速度,很多人可能没有感觉,认为没有什么创新和变化,作为一名有二十年工龄的古典互联网老兵,深知这个行业要有真正的创新和变化太难了,想当年互联网群雄纷争,大家玩的大多是宏大的概念,遥远的许诺,慢慢也就脱离了商业的本质,而今,“闪购”这两个字可以说是回归了零售业的根本,如果有什么值得期待的互联网大事件,这就是值得期待的变化,而不是什么给兄弟交纳五险一金。

淘宝闪购推出时,我在网上看到了他们一起推出的“真福利、真补贴”,作为一名创业十余年尚未成功的互联网那个企业家,我实在是不支持什么补贴政策,长远来看,对于哪一方都没有好处,补贴只是最初级的手段,但从当下的形势来看,好像除了补贴,也没有其他更好的方式来迅速获取用户让用户熟悉和体验新品,也没有其他更有效的防御武器来抵御外界的野蛮进攻,或许这就是面对门外野蛮人野蛮生长的无奈。不过有一点能够让人欣慰,那就是我们的互联网用户已经成长起来了,特别是面对平台之间的竞争交战时,可以说是久经考验百度不侵了,价格依然是重要决策因素,但大家都早已明白,价格很重要但不是唯一重要的,低价看上去很美好,但实则是“口惠而实不至”,就像大强子嘴里的“兄弟”,稍一细品就没有那么美好。什么给兄弟们交五险一金,说的是全职骑手,也就是正式员工,说的好像哪家公司不给正式员工交五险一金一样,对于那些外包骑手,还是跟其他平台一样的待遇。把一件事做好,总是要有团队要有技术要有经验要有积累的,难道有良心就能做好?更何况还不一定是真心,如果是这样简单,我们这的狗早就占领全球引领全球发展了,因为在这里,太多良心都被狗吃了。郭沫若在《甲申三百年祭》中说,“虽然屡次在下《罪己诏》,申说爱民,但都是口惠而实不至。”挺像大强子的。

在商场上谈利益当然没错,利益也应该放在首位,否则很难持续下去,但大家组建的是商业公司,不是兄弟会,那就应该在商言商,现代化商业公司该做好的事情做好,该签署的协议就签,别一张嘴就是兄弟,喷出的却是利益的味道,况且现在的“兄弟”还是重新定义过的,未来还会被随时定义。大强子每次高调做“兄弟”论的时候,都是他以及京东感受到巨大压力的时候,从长远来看是活下去的压力,有压力是好事,但不能只打情感牌,甚至有些牌打得很危险,比如“五险一金”的牌,比如“底层民众大救星”的牌,不仅僭越,还很有可能被反噬。想打感情牌也可以,但要注意度,他应该把余华请来,做个读书分享会,分享两本书,一本是《兄弟》,一本是《活着》。

互联网江湖,兄弟会很多,最可怜的就是已经被逐出江湖的贾跃亭了,一个人独身在美国,望着彼岸绿油油的韭菜而镰长莫及,虽然开始做短视频了,妄图通过互联网来延伸镰刀的长度,但是韭菜们已经不买帐了。看着视频里他孤独落寞的模样,一个兄弟也没有,其实这也是一种人设,他应该打造自己刺客信条的人设,“当其他人都盲目追寻真理的时候,记住,万物皆虚。当其他人的思想都被法律与道德所束缚的时候,记住,万事皆允。我们躬耕于黑暗,服侍于光明。我们是刺客,我们下周回国。”

真兄弟,是团队,不是团伙。

Before yesterday中国数字时代

首席商业评论|董明珠口爆“间谍论”,格力急了还是董明珠急了?

By: unknown
2 May 2025 at 01:53
CDT 档案卡
标题:董明珠口爆“间谍论”,格力急了还是董明珠急了?
作者:韩水土
发表日期:2025.4.26
来源:首席商业评论
主题归类:海归间谍论
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

近日,在格力电器的股东大会上,董明珠明确表示:“格力绝不用海归派,因为里面可能有间谍。我们不知道谁是,谁不是,只能保守地选择在国内高校培养人才。”

有评论称,这或许与一些往事有关,2023年格力某海归工程师离职后,将本企业技术参数泄露给外资企业,导致格力两亿元订单受到损失。

但从时间节点看,这个理由似乎并不是这次言论的直接诱因。这已经不是董明珠首次公开表达对海归人才的排斥,在2022年她就曾宣称公司超1.3万名研发人员“全部来自国内高校”。

也有人称董明珠快言快语,被“海归”伤透了或者就是纯粹提防某类人。本来这种选择也是每家公司的自由,董明珠怎么选人,或者格力怎么选人,完全是自己的自由,不招海归,我们也管不着,也不是不可以理解,毕竟这是格力的“内政”。

但即便理解她这么做,不代表认可她这么说。作为曾经的企业领袖,在回应“管理层年轻化”问题时,董明珠直接宣扬“间谍论”,肯定是有大问题的。将商业间谍风险简单归因为海归人才,背离常识,而且傲慢,如果真的按照这个逻辑,一些海归间谍还有国内的出生地,那个出生地的人才是不是也都不招呢?如此简单给人打上一个标签就定“死罪”,无疑是反智的表现,也会令人觉得是气急败坏的感觉。这样的言论逻辑甚至和当年的“华人与狗不得入内”一样无耻。

其实稍微了解一下历史,就会知道董明珠这个言论无疑是荒谬且无稽之谈,钱学森这样的两弹一星功勋都是海归,更有新中国第一代领导人也有海归背景,难道他们因为海归标签也可以被一概归类为间谍风险?再稍微搜索一下,我们也会发现,本土培养人员的叛变也是客观存在的,间谍风险有各种因素和环境导致,是否海归甚至都算不上一个核心要素,现在的信息交流和海内外交通那么方便,早就不是仅有海归才可能有海外相关利益的那个时代了。

所以,“绝不用”、“间谍”……这番口不择言,实则揭示出董明珠作为传统家电企业掌门人,真的老了:思维还停留在上个世纪,口号响亮,家长式作风,只顾输出情绪,一棒子打死,而不去思考问题发生的具体原因或本质,只能根据背景标签简单的一刀切。

当然,董明珠有可能故意这么说,为了搞流量,或者是说给一些格力的固有粉丝群听的,但是不是真的只有董大姐自己知道了。

很多时候,人不能解决一个问题时,会把问题的对象“去人化”或者进行丑化,为排除他们的行为找到合理的理由,进而为自己找到心理安慰。

即便如此,董明珠的位子似乎暂时还是挺稳的,这也是她口爆间谍论,甚至直接口爆Diss小米和雷军的底气吧。

但不管如何,格力的市场份额在2024年逐渐被蚕食是一个大隐患。

01 卸掉总裁,董明珠连任董事长,2024或成转折点

4月22日,格力电器召开2025年第一次临时股东大会,董明珠再次当选董事长。

有数据显示,董明珠以35.7亿股同意票(占有效表决权股份总数124.46%)连任第十三届董事会董事长,同时卸掉总裁职务,由高管张伟接任。此外,格力董事会成员也进行了不小的调整,增减变动明显,可谓是一场大换血。

回望来时路,从基层销售人员,到企业掌门人,董明珠带领格力走到今天,已经有三十五个年头。自2003年起担任格力电器总裁,2012年当选董事会董事长,董明珠以铁腕企业家的管理风格,推动格力电器从规模经济转向技术驱动,被商界称为“铁娘子”。

在董明珠强硬领导下,格力电器成绩不俗:技术上掌握压缩机、变频技术等核心部件,在空调市场份额上连续多年位居全球第一,利润增长稳健,2023年营收规模超2000亿元。并且,企业分红能力也很突出,同时提供大量就业岗位。

然而,2024年似乎是一个重要的转折点:格力的主营业务空调产品在国内的市场份额(约25.5%),不仅被美的(约28%)赶超,就连小米、海尔、TCL等企业也有冲击的势头。2024年三季度,格力营收同比下滑5.39%,一改过去十多个季度连续同比上涨的趋势。

不仅如此,格力,正在面临诸多问题与挑战。

02 格力的挑战,难解的困局

具体来看,当前格力面临四大问题。

第一,企业治理问题。首先,掌门人权力过大,决策过于集权化,存在品牌形象风险。就如最近董明珠的“间谍论”发言,不仅引起广大海归人士不满,在法律上公开指控特定的群体为“间谍”,可能构成诽谤,这将严重损害企业形象,或造成部分用户弃用格力产品。

此外,格力作为家电品牌与董事长董明珠存在过度绑定问题,比如不少格力专卖店更名为董明珠专卖店,这种试图打造个人IP的行为是双刃剑,首席商业评论在早前的文章中就特别分析过。

最后,强IP企业往往存在接班人选问题,和网红商超胖东来一样,格力也存在接班人问题,年过古稀的董明珠会决定未来接班人人选吗?外界无从得知。从孟羽童和王自如的情况和此次“间谍论”的发言看,对于人才选用,董明珠似乎更依赖个人喜好。

第二,多元战略问题。空调市场遭受各大企业围剿、挤压,市场变化多端,格力选择实行多元战略,试图多方位寻求利润增长点,比如开展手机、新能源、芯片与智能装备等业务。

然而,多元化战略也开展得不够顺利:格力手机因高价低能被市场排斥,销量不足,最终被内部消化,始终没能出圈。格力生活电器,占市场份额仍不足10%,绿色能源2024年上半年营收同比下降31.8%,业务收缩显著。自主研发的空调芯片,市场份额不足1%,工业机器人海外市场拓展缓慢。

第三,渠道转型受阻。无论是小米,还是美的,这几年在渠道营销上发展的都不错,比如线上渠道直播电商,已经承担起不小的销售额。而格力,线上零售额还存在短板,直播电商销售额不及头部竞争对手。此外,格力的经销商体系也遭遇动荡,多地经销商减持股票套现。

第四,海外布局滞后。目前,格力自主品牌出口占比仍然不足30%,不及美的的41%,也不及海尔的35%。此外,区域市场薄弱,过分依赖东南亚和中东市场,而美国和欧洲的市场占有率却不足5%,最近美国关税战打响,对后面的发展不能说没有影响。

可以说,这四大问题,正阻碍着格力进一步发展,基业长青的宏伟目标将成为挑战。

03 格力向何处去?

董明珠“间谍论”的不当发言,可能暗含其作为掌门人对格力前途晦暗不明的担忧,从而剑走偏锋。格力向何处去?是格力股东和董事会,未来必须要思量的问题。

针对前面提到的问题,格力在四方面发力,或能破局,盘活棋面。首先,在企业治理上既要掌权又要放权,谨言慎行,建立科学有效的人才选拔体系。

格力电器新任总裁张伟

第二,在多元化战略上,继续加大研发投入,构建技术壁垒与产品升级,同时加快品类拓展与品牌重塑,实现从空调到健康家生态的战略目标。

第三,积极推动渠道转型升级,力争全面实现从经销商模式向新零售模式的过渡,同时加速推进营销场景化创新,类似“健康家电进社区的”的营销活动要多做,拉近与用户的距离。

第四,继续深耕国际市场,尤其加速在越南、印尼等地区的建厂。另外,积极参与世界杯等全球赛事的赞助,提升国际形象,并利用社交媒体进行品牌宣传,让格力走得更深、更远。

百年变局,不仅是世界的,也是企业的。一家企业,总会遇到很多问题和挑战,最关键的做法是重视它们,解决它们,而如何解决,能否看得更加长远,无疑是由掌门人的格局决定的。

参考资料:

1新京报:“绝不用海归派”,董明珠“间谍言论”背离常识

2南都周刊:董明珠,不再兼任格力电器总裁

3谷雨实验室:董明珠71岁了,她还在战斗

4民企观:“空调之王”格力电器的困境

冷杉RECORD|不愿将就的年轻人,撞上离婚冷静期

By: unknown
2 May 2025 at 01:34
CDT 档案卡
标题:不愿将就的年轻人,撞上离婚冷静期
作者:王禹饶
发表日期:2025.4.29
来源:冷杉RECORD
主题归类:离婚冷静期
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

结婚变得更加容易了。

新修订的《婚姻登记条例》即将在5月1日生效。这意味着,结婚登记和离婚登记都不再需要户口簿。但由于离婚冷静期等诸多限制,即便不需要户口本,离婚也并没有那么容易。

“结婚免密支付,离婚拼多多砍一刀。”有网友调侃。

的确,每隔一段时间,“离婚冷静期”就会被推至舆论的风口浪尖。

最近一次是在今年两会上,全国政协委员蒋胜男建议删除民法典中关于“离婚冷静期”的条款——她上一次提出类似意见是在2020年参加民法典草案审议时。“离婚冷静期”生效四年来,人们关心它的实施效果,也忧虑它带来的副作用:若其中一方反复撤回离婚登记申请,另一方便需要不断地经历离婚冷静期,双方矛盾很可能因此激化。

根据2024年民政事业发展统计公报的数据,自2021年实施“离婚冷静期”以来,协议离婚占比从2020年的86.1%降至2023年的71.94%。与此同时,诉讼离婚占比则从13.9%升至28.06%——从这个角度看,离婚冷静期似乎并没能对婚姻起到黏合作用。

另一方面,2024年的结婚登记量却创下1980年以来的历史新低。

这一趋势与婚姻律师刘琬琳的观察相符,“如今人们对婚姻的态度有了转变:既然离婚这么麻烦,那我干脆不要结婚了。”刘琬琳是湖北美宜佳律师事务所的创始人。去年冬天,《再见爱人》第四季热播期间,她带领团队60位律师一起看节目、开直播。这场跨界尝试,意外地成为观察当代中国婚姻现状的窗口。

最近,我们采访了刘琬琳,试图厘清几个关键问题:在离婚冷静期实施的四年多里,它究竟如何重塑着中国人的婚恋选择?当法律程序可能成为情感桎梏时,怎样重新理解婚姻的本质?而在诉诸法律之前,是否还存在其他解决婚姻困境的可能?

以下是刘琬琳的口述:

无法轻易退出的“游戏”

离婚冷静期实施后,我们律所出现的情况是:找律师帮忙协商好的夫妻,更愿意直接到法院走诉讼,通过调解的方式离婚。因为可能在一个月内,法院就达成一份调解了,没必要再等“冷静期”。换作以前,律师出面帮他们协商好之后,大家就马上去民政局协议离婚了。

这一现象导致民政部门的协议离婚数据出现某种“失真”:不见得他们的离婚登记数量趋缓,真实的离婚人数就减少,可能是人们选择“曲线救国”了。

对于冲动离婚的情况,离婚冷静期的确有一定效果;但对那些深思熟虑决定离婚的人,他们再怎么“冷静”也要离婚。一些时候,“冷静期”反而可能加剧对双方的影响和伤害,比如好不容易达成一致的条件,在“冷静期”内一方反悔,导致夫妻间的信任崩塌,彼此猜疑猜忌,最后双方都不愿意协商了。

我们有个客户就是这样。她老公赌博,本来两个人已经说好了,女方除了孩子什么都不要,按男方说的拿点儿钱帮他还赌债,就可以离婚。但是在冷静期内,男方又在外面借钱赌博,让女方给他填窟窿——因为他要抓住这种机会:你既然这么想要摆脱我,对吧,那我就要再让你拿点钱出来。这种无限循环,是非常恐怖的状态。两人原本当时当下就可以离婚,但因为冷静期,变数增加了,矛盾和争议也加剧了,最后到我们这里来起诉。

就是说,有离婚冷静期放在这儿,可能就导致大家本来可以好好协商的事情协商不了。两个人会处在一个博弈的状态——反正还有 30天的冷静期,那我就先等等,看看万一呢?

至于离婚冷静期要不要废除,我觉得不能“一竿子”地看,还是要分情况对待。但这样执行起来就有非常大的难度。在当前,离婚冷静期仍在实施的情况下,如果存在家暴等严重过错,而且也有证据能够证明的话,建议大家采取诉讼离婚的方式。法院对家庭暴力、人身伤害有绿色通道,比如“人身保护令”,时间上会快很多。

对于这些在婚姻中受到伤害的离婚当事人,无论年龄多大,都蛮需要有人支持的。因为当事人本身会有恐惧,对将来不是很有希望,担心万一离了过得比现在更差。当用这种思想把自己圈禁在牢笼里时,就很需要外力的助推。比如我们遇到过一个孩子,陪妈妈来离婚———一般稍微上年纪的人,只要孩子们支持,她反而心理上会有力量感。在这个家庭中,男方有家暴,又有外遇,女方为了供两个孩子上大学,忍了二三十年。后来实在忍不下去了,女儿也支持妈妈和爸爸分开。

也有很多诉讼离婚无法速战速决。如果进入诉讼程序,周期长的话,可能两年都不止。

它最核心的点在于,第一次起诉离婚时,在某些情况下,比如法院不认定夫妻感情破裂,对方不同意离婚,也没有重婚、家庭暴力、虐待遗弃家庭成员等原则性问题的时候,法院是可以先判不离婚的。它会强制禁诉,也就是要求原告冷静6个月后,才能重新起诉。家庭琐事产生的一些矛盾,比如婆媳矛盾、教育问题等都不是法院判决离婚的理由。

和离婚冷静期一样,禁诉期的核心目的也是希望大家能够慎重、理智地对待婚姻,不要在冲动之下做决定。毕竟两口子一起生活,磕磕碰碰非常正常。而且婚姻不仅是两个成年人的事情,还涉及两个家庭,有可能还涉及下一代,它的关系面非常广,所以会有离婚冷静期、禁诉期。

但这里有个很现实的问题,就是财产分配上的不公平。法院第一次不判离的时候,是不会处理财产分割的。这就给掌握财产的一方钻了空子——他们可能不是真的不想离婚,而是想利用这段时间转移财产。再加上六个月的禁诉期,等第二次起诉要分财产的时候,有些钱和东西可能早就被转走了,甚至还被“合法化”了。这对另一方特别不公平。

所以冷静期也好,禁诉期也好,我觉得感情的问题是可以冷静的,但不能把孩子的问题、财产的问题一起冷静,否则就有风险。

女性更容易在“冷静”中受损

因为“冷静”受损的一方,女性居多,尤其是全职妈妈。

全职妈妈把自己的重心全部放在家庭里,男方在外面打拼事业,创造经济财富。那么在这场婚姻中,男方肯定是直接掌握财产的一方,他知道他有多少财产、在什么地方、具体什么情况,“冷静”的时候,就会导致女方婚也离不了,财产也控制不了,陷入被动。

我们经手过一个案例就是这样,女方是全职妈妈,把儿子和女儿培养得很优秀,男方在外面打拼,有了第三者后,想跟原配离婚。但他不主动提——因为他提了离婚,女方就可以提条件,会涉及财产切割,于是男方就故意打压女方,用不回家等办法逼迫女方自己提离婚。当女方提出离婚的时候,男方又会说,“我在外面那么辛苦,你在家里享受,竟然还要提离婚、分财产”——他就这样把自己放在道德高点上,建立优势。

女方起诉之后,男方又说自己没有财产。考虑到女方长期做家庭主妇,对财产知情权不够透明,在第一次诉讼时我们申请到了法院的调查令,锁定了男方的一些财产信息。男方知道自己的招儿没用了,在财产上做出了妥协。最后他们是调解离婚的——诉讼离婚中,要么是调解离婚,要么是法院最后判决离婚。前者拿到的是调解书,后者是判决书。

其实在离婚案件中,调解程序是贯穿始终的,但凡有机会都要调,要尽可能把双方矛盾降到最低。做不了夫妻还可以做朋友,做不了朋友,还可以做孩子的父母,总归来说尽量让双方可以和平冷静地处理这个事情。毕竟到了判决那步,夫妻之间的隔阂和矛盾确实会加剧。

通常走到判决那步的夫妻,要么是财产上坚决不让步,要么是因为想要孩子。比如在二胎家庭,原本以为可能一人要一个,可以很轻松解决这个问题,但现在很多人不是争一个,而是争两个。他们不希望两个小朋友分开,担心分开之后对小朋友造成不好的影响。

离婚难度的增加跟人们的经济状况也有关系。财产形态丰富了,不可分割的东西多了,就会导致离婚麻烦一些。以前离婚要分房子、车子,现在更多的是无形资产,比如公司股权,基金股票,虚拟货币,还有经营的公众号、网店,这就让财产分起来没那么简单了。

很多人选择在婚前就把财产计算得很明确,比如谁出钱买房子,写谁的名字,谁出钱谁还贷,收入怎么分。我觉得这样做是对的,我们开始直面婚姻的本质问题了。其实婚姻本身就不是单纯的感情问题。谈恋爱说喜不喜欢,但结婚绝对不是喜不喜欢对方才结婚,结婚一定是两个需求价值的交换。提前把话说清楚,反而会有利于后面去解决问题。

“很多问题没必要忍”

我从2015年开始做离婚律师。这10年里,能感觉到的一个变化是,大家越来越容易因为鸡毛蒜皮的琐事而离婚,比如双方相处不来,凑不到一起。但之前更多是一些重大问题才会导致离婚,比如重婚、家庭暴力。我理解这是现在的人越来越独立的一个表现,随着经济的发展,人的忍耐阈值在降低,就是“很多问题我没必要忍”,人们会考虑自己多一些。

可能这也是之所以有“冷静期”的原因,就是让大家认识婚姻的本质——选择跟一个人结婚,不能只看到对方的优点,看不到缺点,而且每个人的需求都是在变化的。当矛盾发生的时候,不要轻易用离婚的方式来解决问题。简单来说,你不会游泳,换一个泳池也不会游。

但目前来看,离婚冷静期带来的一个问题是,大家反向地不是去考虑婚姻该怎么经营,而是觉得“离个婚这么麻烦,那我不要结婚了”。我有客户就这么想。所以现在很多人不结婚,只同居。

我觉得这是好事。每个时代对婚姻的需求是不一样的。以前人们觉得要忍,是因为觉得两个人需要绑定在一起,才能有对抗风险的能力,经济才能稳定。但现在大家物质生活水平提起来了,开始追求精神上的愉悦了。如果说之前的婚姻是为了增加抗风险的能力,现在很多人则是为了找到志同道合的人,找到精神愉悦。这也是生存模式决定行为模式。

来找我们离婚的人,85%以上都是女性,年纪最大的有70岁,因为“忍不下去了”。相比之下,男的在离婚问题上,忍耐阈值比女性高很多。很多问题他们能忍,只要不出边界,不触发底线,他们其实不太愿意离婚。

刚才说的这个70岁的女性,之前她一直在为孩子容忍男方出轨。后来,孩子们都有自己的生活了,儿孙满堂了,女方仍然没有换得男方的尊重,她就想为自己活一活。很多时候都是这样,女性选择离婚的时候,通常都是想让自己快乐、幸福一点,而不是把整个重心放在丈夫、孩子那里。

随着年龄增长,女性在很多问题上很通透的。你只要不触到她的财产经济利益,她不太愿意在一些小情小爱上纠葛。她非常清醒和独立,不纠结,就是你能给我提供经济价值的时候,我就和你在一起,你可以不跟我提供其他的,你随便在外面玩都可以,我把我自己保护得很好。但是一旦你的经济价值出现问题,我也会立刻快刀斩乱麻地跟你分开。

我有个50多岁的客户,她活得非常通透,不像一般人眼中的全职妈妈,生活中都是把自己放在第一位的。她老公在外面可能也不是很顾家,但她不在意,她说你只要不触到我的经济利益无所谓。但是最近她发现对方公司生意出了状况,她非常果断地要做切割。

这些年,我能明显感觉到想要离婚的人,年龄段变低了。也就是说,年轻人不排斥离婚,他们很清晰、清醒,觉得不能好好过就分开,“本来找一个人来遮风挡雨,没想到风雨都是这个人带来的”。我觉得这很正常,随着经济发展,每个人意识层面的独立性会越来越强。因为婚姻本身也是两个人组合在一起各自满足各自的需求,当其中一方觉得另一方不太能够满足“我”的需求了,或者自己也能满足这些需求的时候,就不会选择忍让。

之前我们总说七年之痒,但现在三年就是一个很大的坎。很多人都是正准备要小孩的时候发现彼此不适合,然后快刀斩乱麻。一般三年一过,基本上都会有小孩了,有小孩之后婚姻可能会相对稳定一点。

我们也有一些女性客户是第一次起诉后在法庭上和好的,还有第一次起诉判不离后,两个人自己和好的。这种情况普遍是因为孩子问题或经济问题没那么容易切割,尤其女性很容易为小孩做出妥协和忍让,想为孩子保留完整的家庭。

其实我不太认可这种行为,这不是解决问题的根本方式。

当夫妻之间出了问题,又要去维持虚有其表的婚姻状态,是不会对孩子好的。孩子非常敏感,他们要的是父母有爱的家庭氛围。如果妈妈不快乐,会无形中把一些情绪暴露在小孩那里。小孩也会感到很大压力,觉得“妈妈为了我才这样”,会有很强的负罪感,不会快乐。

65%都是调解

离婚看似简单,其实掺杂了太多情感问题与关系问题,确实需要律师在处理这些问题时有一定的情怀,要对处理人的关系有特别的兴趣。

对我们来说,追求的不能是单纯地用法律规则,而是能够帮他们把法律规则用活,能够真正解决他们的问题,让他们真的在混乱的、仇视的关系中握手言和。所以婚姻律师要有一个大的使命愿景,就是希望每一个在婚姻泥沼中的当事人都能够有重新开始的勇气。

我们做的6000多起离婚案件里,有65%都是调解的。

有时听到人们说婚姻律师就是离婚律师,我就会纠正,告诉他们婚姻律师不是离婚律师,也不是拆家律师。婚姻律师很重要的价值是,在夫妻之间缓冲矛盾,避免不必要的冲突。如果一个婚姻律师不抱着调停、调和的态度,只是单纯地走程序,为达到目的不择手段,是会出问题的。

最初想当婚姻律师,很大程度上源于我实习期做的一起婚姻家事案件。

那个客户我记得特别清楚,她是一个遭遇家庭暴力的当事人,30多岁。她不敢见她的老公,老公在她的想象中非常恐怖。听过她的表述后,当时我们也没有多想,就直接选择起诉离婚的方法了。等到法院开庭那天,她老公带了一群人过来,要把这个女的抓回去。在法院,他见到他老婆的第一件事,就是伸手掐住她的脖子说,“你还敢跟我离婚?你给我回家”,非常凶神恶煞。

当时我第一反应是,走到客户身边,把男方的手打下来,跟他说,“你注意这里是法院,不要太嚣张”。我发现我不害怕当时那种状态,我反而觉得那个女孩太需要人帮助了。

这个案子最神奇的地方是,那天开完庭后,男方找了一群人堵在门口不让我们走,最后我们是在法警的护送下走的。但你能想象吗?在这么尖锐的关系中,这个案子我们最后帮她协议离婚了。

当时我们找了男方沟通,想看看彼此的误会在哪里——如果不把话说清楚,女方是要躲一辈子的。离婚不是解决问题的根本办法,法院判决也不是。当我们联系到男方时,他跟我们说,“她要离婚,她怎么不自己好好跟我说,要用这种(上法庭的)方式让我丢丑?”我们了解到男方这种心态后,就采取了协议离婚的方式。后来男方还帮女方支付了律师费,他拿着现金到民政局交给我们那一刻,给我触动特别大:一个在法庭上像恶魔一样的人,在协议离婚的时候竟然成了“小顺毛”。

那个案子之后我意识到,婚姻问题里,一念天堂,一念地狱。如果处理得好,大家就都是善良的,如果处理不好,激发的就是恶意,人也会变得可怖。人们很多时候是在跟自己的想象过日子——不是说先换位思考一下对方的立场,而是完全站在自己的立场,先给你定性,再去找证据来证明自己的定性是对的。如果因为想象,在婚姻中产生了这么多误会、分歧,冲突,那真的好可惜。

六神磊磊读金庸|肖飞居然还让大家向董小姐学习

1 May 2025 at 21:55

file

事件本身已经不用多说了,都吃瓜多少轮了。

有一处很小的细节,最让人感觉不是滋味。

就是董小姐非要取消轮转,肖飞在工作群里怼麻医生,说了这样一番话:

“如果(你们的医生)因为工作量的轻微增加就闹情绪,建议他们和胸外科教学秘书联系,帮助他们向董大夫学习,更好理解规培住院医生应该具备的使命感和责任心。”

董袭莹小姐不肯去脊柱外科轮转,各种托关系、打电话,要留在肖医生的胸外科。

脊柱外科的麻昊宁医生十分火大,公然和肖飞开撕,并直言:这种特权行为,增加了同学们的工作量,导致不公平,大家意见很大。

原话就说的是“特权”。

结果是麻医生阻击失败,董小姐摇来大佬打招呼,让脊柱外科不得不低头,自己不用轮转了。

文章开头这番话,就是肖飞在群里撂下的一句胜利宣言:如果你们有意见,建议来向我们董大夫学习。

等于是贴脸开大。

file

CDT 档案卡
标题:肖飞居然还让大家向董小姐学习
作者:帅呆的sixgod
发表日期:2025.5.1
来源:微信公众号“六神磊磊读金庸”
主题归类:董袭莹
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这句话,是相当膈应人的。任何人但凡有一点基本的同理心,大概都会被这句话灼伤。

见字如见人,从中看得出此人个性确实比较骄狂,也的确是做得出手术室发飙,还解开女朋友助手的工作服,扔下病人扬长而去的事。

且来品味一下这句话,它妙就妙在,群里一百多人,以及所有的围观同事,都知道这是谎言和狂言,半个字都没人信。

就那么大个单位,谁不明白肖董二人的关系,谁又不明白这次拒绝轮岗是咋回事?

但肖飞偏就能怼得理直气壮,扯淡得义正辞严;偏就能毫无顾忌,公然说董大夫最棒、最优秀,还要你们学习她的“使命感和责任心”。

估计当时所有围观的医护都被上了一课:最牛逼的不是说谎,而是能够把谎话公然说得和真理一样。

最张狂的不是后台操作,而是操作完了还特意摆上前台让你吃下去。

我把这段话看了好多遍,字缝里歪歪斜斜只看出来一句:你服不服?就问麻医生你服不服?

过去,在你我这种土鳖的肤浅认知里,规矩不该是这样的。

总觉得倘若是既得利益者,通常应当低调一点,闷声发财最好。

占了便宜了,就多少顾及一下旁人的感受,这本该是走后门的基本道德。

人家科室都认栽了,何必还当众贴脸开大?你俩睡都睡了,何必非大群里示爱?要办的事明明都已办成了,何必不依不饶补刀拉仇恨?

却不知社会已经进化到另一个层面了。所谓低调、避嫌、闷声发财,原来都已经是穷人思维和底层认知了。

在肖飞他们的认知里,已经没有低调这一说,只有胜利之后的纵情宣泄和对失败者的当场折辱。

都说“得理不饶人”,但他们已经是不得理还不饶人。

都说“赢者通吃”,但这些赢者不但要通吃,还会公然让你向她学习。

活该你阻击失败,活该你社会资源不如,那么就往死里按你的头,问你服不服。

这让人想到武侠小说里很多桥段:

“如果小杨过你因为挨打次数的稍微增加就闹情绪,建议你和全真派的教学秘书联系,帮助你向赵志敬老师学习,更好理解修真行业的忍耐力和牺牲精神。”

“如果金翠莲你因为卖唱工作量的轻微增加就闹情绪,建议你和状元桥肉铺的教学秘书联系,帮助你向郑大官人学习,更好理解服务行业应该具备的使命感和责任心。”

只能说,这个世界上,存在着完全不同的两种人格,已经到了无法互相理解的地步。

一种“不争气型老实人格”是,一切以不冒犯别人、不产生冲突对立为宗旨。

哪怕只是得到自己份内应当的东西,也总觉得欠了别人的,心虚忐忑;偶尔被公平对待几次,都受宠若惊;正常地评了个职称、得了个先进,都莫名其妙地心下惴惴,忍不住在单位里溜墙根半月,唯恐被误会为张扬跋扈,伤害了旁人的感情。

这就是屌丝为什么终究是屌丝。

相比之下,肖飞这种完全是另一种人格,为了一点便宜,不惮于任何冲突和对立,哪怕赢了还要贴脸开大。

不止一个肖飞,整个故事里许多人都是如此。

譬如董小姐,以她的人生职业规划,几项关键目的都达到了。那就低调一点,混在别的老实孩子里暗度陈仓就完了呗。

可人家偏不,还要当明星学员;还要上媒体露脸,登大头照片。

里子也要面子也要,实的也要虚的也要,岗位也要流量也要,既要又要还要。

再者,博士已经拿到了,规培三年,坚持一下有什么挺不过去?轮岗一下怎么就熬不得?

可人家偏不,非要例外之上创造例外,不可能里再造不可能。

顶级大咖的关系,别人即便有,动用时都慎之又慎。换了那些穷孩子历练少的,别说求大佬办事了,连打个正常工作电话都紧张得不行,事先要做无数心理建设。可董小姐非要挑战规则,动用大咖,只为了一个屁大的“不轮转”。

达到目的之后,和肖医生还要不依不饶,群里发飙,去碾压那些捍卫原则的人,对人公开处刑。

特权的版本,如今已经升级了。

光是使用特权本身已没有快感了,只有揉捏、折辱不识相的阻挠者,“建议你们向董大夫学习”,才有足够的快感。

普通人其实已经很接受现实了,早都默认了“资源咖”“关系咖”的存在,默认了无处不在的裙带。

他们只是希望你们的吃相好看一点。

但在肖飞这些人看来,吃相好看,那还不如不吃。

看到一句话挺有意思:强者从不抱怨环境,因为环境就是他们搞坏的。

【404文库】阜成门六号院|董小姐算是京城婆罗门权贵出身吗?

1 May 2025 at 20:01

image

现在自媒体都说董小姐出生于京城婆罗门或权贵家庭,昨天笔者发朋友圈提出质疑,引发很多朋友的兴趣和讨论。其实董小姐家庭在北京不过是上中产,她的丝滑人生,不是靠特权,她这级别家庭没有什么特权,而是靠“人生自我努力”、精明钻营,以及没有道德羞耻感。

无独有偶,今天饶毅教授也在《请勿错怪协和王辰教授》一文中提到:“舆论认为某学生父母是权贵,我专门反问一位转这种新闻的官员,你认为她母亲在北京算官员吗,他回答‘不算’。所以,大家可以质疑有些问题,但说某生母亲是官员,她恐怕哭笑不得”。

可见饶先生也是这个观点,读者们但凡是了解京城社会生态的话,都不会同意董家属于婆罗门、权贵的说法的。为什么这么讲呢?

我们先看网络上梳理的董小姐父母及其亲戚的职称头衔,当然网络搜罗出来的信息也不可能完全准,但是最关键的其父母信息是准确的。董父为为中冶建筑研究总院有限公司副书记、总经理,而中冶建研院是五矿下的二级企业,央企下面二级公司的二把手一般是副局(厅)级或正处级,当然因为中冶建研院资格比较老,可能是局级。董母为北科大某学院副院长,比较确定的副处级。

其实这种家庭,在北京的朋友圈中算是标配,他们属于65后、75前的一代,但凡毕业于一个985级别的高校,工作比较勤奋、为人不至于太死板的情况下,都是比较容易达到这级别。这样的家庭在北京至少有数万个,确定说是一个上中产或高知家庭,如果非要说贵,那顶多是富贵,而不能是权贵。

CDT 档案卡
标题:董小姐算是京城婆罗门权贵出身吗?
作者:BJ王明远
发表日期:2025.5.1
来源:微信公众号“阜成门六号院”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这种局级家庭——大红旗轿车、门岗警卫这种最简单的上层身份标志,都与他们无缘。更不会享有职务外的特权,如果他们有些关系,也是利用手头资源,托关系走后门勾兑的,而非是不怒自威,人家处处巴结他们,主动给他们办好的。

前几天跟一些朋友聊天也谈到这个话题:北京(乃至全国)的官员群体远非大家想象中的那么神秘、无所不能。随着社会的开化进步,以及中央反腐力度逐渐加大,最起码到副部级、部级这个层面,除了少数很有职业特长,还能用知识发挥社会影响力的之外,他们如果退休后,影响力会迅速减弱,也不过是拿退休金的老干部,本身并无太多特殊待遇。甚至副部级连配的专车都没有了,他们也可能像你我这样在用滴滴打车,最起码局级层面出门打车很普遍。

如果董家真的是权贵,那么董小姐在2019年大学毕业后,不会拐弯抹角再去读四年医学,不管她是真读,还是假读,毕竟还需要四年的时间成本。那时候正好是金融业最风光的时候,董小姐读的又是经济学,董家如果有关系那么完全可以安排到最好的国有金融机构拿高薪,而不必再搞这么漫长的“曲线救国”。

笔者猜测正好是董父母资源有限,所以利用其祖父(协和校友、曾任某顶尖医院影像科主任)的残存关系,把孩子送进协和4+4试点班试一试,家人好把她扶上马、再送一程。董小姐的博士论文为影像方面的,并且有院士指导,正好验证了笔者上述猜测,很可能是她爷爷找了院士老同学给指导的,课题就是咱家最熟悉的领域,孙女不会爷爷可以帮。

所以,笔者认为,在董小姐的整个事件中,她祖父才是最关键,决定她的医学求学道路和职业道路的人物(如果网络披露的她祖父名字属实的话),而不是她父母,或者她的外祖父以及七大姑八大姨。

综上,董小姐一事不能用权贵模式来解释,更确切是用知识阶层堕落或精英自甘腐败来解释,董被爆料的行为,处处显示出这个家庭的精致利己主义,或极其善于经营:

1.从医的人最起码讲医德,引导自己孙女读医学博士是可以,无可厚非,但是给自己孙女辅导博士论文,又把孩子安排到肿瘤医院这种人命关天地方的一线医务岗是怎么回事?这不是害孩子,更是以后祸害患者吗?

2.董的成长路是被家长精心设计的,从规避高考到美国就读社区大学,然后转学到巴纳德学院,成功获得哥大的名分,再到协和博士班,显示出这个家庭善于利用便捷通道,让孩子获得成功。

并且董家一直善于利用媒体,她上小学时,就登上北京市属媒体;进入协和以及实习后,又找央媒的外围媒体给予曝光,可能家长觉得知名度越高,意味着孩子越成功。

3.董小姐的行为也表明,她是一个很聪明的人,但是又是被溺爱长大的,被家庭灌输追求极致成功,而缺乏道德底线的。比如她与有妇之夫搞婚外恋,还堕胎;再比如,她在2022 年到 2024 年期间,一共发表11篇高水平论文,从骨科到妇科,从放射科到泌尿科,从高分子物理,到化学到生物医学,跨度之大令人咋舌。

这样复杂的高难度学术研究,即使华佗转世也不太可能完成,何况对于一个从经济学转到医学的0基础新手。她的这些运作背后,可以清晰看到家庭给她的穿针引线,以及家庭行事给她的影响。

因此,董家行为分明就是一个中等家庭善于钻营的典型,董的成长更像是一个虎妈鸡娃,在京城有限资源的高度竞争中,拼命在维护社会地位不下降,甚至是有所上升的过程。这本质是一种平民的逻辑,而不是权贵家庭的逻辑,如果真是上层,会害怕高曝光,唯恐别人知道自己在干什么,就像有钱人怕人知道自己有钱,只有没钱人才爱好炫耀以及拼命赚些钱。

另外,这两天大家为了证明董小姐不学无术,都说巴纳德学院相当于国内三本,约等于南京大学金陵学院这一类,是一个水校,这一点笔者是不同意的。董小姐起初就读于哪个社区大学,怎么转学进来的,我们还不清楚,但是巴纳德是美国老牌文理学院,绝非平庸之辈。

巴纳德学院是“七姊妹”成员之一,这七所学校均建于1850年前后,初期是女子学院,所以人称“七姊妹”。“七姊妹”中在中国最有名卫斯理学院,宋美龄和冰心都毕业于这里;巴纳德学院创建于1889年,地理上紧贴哥大,或许因为它发生了财务困难,1900年起隶属于哥伦比亚大学,但仍保有独立的董事会与财政机构。

所以,巴纳德学院虽然比不上哥大本科金贵,但是本身教学质量也不差,毕竟它在全球的中心纽约,会有一流师资,就像北京最普通的本科学校——北京联合大学,教师里面清华北大博士生占比,可能超过地方一本院校。中国学生申请巴纳德学院的难度,笔者认为应该跟参加高考考取的211难度差不多,不是说花钱就能进入的水校。当然,董小姐通过社区大学转入,其中难度可能又降了很多。

以上分析,也并非为董小姐洗白,笔者对董小姐事件的态度,可见昨天发的文章,只不过是指出最近舆论上的一些误区,让我们更避免情绪化、更尊重事实去讨论这个社会事件。

最后祝大家假日愉快!并附一张图,供大家一乐,这可谓中国三甲名医院的真实写照。

file

基本常识|赵基淮同学你别怕,董家人手再黑也遮不了天!

1 May 2025 at 18:06

file
头图由豆包生成,提示词:女医生抢论文

今天看到媒体报道,董小姐的博士毕业论文与北京科技大学一名残疾学生的专利文章高度雷同,气得我真是拍案而起,瞬间就起了行侠仗义的念头。

这要是真的,就欺人太甚,太丧心病狂了!

image

首先声明,根据现有的证据分析,还不能完全断定断定董小姐论文属于抄袭或抢了他人的研究成果。但是,这里的巧合也太多了,多到让人不得不相信的程度。

巧合一:相同的选题

身在协和医学院临床医学专业读博的董小姐与北京科技大学计算机专业读研的赵基淮同学,居然精准选中了同一个课题的同一个切入角度。

这是董小姐的毕业论文《跨模态图像融合技术在医疗影像分析中的研究》,发表于2023年。

image

这是赵基淮同学申请的专利,一种跨模态生成和检测的方法及装置,用于医疗影像生成与处理,申请于2022年。

image

原本我还在想,董小姐也没有计算机背景啊,怎么毕业论文选了个医学与AI图像处理相关的交叉课题,这更像是计算机专业的技术选了个医学应用方向,而不是基于医学问题找了个AI的解决方案。

现在把这两个研究摆在一起,一切就很好解释了。

CDT 档案卡
标题:赵基淮同学你别怕,董家人手再黑也遮不了天!
作者:项栋梁
发表日期:2025.5.1
来源:微信公众号“基本常识”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

巧合二:论文中的配图

董小姐毕业论文中使用的图片,和赵基淮同学专利中使用的图片,不能说完全相同,只能说是一模一样。

image
董小姐论文配图

image
赵同学专利配图

此外还有多处文字论述几乎完全一致的对比,我就不一一举例了。论文查重与抄袭认定是学术委员会的事,但对我个人来说,已经足够做出判断了。

巧合三:董小姐的姑姑

赵同学的专利由4个人共同申请,其中3位是北京科技大学计算机学院的老师,只有他一个人是学生。稍有基本常识的人都知道,主要研究工作肯定是赵同学做的。

image

而这3位老师中的班晓娟,是赵同学的导师,她同时也是董小姐的姑姑。

巧合四:赵同学疑似被延迟毕业1年

赵基淮同学2020年考入北京科技大学计算机系读研,作为听力障碍人士,赵同学读研期间获得中国大学生自强之星等荣誉称号,参与多个重点项目,申请多项专利,绝对是品学兼优的好学生。

image

image

按照北京科技大学计算机专业硕士研究生的学制,2020年入学的赵基淮同学应该于2023年毕业,以他的实力,在本校本专业读个博士应该是顺理成章手到擒来的事。

然而,如此优秀的赵基淮,下一次出现在新闻里却成了2024级的博士研究生。

image

大概率,赵基淮同学被导师延迟毕业了一年!

这也是自董小姐事件发酵以来最令我愤怒的一个点,这太欺负人了,太丧尽天良了!

即便是杀人如麻的黑社会土匪也知道,不能欺辱老人、孩子、残疾人。董家人,如果还能称之为人的话,这么欺负一名品学兼优的残疾学生,连土匪都不如!

你要把自家孩子扶上马,镀上金,推荐去顶级医学院读个博士,大家也就忍了。

你家孩子不争气,你们有权有势给孩子花钱找个枪手把毕业论文给写好,大家咬咬牙也能忍了。

可你们,找一个品学兼优,身有残疾的研究生,把人家的研究成果抢走给自家孩子发毕业论文,完了还让残疾学生延迟毕业一年……

这特么是人能干出来的事吗?!!!

欺人太甚!

现在事情曝光出来,想必还在北京科技大学读博的赵同学会压力山大。

赵基淮同学,请你不要害怕,他董家势力再大也不能只手遮天。如果你遭受过不公正待遇,被迫参与了学术造假,希望你联系我或者媒体记者把实情公之于众。

如果你因此而遭受打击报复,无法继续在北京科技大学读博,我郑重承诺,可以个人捐赠人民币30万元帮助你到国外读博深造。还不够的话,我有充分把握可以通过公益途径帮你筹齐资金,资助你完成学业。

我能力有限,没有办法帮助你伸张正义,但我愿意做你坚强的后盾,我相信基本常识的读者也有很多人愿意支持你。

朗朗乾坤,不能让给这些魑魅魍魉!

星球商业评论|董小姐掀开了天宫一角

1 May 2025 at 09:30
CDT 档案卡
标题:董小姐掀开了天宫一角
作者:杨乃悟
发表日期:2025.4.30
来源:微信公众号“星球商业评论”
主题归类:特权阶层
主题归类:董袭莹
CDS收藏:话语馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

中国医学史上,注定会有董小姐的名字了。

这两天肖飞医生和董袭莹医生的瓜,已经远远超越了裤裆那点事儿。《人民的名义》唯一一个死的,是农民的儿子祁同伟。现在,唯一被处理的,也是寒窗苦读的肖医生。

和他一起的董医生迟迟没了下文。

董袭莹,北京协和医学院医学博士,中国科学院肿瘤医院执业医师,中日友好医院规培医生。本科就读于哥伦比亚大学巴纳德学院经济学专业。2019年,董医生通过协和4+4试点班开始跨专业攻读医学。

这个4+4项目从2018年到2024年,一共就收过3个经济学专业的学生,比新媒体、园艺、艺术专业不知高到哪里去了。

董医生的履历很神奇,被4+4项目录取时的专业是内科。在校就读期间,董医生就能连续和多位院士共同发表论文,内容覆盖骨科、胸外科再到脑外科。更神奇的是,虽然是实习生,董医生不仅能登上手术台,参与复杂手术,还能被国社报道。

然后被内科专业录取的她在毕业时凭借妇科影像学的论文变成了外科医生。然后又去了中国科学院肿瘤医院从事泌尿科工作。

很快,初出茅庐的董医生就成为了《膀胱癌诊疗手册指南》的第一作者,开始指导起新同学来了。你们这些医学牛马,不要总在帽子上写“我不是4+4”了,对照董医生,然后问问自己:

这么多年了工资涨没涨,有没有认真工作?

image

协和4+4的目的是培养交叉学科人才,据我看董医生交叉得非常好。内科、外科、肿瘤科、妇科、影像科……一直交叉到肖飞医生的胸外科。

看到董医生如此年轻又如此优秀,很多网友酸酸地说她是凭祖荫举孝廉。

乃悟问了中日友好医院和北京科技大学的朋友,他们都说董小姐的爹是中冶建筑研究院的总经理,娘是北京科技大学的教授和院长,外公是知名外籍院士,力学专家米耀荣,还是米芾的后人。

这些不恰恰能证明董医生的优秀?

要知道4+4项目宣传说自己是优中选优。比如当年北大光华管理学院的毕业生陈如月,为了上协和4+4选修了大量医学高难度课程,结果面试没成功。最后只能重新参加高考,考了上海交大医学八年制。

这难道不足以证明4+4项目的公平?

4+4是一种学习自美国的医学生培养模式。也就是从非医学专业的本科生中筛选一部分来学习医学。美国人采取这种方式,是因为他们没有医学本科,所以理论上所有医学生都属于跨专业。

这种模式很早之前就有高校在开展。比如浙江大学、上海交大。早在2002年,上海交大就开始实施4+4模式,但只限理工科。直到2018年,才开始招收文科生,但可能是太难了,当年居然无一名文科生报名。

协和医学院也在2018年启动了首批4+4的试点班。和美国有全国统一的考试不同,协和招收4+4的学生,一是要求出身名校,二是要求两名副教授以上职称推荐,三是要求修够相关学科的学分,而考核方法是:

面试。

据说这种多站式面试引进自加拿大,能全方位考察考生。有记者采访了当时的考生。考生说他们有5种考核方法,除了面试和英语考试外,其他三种:

保密。

2020年协和的4+4招生开始出现笔试要求。但同样的,面试的考官是谁?笔试的习题是哪些?谁来阅卷?谁来监督公正?面试的评分标准是什么,一概不知。

现在就连招生简章都是保密的了,网页已经无法打开。按照协和的说法,4+4能够筛选出:

精英中的精英,真正热爱医学的学生。

比如2025级冬季班招收的盛玺澄同学。根据网上公开信息,盛玺澄同学初中时就读于上海市青浦区实验中学,并加入上海市学生表演艺术团工艺表演一团。中考时,因为是优秀团员,又是艺体特长生,享受降20分录取的政策。

高中时,盛同学当选为最美中学生,又是参加数学竞赛,又是参加英语竞赛,又是参加电视台节目,还被选为优秀毕业生。

2018年,盛同学同时在北京大学、上海外国语大学自主招生入围。只要她高考考到相应成绩(比如一本线),就会被录取。乃悟查了一下,盛同学在上海外国语入选的专业是:

捷克语。

最终盛同学选择了复旦管理学院。复旦经管学院曾刊登了一则来自盛同学的中秋感言。盛同学深情回顾了自己唯一一次不在父母身边过中秋,是去瑞士巴塞尔参加演出庆祝两城缔结友好城市十周年。

2022年,盛同学本科毕业。中间可能是工作,也可能是读硕士,直到这次被协和医学院录取。

一个舞蹈特长生,擅长捷克语,经管系毕业的优秀人才,就要来给大家看病啦!

2024年,一位叫做邱靖涵的小姑娘被录取了。而后,一位叫做邱靖婷的小姑娘又将在2026年春季入学。他们这个姓,算了,我还是不能乱猜,因为不是孤例。

2024年入学的还有个男同学,医学院还没上已经是医学辅助治疗系统的发明人之一了,第一发明人竟然和他一个姓。

更别提其他什么15岁跳级,23岁拿下协和博士一年后就搞肿瘤科研,地质生12页论文就入职协和了。

当然,也不是所有人都觉得4+4选出来的都是精英。比如今年4月,一篇刊登于《基础医学与临床》上的论文就指出,通过对协和4+4的学生们进行回顾,发现他们无论是论文产出数量、评分、临床能力,都和传统5+3培养出来的学生有差距:

核心胜任力差异性比较大。

这种暴论,完全都是对精英们的污蔑。

患者们无非是冒了点生命危险,董小姐失去的可是镀金路上的垫脚石啊。

img

【重温】歪脑|作为思想犯的王建兵与黄雪琴:在互助与连结中获得滋养的灵魂

1 May 2025 at 08:45

CDT编辑注:自由亚洲旗下的新媒体平台“歪脑”日前因特朗普行政令而暂停运营。成立于2017年的歪脑主要面向华语世界青年群体传播自由主义价值。本文发表于2024年8月21日。CDT近期将持续回顾歪脑的报道。

CDT 档案卡
标题:作为思想犯的王建兵与黄雪琴:在互助与连结中获得滋养的灵魂
作者:张泰格
发表日期:2024.8.21
来源:歪脑
主题归类:雪饼案
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

2021年初,处于国保严密监控下的卢昱宇正过着东奔西顾的生活,“年关难过”对于他来说有着另一番味道。他每到一处,当地的国保必然会闻风而至跟踪、骚扰,他就只能再搬一个地方。卢昱宇曾两次去过广州,两次都被当地国保强行驱赶,“广州不欢迎你!”——国保只是说。当他老家贵州的警察仍然无休止的骚扰时,他决定再去广州。

那个经朋友介绍可以收留他的人叫“煎饼”,望文生义,于是他初初在脑子里给王建兵构建的形象是个圆鼓鼓的大胖子。王建兵去火车站接他,卢昱宇看到的却是“一副硬核摇滚形象,还留着小山羊胡的西北大汉。”让他这个南方人有了一些压力。所幸,短暂的交流后,“他就露馅了”。——和外表相反,煎饼语调柔和,从不高谈阔论。自言性格孤僻的卢昱宇,却很快和王建兵成了朋友。

在王建兵家暂居的三四天中,王建兵对卢的照顾无微不至,“吃饭什么的都是他做,我觉得一定要去帮忙刷碗,他也说‘不用我自己来就好了’。”卢昱宇暂住的地方,就是广州海珠区新港西路149号202房——这里也是后来被官方列为组织聚会用以“煽动颠覆国家政权”的地点。王建兵也顺理成章在之后邀请了因收集记录中国各地群体性事件而系狱4年的卢昱宇来做分享会。

卢昱宇是维权信息平台“非新闻”的创办人,在2016年中被捕后,最初以“煽动颠覆国家政权罪”起诉,后因证据不足,改以“寻衅滋事罪”定罪四年,最终的定罪依据,仅仅是他发布的8条微博。4年的刑期,卢昱宇光在看守所就度过了1年4个月,在监狱度过了2年8个月。——卢的这一切经历与当下黄雪琴王建兵二人所经历的,又是何其相似。当然,这已经是后话了。

公民社会风浪中的“夜航船”

2024年6月14日,广州中级人民法院以“煽动颠覆国家政权罪”判处黄雪琴有期徒刑五年,王建兵有期徒刑三年六个月。两人曾分别以独立记者、公益人士的身份投身于多个社会公共议题的倡导。黄雪琴曾参与多起#MeToo案件的报道和为性侵害性骚扰受害人提供帮助和支持;而王建兵则长期在中国公益领域工作,从事过农村教育发展、残障社群赋能和尘肺病工人权益工作。

而他们被当局抓捕并判刑的核心原因,则是在广州组织的见面和聚会活动,这令黄雪琴和王建兵成为了政府眼中“煽动他人颠覆国家政权”的罪犯。“雪饼案”的刑事判决书有27页,由广东省广州市中级人民法院2024年6月13日发出,上面盖上了法院的大红图章,案件号“(2022)粤01刑初298号”提示着全案不寻常的处理时间——黄雪琴和王建兵于2021年被捕,在上庭前经历了长达两年的拘留。而2023年9月的庭审却仅用了一天时间。而最终的判决结果也延宕了九个月之久,这早已超过了刑诉法规定的最长等待判决时间。

判决书显示,两人在境外平台及社交网络的言论表达被视为攻击政府、诋毁政权的煽动行为;此外两人还参与和协助“非暴力运动”课程,更重要的是,他们共同组织的“夜航船”每周聚会,被视为重大的煽动颠覆国家政权的行为。雪饼案关注组认为,正是“雪饼组织的每周聚会,深耕催化行动者社群,并试图重建多年来被打压的公民社会网络。该聚会所凝聚的社群网络及其衍生的社会批判,令当局将其视为危害国家安全的不稳定因素。”

img

雪饼案判决结果

黄雪琴和王建兵的共同朋友祥子忆述,每周四“夜航船”的聚会,从2020年11月开始,一直举办到两人被捕的2021年9月。公安机关则更详细地为聚会统计了次数:“202分享会’总共办了20至30场左右,其中大约20次是有主题的”(见判决书第20页)。”祥子说,聚会的主题包括安全空间的互相支持:朋友间分享困惑、人生挑战,其他朋友互助提供建议等。也有一些针对社会事件的建设性、批判性讨论。也包括一些知识分享,例如邀请相关领域的学者、专业人士,分享经历和感受,学习新知识。另外也有一些关于社群的能力建设培训和讨论,比如处理性骚扰危机,工人维权等。当然还有打麻将、桌游等娱乐活动和身心关怀。

“曾经有一个具体主题,比如安全空间的支持,提到有些伙伴被喝茶,会提供建议,按照判决书,这些都被警方视为‘鼓励与警察做斗争’”。祥子说。最终,这些原本正常的活动,都被法庭约化成为了“煽动他人颠覆我国国家政权 、推翻社会主义制度”的“犯罪构成要件(见判决书第25页)”。

“夜航船”的名字是王建兵起的,劳工行动者祥子在接受公民媒体WOMEN我们访问的时候曾提到,“名字很像在夜里摸黑航行的感觉,即使没有方向,大家也还是要抱在一起向前走。”——为此,王建兵还设计了一个小logo。那是三个人挤在一艘小小的木帆船上,海面波浪汹涌,上面的人却似乎仍然安然的坐定对谈着。然而这些意象和期待在公安机关的侦查中,则是:“王建兵、黄雪琴等组织“夜航船““艄水”群组中, 借讨论社会话题之机,煽动参加人员对我国政权的不满,传授反侦查方法,交流如何开展煽动颠覆我国政权活动等(内容见判决书第15页)”。

img

“夜航船”的logo。曾经热络的聚会群组,在“雪饼”被捕之后变成“0 members”。

王建兵力所能及的“小事情”

近期,王建兵的亲友向记者转述了他本人对于聚会活动的初衷和看法,他说2019年后言论环境越来越差,再加上疫情的影响,大家已经习惯了网上的交流。他觉得“人始终要有些活生生的互动”,期望大家不要因此隔离,“不要就这样散了,所以就做了这个挺小的事情。”王建兵说,这是他力所能及的小事情,“特别大的我也做不了,就只能做这种小事情。”

狱中的他,也仍然在记挂着一些未完成的“小事情”。他曾经在2021年探访过十多个湖南株洲攸县的尘肺病人,他了解到两个月之间便有两名病友去世,当时他就期望能够给他们做一些筹款工作,但是因为被捕最终没有进行下去。他还有些懊悔,觉得这个事情没有做好,也不知道剩下的人怎么样了。因为共同打工的关系,尘肺病往往会让一整个村的男性都成为患者,这个不可逆的病患会让他们妻离子散、家破人亡;而这些患者需要长期吸氧,因为躺着呼吸不畅,只能趴在桌子上睡觉。因此,这些病友更需要社群的陪伴和心理支援,这也是当时王建兵的主要工作。而他每月花2600人民币租下的202房,本就是为了能够请广东省职业病防治院里的工人多来聊天而准备的。还因为尘肺病工人们大多呼吸不畅,无法爬楼,他选择的也是价格更高的二楼。

王建兵惦记的,还有那桩社群内没有解决的性骚扰事件。他的朋友王欣、木斓曾经在社群内遭遇过性骚扰事件,而施暴者当时是王建兵多年的好朋友。“王建兵当时的态度就是和这个人割席绝交。他的这种反应对我的帮助非常大,是很重要的鼓励。”王欣说他会主动关心几位受害者,并约她们一起谈诉求和解决方法。因此事件搬离广州的木斓,也常常会收到来自王建兵的问候。

无论是对#MeToo当事人的支援还是聚会的筹备,王建兵的工作总是不显山不露水。参加活动的大家都觉得王建兵的角色并不显眼“因为建兵很少去主动去发表观点,他更多是做组织,他就是把大家拉到一起去调去约不同的人,就是去动员然后去设定主题,去给大家准备各种水果、食物、茶,收尾的打扫卫生也是他来做。整个讨论过程当中,他都是协作的角色,鼓励大家去发表自己的意见。

王建兵的家乡

王建兵的家乡是甘肃天水,到了天水市还要再转车半小时才能到他家的村子。王家以务农为生,天水出名的是樱桃和苹果,近年也开始种一些金桃。父亲王治学在王建兵被捕后,曾经拍摄视频,用很朴素的话语呼吁执法机关让家属和律师会见王建兵:“我的娃娃不是个坏娃娃,当初读书以后,他在社会上搞这个公益事业。我觉得是一点坏事都没做过,这一次出了这么大的事情,也不知道是啥事情。”

“从他父亲的语气和表达里能感受到,他不觉得自己儿子被抓坐牢是一个很耻辱的事情,反而他心里面觉得自己的儿子是一个很正义、很善良的人。”木斓在王建兵被捕后,去过王家,王建兵母亲长期患有哮喘,儿子的被捕让她多了不少牵挂和担忧。王建兵是他们村子少有的大学生,毕业于西北师范大学的幼师专业。家人曾经的期望和他本人的选择多多少少有着不同,不过他们说自己在农村,很多东西他们不明白,“但是孩子有自己的人生,既然父母没办法给到更好的,那就让儿子自己去做好了。”

img

王建兵的父亲王治学

曾经和王建兵共事过的朋友小五,记得他这样讲述自己的家乡:小时候只有土豆可以吃,家里贫穷得连裤子都买不起,几个人分享一条裤子,让要出门的人穿,其余时间就躲在被窝里,或者光着屁股走。

当时小五和王建兵共同在一个残障人士赋能工作的团队中,王建兵是负责人,在一年多的时间内他们要密集的给残障人士进行赋能培训。小五在和他的合作中真切的感受到王建兵的热诚:“他对于边缘群体的关注有一种真挚的情怀,这些可能都源自他本人的家庭背景。”

王建兵幼师毕业之后,最早在西部阳光基金会做过农村地区的教育工作,2014年在恭明社会组织发展中心负责残障社群赋能项目。2018年后关注劳工和职业病议题,尤其是对尘肺病工人的权益倡导。NGO的工作薪资很低,小五当时曾经问过王建兵要不要回去当老师,“他就很意味深长的笑着朝我摇摇头,那意思是不再可能了。”

小五和朋友们喜欢管生活简朴的王建兵叫做王大爷,“因为他和你聊天的时候,总会捋着他的山羊胡,笑眯眯地故作沉思状。”他爱喝茶,爱古诗词——很多朋友都收到过他做的古体诗,又往往因为看不懂而不久就遗失了,他会把仅有的工资用来买成堆成堆线装书。

因为关注尘肺病工人,他也对“矿工诗人”陈年喜的诗歌钟爱有加。王建兵曾经一次性买了陈年喜很多本诗歌集《炸裂志》,一方面是为了支持陈年喜创作,一方面也是为了把这些作品送给朋友,让他们更多了解工人。

王建兵对朋友也不吝惜,木斓在休养的时候学做茶叶,王建兵便会转给她1000块钱提前买茶,除了自己喝,他也会在探望朋友的时候给他们送去分享。一直到他被捕,这笔茶钱还没有花完;不像卢昱宇的老家遵义,广州的冬天温暖,看到卢只穿了一双厚厚的防寒鞋,王建兵就操心起来,一定要给他买一双适合在广州穿的鞋,于是就塞给卢300块钱让他自己去买。其实很多朋友都知道,王建兵当时的生活已然非常拮据。

从王建兵家出来后,卢昱宇在广州过了年,其后在郊区长洲岛租下了一个有开放大阳台的老房子。虽然很脏很破旧,但是一番改造后,也成了黄雪琴、王建兵等一众朋友经常见面、喝茶、饮酒、打麻将的地方。

这里门口有一个枇杷树,王建兵就把这个地方命名为“枇杷居”,更作诗一首赠与卢昱宇。辗转动荡之下,这首诗已经找不到了,但卢昱宇还很记得里面描写了他当时的生活状况。

得知卢昱宇提到了枇杷居,祥子特意给记者找出了王建兵作于2021年3月5日的那首《賀友人新卜“枇杷居”》

浪子天涯一處家,卜居尤喜近枇杷;

門迎曲巷市聲遠,簾隔風塵舊夢賒;

長夜消愁宜對酒,小樓聽雨好煎茶;

鳴禽芳草漫招引,欲踏春光到落花。

img

阳光、美景、好友相伴,那大概是卢昱宇离开中国前相对比较开心的日子了。——只是还没等到春光尽、落花散,就在王建兵赠诗的4天后,他还是被国保爬阳台入室驱赶,再次被迫离开了广州。那时的枇杷也才刚刚成熟。因为不舍得这个“枇杷居”,王建兵便提议把这个地方继续承租下去,每月500多人民币的租金还是一人出一百块这样续下去的。

朋友知道他内心中有个自洽自足的丰富小世界,这让他并不急于表达自己,但也忽略了他已经内化的情绪,既来自外部,也来自自身。

得悉卢昱宇流离到了郑州,为了见他,准备返回老家天水的王建兵特意在郑州短暂停留。郑州火车站广场人来人往。改革开放以来,这里就成为了中国最繁忙的火车站之一,每天有数万甚至十多万来自中西部的农民工经此,或是北上北京、或是南下广东。王建兵作为从甘肃走出来的大学生,也行径这里去过北京、落脚广州。

一个工人集体行动记录者、一个职业病倡导者,就这样在偌大郑州火车站广场有一句没一句的聊了一个小时,王建兵说,我们这样的人没有未来也看不到希望,没房没车也不敢恋爱结婚,怕连累人家姑娘……卢昱宇说:“直到那时,我才知道,这个在生活中总是关心着别人的人,内心是如此绝望。只是他一直都把这种绝望埋在了心底。”

这是卢昱宇最后一次见到他,不久后王建兵就被捕了,连同“枇杷居”也一起被警察抄家。

对于长期投身公益圈的王建兵来说,卢昱宇这样背景的客人也许对他来说已经成为常态:从2015年开始,中国公益圈和公民社会持续震荡:“女权五姐妹”被捕、NGO“益仁平”成员郭彬、杨占青被捕,其后是“709大抓捕”以及针对劳工组织的大抓捕。广州作为这些事件的中心之一,威胁和逮捕就在身边不断发生着,2017年黎学文和十多位中国公民曾在广东新会的海边祭奠刘晓波,旋即被警方逮捕并被长时间关押。——这些都给了当时王建兵不小的冲击,再加上2016年《境外NGO 管理法》出台,中国的公民社会直接被置于国家安全的管控框架之中,他本人所在的NGO同样在动荡中面对抉择,小五回忆:“当时很多机构都面对转型,很多项目都无法再做下去,敏感一点的方向都要放弃。无论是从机构还是他个人都要考虑何去何从的问题。”

从恭明中心的工作岗位离开后,他颓丧的在家宅了很久,总是离群索居的一个人在打游戏,他的情绪问题也是从那个时候开始的。当时广东地区的很多年轻人也因此再次归于沉寂,“王建兵作为公民社会兴旺时期过来的人,除了感到悲哀,他也觉得很有必要去重新把大家聚在一起创造一个安全空间。”祥子说。在王建兵眼中,在经历了过去十多年公民社会的低沉和挫败后,在这些艰难时期重新凝结社群、促进青年行动者的网络和互助是至关重要的。他希望通过定期聚会的方式重新建立连结、探索新的公民社群行动方式。

与人的连结让他们获得滋养

小针和黄雪琴相识在2018年,那时黄正在进行#MeToo的报道,二人成了私交甚好的朋友。2019年,黄因为参加香港反修例运动游行并发表文章,于10月被警方以“寻衅滋事罪”拘留,直到翌年1月方才被保释。

img

黄雪琴

在小针的忆述中,黄雪琴是那种充满了热情和想象力的“社牛”。“有一次我们在一个很小的咖啡馆里聊天,她就突然问我‘你觉得上一年年有没有什么好事?’我说好像没有什么好事,她说的是2018年。”接着黄雪琴便自顾自的说,“那一年最好的事情是#MeToo发生了。”后来她就开始问咖啡馆的所有人你觉得今年最好的好事是什么?

小针觉得黄雪琴是那种好奇心,同时有能够把好奇心变成一个真正问题的能力。“她其实是一个与他人在连接当中感受到滋养的一个人。”因为做#MeToo的报导,黄雪琴认识很多当事人,她几乎跟给所有的当事人,都提供那种小针自己都觉得承受不来的情感支援。“她会跟当事人聊完天后,带着当事人去参加活动、去读书会。她是真诚的希望对方能够从她和她的朋友那里能够感受到更多情感上互动。她是一个很真实的人,哪怕是在当事人面前也都是无保留的。”

回忆涌上来就收不住,小针又迫不及待的讲述了黄雪琴的另一个故事。小针当年因为被警察找上门,导致自己非常抑郁,而那时黄雪琴也已经被捕。“就说我要看一个电影,一个对这个体制可能还有些希望的电影。我就看了德国的《窃听风暴》。”那时一部描述东德时期秘密警察窃听艺术家,并出于人性将其拯救的故事。

“当时对那个电影我毫无感觉,因为我知道我遇到的警察都不是这种人。”但是中间有一个桥段却令她不期然想起了黄雪琴。“那个秘密警察说,他们对待艺术家或者思想犯的方式,就是把他们关起来然后不给他们看报纸、不跟他们说任何话,然后他们就慢慢的枯萎掉了。——因为这些思想犯的灵魂,就是非常渴望和他人保持联系,并从中得到滋养吧。当时我看这段的时候我就哭,因为我就想到了黄雪琴不就是这样的人吗。”

她回忆自己在黄雪琴第一次被释放的时候去找她,本以为只是吃饭,结果她马上问小针还记不记得李翘楚?说要给李翘楚写点东西。“她感觉好像从来没有(因为坐牢)受过什么伤一样,我以为她出来之后至少会休息,或者说我不想再做这样的事了。怎料她出来的第一想念就是还是要去创作,还是要去做对别人有用的事。”

小针很担心她在狱中受到的对待,但又不敢直问,“感觉你还是以前那个样子……”,黄雪琴却开玩笑的问:“你觉得我在里面被打了吗?”小针不敢答,生怕触碰到黄雪琴的伤疤。黄却很大方的告诉她自己没有被打,警察对待思想犯的方式就是不停的审讯轰炸。她特意向小针分享自己在狱中的观察,自己在被监视居住的过程中是没有隐私的,往往要当着警察的面换衣服,对于女性来说是非常屈辱的事情。

黄雪琴知道自己需要社群、需要朋友的滋养,她也用这种方式去滋养他人。

在判刑之前,两人已被囚超过1000天,而早前据雪饼案关注组称,因为长期的关押审讯和半夜突发提讯,二人身体和心灵都备受煎熬。黄雪琴除了体重骤减,更出现“继发性闭经”等问题;王建兵早前则被单独关押长达五个多月。”而近期王建兵的亲友向记者表示,他还出现了心脏和肠胃方面的问题,而他在狱中更曾经因为感染新冠连续高烧数日而没有获得药物治疗的情况

“坐牢最辛苦的地方就是,它会把你和外界的所有东西都切断。然后每一天每一秒,它会让你被驯服、被淹没。”作为曾经的政治犯,卢昱宇一早已经体验过了封闭的牢狱生活,这也是他最担心黄雪琴王建兵的地方。“每一个很小的规则你都要去反抗的话,是需要付出很大的代价。”卢昱宇觉得每天吃饭前警察都会要求所有犯人蹲下,“我觉得这是非常侮辱人格的。你不蹲,警察就会动手,我也会还手。打到后面,他们觉得你这人没救了,也就不和你打了。王建兵是那种书生气的人,以前做尘肺病工作,他说话就很温和,在监狱里面可能很吃亏。”

从他的亲友了解,王建兵在狱中并没有听说受到什么欺负,他的精神状态向好,但是心脏和肠胃问题仍然值得关注。狱中的王建兵迫切的渴望阅读,他近期开出的书目包括汉娜·阿伦特的《人的境况》以及查尔斯·泰勒的 《本真性的原理》,此外还希望可以读到上野千鹤子的 《厌女》,他说这本书之前读到一半没有读完,至今念念不忘。

来自世界各地的声援

在黄雪琴王建兵被判刑两天后,他们的朋友小针和十余名伙伴,在夕阳下的威斯敏斯特桥展开了一副“超级超级大”的横幅,“这其实是向声援巴勒斯坦活动学的,他们之前便在桥上挂了一个特别震撼的banner”,这是一场女权主义者的快速的跨国联动。“我都不知道是什么时候开始的,我就感觉是大家想为黄雪琴做一点什么事,然后就拉了一个群把彼此认识的各地方不同的人,也是一些比较活跃的各地小组的组织者拉进来 。”

口号很快敲定:“只要黄雪琴不自由,我们都不自由。”英文版本则是“WE ARE NOT FREE UNTIL XUEQIN IS FREE”。同一天,相似的横幅出现在了温哥华唐人街、旧金山金门大桥,华盛顿方尖碑前,以及纽约时代广场、东京涉谷路口和东京铁塔下……

img

图顺序:纽约、三藩、DC。

img

图顺序:伦敦、东京、波士顿。

小针在黄雪琴第一次被捕的时候,就为她撰写过声援文章。“当时我想这些书写对我自己很重要,因为我也不知道能做什么,也不知道对黄雪琴有什么用。”再见到被释放的黄雪琴,黄告诉小针,她给自己写的文章她都看过了,很感动。“其实我到现在还保留着我跟她出来之后的聊天记录,就是她跟我说,她在里面的时候就知道我们会在外面支持她的。所以她想着我们就会很有力气和信心吧。”

“用这种很drama的方式想要去记住她,我觉得这对她来说是很重要的。我不想让她的那种意志只是一种虚幻的意志,我希望她出来之后能看到,这些信念是真实的。”小针说。

这种真实也是画条幅的辛苦和抬条幅的重量,她们去印巴人的布料店花150英镑买了3*25米的白布料,前一晚用投影把字投在布上描出边缘,再请朋友把字涂上。“这个Banner非常非常的重,它可能要十个人拿,而且在桥上(展示)其实也是拿不住的。”从制作到展示,前前后后有20多个朋友帮忙。

小针认为,这次活动最重要的一件事情,是让很多支持关心黄雪琴的人能够具体亲身地参与。“不管怎么样,我们身体力行站在桥上拿着横幅的时候,那种感觉跟网上转发是完全不一样的。我们在海外的人是很需要这种感觉的,也算是一种复健吧。其实画横幅和展示本身并不难做,难的是要有一个作为组织者的commitment(承诺)。其实海外年轻人同样需要有这样的行动机会,但更需要有意愿做组织的人。”

她期望未来能够尽可能多的在公民社会中做组织工作,而非一个参与者。“我以前对组织者的想象必须是非常聪明、非常有能力、愿意冒风险的;但是我想,哪怕是和大家在家中做钩织、一起做快闪这样的小事情,也值得来组织。”某种意义上,这就是黄雪琴王建兵所留下影响。

王建兵、黄雪琴不过三四十人的小小社群,滋养出来的能量其实并不容小觑。祥子提到,在广州,这种社群的陪伴和支持,在不断受压抑的公民社会里,成了给了年轻人喘息的空间和发展更多想像力的地方。实际上,2022年的白纸运动中,被捕的年轻人往往本身也有着很强的社群网络连结。

img

民众头戴黄雪琴与王建兵的照片表达声援。

当然,寒蝉效应下,二人被捕导致广州的公民社会社群四散,几位受访者也都逐渐远离了自己公民社会的圈子。祥子坦言,“经历挚友被捕、判刑其实本身也是一个非常受挫的过程,因为很多朋友对这段经历都有阴影,甚至出现PTSD。虽然不断有新的朋友加入支持,但是这个创伤的救援环境,仍然有很多人会慢慢离开……”

其实朋友眼中的王建兵从来就不是一个勇敢而冒进的人,甚至有人说如果知道后果是这么严重,他大概都不会去做这样的聚会,但他就是有自己择善固执的地方。

在一审最后陈述中,王建兵表示:“我的本意不是去推翻政府,而是希望通过自己的努力,让一些人更加自由,社会更加平等和美好。”而黄雪琴表示:“作为一名记者,我做不到保持沉默。我也知道自己不安全,迟早有一天会面对这样的状况,但需要承担的后果,我愿意承担”。一审判决时,黄雪琴趁宣判间隙,当庭表示不服判决,将上诉。而在明年3月就要刑满的王建兵在考虑之后则仅就部分判决上诉。

木斓最关心就是黄雪琴和王建兵能够早日回家。她既感动于黄雪琴不认罪义无反顾的坚定;也理解王建兵仅就部分判决上诉的选择。她希望他能尽快获得自由。“毕竟这个圈子塑造了太多‘铮铮铁骨’的男性形象,却太缺少人性关怀。”

小五梦见过王建兵很多次,梦里的他成了一个庸俗忙碌的小老板,他事业有成,放下执念,做回了一个庸俗的人。

刘夙的科技世界|这路遥马急的人间

1 May 2025 at 08:34
CDT 档案卡
标题:这路遥马急的人间
作者:刘夙
发表日期:2025.4.30
来源:微信公众号“刘夙的科技世界”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

今天是4月最后一天,“五一”长假前一天。写多了消耗脑力的长篇理性文章,偶尔也想轻松一下,写一篇短小的随感。

小时候,我的家境并不富裕,所以很遗憾,没能培养出演奏乐器或绘画的技能。特别是绘画,我觉得真的非常实用。很多用文字不能表达的意味,用一幅漫画就可以含蓄而绝妙地道出。我总是设想,假如我会画漫画,今天我阴阳怪气的能力,还能再提升十倍。

回想4年前,也就是2021年的时候,很多话题,在网上就已经不能公开讨论了。能够讨论的,往往都是一些琐碎而无足轻重的问题,什么“该不该跟外卖员说谢谢”、“小年应该是哪一天”、“汤圆和元宵是否一样”之类。还有一些问题,我总觉得从一百多年前的新文化运动开始就应该达成社会共识,居然现在还在争论,比如“文艺作品是否允许出现婚外情”、“女人能不能上桌”、“美术学院要不要画裸体”之类。当时还有个叫《奇葩说》的聊天节目,也贡献了不少这类不咸不淡的话题,最典型的一个问题是说美术馆着火了,在世界名画和猫之间,你只能选择救一个,那你是救画还是救猫?

看到这种局面,我当时来了灵感,就用Powerpoint加上Windows里的“画图”软件,画了这么一幅漫画:

image

我把这幅漫画私下分享给武汉大学的周玄毅老师,当时他还上微博,就发了出去,据说转发上千。因为这点小小的成绩,我忽发奇想,想学画漫画,于是毅然买了一台iPad Air平板电脑,配上苹果原装触控笔,又买了绘画软件Procreate。当然,这也就是一时兴起,后来我根本就没有开始学。这台iPad的主要用处,也变成了看电子书和用多邻国学外语。

这样过了几年,我们迎来了大语言模型时代。尽管我看不惯舆论对这些大语言模型的过度吹嘘,但承认它们确实提供了一些非常便利的功能,能够让普通人做一些本来没有能力做到的事情——比如画漫画。

4月下旬,简中网的舆论状况依旧,有些突发事件不允许讨论,但不妨碍另一些事件可以讨论得热火朝天。这几天最热的话题之一,就是肖飞出轨案。肖飞是中日友好医院胸外科的副主任医师,因为多次婚内出轨,其妻子(也是医生)忍无可忍,向医院纪委写了举报信,最后导致肖飞在4月27日被院方开除党籍并解聘。

我一开始并没有关注这件事,觉得只是很普通的狗血事件而已。一个多月前,在听说了某海外名人身上一件类似的事情之后,我在朋友圈发了条感想:“要想干大事,还是自宫吧。没有性激素刺激,可以省掉很多冲动带来的麻烦,还能长寿。”这基本就是我对所有这类桃色新闻的通用评论。

但后来,舆论的焦点就转移到了肖飞医师最后出轨的那位年轻规培医生董袭莹身上,因为她的经历暴露了远比桃色新闻严重的事情——以权谋私。

董袭莹据说出身高级技术官僚和知识分子家庭(据说她父亲是某科技型国企的总经理,母亲是北京某工科高校的研究院副院长),年纪轻轻,就到美国读了高中和本科,毕业于知名女校巴纳德学院。随后,她于2019年成功考取了协和医学院的4+4制医学研究生,于2023年顺利毕业,获得医学博士学位。

所谓“4+4制”,是主要由美国采用的医学生培养制度,即不设医学本科教育和本科学位,只有医学职业教育和博士学位。医学职业教育面向所有本科招生,只要在4年本科阶段中修过攻读医学所必需的一些课程(如有机化学),就可以申请到医学院就读。顺利的话,4年之后即可毕业,获得参加医师执照考试的资格。顺便说一句,美国的律师也采取职业教育的方式培养,而没有法学本科教育和本科学位。

中国的传统医学教育则不然,设有医生本科教育和本科学位,由此又形成了多种本+硕或本+博的医学生培养方案。协和医学院(以及其他一些大学)为什么要在医学教育完全不同于美国的情况下引入美式的4+4制?据说是因为有很多成绩优异的高材生,在高考报志愿时没有报医学,后来才发现自己真正感兴趣的是当医生。4+4制可以给这些潜在的医学人才提供一个机会,把他们也吸引到医学界里来。

这听上去是一个很合理的理由,但只要对这个社会有所了解,就知道嘴上说一套、实际做一套的情况太普遍了。董袭莹的履历就暴露出一种可能——这个4+4制,恐怕更主要不是为了吸引什么有志于学医生的优秀学子,而是为有权有势者的子女开辟一条捷径,让他们弯道超车,甩掉按常规方法辛苦求学的普通医学生。

通过肖飞妻子的举报信以及其他网络爆料,目前可以证实的是,董袭莹在获得医学博士学位、在中日友好医院参加规范化培训期间,拒绝完成规培所必须要求的科室轮转,通过其邱姓导师(骨科专家、工程院院士)的干预,执意留在其情夫肖飞所在的胸外科,违反了规培规范。此后又在胸外科手术室中,莫名其妙地与巡回护士发生冲突,由此导致作为主刀医生的肖飞情绪失控,冲那名巡回护士大喊大叫,又赌气拉上董袭莹离开手术室,把已经麻醉的病人撂在手术台上长达40分钟。

规培期间这些匪夷所思的事情,令人不由得怀疑,董袭莹能够考上协和医学院,背后可能也有什么不可告人的内幕。这就让她的事情超越了一般的桃色新闻,而成为每一个反感学术界腐败的人都无法不关注的大事。

这几天,这个瓜越吃越大,连协和4+4制录取的其他学生,也都成了网民深扒的对象。处于风口浪尖的协和医学院,也采取了一些紧急应对措施,比如从力推4+4制的王辰院士的2023年毕业演讲中删除涉及董袭莹的部分,从知网上把董袭莹的毕业论文下线,等等。但这些在汹汹舆论面前,只不过是杯水车薪。可以预料,“五一”长假期间,这件事还会继续发酵;至于发酵到什么程度,神秘力量才会决定出手干涉,压制热度,不妨拭目以待。

在董袭莹的毕业论文下线之前,早就有好事者下载下来,再上传到网盘。这篇论文的致谢颇为简短,最后一句是:“这路遥马急的人间,你我平安喜乐就好。”这句抄自网络文艺金句的话,勾起了我的无限感慨。这时候,我觉得说什么都没必要了,只有漫画能表达我的心情。于是我就让ChatGPT-4o按着我提供的创意,画出了如下的漫画:

image

常言道,工具就是人体的延伸。大语言模型作为有用的工具,只要用得好,也应该成为你的延伸。我到今天,算是深切感受到,大语言模型真的可以弥补我不会绘画的短板,成为我公共表达的延伸。在这路遥马急的人间,我因此也真的感受到了一丝喜乐。

南方周末|医院出轨门女主受质疑:警惕“4+4”医学教育沦为特别通道

30 April 2025 at 20:08

file

主管部门与相关医学院校有必要检讨其中可能存在的涉及教育公平、职业伦理与医疗安全的问题,进行必要的制度修补与完善工作,回应公众的疑问。4+4项目应该更加规范透明,或许可以由有更高公信力的第三方进行笔试,提高考试录取的公信力。

文|王兢

责任编辑|辛省志

近日,中日友好医院医生出轨事件连续几天热搜不退,即便在院方宣布处分决定后依然余波荡漾。公众更关心的议题,不是那点桃色绯闻,而是涉事医生的医德问题,以及更重要的教育公平、学术诚信等问题。

据媒体报道,涉事女规培医生董某莹的学历殊为“亮眼”。她本科毕业于美国哥伦比亚大学巴纳德学院经济学专业,2019年进入北京协和医学院“临床医学专业培养模式改革试点班”,即“4+4”试点班,2023年取得医学博士学位,之后进入中国医学科学院肿瘤医院工作,再进入中日友好医院进行规培学习。

董某莹的这份履历,引起外界诸多质疑。中国的医学教育,通常是5年制本科,3年制硕士,3-5年博士。也有高校实行5+3本硕连读、8年本博。但无论哪种培养路径,都要求学生在本科阶段就学习医学。

而“4+4”试点,则是从非医学专业的本科毕业生中选拔部分学生,通过4年医学教育,获得医学博士学位。北京协和医学院的官网显示,其“4+4临床医学试点班”始于2018年,起初生源限于国内几所顶尖高校,2019年起放宽至部分国外高校非医学毕业生。董某莹正是2019年通过这一项目进入协和医学院。

CDT 档案卡
标题:医院出轨门女主受质疑:警惕“4+4”医学教育沦为特别通道
作者:王兢
发表日期:2025.4.30
来源:微信公众号“南方周末”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

协和并不是国内第一家试点4+4医学教育的医学院,目的是“推动医学教育与多学科融合”“建设世界一流医学院”。这一做法也是参考了美国医学教育的做法。美国的医学院没有本科阶段教育,只从其他专业本科毕业生中招生,经过4年学习,获得“医学博士(Medicine Doctor)学位”。

国内的4+4医学教育,表面上学习了美国的做法,但录取难度不可同日而语。美国本科毕业生要考医学院,必须事先完成“医学先修课程”(pre-mad),通过号称“全美研究生入学最难最痛苦”的医学院入学考试(MCAT)。拿到MD学位后,还要经历一到三年的实习医生和住院医生阶段后,再通过美国医生执照考试(USMLS),才能最终成为医生。

而国内的4+4项目,虽然也要求在本科阶段生物学、化学、物理、数学等课程修够一定的学分,但是其招生中的笔试、面试等过程,都是由医学院校自行组织。另外,协和的招生简章显示,申请4+4项目需要2名医学相关学科的副教授以上人员的推荐信。不少网友认为,一个非医学专业的学生,如果没有深厚的人脉资源,要找两个医学专业的副教授写推荐信恐怕不容易,总不能挂个专家号让专家给写封推荐信吧?

说回到董某莹,她的经历还有很多疑点。比如,网传她被协和录取时是“内科学”专业,但学术论文数据库信息显示,博士论文内容与影像学相关。她还以第一作者的身份发表了一篇有关膀胱癌临床指南的论文,名列其后的,是一众泌尿外科的医学大佬。

毕业后,董某莹进入中国医学科学院(即协和医学院)肿瘤医院泌尿外科工作。内科、影像、外科间旋转自如,令人惊叹。这自然引起外界对董某莹学术水平与专业能力的质疑。而事件爆发之后,知网上已经搜不到董某莹的论文,这也进一步放大了外界的疑问:董某莹究竟真的是全能型人才还是“资源咖”?

如果说,真有本不具备学术水平与专业能力的人凭借“4+4”走捷径,那恐怕是对教育公平的践踏,也是对医生职业伦理的不尊重。而公众也担心,非医学专业的本科生,能否学好医学。协和医学院往年的4+4招生录取名单显示,有些学生本科学习的是外语、新媒体、经济学等专业,这些专业一般是不学习生物、物理、化学等课程的,他们的医学水平能和那些学习了8年甚至更长时间的同行一样吗?

4+4医学教育与传统的八年制教育到底孰优,或许还可以继续观察。但这一项目中潜在的教育公平问题已经成为公众普遍关心的焦点问题。事实上,这些天已有人从协和公布的历年4+4项目录取人员名单中寻找“蛛丝马迹”,各种传言满天飞,这所中国最顶级医学院的声誉已经严重受损。

主管部门与相关医学院校有必要检讨其中可能存在的涉及教育公平、职业伦理与医疗安全的问题,进行必要的制度修补与完善工作,回应公众的疑问,还给患者一个放心的手术台,捍卫医学共同体尤其是广大医学生对公平正义的信念。4+4项目即使继续执行下去,也应该更加规范透明。

黑噪音|在谈论“县城婆罗门”之前,您得先了解“京城婆罗门”

30 April 2025 at 19:40

file

几天前,一位董小姐告诉我们:海归很危险。

现在,另一位董小姐又现身说法:海归,确实很危险。

但海归危险倒不是因为间谍问题,而是因为海归里的镀金婆罗门,让普通人再次见识到了另一片天空——正如当年的故宫大G,我们不需要惊掉下巴,甚至不需要大跌眼镜。

婆罗门的日常,是普通人无法想象的世界,感谢上一位董小姐——至少她建议不录用海归,客观上能给普通人让开一条路。

事情细节,看官们想必已经吃瓜吃很多了,在此不表。

我看到一位土木工程出身的学生说,看完董小姐的履历,他觉得自己也可以做心脏搭桥手术——毕竟都是搭桥。

CDT 档案卡
标题:在谈论“县城婆罗门”之前,您得先了解“京城婆罗门”
作者:倪刃
发表日期:2025.4.30
来源:微信公众号“黑噪音”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

对于普通人来说,当你历经千辛万苦终于得到一个协和医院的手术机会,但你不知道手术室那位气质华贵的小姐姐,是哪路神仙。

有地位如此高贵的医学生给自己做手术,普通人还不得感恩戴德?

唯一的问题是,这位医学生只是在美国著名大学挂名的独立学院镀个金(而且是经济学),回国后靠着比正常标准短得多、简单得多的培养流程,就获得了拿手术刀的权利。

医学博士生正常培养流程应当是是“5+3+4”=12年,但董小姐学医第二年就拿起了协和医院的手术刀。

剩下唯一的问题就是,你敢不敢上这个手术台?

京城婆罗门最厉害的地方,不在于靠着父亲承接了协和的工程就能当上协和医生,而是在于——这地儿对人家来说也不过是换了个地方谈恋爱。

所以我说,普通人无法想象真正的婆罗门生活。

你以为的阶层金字塔尖,只是人家的生活边角料。

更何况,人家的医生男朋友还敢把病人晾在手术台40分钟。婆罗门的松弛感,不在于几十万一瓶的红酒,更不在于什么迈巴赫,而是在于工作与生活的自由切换。

普通人几辈子冒青烟才能挤进去的地方,只不过是人家散发松弛感的社交舞会。只不过,他们还需要穿着白大褂做做样子。

其实婆罗门一直存在,只不过县城婆罗门相比之下多了几分小地方的土味,而京城婆罗门处处都散发着骨子里的大气。

正如当年的大G,只是开车在故宫转一圈儿,随手发个朋友圈儿,潇洒只在不经意间,并不需要多么奢华。

不过,婆罗门也在进化。

在以前,商人后代还能嫁给权力场,但是我听说,现在的权力婆罗门已经越来越排斥富商。

官官联合,还是比官商联合要强。金钱只是权力的附属物,但权力本身可是金不换的稀缺物。

我提拔安置你的子女,你提拔安置我的子女,这种机制里面确实已经没有多少留给商人的空间。

同样地,留给好学生的空间也不多了。

以前我上学的时候,那是省重点,班里至少有一半人是本地的婆罗门子女,剩下的一半是自己考进来的。我是那个考进来的,但确实能感觉到没什么卵用,工作几年后返乡,当年那些婆罗门学生大部分都已经分布于体制内各个权力部门。

但那时候,留给普通人的通道还是比现在要多。

在这片土地,普通人能喝口汤的时代其实就已经是盛世。但现在,这个汤不是靠着小镇做题就能那么容易喝到了。

另外一个特征就是专业部门的婆罗门化,肖医生、董小姐事件即是如此。

在以前,普通人靠努力想要染指权力部门固然很难,但好歹能通过专业水平,抵达人生的天花板。所以医疗领域这类需要脑子的地方,是普通人能和婆罗门共舞的唯一渠道。

但现在,高级医院的医学生培养本身也已经婆罗门化,甚至可以说,他们设定的培养机制,就是为婆罗门量身定做的,是一种“萝卜机制”。

董小姐,她不是一个人。

普通人以为的上升通道,其实已经在蜕化为婆罗门的“包装流水线”。

这中间唯一需要担忧的,恐怕就是那些手术台上的病人。

从县城婆罗门到京城婆罗门,从董小姐到董小姐,普通人应当逐渐建立一种觉悟:停止想象。

当你停止想象,这一切就未曾发生。

(全文完)

大象新闻|桃色新闻扒出速成医女,董小姐的4+4能有多跨界

30 April 2025 at 19:30

file

今天(4月29日),“知网已搜不到董袭莹论文”话题冲上热搜第一。男医生肖飞被妻子实名举报“脚踩6只船”的医圈大瓜,炸向医疗教育界,火速把一个医学教育关键词——“4+4”也顶上了热搜。

file

桃色新闻扒出速成医女

肖飞妻子的实名举报信提到,肖飞婚内出轨的规培住院医师董袭莹,本该去脊柱外科轮转,为了维持不正当关系,肖飞去和骨科教学秘书麻昊宁打招呼,希望董袭莹继续留在胸外科工作一个月。被麻昊宁拒绝,肖飞和麻大夫就此事展开争吵。

更令人震惊的是,肖飞在手术中,抛下麻醉患者长达40分钟,去哄董袭莹。

这匪夷所思的操作曝光后,董袭莹的学历、家庭背景及“协和医学院4+4”培养模式引发热议。

file

file

CDT 档案卡
标题:桃色新闻扒出速成医女,董小姐的4+4能有多跨界
作者:大象新闻
发表日期:2025.4.30
来源:微信公众号“大象新闻”
主题归类:董袭莹
CDS收藏:人物馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

从实名举报信、网友检索公开信息梳理看,董袭莹的经历相当“魔幻”。

她本科在哥伦比亚大学巴纳德女子学院读经济学,2019年进入北京协和医学院“4+4临床医学试点班”项目。

然而,她哥大毕业的经历,遭到了网友的质疑。

据网友爆料,董袭莹实际毕业的院校并非哥伦比亚大学,而是与其仅一墙之隔的巴纳德学院。巴纳德学院是哥伦比亚大学的一所独立学院,毕业生的毕业证书上会盖有哥大与巴纳德学院的公章。

file

有网友将巴纳德学院与国内的独立学院相类比,认为其与哥伦比亚大学的关系,类似于国内的东南大学成贤学院与东南大学的关系,与哥大并没有太多实质性的联系。巴纳德学院是否符合“世界前20文理学院”的标准,令人存疑。

更令人质疑的是,巴纳德学院的入学途径似乎存在“捷径”。有网友指出,从当地社区学校入学的学生,基本都会被巴纳德学院录取。据传董袭莹就是通过这一途径进入巴纳德学院的。

file

据新华社报道,2021年11月5日,在北京市第六医院的医联体胸外科病房手术室,北京协和医学院实习医生董袭莹在团队协作中,开展荧光腔镜精准肺段手术。

医学博士生的正常学制,是“5+3+4”,即5年医学本科、3年医学硕士、4年医学博士。

但经济学的董袭莹,在学医的第2年,就去做手术了。

file

此外,网友截图称媒体曾报道,王辰院士、校长寄语北京协和医学院2023届毕业生,点名表扬“4+4”的董袭莹,但目前这句话已不见。

file

协和“4+4”除了经济学,还有园艺和外语

纵观董袭莹的学术历程,她本科学经济学,4+4指导老师是骨科院士,学位是内科,工作定在泌尿外科,规培是在胸外科,毕业论文选题是妇科影像学。

毕业后进入中国医学科学院肿瘤医院工作,后又进入中日友好医院进行规培学习,连国家规定的医学专业毕业生必须参加不少于3年的规培,她居然只需1年。

媒体追问,如此速培的医学博士,董袭莹到底是医学天才还是资源咖?大家需要一个答案。

更多网友涌入北京协和医院评论区,吐槽“朝圣一样去求医”,谁知道遇到的医生是不是“4+4”,强烈要求公示“4+4”名单。

file
file
file

那么,何为“4+4”?

据北京协和医院官微,“4+4”临床医学教育模式始于上世纪初的北美,是从各大学多专业本科生有志学医者中,择其优秀者,完成本科教育后进入医学院学习临床医学,毕业后获得医学博士学位。含本科教育4年,医学院教育4年,故名“4+4”学制。

file

据中国经营报,近期发表的一篇研究论文显示,在北京协和医学院2019级—2024级试点班的172名学生中,本科背景为理学的占到87.8%,且生物类专业的为68.6%。此外,还有工学、经济学、农学、文学专业毕业生,专业涵盖了经济学、经济数学、园艺、植物科学与技术、西班牙语。

file

★多所高校开设“4+4”、协和医班、协和药班

今年3月,北京协和医学院校长、中国工程院院士王辰在接受采访时说,协和医学院自2018年开始实行“4+4”医学教育模式,后来又与北航、北理、中国科大、北师大等探索开设了“协和医班”及“协和药班”,分别致力于为中国培养复合型“大医生”和医学、药学领军人才。

file

此外,上海交通大学医学院官方公众号显示,学校于2002年起,连续23年每年从“双一流”建设高校及建设学科选拔招收优秀本科毕业生,攻读临床医学专业博士学位。

file

浙江大学医学院从2005年开始的“巴德年医学班”,是4年非医学本科专业+4年医学博士的培养模式,不过该项目为“八年一贯”制,招生对象为高考生以及该校本科新生的再选拔。

北京协和医学院3月19日发布“4+4”医学试点班招生简章,其中,2026级招生计划45名,招生大学包括清华、北大等37所高校。

file
file
file

来源 | 大象新闻 曹亚勤 (综合极目新闻 中国经营报 新华社 北京协和医院 中国医学科学院新闻中心 网友评论 )

【CDT月度视频】四月之声(2025)——“中国不需要谁指明方向”

30 April 2025 at 19:25

谨以此片向《四月之声》致敬。本项目将持续更新,直到《四月之声》及同类影片在中国解禁。

2025年4月,中国数字时代搜集整理了过去一个月(2025.3.28—2025.4.28)期间反映国内热点事件的网络视频,以时间为序进行混剪制作了本月月度视频——《四月之声(2025)》。

在内容上,该片揭示了当局的言论审查、权利打压,也记录了民间疾苦、民众呐喊与抗争;在形式上,该片模仿了2022年4月22日发布、随即风行全网并遭到审查的抗议上海封城的短片《四月之声》。

我们谨以此片向这部匿名作品致敬。本项目也将持续更新,直到《四月之声》及同类影片在中国解禁。

同时,在中国数字空间更新有该作品的彩色版本。相关链接:https://youtu.be/4PH4LJlWx8g

致谢:感谢 @李老师不是你老师 、@YesterdayBigcat 对中国相关事件素材的收集与分享。

CDT 档案卡
标题:【CDT月度视频】四月之声(2025)——“中国不需要谁指明方向”
作者:中国数字时代
发表日期:2025.4.30
主题归类:四月之声
CDS收藏:大事记
版权说明:该作品版权归中国数字时代所有,欢迎个人、媒体和研究机构在注明来源的前提下免费使用。详细版权说明

  • 2025.3.28 缅甸发生7.7级大地震,泰国曼谷一栋由中铁十局修建的大楼坍塌
  • 2025.3.31 甲亢哥Speed成都行两次遇到路人发表种族歧视言论
  • 2025.4.1 江西抚州第六人民医院破产倒闭,一年间江西已有多家医院关门
  • 2025.4.2 来自贵州的“寻找失踪儿童父母团”在河北某广场遭警察阻拦
  • 2025.4.2 深圳网友记录街边的门店在一年多的时间里频繁更换
  • 2025.4.3 一名法学毕业生表示,实习工资2500元扣了社保到手700元
  • 2025.4.4 成都当地政府无理封禁传统集市邹家场,摊贩们集体冲卡
  • 2024.4.6 面对美国提高对华关税,人民日报发评论称“天塌不下来“ (一些商家、网民宣布对美国实施“单方面制裁”)
  • 2025.4.6 成都男子用环卫工人时薪在一家连锁超市测试购买力
  • 2025.4.7 前中共总书记胡耀邦之子、“太子党”内自由派人士胡德华病逝
  • 2025.4.10 大连男子发现某条大街上多家商铺都在进行打折促销
  • 2025.4.10 广东东莞一名劳务派遣工人,月工作388个小时仅收入5848元
  • 2025.4.11 河北任丘市市民发现,当地道路旁的树木被统一修剪成了正方形
  • 2025.4.11 一名外贸从业者称,这次贸易战真的“锤到了我们外贸人,而且很痛“
  • 2025.4.11 武汉突降暴雨致个别道路内涝严重,一些车主趴在车顶等待救援
  • 2025.4.11 无锡市红豆置业总部民众抗议房屋未能交付,警察用“遮羞布”维稳
  • 2025.4.12 河南郑州一小区外墙掉落,外卖小哥被砸倒在地,手机仍在提醒接单
  • 2025.4.12 陆配小微从台湾回贵州后首次发视频,评论区许多网民留言嘲讽
  • 2025.4.12 贵州黔东南台江县陈女士COS石矶娘娘角色,被人辱骂是“日本女人”
  • 2025.4.13 一名医生谈中美贸易战,担忧美国进口的医疗器械会大幅涨价
  • 2025.4.13 广东一名货拉拉司机称,一工厂让他把几十名工人用货车拉到另一工厂
  • 2025.4.13 上海一男子称发了自己住桥洞下的视频,被警方告知影响市容
  • 2025.4.14 三河市商户牌匾禁用“红蓝黑”,市监局负责人曾称“红、蓝色太俗”
  • 2024.4.14 河北三河市民众拍视频称,当地的社会主义核心价值观标语都被刷成了绿色
  • 2025.4.14 乌克兰军方在基辅举行记者会,两名中国战俘在会上答问
  • 2025.4.15 成都一天桥再现“四通桥标语”,抗议者呼吁“中国不需要谁指明方向,民主才是方向”
  • 2025.4.16 海南三亚金鸡岭街发生一起厢式货车沿街冲撞行人及车辆事件
  • 2025.4.17 博主质疑央美人工智能科技雄安有限公司的“提升生命体机器人”
  • 2025.4.17 陕西商洛一名城管掐路边小贩的脖子,并用铁桶猛砸其头部
  • 2025.4.17 广州多名城管手持盾牌和钢叉殴打在户外表演的残疾人
  • 2025.4.17 广东深圳一女子称,因为贸易战纸箱包装厂的工作受到影响
  • 2025.4.17 广东湛江霞山区爱国街道办书记被当地访民用锄头打死在街道办门口
  • 2025.4.18 甘肃兰州警察摆拍扶老奶奶过马路
  • 2025.4.19 一个孩子在阅读儿童读物时,发现了有关黑猫警长的“不实报道”
  • 2025.4.19 UP主“蔡雅奇刑法”发布视频《认罪认罚是个非常操蛋的制度》
  • 2025.4.19 某博主打假武汉市邓甲生鲜市场时,遭到商家殴打、抢手机
  • 2025.4.20 广东番禺男子拍摄路边成排关门转让的商铺感慨经济不好(后被警察查手机)
  • 2025.4.20 985本科毕业的女生小静分享开始跑外卖的收入构成
  • 2025.4.21 江苏市民向银行预约大额取款,被警察询问用途和查手机
  • 2025.4.21 博主吐槽无锡市最新的人才引进标准,简直是羞辱人才
  • 2025.4.21 四川一男子网购高锰酸钾、雄黄粉后,被警方询问具体用途
  • 2025.4.22 浙江金华苏孟乡中心小学门前汽车冲撞人群致多人伤亡
  • 2025.4.22 浙江台州发生重大枪击案,网传视频显示至少2名警察中枪倒地
  • 2025.4.22 小红书博主要求取消工厂12小时“两班倒”的工作制
  • 2025.4.22 多地群众反映中央巡视组电话无法打通
  • 2025.4.22 董明珠谈用人标准时说“绝对不用海归派,因为海归里面有间谍”
  • 2025.4.22 河南叶县一退伍军人网上反映退伍兵安置问题,深夜被人撬开房门
  • 2025.4.23 网民发现湖北黄冈沪武高速凤凰关水段桥承重柱钢筋外露问题
  • 2025.4.23 湖南民众冒雨排队向中央巡视组反映问题,但无法拨通信访电话
  • 2025.4.23 北京顺义区潮白河大桥发生垮塌,大桥从中间位置断裂
  • 2025.4.24 江苏市民银行取钱被要求提供微信聊天截图等信息
  • 2025.4.24 上海海银财富暴雷受害者集体维权遭到警察暴力镇压
  • 2025.4.24 某博主在凌晨随机找日本商家,拨电话叫对方“起来重睡”
  • 2025.4.24 某位律师盘点了2022-2024年因为翻墙被处罚的案例数据
  • 2025.4.25 网传湖北武汉一家牛肉面馆发生无差别持刀砍人事件
  • 2025.4.27 周鸿祎在重庆被路人问到360借条问题,回应“那不是我的公司”
  • 2025.4.27 一名211土木硕士称,2020年花了200万买的房子亏了70万
  • 2025.4.27 媒体宣传一名脑瘫女骑手七年累计送了7.3万多单外卖引网友批评

六神磊磊读金庸|群众被两个董小姐搞得团团转

30 April 2025 at 16:51

file

和格十三老师撞题了,她真的,我哭死。昨天半夜没写完,大家凑合看吧。

两位董小姐,一个董明珠,一个董袭莹。

一个是最近离奇“间谍论”的高管,一个是最近医院八卦新闻的主角之一。完全不搭噶的两个人,但假如连起来看,就会觉得分外耐人寻味。其交汇点是一个词:海归。

董明珠反海归,董袭莹就是海归。

董明珠竭力向底层拱火,说海归是外人,是别有用心的人;而董袭莹在医学界的一路开挂则说明,有一些海归恰恰是“自己人”、“天龙人”。

只有吃瓜群众被耍得团团乱转,找不着北:

你们到底是回来窃取机密的,还是来继承家产的?

到底你们是外人,还是我们是外人?

CDT 档案卡
标题:群众被两个董小姐搞得团团转
作者:帅呆的sixgod
发表日期:2025.4.30
来源:微信公众号“六神磊磊读金庸”
主题归类:董明珠
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这里面有一种很强的矛盾感和撕裂感。

董明珠说绝不招留学生,因为海归里有“间谍”。这番言论,在下沉的舆论场里一度引发大片叫好,点燃了许多人心中抵制留子、防火防盗的热情。

仿佛完全忘了她提携的王自如是海外高层次人才“孔雀计划”获奖者。

如果只看下沉用户的叫好,你会以为社会已保守到墙角,海外学生已无容身之地。

然而,在普通人看不到的地方,还有董袭莹。

家族背景深厚的她,从海外经济学本科迅速成为知名医院“风云人物”,一众大佬刷脸护航,履历中种种弯道超车,三年规陪都减到只需一年。唯一失手是怀了肖飞这大坑货的娃。

而她的通关券之一,恰恰就是哥伦比亚大学巴纳德学院的留学身份。

两个董小姐的事放一起,会形成一种撕裂。它会让人觉得非常怪异和不适,有一种逻辑脱榫、不能自洽的怪异。

好比说,桃花岛号召抵制外来学生,你非常认同,天天走访普查,结果回头一看,人家女婿耶律齐当了丐帮帮主了。

郭大小姐告诉你,抵制外来学生,主要是指杨过。耶律齐大爷那么优秀,必须重用嘛。

你是不是就会有点混乱?

也是琢磨了好一阵,才明白了这里面的逻辑。

董明珠的事和董袭莹的事,一个发生在言论的前台,一个发生在利益分配的后台;一个是故意给人看给人听的,一个是普通人看不见听不见的。

前台是刻意迎合,后台是默默输送;前台是意识上的日趋保守,后台是利益上的不断固化。

说白了,“海归”这玩意不过就好比一张牌,花色不变,但它的含义是可以变换的。

它可以是董明珠们手中的一块红布,也可以是董袭莹们手中的一张内部通行证。

它可以暗戳戳地指外人,也可以不动声色地标识自己人。当需要你亢奋喝彩、要引起你对外的反感和戒惧时,它是一张牌;当它要成为阶层繁殖、利益输送的默契和借口时,它就是另一张牌。

类似扑克里的2,可以很小,也可以很大,全看玩斗地主还是炸金花。

当你在前面恨完了,董小姐在后面吃完了,最后留下来供大众针对、宣泄的,是更多小杨过这样没有资源、压根无法复制董袭莹路线的无辜留子。 

有人说,董明珠一类高管抛出“间谍论”,只是因为他们个人观念保守,就当个笑话看就完了。

这话也对也不对。

诚然,很多一些类似的管理人士,因为教育背景、工作性质、长期惯性等原因,他们确实是非常保守的,甚至是迂腐的,对世界的理解非常刻板。

但那并不是完全的真相。真相是,在管理对象面前,他们可以是极度保守的;但在利益面前,他们就可以是极度开放开通的。

压根没有那么多条条框框,没有那么多食古不化的老脑筋。土和洋都不是问题,茅台和爱马仕都不是问题,学外语不是问题,孩子上哈佛上耶鲁都不嫌弃。

岳不群那么保守,口口声声“以气驭剑”,严禁学旁门左道,结果你看在《辟邪剑谱》面前他保守不保守?零件说嘎就嘎,激进得很。

这些人“反海归”的实质,就是把你的流量和上升空间一起拿走。董大姐拿走流量,董小姐拿走上升空间。

你则得到满满的自豪。

然后躺上手术台,麻醉完,肖飞大夫出去了,哄董小姐去了,你的人生闭环。

犀牛娱乐|电影市场已回到2012年水准

30 April 2025 at 05:07

当下的电影市场,正处于最为割裂的时期。

《哪吒2》的150亿+表现惊动了全世界,另一边当下的市场大盘却处于最为冰冷的时期,这种极致的割裂也是从未有过的。尤其是后春节档时期,相继经历了清明档倒退55%,工作日连续下探1000万+的绝境,更可怕的是接下来的五一档丝毫没有回暖的迹象。整个4月份的电影市场,已经处在了历史的低位。

市场倒退达13年

遥想2023年的电影市场,犀牛娱乐最常用的论点便是市场退回到了7年前,去年显得更加严峻,常用的词汇便是市场倒退10年。此刻,内地电影市场再度下探,截至目前4月份累计票房刚刚突破11亿大关,预计将以近12亿体量收官,这意味着,中国电影市场,单月体量已经倒退了13年之多,回到2012年水准。

img

市场如此幅度的下沉,影院彻底被抛弃的现象,放眼过去十几年都是较为罕见的。纵观全年电影市场来看,4月、9月、11月历来都是年度的一个低谷时期,可即便如此,2025年4月份来到11亿+票房,显然是极为不正常的数据,已经不能简单用腰斩、膝斩来形容,属于一个超跌的状态。

去掉口罩时期的市场表现外,最近一次单月不足11亿体量要追溯到2012年11月,单月11亿基本属于2012年左右的水准。从列表可以清晰的看出,今年4月份表现已经比2012年4月还要低,比巅峰期的2017年有着明显的差距,较巅峰期下滑多达74%之多。

一个月票房11亿+,单日平均3000多万,这是非常可怕的数字,要知道2012年全国只有3200多家影院,如今早已来到了1.1万+的影院数量,两者的效率根本不可同日而语。影院数量翻了接近4倍,票价亦是大幅的提升,但最终票房依然不如13年前,这肯定出现了问题。

img

另外,今年4月份的冰冷,也是出现了各种见证历史的时刻,拿今年4月2日的票房来看,单日票房仅为1200多万,同样属于13年前的表现,也是今年单日票房最低的一天。更可怕的是,单日总场次34.2万,但总出票竟然仅有34.7万,这意味全国所有的影城,一个影厅平均只有一个人,意味着“全国人均包场”,也相当于大部分场次是没有人的。

一个人一个厅,如此恐怖的效率,意味着对于绝大部分影城来说,关门都要好过营业,处于一个严重的亏损模式。在《哪吒2》带来的强大赚钱效应之后,影城可能将面临长达几个月的亏损。此刻的电影市场,正经历着前所未有的寒冷,“人均包场”注定将载入史册。

img

继续拆解今年4月份市场,可以发现更加严峻的问题。哪怕数字如此寒冷,但单月票房冠军依然由《哪吒2》所霸占,要知道《哪吒2》是一部已经上映3个月的电影了,依然还得靠着它最后一丝热度来支撑着电影大盘,对于新片来说,这才是更加尴尬的。

当冯小刚新片《向阳花》顺利突破2亿大关之后,导演发朋友圈表示,《向阳花》成为了春节档之后首部票房突破2亿的电影,也是首部未亏损的电影,背后充满了无奈和唏嘘。偌大的内地电影市场,竟然连续2个月几乎没有市场的输出,身处原地踏步的节奏当中。

市场倒退13年、全国人均包场都是严重不正常的。在4月期间,其中4月18日,国家电影局、中央广播电视总台在北京启动“中国电影消费年”,“预计投入不少于10亿元观影优惠补贴,围绕重点档期支持电影消费季”。可当下面临的绝境,岂是10亿观影补贴能够解决的。

如今的内地市场只有三个档期

当下的整个电影行业,已经进入了一个恶性循环:越是冷档期,越是没有片子,于是市场也就越冷,于是越是没有片子,如此反复循环之后,当下的内地电影市场,仅剩下三个真正意义的档期了,即春节档、暑期档以及国庆档。全年分为了三个档期以及其他档期。

CDT 档案卡
标题:犀牛娱乐|电影市场已回到2012年水准
作者:犀牛娱乐
发表日期:2025.4.29
来源:微信公众号“犀牛娱乐”
主题归类:中国电影
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

正如前面提到的恶性循环,当档期无人问津之后,三个档期受到的追捧只会越来越强,最终总体票房占比也越来越高,即强者愈强。而所谓的小档期将再也没有翻身的机会,清明档的惨败算是预期之内,更可怕的是,哪怕五天长假的五一档,都已经被边缘化,沦为了三大档期之外的“其他档期”了。

从今年五一档的片单就能看出,如今连五一档都被嫌弃了,处在了鄙视链的末端了,上不了饭桌了,毕竟真正的种子项目根本就不会考虑,其背后正是恶性循环所导致。就真正的好项目、大项目来说,三大档期成为了仅有的选择,也是盈利的保障。

行业也完全根据档期的梯队,对项目进行三六九等的排布,哪些能够上春节档、哪些上暑期档、国庆档,哪些上其他档期,哪些上普通周末,这是一套完整的链条,项目都被明码标价,根本没办法完成阶级跨越,只能处在自己的层级,这形成了一种无形的枷锁。

这种逐步稳固的阶级,其实是今年4月份电影市场不佳的幕后真正原因,换言之,清明档只能匹配这种级别的项目,因为优质项目不愿来,更小的项目进不来,进而导致了清明档低迷的表现。即将到来的五一档,这些项目基本属于中等体量级别,以它们的量级难以进驻春节档,甚至暑期档,最终获得了与之匹配的五一档。

久而久之,档期将形成阶级固化,这不利于档期的概念,优质的大片完全可以来到三大档期以外的节点,具备品质的黑马自然也能挑战三大档期,可游戏规则已经制定,接下来完成阶级挑战和跨越的机会只能越来越少。或许接下来,4月份倒退13年的现象还将持续发生。

❌
❌