Normal view

There are new articles available, click to refresh the page.
Today — 6 May 2025中国数字时代

【404文库】“当英语世界创造着占全球60%的互联网内容,中文信息仅贡献1.3%的微小份额,这种悬殊对比揭开了残酷真相”(外二篇)

By: elijah
6 May 2025 at 04:48

CDT 档案卡
标题:【404文库】“当英语世界创造着占全球60%的互联网内容,中文信息仅贡献1.3%的微小份额,这种悬殊对比揭开了残酷真相”(外二篇)
来源:阜成门六号院难得君科学与真相

主题归类:董袭莹董明珠防火墙
CDS收藏:时间馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

《404档案馆》讲述中国审查与反审查的故事,同时以文字、音频和视频的形式发布。播客节目可在 Apple Podcasts, Google Podcasts, Spotify 或泛用型播客客户端搜索“404档案馆”进行收听,视频节目可在Youtube“中国数字时代· 404档案馆”频道收看。

欢迎来到404档案馆,在这里,我们一起穿越中国数字高墙

尽管中国的言论审查和舆论管控日趋严峻,国家对公民的监控也无处不在,但我们依然可以看那些不服从的个体,顶着被删号、被约谈、甚至被监禁的风险,对不公义勇敢发出自己的声音。

中国数字时代在“404文库”栏目中长期收录这些被当局审查机制删除的声音。如果您也不希望这些声音就这样消失,请随手将它们转发给您可以转发的任何人。

在本期的【404文库】栏目中,我们将选读过去一周中引起舆论关注的三篇404文章。

一、阜成门六号院|董小姐算是京城婆罗门权贵出身吗?

四月底,北京协和医院医生肖飞的桃色新闻牵出了董袭莹“门阀”事件,该事件在中文互联网上引起网民强烈不满。

img

不少网民挖出了“董小姐”的家世背景,并对协和医院“4+4”医学博士项目表示质疑。

img

有网民统计,该项目中不少人都是“有关系”的“门阀世家”,认为该项目专为权贵设立。

img

面对网民们汹涌的讨论,微博、微信、小红书、抖音等平台均展开了严格审查。微信公众号“阜成门六号院”发表的一篇遭到审查删除的文章中,作者提出另一种看法,作者写道:

董小姐一事不能用权贵模式来解释,更确切是用知识阶层堕落或精英自甘腐败来解释,董被爆料的行为,处处显示出这个家庭的精致利己主义,或极其善于经营:

1.从医的人最起码讲医德,引导自己孙女读医学博士是可以,无可厚非,但是给自己孙女辅导博士论文,又把孩子安排到肿瘤医院这种人命关天地方的一线医务岗是怎么回事?这不是害孩子,更是以后祸害患者吗?

2.董的成长路是被家长精心设计的,从规避高考到美国就读社区大学,然后转学到巴纳德学院,成功获得哥大的名分,再到协和博士班,显示出这个家庭善于利用便捷通道,让孩子获得成功。

并且董家一直善于利用媒体,她上小学时,就登上北京市属媒体;进入协和以及实习后,又找央媒的外围媒体给予曝光,可能家长觉得知名度越高,意味着孩子越成功。

3.董小姐的行为也表明,她是一个很聪明的人,但是又是被溺爱长大的,被家庭灌输追求极致成功,而缺乏道德底线的。比如她与有妇之夫搞婚外恋,还堕胎;再比如,她在2022 年到 2024 年期间,一共发表11篇高水平论文,从骨科到妇科,从放射科到泌尿科,从高分子物理,到化学到生物医学,跨度之大令人咋舌。

这样复杂的高难度学术研究,即使华佗转世也不太可能完成,何况对于一个从经济学转到医学的0基础新手。她的这些运作背后,可以清晰看到家庭给她的穿针引线,以及家庭行事给她的影响。

二、难得君|解读董明珠的”海归间谍论”

除了协和“董小姐”外,另一知名“董小姐”董明珠近日也发表了惊人的“海归间谍论”,一些网民的有关讨论同样遭到审查。微信公众号“难得君”对此发表文章进行评论。

img

然而,该文很快便被审查删除。

文中节选部分写道:

2025年4月,珠海格力电器股东大会的聚光灯下,71岁的董明珠以压倒性优势开启第五个任期。

这位曾带领格力从年产值不足2000万的小厂蜕变为千亿帝国的”铁娘子”,本应在这个时刻展现企业家的睿智与格局。然而,当被问及管理层年轻化议题时,她的发言却让全场哗然:“绝不用一个海归派,海归派里有间谍!”
这句话犹如投入湖面的巨石。

次日,”董明珠称海归有间谍”的词条在社交平台阅读量突破10亿,某知识社区相关话题下,留学归国人员集体发声:“我们带着技术回国,不是为了当‘背锅侠’”。

舆论场上,支持者搬出”国家安全”大旗,反对者则翻出格力发展史,从朱江洪时代引进日本压缩机技术,到2013年设立美国硅谷研发中心,格力成长的每个关键节点都深深烙着国际化的印记。

将“海归”与“间谍”简单划等号,暴露出三个深层次问题:

其一,在全球化退潮的背景下,部分企业家的开放心态正在萎缩。某跨国企业高管指出:”如果连最渴望报效祖国的群体都遭质疑,我们如何吸引真正的外籍专家?”

其二,反映出某些企业对人才评价体系的懒政思维。网络安全专家李明认为,”与其搞’海归洁癖’,不如建立科学背调机制,某某对全球人才’敞开大门+严格审查’的模式值得借鉴”。

其三,暴露出传统制造业在转型升级中的认知局限。正如某投行分析师所说:”当特斯拉上海工厂30%的工程师有海外背景时,排斥国际化人才实质是自我封闭。”

更深层的危机在于社会信任纽带的撕裂。据统计,改革开放以来,留学生回国率从2000年的23%升至2024年的82%,这些带着国际视野归来的建设者,不应因个别案例被污名化。

国家安全固然重要,但防范风险的正确方式绝不是”把孩子和洗澡水一起倒掉”。

三、科学与真相|从全球流量排名看中文信息茧房的困局

中共当局“把孩子和洗澡水一起倒掉”的一个典型案例便是建立互联网防火墙。近日,微信公众号“科学与真相”便发布文章,质疑这一现象,但毫无疑问,该文在微信平台很快便被删除。

作者写道:

截止2025年3月1日,根据 Similarweb 网站排名, 当全球网民在Google检索知识、在YouTube观看视频、在Facebook分享生活时,中国互联网用户正困守在一个由百度(第15位)、淘宝(跌出前100位)和微信构筑的数字孤岛。Alexa数据显示,全球前15大流量平台中,仅百度(第15位)、俄罗斯Yandex(第12位)和部分受限的雅虎(第10位)能在境内正常访问。这种物理层面网络隔绝,造就了人类文明史上最吊诡的景观:14亿人口的市场与全球60%的英语信息之间,横亘着无形的数字柏林墙。

image

搜索引擎的对比尤为刺眼:Google以853亿月访问量统治着全球信息分发,而百度虽在中国市场独占鳌头,其国际影响力却仅限于中文世界。更令人深思的是,即便在被封锁的状态下,Google仍以断层优势稳居榜首,这种"缺席的统治力"印证了开放生态的顽强生命力。正如三星退出中国仍保持全球销量第一,谷歌被屏蔽13年依然傲视群雄,这些现象都在叩问:我们引以为傲的"市场规模",是否只是温水煮青蛙的幻象?

当英语世界创造着占全球60%的互联网内容,中文信息仅贡献1.3%的微小份额,这种悬殊对比揭开了残酷真相:每个中文网民本质上都生活在经过三重过滤的"楚门世界"。在抖音推送的娱乐至死中,在微博热搜的议程设置里,在微信朋友圈的信息茧房内,人们接触的所谓"海量信息",不过是浩瀚知识海洋中的涓滴之水。

这种认知局限在学术领域尤为致命。维基百科(第8位)作为全球最大的知识共享平台,其英文词条数量是中文版的15倍。当中国学生还在百度百科检索被阉割的知识时,国际学术界早已在arXiv、PubMed等开放平台实现知识共享。更可怕的是,那些呼吁"取消英语教育"的喧嚣,正在将阶层固化推向深渊——精英阶层通过VPN突破封锁获取全球60%的信息,而普通民众却被永久禁锢在1.3%的围城之中。

image

[…]那些叫嚣"取消英语"的愚昧,那些沉醉"市场规模"的虚妄,那些迷信"信息管控"的短视,终将被证明是文明进程中的逆流。当俄罗斯Yandex都在努力突破语言边界时,我们是否该反思:困守1.3%的信息孤岛,真的能孕育出引领人类文明的力量吗?答案,早已写在谷歌853亿月访问量的星辰大海里。

以上是本期选读的三篇404文章。文章全文见中国数字时代网站。这些作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。

中国数字时代 CDT 致力于记录和传播中文互联网上被审查的信息,以及人们与审查对抗的努力。欢迎大家通过电报(Telegram)平台 向我们投稿,为记录和对抗中国网络审查作出你的贡献!

cdtimg

了解更多投稿信息,请阅读中国数字时代征稿说明

欢迎读者访问 CDT播客CDT视频 收听/观看更多相关内容。

倪刃的黑噪音|电影业,正式倒退回2012年

By: elijah
5 May 2025 at 23:41

4月的中国电影票房,竟然比2012年4月的数字还要低。

其实还有另外一个数字更吓人:2012年全国只有3200多家电影院,但现在多达1.1万多家。

也就是说,在全国银幕数量增加3倍多的情况下,电影票房却只能跟2012年保持差不多一致。

别看《哪吒2》很火,但一部电影救不了整个电影行业,反而衬托出整个行业的萧条。

img

img

电影票房,带我们梦回了13年前。到底为什么会这样?

事实上,电影业的冷却是整个经济大环境“退烧”的表现。之前从2017年到2021年的电影行业火热,是“虚胖”而不是真实的、健康的增长。

电影业当年烧钱有多疯,如今寒意就有多刺骨。

CDT 档案卡
标题:电影业,正式倒退回2012年
作者:倪刃
发表日期:2025.5.3
来源:微信公众号“倪刃的黑噪音”
主题归类:电影
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

从2015年起,电影行业一度成为资本的宠儿。地产公司、互联网巨头、P2P平台、甚至卖家具的、做白酒的,全都一窝蜂冲进来,理由很简单:电影是“内容产业”,未来是“国运所系”,而且看起来赚钱快、话语权高、光环还大。

于是资金砸进来,明星片酬飙升到天际,剧本可以没有,IP必须要有。一个破小说改编权被炒到几千万,一个烂导演只要跟资本走得近,也能挂帅百亿项目。

这哪是拍电影?分明是在拍“资本项目”。

在这场游戏中,真正被消费的不是观众,而是信仰——对电影艺术的信仰、对内容价值的信仰。

就像中国其他那些被炒作的行业一样,电影业的虚火伤害的,是对这个行业本身的不尊重。如今各地疯狂上马音乐节,但屡屡传出音乐人去现场演出被吃“闭门羹”的事情,他们眼中音乐人根本就不是值得尊重的,音乐节的本质也早已脱离了音乐本身的信仰。

img

电影界都把寒冬归结为疫情原因,但这其实不过是催化剂,资本出逃才是致命一击。三年疫情摧毁了影院端的现金流,但更重要的是,它让资本明白了一个残酷的现实:电影,不是一个能快速套利的生意。

热钱最怕“慢”,电影却天然节奏缓慢:项目开发要时间,审批要时间,制作要时间,排片还得看脸色。更别说,票房的不确定性让这个“投资品”天然带着赌博属性。

所以,狡猾的资本开始撤退。那些靠讲故事“圈钱”的公司破产清算、裁员重组;“影视概念股”不再是二级市场的宠儿;曾经满口“十亿票房”梦想的导演,如今开始直播卖货或沉寂无声。

很多资深演员,现在都根本无戏可拍。

那些一度活跃在台前的影视资本大佬,一个个要么“转型文化创意”,要么干脆转向AI、芯片、新能源。这些人不是爱电影,他们只是爱钱。电影不香了,他们立刻跑路。

资本褪去之后,真正的问题浮出水面:

创作者缺乏基本的内容自驱力。 以前是资本逼着人“快产出、快上线”,没有机会深耕剧本,现在没人逼了,发现大多数所谓“导演”其实连个像样故事都讲不明白。

行业生态被惯坏了。 被资本哄过一次之后,行业上下都对“成功”有一种扭曲认知——必须大制作、大明星、炒作营销、线上带节奏。如今资源枯竭,这种路径完全失灵。

img

观众不再好骗了。 曾经一张名脸+热搜就能换十亿票房,如今观众早被薅怕了。小红书、豆瓣、知乎让电影的口碑真相几小时内就能穿透宣传泡沫。

可以说,中国电影的问题不是什么“周期下行”的遮羞布,而是长期被虚假繁荣绑架后的信用破产。

电影作为一门艺术要怒吼了:老子不是资本的提款机!

但是,中国电影已经濒死。

所有行业本质上都有个周期,电影也不例外。但中国电影的周期性低谷,并非自然波动,而是人为制造的“空心繁荣”塌陷。我们把电影当成了“金融资产”,但却没有给它时间成长、沉淀与积累,更谈不上耐心的创作。

当90多岁的美国名导伊斯特伍德还在扎实拍电影,中国30多岁的“电影大佬”就已经“退休”玩其他资本运作了。

img

导演?算个屁!只是资本的工具罢了。

各行各业的人,什么时候才能认真对待一个行业本身,而不是把一切行业都当作下金蛋的鸡?

中国的“全球电影业霸主”地位当年是怎么吹起来的?“中国票仓全球第一”、“十亿人看电影”、“国产片崛起”……这套话术被无数PPT里复读过。但资本最精明,他们比谁都明白:讲资本故事的能力如果不能转换为讲好电影故事的能力,这行就没未来。

现在资本一走,讲故事的人就傻眼了:没人买账了,没人投钱了,没人为情怀买单了。

很残酷地说,中国电影正在经历一场迟来的市场化清洗。 未来几年,没有内容、没有执行力的公司会全面出局;投机者会彻底离场;而真正热爱电影、愿意沉下心来做内容的人,将成为这场“大退潮”后的幸存者。

别再指望下一部《流浪地球》或《长津湖》乃至《哪吒》带动全行业复苏了,救命药不是票房奇迹,而是系统性的信任重建、创作机制重建、行业规范重建。

“打鸡血”式发展,代价是耗尽整个行业的生命,最后一地鸡毛。

电影业是中国很多行业的缩影,而资本的背后则是权力的狂欢。当权力之手裹挟着资本的暴风雨掠过各种各样本应单纯的行业,所到之处就像蝗虫群经过后一样,将寸草不生。

剑客写字的地方|当普通人不再惊讶和愤怒,才是输得彻底!

By: elijah
5 May 2025 at 23:34

刚刚在一篇文章里看到条数据,是关于某地一211大学各院研究生的就业率。标题起的不错,最高的专业就业率53%,最低的4%。

说标题不错,是因为乍一看,你都不知道这数字代表了什么。如果结合全部的数据表来看,意味着有八成失业。

img

img

有一点不得不提,该所学校勇气可嘉,别人都是给就业率注水,弄得表面鲜亮。他们,似乎想给普罗大众提个醒了。即便只是三方协议的数据统计,即便只能代表一小部分,但对普通群体而言,也依旧非常值得思考。尤其是这种提醒出现在此次4+4的风波之后,人们应该问问自己,再过几年,轮到自己的子女出去谋生之时,还有蛋糕可分吗? 

有人可能说,别急,慢慢来,一切都会变好的。

CDT 档案卡
标题:当普通人不再惊讶和愤怒,才是输得彻底!
作者:送青人
发表日期:2025.5.5
来源:微信公众号“剑客写字的地方”
主题归类:青年就业
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这是一贯的说辞,原本这是有可能的,相信的人也众多,小的时候认为只要长大就会有工作,后来觉得只要能上大学就一定会有一份不错的工作。但随着从“很久很久以前”开始,到很久很久之后的现在,这个过程依旧持续着,难免要有一些怀疑。

经过此次4+4的风波揭露出大量人们曾经并不知道的内幕之后,怀疑还在加深。而在很多人花费巨大的精力,把另外一些人之间千丝万缕的关系和背景扒出来后;把他们如何使用和玩弄特权的操作曝光出来后;让人们震惊而又生气,事情却又如泥牛入海,无半点回应之后……你说变好,我只想笑。

一个简单至极的逻辑:只一味的说某件事是假的、某个人的身份也是假的,却又三缄其口始终不肯讲讲“什么是真的”,或“假在哪里”。如果这也叫辟谣,那么法庭上还需要呈堂证供干什么。

你直接对犯人洗脱罪名的说辞辟谣不就好了?

其实大部分人都知道,心里更是很清楚,这只是那些记既得利益的群体在为自己的子女们互相交换资源。这一点也不难理解,就像网上那个段子一样:

儿子说,我长大后也要当院士。父亲笑了笑摸着儿子的头满脸溺爱:你已经是了,你只需要长大。

另一点,当这样的勾当说出来,人们的第一反应是冷笑,而不是惊呼和卧槽,而不是难以置信……那便已经是种失望麻木的态度了。

img

早上百无聊赖的划手机,看到上面这条海南一教育局长“靠教育吃教育”的新闻,说她不止收礼收钱,更是到了让“下属”跨省帮自己女儿办婚礼的程度。

连一秒钟的犹豫都没有,直接划过去了。现在想起来便觉得很惊讶,因为自身开始对这类事件习以为常,甚至麻木。在这种现状下,你来跟我说什么坚信、正义、未来之类,只回以白眼而无一句QNMD的问候,那是我已然为数不多的耐心和素质。

各位,这已经是荒唐的让人无法置评的事情了,可讽刺的是,人们正在对此失去兴趣。

img

如果说一个教育局局长,通过关系给自己及亲友的子女们开后门,是荒诞。那当一个教育局局长的手,可以通过各种交换、同僚关系、甚至威胁逼迫,插手到其他部门,或是在其他方面为自己以及自己的后代谋取利益……“荒诞”已无立足之地,它不配。

当然,“荒诞”都无立锥之地了,普通人和他们的子女自然更没有。

可如此天方夜谭的画面,大部分观众都会如我一般,轻飘飘的划过。

为何“轻飘飘”?因为,多大点事儿嘛;因为,不过如此!

可怕的是,有的人、有的现象,正在制造更多这种“轻飘飘”的画面,正在让更多的普通人,进入到对此无力之后,不再置评的状态中。然后继续添砖加瓦,造他们自己的天堂。

在“世说新语”里看到过引用的一句话,叫“上品无寒门,下品无士族”,说的是魏晋时期,只要出生在上等人家里,无论才能品行如何都能顺利做大官;反之,则再怎么努力,也希望渺茫。

没想到,作为千年之后从小听着“知识改变命运”这句话长大的人,如今看到千年前“下品无士族”这句话,依旧感触颇多。

知灼|震惊!史上最大规模医院“低级”学术造假曝光:30多篇论文称男性患子宫肌瘤,涉河南,山东,河北,福建,云南,辽宁等地……

By: elijah
5 May 2025 at 23:25

男性也能患子宫肌瘤、卵巢囊肿?

近日,网友“李大海说”向现代快报记者反映,他在知网检索发现,有30余篇医学论文内容荒诞、涉嫌学术造假,比如,在子宫肌瘤、卵巢囊肿、羊水栓塞等女性病相关论文中,居然出现了大量男性患者。

“问题论文”的作者分布在河南、河北、山东、福建等多个省份的医院,既有来自乡镇卫生院的,也有山东大学齐鲁医院、福建中医药大学附属人民医院、河南中医药大学第二附属医院等三甲医院。

img

据报道,5月4日,网友“李大海说”在网上公开爆料称,在一篇题为《针对性护理干预子宫肌瘤围手术期的情绪和生活质量临床应用效果》的论文中,作者列举了该院在1年中收治的55名男性子宫肌瘤患者。“我不太懂医学,但起码的常识还是有的。

男的长子宫肌瘤的前提是,他首先得有子宫吧。”据该网友反映,这篇论文发布在《实用妇科内分泌杂志(电子版)》,作者霍某某的任职单位是山东大学齐鲁医院妇科。

img

此前,“李大海说”就曾在其自媒体账号中多次爆料类似问题。

比如,在辽宁一家医院工作人员署名论文中,列举了115例男性宫颈癌患者;

云南普洱一医院工作人员在论文中列举出25例男性卵巢癌患者;

河北宁晋县一医院工作人员在论文中列举了46例男性产妇出血的例子……

img

一次偶然机会,他在知网搜索栏中写入子宫肌瘤、男性患者等关键词后,居然真的查出了有男性患子宫肌瘤的相关论文。

此后,他又尝试搜索产妇出血、卵巢囊肿等女性特有病症,没想到检索结果都显示有论文列举了男性患者。

img

5月3日——5日间,“李大海说”先后向现代快报记者提供了30多篇问题论文,而记者通过知网针对其中部分内容进行了核查,证实了该网友的说法。

img

另据极目新闻的报道,涉事的山东大学齐鲁医院今日发布情况说明称:

经核查,网传论文存在学术不端问题。医院依规依纪给予护士霍某某记过处分、降级处理,取消其五年内各类晋级晋升等资格。

实际上,医院被曝大范围造假,已经不是首次。

2021年9月17日,国家卫健委就曾公开通报山东济宁市第一人民医院大范围的学术造假问题。

img

根据通报,仅仅该院,3个月内共查处案件283起,在合计医生277人次、副护士长6人次被通报处理。

值得一提的是,国家卫健委此次共通报了13批学术造假处理结果, 山东济宁市第一人民医院出现在其中的8批通报里。

也就是说还有12个批次学术造假问题被发现。

img

当年8月份通报的另外10起学术论文造假、科研失信案件涉及医院和医生分别是:

河北省邢台市人民医院王晓贞为通讯作者,谢瑾为第一作者发表的论文造假;

吉林省吉林市中心医院刘播论文造假;

CDT 档案卡
标题:震惊!史上最大规模医院“低级”学术造假曝光:30多篇论文称男性患子宫肌瘤,涉河南,山东,河北,福建,云南,辽宁等地
作者:知灼
发表日期:2025.5.5
来源:微信公众号“知灼”
主题归类:学术造假
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

黑龙江省大庆市人民医院宋述清为通讯作者、宿鹏飞为第一作者发表的论文造假;

黑龙江省医院崔荣为通讯作者、张姝为第一作者发表的论文造假;

江苏省常州市第一人民医院孙晋亮论文造假;

安徽省合肥市第一人民医院原职工杜方超论文造假;

河南省周口市中心医院柳玉霞作为通讯作者/第一作者、河南大学淮河医院张艳为第二作者发表的论文造假;

广西壮族自治区百色市人民医院陆文忠为通讯作者、韦西江为第一作者发表的论文造假;

重庆大学附属三峡医院代宏论文造假;

陕西省第四人民医院张梅论文造假。

值得一提的是,其中,百色市人民医院对共有陆文忠(通讯作者)、李新武(第二作者)、陆吉利(第三作者)、梁俊卿(第五作者)、对韦尚兵(第六作者)等人卷入造假。

另外重庆大学附属三峡医院有王春梅、余志海、何东林、余昆、刘银、王胜6名参与作者卷入造假。

根据公开可查资料,上述人员之前这次被查到和曝光的学术造假的冰山一角。

历史押韵|董小姐已经上不了热搜了

By: elijah
5 May 2025 at 23:16

今天看了一下微博热搜,已经没有董小姐和协和等话题的热搜了。

img

要知道前两天热搜榜上,前五十个话题,有一大半都是她引起的。

img

上不了热搜,不代表大家没有讨论。网友还在发掘。

比如网友找到了董小姐在纽约的豪宅,价值1200万,全款,每年房产税都要交几十万。

img

还有人扒出了她毕业典礼上的视频,那个时候看上去还自然点,不像现在,一脸科技,有点整残了的感觉。

img

那么问题来了,她从高中就在美国留学,每年的开销很大,现在又爆出买了1200万+的房产,她哪来这么多钱?

国企老总的爹,高校副院长的妈,有这么多钱吗?即使有这么多钱,又是怎么绕过每年5万美元的外汇管制?

我想起了大明王朝电视剧里杨金水的台词:有些事不上称没有四两,上了称一千斤也打不住。

顺着这个思路捋捋,说不定还有意外收获。

看到她家随随便便一千多万在纽约繁华地段买房,我想起了北极鲶鱼,炫富说自己家里九位数。只不过北极鲶鱼是跑到澳大利亚不回来了。

我感觉董小姐就是回游版的北极鲶鱼,犹如北极鲑鱼。

CDT 档案卡
标题:董小姐已经上不了热搜了
作者:徐鹏1
发表日期:2025.5.5
来源:微信公众号“历史押韵”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

还有董袭莹的工作单位也从北京肿瘤医院变更到廊坊分院,廊坊人民有福了。工作单位的变化也在一瞬间。这是为了迎接调查吗?

她生完孩子还会再回来吗?虽然现在卫健委的调查报告还没出来,但这件事闹得挺大,她还能按照之前的规划路径走吗?估计很难。我觉得他们家肯定会改变策略了。

说不定就会走北极鲶鱼的路,不回来了。

现在,微博上一个热搜也没有,估计等到五一假期结束,新的热点上来,这件事也就过去了。

卫健委可能会处理肖飞和董小姐,至于其他人,就不好说了。

看到这个新闻,我总能联想到铁链女。当时全网热议铁链女时,还发现了趴地女,铁笼女,等等,最后调查了好久,也只说了铁链女,处理了一个姓董的,其他人都没有提。

而这次,当我们深扒董小姐时,又发现了咸小姐,韩小姐,金公子,蒋小姐,邱小姐等等,估计最后调查也只会说肖飞,再处理一个姓董的。其他人也不会提。

估计只会围绕这件事,不会扩大范围。

可如果不仔细调查这么多年协和4+4培养的医生,以后去医院,医生和患者都要有检查毕业证的默契。是5+3+3还是4+4?

本来现在医患关系就紧张,现在大家都知道医生队伍里有人滥竽充数,知道水货会害人性命,但却不知道具体是谁,看病时,心里能不慌吗?

这不是一颗耗子屎坏了一锅粥吗?

我想起一个段子,说一高校开学典礼上校长说:为了保护艾滋病人的上学权利,今年招了五个艾滋病人,为了保护隐私,姓名保密。那之后,学生们人人自危都不敢谈恋爱。

还是希望卫健委能把这些问题都调查清楚,并向社会公布。

Yesterday — 5 May 2025中国数字时代

西坡原创|除了四加四这个梗,什么都不会留下

5 May 2025 at 19:46

file

文|西坡

看到“四加四”已经变成一个可玩可笑的梗,早晨起来,写这么一篇。我并没有感到意外,这其实正是我一开始就没怎么参与的原因。

我实在不愿意做这样的“大聪明”,就像有人在孩子刚出生的时候,预言说他早晚都会死的。

假如有人把这个重要的道理在别处讲过,那么我宁愿缄默不语,但我没有看见:

愤怒是一个社会的稀缺资源,像金子一样宝贵。而且若不加以善待,怒气可能会化为毒气,笼罩在大地上,久久不散。

这些年来,我已经见过太多次愤怒被堵塞、被滥用的情况。眼下,甚至出现了非常成熟的愤怒收割链条,一座座风车架设在愤怒常经过的路口,整个社会的元气转化为私家的流量与利益。而我眼睁睁看着,束手无策。

CDT 档案卡
标题:除了四加四这个梗,什么都不会留下
作者:西坡
发表日期:2025.5.5
来源:微信公众号“西坡原创”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

像我一样经历过思索过一些事情的朋友,很容易明白我在说什么。但此间事不足为外人道也,对于那些没经历没思索过的人,我又能说什么呢?我有什么权利阻止别人的愤怒呢?

“物不得其平则鸣:草木之无声,风挠之鸣。水之无声,风荡之鸣。”我怎能拦得住风,我又怎能拦得住草木和水?

那些事情出来,心中有常识与常理的人,岂有不愤怒之理?但是这些愤怒最终会转化成什么,并不难得知。

原理是这样的:除非以恰当的方式,提出恰当的问题,否则一切声音都会归于喧嚣,一切喧嚣都会寂寞。这就是议程的重要性。

此时此刻,我看不见有效议程被提出的可能性。

我们面对的,是一个严重去结构化的舆论场。气旋起而又落,落而又起,但它永难促成有形的事业,因为它都难以维持自身的稳定存续。

几年前当我一开始意识到这个现象,以及它的根深蒂固之时,我恰好读到阮籍的《咏怀诗》:

夜中不能寐,起坐弹鸣琴。

薄帷鉴明月,清风吹我襟。

孤鸿号外野,翔鸟鸣北林。

徘徊将何见?忧思独伤心。

我听到的是天地闭合之后,一个独自思索着的人的哀鸣,他还无法忘记过去的记忆,却更加看不到前方的道路。只有弹琴,看月,吹风,听鸟,徘徊,忧思。

我还写过另外一篇“大聪明”话,我说现在“到处是低水平大乱斗”,这种牢骚是不值一钱的,但我做了一点界定,是可供参考的:

“大乱斗和公共讨论的区别在于,有没有框架意识,能不能分层地处理现实。厘清这一点,对于我们挺过垃圾时间至关重要。”

“这些人都在努力运用他们的知识和经验来处理眼前的现实,但他们的理性只是水面上薄薄的一层油污,没有任何深度可言。因为没有框架的约束,一件具有偶然性质的小事,就可以从每一个角度抽出一根细长的丝线,到天边,到海边,到宇宙尽头。”

我这几年写了很多只可为“此间人”理解,外人觉得莫名其妙不知所云的文章,但我认为我是做了一点熵减的工作的。我等待着我的所有“大聪明”被证否,被涤荡,被扫入垃圾堆的那一天。真到了那一天,没有人会比我更高兴。

但是在那一天到来之前,我宁愿我的朋友把注意力收回到自己身上。暂时接受不可改变的,致力于仍然可以改变的,或许这是现阶段最不坏的生存方式。

每一场声势浩大的浪潮,最后只能在公共记忆里留下一两个梗。而对于每一个具体的参与者来说,那些宝贵的情绪和情感,最终又会变成自己身上的什么东西,我不忍细想。因错付而生虚无,怨气旁溢,迁怒成为习惯,大概是难以避免的。

在承认现状的同时,还有什么是可以做、值得做的?在我看来,最重要的莫过于保存我们的理智与情感。不是在个体中保存,而是在群体中保存。

曾国藩在创办湘军之初,天下糜烂,到处危急,曾国藩却坚持认为:“剑戟不利,不可以断割;毛羽不丰,不可以高飞。若仓皇一出,比于辽东自诩之豕,又同灞上儿戏之师,则徒见笑大方耳。必须练百金精强之卒,制十分坚致之械,转战数年,曾无馁志,乃可出而一试。”

我还记得历史学家吕思勉先生的提醒:“当国家社会遭遇大变局之时,即系人们当潜心于学术之际,因为变局的来临,非由向来应付的错误,即因环境的急变……所以时局愈艰难,人们所研究的问题,反愈接近于根本。”

公共舆论何至于今天这种无议程、无结构的局面,是值得深思的。我倒不是主张退到山里去思考,我们可以以每一个对话框为试验田,一边实践一边思考,看到底是什么破坏了人与人之间的丝线,又该如何把它们重新联结起来。

学问批判|对于协和“4+4”出现的问题,难道不应该追究政府有关部门的责任?

5 May 2025 at 17:46

file

这些天协和“4+4”培养模式是否公平的讨论在网上沸沸扬扬。前几天有朋友转发“五问舆论漩涡中的“协和‘4+4’模式”:是否公平,如何合格?”一文给我,问我怎么看?今天又看到有人转发"天!上海交大4+4更吓人”,虽然文章里说的事情我无法查实,但我觉得这个问题确实有深究的必要。

网上查得“4+4”医学生培养模式源于美国医学院学制。美国的医学院招生基本只针对已有学士学位的本科毕业生。录取后经过4年医学教育授予医学博士学位(M.D.)。

乍一看,协和的“4+4”医学生培养模式好像跟美国的很相似。不过,美国本科生如果想参加医学院学习必须通过专门的医学研究生院入学考试(Medical College Admission Test/MCAT)。这项考试不是由录取学校而是由美国医学院协会(Association of American Medical Colleges)主办的。然而,根据网上相关文章的介绍,国内“4+4”项目的考试是由医学院自行组织录取的。

虽然不能说医学院自行组织考试就一定涉及作弊和腐败,但相比较国家层面的考试,自行组织考试在防止作弊和腐败方面显然要差很多。

CDT 档案卡
标题:填入标题
作者:曲卫国
发表日期:2025.5.5
来源:微信公众号“学问批判”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

美国除了要通过MCAT以外,有介绍材料说,在美国获取医学博士学位后学生还要经过3-7年的规培,在取得医师执照后才能正式行医。协和有这方面的严格规定吗?如果有,为什么会出现以下这这些情况呢?

“董某莹从哥伦比亚大学巴纳德学院,与公众眼中“藤校”哥大含金量有别。主修经济学的董某莹回国后转为学医,2019年,她通过选拔进入了北京协和医学院“4+4临床医学试点班”项目,仅用4年取得医学博士学位,并以1年时间完成原本需要3年的住院医师规范化培训(规培)。”

网上还看到有报道说董某在2021年11月5日在北京市第六医院医联体胸外手术室在团队写作中展开荧光腔镜精准肺段手术。2019年入学,2021年应该还没有毕业,在没有拿到医学学位的情况下她竟然能做手术?

据此,我认为所揭示的问题应该与4+4培养模式本身的好坏关系不大,关键是该项目没有保证其公平、正常运转的实施制度和监督制度。协和问题的关键不是肖某和董某能耐,而是我们没有预防和阻止肖某和董某能耐发挥的体制机制。

“五问”这篇文章一开始就说:“国家卫生健康委新闻发言人表示,已成立调查组,坚持实事求是、客观公正原则,联合有关方面进行认真调查核查,对发现的违法违规问题将依法依纪严肃处理” 。

不太清楚卫健委的调查组在查什么,但不可思议的是,这次肖某问题被揭发,多少有点巧合。如果不是肖某个人生活出了问题,大概他今天还逍遥自在。

我认为除了追究肖某和董某的责任外,更要查为什么肖某和董某的问题,协和的有关部门不能察觉?为什么他的违规行为一直处于无监管状态?当然,最应该追究的是教育部,要查教育部为什么在明知没有任何制度保障的情况下就批准协和等医学院实施“4+4”项目?教育部的失察失职难道不是问题的根本原因之所在吗?

中国的许多问题,甚至可以说大多数问题的出现,其责任未必完全在具体实施单位。虽然具体实施人员公然践踏法律和道德准则确实应该被追究相应的责任,但更应该追究的是在项目实施的条件不成熟、缺乏基本的制度性保障情况下就批准这些项目的政府部门的责任。

我之所以剑指教育部,是因为我还想到了外语专业的危机讨论,想到了教育部推出的研究生扩招、提升教师学历等许多项目。现在的讨论几乎把问题都归咎于外语专业和具体学校。可如果没有当时教育部的官员无视外语专业的学科特性和基本的本科教育规律,盲目大量扩建和扩招,在许多不具学科专业条件的工科、专科学校里建起了外语专业院系,人为造成了市场供需失衡,外语专业的危机会这么严重?外语专业出现的问题和研究生质量问题难道与教育部不负责任的决策无关?

当然,更严重的是即便有监督机制,承担监督责任的政府部门也未必履职。我想到了3.15,被央视打假的伪劣商品都横行有些年月,但打假时却不见对应该承担体制性责任的工商局等政府部门有任何的追究;被抓的贪官横行霸道有相当时辰,有相当一部分官员是带病提拔的,反贪却不见追究承担审查、监督责任的组织部门的责任!

肖某的问题当然必须追究,但如果不追究政府主管部门的责任,不解决体制性问题,一个肖某倒下了,还会有更多的肖某站起来。

2025/5/4

【404文库】新浪财经|AI回答:董袭莹牵扯涉及4+4项目违规的人员

5 May 2025 at 19:06

小编通过腾讯元宝询问:“”董袭莹牵扯涉及4+4项目违规的人员”。

AI回答,根据搜索结果,董袭莹事件牵扯出的协和医学院“4+4”项目特权受益者主要包括以下人员:

CDT 档案卡
标题:AI回答:董袭莹牵扯涉及4+4项目违规的人员
作者:新浪财经
发表日期:2025.5.5
来源:新浪财经
主题归类:协和4+4
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

一、已确认的“4+4”项目学生

咸晓梦。初中通过剪纸特长进入名校,后考入复旦大学经济管理专业,再通过协和“4+4”项目获得医学博士学位。其学术能力与医学专业跨度引发质疑 。

盛玺澄。复旦大学经济管理专业背景,通过“4+4”项目进入协和,两年完成医学理论学习和临床轮转,23岁获得博士学位。其培养周期远短于传统医学生 。

韩佳澍。15岁留学多伦多,擅长小提琴并加入协和演奏团,19岁进入协和医学院,23岁完成“4+4”项目。其艺术特长与医学专业关联性存疑 。

金山木。地质专业背景,2019年赴欧洲“地质考察”,2020年通过“4+4”项目进入协和神经外科,博士论文正文仅12页,学术质量遭质疑。其博士后录用信息与官网公示存在矛盾 。

二、疑似特权关联人员

邱贵兴院士家族成员。网友推测协和“4+4”项目2020级名单中两名邱姓女生可能为院士孙女,但未获官方证实 。

file

蒋德利娜亲属。蒋德利娜(非“4+4”学生)同父异母妹妹为演员蒋依依,其家族资源或对蒋德利娜进入协和导医岗位产生影响,但未直接涉及“4+4”项目 。

三、系统性特权特征

家庭背景:35%的“4+4”学生家长为厅局级以上干部,远超传统医学专业比例(2.1%) 。

学术造假:部分学生论文篇幅异常(如正文仅12页),且存在挂名导师、违规缩短轮转期等问题 。

录取漏洞:部分学生未满足“4+4”项目要求的医学预科课程(如生物、化学学分不足),却通过特殊渠道入学 。

四、舆论争议焦点

公众质疑“4+4”模式沦为权贵阶层“直通车”,例如:

艺术特长生、经济学背景学生快速获得医学博士学位,挤占传统医学生资源;

临床轮转期被压缩至1年,规培质量难以保障;

入学选拔透明度低,存在“特殊关系”操作空间 。

以上信息综合自网络爆料及官方公示矛盾点,具体人员身份需以协和医学院最终调查结果为准。

5月1日,国家卫生健康委新闻发言人表示,近日,我委关注到中日友好医院胸外科肖某被举报所引发的相关舆情。我委已成立调查组,坚持实事求是、客观公正原则,联合有关方面对事件涉及的肖某、董某及有关机构等进行认真调查核查,对发现的违法违规问题将依法依纪严肃处理。

以上信息供调查组参考。

【CDT周报】第217期:患者:我是托关系进的医院,医生:我也是

5 May 2025 at 14:23

上期周报:【CDT周报】第216期:如果看不懂那谁谁,就去研究一下董明珠

过去两周中国数字时代【404文库】新增文章6篇,【每日一语】新增网语5条,【大事记】收录热点事件2件,刊登读者投稿3篇,投稿请点此

编者的话:

4月26日—5月3日,这一周。

北京中日友好医院胸外科副主任医师肖飞,被妻子谷某实名举报婚内出轨,谷某在一份九页的实名举报信中写道“肖飞在五年内出轨护士、护士长、医师等四人,还导致其中有人多次怀孕、堕胎。”举报信中还列举了一个严重违反执业规范的事件——肖飞和董袭莹医师(谷某指控的肖飞出轨对象之一)曾在手术过程中与护士发生冲突,期间肖飞不顾患者安危,离开手术室长达40分钟,险些酿成严重后果。4月27日,微博上“中日友好医院肖飞”的话题迅速登上热搜。因中日友好医院最终发文证实,肖某确实违反了生活纪律和医德医风,医院决定开除其党籍并解聘。之后,肖飞公开回应承认自己私德有亏,但对“术中离开患者40分钟”一事提供了不同说法。

img

然而,这起桃色新闻却开始走向了让人意想不到的方向…..有网友检索发现,举报信中提及的董袭莹医师拥有“传奇经历”——她本科毕业于哥伦比亚大学巴纳德学院(经济学专业),后进入了北京协和医学院“4+4临床医学试点班”项目,回国学医2年就参与四级手术,仅用4年时间就拿下医学博士学位,“弯道超车”完成了别人需10年才能结束的医学教育。对此,有不少医生感叹自己“信仰崩塌了,从医那么多年,才知道5+5+3小于4+4”。更神奇的是,董袭莹还多次医学“跨界”,学位是内科,规培在胸外科,工作定在泌尿外科,毕业论文的选题是影像学。并且还有网友指出,董袭莹的毕业论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。总之,很少有像董袭莹这样的人物,能同时涉及“教育公平、医患信任、婚姻忠诚、阶层固化和学术腐败”五大社会问题。

img

之后,网友们再度将一个医学教育关键词——“协和4+4”顶上了热搜,它指的是北京协和医院于2018年推出的教学改革项目,尝试通过“4年非医学专业教育+4年医学教育”的方式培养所谓的“复合型人才”。但有网友指出,“协和4+4”看似是从西方取经(据称参考了美国医学院培养制度),实则具有很多中国特色,国际上培养人才的有效渠道,在这里却变成了捷径….例如五项考试有三项都对外保密(北京青年报报道),也未曾听闻有“4+4”试点班的学生被淘汰(南方都市报报道),在透明度、规范度方面严重不足(目前连招生简章页面都无法打开),而这可能是它沦为“特别通道”的原因。还有网友嘲讽,“前几天,一位董大姐告诉我们‘海归很危险’。几天后,另一位董小姐现身说法‘海归,确实很危险’,危险的不是间谍问题,而是一种婆罗门化的萝卜机制。它无时无刻不在提醒普通人,请接受现实、停止想象”。

file

还有网友指出了另一种残酷现实,那就是董袭莹的家庭可能的确“善于钻营、极度利己、权力滥用、没有道德”,从小给她预制了一条最终成为医生的道路,而她的家庭或许还真的算不上婆罗门权贵,因为真正的权贵能在事发之前就开启404密码,并且能够以小学生的水平指引整个国家方向。但无论如何,董袭莹事件还是凸显出人们本应最信任的医疗场所,其实早已是千疮百孔、问题重重,一个流行网络段子就诠释了这种系统性的塌方腐败——“患者:我是托关系进的医院。 医生:我也是。 医疗器械:好巧我也是。 药品:原来大家都是啊!”随着董袭莹的大火,很多网友又扒出了“协和4+4”的更多问题,例如一位名叫盛玺澄的学生,她同时带有艺体特长生、高校自主招生、本科学捷克语、经管系毕业等标签,最后顺利进入协和医学院4+4,其国内版本的学医路径也相当令人生疑。如此看来,人们真应该感谢谷女士(肖飞妻子)、董小姐掀开了天宫一角,让这片土地上自古以来、根深蒂固的常态显露——无数人用手中或多或少的权力供下一代作弊。

img

另外,眼光独到的网友发现,事件中最悲惨的角色莫过于董小姐大发雷霆、肖医生中途离场后,那位仍躺在手术台上、被麻醉的病人。ta当时躺在病床上根本不知道自己可能死去,整个生命被极端漠视、被一些荒谬的事情所左右,这种无助像极了许多突遭横祸毫无准备的人,比如无差别袭击受害者。这种状态,实则比牛马人矿自觉,最后一代绝育更加悲惨,因为随时可能“死于随机”,并且对于原因一无所知。而ta至今没有发声,在微博话题“肖飞手术离场40分钟属于什么性质”下方,不少网友呼吁吊销其执业证书还那位病人一个公道。如今,国家卫健委已宣布就肖某董某事件成立调查组,但似乎很多人已经对这种“虽迟但到”的把戏已没什么耐心了,有一位网友直白评论道:“连医院这种可以主导一个人生死的地方也开始有二代崭露头角了,太吓人了……六朝旧事就要来了。”还有两位网友为封禁悟空、哪吒指明了思路——“今日欢呼孙大圣,只缘妖雾又重来”、“乾坤圈转乾坤变,朱门翠宇化飞烟”。

img

一周荐读:

2025年4月,中国数字时代搜集整理了过去一个月(2025.3.28—2025.4.28)期间反映国内热点事件的网络视频,以时间为序进行混剪制作了本月月度视频——《四月之声(2025)》。

2024年全球至少有375名作家因写作或表达自由而被监禁,而中国有118名作家遭到监禁,连续六年成为全球最大监狱。报告指出,全球被监禁作家人数连续第六年增长。2024年总人数相较2023年增加了36人,创下该指数自2019年设立以来的最高纪录。

在一审最后陈述中,王建兵表示:“我的本意不是去推翻政府,而是希望通过自己的努力,让一些人更加自由,社会更加平等和美好。”而黄雪琴表示:“作为一名记者,我做不到保持沉默。我也知道自己不安全,迟早有一天会面对这样的状况,但需要承担的后果,我愿意承担”。

一周关注:

现在自媒体都说董小姐出生于京城婆罗门或权贵家庭……其实董小姐家庭在北京不过是上中产,她的丝滑人生,不是靠特权,她这级别家庭没有什么特权,而是靠“人生自我努力”、精明钻营,以及没有道德羞耻感。

特权的版本,如今已经升级了。光是使用特权本身已没有快感了,只有揉捏、折辱不识相的阻挠者,“建议你们向董大夫学习”,才有足够的快感。普通人其实已经很接受现实了,他们只是希望你们的吃相好看一点。但在肖飞这些人看来,吃相好看,那还不如不吃。

最近,京东高调强势杀入外卖市场,京(东)(美)团大战如火如荼。消费者在盘算着,新进的鲶鱼有没有让我的外卖价格下降,速度上升,质量更有保证;骑手们在权衡着,刘强东的高调社保宣言是否确实提升了自己的真实总体福利。另一竞争对手饿了么,则除了策划送小龙虾活动(寓意虾[瞎]搞)之外,没有任何动作。

一周惊奇:

《哪吒2》的150亿+表现惊动了全世界,另一边当下的市场大盘却处于最为冰冷的时期,这种极致的割裂也是从未有过的。尤其是后春节档时期,相继经历了清明档倒退55%,工作日连续下探1000万+的绝境,更可怕的是接下来的五一档丝毫没有回暖的迹象。整个4月份的电影市场,已经处在了历史的低位。

一周讽刺:

商务部昨日表示,美方近期通过相关方面多次主动向中方传递信息,希望与中方谈起来。对此,中方正在进行评估。在一些人看来,谈判就是「跪」。按他们的逻辑,美帝这次一定跪了。秦始皇又摸电门了。但说实话,正如家传编辑部一位读者留言:若有利于国民,跪一下又何妨呢?勾践当年还为吴王夫差尝便呢。

新修订的《婚姻登记条例》即将在5月1日生效。这意味着,结婚登记和离婚登记都不再需要户口簿。但由于离婚冷静期等诸多限制,即便不需要户口本,离婚也并没有那么容易。“结婚免密支付,离婚拼多多砍一刀。”有网友调侃。

一周声音:

今天是五一国际劳动节,在此向奋斗在各个领域、各条战线中的姐妹们致以节日的祝贺和崇高的敬意!五一劳动节并非一个只是“歌颂”劳动者的节日,而是一个纪念劳动者所做过的抗争的节日。

那些叫嚣”取消英语”的愚昧,那些沉醉”市场规模”的虚妄,那些迷信”信息管控”的短视,终将被证明是文明进程中的逆流。我们是否该反思:困守1.3%的信息孤岛,真的能孕育出引领人类文明的力量吗?答案,早已写在谷歌853亿月访问量的星辰大海里。

最近四个月呼吁提高农民基础养老金问题,一共写了十多篇文章,做了十期视频,一个深切感受就是:有很多所有人都该知道的常识不为人所知。如果大多数人都知道了这些常识,我相信“要不要大幅度提高农民基础养老金”,“哪有这个钱”等问题都不会再有争议了。请大家帮忙转发传播。

一周故事:

27年来,温从文确认身份的路始终卡在起点。两岁那年,他父亲入狱,母亲出走。六年后,因出狱后的父亲不配合办理户籍,温从文成为一名“黑户”。被剥夺身份后,温从文也开始逐步丧失精神的归属。逃离暴力的父亲后,他在家族和村庄中无处可去。进入社会后,没有户口的他又在各个场合碰壁。

文件显示,会泽县2016年严重精神障碍患者筛查工作2016年8月8日开始,筛查工作由会泽县人民医院精神科具体负责实施……筛查工作指标为严重精神障碍患者确诊率必须达到辖区总人口的4.5‰以上;严重精神障碍患者社区服药率必须达到25%以上;严重精神障碍风险评估率需达100%。

风声OPINION|超时不再罚款,外卖时间会不会受影响?

By: unknown
5 May 2025 at 10:16
CDT 档案卡
标题:超时不再罚款,外卖时间会不会受影响?
作者:贾拥民
发表日期:2025.5.3
来源:风声OPINION
主题归类:外卖骑手
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

4月25日,饿了么宣布与骑手代表正式签订《2025 年度“饿了么”(上海)网约配送算法和劳动规则协议》。其中特别提到,逐步推进取消超时扣款处罚。

今年2月,媒体报道美团在广西部分城市正式上线“超时免罚”试点,将众包骑手的超时扣款改为积分制度。

取消外卖骑手超时罚款已经是大势所趋。但这种变化将会如何影响骑手行为和消费者体验,需要深入分析。

超时一般不能怪骑手,是其他环节导致的

这可以说是“算法向善”之举,目的是回应社会呼声,让骑手可以在路上“走得慢一些”,以保障更安全。

“超时免罚”的核心,是将原先单一的超时罚款制度转变为一个“积分制+容错率+投诉联动”的复合体系。

首先,骑手准时送达外卖订单,可以获得积分,在极端高峰期、恶劣天气等特殊时段里,骑手送餐可以得到奖励积分,并且对新手启动积分保护机制,确保“新手期”的骑手不会接到难度大、易超时的订单。当然,骑手因超时会被扣分。此外,如果骑手积分过低(以至于无法接单),那么还可以通过参加线上或线下的辅助培训恢复积分。

其次,引入“超时单率容错阈值”,例如每跑1000单,就允许3单超时。

再次,即便超时,如果客户表示认可,没有提出投诉,那么仍然可以免责。

除了取消超时罚款之外,美团还成立了“算法顾问委员会”,由法学、社会学等领域专家组成,并通过季度恳谈会吸纳骑手、商家与用户意见,纳入平台的算法。

至少从表面上看,将超时罚款制度改为积分制度,意味着从负向处罚转为正向激励,这当然是管理手段从刚到柔的转变,也是算法向善的一个表现,对于保障骑手安全,引导骑手提高服务质量,可能是有益的。

更重要的一点是,正如许多骑手都强调的,超时并不只是“骑手在路上花了太多时间”所导致的。事实上,超时的最主要的原因往往不在骑手身上。

从客户下单到商家备餐,再到骑手取餐送餐,这个过程中涉及的每一个环节都可能会耗费额外的时间,例如取餐点分散、卡餐、进不了小区、电梯拥挤,等等。超时罚款制度,几乎将超时的全部责任都压在骑手身上,确实存在有失公平的嫌疑。

有人还指出,外卖服务的消费体验并不应该单纯依靠“快”来支撑,只一味追求“快”反而掩盖了服务水平的多元维度。

外卖食品安全、餐品的完整度和骑手的有效沟通,同样是消费者在意的评价指标,而这些仅靠超时罚款是无法做到的。这种观点也是有一定道理的。

“超时免罚”现在似乎成了美团、饿了么保障骑手的劳动者权益,并把这方面的美誉度作为平台获取客户、提高竞争力的重要手段之一。尽管这也可能是迫于现实压力的举措,因为在去年,有关部门开展了“清朗·网络平台算法典型问题治理”专项行动,提出了算法导向正确、公平公正、公开透明、自主可控、责任落实等一系列要求。

关键的考验是,这种改变是不是能够提高消费者的体验。请不要忘记,在外卖行业,消费者的核心体验至少在目前这个阶段来看依然是准时送达。如果“超时免罚”会导致骑手送餐变慢了,那么就可能无法维持下去。

“超时免罚”可能会损害“想卷的骑手”的利益

有人认为,从超时罚款改为“超时免罚”反而会促进骑手更加准时送餐,原因是,“总部”会额外给钱,骑手的准时率越高,积分就越高,获得的额外奖励额度也就越高。

确实,以前准时送餐没有奖励,现在变成有奖励了,不是可以促使骑手更加努力地去追求准时送餐吗?

其实没有这么简单。

从原则上说,骑手是愿意努力用尽可能短的时间送餐的,因为这样他能获得更高的收入。但是“努力”这两个字本身就表明,他们这样做绝不是没有代价的。

正如许多人指出的,超时罚款对于保证外卖准时送达之所以特别有效,一个原因在于“损失厌恶”的心理倾向。

“损失厌恶”(loss aversion)指面对同等的损失和收益时,人们会感到损失带来的痛苦比收益带来的快乐更加强烈,因此更倾向于规避损失而不是争取收益。

诺贝尔经济学奖得主丹尼尔·卡尼曼和阿莫斯·特沃斯基等人的研究表明,损失带来的痛苦,至少是同等的收益带来的快乐的两倍。在超时罚款制度下,超时会导致本来可以获得的送餐收入遭受损失,使得骑手觉得特别可惜甚至痛苦,因此他们会努力去“抢时间”。

不难看出,在改为“超时免罚”之后,损失厌恶给骑手带来的这种驱动力基本上将不复存在。(由于超时会导致无法获得积分或被扣积分,而积分在一定意义上相当于钱,因此损失厌恶这种心理效应仍然会起到一定作用,但是与超时罚款时相比肯定会弱得多。)

因此,虽然有统计数据称,在2024年1至10月,美团外卖的总体超时率相当低,仅为0.75%左右,但这是超时罚款制度下的结果,改为超时免罚后,总体超时率是不是仍然可以保持在这么低的水平上,有待观察。

更重要的是,以往的经验已经证明,超时罚款是一个动态稳定的制度,而超时免罚则很可能是一个动态不稳定的制度。

这可以从三个角度来说:

第一个角度,超时罚款是封闭系统,外卖订单的结果可由算法确定,而超时免罚是开放过程,包含许多不可控因素。例如,若规定“客户不投诉则骑手超时免责”,不仅侵蚀了客户要求准时送达的基本权利,还需要户付出额外时间成本。骑手与客户的沟通过程中若出现争执,更可能损害平台声誉。此外,关于免责场景的认定也易产生争议。超时罚款制度的优势在于,用统一算法化解了这些时间成本、沟通成本和权利界定成本。

第二个角度,每个外卖订单涉及平台、商户、骑手和客户四方关系,这些方面都可能产生冲突。超时罚款制度将四方冲突简化为平台与骑手间的冲突,客户和商家则可以作为“大数据”被算法处理,实现了成功地降维。让客户重新介入意味着升维,这不仅是技术上的倒退,还会增加算法开发难度。

第三个角度,就骑手间互动而言,超时免罚可能导致“劣币驱逐良币”。准时送餐需要付出努力,而部分骑手可能不愿付出。超时免罚对这类骑手约束力较弱,他们会影响整体送餐效率。平台不得不将部分订单转给努力的骑手,而这些骑手可能无法承接更多订单,最终导致他们的绩效受到影响。在超时惩罚制度下,不努力的骑手对努力的骑手影响较小,但超时免罚制度下,不愿努力的骑手会影响整体效率。

因此,严格实施“超时免罚”制度在某种程度上会削弱平台的系统优势。

“超时免罚”实施效果如何,关键看用户体验

在美团等外卖平台出现之前,外卖业务也是存在的。例如,当金额达到了一定额度且距离较近时,有些餐厅可以提供送菜上门的,只是送餐速度通常很慢。

外卖行业是在美团、饿了么等外卖平台出现后才得到飞速发展的,关键因素就是许多人极力抨击的“算法”。由于成功地匹配了需求,外卖平台极大地降低了外卖的整体成本(主要体现在价格下降和等待时间减少这两方面),进而提高了客户可以获得的价值,放大了潜在消费需求并使之变成现实的消费行为。

很显然,这里需要形成一个“飞轮”——客户如果无法在较短的时间就可以吃到饭,那么就不会愿意支付配送费,或者干脆改回堂食或自己做饭,那样外卖业务就成了无源之水。

商家出餐、骑手送餐的效率如果不够高,那么能够送达的订单数量就会很少,骑手的收入就上不去,那样也就没有什么人愿意来当骑手。外卖订单数量上不去,商家也就没有能力提供价格低廉质量尚可的产品。

所以,最终的检验还是消费者的体验,或者说,能不能让客户觉得有性价比。

就外卖而言,除了价格之外,时间是性价比的关键要素。一个人既然决定吃外卖了,也就不会对“色香味”等方面有太高的期望,但对时间还是非常在乎的。点了外卖后,每多等一分钟,都是对客户的耐心的折磨,会严重影响性价比。

因此,上面这个“飞轮”也可能会倒转过来。一旦客户觉得不满意,开始减少外卖订单,到一定程度后就可能引发向下的正反馈,从而导致风险。不过,从目前的情况来看,由于美团已经在多年的市场竞争中形成了强大的护城河,还看不到这个风险。

业内专家指出,外卖行业的壁垒要高于电商,因为外卖要求商家、用户和骑手三者都达到规模经济。

如前所述,要做到“快”,并不仅仅取决于骑手跑多快。从客户下单的那一秒开始,对算法、对平台的运营能力的考验就开始了——有足够多的商家入驻平台了吗?平台让商家做到自动接单了吗?平台帮助商家实现备餐流程的标准化、数据化了吗?平台是不是有骑手随时待命?平台能不能为骑手规划最优路线……任何一个环节都可能导致快不起来。

美团已经在外卖的整个链条上占据了巨大优势。它打败了饿了么、阻击了滴滴和抖音,就是证明。不过,万一美团面临其他真正的风险时(例如抖音收购饿了么并大打价格战?),这个“超时免罚”制度也有可能成为一个相当致命的因素。

刘夙的科技世界|这路遥马急的京城

By: unknown
5 May 2025 at 10:13
CDT 档案卡
标题:这路遥马急的京城
作者:刘夙的科技世界
发表日期:2025.5.3
来源:刘夙的科技世界
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

4月份的时候,我安排了“五一”长假期间去北京的出行计划。订票的时候,我还不知道中日友好医院的肖飞出轨案。这件事成为网络热点之后,我有感而发,遂作《这路遥马急的人间》一文。随后,我又重新查看了一下北京的行程,发觉可以抽出半天时间,去这一热点事件涉及的几个地方看看。我觉得这比去那些人人熟知的著名景点好玩多了。旅游的真谛,就是要发挥主动性,去自己想去、觉得有趣的地方,而不是被动地跟在别人屁股后面,去一大堆自己可能并不想去的热门景点。

于是我在地图上选定了5个地点,如下:

image

  1. 中日友好医院本部。这是故事开始的地方。肖飞本为该医院的胸外科副主任医师,因为屡次婚内出轨,其妻忍无可忍,向医院纪委写了举报信,最后导致肖飞在4月27日被院方开除党籍并解聘。他最后一次出轨的对象是董袭莹,当时也正在该医院参加住院医师规范化培训。

  2. 中冶建筑研究总院有限公司(简称中冶建研院)。董袭莹的父亲董晓辉,为该公司党委副书记、总经理。

  3. 北京科技大学本部。董袭莹的母亲米振莉,为该校工程技术研究院副院长。这个研究院实际上并不在本部,而是位于北科大的昌平创新园区,不过我时间有限,就不去那么远的地方了。

  4. 协和医学院和协和医院。前者是董袭莹的母校,她从美国留学归来后,被协和医学院的4+4学制试点班录取,并顺利获得医学博士学位。其导师为邱贵兴院士,是协和医院骨科的老主任;邱院士的得意弟子仉建国,则是骨科的现任主任。

  5. 中国医学科学院肿瘤医院。在北京是与北京大学肿瘤医院齐名的肿瘤专科医院,因为在老北京城东南方向,习惯上简称“东肿”(相应地,位于老北京城西边的北京大学肿瘤医院则简称“西肿”)。董袭莹从协和毕业后,即入职该医院泌尿外科,成为住院医师。直到4月29日,她的执业地点才发生变化,从北京市的本部改到了该医院位于河北省的廊坊院区。

我规划的路线是:东肿→协和医学院和协和医院→中日友好医院→中冶建研院→北京科技大学。5月3日早晨到达北京之后,我就立即踏上了这趟京城医学文化之旅。

第一站东肿,因为长假期间暂停门诊,显得颇为冷清。

image

门诊楼自然是进不去的,但我隔着窗玻璃,看到了几个介绍各科室出诊医生的电子公告屏,其中的泌尿外科出诊名单中,赫然有宋刚和管考鹏两位医生的名字。2022年,东肿副院长兼泌尿外科主任邢念增领衔编写了最新版的《膀胱癌诊疗指南》。2023年7月至2024年3月,该指南的英译版分三部分陆续在中国主办的英文期刊《精准泌尿学》(UroPrecision)上发表,改题为《膀胱癌临床实践指南》(Clinical practice guideline on bladder cancer),作为译者的董袭莹与宋刚、管考鹏并列为第一作者。

image

离开东肿,在北面的人卫大厦(人民卫生出版社所在地)前面,我忽然看到了一片马蔺(学名Iris lactea),花期还没过,仍有蓝紫色的花朵点缀在叶丛中。在董小姐的博士论文致谢中,她以这样一句话收尾:“这路遥马急的人间,你我平安喜乐就好。”而就在董小姐的工作地点附近不远处,便能找到一种带“马”字的植物,多巧!这算是我的专业知识带给我的旅行乐趣吧。

image

我乘坐84路公交车前往协和医学院。途中路过天坛公园,从公园东门瞥见了里面的祈年殿。网友发现,2007年的时候,年仅10岁的董袭莹曾经参加了新浪亲子组织的“体验艺术、采风北京”绘画活动,以迎接2008年北京夏季奥运会。董袭莹与大她两岁的另一位小朋友合作,完成了《采风天坛》线描画,其中画的就是祈年殿。

image

我毕竟不是记者,缺乏抓拍照片的敏锐本能。当我意识到我路过了董小姐曾经活动过的地方之后,公交车已经开过了天坛东门,祈年殿再也看不到了。但我很快发现,天坛公园高墙外这条路两边的绿化带里,种满了一种正在开蓝紫色花的观赏植物,居然又是马蔺。这回我马上抓拍了一张照片,聊胜于无吧。

image

到达协和医学院之后,我拍了古色古香的旧址大门照片。

image

又走到协和医院门诊楼,里面照常接诊(包括骨科),人还不少。

image

从协和医院东门出来,也没忘补一张门诊楼的正立面。

image

我没有在协和医学院和协和医院附近看到马蔺,但在门诊楼的南边,却碰到了一处精心布置的花境。

image

这时候,我的专业知识又发挥作用了,识别出其中采用了耧斗菜、高翠雀(大花飞燕草)、月季、天竺葵、蓝花鼠尾草、美人蕉、五彩苏、蓝目菊、四季海棠等花材,此外还有矮牵牛——虽然没有马,却有牛。

image

接下来,我仍然乘坐84路公交,前往第三站——中日友好医院。上车之后,乘车管理员提醒说:“国子监站不停。”虽然能够想到是因为游人太多,为了安全起见,公交只能临时甩站,但我有点纳闷:国子监有这么火吗?是因为高考在即,很多考生和家长去祈愿吗?直到公交开到国子监站附近,我才恍然大悟——原来那里乌泱乌泱的人流,其实是去雍和宫的!

image

中日友好医院在樱花园东街。

image

一下车,便又看到马蔺。

image

连医院围栏外都种了一大片。

image

我没想到,这种带“马”字的野花,现在已经得到了北京园林部门如此广泛的应用。仔细一想,也确实有道理。作为本土野生植物,马蔺耐寒、耐热、耐旱、耐盐碱,吸着机动车尾气而无怨无悔,每年春天还会绽放出美丽而精致的花朵,实在是再理想不过的城市绿化植物。

“五一”这几天,中日友好医院的急诊开着,但门诊关了。我想上门诊二楼去胸外科参观,被守在一楼电梯口的保安断然拒绝。没办法,只能到手术楼一楼看看。2024年7月,肖飞医生应该就是在这栋楼上情绪失控,冲着巡回护士大喊大叫,拉着董小姐径直离开手术室,结果把已经全麻的病人在手术台上撂了几十分钟。

image

告别中日友好医院,在前往中冶建研院的公交车上,我感觉自己已经颇有经验了,便预计一定也可以在附近找到马蔺。

中冶建研院在西土城路上。

image

所谓“土城”,就是元大都城的城墙遗存,“西土城”即西城墙的北段,现在连同北城墙(“北土城”)都已辟为元大都城垣遗址公园。在西土城路边,我没有看到马蔺,但猜测遗址公园里肯定有。我果然没猜错。

image

于是在前往最后一站北京科技大学时,我猜测的已经不是能不能看见马蔺,而是走多久就可以遇到马蔺了。事实比我最乐观的预计还乐观,因为就和中日友好医院的情况一样,一下车,路边就是马蔺。对于如此可歌可泣的植物,这次我索性一屁股坐在地上,以平视的视角拍摄它,背景嘛,自然就是北科大的正门。

image

北科大这个朝西的正门,我以前在北京求学期间就来过,因为门内有一尊高大的伟人塑像。

image

与北科大西门一路之隔的是中国地质大学东门,门内也有一尊高大的伟人塑像,两尊塑像呈面对面之势,这是海淀这片高教区的有趣“热知识”之一。董小姐的事件成为网上热点之后,网上出现一种声音,在愤慨之余,说终于明白当年伟人为什么要发动那场运动。我可以理解这种想法——在没有更多智识资源的时候,怀旧,就成为大众发泄对现实不满的最容易的方法之一。

到这里,我的京城医学文化之行就结束了。我对这趟参观很满意,甚至觉得超出了我的预想,因为马蔺和矮牵牛这两种“牛马”植物,完美地出现在每一个地点的高墙大门之外,成为我没有预料到的旅行主线。特别是马蔺,作为一种完美的象征,给我留下了极深的印象。正如一位知乎网友所说的:除了董小姐在博士论文里引用的那句“这路遥马急的人间,你我平安喜乐就好”之外,琼瑶也曾写过一句脍炙人口的歌词:“让我们红尘做伴,活得潇潇洒洒;策马奔腾,共享人世繁华。”而现在,他才明白歌词里的马是什么意思。

在这路遥马急的京城,看到这位知乎网友的评论,我笑出了声。

【404文库】中国日报|“中国人不怕,中国人能吃苦!”

By: unknown
5 May 2025 at 10:10
CDT 档案卡
标题:“中国人不怕,中国人能吃苦!”
作者:中国日报
发表日期:2025.4.19
来源:中国日报
主题归类:中美关税战
CDS收藏:真理馆
版权说明:本文引用或部分引用的作品,版权按照政府宣传材料和历史文件进行处理。详细版权说明

距美国政府正式发起关税战,已过去两个多星期。面对国内外的强烈反对声浪,特朗普的关税大棒一会儿举起,一会儿放下,试图逼迫相关国家通过谈判等方式向美国妥协,其“霸凌”本质也逐渐显现。

但美国“关税霸凌”的伎俩,在中国这却一脚踢到了钢板上!

4月16日,中国企业百观科技创始人吴冕卿(Robert Wu)在《纽约时报》撰文就指出了中国为何不怕美国的关税霸凌,并称特朗普政府误判了中国的韧性。

img

他在文中指出,特朗普面临的主要问题是,他和他的团队显然——而且是错误地——假设中国会不顾一切地维持对美国的出口,因此会屈服于他的意愿。

Mr. Trump’s main problem is that he and his team evidently — and wrongly — assumed China was so desperate to protect its exports to the United States that it would simply bend to his will.

文章指出,特朗普加征的高额关税以及中国采取的反制措施会对中国造成一定影响,但与特朗普第一任期相比,如今中国在某些方面已经有了更好的准备。

But China is in some respects better prepared today to hold its ground than it was during Mr. Trump’s first term.

吴冕卿在文中提到,中国一直在推行多元化出口策略,如今中国对美的出口占比已大幅降低。中国政府手中有多种政策工具可以缓解长期贸易战带来的压力,但随着美国消费者感受到通胀加剧带来的压力、投资者看到自己的股票市值缩水、企业高管对经济前景愈发悲观,特朗普的谈判立场正日益削弱。

此外,吴冕卿还提到了中国在应对特朗普关税战中,不惧对方讹诈的“内力”:中国人的坚韧和吃苦精神。

中国历史里反复出现的艰难时期,已在这个民族心里根植了忍耐和坚韧的能力。用一个词来表示,叫做“吃苦”。尽管如今的中国年轻人已经习惯了比前几代人更舒适的消费生活,但“吃苦”精神依然根深蒂固。

Recurring periods of hardship in Chinese history have embedded in the nation’s psyche a capacity for endurance and fortitude. The phrase for this is “chi ku,” or to “eat bitterness.” Younger Chinese today are accustomed to more comfortable consumer lives than previous generations, but chi ku still runs strong.

文章还提到,中美两国都在尝试转变各自的经济模式,中国想由生产转向更多的消费,美国则想由过度消费,转向更多的制造。这两种转型都不容易。

但对习惯于吃苦的中国人来说,转向少产多消费相对容易;而美国这样一个以消费为中心的国家,要向相反方向转型则更为艰难。

But it is easier for the Chinese, conditioned to endure hardship, to shift toward producing less and consuming more than for a consumer-centric economy like the United States to move the other way.

该文章在《纽约时报》官网上发布后,引起了读者热烈讨论,吸引了400多条的读者留言。

一名读者留言表示:我完全相信中国人能够找到创新方法来取代美国消费者。中国人民早已习惯了艰苦的生活,并且拥护政府的政策。如果政府说他们需要吃苦,他们就会吃苦。而美国很快就会开始抱怨,因为他们无法从亚马逊买到便宜的东西。

img

Before yesterday中国数字时代

张3丰的世界|纽约,我记得的

4 May 2025 at 09:00
CDT 档案卡
标题:纽约,我记得的
作者:张3丰
发表日期:2025.5.3
来源:微信公众号“张3丰的世界”
主题归类:李文亮
CDS收藏:人物馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

在纽约有一天空闲时间。早上从酒店出来,发现没有任何想去的地方,就信步走到了中央公园。

从东南角进去,慢慢走向西北角。即使不用导航,我也轻松走到了李医生长椅那里。

过去几个月,我在成都曾为两位朋友指过路,帮他们寻到了那里。

这次有不同发现。

李医生长椅旁边新增了纪念著名的俄罗斯dissident——Alexei Navalny的椅子。

img

我判断它是新添的,一个原因是2023年我第一次来找长椅的时候,挨个看过那几个椅子上的名字,没注意到它;还有一个原因是,椅子旁边摆放了鲜花,椅子上还有一张纸。

img

这通常是新的纪念物的标志。

大概这是一些在纽约的俄罗斯人出钱捐赠的。我不知道背后的故事,但是这个位置选择很有意思。一位俄罗斯人,一位中国人。他们都曾被自己的国家所伤害,而有些人却暗暗发誓,永远不要忘记。

img

Never give up。

这是一个三角地带,今天很热闹,有一个乐队在这里唱歌。天气晴朗,人们的脸上洋溢着希望。看上去,这和中央公园其他角落没什么不同。

但是对像我这样的专门寻访过来的过客来说,内心却有着惊心动魄的风景。

2023年10月底抵达纽约的时候,内心满是慌张。这次来到纽约,完全是不同的心境。昨天从波士顿乘坐火车抵达Moynihan Hall,进了34街地铁站,马上就有了一种熟悉的感觉。

纽约很大,还有很多我没去过的地方。但是,我对去探索这个城市的未知领域,却没有多大兴趣。我发现自己真正在意的,反而是自己去过的地方。

这个发现让我惊讶。我并不是很自恋的人,也不是很在乎记忆。我去过很多次北京,很少去我的母校北师大。

但是纽约却不同,这个城市已经在我内心种下了一点什么。

img

【重温】歪脑|武汉封城5年之后,那些点滴的创痛印记,以及在日常中抵抗失忆的普通人

4 May 2025 at 07:07
CDT 档案卡
标题:武汉封城5年之后,那些点滴的创痛印记,以及在日常中抵抗失忆的普通人
作者:祖唯纳
发表日期:2025.3.5
来源:歪脑
主题归类:武汉封城
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

CDT编辑注:自由亚洲旗下的新媒体平台“歪脑”日前因特朗普行政令而暂停运营。成立于2017年的歪脑主要面向华语世界青年群体传播自由主义价值。本文发表于2025年3月5日。CDT近期将持续回顾歪脑的报道。

一个人能在鼠疫和生活的赌博中所赢得的全部东西,就是知识和记忆。
——加缪小说《鼠疫》

1 当年的志愿者:“武汉哪里还有什么新冠疫情的痕迹?”

“当年做抗疫志愿者的时候,这还是个新车,只开了50公里。现在已经有40万公里了!还有两年就要报废了。”潘欣转着他的方向盘说。这是2025年2月的一天,他的车正穿行在武汉的街巷上。

img

潘欣手机上存档的疫情期间“防控车辆专用通行证”。(祖唯纳摄)

他总有点不相信,2020年1月23日武汉封城,那一天,至今过去已经五年了。那时候,人心惶惶,他刚入行做网约车司机才两个星期。此前他刚从一家倒闭的外企出来,刚30岁,充满了工作激情,总想做点什么。封城了,在家里待着也是无聊,正好领导问他要不要去志愿者,他没有犹豫就报了名。

潘欣是他所在团队的300多个志愿者之一。在全城人心惶惶的日子里,接送了许多前往医院的孕妇、病人以及往返养老院的老人。“刚开始根本不知道怕,到怕的时候已经回不去了。”回顾起来,他说。

潘欣户籍所在地是江汉区,做志愿者在是东湖高新区,因为不能跨区,他整整半年没回家,前两个月就睡在车里,后来才被安排了地方住。

“前两个月是太苦了,吃了两个月泡面。” 记忆中,到现在还是那同一个味道的“红烧牛肉味杯面”。每天,在社区站点的白色工作台上吃方便面,口罩直接拉到下巴处,头上有志愿者字样的红色鸭舌帽也不取下来。刚开始还能接受,可吃到半个月就受不了了,“就算山珍海味天天吃也会腻啊。”他说。但那时物资紧缺,外面援助还没进来,能吃的食物只有泡面加火腿肠,没办法,只能熬着。

其实如果不是被问起,潘欣很少和别人主动说起疫情那几年的事情。

武汉哪里还有什么新冠疫情的痕迹?他想不到,顶多想到雷神山和火神山两座医院——这是市政府为接纳疫情期间的病患建设的临时医院,两家医院,据说用了4万人,各用了10天时间就建成了,当时被官方媒体称为“奇迹”,但现在基本处于关闭状态。“两座医院现在都停了!”他说。语气中带着惋惜。

他的武汉普通话尾音拖长,语调上扬着重复:“新冠疫情都过了好多年了!人们都已经遗忘了。”

但他忘不了。疫情结束了,那些生命里的痕迹还以实体的形式存在着,不经意,就会和他撞个满怀。

他开的比亚迪T3车头上放着一枚“抗疫英雄”的徽章,这算是政府对他当时做志愿者的表彰。武汉市公安交通管理局当年给他的车发的“中心城区专用通行证”的牌子,他也一直保管着,放在车上天天日晒,已经有些褪色了。上面有“2020.04”的字样。当年的4月8日,是武汉解除封城的日子。

img

潘欣后来得到的“抗疫英雄”徽章。(祖唯纳摄)

潘欣自己并不常玩抖音。但疫情那会儿,除了做志愿者接送人,也没别的事情,他就拍下一些穿着防护服、参加培训工作的视频,放在自己的抖音帐号上。这些视频,到现在都还在。他偶尔会打开,帮他回忆起那段时光。他也记得,自己当初做志愿者,并不知道有无补贴。好在疫情结束后,政府补贴了每天六百元。

和潘欣不一样,今年45岁的段师傅沒拿到徽章和补贴,他就做了一个星期的志愿者,帮医生送帽子、衣物等,后来太害怕就没做了。他说,后来全国许多城市都封城,但肯定都没有武汉当时恐怖,他所在的小区里当时有老人死了,尸体停在家十天都没有救护车来。“殡仪馆人都满了。”

段师傅说,现在他对疫情已经没有记忆了,“就当一个经历吧,没有什么特别的。”但真回忆起来,还是有恐惧。“怎么说呢?反正没到我头上吧。”

2 “我会把抖音和新华社、人民日报结合起来看。”

img

华南海鲜市场所在的新华路大道上,路两旁屹立着不少梧桐树,曾经的市场被淡蓝色的围墙挡得严严实实,上面写着“华南市场整体搬迁到黄陂区汉口北大道”的字样。还有一些”社会主义核心价值观”的宣传语和广告。从疫情结束后到现在,这沉默的围墙,是武汉少有的关于新冠疫情曾经爆发过的痕迹。

img

旧华南海鲜市场蓝色铁皮栏上的广告牌。(祖唯纳摄)

“那个市场就放在那,没拆也没用。”潘欣说。至今,他和段师傅都不相信疫情和华南海鲜市场有任何实质关联。段师傅说“华南海鲜市场吃蝙蝠是扯淡。”潘欣也说,武汉人并不怎么吃野味,怎么可能从蝙蝠传到人身上?“这只是政府为了安抚人心的说法。”

至今新冠疫情的起源仍未有定论,华南海鲜市场一度被中国官方解释为疫情爆发的源头。

2020年1月政府关闭了华南海鲜市场,有些摊户被迁到了郊区。如今的市场周围,还有不少眼镜店和小卖铺,但是四五百米内,都很难找到一家开张的餐厅。

img

华南海鲜市场附近的沙县小吃和热干面店都关着门。(祖唯纳摄)

2025年2月,春节过后不久。一位年长的男士牵着一个小孩的手经过这里,他解释说,旁边这些商铺封起来跟华南海鲜市场无关,是要重新装修的,3月就会开张。

他说自己就住在华南海鲜市场附近,起初疫情爆发时,他没有感染。2022年,感染了“奥密克戎”,但“两三天就好了”。说到疫情的来源,他也不相信疫情和华南海鲜市场有关。

2020年3月,时任中国外交部发言人赵立坚在推特上的发言,曾暗示是参加军运会的美国军人将病毒带过来这一说法。疫情爆发五年后,这位先生和我随即交谈的七八位武汉市民一样,都和政府的看法一致。

政府的宣传显然影响到了普通人的判断。段师傅也是他们中的一位。“你听过一个词叫做‘信息茧房’吗?你刷的东西如果是美食、旅游,给你推送的就主要是美食、旅游,我喜欢看军事、政治方面。”他对我说。他承认中国有舆论控制,但自认为现在的中国互联网上,获取信息的渠道也很多,“我会把抖音和新华社、人民日报结合起来看。”

3 消失的一款咖啡,名字叫“吹哨者”,以及“哦,那个死去的医生”

img

武汉地处长江与汉江交汇处,是中国中部最大的城市,九省通衢,同时也是中国铁路网、公路网和华中地区航空的主要枢纽。

2025年的1月23日成了武汉人难忘的日子。五年前这天,武汉宣布封城,在佛山做钢材生意的喻先生当时正在从广东赶回武汉老家过春节,他在路口被拦住做选择:要么现在掉头,要么就走不了,等解封。他选择了回武汉的家,“肯定是要回家过年嘛。”5年后的这个2月,采访中,他对我说。

在武汉,至今“76”都是一个特别的数字。从2020年1月23日封城,到4月8日解封,武汉人整整经历了76天被封锁在家中,几乎完全失去自由的生活。

尽管作为武汉人经历了那样艰难的时刻。但对很多人来说,如今在这座城市,并没有什么地方可以体现出那一段时间武汉人承受的这一切——没有纪念碑、没有展览馆。对他们的痛苦,没有真正的纪念。

img

第一批接受病患的金银潭医院。这是医院汉江北路的健康管理门诊部。(祖唯纳摄)

但总是有一些地方,提醒着人们疫情曾经席卷过这个城市。

疫情爆发后第一批接受病患的金银潭医院就是其中一个地标。这家医院是著名的传染病专科医院,2024年4月,医院宣布正式将感染性疾病区和日常综合医疗服务分区,这象征着它向综合型医院的转变。

医院的健康门诊部位于江汉北路。坐落在社区里,显得静谧,不见了当年的紧张和忙碌气氛。中午十二点多,对面的卤肉大饼店排起了长龙。

同济医院也是首批接诊大量患者的医院,疫情期间特别收治了许多危重症患者。医院的汉口主院区坐落在硚口区解放大道,这条贯穿城市南北的主干道如今车流如织。医院正门旁位于医院一层的急诊部,暮色中,红色标识格外醒目。

钱师傅说,他唯一能想起的、在公开场合能看到的关于疫情的纪念,在同济医院附近的天桥上。那里标记了当年各地不同省市驰援武汉疫情的医护人员人数。

不过他记成了栏杆上有具体的外省医院医护人员的名字,而实际上只有一个个统计数字。凑近看,其中“西藏医疗队”是“3人”。

img

同济医院附近天桥上的各地医疗队“驰援武汉”人数标记,是武汉为数不多的对那场疫情的公共纪念。(祖唯纳摄)

李文亮医生工作的武汉市中心医院,一度是医护感染最严重的医院之一。

医院位于南京路,对面是历史文化街区咸安坊,红砖外墙,里弄布局。现在除了一些连锁的餐厅店,这里还有许多特色的小资店铺。关于疫情的记忆,偶尔也会在这里跳出来。

img

“吹哨人”李文亮医生曾经工作的武汉市中心医院外观。(祖唯纳摄)

医院附近有一家结合了咖啡和复古胶片的小酒馆,开业一年,但老板说已经算是“开了蛮长时间了”。还有一间结合了中古首饰和设计师服饰的咖啡厅,去年十月份开业,店员小杨说“这边咖啡厅更换得太快了。”

2021年时,附近的一家咖啡厅餐牌上,曾有一款咖啡名为“吹哨者咖啡——100%有争议”,还有媒体报道过。如今,这家咖啡馆已不复存在。在一家装置显得先锋的酒馆里,有许多女性主义的布展,很多顾客留下书和推荐语,书柜上有很多探讨关于死亡的留言、还有本关于眼科学的书,但没有任何痕迹有关李文亮医生。似乎人们心照不宣,没有人会公开提到李医生。

img

武汉中心医院附近一家小酒馆里的“女性主义”主题展览。(祖唯纳摄)

当时在武汉中心医院做眼科医生的李文亮,后来被称为新冠疫情的吹哨者,因在疫情初期率先在校友群“预警”注意防范病毒,被当局训诫,并说成是“造谣者”。2020年2月7日凌晨,武汉市中心医院宣布年仅34岁的李文亮去世,在互联网上引发了极大的社会震动。

在武汉循礼门地铁站F出口,距离李文亮工作的医院骑行八分钟左右的地方,是一个大型商场,和中国其他城市有着类似的奶茶店、美食打卡地标、美容院。商场对面一家换手机膜的街头小店的老板,边用酒精棉擦拭着手机边说:“李文亮是谁啊?我不认识啊!”

img

没听说过李文亮的贴膜店老板。(祖唯纳摄)

再一问,原来他不是武汉人,三年前才从湖南来武汉工作。武汉本地人大多听说过李文亮,如今再提起这个名字,有人会说道:“哦,那个死去的医生。”

在李文亮曾工作的医院,专家墙上不见这位已逝医生的名字。服务台的工作人员回答起关于他的问题也相当谨慎:“他以前在这工作,但我们不认识他,不是很清楚。”医院门口报刊亭的老板娘说,“人死都死了,疫情都结束了,我也不是很了解,这东西不能瞎说的。你自己上网了解下。”

img

2025年2月,有病患走过武汉市中心医院里的“专家墙”。(祖唯纳摄)

互联网上,令国人自豪、可与chatGPT媲美的人工智能DeepSeek回答不上“李文亮是谁?”这个问题。一行字显示:“你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。”

不过在有些地方,李文亮从未被忘记。新浪微博上,他当年最后一条公开的内容,永远停留在2020年2月1日:“今天核酸检测结果阳性,尘埃落定,终于确诊了。”

这条微博下面的评论在那天之后,每一天都在更新,已经超过一百万条。2025年情人节这天,有人在评论区跟他“絮叨”:“元宵节和情人节分手了,知道分的对,但是这事谁会开心呢对吧。要去考科目三了,希望能一次过。” 还有人这样表达想念:“老李,北京的花快开了。”

武汉没有纪念他的痕迹,但还是有无数的中国人在纪念他。

4 “商铺一条一条街地关”,以及突然火起来的旅游业

img

疫情给武汉留下了什么?钱师傅觉得,武汉遭受的最大影响是,经济变得萧条,“那些商铺整片整片地关,一条一条街地关。”他觉得全国经济这几年都不好,但武汉更明显。

封城在家时,他还没做网约车司机。他本来经营着一家开了十年的儿童摄影店,疫情期间,门可罗雀,生意做不下去,只能关门。店铺倒闭后,他在家休息了一段时间,还是入了网约车这一行。疫情后他收入严重降低,网约车平台抽成后,收入并不高。他说,如果是武汉的普通上班族,每个月收入就在四五千元,可武汉的消费水平一点儿也不算低。

img

2025年2月的武汉,人们在路边吃早餐。(祖唯纳摄)

在商场做招商工作的蒋婷,同样感受到疫情让这座城市在经济上受创。她觉得,当年刚解封时,人们还报复性消费了一阵,但很快就迎来“消费降级”。餐饮业所受影响相对较小,但许多品牌服装业明显式微。在给商场做店铺招商时,她听到许多租户说,营业额都变差了。她的父母多年前从浙江温州来武汉做服装生意,疫情期间也结业回了老家。

互联网上,也有很多人讲述自己的生活如何被疫情影响。曾经写“武汉日记”的“蜘蛛猴面包”曾经在微博上发问:关于疫情的第五年,你们有什么想说的?有一个叫谜迦的网友,留言说,她现在只有疫情前四分之一的收入,生活水平直线下降,但和许多武汉人一样,她心态依然积极:“感激熬过了疫情的病毒,而人总是要继续奋斗的,希望在明天。”

在经济低迷中,武汉的旅游业却得到意外的发展。2020年中国社科院发布的《新冠肺炎疫情下的旅游需求趋势调研报告》显示,武汉成了游客最想去的城市,超过了曾位列第一的北京。

疫情过后,当地政府顺势倾斜资源大力发展旅游业。2025年,长江网一篇文章提到,要把武汉黄陂区打造成为武汉建设世界旅游目的地城市“先行区”。我采访的喻先生说,他在疫情结束后,因为要照顾孩子读书,从广东搬回了武汉生活。他记得,疫情刚结束后的十一长假,武汉长江大桥和黄鹤楼上的人山人海,“我都震惊了”,前年春节时,许多外地游客来武汉过年,他还记得那一年鹅毛大雪,密密麻麻的人,挤在长江两岸放烟花,“感觉武汉名气越来越大。”

img

武汉著名景点“黄鹤楼”外。(祖唯纳摄)

5 公务员考试培训中,不能被提及的“疫情”两个字,以及那些被回避的创痛

尽管官方刻意营造“英雄城市”的叙事,以及旅游业出乎意料地发展,让城市多了一些热闹。但真正生活在这里的武汉人,在“封城”过去五年之后,创痛依然存在。他们很少主动提起疫情,也刻意回避创伤记忆,“好像有了PTSD,对生活有极度的不安全感”,在无能为力中也丧失了参与对公共事务的热情,“更讨厌和柴米油盐离得很远的宏大叙事了。”一位受访者告诉我。

“疫情”也是官方要淡化的词。在广东准备公务员考试的宗阳,在参加公务员面试培训时被告知,一定不要在回答中用“疫情”这个词。培训班老师说,提了会扣分,只能用“那几年”来替代。2024年春节联欢晚会,武汉市成为分会场之一,不过主持人并未提到这座中部最大的城市曾和疫情有任何关联。

也有人选择不忘记。五年前,武汉解封前两天,生活在这里的胡琪琛告诉我,她感到人们太健忘。随着解封而来的是,“没有追责,好像什么都好了一样”。她认为,一切肯定都会过去,但疫情这两个月期间的种种悲剧在她心里过不去。她说,“我会一直记得这种感受。”

五年后我再次联系到她。她说,疫情期间那些记忆仍很深刻:仓促的封城、挤兑的医疗资源、停摆的交通、看不上病的病人、发“牺牲一座城拯救一个国”从而有分歧的朋友……她依然为作为一个公民竟可以被关在家里两个月感到愤怒,也不认同要为集体牺牲个人,“因为你没有被抛弃,你还有得活,但是很多人真的没得活。”

事实上,武汉解封第二天,她就去了香港。她说,疫情直接影响了她对未来生活的选择。她本考虑去北京工作,但作为媒体从业者,疫情时她采访人也被采访,又经历爷爷逝世。亲历种种,她感到受伤以及在内地做记者的极度不自由,“没法改变,只能逃。”

过去这些年,她一共就回了武汉四次,主要是探望家人,每次待的时间也就几天。她发现,武汉有一些改变,比如新建了东湖绿道,武汉光谷也有越来越多科技公司。但她觉得自己对这个城市并无太多留恋。“武汉是在进步,但是再进步,也没法留住我。”

而疫情之后,对很多生活在武汉,也从未想过逃离的人来说,生活还是该干嘛干嘛,只不过许多武汉人习惯了常常戴口罩。小杨说:“武汉人对这个可能更注重一些,被伤过。”

img

2025年2月,武汉一家餐厅,服务员都被要求带上口罩。(祖唯纳摄)

25岁的小杨一直在武汉生活。现在想起疫情那段时间,小杨仍觉魔幻,先是没料到封城,后来也是生平第一次看着不甘被封的人们聚集、闹着上街。她不爱宅着,最初封城时,她不知道在家做什么好。家对面是武汉第六医院,每天她就在阳台看外面车来车往,听着“呜哇呜哇”的急促救护车声,心情焦躁无比,只能借由整日整夜看《甄嬛传》来舒缓。

img

一张被丢弃的口罩。小杨拍摄于医院附近的中山公园。(小杨摄)

持续三年的疫情中,她印象最深的场景是深夜看着女朋友被社区的车拉走。那是2022年,她和小她一岁的女朋友小傅出去游玩了一天后,在黄陂区的家里住,深夜近十二点,突然接到社区电话。电话铃响,她们犹豫很久要不要接、要不要开门。后来开了门,穿着防护服的工作人员把行程跟她一致,却不知何故就变成“密接”的小傅送上大巴,拉到郊区隔离。

车上全都是戴着口罩的人,小傅上车后,车子继续去不同的地方拉人,凌晨一两点才到达郊区某便捷宾馆。大概做了很多次隔离点,宾馆电梯和走廊全部都罩上塑料薄膜,装潢设施都很老旧,“厕所也都黄黄的”。那天晚上,小傅很害怕,跟本来已经睡着的小杨打了整夜的视频。

好在就隔离了一天,第二天小区群里越来越多人说自己“阳”了。很快,所有人都感染了新冠病毒,大家对“阳”这件事再不忌惮了。

如今,小傅回忆说,自己有段时间甚至有了创伤应激反应,不敢接别人电话,怕电话一结束就又被拉走,甚至学校辅导员打来,都觉得可怕,担心是督促她在早上八点前做健康监测打卡。

6 拥有了一部相机的女孩:“我想用记录抵抗遗忘”。

img

2022年,小杨在天桥见到一位阿姨望向远方,仿佛也和她一样不知未来要去往何方。(小杨摄)

疫情对人们的生活似乎也有些正面影响:封城前,小杨按父母的安排在一间公司做文员工作,但封城后,她觉得,要把想做的事赶紧做了。要不然死了做不了怎么办?她一直很想做摄影师,于是封城隔日,就去家附近还开着的相机铺买了部佳能90D。解封后,她就背着这部相机,在城里捕捉想要拍摄的场景和瞬间。用快门定格画面,“我想用记录抵抗遗忘”。

2022年,她在天桥上看到一个阿姨在看着远方发呆,这场疫症让“人心惶惶”,小杨感到她似乎也和自己一样,在想象着未来会是怎样,她按下了快门。

疫情期间政府在路上封了很多铁皮栏,但时而可以看到某处的铁皮栏被戳开了一个洞,大家通过这个洞递送物资。疫情近尾声时,小杨通过这个洞看到大家陆续在生活了,她就定格下从洞里望出去骑着共享单车的阿姨,和谋生中的外卖员。

img

政府安装的铁皮栏被戳开了一个洞,从洞口望出去,见到为生计奔走的快递骑手。(小杨摄)

img

同上,洞口外看到的路人。(小杨摄)

小杨说,对疫情,人们也不能说是淡忘,如果聊起,大家还是有很多可以说。“一提起那段时间,武汉人就会说,那段时间你干嘛了我干嘛了,然后就会觉得,真牛啊,我们。”仿佛人人都是幸存者。

疫情期间小杨经历了亲人离世。她爷爷是慢性阻塞性肺病患者。疫情期间病情加剧过世。爷爷去世前几天,他们点了一大桶肯德基,一起围着吃鸡腿。小杨说,如果回到那时候,很想再跟从小带大自己的爷爷说,她很爱他。“回想以前的记忆的时候,总想要做到更好,想说能不能更好点。”

亲人离世,也让小杨也第一次反思了生死的问题,“死了的人就是死了,活着的人得好好活着,除了热爱生命,也没有其他办法。” 抗疫志愿者潘欣也有同样的感悟。

小傅也觉得,疫情让她更珍惜和小杨的感情,经历了疫情的磨炼,两人的关系也更坚固了。疫情时,两人前后生病,互相照顾,抚慰对方焦躁和害怕的心情。小傅隔离时,小杨陪她整夜打电话;小杨送外卖,小傅也跟她一起送。

那会儿因原本工作的法餐厅在疫情期间关门,小杨想去送外卖补贴收入。某天深夜十一点多,有人叫了炸鸡外卖。她们到炸鸡店时才发现,炸鸡店门全被封住了。炸鸡炸好后,厨师只能从门上面递炸鸡过来。两人接过炸鸡,告别在等外卖时和她们唠嗑的大叔,踩上电动车,前往封控的社区送餐。

img

影子(小杨摄)

炸鸡的香味和相伴的柔情永远留在了记忆里。小傅笑着总结:“现在觉得,可能恋爱的感觉把疫情的感觉都冲淡了。”

米兰·昆德拉在文学论中提到一个三十岁的男人约拿斯游荡的故事:约拿斯醒来,发现自己所在的世界是空的,几个月的时间里,在他自杀之前,他走遍世界绝望地寻找他生命的痕迹,寻找自己甚至别人的回忆。

对生活在后疫情时代、依然要面对生活艰辛的很多武汉人来说,呵护自己的记忆,抚平伤痛,同时对抗遗忘,依然是不经意间同时在做的事。

img

影子(小杨摄)

(为保护受访者,文中网约车司机潘欣使用了化名)

益两|五一特辑:为什么地铁上的辱骂与保洁休息室是同一件事

4 May 2025 at 06:14

从垃圾站下班之后,老刀回家洗了个澡,换了衣服。白色衬衫和褐色裤子,这是他唯一一套体面衣服,衬衫袖口磨了边,他把袖子卷到胳膊肘……他在垃圾站上班,没必要穿得体面,偶尔参加谁家小孩的婚礼,才拿出来穿在身上。这一次他不想脏兮兮地见陌生人。他在垃圾站连续工作了五小时,很担心身上会有味道。
——《北京折叠》

CDT 档案卡
标题:五一特辑:为什么地铁上的辱骂与保洁休息室是同一件事
作者:小草、ch、yn
发表日期:2025.5.3
来源:微信公众号“益两”
主题归类:劳工权益
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

郝景芳写于2012年的短片科幻小说《北京折叠》,是继刘慈欣的《三体》之后第二部获得雨果奖的中文作品。小说里,未来的北京被分成三个互不相通的空间,分别居住着统治阶级、中产阶级,和底层劳动者。三个空间的人轮流醒来,互不干扰彼此的生活。小说的主角老刀是生活在第三空间的垃圾工,蜗居在昏暗的地下胶囊,仅能在深夜的十二小时苏醒,用布满裂痕的双手分拣着整座城市的残渣。而现实中的劳动者们,则以更隐晦的方式经历着与老刀相似的“折叠”。

在北京的晚班地铁,一名农民工正常地坐在座位上,却因衣服沾有粉尘遭到邻座男子无端地辱骂;在许多公共场所,清洁员们往往没有固定的休息区域,只能在杂乱的工具间、洗手间里的一格,或漆黑楼梯间用餐与休憩;而在一些标榜“高端”的商场,外卖员因“形象不好”的理由被禁止入内,即便作为消费者短暂停留,身着工作服的骑手仍会遭到劝离。

在这些场景中,本应属于所有人的公共空间在无声中设立了“体面”的门槛,悄悄评判着“谁有使用公共空间的权利”。现实中的种种案例告诉我们,有些折叠并不需要机械装置,偏见本身便是最锋利的裁纸刀。

ONE 隐形的双手

image

摘自小红书 小猪的人间日记

之所以将地铁上被“嫌弃”的农民工、“不配”拥有休息室的保洁阿姨写在一起,是因为我们发现他们所面临的并非是个体的歧视或偏见,而是一种系统性的漠视和敌意。对于北京地铁上劳动者遭到歧视的事件,我们当然可以指责歧视劳动者的个人缺乏同理心或刻薄冷漠,但保洁阿姨休息室的缺乏告诉我们,即使没有个体对个体的歧视与偏见,我们的劳动者们依然面临着结构性的困境,即“不被看到”。

“不被看到”很多时候并非是明晃晃的敌意,不会以肉体攻击或语言羞辱这样激烈的方式展开,但会像一根小刺,扎在劳动者勤劳的双手中。在一项关于清洁工的访谈中,许多清洁工提到,"在你工作的时候,人们可以从你身边经过,就好像你是隐形的一样”。这样的无视是我们习以为常的,或许也是体力劳动者们习以为常的,但这并不是一个人所应当过的有尊严的生活。我们希望被当作平等的个人,没有人希望蜗居在厕所隔间进食。我们希望工作成果被尊重,没有人希望刚刚完成的工作变为一团乱麻。我们在工作中得到肯定,没有人希望在完成一切后被无视存在。

但这些希望没有达成,本质上而言,这其实是一种对于劳动者全然的异化。在工作岗位中,ta们不再被视为是有灵魂、有情感的个人生命,而被纯粹地当作了清洁工具或运输方式。因此我们不需要向他们问好,不需要考虑他们的情感需求;系统也无需考虑ta们的休息与尊严,留在ta们生命中的,唯有工作。

TWO 偏见的眼神

img
img

图源来自网络

然而,在不被看到的同时,体力劳动者往往还要面临更为激烈的暴力,社会学家称之为我们将之称为“超可见性”(Hypervisibility)。具体而言,如果建筑工人出现在建筑工地,ta面对的是路人的漠视。庞大的城市有太多的施工场所,没有人会想到应该和水泥色的工人打个招呼。但就是这样一群“隐形人”,如果他们穿着水泥色的工作服装进入公共交通、商场、图书馆,他们将被所有人关注,忽然之间便成为了“巨星”。而这样异常高的关注有时则会演变为更进一步的语言或肢体的暴力,正如地铁与商场对建筑工人和外卖骑手的驱逐。

  究其本质,这样的高度关注与驱逐背后所反映的是鲜明的“界限”。在《北京折叠》中,“界限”直接呈现为空间和时间的生硬划分,第三空间的垃圾工只能在无人的深夜活动在无人的街头。而在我们所面临的现实中,我们看不见摸不到科幻小说中的“界限”,但却时刻能感受到这堵无形的墙。当体力劳动者与中产市民同乘地铁,市民愤怒了,卑微如尘土的工人为什么可以与他同乘?当保洁员拥有体面的休息室,有人疑惑了,肮脏的工作凭什么有干净的生活。界限不被允许打破,一切越界者都将被驱逐。

但问题在于,我们之间真的应当存在“界限”吗?在五一劳动节前夕,我想“劳动最光荣”这句听起来颇具年代感的话不应真正过时。一切平凡的劳动者,当然有权有干净整洁的休息室,有权搭乘公共交通工具,有权读书写字,有权有尊严受尊重的生活。

当然,我们并非指责任何一个个体,在今天每一个人都在为求生筋疲力竭,体力劳动者的困境也不仅仅是有尊严的生活。但在异常艰难的当下,或许携起手来,才能共同前行。看到我们身边与我们共同经受一切的体力劳动者们,将ta们当作与我们相同的兄弟姐妹,关注自己,关注ta们。

THREE 我们能做些什么

目前,我们已采取多种措施试图改善这一问题。上海闵行区的公厕为保洁员们设立了专门的休息室。十五平方米的房间里,设施配置齐全,解决了保洁员吃饭难、喝水难、休息难的问题。针对农民工、外卖骑手的法律保障措施也在逐步落地。(央视新闻:这些照片让人心疼!请给保洁员一个休息空间)

但改善劳动者处境并非一朝一夕可完成的事业,我们也想向益两的读者发出呼吁。不管你是公益机构或企业的员工、高校学生、或是小区居民,我们都可以为改善身边底层劳动者的处境做些什么。

正视:承认体力劳动者为社会发展做出的不可磨灭的贡献,拒绝歧视。
看见:和他们聊聊天,尝试了解他们的工作和生活。
支持:在日常生活中做出力所能及的帮助,比如顺手将垃圾扔进垃圾桶。
帮助:发现劳动者的困境后,可向公司、学校或机构的管理层反映。
进步:通过本地的政务APP、市长信箱等民众参与渠道提出建言。
平等:我们也要意识到,我们所做的并不是施舍或“献爱心”,得到尊重是劳动者应得的基本权利。

image

更多内容扫码查看益两词条【劳动权益】

【404文库】协和医学院规培医生董袭莹博士论文, 中国知网已删除

4 May 2025 at 02:40

CDT编辑注:日前,中日友好医院医生肖飞被其妻举报婚外情,其中一位当事人为规培医师、协和医学院博士生董袭莹。举报信中还指出,肖飞曾在手术过程中与护士发生冲突,期间不顾患者安危,与董袭莹一同离开手术室。随后,董袭莹的教育背景引发网络关注。公开信息显示,董袭莹本科就读于美国哥伦比亚大学下属的女子学院——巴纳德学院,主修经济学,2019年被北京协和医学院“4+4”临床医学长学制试点班录取为博士研究生。相比中国传统医学教育体系通常更长的教学与规培周期,协和“4+4”模式在公平性与专业性方面引发质疑。与此同时,有网民指出,董袭莹的博士论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。事件持续发酵后,中国知网已将其博士论文下架,而这篇论文的下架流程是否遵循既定的撤稿标准亦受到质疑。有网友在此之前保存了论文PDF,并上传至GitHub。以下文字和图片由CDT通过PDF版转录存档。

北京协和医学院临床医学专业毕业论文
学校代码:10023
学 号: B2019012012

跨模态图像融合技术在医疗影像分析中的研究

专业年级:北京协和医学院临床医学专业 2019 级试点班
姓名: 董袭莹
导师: 邱贵兴(教授)
北京协和医学院 临床学院(北京协和医院)
骨科
完成日期:2023年5月

目录

摘要 …………………………………………………………………………………………………………………… 1
Abstract ………………………………………………………………………………………………………………. 3

  1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测 ………………………………… 6
    1.1. 前言 …………………………………………………………………………………………………….. 6
    1.2. 研究方法 ……………………………………………………………………………………………… 7
    1.2.1. 研究设计和工作流程 ………………………………………………………………….. 7
    1.2.2. 跨模态图像融合 …………………………………………………………………………. 7
    1.2.3. 宫颈癌病变区域检测 ………………………………………………………………… 11
    1.3. 实验 …………………………………………………………………………………………………… 11
    1.3.1. 临床信息和影像数据集 …………………………………………………………….. 11
    1.3.2. 模型训练过程 …………………………………………………………………………… 12
    1.3.3. 评价指标 ………………………………………………………………………………….. 13
    1.3.4. 目标检测模型的结果与分析 ……………………………………………………… 14
    1.4. 讨论 …………………………………………………………………………………………………… 15
    1.5. 结论 …………………………………………………………………………………………………… 16
  2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断 ………………………………. 18
    2.1. 前言 …………………………………………………………………………………………………… 18
    2.2. 研究方法 ……………………………………………………………………………………………. 19
    2.2.1. 研究设计和工作流程 ………………………………………………………………… 19
    2.2.2. 骨转移目标区域检测 ………………………………………………………………… 20
    2.2.3. 基于特征转换的跨模态数据融合 ………………………………………………. 20
    2.2.4. 乳腺癌骨转移的分类模型 …………………………………………………………. 21
    2.3. 实验 …………………………………………………………………………………………………… 22
    2.3.1. 临床信息和影像数据集 …………………………………………………………….. 22
    2.3.2. 模型训练过程 …………………………………………………………………………… 23
    2.3.3. 评价指标 ………………………………………………………………………………….. 24
    2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析 ……………………………………………………………………………………………….. 25
    2.4. 讨论 …………………………………………………………………………………………………… 30
    2.5. 结论 …………………………………………………………………………………………………… 32
    全文小结 ………………………………………………………………………………………………………….. 33
    参考文献 ………………………………………………………………………………………………………….. 35
    缩略词表 ………………………………………………………………………………………………………….. 40
    文献综述 ………………………………………………………………………………………………………….. 41
  3. 跨模态深度学习技术在临床影像中的应用 ……………………………………………………. 41
    3.1 Preface ………………………………………………………………………………………………… 41
    3.2. Deep Neural Network (DNN) ……………………………………………………………….. 42
    3.2.1. Supervised learning ……………………………………………………………………. 43
    3.2.2. Backpropagation ………………………………………………………………………… 46
    3.2.3. Convolutional neural networks (CNN) …………………………………………. 46
    3.3. Cross-modal fusion ………………………………………………………………………………. 49
    3.3.1. Cross-modal fusion methods ……………………………………………………….. 50
    3.3.2. Cross-modal image translation …………………………………………………….. 51
    3.4. The application of cross-modal deep learning ………………………………………….. 52
    3.5. conclusion …………………………………………………………………………………………… 55
    参考文献 …………………………………………………………………………………………………… 57
    致谢 …………………………………………………………………………………………………………………. 60
    独创性声明 ………………………………………………………………………………………………………. 61
    学位论文版权使用授权书 …………………………………………………………………………………. 61

摘要

背景

影像学检查是医疗领域最常用的筛查手段,据统计,医疗数据总量中有超过90%是由影像数据构成[1]。然而,根据亲身参与的临床病例[2]可知,很多情况下,仅凭医生的肉眼观察和主观诊断经验,不足以对影像学异常作一明确判断。而诊断不明引起的频繁就医、贻误病情,则会严重影响患者的生活质量。

相较于传统的主观阅片,人工智能技术通过深度神经网络分析大量影像和诊断数据,学习对病理诊断有用的特征,在客观数据的支持下做出更准确的判断。为了模拟临床医生结合各种成像模式(如 CT、MRI 和 PET)形成诊断的过程,本项目采用跨模态深度学习方法,将各种影像学模态特征进行有机结合,充分利用其各自的独特优势训练深度神经网络,以提高模型性能。鉴于肿瘤相关的影像学资料相对丰富,本项目以宫颈癌和乳腺癌骨转移为例,测试了跨模态深度学习方法在病变区域定位和辅助诊断方面的性能,以解决临床实际问题。

方法

第一部分回顾性纳入了220 例有FDG-PET/CT 数据的宫颈癌患者,共计72,602张切片图像。应用多种图像预处理策略对PET 和CT 图像进行图像增强,并进行感兴趣区域边缘检测、自适应定位和跨模态图像对齐。将对齐后的图像在通道上级联输入目标检测网络进行检测、分析及结果评估。通过与使用单一模态图像及其他 PET-CT 融合方法进行比较,验证本项目提出的 PET-CT 自适应区域特征融合结果在提高模型目标检测性能方面具有显著性优势。第二部分回顾性纳入了233 例乳腺癌患者,每例样本包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有3051 张CT 切片,3543 张MRI 切片,1818 张PET 切片。首先训练YOLOv5 对每种单一模态图像中的骨转移病灶进行目标检测。根据检测框的置信度划分八个区间,统计每个影像序列不同置信度区间中含有检出骨转移病灶的个数,并以此归一化后作为结构化医疗特征数据,采用级联方式融合三种模态的结构化特征实现跨模态特征融合。再用多种分类模型对结构化数据进行分类和评估。将基于特征转换的跨模态融合数据与特征转换后的单模态结构化数据,以及基于 C3D 分类模型的前融合方式进行比较,验证第二部分提出的方法在乳腺癌骨转移诊断任务中的优越性能。

结果

第一部分的基于跨模态融合的肿瘤检测实验证明,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性。相比使用CT 或PET 单模态图像以及其他融合方法生成的多模态图像作为网络输入,目标检测的平均精确度分别提高了 6.06%和 8.9%,且消除了一些假阳性结果。上述测试结果在使用不同的目标检测模型的情况下保持一致,这表明自适应跨模态融合方法有良好的通用性,可以泛化应用于各种目标检测模型的预处理阶段。第二部分基于特征转换的跨模态病例分类实验证明,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能。相较于单模态数据,跨模态融合数据的平均准确率和AUC分别提高了7.9%和8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也具有相同的实验结论:在不同的分类模型中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

结论

本项目主要包含两个部分。第一部分证实了基于区域特征匹配的跨模态图像融合后的数据集在检测性能上优于单模态医学图像数据集和其他融合方法。第二部分提出了一种基于特征转换的跨模态数据融合方法。使用融合后的数据进行分类任务,其分类性能优于仅使用单模态数据进行分类或使用前融合方法的性能。根据不同模态医学图像的特征差异与互补性,本项目验证了跨模态深度学习技术在病变区域定位和辅助诊断方面的优势。相比于只使用单模态数据进行训练的模型,跨模态深度学习技术有更优的诊断准确率,可以有效的成为临床辅助工具,协助和指导临床决策。

关键词:跨模态融合,深度学习,影像分析,宫颈癌,乳腺癌骨转移

Abstract

Background

Imaging examinations serve as the predominant screening method in the medical field. As statistics reveal, imaging data constitute over 90% of the entire medical dataset. Nonetheless, clinical cases have demonstrated that mere subjective diagnoses by clinicians often fall short in making definitive judgments on imaging anomalies. Misdiagnoses or undiagnosed conditions, which result in frequent hospital visits and delayed treatment, can profoundly affect patients’ quality of life.

Compared to the traditional subjective image interpretation by clinicians, AI leverages deep neural networks to analyze large-scale imaging and diagnostic data, extracting valuable features for pathology diagnosis, and thus facilitating more accurate decision-making, underpinned by objective data. To emulate clinicians’ diagnostic process that integrates various imaging modalities like CT, MRI, and PET, a cross-modal deep learning methodology is employed. This approach synergistically merges features from different imaging modalities, capitalizing on their unique advantages to enhance model performance.

Given the ample availability of oncologic imaging data, the project exemplifies the efficacy of this approach in cervical cancer segmentation and detection of breast cancer bone metastasis, thereby addressing pragmatic challenges in clinical practice.

Methods

The first part retrospectively analyzed 72,602 slices of FDG-PET/CT scans from 220 cervical cancer patients. Various preprocessing strategies were applied to enhance PET and CT images, including edge detection, adaptive ROI localization, and cross-modal image
fusion. The fused images were then concatenated on a channel-wise basis and fed into the object detection network for the precise segmentation of cervical cancer lesions. Compared to single modality images (either CT or PET) and alternative PET-CT fusion techniques,
the proposed method of PET-CT adaptive fusion was found to significantly enhance the object detection performance of the model. The second part of the study retrospectively analyzed 3,051 CT slices, 3,543 MRI slices and 1,818 PET slices from 233 breast cancer patients, with each case containing whole-body imaging of one to three modalities (CT, MRI, or PET). Initially, YOLOv5 was trained to detect bone metastases in images across different modalities. The confidence levels of the prediction boxes were segregated into eight tiers, following which the number of boxes predicting bone metastases in each imaging sequence was tallied within each confidence tier. This count was then normalized and utilized as a structured feature. The structured features from the three modalities were fused in a cascaded manner for cross-modal fusion. Subsequently, a variety of classification models were then employed to evaluate the structured features for diagnosing bone metastasis. In comparison to feature-transformed single-modal data and the C3D early fusion method, the cross-modal fusion data founded on feature transformation demonstrated superior performance in diagnosing breast cancer bone metastasis.

Results

The first part of our study delivered compelling experimental results, showing a significant improvement in the accuracy of cervical cancer segmentation when using adaptively fused PET-CT images. Our approach outperformed other object detection algorithms based on either single-modal images or multimodal images fused by other methods, with an average accuracy improvement of 6.06% and 8.9%, respectively, while also effectively mitigating false-positive results. These promising test results remained consistent across different object detection models, highlighting the robustness and universality of our adaptive fusion method, which can be generalized in the preprocessing stage of diverse object detection models. The second part of our study demonstrated that cross-modal fusion based on feature transformation could significantly improve the performance of bone metastasis classification models. When compared to algorithms employing single-modal data, models based on cross-modal data had an average increase in accuracy and AUC of 7.9% and 8.5%, respectively. This improvement was further corroborated by the shapes of the ROC and PR curves. Across a range of classification models, feature-transformed cross-modal data
consistently outperformed single-modal data in diagnosing breast cancer bone metastasis. Moreover, late fusion strategies grounded in feature transformation exhibited superior performance in classification tasks when juxtaposed with early fusion methods such as C3D.

Conclusions

This project primarily consists of two parts. The first part substantiates that deep learning object detection networks founded on the adaptive cross-modal image fusion method outperform those based on single-modal images or alternative fusion methods. The second part presents a cross-modal fusion approach based on feature transformation. When the fused features are deployed for classification models, they outperform those utilizing solely single-modal data or the early fusion model. In light of the differences and complementarity in the features of various image modalities, this project underscores the strengths of cross-modal deep learning in lesion segmentation and disease classification. When compared to models trained only on single-modal data, cross-modal deep learning offers superior diagnostic accuracy, thereby serving as an effective tool to assist in clinical decision-making.

Keywords: cross-modal fusion, deep learning, image analysis, cervical cancer, breast
cancer bone metastasis

1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测

1.1. 前言

宫颈癌是女性群体中发病率第四位的癌症,每年影响全球近 50 万女性的生命健康[3] 。准确和及时的识别宫颈癌至关重要,是否能对其进行早期识别决定了治疗方案的选择及预后情况[4]。氟代脱氧葡萄糖正电子发射计算机断层显像/电子计算机断层扫描(fluorodeoxyglucose-positron emission tomography/computed tomography, FDG-PET/CT),因其优越的敏感性和特异性,成为了一个重要的宫颈癌检测方式[5] 。由于CT 能够清晰地显示解剖结构,FDG-PET 能够很好地反映局灶的代谢信息形成功能影像,FDG-PET/CT 融合图像对可疑宫颈癌病灶的显示比单独使用高分辨率 CT 更准确,特别是在检测区域淋巴结受累和盆腔外病变扩展方面[6] ,[7] ,[8] 。然而,用传统方法为单一患者的 FDG-PET/CT 数据进行分析需要阅读数百幅影像,对病变区域进行鉴别分析,这一极为耗时的过程已经妨碍了临床医生对子宫颈癌的临床诊断。

随着计算机硬件和算法的进步,尤其是以深度学习[9] 、图像处理技术[10] ,[11] 为代表的机器学习技术的革新,这些人工智能算法在临床医学的许多领域中起着关键作用[12]。基于其强大有效的特征提取能力[13] ,[14] ,深度学习中的卷积神经网络可以通过梯度下降自动学习图像中的主要特征[15 ,极大地提高目标识别的准确性 [16],使深度学习成为计算机图像处理领域的主流技术[17] ,[18]。利用深度学习技术对宫颈癌影像进行分析可以辅助临床医生做出更为准确的判断,减轻临床医生的工作负担,提高诊断的准确性[19]。

目前已经有很多在单一模态图像中(CT 或 PET)基于深度学习技术进行病变检测的工作:Seung等使用机器学习技术依据PET图像对预测肺癌组织学亚型[20];Sasank 进行了基于深度学习算法检测头 CT 中关键信息的回顾性研究[21];Chen 使用随机游走(random walk)和深度神经网络对 CT 图像中的肺部病变进行分割[22] ,[23]。但很少有关于使用跨模态图像融合深度学习方法进行病变检测的研究。

基于 PET/CT 融合图像的病变检测项目包括三个研究任务:区域特征匹配[24],跨模态图像融合[25 和目标病变区域检测[26]。Mattes 使用互信息作为相似性标准,提出了一种三维PET 向胸部CT 配准的区域特征匹配算法[27]。Maqsood 提出了一种基于双尺度图像分解和稀疏表示的跨模态图像融合方案[28]。Elakkiya 利用更快的基于区域的卷积神经网络(Faster Region-Based Convolutional Neural Network, FR-CNN)进行颈部斑点的检测[29]。目前还没有将上述三个研究任务,即区域特征匹配、跨模态图像融合、病变区域检测任务,结合起来的研究工作。

为了减轻临床医生的工作负担,基于跨模态深度学习方法,本项目的第一部分提出了一个统一的多模态图像融合和目标检测框架,用于宫颈癌的检测。

1.2. 研究方法

1.2.1. 研究设计和工作流程

本项目旨在检测 CT 和 PET 图像中宫颈癌的病变区域,工作流程如图 1-1 所示:扫描设备对每位患者进行PET 和CT 图像序列的采集;通过区域特征匹配和图像融合来合成清晰且信息丰富的跨模态图像融合结果;采用基于深度学习的目标检测方法在融合图像中对可疑宫颈癌的病变区域进行目标检测。在图 1-1 的最后一行中,矩形框出的黄色区域及图中右上角放大的区域中展示了检测出的宫颈癌病变区域。

图 1-1 工作流程

img

1.2.2. 跨模态图像融合

图 1-2 展示了跨模态图像融合算法的流程图。根据计算发现两种模态图像的比例和位置不同,如仅进行简单的融合会错误地将处于不同位置的组织影像重叠,从而使组织发生错位,定位不准,产生不可接受的误差。因此,第一部分提出了一种跨模态图像融合策略,其中的步骤包括对感兴趣区域(region of interest, ROI)的自适应定位和图像融合。

在PET 和CT 图像中,自适应ROI定位能够精准识别待分析处理的关键目标,即人体组织影像,然后计算不同模态图像下组织影像之间的比例和位移。依据上述计算结果通过缩放、填充和裁剪的方式来融合 PET 和CT 图像。

图 1-2 CT 和PET 跨模态图像融合算法的流程图

img

1.2.2.1. 自适应ROI 定位

鉴于数据集中 PET 图像与 CT 图像的黑色背景均为零像素值填充,ROI 内非零像素值较多,而 ROI 边缘的非零像素值较少,因此,选用线检测方法来标画两种模态图像中的 ROI,最终标划结果如图 1-2 中的绿色线框出的部分所示,这四条线是 ROI 在四个方向上的边界。在不同方向上计算比例尺。在将 PET 图像放大后,根据ROI实现CT 和PET 图像的像素级对齐。裁剪掉多余的区域,并用零像素值来补充空白区域。如图 1- 3(a)所示,线检测方法从中心点出发,向四个方向即上下左右对非零像素值进行遍历,并记录下行或列上的非零像素值的数量。如图1- 3(b)所示,红色箭头代表遍历的方向。在从 ROI 中心向边缘进行遍历时,沿遍历经线上的非零像素值数量逐渐减少,如果某一线上非零像素值的计数低于预设的阈值,那么意味着该线已经触及到 ROI 的边缘,如图 1- 3(c)所示。然而,如果直接对未经预处理的图像应用线检测方法,会因受模糊边缘及其噪声的影响,得到较差的对齐结果,难以设置阈值。因此,需对PET 和CT 图像单独执行图像增强预处理,以优化 ROI 标化结果,改善跨模态融合效果。

由于PET 和CT 图像具有不同的纹理特征,应用不同的预处理策略,分别对图像进行增强处理,以强化 ROI 的边缘特性,同时消除噪声产生的干扰,再在两种不同模态图像中进行 ROI 定位,如图1-2 所示。

图 1-3 ROI 检测示意图

img

CT 图像是用 X 射线对检查部位一定厚度的组织层进行扫描,由探测器接收透过该层面的 X 射线,经数字转换器及计算机处理后形成的解剖学图像。CT 图像通常比 PET 图像更清晰。为了提取 ROI,需利用图像增强技术对 CT 图像进行预处理:首先,通过图像锐化增强边缘特征和灰度跳变部分,使 CT 图像的边缘(即灰度值突变区域)信息更加突出;由于锐化可能导致一定的噪声,再使用高斯模糊滤波器(Gaussian blur)[30 进行图像平滑去噪,将噪声所在像素点处理为周围相邻像素值的加权平均近似值,消除影响成像质量的边缘毛躁;并执行Canny边缘检测(Canny edge detection )[31 来设定阈值并连接边缘,从而在图像中提取目标对象的边缘。尽管Canny边缘检测算法已包含高斯模糊的去噪操作,但实验证实两次高斯模糊后的边缘提取效果更优。在对图像进行锐化处理后,将提取的边缘图像与高斯模糊后的图像进行叠加。具体地,对两个图像中的每个像素直接进行像素值相加,最终得到边缘更清晰且减轻噪声影响的增强后 CT 模态图像。

PET 图像是基于间接探测到的由正电子放射性核素发射的 γ 射线,经过计算机进行散射和随机信息的校正,形成的影像,能够显示体内代谢活动的信息。尽管PET 可以显示分子代谢水平,但由于成像原理的差异,PET 图像相较于 CT 图像显得模糊。对PET 的预处理方式与对CT 图像的类似,但省略了高斯模糊处理图像噪声的步骤,因为在锐化 PET 模态图像后产生的噪声较少,为防止有效特征信息的丢失,略过这一环节。

为了将两个模态的图像进行区域特征匹配,使用PET 和CT 图像中的矩形ROI框来计算缩放比例和位移参数,并通过缩放、填充和裁剪操作对PET 和CT 图像中的ROI 进行对齐。

1.2.2.2. 图像融合

CT 和 PET 图像的尺寸分别为 512×512 像素和 128×128 像素,ROI 特征区域位于图像的中心位置。通过缩放、零值填充和剪切,放大PET 图像的尺寸以与CT 图像的尺寸保持一致,并且将两个模态图像之间的 ROI 对齐,以便后续的融合处理。经处理的PET 和CT 图像转化为灰度形式,分别进行加权和图像叠加,将其置于不同通道中,作为网络的输入层。由于 PET 图像能展示体内分子层面的代谢水平,其对于肿瘤检测的敏感性高于CT 图像。因此,本研究的图像融合方法为PET 图像的ROI 分配了更多权重,以提高宫颈癌检测任务的表现。

图 1-4 比较了本项目提出的自适应图像融合的结果和直接融合的结果,选取人体不同部位的 CT、PET 和 PET/CT 图像的融合结果进行展示。第一和第二列分别展示了未经处理的原始 CT 和 PET 图像。简单融合算法仅将两个图像的像素点相加,并未执行特征匹配过程,得到的融合图像无任何实用价值。由于通道拼接融合后的图像转变为高维多模态数据,而非三通道数字图像,因此图 1-4 并未展示通道拼接融合方法所得图像。而本项目提出的自适应图像融合方法实现了跨模态图像的精准融合,可用于进一步的观察和计算。

图 1-4 不同图像融合方式的可视化结果

img

1.2.3. 宫颈癌病变区域检测

先由两位临床医生对跨模态融合图像中的病变区域进行人工标注,并训练YOLOv5 [32] 目标检测网络来识别融合图像中的病灶区域,如图 1-5 所示。模块骨架用于提取图像的深层特征,为减少通过切片操作进行采样过程中的信息损失,采用聚焦结构,并使用跨阶段局部网络(cross-stage partial network, CSPNet)[33] 来减少模型在推理中所需的计算量。头模块用于执行分类和回归任务,采用特征金字塔网络(feature pyramid network, FPN)和路径聚合网络(path aggregation network, PAN)[34]。

为了提高对极小目标区域的检测效果,输入层采用了mosaic数据增强(mosaic data augmentation)[35] 方法,将四个随机缩放、剪切和随机排列的图像拼接在一起。模块骨架包括 CSPNet 和空间金字塔池化(spatial pyramid pooling, SPP)[36] 操作。输入图像通过三个 CSP 操作和一个 SPP 操作,生成了一个四倍于原始大小的特征图。头模块有三个分支网络,分别接收来自不同层的融合特征、输出各层的边界框回归值和目标类别,最后由头模块合并分支网络的预测结果。

图 1-5 目标检测网络结构

img

1.3. 实验

1.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2010 年 1 月至 2018 年 12月期间在国家癌症中心中国医学科学院肿瘤医院被诊断为原发性宫颈癌的患者 2)有FDG-PET/CT 图像;3)有电子病历记录。总共入组了 220 名患者,共计 72,602 张切片图像,平均每位患者有 330 张切片图像入组实验。其中,CT 切片图像的高度和宽度均为512 像素,而PET 切片图像的高度和宽度均为128 像素,每个模态的数据集都包含了6,378张切片图像,即平均每位患者有29张切片图像,用于训练和测试。在入组进行分析之前,所有患者数据都已去标识化。本研究已获得北京协和医学院国家癌症中心伦理委员会的批准。

该数据集包含220 个患者的全身 CT 和全身 PET 图像数据,因入组的每位患者均确诊为宫颈癌,数据集中各例数据均包含病变区域,如表 1-1 所示。鉴于所有患者的CT 和PET 均在同一时间且使用相同设备采集,因此 CT 和PET 展示的解剖信息与代谢信息来自同一时刻患者身体的同一区域,其特征具有一对一对应且可匹配的特性。根据肿瘤大小、浸润深度、盆腔临近组织侵犯程度、腹盆腔淋巴结转移的情况可将宫颈癌的进展程度进行分期,主要包括四期,每期中又进一步细分为更具体的期别。国际妇产科联盟(International Federation of Gynecology and Obstetrics,
FIGO)于 2018 年 10 月更新了宫颈癌分期系统的最新版本[37]。本项目数据集囊括了 FIGO 分期全部四个期别的宫颈癌影像。为了保持训练和测试的公平性,纳入训练集和测试集的不同期别影像的分布,即不同 FIGO 分期的划分比例,需保持一致,否则可能会导致某些 FIGO 期别的数据集无法进行训练或测试。因此,在保证处于不同期别的患者数据的划分比例的基础上,采用五折交叉验证方法将220 名患者的数据进行五等分,每个部分大约包括了 45 例患者的数据,在每轮验证中随机选择一个部分作为测试集。所有模型都需要进行5 次训练和评估,以获取在测试集上表现出的性能的平均值和标准差。

表 1-1 数据集中的病例数及临床分期

img

1.3.2. 模型训练过程

在按上述步骤准备好数据集后,首先将图像从 512×512 像素调整为 1024×1024像素,然后使用多种数据增强方法,包括 mosaic 增强[38]、HSV(Hue, Saturation, Value)颜色空间增强[39]、随机图像平移、随机图像缩放和随机图像翻转,增加输入数据集对噪声的鲁棒性。在每次卷积后和激活函数前进行批归一化(Batch Normalization, BN)[40] 。所有隐藏层都采用 Sigmoid 加权线性单元 (Sigmoid-Weighted Linear Units, SiLU)[41 作为激活函数。训练模型所用的学习率设置为 1e-5,并在起始训练时选择较小的学习率,然后在 5 个轮次(epoch)后使用预设的学习
率。每个模型使用PyTorch 框架在4 个Nvidia Tesla V100-SXM2 32G GPU 上进行50个轮次的训练。使用 0.98 的动量和 0.01 的权值衰减通过随机梯度下降法(Stochastic Gradient Descend, SGD)来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。所有实验中的性能测量都是在采用最优参数设置的模型中对测试集进行测试得到的,详见表 1-2。

为了进一步证明本项目所提出的模型的普适性,选择了六个基于深度学习的目标检测模型作为基准,并测试了所有模型在输入不同的图像融合结果时的性能。每个模型的输入完全相同,而唯一的区别是神经网络中的超参数来自每个模型的官方设置,而这些超参数因模型而异。

表 1-2 网络训练的超参数

img

1.3.3. 评价指标

本项目使用“准确度精值50”(Accuracy Precision 50, AP50)来评估目标检测的性能。AP50 是当交并比(Intersection over Union, IOU)阈值为0.5 时的平均精度,如公式3所定义,其中P和R分别是精度(Precision)和召回率(Recall)的缩写。模型的预测结果会有不同的召回率和精度值,这取决于置信度阈值。将召回率作为横轴,精度作为纵轴,可以绘制 PR 曲线,而 AP 是该曲线下的面积。IOU 是将真实标注区域和模型预测区域的重叠部分除以两区域的集合部分(即真实区域和预测区域的并集)得到的结果,如公式4 所示。精度和召回率的计算方式分别在公式1 和2 中列出,其中真正例表示预测为正例的正样本,假正例和假负例代表的概念以此类推。精度表明在模型预测结果里,被判断为正例的样本中有多少实际是正例,而召回率表示实际为正例的样本中多少被预测为正例。表 1-3 记录了图像数据集交叉验证后各个目标检测模型的 AP50 的平均值和方差。

img

1.3.4. 目标检测模型的结果与分析

本项目采用不同的目标检测模型,包括单阶段目标检测模型(YOLOv5 [32]、RetinaNet[42]、ATSS [43 )和二阶段目标检测模型(Faster-RCNN [44
、CascadeRCNN [45]、LibraRCNN[46]),在五折交叉验证下比较了使用 CT 图像、PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像(concat fusion)和本项目所提出的 PET-CT自适应区域特征融合图像作为输入数据集时,每个模型的目标检测性能。其中,CT和PET是单模态图像,而PET-CT简单融合图像、PET-CT通道拼接图像和PET-CT 自适应区域特征融合图像是跨模态融合图像。简单融合是指将 PET 图像简单地缩放到与 CT 图像相同的大小后进行像素值的叠加,而通道拼接融合是直接将两种模态图像在通道上串联在一起作为网络的输入。

如表 1-3 所示,加粗的数字代表每行中最好的实验结果。与使用单一模态数据进行肿瘤检测模型分析(如只使用CT 或PET 图像)相比,本项目所提出的自适应跨模态图像融合方法在目标检测任务中展现出了更高的检测精度。由于自适应融合方法能够在跨模态融合之前将两种模态图像的信息进行预对齐,对 CT 图像和PET图像的结构特征进行一一配准,因此,与简单融合方法和通道拼接融合方法相比,自适应融合方法的性能最佳。上述针对不同模态图像及使用不同跨模态融合方法作为输入得到的测试性能结果在使用不同的目标检测模型的情况下保持一致,这表明本项目所提出的跨模态自适应融合方法有良好的通用性,可以泛化应用到各种目标检测模型的预处理中。

表 1-3 五折交叉验证目标检测实验的结果(“*” 表示交叉验证中的某一折在训练过程中出现梯度爆炸,数值为目标检测模型的 AP50 的均值和方差)

img

图 1-6 将不同模态图像下目标宫颈癌病变区域的检测结果和实际标注的癌灶区域进行了可视化。其中绿色框是由医师标注的真实病变区域,黄色框是目标检测模型的预测结果。分析图像模态信息可知,CT 图像既包含了人体正常结构的信息,也包含病灶的解剖信息,前者可能会干扰宫颈癌病变区域特征的识别和检测。因此,在单一 CT 模态下会有一些漏检。与 CT 模态的预测框相比,PET 模态下的预测框与标注框的 IOU 更高,或许是由于 PET 影像有更多能表现宫颈癌区域特征的信息。在 PET-CT 区域特征跨模态融合图像中检测效果最佳,因为 PET-CT 融合图像融合了两种模态的不同特征,从而大大提高检测的准确性。

图 1-6 跨模态融合图像的目标检测结果

img

1.4. 讨论

本项目旨在评估深度学习算法是否可以跨模态融合 FDG-PET 和 CT 图像,并在融合图像中实现宫颈癌病灶区域的自动检测。我们提出了一个基于跨模态融合图像的检测框架,包括区域特征匹配、图像融合和目标检测等步骤。融合 CT 和PET 图像可以最大程度地提取各个模态中包含的信息,因此 PET-CT 跨模态融合图像含有丰富的解剖和功能信息。目标检测实验证明,本项目提出的跨模态融合方法得到的融合图像显著提高了目标检测的准确性,相比单模态和其他融合方法得到的多模态图像,目标检测平均精确度分别提高了 6.06%和8.9%。

表 1-3 展示了基于不同的图像融合方法形成的多模态图像,不同检测模型在五折交叉验证下的结果。因在解剖和功能影像中均有异常表现的区域更可能是癌变,我们推测,图像信息对齐有利于对宫颈癌病灶的目标区域检测。图 1-6 展示了在不同目标检测模型和不同输入图像数据模态下目标检测效果的可视化图像。基于本项目提出的跨模态融合方法生成的图像进行的目标检测的检测结果更为准确,并消除了一些假阳性结果。根据医生的日常诊断习惯,生成了以红色和黄色为主色的融合图像。

利用 FDG-PET/CT 对宫颈癌进行及时、准确的分期能够影响患者的临床治疗决策,进而延缓疾病进展,并减少肿瘤治疗相关的整体财务负担[47] 。对 FDG-PET/CT 图像的解释在很大程度上依赖临床上获得的背景信息,并需要综合临床分析来确定是否发生癌症的浸润和转移[48]。在某些情况下,核医学科阅片医师可以迅速识别局部扩展和淋巴栓塞。而多数情况下,核医学科医师分析一位患者的FDG-PET/CT 影像学检查结果平均需要三个小时。比起占用医师昂贵且稀缺的时间,利用计算机进行此项工作既能节约成本,预计耗时又短,且可以全天候运行。本项目的目标是通过人工智能方法实现PET 和CT 图像的自动融合,并利用目标检测技术识别宫颈癌的浸润和转移,作为辅助工具加速 FDG-PET/CT 的阅片过程,从而使临床医生能够在最短的时间内按照 FIGO 指南对宫颈癌进行分期。

这项研究仍存在一些局限性。虽然本项目对基于 PET-CT 自适应融合图像的目标检测方法与其他最先进的基于深度学习的目标检测方法进行了比较,但将该方法拓展应用到其他病种的影像学分析的可行性仍需评估。此外,我们提出的跨模态融合框架在图像融合时并未考虑每种模态图像的权重分布。未来可以设计一种特殊的损失函数来调整 ROI 内每个像素的权重分布,以提高目标检测结果的准确性。

1.5. 结论

本项目提出了一种基于跨模态图像融合的多模态图像进行病变区域检测的深度学习框架,用于宫颈癌的检测。为了应对医学影像中单一模态图像在肿瘤检测方面的性能不足,提出了一种基于区域特征匹配的自适应跨模态图像融合策略,将融合后的多模态医学图像输入深度学习目标检测模型完成宫颈癌病变区域检测任务,并讨论了深度学习模型在每种模态图像输入间的性能差异。大量的实验证明,与使用单一模态的影像及基于简单融合方法或通道拼接融合方法的多模态影像相比,自适应融合后的多模态医学图像更有助于宫颈癌病变区域的检测。

本项目所提出的技术可实现 PET 和CT 图像的自动融合,并对宫颈癌病变区域进行检测,从而辅助医生的诊断过程,具备实际应用价值。后续将基于第一部分的目标检测模型基础,利用特征转换的方法,将图像数据转换为结构数据,将跨模态融合方法应用于分类问题。

2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断

2.1. 前言

骨骼是第三常见的恶性肿瘤转移部位,其发生率仅次于肺转移和肝转移,近 70%的骨转移瘤的原发部位为乳腺和前列腺[49] ,[50] 。骨转移造成的骨相关事件非常多样,从完全无症状到严重疼痛、关节活动度降低、病理性骨折、脊髓压迫、骨髓衰竭和高钙血症。高钙血症又可导致便秘、尿量过多、口渴和疲劳,或因血钙急剧升高导致心律失常和急性肾功能衰竭[51 。骨转移是乳腺癌最常见的转移方式,也是患者预后的分水岭,其诊断后的中位生存期约为 40 个月[52] ,[53] 。因此,及时发现骨转移病灶对于诊断、治疗方案的选择和乳腺癌患者的管理至关重要。目前,病灶穿刺活检是诊断骨转移的金标准,但鉴于穿刺活检有创、存在较高风险、且假阴性率高,临床常用影像学检查部分替代穿刺活检判断是否发生骨转移。

Batson的研究表明,乳腺的静脉回流不仅汇入腔静脉,还汇入自骨盆沿椎旁走行到硬膜外的椎静脉丛[54] 。通过椎静脉丛向骨骼的血液回流部分解释了乳腺癌易向中轴骨和肢带骨转移的原因。因潜在骨转移灶的位置分布较广,影像学筛查需要覆盖更大的区域,常要求全身显像。常用的骨转移影像诊断方法包括全身骨显像(whole-body bone scintigraphy, WBS)、计算机断层扫描(computed tomography, CT)、磁共振成像(magnetic resonance imaging, MRI)和正电子发射断层显像(positron emission tomography, PET)[55]。CT 可以清晰地显示骨破坏,硬化沉积,和转移瘤引起软组织肿胀;MRI 具有优异的骨和软组织对比分辨率;因 [18F] 氟化钠会特异性地被骨组织吸收、代谢, PET 可以定位全身各处骨代谢活跃的区域。然而,单一模态影像常不足以检测骨转移,且用传统方法综合单一患者的 CT、MRI、PET 数据筛查骨转移病灶需要对上千幅影像进行解读,这一极为耗时的过程可能影响临床医生对乳腺癌骨转移的诊断,造成误诊、漏诊。而骨转移的漏诊会误导一系列临床决策,导致灾难性后果。

作为一种客观评估体系,人工智能辅助骨转移自动诊断系统通过减少观察者间和观察者内的变异性,提高了诊断的一致性和可重复性,降低了假阴性率。在减轻临床医师的工作负担的同时,提高诊断的准确性。目前已经有很多在单一模态图像中(CT、MRI 或 PET)基于深度学习技术进行骨转移病变检测的工作: Noguchi 等人开发了一种基于深度学习的算法,实现了在所有 CT 扫描区域中对骨转移病灶的自动检测 [56];Fan 等人用 AdaBoost 算法和 Chan-Vese 算法在 MRI 图像上对肺癌的脊柱转移病灶进行了自动检测和分割肺[57];Moreau等人比较了不同深度学习算法在 PET/CT 图像上分割正常骨组织和乳腺癌骨转移区域的性能[58] 。但很少有使用跨模态数据融合的深度学习方法,判断是否存在骨转移灶的相关研究。

旨在减轻临床医生的工作负担,本章提出了基于特征转换的跨模态数据融合方法,用于分析 CT、MRI 和 PET 图像,以判断其中是否存在乳腺癌骨转移病灶。

基于特征转换的 CT、MRI 和 PET 跨模态图像数据融合,进行骨转移病变分类(即存在骨转移病灶和不存在骨转移病灶两类)项目包括三个研究任务:目标病变区域检测,特征构造及转换和分类任务。具体地,采用目标检测模型对不同模态的医学图像序列数据进行单独的骨转移瘤目标检测,再对这些检测结果进行特征提取。所提取的特征包括不同模态下检测结果置信度的区间占比、检测框的面积大小、检测框在图像中的空间位置分布等。这些特征被整理成结构化数据格式,完成了从非结构化影像数据到结构化数据特征的特征转换和融合过程。最后,将转换后的特征输入分类模型进行分类任务。实验比较了基于特征转换的跨模态数据融合方法在乳腺癌骨转移肿瘤分类任务的性能,与仅使用单模态数据执行分类
任务的性能。同时,还将本项目提出的基于特征转换的融合策略与其他融合方法进行了对比。

2.2. 研究方法

2.2.1. 研究设计和工作流程

本项目旨在判断 CT、MRI、PET 图像序列中是否存在乳腺癌骨转移病灶。工作流程如图 2-1 所示:扫描设备对每位患者进行 CT、MRI 或 PET 图像序列的采集;使用目标检测模型分别在不同模态图像中对可疑乳腺癌骨转移灶进行目标检测;对检测结果进行特征提取、构造和融合,得到具有可解释性的结构化医疗数据;用分类模型对结构化数据进行分类任务,得出预测结果,从而判断乳腺癌骨转移是否发生。

图 2-1 工作流程

img

2.2.2. 骨转移目标区域检测

先由两位临床医师对多模态数据集图像中的骨转移病灶进行人工标注,并对患者进行分类(标签分为乳腺癌骨转移和非乳腺癌骨转移),并训练 YOLOv5 目标检测网络,以识别各个单一模态图像中的乳腺癌骨转移病灶。

2.2.3. 基于特征转换的跨模态数据融合

在本项目的数据集中,各种模态序列影像的扫描范围均涵盖了患者的全身。某患者的影像序列(不论是单模态图像还是多模态图像)中检测到含有骨转移病灶的切片图像数量越多,则意味着该患者发生乳腺癌骨转移的概率越大。根据这一基本推理,采用后融合方法,将一个影像序列中含有肿瘤切片图像的比例(百分比)作为结构化的数据特征,作为后续分类任务的依据。

具体操作如下:在每个模态的图像中完成骨转移区域的目标检测任务训练后,统计每个图像序列中检测到转移瘤目标区域的检测框数量。按照检测框的置信度划分为 8 个区间:10%~20%、20%~30%、30%~40%、40%~50%、50%~60%、60%~70%、70%~80%和大于 80%。在每个区间内,分别统计各模态图像序列中转移瘤检测框数量,再除以该序列中切片图像的总数,得到每个置信度区间内每种模态图像序列中含有转移瘤检测框的百分比。接着将三种模态图像提取出的统计特征拼接,组成结构化数据,实现跨模态数据融合。若患者缺失某种模态数据,相应的统计特征(百分比)将被置为零。特征转换后的结构化数据如图 2-2 所示,每种模态数据包括 8 个特征,即不同的置信区间,最后一列为标签值,其中“0”表示负例,“1”表示正例。

图 2-2 特征转换后的结构化数据

img

2.2.4. 乳腺癌骨转移的分类模型

利用构建好的结构化医疗特征进行乳腺癌骨转移分类任务,融合跨模态图像数据特征判断是否发生乳腺癌骨转移。本项目采用分类模型主要以模式识别基础模型为主,包括SVM[59]、AdaBoost[60]、RandomForest[61]、LightGBM[62]、GBDT[63]。SVM 是一种基于核函数的监督学习模型,用于解决分类问题,通过寻找最优超平面在特征空间中将样本分为不同类别,决策函数映射输入特征到输出标签,核函数将特征映射到新空间,损失函数度量决策函数性能,最大化超平面与样本间距离实现分类,可使用不同核函数处理高维特征。Adaboost 是一种迭代算法,于1995 年由 Freund Y 等人提出,能够将多个弱分类器结合成一个强分类器,通过选择初始训练集、训练弱分类器、加权重新分配样本和重复训练直到训练完成所有弱学习器,最后通过加权平均或投票得出最终决策。由 Breiman L 等人于 2001 年提出得 RandomForest 是一种基于决策树的机器学习算法,可用于分类和回归任务。通过构建多个决策树并对它们的预测结果进行平均或投票来得出最终预测结果,训练过程中随机选择特征,以避免过拟合并减少计算量。机器学习模型 LightGBM是一种基于决策树的梯度提升机算法,由Ke G 等人在2017 年提出,适用于结构化数据的分类任务。具有高效、内存友好、支持并行处理和多 CPU 等特点,能快速处理大量特征,通过基于直方图的决策树算法减少训练时间和内存使用量。通过损失函数的泰勒展开式来近似表示残差来计算损失函数。由 Friedman J H 等人于2001 年提出的 GBDT 是一种迭代的决策树算法,通过构建多个决策树来拟合目标函数,每一步都在上一步的基础上构建新的决策树,以不断减小误差,流程包括选取子集、训练弱学习器、梯度下降法最小化误差,最终将弱学习器加入总体模型,重复以上步骤直至达到最优解。

2.2.4.1. 基于C3D 的跨模态数据融合分类模型

本项目采用C3D[64 分类模型作为对照模型,基于3D 卷积神经网络的深度学习方法,使用跨模态数据融合中的前融合策略。如图 2-1 所示,该融合策略从每个模态的图像序列中筛选出一部分,合并一个完整的多模态图像序列,并在通道上进行级联,进行跨模态数据融合。融合后的数据作为 3D 卷积神经网络的输入,经过多个 3D 卷积层提取特征,最终在全连接层中执行分类任务,以判断影像中是否存在乳腺癌骨转移病灶。

2.3. 实验

2.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2000 年 01 月至 2020 年 12月期间在北京协和医院或国家癌症中心中国医学科学院肿瘤医院被诊断为原发性乳腺癌的患者 2)有全身 CT 或 PET 或 MRI 其中任一模态的全身影像数据;3)有电子病历记录。入组患者中有145名被确诊为乳腺癌骨转移,作为正例样本,有88名患者未发生乳腺癌骨转移,作为负例样本。每例样本数据包含一至三种不同模态的图像序列,其图像尺寸和切片图像数量各异。乳腺癌骨转移的多模态医学图像数据集对患者的全身进行采样,由于患者的 CT、MRI 或 PET 是不同时间、在不同设备上采集的,不同模态间的特征并非一一匹配。其中,CT 模态共有3051 张切片,MRI 模态共有 3543 张切片,而 PET 模态共有 1818 张切片。在入组进行分析之前,所有患者数据都已去标识化。本研究已通过北京协和医院伦理委员会批准。

该数据集可以用于执行目标检测任务和分类任务。

骨转移目标检测任务仅分析数据集中的正例样本,进行五折交叉验证:将 145例患者的数据按模态分为三组(CT组、MRI组、PET组),在每个组内对数据进行五等分,在每轮验证中选取一部分作为测试集。为获得测试性能的平均值,所有模型都需进行5 次训练和评估。

在利用结构化数据执行分类任务时,需要平衡正负样本数量,因此要扩充数据集。将具有多种模态的样本拆分为包含较少模态的样本,如将“CT+MRI+PET”类型拆分为“CT+MRI”或“CT+PET”等。如表 2-1 所示,扩充后共有 380 例样本数据,包括188 个正样本和 192 个负样本。下一步,合并五折交叉验证的目标检测结果,此后,进行特征构建和转换,从而获得适合跨模态数据融合和分类任务的结构化数据;对于负样本数据,也需要在合并骨转移目标检测模型的推理结果后,对数据进行结构化处理。

为证实在乳腺癌骨转移判断的分类任务中,基于特征转换的跨模态融合数据性能优于单一模态数据,需要进行多模态融合数据与单模态数据的对照实验。如表 2-1 所示,单模态数据包括仅有 CT、仅有 MRI 和仅有 PET 三种类型的数据集合,总计 212 个样本,而多模态数据涵盖了CT+MRI、CT+PET、MRI+PET 和CT+MRI+PET 四种类型,共计 168 个样本。分别对单模态数据和多模态数据进行独立划分,将每种模态数据进行五等份,进行五折交叉验证。在每轮验证中,选择一部分作为测试集。利用 SVM、AdaBoost、RandomForest、LightGBM、GBDT以及 C3D 模型进行实验,每个模型都需进行 5 轮训练和评估,以获得测试集上性能的平均值。

为适应 C3D 模型对图像统一尺寸的要求,针对不同患者切片数量、大小的差异,进行预处理。在每种模态图像序列中等间隔抽取 60 张图像切片,并进行缩放,使其组合为 180 张 128×128 像素的切片。对于缺失的模态数据,用 60 张零像素值的黑色图像切片进行填充。从 180 张切片中随机选取一个起始位置,连续抽取 120张切片作为模型的最终输入,确保输入尺寸为 128×128×120 像素。

表 2-1 扩充后的分类数据集

img

2.3.2. 模型训练过程

在按上述步骤准备好数据集后,进行目标检测任务训练时,将每个模态的图像大小统一到1024×1024像素,然后使用多种数据增强方法,增加输入数据集对噪声的鲁棒性。

目标检测模型采用 YOLOv5 模型模型并使用 PyTorch 深度学习框架在 2 个Nvidia Tesla V100-SXM2 32G GPU 上进行 70 个轮次的训练。初始学习率为 0.00001,使用 0.98 的动量和 0.01 的权值衰减通过 SGD 来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。

进行分类任务时,采用 LightGBM、GBDT、AdaBoost、RandomForest 以及SVM,上述模型均为机器学习模型,其超参数对模型预测结果影响较大,在分类任务中,采用SVM、AdaBoost、RandomForest、LightGBM以及GBDT等机器学习模型。因其超参数会对预测结果产生较大影响,在训练过程中,使用网格搜索策略为这些模型寻找最佳参数。网格搜索策略在一定范围的超参数空间内寻找最佳的超参数组合,通过枚举各种可能的组合并评估模型预测结果,最终选择表现最优的超参数组合。要搜索的超参数包括学习率、树的最大深度、叶子节点数量、随机抽样比例、权重的L1正则化项和权重的L2正则化项等。实验结果将基于最优超参数设定下的预测模型。模型训练的网络结构图如图 2-3 所示。

用于对照的 C3D 模型使用 PyTorch 深度学习框架在 1 个 NVIDIA Tesla V100-SXM2 32GB GPU 上训练 100 个轮次,初始学习率为 0.00001,使用动量为 0.9,权值衰减为0.0005 的 SGD 梯度下降优化器对各网络层权重的目标函数进行优化。

图 2-3 网络结构图

img

2.3.3. 评价指标

本项目中的骨转移目标检测任务采用 AP50 作为评价指标,其介绍详见上一章节。

而在分类任务中,采用准确率(Accuracy, Acc)、敏感性(Sensitivity, Sen)、特异性(Specificity, Spe)、AUC(Area Under Curve, AUC)作为评价指标,并采用ROC 曲线和PR 曲线对模型进行评估。准确率是指对于给定的测试集,分类模型正确分类的样本数占总样本数的比例,如公式 5 所示,其中真正例(True Positive, TP)表示预测为正例且标签值为正例,假正例(False Positive, FP)表示预测为正例但标签值为负例,和假负例(False Negative, FN)和真负例(True Negative, TN)代表的概念以此类推。如公式 64 和公式 7 所示,敏感性和特异性的定义分别为:预
测正确的正例占所有正例的比例,以及预测正确的负例占所有负例的比例。ROC曲线是一种评估二分类模型的方法,其横轴为假阳性率(False Positive Rate,FPR),其计算方式与上一章的召回率(Recall)相同,纵轴为真阳性率(True Positive Rate,TPR),TPR 和 FPR 的计算方式详见公式 8 和公式 9。ROC 曲线展示了在不同阈值下,TPR 与 FPR 的变化关系。因为左上角点对应的假阳性率为 0,真阳性率为 1,表明模型将所有正例样本分类正确,且未将任何负例样本误判为正例。若 ROC 曲线靠近左上角,提示模型性能较好。AUC代表ROC曲线下的面积,即从(0,0)到(1,1)进行积分测量ROC曲线下二维区域的面积。AUC综合考虑所有可能的分类阈值,提供了一个全面的性能度量。AUC 值表示随机从正负样本中各抽取一个,分类器正确预测正例得分高于负例的概率。AUC 值越接近 1,说明模型性能越优秀。PR曲线的绘制方法详见上一章, PR曲线在不同分类阈值下展示了分类器在精度(Precision, P)和召回率(Recall, R)方面的整体表现。

img

2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析

本项目对乳腺癌骨转移多模态医学图像数据集(包括 CT、MRI、PET)进行了单模态肿瘤检测实验和基于特征转换的跨模态病例分类实验。其中,单模态肿瘤检测实验是多模态肿瘤分类实验的前置步骤。

采用单阶段目标检测模型 YOLOv5,在五折交叉验证下比较了使用单模态 CT图像、PET图像、MRI图像作为输入数据集时,模型的目标检测性能。并在将目标检测结果进行特征转换后,采用不同的分类模型,包括后融合分类模型(LightGBM、GBDT、AdaBoost、RandomForest、SVM) 和 前 融 合 分 类 模 型(C3D),在五折交叉验证下比较了使用单模态数据和跨模态融合数据作为输入时,每个模型的分类性能。

表 2-2 展示了在不同单一模态数据上,五折交叉验证得到的骨转移病灶检测结果,评估指标为 AP50。实验结果表明,PET 模态的检测精度较高,而 CT 模态的检测精度最低。输入数据量较少、检测目标面积小、转移瘤的特征难以与正常骨组织区分是提高检测精度的难点。图 2-4 不同单一模态图像下目标骨转移病变区域的检测结果和实际标注的癌灶区域进行了可视化。绿色框由医师标注,目标检测模型标注的预测框为黄色。

表 2-2 单模态骨转移灶检测五折交叉验证结果

img

图 2-4 可视化单模态目标检测结果

img

将 CT、MRI 和 PET 的数据组成单模态子数据集进行单模态分析,而将两种及两种以上的数据组成跨模态子数据集进行多模态分析。表 2-3 和表 2-4 展示了在上述两种子数据集中进行五折交叉验证的结果,对比了6 种不同模型每一折的准确率、AUC,及其平均值。这 6 类模型中的前 5 种模型使用后融合策略,而作为对照的C3D 模型采用前融合策略。对比表 2-3 和表 2-4 的实验结果可知,在任一模型(包括前融合模型)中,基于特征转换的跨模态融合数据在乳腺癌骨转移分类任务上相较于仅使用单模态数据的性能有所提高:平均准确率提高了7.9%;平均AUC 提高了8.5%。如表2-5 和2-6 所示,跨模态融合方法比单模态方法的平均敏感性提高了7.6%,平均特异性提高了 9.4%。

表 2-3 基于单模态子数据集进行分类任务的准确率和 AUC

img

表 2-4 基于跨模态子数据集行分类任务的准确率和 AUC

img

表 2-5 单模态数据分类的敏感性和特异性

img

表 2-6 跨模态融合数据分类的敏感性和特异性

img

图 2-5 和图 2-6 分别展示了 6 个模型利用单模态数据进行分类实验和利用特征转换和融合后的跨模态数据进行分类实验的 PR 曲线。可以根据曲线形状和曲线下方面积来评估不同模型的性能表现,曲线下面积越大,提示模型的性能越优秀。综合观察单模态和跨模态分类实验的P-R曲线图,可以发现,基于跨模态数据的分类任务的P-R 曲线下面积大于基于单模态数据的分类任务的P-R 曲线下面积,提示跨模态数据作为输入时分类模型的表现更加出色。

比较基于单模态数据进行分类的模型的 P-R 曲线,可见 3D 卷积网络的训练方式相较于其他后融合模型的性能表现更优。然而,在基于跨模态数据进行分类的模型的 P-R 曲线中,基于特征转换的跨模态后融合策略相对于基于 3D 卷积的前融合方法具有更好的性能。

图 2-5 基于单模态数据不同分类模型的的PR 曲线

img

图 2-6 基于跨模态数据不同分类模型的的PR 曲线

img

图 2-7 和图 2-8 展示了 6 种分类模型在使用单模态数据进行分类实验和使用跨模态数据进行分类实验的情况下的ROC 曲线。通过对比观察六个模型的ROC 曲线的形状和面积来评估不同模型的性能。靠近左上角的 ROC 曲线表示假阳性率接近0,真阳性率接近 1,趋近于左上角的 ROC 曲线提示模型性能优越。对比图 2-7 和图 2-8 可知,使用基于特征转换的跨模态数据的骨转移病例分类模型的性能更为优越。

图 2-7 基于单模态数据不同分类模型的的ROC 曲线

img

图 2-8 基于跨模态数据不同分类模型的的ROC 曲线

img

本文提出的跨模态数据融合方法是基于特征转换的后融合策略,相较于前融合策略具有更好的性能。实验表明,无论采用前融合或后融合策略,基于跨模态融合数据的实验都表现出了显著的优势。相较于多模态数据,单一模态数据所捕获的特征较为单一(如仅有结构信息) ,可能由于缺乏关键和全面的特征信息导致模型性能不佳,而跨模态融合方法则能从不同模态中获取更多的有效特征,并将其融合,从而提高准确率。

2.4. 讨论

本项目旨在评估基于特征转换的跨模态数据融合方法是否可以跨模态融合 CT、MRI 和 PET 图像的有效特征,以对乳腺癌患者进行是否发生骨转移的评估。本项目提出了一个基于特征转换的跨模态融合图像数据框架,用于对骨转移病变进行分类,包括目标病变区域检测、特征构造及融合形成可解释的结构化数据以及跨模态融合数据分类步骤。融合 CT、MRI 和 PET 的转换特征数据能够充分利用各个模态中的信息,为分类任务提供更多的数据支持,并增加辅助判断的特征线索。基于特征转换的跨模态病例分类实验证明,本项目提出的跨模态融合数据显著提高了对影像序列进行二分类任务的性能,相较于单模态数据,平均准确率和 AUC分别提高了7.9%和 8.5%。

如表 2-2 所示,单模态目标检测模型在 PET 图像中的检测精度较高,而在 CT和 MRI 图像中的精度相对较低。图 2-4 展示了在 YOLOv5 目标检测模型中不同单一输入图像模态下乳腺癌骨转移检测效果的可视化图像。分析各种图像模态信息可知,CT 和 MRI 图像不仅包含病灶的解剖信息,还包含了人体正常组织的结构信息,而后者可能会干扰宫颈癌病变区域特征的识别和检测,导致单一CT或MRI模态下出现漏检现象。与之不同,PET图像展示的是组织代谢信息。骨转移病灶通常伴随着频繁的成骨和破骨活动,在 PET 影像中呈高代谢,而正常骨组织的代谢相对较缓慢,通常不会显示在图像中。因此,PET 对背景组织的干扰较 CT、MRI 更不敏感,有助于目标检测模型识别异常代谢区域。因早期无症状骨转移病灶通常体积较小,可能因目标区域面积过小影响目标检测结果。在模型处理过程中,池化(pooling)操作可能导致特征或图像信息的损失,从而造成特征缺失。为了克服这一问题,后续研究可以关注提高模型在处理小目标区域时的性能。

表 2-4 和表 2-6 展示了在各种分类模型中,基于跨模态结构化数据在五折交叉验证下的分类性能。通过对比分析发现,相对于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在性能方面有所提高。医学影像数据有数据量较少、维度高、结构复杂以及样本识别难度大等特点,这导致将特征提取任务交由模型完成,直接输入原始数据或经过简单预处理的数据,让模型自主进行特征提取并生成最终输出的这种端到端的前融合方法效果不尽如人意。由于患者在体型、身高等方面的个体差异,一个图像序列内的CT和MRI切片数量也有所不同。因此,需要对图像进行归一化处理,将其转换为统一的标准格式,如调整到相同尺寸、修正切割后图像中心的位置等。归一化操作旨在对数据进行统一格式化和压缩,但这可能会导致图像未对齐、图像与特征错位、数据压缩过度以及特征丢失等问题。因此,采用基于特征转换的后融合策略可能更合适本项目。前融合所采用的 C3D分类模型是一种在三维数据上进行分析的网络模型。三维数据具有尺度高、维度大以及信息稀疏等特点。尽管 C3D 网络训练过程中增加了一个维度的信息,但同时也提高了算法分析的复杂性,特别是在模型训练过程中,占用了大量显存等硬件资源,可能导致批归一化不理想和网络收敛不完全的问题。与 C3D 相比,本文提出的二阶段后融合方法实现了特征压缩,提取置信度这种可解释的特征,并去除了无关的稀疏特征。在有限的硬件资源和数据量的限制下,这种方法能更好地学习数据特征,起到了类似正则化(通过在损失函数中添加约束,规范模型在后续迭代过程中避免过度拟合)的效果。

乳腺癌骨转移病灶在代谢和结构方面都较正常骨组织显著不同。因此,通过融合 CT、MRI 和 PET 图像的特征信息,实现解剖和功能信息的跨模态融合,能更有效地完成分类任务,帮助诊断乳腺癌骨转移。然而,综合分析全身 CT、MRI 和PET图像信息需要医师投入大量时间,且存在较大的观察者间差异。一旦发生漏诊,会导致严重后果。利用计算机辅助医师判断乳腺癌是否发生骨转移不仅可以节省成本和时间,还能提供更加客观的评估标准。计算机辅助诊断工具可以综合多模态图像的结果进行特征转换和分析,预防漏诊的发生。因此,在未来的研究中,可以重点关注开发此类计算机辅助诊断系统,以提高乳腺癌骨转移诊断的准确性和效率。

这项研究仍存在一些局限性。从单个影像模态中提取的特征较为单一,仅有置信区间,可以在后续的训练中可以从临床角度出发加入更多可能影响骨转移判断的因素作为分类特征,如检测目标的面积,或增加中轴骨检出目标的权重。因本项研究具有多模态影像数据的病例量不够,未来可以尝试除五折交叉验证之外其他的模型训练方法以降低数据量对分类模型性能的影响。

2.5. 结论

本项目提出了一种基于特征转换的跨模态数据融合方法进行分类任务的深度学习框架,用于判断是否发生乳腺癌骨转移。首先独立对不同模态的医学图像数据进行肿瘤检测,根据目标检测结果进行特征构造,并将其组织成结构化数据的形式,完成从非结构化数据特征到结构化数据特征的转换与融合。最终,将结构化数据特征输入分类器,进行骨转移的分类任务,并对照 C3D 前融合模型,讨论了基于特征转换方法进行跨模态数据后融合的优势。大量的实验证明,使用基于特征转换的跨模态融合数据进行分类任务的性能优于基于单模态数据的分类性能;使用本项目提出的后融合策略执行分类任务较使用前融合策略的分类模型(C3D)的性能更好。

本项目所提出的技术可综合 CT、MRI 和 PET 模态数据的特征,对乳腺癌患者是否发生骨转移进行判断,辅助临床医师进行乳腺癌骨转移病灶的筛查,具备实际应用价值,也为在医学图像分析任务中更有效地应用跨模态融合方法,提供了关键的理论支持。

全文小结

目前,医学影像学的解读大量依赖临床医生个人的主观诊断经验,人工阅片易漏诊小目标,难以推广及表述,具有一定的局限性。与此相比,人工智能技术可以通过深度神经网络对大量积累的影像数据和诊断数据进行分析,学习并提取数据中对病理诊断有用的特征,从而在数据支持下做出更客观的判断。按成像方式不同,医学影像数据可分为多种模态,如B超、CT、MRI、PET。为了最大限度模拟临床医生结合不同模态影像检查结果形成诊断的过程,设计人工智能模型时,应将各种影像学模态的特征进行有效的融合,即本项目中应用的跨模态深度学习方法,充分利用不同模态图像的独特优势训练深度神经网络,从而提高模型性能。本项目以宫颈癌和乳腺癌骨转移为例,验证了跨模态深度学习方法在病变区域定
位和辅助诊断方面的性能。

在第一部分中,我们回顾性纳入了220例有FDG-PET/CT数据的宫颈癌患者,共计 72,602 张切片图像。通过图像增强、边缘检测,实现 PET 和 CT 图像的 ROI自适应定位,再通过缩放、零值填充和剪切的方式,将两种模态图像的 ROI 对齐。经过加权和图像叠加,进行图像融合,将融合后的图像作为目标检测网络的输入层,进行宫颈癌病变区域检测。实验证明,相比使用单一 CT 图像、单一 PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像作为网络输入,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性,目标检测的平均精确度(AP50)分别提高了 6.06%和 8.9%,且消除了一些假阳性结果,展现出可观的临床应用价值。

在第二部分中,我们回顾性纳入了 233 例乳腺癌患者,每例样本数据包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有 3051 张 CT 切片,3543 张 MRI切片,1818 张 PET 切片。首先训练 YOLOv5 目标检测网络,对每种单一模态图像中的骨转移病灶进行目标检测。统计每个影像序列中含有检出骨转移病灶的个数和置信度,将每个置信区间内含有目标检测框的百分比作为结构化医疗特征数据。采用级联方式融合三种模态的结构化特征,得到具有可解释性的结构化医疗数据,再用分类模型进行分类,预测是否发生骨转移。实验证明,相较于单模态数据,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能,平均准确率和 AUC 分别提高了 7.9%和 8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也有相同的实验结论。在不同的分类模型(SVM、AdaBoost、RandomForest、LightGBM、GBDT)中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

综上所述,本文基于人工智能深度学习算法,针对不同模态医学图像的特征差异与互补性,进行多模态医学影像数据的跨模态融合,提高了模型的肿瘤检测和分类性能,检测模型和分类模型可以辅助影像学阅片过程,具有显著的临床实际应用价值。

参考文献

[1] 陈思源, 谭艾迪, 魏双剑, 盖珂珂. 基于区块链的医疗影像数据人工智能检测模型[J] . 网络安全与数据治理, 2022, 41(10): 21-25.
[2] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J . Gastroenterology, 2023, 164(2): 191-193.
[3] Arbyn M, Weiderpass E, Bruni L, et al. Estimates of incidence and mortality of cervical cancer in 2018: a worldwide analysis[J . The Lancet Global Health, 2020, 8(2): e191-e203.
[4] Marth C, Landoni F, Mahner S, et al. Cervical cancer: ESMO Clinical Practice Guidelines for diagnosis, treatment and follow-up[J . Annals of Oncology, 2017, 28:iv72-iv83.
[5] Gold M A. PET in Cervical Cancer—Implications forStaging,’Treatment Planning, Assessment of Prognosis, and Prediction of Response[J . Journal of the National Comprehensive Cancer Network, 2008, 6(1): 37-45.
[6] Gandy N, Arshad M A, Park W H E, et al. FDG-PET imaging in cervical cancer[C] .Seminars in nuclear medicine. WB Saunders, 2019, 49(6): 461-470.
[7] Grigsby P W. PET/CT imaging to guide cervical cancer therapy[J . Future Oncology, 2009, 5(7): 953-958.
[8] Mirpour S, Mhlanga J C, Logeswaran P, et al. The role of PET/CT in the management of cervical cancer[J . American Journal of Roentgenology, 2013, 201(2): W192-W205.
[9] LeCun Y, Bengio Y, Hinton G. Deep learning[J . nature, 2015, 521(7553): 436-444.
[10] Szeliski R. Computer vision: algorithms and applications Springer Science & Business Media[J] . 2010.
[11] Ma B, Yin X, Wu D, et al. End-to-end learning for simultaneously generating decision
map and multi-focus image fusion result[J . Neurocomputing, 2022, 470: 204-216.
[12] Anwar S M, Majid M, Qayyum A, et al. Medical image analysis using convolutional
neural networks: a review[J . Journal of medical systems, 2018, 42: 1-13.
[13] Ma B, Ban X, Huang H, et al. Deep learning-based image segmentation for al-la alloy
microscopic images[J . Symmetry, 2018, 10(4): 107.
[14] Li Z, He J, Zhang X, et al. Toward high accuracy and visualization: An interpretable feature extraction method based on genetic programming and non-overlap degree[C] . 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2020: 299-304.
[15] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J] . nature, 1986, 323(6088): 533-536.
[16] He K , Gkioxari G , Dollar P , et al. Mask R-CNN[C . International Conference on Computer Vision. IEEE Computer Society, 2017, pp. 2980-2988.
[17] Ma B, Wei X, Liu C, et al. Data augmentation in microscopic images for material data mining[J] . npj Computational Materials, 2020, 6(1): 125.
[18] Ma B, Zhu Y, Yin X, et al. Sesf-fuse: An unsupervised deep model for multi-focus image fusion[J] . Neural Computing and Applications, 2021, 33: 5793-5804.
[19] Kermany D S, Goldbaum M, Cai W, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J . cell, 2018, 172(5): 1122-1131. e9.
[20] Hyun S H, Ahn M S, Koh Y W, et al. A machine-learning approach using PET-based radiomics to predict the histological subtypes of lung cancer[J . Clinical nuclear medicine, 2019, 44(12): 956-960.
[21] Chilamkurthy S, Ghosh R, Tanamala S, et al. Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study[J . The Lancet, 2018, 392(10162): 2388-2396.
[22] Chen C, Xiao R, Zhang T, et al. Pathological lung segmentation in chest CT images based on improved random walker[J] . Computer methods and programs in biomedicine, 2021, 200: 105864.
[23] Chen C, Zhou K, Zha M, et al. An effective deep neural network for lung lesions segmentation from COVID-19 CT images[J] . IEEE Transactions on Industrial Informatics, 2021, 17(9): 6528-6538.
[24] Hill D L G, Batchelor P G, Holden M, et al. Medical image registration[J] . Physics in medicine & biology, 2001, 46(3): R1.
[25] Du J, Li W, Lu K, et al. An overview of multi-modal medical image fusion[J] .Neurocomputing, 2016, 215: 3-20.
[26] Watanabe H, Ariji Y, Fukuda M, et al. Deep learning object detection of maxillary cyst-like lesions on panoramic radiographs: preliminary study[J] . Oral radiology, 2021, 37: 487-493.
[27] Mattes D, Haynor D R, Vesselle H, et al. PET-CT image registration in the chest using free-form deformations[J] . IEEE transactions on medical imaging, 2003, 22(1): 120-128.
[28] Maqsood S, Javed U. Multi-modal medical image fusion based on two-scale image decomposition and sparse representation[J] . Biomedical Signal Processing and Control, 2020, 57: 101810.
[29] Elakkiya R, Subramaniyaswamy V, Vijayakumar V, et al. Cervical cancer diagnostics healthcare system using hybrid object detection adversarial networks[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 26(4): 1464-1471.
[30] Al-Ameen Z, Sulong G, Gapar M D, et al. Reducing the Gaussian blur artifact from CT medical images by employing a combination of sharpening filters and iterative deblurring algorithms[J] . Journal of Theoretical and Applied Information Technology, 2012, 46(1): 31-36.
[31] Canny J. A computational approach to edge detection[J] . IEEE Transactions on pattern analysis and machine intelligence, 1986 (6): 679-698.
[32] Jocher G, Stoken A, Borovec J, et al. ultralytics/yolov5: v5. 0-YOLOv5-P6 1280 models, AWS, Supervise. ly and YouTube integrations[J . Zenodo, 2021.
[33] Wang C Y, Liao H Y M, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020: 390-391.
[34] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C .
Proceedings of the IEEE conference on computer vision and pattern recognition, 2018:
8759-8768.
[35] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv, 2020, 2004: 10934.
[36] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J . IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.
[37] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J . Radiology, 2019, 292(1): 15-24.
[38] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv:2004.10934, 2020.
[39] Smith A R. Color gamut transform pairs[J . ACM Siggraph Computer Graphics, 1978, 12(3): 12-19.
[40] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by
reducing internal covariate shift[C . International conference on machine learning.
pmlr, 2015: 448-456.
[41] Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J . Neural Networks, 2018, 107: 3-11.
[42] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C] .Proceedings of the IEEE international conference on computer vision. 2017: 2980-2988.
[43] Zhang S, Chi C, Yao Y, et al. Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 9759-9768.
[44] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J . Advances in neural information processing systems, 2015, 28.
[45] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality object detection[C] .Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:6154-6162.
[46] Pang J, Chen K, Shi J, et al. Libra r-cnn: Towards balanced learning for object detection[C] . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019: 821-830.
[47] Cohen P A, Jhingran A, Oaknin A, et al. Cervical cancer[J . The Lancet, 2019, 393(10167): 169-182.
[48] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J] . Radiology, 2019, 292(1): 15-24.
[49] Coleman R E. Metastatic bone disease: clinical features, pathophysiology and treatment strategies[J . Cancer treatment reviews, 2001, 27(3): 165-176.
[50] Cecchini M G, Wetterwald A, Van Der Pluijm G, et al. Molecular and biological mechanisms of bone metastasis[J . EAU Update Series, 2005, 3(4): 214-226.
[51] Cuccurullo V, Lucio Cascini G, Tamburrini O, et al. Bone metastases radiopharmaceuticals:
an overview[J . Current radiopharmaceuticals, 2013, 6(1): 41-47.
[52] Emens L A, Davidson N E. The follow-up of breast cancer[C . Seminars in oncology. WB Saunders, 2003, 30(3): 338-348.
[53] Chen W Z, Shen J F, Zhou Y, et al. Clinical characteristics and risk factors for developing bone metastases in patients with breast cancer[J . Scientific reports, 2017, 7(1): 1-7.
[54] Batson O V. The function of the vertebral veins and their role in the spread of metastases[J . Annals of surgery, 1940, 112(1): 138.
[55] O’Sullivan G J, Carty F L, Cronin C G. Imaging of bone metastasis: an update[J] .World journal of radiology, 2015, 7(8): 202.
[56] Noguchi S, Nishio M, Sakamoto R, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J . European Radiology, 2022, 32(11): 7976-7987.
[57] Fan X , Zhang X , Zhang Z , et al. Deep Learning on MRI Images for Diagnosis of Lung Cancer Spinal Bone Metastasis[J . Contrast Media & Molecular Imaging, 2021, 2021(1):1-9.
[58] Moreau N, Rousseau C, Fourcade C, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[C] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). IEEE, 2020: 1532-1535.
[59] Boser B E, Guyon I M, Vapnik V N. A training algorithm for optimal margin classifiers[C] . Proceedings of the fifth annual workshop on Computational learning theory, 1992: 144-152.
[60] Freund Y, Schapire R E. A decision-theoretic generalization of on-line learning and an application to boosting[J] . Journal of computer and system sciences, 1997, 55(1): 119-139.
[61] Breiman L. Random forests[J . Machine learning, 2001, 45: 5-32.
[62] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree[J] . Advances in neural information processing systems, 2017, 30: 52.
[63] Chen T, Guestrin C. Xgboost: A scalable tree boosting system[C . Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016: 785-794.
[64] Tran D, Bourdev L, Fergus R, et al. Learning spatiotemporal features with 3d convolutional networks[C . Proceedings of the IEEE international conference on computer vision, 2015: 4489-4497.

img

文献综述

3. 跨模态深度学习技术在临床影像中的应用

The Application of Deep Learning and Cross-modal Fusion Methods in Medical Imaging

Abstract

Deep learning technology is gaining widespread prominence across various fields in this era. In the realm of medical imaging, it has steadily assumed a pivotal role in tasks such as feature recognition, object detection, and image segmentation, since its inception. With the continuous evolution of imaging techniques, the individual patient often possesses an expanding wealth of multi-modal imaging data. It is evident that deep learning models utilizing cross-modal image fusion techniques will find diverse applications in a lot more clinical scenarios. In the future, deep learning will play a significant role in the medical sector, encompassing screening, diagnosis, treatment, and long-term disease management. To provide a reference for future research, this review aims to present a concise overview of the fundamental principles of deep learning, the nature of cross-modal fusion methods based on deep learning, with their wide-ranging applications, and a comprehensive survey of the present clinical uses of single-modal and cross-modal deep learning techniques in medical imaging, with a particular emphasis on bone metastasis imaging.

Keywords: deep learning, cross-modal, tumor imaging, bong metastasis

3.1 Preface

Nowadays, data are generated in massive quantities in the healthcare sector, from sources such as high-resolution medical imaging, biosensors with continuous output of physiologic metrics, genome sequencing, and electronic medical records. The limits on the analysis of such data by humans alone have clearly been exceeded, necessitating an increased reliance on machines. The use of artificial intelligence (AI), the deep-learning subtype in particular, has been enabled by the use of labeled big data, along with markedly enhanced computing power and cloud storage. One field that has attracted particular attention for the application of AI is radiology, as the cost of medical scans is declining, and the use of imaging studies is now at least as common as physical examinations, even surpassing the latter in surgical emergencies out of humanism and accuracy concerns. AI can greatly aid clinicians in diagnosis, especially in the interpretation of radiographic images, the accuracy of which heavily relies on the clinical experience and scrutiny of their interpreters, thus freeing clinicians to devote more of their attention to providing bedside healthcare. The radiologic screening and staging of tumors rely heavily on radiologists’ subjective judgments. For some minuscule or ambivalent lesions, it is often difficult to arrive at a definitive diagnosis based solely on clinical experience. A case reported by Dong et al. proves the vulnerability of relying on error-prone human judgment[1 . AI methods mainly analyze medical images through image processing and deep learning techniques. As an assistant for clinicians, deep neural networks can be trained with large datasets of radiologic images or clinical information, automatically learning features key to the revelation of pathology or lesion localization. In addition to deep learning models based on images of a single modality, researchers have also proven the feasibility of integrating multi-modal medical imaging data in algorithms, with improved model robustness. A combination of feature representations from different imaging modalities can effectively improve the performance of tumor detection, classification, and segmentation. Artificially generating relatively scarce imaging data from more easily accessible radiographs by way of cross-modal image translation can not only aid diagnoses but also improve the performance of deep learning models.

This article will briefly review the relevant background of deep neural networks (DNNs), as well as the up-to-date development of cross-modal fusion and image translation methods. An overview of the current clinical applications of single-modal and cross-modal deep learning in tumor imaging, especially in bone metastasis imaging, is also provided.

3.2. Deep Neural Network (DNN)

Traditional machine learning methods face limitations in handling data in its raw form, as creating a suitable internal representation or feature vector requires a meticulous feature extractor designed manually to convert raw data, such as image pixels. Only after then a classifier, every detail of which was manually set and adjusted, could detect or classify patterns in the input, and spell out its outcome. Because of the varying qualities of images, lots of intricate image enhancement or filtering algorithms, such as adaptive Gaussian learning, histogram equalization, and de-noising, are designed alone for the purpose of pre-processing images to be ready for the feature extractor. Another downside of conventional machine learning is that manually coded algorithms would only, with images with finer details or better contrast, allow for automatic execution of the thought processes that can best mimic, not surpass, that of a clinician. All the key features to be extracted and used in encoding the classifier were essentially the same set of “inputs” a clinician would use to make his or her judgment.

In contrast, “representation learning” is a set of techniques utilized in deep learning, which enable machines to analyze raw data without manual feature engineering. This allows the system to automatically identify the relevant patterns or features needed for classification or detection. Pattern recognition using deep neural networks (DNNs) can help interpret medical scans, pathology slides, skin lesions, retinal images, electrocardiograms, endoscopy, faces, and vital signs. Deep learning algorithms employ multiple tiers of representation through the composition of nonlinear modules, which transform the input representation from one level to the next, beginning with the raw input and continuing to higher and more abstract levels. It is helpful to think of the entire network as, nonetheless, a “function”, that takes in a set of inputs and spills out an output, though with absurdly complicated parameters and transformations. Irrelevant variations or noise can be lost as stepping up towards the higher layers of representation that amplify only features important for discrimination. By this “layering” method, very complex functions can be learned. A key differentiating feature of deep learning compared with other subtypes of AI is its autodidactic quality, i.e. neither the number of layers nor features of each layer is designed by human engineers, unencumbered by either the essence or the flaws of the human brain.

3.2.1. Supervised learning

Supervised learning is the process of learning with training labels assigned by the supervisor, i.e. the training set of examples has its raw input data bundled with their desired outputs. When used to classify images into different categories, the machine is shown an image and produces an output in the form of a vector of scores, one for each category during training. In supervised learning, the machine receives immediate feedback on its performance when its output does not match the expected output. The aim is to assign the highest score to the desired category among all categories. This is achieved by calculating a cost function that measures the average error or distance between the output scores and the expected pattern of scores. The inputs of the cost function are the parameters of the machine. Much like the “update rule” used in the Mixed Complementarity Problem (MCP), the perceptron learning algorithm updates its internal adjustable parameters to minimize errors when it predicts the wrong category[2]. The adjustable parameters consist of weights and biases, where weights control the input-output function of the machine. The algorithm learns from its mistakes rather than successes, and the weights can number in the hundreds or millions. Weights are assigned to the connections between neurons from the input layer and one of the neurons in the next layer, in some sense representing the “strength” of a connection. The activation of a single notch of neurons in the next layer was computed by taking the weighted sum of all the activations of the first layer, e.g., greyscale values of the pixels. Just like biological neurons may have different thresholds that the graded sum of electric potentials at the cell body needed to reach for axonal propagation, the algorithm may not want its neuron to light up simply over a sum greater than 0. So, a “bias for inactivity” is introduced into the weighted sum formula. For example, if a neuron is designed to be active only if the weighted sum exceeds 10, then a 10 is subtracted from the formula before the transformation that follows. Weights represent the pixel pattern (weight assigned to each pixel can be visualized as a pixel pattern) that the algorithm identifies, while biases provide a threshold indicating the required level of weighted sum for a neuron to become meaningfully active. When the goal is to have the value of activations of the next layer between 0 and 1 and were the mapping to be smooth and linear, then the weighted sum can be pumped into a sigmoid function, i.e. 1/(1 + exp(−w)), where w is the weighted sum. A sigmoid transformation compresses the continuum of real numbers, mapping them onto the interval between 0 and 1, effectively pushing negative inputs towards zero, and positive inputs towards 1, and the output steadily increases around the input 0. Say the mapping is from p neurons from the one layer to the q neurons of the next layer, there would be p×q number of weights and q biases. These are all adjustable parameters that can be manipulated to modify the behavior of this network. In a deep learning system, changing the parameters may reflect a shift in the location, size, or shape of the representations to find “better” features to travel through the layers to get to the desired output.

At present though, preferred mappings in DNN are neither smooth nor linear. By applying a non-linear function to the input, the categories become separable by the last output layer in a linear way, resulting in a definitive category output, unlike the previously mentioned range of numerical values that would require arbitrary cut-off points to finalize the categorization. A sigmoid transformation was once popular in the era of Multilayer Perceptron, during which a machine was simply an executor of commands, and the feature detected by each layer was designed and programmed by human engineers, such that the final output, as a continuous variable, would be interpretable[3]. The rectified linear unit (ReLU) is currently the most widely used non-linear function, which introduces non-linearity into the network by setting all negative values to zero. This is in contrast to the smoother non-linearities, such as tanh(z) or 1/(1 + exp(−z)), used in previous decades.
ReLU has proven to be a faster learner in deep networks compared to these other non-linear functions and allows for the training of deep supervised networks without the need for unsupervised pre-training[4].

This would not work in DNN, as hidden layers would not be picking up edges and patterns based on our expectations. How the machine gets to the correct output is still an enigma, and its intelligence still awaits revelation.

The essential of learning by neural networks is to minimize the cost function. It is important for this cost function to have a nice and smooth output so that the local minimum can be obtained by taking little steps downhill, rather than being either on or off in a binary way the way biological neurons are. To adjust the weight and bias values of the parameter vector in a high-dimensional space, the learning algorithm computes a gradient vector that specifies how much the error, or cost, would increase or decrease if each parameter were slightly modified. In mathematical terms, this is similar to taking derivatives of a function with respect to a variable to observe the trend of the function between the two infinitesimally close values of that variable. In multivariate calculus, the gradient of a function indicates the path of the steepest incline, pointing towards the direction in the input space where one should move to minimize the output of this cost function with the utmost speed, and the length of the vector indicates exactly how steep the steepest ascent is. The weight vector is modified by shifting it in the opposite direction of the gradient vector, and the size of the adjustments is proportional to the slope of the gradient vector. When the slope of the gradient vector approaches the minimum, the step size decreases to prevent overshooting. This is the so-called “gradient descent” that converges on some local minimum. Minimizing the cost function can guarantee better performance across all training samples. Viewed from a different perspective, the gradient vector of the cost function encodes the relative importance of weights and biases, which changes to which weights matter the most to minimize the cost. The magnitude of each component represents
how sensitive the cost is to each weight and bias.

In practice, most practitioners use a procedure called stochastic gradient descent (SGD). It involves randomly selecting a few input vectors as mini-batches, computing the corresponding outputs, errors, and the gradient descent step. The weights were adjusted accordingly. This process is repeated for many small subsets of examples from the training set until the average cost function stops decreasing. Each small subset of examples gives a noisy estimate of the average gradient over all examples, and thus the “stochasticity”. Despite its simplicity, SGD often achieves good results with far less computation time than more complex optimization techniques[5].

3.2.2. Backpropagation

Recursively adjusting the weights in proportion to the activation of the second-to-last layer, vise vera, or altering the biases to decrease the cost for a single training sample is a single round of digital learning. In a nutshell, the backpropagation procedure is an algorithm of computing the gradient descent efficiently. Calculating the gradient of a cost function with respect to the weights in a stacked multilayer module is a practical application of the chain rule of derivatives. A key insight is that the derivative of the cost function concerning the input can be obtained by reversing the order of the layers, working from the higher to the lower layers. The process of backpropagation entails computing gradients through all layers. From the uppermost layer where the network generates predictions down towards the lowermost layer where the external input is introduced. Once these gradients have been calculated, it is straightforward to determine the gradients with respect to the weights and biases of each module. After these gradients are computed, it becomes a straightforward task to derive the gradients with respect to the weights and biases of each module. The average of desired changes, obtained by traversing the backpropagation route for alternate training samples, was the optimal adjustment that parameters could make to make the model performs better in the training set.

It was commonly thought that a simple gradient descent would get trapped in suboptimal local minima — weight configurations for which no small change would reduce the cost function, as finding the global minimum would be an intractable task. Recent theoretical and empirical results strongly suggest the cost function’s landscape is actually filled with a huge number of saddle points where the gradient is zero, indicating that the optimization challenge is more complex than originally thought, but most of these points have similar cost function values[6]. In other words, the depth of the local minima is almost the same across different saddle points, so it is not crucial which one the algorithm gets stuck at.

3.2.3. Convolutional neural networks (CNN)

Convolutional neural networks (CNNs) are easier to train and have better generalization capabilities compared to other feedforward networks with fully connected layers. They are specifically designed to process data represented as multiple arrays, such as grayscale images consisting of a single 2D array containing pixel intensities of varying values.

The four key ideas behind CNN are inspired by the properties of natural signals and visual neuroscience: local connections, shared weights, pooling, and the use of multi-layer. The convolutional and pooling layers are directly inspired by the concept of simple cells and complex cells, respectively, in the visual cortex, and the overall architecture is reminiscent of the LGN-V1-V2-V4-IT hierarchy in the visual cortex’s ventral pathway[7][8]. Local groups of values in array data often exhibit high correlation and form characteristic local motifs that can be readily identified. Therefore, pattern recognition makes CNN most useful in detecting images.

3.2.3.1. Convolution

The main function of the convolutional layer is to identify and extract local combinations of features from the preceding layer (Fig. 1). The actual process of matching is accomplished through filtering in the convolutional layer: A filter bank can be thought of as a small matrix of representative features (of real numbers) for which the number of rows and columns, eg. n× n, of pixels is arbitrarily set. The filter and image patch are lined up, and each image pixel is multiplied (dot product) by the corresponding feature. The result is added up and divided by the total number of pixels in the filter to arrive at a specific feature value. Feature value indicates how well the feature is represented at that position. Sliding over n pixels, the same procedure is repeated for every n× n block of pixels for the entire input image, and a feature map, a “map” of where the filter feature occurs, is obtained. All units in a feature map share the same filter bank. Therefore, the local characteristics of images and other signals remain constant regardless of their location. In simpler terms, a pattern that appears in one part of the image can appear in any other part as well. Hence, the approach of employing units with identical weights to identify corresponding patterns across various sections of the array is adopted. In a convolution layer, filtering can be performed for a bunch of features and create a stack of filtered images. Each feature map in a layer employs its own filter bank. From a mathematical standpoint, the operation of filtering executed by a feature map can be described as a discrete convolution, hence the name.

img

Fig. 1: Example of a filter (kernel) convolution. Note the new pixel value shown in the figure has not been weighted by the number of windows in the filter.

3.2.3.2. Pooling

The aim of the pooling layer is to reduce the size of a feature map by merging similar features into a single one through the following steps: (1) choose an appropriate window size, usually 2×2 or 3×3 pixels; (2) pick a stride (by how many pixels the window steps down to run through a feature map) accordingly, usually 2 pixels; (3) walk the window by its stride across the filtered images; (4) take the maximum value in each window as the pooling result and form a “pooled map”. A robust motif detection can be accomplished by simplifying the positioning of each feature across all feature maps that are fed into this CNN layer. Pooling helped the algorithm to neglect where in each window the maximum value occurs, making it less sensitive to small shifts in position, either parallel or rotational, an image that strongly fits the filter will still get picked up.

3.2.3.3. Normalization

To keep the math from blowing up, a layer is then passed through a non-linearity such as a ReLU making negative values all 0. This procedure of nonlinear transformation is “normalization” in deep learning terms.

The CNN architecture involves stacking multiple stages of convolution, non-linearity (normalization), and pooling on top of each other, followed by a final fully connected layer (Fig. 2). Each layer’s filter banks in the convolutional layers and voting weights in the fully connected layer are learned through the backpropagation algorithm. In the fully connected layer, also known as the dense layer due to the fact that a large number of neurons are densely connected with each other, a list of feature values becomes a list of votes, when timed by relevant weights that map this layer to the output layer gives the final answer. It is worth noting that this list of votes in the fully connected layer looks a lot alike a list of feature values. Indeed, the output of this layer as intermediate categories can still feed into the input of the next layer, propagating the cycle instead of becoming the final votes.

img

Fig. 2: Example of a CNN with various types of layers. The convolutional layer does not decrease the size, i.e., the number of pixels, of the input figure, rather it encodes the feature of its input. The pooling layer does decrease the size of its input. The amount of which the size decreases depends on the size of the pooling window and the stride.

3.3. Cross-modal fusion

Cross-modal fusion refers to the process of integrating data from different modalities. PET/CT is a classic example of cross-modal fusion. CT is a type of imaging modality that provides high-resolution, cross-sectional images with excellent clarity and density resolution. PET, on the other hand, is a nuclear imaging technique that generates images showing the spatial distribution of positron-emitting radiopharmaceuticals within the body. With less precise structural details, PET images are well capable of displaying metabolic activity. PET/CT fuses CT with PET, possessing information on both the anatomical details and the metabolic spectrum. As each different information stream possesses unique characteristics, single-modal data often do not contain all the effective features to produce accurate results, whether for data analysis or prediction tasks. Cross-modal deep learning models combine data from two or more different modalities, learning different feature representations from different modalities and facilitating communication and transformation among different information streams, to accomplish specific downstream tasks. This special type of deep learning can improve the accuracy of predictions and enhance the robustness of models.

3.3.1. Cross-modal fusion methods

Cross-modal fusion methods can be categorized into three types: early fusion, late fusion, and hybrid fusion. In early fusion, unimodal features are combined into a single representation before the feature extraction or modeling process[9] . After feature extraction or modeling is performed separately to reduce unimodal features, the outputs are integrated to learn concepts and obtain the final prediction in late fusion[10] . Whereas hybrid fusion combines early and late fusion methods, where fusion is performed at both the feature level
and the output layer [11].

There are various methods of early fusion, including operating on elements at the same position in different modalities. For example, in the field of medical imaging, different imaging modalities can be fused into an integrated image. Nefian et al. proposed a cross-modal early fusion method that used both the factorial and the coupled hidden Markov model for audio-visual integration in speech recognition[12] . Early fusion was done by multiplying the corresponding elements of visual features that capture mouth deformation over consecutive frames and the vector representation, representing the frequency of audio observations, learned by long short-term memory neural networks. A dimensionality reduction was then done on the observation vectors obtained by concatenation of the audio and visual features. Indeed, early fusion methods are often simple in structure with low computational complexity. However, the resulting feature is often high in dimensions, which can impose a significant computational burden on the subsequent model if dimensionality reduction is not performed.
As an example of late fusion, in 2014, Simonyan et al. proposed an architecture that separately inputs spatial and temporal recognition streams of videos, where the spatial stream recognizes actions from still video frames, whilst the temporal stream is in charge of action recognition from motion in the form of dense optical flow[13]. The learned feature outputs are combined by late fusion via either averaging or a linear support vector machine (SVM). As fusion significantly improves on both streams alone, the result proves the complementary nature of inputs spatial and temporal recognition streams and that cross-modal fusion indeed preserves more information of use in the algorithm. Late fusion does not explicitly consider the inter-modality correlation at the feature level, which may result in a lack of interaction among different modalities at the feature level. Consequently, the resulting feature representations after cross-modal fusion may not be rich enough, potentially limiting the effectiveness of the fusion approach.

There is no one optimal solution for all, and the choice of fusion method should be case-by-case.

3.3.2. Cross-modal image translation

Cross-modal image translation has gradually matured in the field of computer vision. Given sufficient training data, deep learning models are capable of learning discriminative features from images of different modalities, and the process of image-to-image translation can be viewed as transforming one potential representation of a scene to another.

In 2017, Isola et al. released a Pix2Pix software that is effective at various image translation tasks, such as synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images[14] . Conventional CNN learns to minimize a loss function that is arbitrary, the making of which takes a lot of manual effort. The Pix2Pix software adopts conditional Generative Adversarial Networks (GANs) that automatically learn the loss function to train the mapping from input to output images, besides learning the mapping itself, as a generic solution to pixel-to-pixel prediction. These networks solve the whole genre of problems that used to require very different loss functions. Conditional GANs differ from other formulation in that it treats output pixels as mutually dependent and thus learns a structured loss, which penalizes the joint configuration of the output. Pix2Pix has good performance on many image translation tasks, but its ability in generating high-resolution images is suboptimal. Wang et al. improved upon Pix2Pix by proposing a new image translation framework for synthesizing high-resolution photo-realistic images from semantic label maps using conditional GANs in 2018. Compared to Pix2Pix, this method has two main improvements: image translation at 2048 × 1024 resolution and semantic editing of images. To generate high-resolution images, their method uses a coarse-to-fine generator, which is composed of a local enhancer for fine high-resolution image conversion and a global generator for coarse low-resolution image conversion respectively, a multi-scale discriminator architecture, and a robust adversarial learning objective function.

Additionally, it adds a low-dimensional feature channel to the input, which allows for the generation of diverse results images based on the same input label map. Zhu et al. proposed the BicycleGAN model combining both the conditional Variational Autoencoder GAN approach and the conditional Latent Regressor GAN approach, based on Pix2Pix in 2017[15] . BicycleGAN is a technique for multi-modal image translation that accomplishes not just the primary objective of mapping the input, together with the latent code to the output, but also concurrently learns an encoder that maps the output back to the latent space. The bijection between the output and the latent space prevents multiple distinct latent codes from producing the same output, also known as non-injective mapping. BicycleGAN allows the generator to model a distribution of high-dimensional output given different encoders, producing diverse and realistic results while remaining faithful to the input.

To accurately transform specific objects among different modalities is the main challenge of cross-modal image translation. Most cross-modal image translation methods require paired data as the input, and due to the scarcity of the paired data, the translated images are often suboptimal or suffer from mode collapse, where the output only represents a limited number of real samples, etc. Therefore, how to achieve high-quality cross-modal image translation with a small amount of paired data is a valuable direction for research.

3.4. The application of cross-modal deep learning

AI is increasingly being studied in metastatic skeletal oncology imaging, and deep learning has been assessed for tasks such as detection, classification, segmentation, and prognosis. Zhao et al. developed a deep neural network-based model to detect bone metastasis on whole-body bone scan (WBS), irrespective of the primary malignancy[16 . Compared to experienced nuclear medicine physicians, the deep learning model not only had a time savings of 99.88% for the same workload, but it also had better diagnostic performance, with improved accuracy and sensitivity. To overcome the constraint of the time-consuming effort required for precise labeling of large datasets, Han et al. proposed a 2D CNN classifier-tandem architecture named GLUE, which integrates whole body and local patches for WBS of prostate cancer patients[17 . The 2D-CNN modeling is the best fit for planar nuclear medicine scans, provided there is a massive amount of training data available. The GLUE model had significantly higher AUCs than a whole-body-based 2D CNN model when the labeled dataset used for training was limited. Noguchi et al. developed a deep learning-based algorithm, with high lesion-based sensitivity and low false positives, to detect bone metastases in CT scans[18 . An observer study was also done to evaluate its clinical efficacy, which showed improved radiologists’ performance when aided by the model, with higher sensitivity, by both lesion-based and case-based analyses, in less amount of interpretation time. Fan et al. used AdaBoost and Chan-Vese algorithms to detect and segment sites of spinal metastasis of lung cancer on MRI images[19 . Chan-Vese algorithm had the best performance. The accuracy of the segmentation, expressed in terms of DSC and Jaccard coefficient scores, were 0.8591 and 0.8002, respectively. Liu et al. built a deep learning model based on 3D U-Net algorithms for the automatic segmentation of pelvic bone and sites of prostate cancer metastases on MRI-DWI and T1-weighted MRI images[20 . The model was found to work best on patients with few metastases, boosting the use of CNN as an aid in M-staging in clinical practice. Multiple deep classifiers were developed by Lin et al. to automatically detect metastases in 251 thoracic SPECT bone images[21 . The performance of the classifiers was found to be excellent, with an AUC of 0.98. Moreau et al. compared different deep learning approaches to segment bones and metastatic lesions in PET/CT images of breast cancer patients[22]. The results indicated that the U-NetBL-based approach for bone segmentation outperformed traditional methods, with a mean DSC of 0.94 ± 0.03, whereas the traditional methods struggled to distinguish metabolically active organs from the bone draft.

Compared to the aforementioned deep learning examples, the more avant-garde cross-modal image fusion and translation techniques have not been widely investigated in bone metastasis imaging. Xu et al. adopted two different convolutional neural networks for lesion segmentation and detection and combined the spatial feature representations extracted from the two different modalities of PET and CT[23] . Their cross-modal method completed the three-dimensional detection of multiple myeloma, outperforming traditional machine learning methods. The research conducted by Wang et al. revealed that texture features extracted from multiparametric prostate MRI before intervention, when combined with clinicopathological risks such as free PSA level, Gleason score, and age, could effectively predict bone metastasis in patients with prostate cancer[24] . The outcome of this study can be seen as a proof of concept for the significance of cross-modal data.

Even though cross-modal investigations regarding the sites of bone metastases are limited by now, there has been plenty of evidence proving the utility of cross-modal fusion in oncological imaging. These applications and trains of thought can be well extrapolated to the field of osseous metastasis imaging. Cross-modal fusion can be applied to tasks such as tumor detection, segmentation, and classification to improve model the performance of deep learning models. Cross-modal image translation can be used for data augmentation to facilitate various downstream tasks.

Cross-modal fusion methods are often employed to enrich the models with cross-modal image features, thus improving the performance of tumor detection. Further, convolutional neural networks are used to capture the relationships between adjacent pixels and extract effective features from the image in deep learning-based cross-modal tumor detection algorithms. In 2021, Huang et al. proposed a ResNet network-based framework, AW3M, that used ultrasonography of four different modalities jointly to diagnose breast cancer[25]. By combining the cross-modal data, the AW3M based upon multi-stream CNN equipped with self-supervised consistency loss was utilized to extract both modality-specific and modality-invariant features, with improved diagnostic performance.

As for tumor segmentation, many researchers hinge on either the four types of MRI image modalities or the two modalities of PET/CT encompassing anatomical and metabolic information to perform cross-modal fusion and improve segmentation performance. For instance, Ma et al. explored CNN-based cross-modal approaches for automated nasopharyngeal carcinoma segmentation[26]. Their proposed multi-modality CNN utilizes CT and MRI to jointly learn a cross-modal similarity metric and fuse complementary features at the output layer to segment paired CT-MR images, demonstrating exceptional performance. Additionally, the study combines the features extracted from each modality’s single-modality CNN and multi-modality CNN to create a combined CNN that capitalizes on the unique characteristics of each modality, thereby improving segmentation performance. Fu et al. introduced a deep learning-based framework for multimodal PET-CT segmentation that leverages PET’s high tumor sensitivity in 2021[27 . Their approach utilized a multimodal spatial attention module to highlight tumor regions and suppress normal regions with physiologic high uptake from PET input. The spatial attention maps generated by the PET-based module were then used to target a U-Net backbone for the segmentation of areas with higher tumor likelihood at different stages from CT images. Results showed that their method surpasses the state-of-the-art lung tumor segmentation approach by 7.6% in the Dice similarity coefficient.

As the diagnostic procedure often requires the integration of multi-modal information, such as chief complaints, physical examinations, medical histories, laboratory tests, and radiology, cross-modal fusion methods are also commonly utilized in disease classification tasks. Cross-modal fusion synthesizes data from different modalities to enrich effective feature representations, enabling deep learning models to extract useful information from different modalities to aid in diagnosis. Zhang et al. proposed a technique for prostate cancer diagnosis using a multi-modal combination of B-mode ultrasonography and sonoelastography[28] . Quantitative features such as intensity statistics, regional percentile features, and texture features were extracted from both modalities, and an integrated deep network was proposed to learn and fuse these multimodal ultrasound imaging features. The final step of disease classification was completed by a support vector machine.

Due to the relative scarcity of medical images, cross-modal image translation is often used to synthesize part of the data in the training set as a data augmentation method for a better-performing deep learning model with a small sample size. Since integrated data from different modalities often exhibit better performance in deep learning models, the multi-modal image data input generated by cross-modal image translation methods can be directly used as targets for tumor detection. A two-step approach for semi-supervised tumor segmentation using MRI and CT images was proposed by Jiang et al[29 . The first step is a tumor-aware unsupervised cross-modal adaptation using a target-specific loss to preserve tumors on synthesized MRIs from CT images. The second step involves training a U-Net model with synthesized and limited original MRIs using semi-supervised learning. Semi-supervised learning is used to boost the accuracy (80%) of tumor segmentation by combining labeled pre-treatment MRI scans with synthesized MRIs, while training with synthesized MRIs had an accuracy of 74%. The proposed approach demonstrated the effectiveness of tumor-aware adversarial cross-modal translation for accurate cancer segmentation from limited imaging data.

In general, there have been bounties of research supporting the application of deep learning in bone metastasis imaging, but the specific application of cross-modal fusion methods is still lacking. Whereas, clinical evaluations regarding bone metastasis often require multi-modal data, such as a chief complaint of lower back pain, a past medical history of pathological fractures, a positive genetic test for specific mutations indicating a higher risk of bone metastasis, or increased blood calcium and alkaline phosphatase concentrations in laboratory reports, etc. Therefore, evaluating osseous lesions with multi-modal data can improve the specificity of diagnosis and reduce the false positive rates in the diagnostic and treatment process. The application of cross-modal deep learning methods in the field of bone metastasis imaging and diagnosis is worth further exploration.

3.5. conclusion

The above review covers the definition and basic principles of deep learning and cross-modal image generation and fusion methods, briefly describes some common cross-modal deep learning algorithms, and summarizes bits of current research on the application of deep learning models in medical imaging, especially bone metastasis imaging. Compared to traditional deep learning models fed with data input of a single modality, multi-modal methods are more recent, with a limited number of relevant research. Given the increasing prevalence of cancer screening and the significant surge in patient-specific clinical data, including radiographs and laboratory tests, it is reasonable to anticipate an unparalleled demand for advanced, intelligent cross-modal deep learning methods in the future. Nevertheless, the use of AI in medical imaging analysis faces various challenges and limitations. These include the need for extensive and diverse datasets for training and validation, the potential for bias and overfitting, as well as the inherent black-box nature of deep learning algorithms[30 . Even though the demand for a large training set reiterates the merit of cross-modal deep learning, which enables the automatic generation of sample images through cross-modal image translation, the size of the training set still has a profound impact on the performance of algorithms. In parallel, the demand for “explainability” has led to the notion of “interpretable machine learning”, utilizing heat maps and metrics to track the focus of deep neural networks[31] . Overall, there is still much to be investigated regarding the application of cross-modal deep learning in the field of medical imaging.

In summary, the project should be founded on the application of cross-modal deep learning techniques to offer practical solutions for challenges encountered in the clinical setting.

参考文献

[1] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J] . Gastroenterology, 2023, 164(2): 191-193.
[2] Aswathi R R, Jency J, Ramakrishnan B, et al. Classification Based Neural Network Perceptron Modelling with Continuous and Sequential data[J] . Microprocessors and Microsystems, 2022: 104601.
[3] Gardner M W, Dorling S R. Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences[J] . Atmospheric environment, 1998, 32(14-15): 2627-2636.
[4] Glorot X, Bordes A, Bengio Y. Deep Sparse Rectifier Neural Networks[J] . Journal of Machine Learning Research, 2011, 15: 315-323.
[5] Bottou L, Bousquet O. The tradeoffs of large scale learning[J] . Advances in Neural Information Processing Systems, 2007, 20: 1-8.
[6] Dauphin, Y. et al. Identifying and attacking the saddle point problem in high-dimensional non-convex optimization[J] . Advances in neural information processing systems, 2014, 27: 2933–2941.
[7] Hubel D H, Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex[J] . Journal of Physiology, 1962, 160(1): 106-154.
[8] Cadieu C F, Hong H, Yamins D, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition[J] . Plos Computational Biology, 2014, 10(12): e1003963.
[9] Nefian A V, Liang L, Pi X, et al. Dynamic bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[10] Snoek C G M, Worring M, Smeulders A W M. Early versus late fusion in semantic video analysis[C] . Proceedings of the 13th annual ACM international conference on Multimedia, 2005: 399-402.
[11] Wu Z, Cai L, Meng H. Multi-level fusion of audio and visual features for speaker identification[C] . International Conference on Biometrics Springer, Berlin, Heidelberg, 2005: 493-499.
[12] Nefian A V, Liang L, Pi X, et al. Dynamic Bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[13] Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[J] . Advances in neural information processing systems, 2014, 27: 568–576.
[14] Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C] . Proceedings of the IEEE conference on computer vision and pattern recognition, 2017: 1125-1134.
[15] Zhu J Y, Zhang R, Pathak D, et al. Toward multimodal image-to-image translation[J]. Advances in neural information processing systems, 2017, 30: 465–476.
[16] Zhao Z, Pi Y, Jiang L, Xiang Y, Wei J, Yang P, et al. Deep neural network based artificial intelligence assisted diagnosis of bone scintigraphy for cancer bone metastasis[J] . Scientific Reports, 2020, 10(1): 17046.
[17] Han S, Oh J S, Lee J J. Diagnostic performance of deep learning models for detecting bone metastasis on whole-body bone scan in prostate cancer[J] . European journal of nuclear medicine and molecular imaging, 2021, 49(2): 1-11.
[18] Noguchi S, Nishio M, Sakamoto R, Yakami M, Fujimoto K, Emoto Y, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J] . European Radiology, 2022, 32(11): 7976-7987.
[19] Fan X, Zhang X, Zhang Z, Jiang Y. Deep learning on MRI images for diagnosis of lung cancer spinal bone metastasis[J] . Contrast Media & Molecular Imaging, 2021, 2021(1): 1-9.
[20] Liu X, Han C, Cui Y, Xie T, Zhang X, Wang X. Detection and segmentation of pelvic bones metastases in MRI images for patients with prostate cancer based on deep learning[J] . Frontiers in Oncology, 2021, 11: 773299.
[21] Lin Q, Li T, Cao C, Cao Y, Man Z, Wang H. Deep learning based automated diagnosis of bone metastases with SPECT thoracic bone images[J] . Scientific Reports, 2021, 11(1): 4223.
[22] Moreau N, Rousseau C, Fourcade C, Santini G, Ferrer L, Lacombe M, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[J] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society, 2020: 1532-1535.
[23] Xu L, Tetteh G, Lipkova J, et al. Automated whole-body bone lesion detection for multiple myeloma on 68Ga-pentixafor PET/CT imaging using deep learning methods[J] . Contrast media & molecular imaging, 2018, 2018: 2391925.
[24] Wang Y, Yu B, Zhong F, Guo Q, Li K, Hou Y, et al. MRI-based texture analysis of the primary tumor for pre-treatment prediction of bone metastases in prostate cancer[J] . Magnetic Resonance Imaging, 2019, 60: 76-84.
[25] Huang R, Lin Z, Dou H, et al. AW3M: An auto-weighting and recovery framework for breast cancer diagnosis using multi-modal ultrasound[J] . Medical Image Analysis, 2021, 72: 102137.
[26] Ma Z, Zhou S, Wu X, et al. Nasopharyngeal carcinoma segmentation based on enhanced convolutional neural networks using multi-modal metric learning[J] . Physics in Medicine & Biology, 2019, 64(2): 025005.
[27] Fu X, Bi L, Kumar A, et al. Multimodal spatial attention module for targeting multimodal PET-CT lung tumor segmentation[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 25(9): 3507-3516.
[28] Zhang Q, Xiong J, Cai Y, et al. Multimodal feature learning and fusion on B-mode ultrasonography and sonoelastography using point-wise gated deep networks for prostate cancer diagnosis[J] . Biomedical Engineering/Biomedizinische Technik, 2020, 65(1): 87-98.
[29] Jiang J, Hu Y C, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C] . International conference on medical image computing and computer-assisted intervention. Springer, Cham, 2018: 777-785.
[30] Castelvecchi D. Can we open the black box of AI?[J] . Nature, 2016, 538(7623): 20.
[31] Kuang C. Can A.I. Be Taught to Explain Itself?[J] . The New York Times, 2017, 21.

致谢

首先,感谢我的导师,邱贵兴院士,涓涓师恩,铭记于心。感谢吴南师兄,知遇之恩无以报。感谢吴东老师,三生有幸,得您伴我一程风雪。也感谢所有参与此项目的科研合作伙伴和课题组的师兄师弟们,你们的帮助让这项研究得以顺利进行。

感谢在协和遇到的所有老师们,学生朽木,希望未来也能如你们一样,不负一袭白衣。

最后,要感谢我的家人。Wherever I go, this family is my fortress.

这路遥马急的人间,你我平安喜乐就好。

毕导|董小姐,29页论文拿下协和医学博士

3 May 2025 at 22:34

最近沸沸扬扬的中日友好医院肖医生和董小姐事件,大家都了解吗?

起因是中日友好医院肖飞的妻子递交了一封举报信,里面详列了肖飞婚后出轨多名女性、出轨规培医生董袭莹、帮董在医院违规操作、拉着董离开手术室扔下手术台上的病人40分钟等恶劣事件。

img

肖医生倒是手术室冲冠一怒为红颜了,我要是在场护士和麻醉台上的病人,是真得麻了……这种人也能配叫医生吗??这是人干的事吗??

随后大家顺着这名出轨对象董袭莹开挖,发现更惊人的内幕都在她这啊!

img

网上舆论已经从普通的出轨讨论,变成对教育公平甚至医生轻视患者生命安全的质疑,事情非常错综复杂,我深扒了一下董医生的学术之路,这就给大家梳理下!

1、董医生的速通学医路

在协和官方通稿中,董小姐是作为优秀案例出现的。哥大经济学本科、4+4医学试点班、毕业成为协和医学博士,名校海归+协和博士光环拉满!但深挖一下发现根本经不起深挖啊!

img

董袭莹的本科是哥伦比亚大学巴纳德学院经济学专业。哥大确实是世界顶级名校,巴纳德学院也是哥大旗下的学院。网上有说这是三本野鸡学院,但我查了下它在全美211所文理学院的排名第14名,其实也不错的。但招生门槛确实低于哥大主校,不能以哥概全。

img

其次是让学经济的董小姐、变成医学博士的4+4医学试点班。

这个是协和推出的改革试点班,针对本科不是医学专业的同学,经过录取后你学4年医,出来就是协和医学博士了。这个制度是为了将多学科基因融入医学界。不过看介绍大学也得对生物、化学有学科基础,不知道董小姐学经济时有没有学到。

img

招生条件我从截图了官网,大家可以自行对比你能不能上。

img

这里还有一个疑惑,董小姐是2019年入学协和4+4,我去翻了下2019年的U.S. News文理学院排名,巴纳德学院仅排名25?可能每年的入学要求也各不相同吧。

img

关键董医生学得咋样呢?她2019年到2023年在协和经历了4年医学博士培训,普通医学生动辄8年或者5+3+4共计12年的学医路,她4年就走完了,还包括疫情时期,不知道她学医上不上网课。

而神奇的是,她的博士论文开篇写的是妇科影像相关 

img

博士论文的指导导师是骨科大拿

img

学位是内科博士

img

还是膀胱癌临床实践指南的一作

img

此外根据前面爆料,她现职为泌尿外科住院医师。真是一位跨学科领域的复合型人才啊!而这一切的成就,她只用了4年时间,这才是真正的天降神童吧,华佗扁鹊加在一起都不如她。

2、董医生的学术成果一览

深挖董医生的学术成果,也是叹为观止。我找到了董医生的博士毕业论文,细看了一下我都快崩溃了。

CDT 档案卡
标题:毕导|董小姐,29页论文拿下协和医学博士
作者:毕导
发表日期:2025.5.3
来源:微信公众号“毕导”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

整个博士论文一共就三章啊?我本科论文都比这个长!一般博士论文第一章绪论,二三四五章是具体工作,第六章是结论与展望。董博士只用三章,加上开头致谢独创性声明使用授权书一共61页就搞定了?!

img

再细看,她先用12页讲完了宫颈癌检测成果,再用17页讲完了乳腺癌的骨转移成果,其实她的博士论文部分到这29页就完结了!后面就是参考文献了!

后面那个16页的第三章,是一个英文综述,并不是她的科研成果。我不太了解医学领域,是医学博士论文固定就有这么个环节,还是说不加这个综述的话论文打印出来的厚度不足以在书脊上写题目?

我看着我那139页的博士论文嘴都气歪了。

img

而这篇她以第一作者身份发表了《Clinical practice guideline on bladder cancer 》也很有趣。董袭莹作为一个2023年5月才毕业的学生,在同年的五月,居然就成为了这篇膀胱癌临床实践指南的一作。对董小姐来说,真是一个丰收的五月啊!

img

凡是写过论文的,都明白一作在众多作者中的份量!那董具体做了什么呢?作者贡献部分写的是,董承担了翻译工作,甚至她的翻译还不是独立完成的,后面还跟着俩人…

img

这就名列一作了?好家伙所有翻译软件AI工具都有资格给一作了吧?这种拿一作方式我只敢在做科研狗美梦时畅想过…

看到这,一个在美四年经济学学成归来,四年速成顶级医学博士研究成果遍布妇科骨科内科膀胱癌的天才医学生形象,已然立住。

img

3、董医生的超强医院特权

毕业后,董医生又在医院享受超强特权。根据举报内容,她本来应该从胸外科转到脊柱外科,但不想转。于是肖飞医生和骨科教秘打招呼,被拒。她又通过个人关系,联系了两位主任达到目的。这背景和实力,令人叹为观止!

img

值得一提的是,这位和肖飞大吵的麻大夫还是盘尼西林的乐队成员。白天行医对抗业内黑幕,晚上还能玩乐队,好强!

img

在手术台上,董因为和护士起争执,肖飞直接带着董离开手术台40分钟,还好有一名格格巫护士不卑不亢,据理力争!很刚很顶!

img

这位肖飞医生,是不是把自己带入什么医学霸总了啊?综合看来,把病人晾在手术台、多次出轨、帮董进行违规操作、还想抢原配房子抚养权…这人真是集所有渣于一体,医德和个人道德都极其低劣的水平。

董医生的“注水”学医之路,令人触目惊心。如果专业能力不足者竟能一路绿灯,跻身国内顶级医院的手术台,这不仅是对寒窗苦读数十载的医学生的羞辱,是对熬夜加班、连口热饭都吃不上的规培生的践踏,更是对无数在科研与临床中挣扎求生的博士生群体的不公。

而最不可容忍的是——这是对患者生命的极端漠视。

希望关于整件事能有更加明确的调查结果,别让讨论止步于讨论。

别让讨论止步于讨论

简法|《民营经济促进法》来了,然后呢?

3 May 2025 at 22:07

img

《促进法》选择“重申”而非“重建”,简单地指向那个可能本就运转不畅的旧有体系,这能在多大程度上带来实质性的改变?

新法出台

《民营经济促进法》终于出台了,像一颗投入水中的石子,在舆论场上激起了不少涟漪。

立法本身无疑是个大动作,毕竟“民营经济”这四个字的分量,在当下中国的经济版图和社会生活中,没人能否认。高层反复强调“两个毫不动摇”,现在又有了专门的法律背书。

CDT 档案卡
标题:简法|《民营经济促进法》来了,然后呢?
作者:简法
发表日期:2025.5.3
来源:微信公众号“简法”
主题归类:民营经济促进法
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

但多年的社会经验告诉我们,法律文本是一回事,现实运行往往是另一回事。我们发现,《民营经济促进法》很多意在约束不当行为、包括潜在的政府干预的条款,其法律后果最终指向的还是“依法”处理。这本身没问题,法律体系本就该相互支撑。可问题在于,“依法”的那个“法”在实践中是如何被解释、被执行的?是所有市场主体真的能在同一个起跑线上,面对同一套规则,得到同一种对待吗?还是说,依然存在着某种“身份”上的隐形差异?

“依法”的困境

我们清楚的是,《民营经济促进法》本身并不是独立的处罚依据,它更像是一个指引,将具体的惩戒权力交回给《行政处罚法》、《反垄断法》等现存的法律框架。该罚的,依据原有法律本就该罚

这种安排的潜在问题是显而易见的。如果说,那些损害民营经济的行为,本就已在现有法律的规制之下,那么现实中挥之不去的困境(如选择性执法、地方保护、隐性壁垒),恰恰说明了原有法律体系在执行层面的不足或扭曲。如今,《促进法》选择“重申”而非“重建”,简单地指向那个可能本就运转不畅的旧有体系,这能在多大程度上带来实质性的改变?这是否回避了真正的难题——即如何确保那些既有的“法”能够被公正、有效、不打折扣地执行,尤其是在涉及到权力制约和政府自身行为规范时?

更进一步说,这种路径依赖,是否会让这部《促进法》沦为一种“立法上的表态 它满足了程序上的需求,传递了某种积极信号,但在具体的约束力上却可能显得绵软无力。毕竟,若处罚的依据、标准、程序乃至最终裁量权都没有本质变化,那么仅仅多了一部“指引性”的法律,对于那些在复杂政商关系中早已游刃有余的潜规则而言,又能构成多少真正的威慑?它更像是在呼吁一种理想状态,却未能提供足够坚实的工具去锻造它。这部法律的象征意义,似乎远大于其可能产生的直接法律效果。

落地之间

我们不能脱离现实的土壤去谈论法律。过去这些年,民营企业经历过高光时刻,也感受过阵阵寒意。政策的钟摆、执法的尺度、市场的“玻璃门”、“旋转门”……这些东西塑造了企业家的真实体感和预期。一部法律的出台,能否真正扭转一些根深蒂固的观念,改变一些由来已久的习惯性做法?比如,地方政府在招商引资、项目审批、资源分配时,能否真正做到不偏不倚?当民企与国企、或者与政府部门发生纠纷时,天平是否能真正保持水平?当遭遇不公时,寻求救济的渠道是否真的畅通且有效?执行层面的决心和能力,可能比法律条文本身更牵动人心。

说到底,信心这东西,不是靠一纸法律就能“促进”出来的。它是过往经验的积累,是对未来稳定性的预期。这部法律提供了一个新的起点,一个新的观察窗口。它更像是一个官方的“承诺书”,承诺要为民营经济提供一个更好的环境。但承诺能否兑现,承诺的分量有多重,还需要时间和无数个具体案例来检验。

民营经济的活力,关系着就业、创新、税收,最终也关系到我们每个普通人的生活。它的兴衰,从来不只是经济问题,也是社会问题,甚至关乎更深层次的社会结构和信任基础。

且看未来

所以,这部法律出台了,很好。但兴奋过后,更多的是冷静的观察。它会成为那根撬动现实改变的杠杆,还是仅仅停留在“看上去很美”的层面?我们每个人,无论是企业家、打工人还是消费者,其实都在用自己的方式参与和见证着这个过程。历史会给出答案,而在此之前,不妨多一份审慎的关注,少一些轻率的断言。

路,才刚刚开始。

三月云|五一劳动节|再论女性与劳动

CDT 档案卡
标题:五一劳动节|再论女性与劳动
作者:三月vulcanus
发表日期:2025.5.2
来源:三月云
主题归类:五一劳动节
主题归类:女性权利
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

今天是五一国际劳动节,在此向奋斗在各个领域、各条战线中的姐妹们致以节日的祝贺和崇高的敬意!

五一劳动节并非一个只是“歌颂”劳动者的节日,而是一个纪念劳动者所做过的抗争的节日。

劳动节的由来要从19世纪80年代说起,那时美国资产阶级为了利润,对工人进行着残酷的压榨。哪里有剥削,哪里就有反抗。自1877年开始,美国各地不断出现罢工运动。迫于压力,美国国会制定了相关法律,但这些条文从未得到真正落实,工人的斗争还在继续。1886年5月1日,以芝加哥为中心,2万多家企业的35万人发起罢工游行,要求改善劳动条件,实行八小时工作制。5月3日,芝加哥政府出动警察进行镇压,开枪打死两名工人。5月4日,工人在干草市场举行抗议,再次与警察发生激烈冲突,造成200多名民众伤亡、7名警察死亡,史称“干草市场惨案”。

1888年,在英国伦敦勒·博火柴厂,有672名工人为了争取劳动保障、改善劳动条件进行了罢工。她们由于在无防护的情况下长期接触有毒的磷,导致面部溃烂至完全畸形,而生病后的工人则会遭到工厂解雇。同时,她们的工资仅有当时英国男工人工资的三分之一。于是,她们为了自己的权益,走上街头进行罢工。

img

▲长期接触磷后面部畸形的工人。

这是历史上第一次全女性的罢工,并产生了一个早期的女性工会组织——“火柴制造者工会”。社会改革家安妮·贝桑特(Annie Besant)对她们进行了采访,并写成文章登载在报纸上。她们遭受的压榨激起了社会各界的声援与同情,起初态度强硬的工厂也不得不进行让步和屈服:不再解雇工人,并且改善劳动环境,让她们不必再长期接触磷。

img

▲安妮·贝桑特(Annie Besant)

1889年,为了纪念劳动者们为了自身权益所做的斗争,第二国际将每年的五月一日设立为国际劳动节。

让我们一起来高呼,呼声响遍人间和天上:八小时工作,八小时休息,剩下的八小时全都归自己!

——《八小时之歌》(1878年)

我们最后对于“五一”纪念日的自身,希望它早日完成那“八小时”运动的使命,更进而负起“六小时”运动的新使命来。

——李大钊《“五一”May Day 运动史》(1920年)

因此,五一劳动节的真正意义与内核,不在于虚假的“劳动最光荣”,也不在于虚伪地歌颂苦难,而是纪念她们曾经的不屈抗争,是实实在在地去缩短工作时长,改善劳动条件,提高劳动保障。

这很好理解——女性一直在劳动,但直到近代才拥有工资。为什么?不是因为她们更加起劲地进行劳动了,而是因为她们开始抗争了。

劳动既不是权力,也不能带来权利。对劳动能力的支配,对劳动过程的控制,对劳动产品的占有,才是权力,也决定了权利。如果只靠劳动与歌颂劳动就能带来权利与保障、权势与财富,那么世界首富将会是一头牛。

img

所以,财产靠母父,家务靠妻子,开销靠姐妹,出生都靠女人的货色,竟然还敢反咬一口鉴定女人是不是“劳动妇女”和“独立女性”?

img

img

img

▲真女权不但劳动,还要革了田力的命。怎么小田力只敢挑对自己有利的方面说呢?

而在今天这个劳动者的节日中,还有一个好消息:《中华人民共和国农村集体经济组织法》将于2025年5月1日正式生效。这部法律,第一次明确规定:“妇女享有与男子平等的权利,不得以妇女未婚、结婚、离婚、丧偶、户无男性等为由,侵害妇女在农村集体经济组织中的各项权益”。

此前,在农村,只有男人才有资格分配村里的资源,女人则必须要到了年纪就嫁出去,自始至终都算不得本村成员而是某个男人的村子里的成员。男的生来就永久享受村民资格,而女性则必须要成为某个男人的妻子才能跟着获得村民资格。一旦她们的婚姻状况发生变化,例如离异改嫁,她们自己连同子女都会被立刻取消村民资格,丧失仅有的那一点土地权益,娘家和婆家两头空。2016年的一项社会调查显示,中国农村中的出嫁和离异女性不享受村民待遇的有84.45%,而判过刑或正在监狱中的男罪犯不享受村民待遇的只有20.43%。2019年,浙江杭州则规定拆迁户家里如有两个儿子可以分得三个人的面积,而两个女儿只能分得两个人的面积。

据千千律师事务所数据,关于农村女性土地权益的案件,47.1%的法院甚至会直接驳回起诉拒不审理。为什么?农村失地女性维权难的最重要原因就是此前的法律依据不清晰,法院即便判决,也往往会推给“村民自治”,也就是让村里的老登来决定——结果可想而知。而这一次,她们应有的权利终于有了明确的法律保障。

这样的成果并非“时代进步”的自发馈赠,而是无数农村女性、女法律工作者、女学者以及广大社会力量不懈努力、不屈抗争的结果。

img

而可笑的是,在农村中,劳动主力一直都是女性:

img

可她们不但没有得到与付出的劳动相匹配的权益,甚至连自己的名字都被遮蔽——“农民伯伯”。

此外,很多cgg总是喜欢天天把什么“下矿”“工地”的挂嘴上。然而,这不过是他们企图垄断“弱势群体”与“劳动者”形象的惯用手段,以此来抹杀女性劳动者的存在,并恬不知耻地把自己这个吃尽红利的性别群体伪装成社会的受害者。

img

img

首先,重体力劳动行业不但是“有女的”,甚至是女性占多数,因为男人都去更加有利可图的行业和岗位去了,只剩下了最苦最累的岗位留给女人。以工地为例,工地上真正的脏活累活,例如抡大锤拉水泥往往是女的在干,而赚钱多的大工或者说技工才是被男人垄断的领域。

img

所谓的底层女劳动者与“底层男劳动者”,正如保洁与保安。真正辛苦还赚钱少、毫无劳动保障的,绝不是天天躺在保安室里装成“弱势群体”的老头。

并且,在当前这个90%的财富与权力被男人所垄断的社会中,不劳而获的男人比不劳而获的女人多出成百上千倍。对着这个社会真正的既得利益者与特权群体视而不见甚至热情跪舔,看到“男贫困生”用着苹果全家桶穿着AJ玩着steam只是一笑而过,而看到女人喝了口奶茶却立刻七窍生烟狗急跳墙,跑到贴吧上大骂什么“小仙女”、“阶级”、“生产力”云云。

那我只能说,所有田力受到的所谓“压迫”都是应得的。别怪以后我看到任何举着身份证的小田力都只会说这男的应该是仙人跳诬告价钱没谈好吧。问就是前集短砍树后集短暴晒,他们的前辈把路走绝了。

第二,也是最重要的。cgg天天说什么当兵下矿工地没有女人,可到底是女人不愿去还是这些领域在系统性地排斥女人?

之前,很多人对这种现象的解释是“逆向歧视”。就是说既然他们歧视女性,认为女性没有能力承担这些工作,那么这些工作只由男性承担就是歧视的代价,是回旋镖。但我不同意逆向歧视这个概念。因为,“逆向歧视”尽管认为田力活该,却还是预设了男人从事这些行业是受害者。不,不是,他们从来都不是受害者——只要你能看到他们身边的底层女性在过什么生活。

是的,男矿工辛苦、危险。但,如果你能意识到还有名义上和他们处于同一阶层,但完全被隐身、被噤声的女性呢?她们还在地里干着无比辛苦繁重的农活,忙碌了一天之后还要回家烧饭做家务,劳动强度比起矿工有过之而无不及。但收入呢?很多农村女性辛辛苦苦务农一年,收入仅仅几千元,不及男矿工一个月的收入。

不是她们吃不了苦,她们现在的生活更苦——怎么没见到结婚生孩子的时候他们说女人吃不了苦得保护女性不能干这些呢?下矿并不比在村里务农做家务辛苦多少,但收入却是后者的几十倍。禁止女性从事某某行业,到底是为了“保护女性”,还是保障底层男的工作、维护他们的经济地位?事实上,因为“女人不下矿”,她们为了赚钱只能前往更没有保障和更加危险的黑煤窑里干活。

img

img

先是禁止底层女性从事这些虽然辛苦但收入较高的行业,再在网上胡说什么“小仙女逃避劳动”,最后玩一手田忌赛马忽视社会上占比90%的男老板男富豪男官员,把“阶级矛盾”和终极压迫者归结为“中产小资女喝奶茶”。这才是真正对我们这个社会主义国家的挑衅,以及对人类本质的侮辱。

如果再遇到田力不怀好意地问什么支不支持女人也应该有下矿的权利,我的回答是:当然支持。我支持贫穷女性拥有成为正式矿工、工地技工、海员、保安、货车司机和维修工的权利,我支持广大女性拥有成为技术骨干、企业管理者和机关事业单位干部的权利,我支持高层女性拥有成为国家领导人的权利。

事实上,很多天天把“没有性别矛盾只有阶级矛盾”挂嘴上的人忘记了:男权统治发生于阶级形成之前,跪着的母亲生不出站着的人类。不是女性解放被包含于工人解放之中,而是只有女性真正解放了,才会有全人类的解放与无产阶级的胜利。

在今天这个属于劳动者的节日里,我不说什么“劳动最光荣”。在一个剥削社会中,为特权者增加财富的劳动并不光荣。我只衷心地祝愿各位姐妹们工作有尊严,劳动有保障,收入节节高!

浣溪沙杜甫|屠呦呦当选美国科学院院士,在4+4的衬托下更有价值了

img

CDT 档案卡
标题:屠呦呦当选美国科学院院士,在4+4的衬托下更有价值了
作者:徐鹏1
发表日期:2025.5.2
来源:微信公众号“浣溪沙杜甫”
主题归类:屠呦呦
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

近日,由肖飞和董袭莹的烂事顺藤摸瓜还牵扯了协和医院4+4模式,甚至还牵扯出了一些院士。

比如董袭莹在协和4+4的导师邱贵兴也是中国工程院院士。

特别的一点,邱贵兴作为一个骨科权威专家,却成为董袭莹妇科影像学的导师。

这跨度之大,让人震惊。

而且董袭莹的博士论文只有薄薄的30页,完全不符合一般博士论文的字数要求,就这么个小册子,邱贵兴居然给审核通过了。这是为什么呢?

董袭莹在中日友好医院规培的时候,本来就应该各个科室轮流实习,这是规培的铁律,可她和肖飞好上了,只想留在肖飞身边,最后还和医院的其他医生护士吵起来,最后是堂堂的邱贵兴院士打招呼,把董袭莹违规留在肖飞身边。

都说院士是国之重器,怎么尽在帮董袭莹擦屁股。

利用学术权威,干预临床安排,破坏规培制度的公平。

都说将军有剑,不斩苍蝇,是形容国之重器,不会轻易为了些小事出手,而邱贵兴院士在董袭莹面前却让人感觉,院士有纸,尽擦屁股。

而且在协和4+4名单里,还有两个,邱靖涵(2024级)和邱靖婷(2026级),两个姓邱的而且看着名字还像两姐妹。

要知道进协和4+4,对于普通人是有多难?可这邱姓两姐妹却双双入选,这难度比苏轼苏辙两兄弟同时中进士还难。

网友纷纷猜测这两人和邱贵兴有关,说他在搞学术近亲繁殖。

我觉得邱院士在此时就该公布其家庭背景,还有入学的推荐信,面试材料都公布了吧,以正视听,别逼着网友去调查。

看到邱贵兴在这场舆论风暴中的表现,也对院士这个群体窥豹一斑。

中国首位获得诺贝尔奖的科学家屠呦呦教授,即使得了诺贝尔奖,也没能成为中国的院士,屠呦呦的院士难封,也看出评选院士的严苛,即使得了诺奖也没法成为中国的院士。有人说屠呦呦没成为院士是因为超龄了。

如果屠呦呦成为了院士,那至少可以说我们的院士里得过一次诺奖。而现在,每年那么多经费,却没有一块诺奖。

屠呦呦虽然没能成为中国的院士,但她在最近却当选了美国科学院的外籍院士。

img

没想到吧,这是屠呦呦教授实至名归,而不是美帝故意刺激人。

她是真正的院士,一生潜心做科研,发现青蒿素,开创治疗疟疾的新方法,拯救了无数人,是现在最伟大的科学家。

只可惜屠呦呦教授当选美国科学院院士这样的新闻,完全被董袭莹的烂事压住了热度。报道此事的媒体少,报道董袭莹的媒体多。

不过这样也好,没有对比就没有伤害,特别是在协和4+4的衬托下,更有价值了。

协和4+4的瓜还有很多,只是越扒越凄凉。

希望我们这个社会,多一些屠呦呦,少一些董袭莹。

全文完

请关注点赞转发评论

老干体v|美方11次下跪求谈,要不要给面子?我方正在评估!

By: unknown
3 May 2025 at 01:27
CDT 档案卡
标题:美方11次下跪求谈,要不要给面子?我方正在评估!
作者:老干体v
发表日期:2025.5.2
来源:老干体v
主题归类:中美关税战
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

我在《一部《不跪》惊天下,毛主席智慧贯全片!》中说,说这么狠的话,应该是已经开始谈判了,占个嘴上便宜。

果然,商务部昨日表示,美方近期通过相关方面多次主动向中方传递信息,希望与中方谈起来。对此,中方正在进行评估。

在一些人看来,谈判就是「跪」。按他们的逻辑,美帝这次一定跪了。

秦始皇又摸电门了。

但说实话,正如家传编辑部一位读者留言:若有利于国民,跪一下又何妨呢?勾践当年还为吴王夫差尝便呢。

川皇这个人,一方面死要面子,另一方面却并不执念于面子,该软则软,用他们的话说,就叫「战略不确定」。

他像个小猴乱窜,我方一开始还跟着跳舞,后来发现被戏得像厚重的大象,一时竟无法决断,干脆不再跟牌。

就像一首老歌,山不转水转:我方如山,美方似水。

川皇此时求谈,看似气势如虹,实际上也难得很。他的百日维新四面楚歌,股市大跌、民调大跌,就连最心爱的左膀右臂也都断翅:

  • 今日,白宫为马斯克举行欢送会。

  • 昨日,国家安全顾问沃尔兹被贬谪为驻纽约联合国大使,顾问一职由国务卿卢比奥兼任。

  • 沃尔兹因为在群里聊军国大事被贬,国防部长能否保住也在两可之间。

此时美方的局势并不稳定,正因如此,CCT视旗下的小号也明说了:「有“不确定”,那我们就消除“不确定”——美方如果想和中方进行接触,中方就利用这些接触意图,逼出其真实的意图,更好地掌握主动权。」

有意思吧?这话特别像胡锡进的口气,很接地气。

当然,也像中医疗法,将寒气「逼」出来。

当然,这也是武侠常用术语,将毒气「逼」出来。

能不能逼出来我不知道,但在短短10天之内,川皇团队至少说了11次「在和中国联系」,这让我方挣足了面子。

以至于CCT视的视频号在播放商务部消息时,语速慢得如同大丧之音,生怕用户漏掉了一个字。

而且,小号还用了「洞穿美国的谈判心理,就会发现,在接触方面,我们不是理亏的一方,也不应该藏着掖着,我们很坦然」的话语。

但问题是,这篇文章仍然发在小号上,还是留了退路,以防万一川皇又变卦,弄得我方措手不及,失了面子。

因此,如此重要的一篇文章,竟然到目前为止只有6.8万阅读量,留言一条也没有!

可见对如何引导舆论,还是进退两难,干脆先关闭留言,直到「逼出其真实的意图」。

细究原因,是不是吸取了之前的教训?

比如没有摸清美方的真实意图,在应对时失了方寸,办了些不甚得体的事、说了些不甚适宜的话?

听说《不跪》这个视频,已经不让转发了,所以官媒都没有跟进。

以及6月份结束的最高党报海外版和球报「中美友好交流故事」征文大赛,还要不要继续办?

形势变化很快,一不小心就要被耍,还是小心为上。

既然双方都要谈,有没有前置条件?现在看来都有。

  • 美财长贝森特:高关税,这就是大棒;而胡萝卜就是——来找我们,取消你们的关税,取消你们的非关税贸易壁垒,停止操纵货币,停止补贴劳动力和资本,然后我们再谈。

  • 我方商务部:美方想谈就应拿出谈的诚意,要在纠正错误做法、取消单边加征关税等问题上做好准备,拿出行动……任何可能的对话、会谈中,如果美方不纠正错误的单边关税措施,则说明美方完全没有诚意,且会进一步损害双方互信。

看双方的条件,我竟然觉得有得谈。

一方面,双方所谓的条件,其实都是要谈的内容,而非开谈的条件,更像是提前要价。

但CCT视小号又说,在美国没有实质性举动前,中方没必要和美方谈,不知这是否代表了官方态度。

不过,小号又说,美国如果希望同中国接触,现阶段对中国来说也没有坏处。

好扭捏啊,就像个哄不好的小媳妇,弄得我也摸不清小号的真实意图。

此外,小号已将其他国家有可能的谈判成果归到自己名下:中国是被加征所谓「对等」关税最高的国家,如果连中国都要作出巨大的让步,主动去找美国谈判,那对其他国家而言,能够争取的空间就非常有限了。

——换言之,如果他国得了好处,那也是通过中国的抗争换来的。

在80年前的抗战中,是中国的中流砥柱。

在2025年贸易战中,是全球的中流砥柱。

「横空大气排山去,砥柱人间是此峰。」那就大气一点,赏美帝个面子,谈谈?

那些原本是废话的常识|比“内卷不如作弊”更可怕的是“为后代能作弊而努力”

By: unknown
3 May 2025 at 01:21
CDT 档案卡
标题:比“内卷不如作弊”更可怕的是“为后代能作弊而努力”
作者:叶克飞
发表日期:2025.5.1
来源:那些原本是废话的常识
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

随便写几句吧。

协和这事儿并不是创新发明,而是国际经验。但国际上培养人才的有效渠道,到这里就变成捷径。

有人慨叹“孩子再怎么内卷,也比不上能作弊的”,这就是现实。普通人家孩子要想实现世俗意义上的成功,得寒窗苦读多少年?一路上要把多少人挤在身后?但有些人就是能用更短的时间、更轻松的方式实现这一目标。有人担心这些人拿手术刀,其实没必要,因为他们的真实目标是转入管理岗位。

网上很多人觉得这事儿过于惊悚,这反应多少有点装外宾,这类事情在各个领域不都是常态吗?小到孩子入学,大到职场晋升,总有捷径专供某些人。

有人根据各种爆料信息(部分已经辟谣),认为当事人算不上权贵婆罗门出身,这种“曲线救国”的模式恰恰说明当事人父母办法不多。这话或许没错,很多人觉得不可思议的捷径,可能在真正“有办法的人”那里就是最笨的办法,这就好比前几年那句流行语,“有钱人的生活超出我的想象”,婆罗门的捷径同样是超出大多数人想象能力的。

但问题恰恰在这里,留意现实就会看到,无数人都在竭尽全力,用手中或多或少的权力供下一代作弊。“孩子再怎么内卷,也比不上能作弊的”,在我眼中还算不上最可怕的,最可怕的是“拼命努力,是为了让自己的下一代有作弊的资格”。

这几乎是这片土地上自古以来、根深蒂固的常态。拼命参加科举考试是为了什么?为了黄金屋和颜如玉,为了做官,因为做官才能做“人上人”。只有成为“人上人”,才能拿到各种特权。这个无法改变的传统,才是一代代人要面对的真相。

捉刀时间max|美国从《永乐大典》中还“偷”走了什么?

By: unknown
3 May 2025 at 01:16
CDT 档案卡
标题:美国从《永乐大典》中还“偷”走了什么?
作者:捉刀时间max
发表日期:2025.5.2
来源:捉刀时间max
主题归类:网络民族主义
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

无意中点开了一个人的作品:什么电脑出自《易经》,手机来自《天工开物》,牛顿抄袭的《奇器图说》,奔驰山寨的木牛流马,青霉素取自《伤寒杂病论》,就连福特级核动力航母的图纸,都是剽窃明代魏学洢的《核舟记》。他宣称,这一切在《永乐大典》中都有记载,甚至他还宣称,人类对《永乐大典》的开发不足千分之一。比如马斯克只是秘密得到了《永乐大典》的一点儿残本,就敢夸下海口移民火星。

质疑是迈向真理的第一步,从布鲁诺疑惑地心说,到爱因斯坦怀疑牛顿,质疑如同一把锋利的手术刀,剖开表象、直指真理。但质疑不是无脑的牵强附会,不是张冠李戴的自我催眠,而是对真理的执着追寻。可以怀疑后人托名附会亚里士多德,但不是看到《核舟记》这三个字,就把它吹嘘成是核动力航母的设计图纸。

img

我一直以为那些是搞笑作品,但是看到几十万的点赞,不免就陷入了沉默,然后再看看他们带的货,名贵的保健品、酱香的珍藏酒,便又恍然大悟。

不过,我还是有一个疑问,为什么他们热衷于说西方的科学发明来源于《永乐大典》,而不说西方的人文发明也来源于《永乐大典》呢?比如美国国父的六大发明。今天,我们来一起看看,美国国父们在《永乐大典》里偷走了什么。

第一、制宪会议。

1787年,美国在费城召开制宪会议,这一事件本身就是一个重大发明。55名代表坐下来,通过会议来创建国家,而不是凭借谁的钱多,或者谁兵强马壮。代表们通过开会来讨论国家的根本大法,他们进行的不仅仅是创建国家,更是人类首次系统的实践启蒙思想家的社会契约论。

这一制度发明体现在三个方面:首先,会议的代表并非各州官方指定,而是人民选出来的代表。其次,会议的程序突破了原来的邦联条例,采用了一人一票的表决机制。最后,宪法的批准由各州单独审批。

这种自下而上的建国模式,彻底颠覆了传统国家的叙事逻辑。正如美国宪法之父麦迪逊所说:制宪会议不在于邦联条例的授权,而在于人民主权的直接行使。

img

第二、成文宪法。

1787年,美国宪法文本的制定标志着成文宪法范式的确立。美国宪法以6000多字的精炼文本,实现了国家规则的明文化。富兰克林曾经充满深意的指出:我们正在为世界立范,这个实验的成功将改变人类文明的进程。

与英国不成文的宪法相比,美国宪法的成文化具有革命性的意义:第一、确立了宪法作为最高法的地位。第二、建立了刚性的修改程序。第三、创设了宪法的解释机制。这种将政治契约法典化的模式,成为了宪政国家的标准。正如《独立宣言》的起草人杰斐逊所说:将权力关进法律文本的牢笼。

第三、分权制衡。

美国表面看是三权分立,但其实是八权分立。只是因为国家机构只有三权而已,另外的新闻权、工会权、持枪权等等并不在国家机构手中。

麦迪逊在《联邦党人文集》中指出:野心只能用野心来对抗。美国国父们将孟德斯鸠的三权分立理论,发展成了错综复杂的动态制衡体系。让立法、行政、司法三种权力,既相互独立,又彼此制约。这种既对抗又协作的制衡体系,确保了任何权力分支都无法一家独大。正如美国第28任总统威尔逊所说:不是简单的分权,而是交织的制衡。

第四、权利法案。

1791年美国各州批准的《权利法案》,将自由主义之父洛克的自然权利理论,转化为了具体的宪政实践。杰斐逊在给麦迪逊的信中说:《权利法案》是人民的必要武器,没有它,宪法只不过是统治者的游戏规则而已。

比如:1971年《纽约时报》诉沙利文案,最高法通过开放性的解释,维护了第一修正案。《权利法案》的开放性解释机制,让它历经230余年仍能适应时代的变迁。

img

第五、司法审查。

1803年,马伯里诉麦迪逊案确立了司法审查权,首席大法官马歇尔在判决书中创造性地指出:解释法律是司法部门的权力,与宪法相抵触的法律无效。

这一制度发明也体现三个方面:第一、司法权是宪法争议的终极仲裁者。第二、司法权充当了联邦权与地方州权的协调者。第三、司法权是公民权利的最后保障。正如托克维尔在《论美国的民主》一书中所说:美国问题的最终解决,迟早都会变成司法的问题。托克维尔的预言无一不准,因为后来有一次美国总统大位的归属,都变成了司法的问题。

第六、复合共和。

美国联邦制的创新在于构建了双重主权的体系,也就是既非单一制国家的中央集权,也非邦联制的松散联合。形象表述就是:大共和国里套着一堆小共和国。这种权力划分,创造性地解决了大国治理的规模难题。正如托克维尔所说:各州如同实验室,不断进行制度的创新。而联邦既给予各州自由,又提供国家力量,这是美国保持活力的奥秘。

img

美国国父们的六大发明,环环相扣,构成了相互支撑的体系:制宪会议确立了人民主权的原则,成文宪法提供了根本的规范,权利法案保护个人的自由,司法审查维系宪法的权威,分权制衡防止权力的滥用,复合共和平衡中央与地方。正如《联邦党人文集》的作者之一杰伊所说:这个国家不是建立在抽象的理论之上,而是基于对人性的深刻认知。

美国国父们的六大发明,或许是抄袭的《永乐大典》,但《永乐大典》的缔造者明帝国,显然并不承认。

新新默存|王五四:这届兄弟会不行

By: unknown
3 May 2025 at 01:00
CDT 档案卡
标题:王五四:这届兄弟会不行
作者:王五四
发表日期:2025.5.1
来源:新新默存
主题归类:外卖员
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

不得不承认,“兄弟”这个词特别适合北方语系的人讲出来,江苏宿迁的大强子一说“兄弟”,就有种他老乡项羽的霸气感,这种感觉就像2018年5月16日,刘强东在第二届世界智能大会上说的,“京东不会开除任何一个兄弟。”霸气侧漏,言简意赅,不拖泥带水,没有说“兄弟”的最终解释权归他所有。要是换成潮汕无党派人士马化腾,兄弟二字一出口,你就感觉两肋上要被插两刀,而且不用说也知道,“兄弟”二字的解释权归深圳市腾讯计算机系统有限公司所有。

去年刘强东又重新定义了一下兄弟,“凡是长期业绩不好,从来不拼搏的人,不是我的兄弟”“不想拼没错,但你不是我的兄弟,你是路人,我们不应该共事”,“兄弟”这种关系其实挺脆弱挺危险,既没有血缘,又没有商业合同,全靠江湖道义和个人道德支撑,随时都有被重新定义和增加附加条件的风险,在社会江湖上还好,这个行业讲究的就是个道义,“兄弟”关系相对牢靠,但放在商业江湖里,“兄弟”如衣服,远不如“合伙人”“股东”来的踏实些,我的利益就是我的利益,我躺着也是我的,我不拼搏也是我的,不是你赏赐给我的,不是你想剥夺就能剥夺的。

前几天,京东宣布入局外卖市场,刘强东还亲自送了几单外卖,在和骑手们的聚餐上,大强子一举酒杯,“欢迎美团、饿了么兄弟们加入我们京东。”有点电影《阳光灿烂的日子》里小混蛋的模样,在电影里,王朔饰演的社会大哥小混蛋刚刚和解了一场群殴,在事后的聚餐上,他酒杯一举说了句,“四海之内皆兄弟,五洲震荡和为贵”,大强子总提兄弟,可惜还处于兄弟会的初级阶段,是想让兄弟们为了“兄弟”二字一起给他卖命,他心里还没有“和为贵”。急于在外卖市场站住脚的大强子杀气腾腾,完全没有领悟和气生财的道理,他的急迫和他的杀气,都源于京东在骑手数量和商家数量上的不足,他嘴上强调的骑手待遇和商家品质,看似是在揭露行业弊端,实则还是他的急迫和杀气的具体体现。他嘴里的兄弟,就是他口水战的杀器,他需要通过口水战吸引商家和骑手的注意力以及他们大量的加入,尽快补齐短板,可是罗马不是一天建成的,骡马也不是一天招募齐的。江湖上一提兄弟情义,最容易点燃众人情绪,可真遇到事情,真看到现实的残酷,利益当前,性命攸关,“兄弟”二字就再也硬不起来了,李雪健老师饰演的张作霖曾经说过,什么是江湖,江湖不是打打杀杀,江湖是人情世故。不懂人情世故,只想利用兄弟们的一腔热血成就自己的霸业,连古惑仔都不如。

在知道刘强东之前,我先知道的是刘华强,以前只觉得孙红雷演技好,现在回头看看,刘华强的台词也写的不错。特别是这句,“我有我的兄弟,我得为他们的生命负责。”作为一个黑社会老大,需要的是兄弟们以命相博,但他没跟兄弟们说,凡是长期收不到保护费的,业绩不好的,从来不拼命的,不是我的兄弟。反而要对兄弟们的生命负责。他公开对兄弟们讲的是“在爱情和道义之间,我选择的是道义。”而不是一口道义一口奶茶。遇到危险的时候,他说的是“兄弟,要走一起走!”他深明大义,处处为兄弟着想却从没想过让兄弟们感恩戴德,“宋大哥有宋大哥的兄弟,华强有华强的朋友,我那些朋友也都是靠我吃饭的。”在他眼里,兄弟也是朋友,靠他吃饭,天经地义,而不是说,“不想拼没错,但你不是我的兄弟,你是路人,什么叫路人,就是你既不是我朋友,也不是我兄弟”,左一个兄弟右一个兄弟,说来说去全是利益。

作为大哥,刘华强心里一直装着兄弟,刚跟两个兄弟见面就送钱,这点很像一千年以前的一位大哥,及时雨宋江,一见兄弟就给钱。不仅仅是大哥,作为大国,有责任有担当的大国,我们也是经常给非洲兄弟送钱,那么大强子,作为一个大老板,是不是也应该像大哥和大国学习呢。况且,你现在已经是事业巅峰期了,不要老是一副“先帝创业未半而中道崩殂”的样子,不要总想着“想当初,老子的队伍才开张,拢共只有十几个人,七八条枪”的凄凉景象,现在可以让兄弟们跟着吃了,而不是想当初那会儿,都是跟着你吃苦和吃亏。

兄弟是可以一起打江山的,但一起坐江山很难,哪怕是亲兄弟,比如玄武门之变,比如烛影斧声,比如九子夺嫡,大家都想把那个“最终解释权”抢到手,否则前面说的再好听,一解释就完蛋了。哪怕像太平天国的洪秀全,贵为天王,上面还有个天父,天父本来应该是个如梦幻泡影如露亦如电的存在,不会影响天王的一人独大,却偏偏出来个东王杨秀清,声称自己能请天父下凡,而且还降临到他的身体上,借他的口发号施令,如此一来,天王的“最终解释权”就落在了东王身上,借着这个最终解释权,东王鞭打过天王,东王借天父口气对洪秀全说:“你与东王都是我的儿子,东王有这么大功劳,为什么只称九千岁呢?”洪秀全只能回答:“东王打江山,亦当是万岁。”洪秀全当初也没想到,这个曾经蛊惑人心拉拢队伍的做法,到了最后竟然成为别人打压操控自己的政治工具。

兔死狗烹,韭尽镰藏,是历史发展进程中常见的现象。打天下时,兄弟之间相互信任,休戚与共,坐天下时,兄弟关系成了君臣关系,手握重兵的功臣以及知根知底的前兄弟,对新王和新王朝来说,都是一个潜在的威胁,双方互帮互助协同合作的关系,变成了竞争甚至敌对的关系,比如朱元璋,对一起打天下的兄弟痛下杀手。商场不是战场,没有那么血腥,所以大强子也特意强调,不是兄弟也不是敌人,是路人,但却有点此地无银三百两欲盖弥彰的味道。

从市场经济的角度来看,一家大型互联网企业入局外卖市场,不论是对餐饮商家、骑手,还是用户,都是有好处的,不管是鲶鱼效应重振活力也好,还是改善骑手职业环境,以及餐饮行业的生存困境,或者说让更多的人关注外卖行业,关注骑手,关注餐饮……,都是非常有必要的。面对京东来势汹汹的进攻,大家都没有急吼吼地正面硬刚,美团发了一首诗,“他强由他强,清风拂山岗。他横任他横,明月照大江。”无视他人,做好自己,阿里太极推手般的应对也是“闪”了大强子的腰一下,淘宝天猫旗下推出了即时零售业务“淘宝闪购”,并在淘宝app首页以“闪购”一级流量入口展示。这在我看来,可以说是长效反击,也可以看作防御升级,但更像是在即时零售这个业态里射出的最长的一枪,让子弹飞一会儿。因为互联网行业发展至今,早就没有你死我活的竞态了,而是各自发力,各尽所能,共同推动行业的发展,嘴里喊打喊杀的,基本都是先把水搅混想趁火打劫的混子。“即时零售”“闪购”是非常清晰的商业表述,就是指服务用户的态度和速度,很多人可能没有感觉,认为没有什么创新和变化,作为一名有二十年工龄的古典互联网老兵,深知这个行业要有真正的创新和变化太难了,想当年互联网群雄纷争,大家玩的大多是宏大的概念,遥远的许诺,慢慢也就脱离了商业的本质,而今,“闪购”这两个字可以说是回归了零售业的根本,如果有什么值得期待的互联网大事件,这就是值得期待的变化,而不是什么给兄弟交纳五险一金。

淘宝闪购推出时,我在网上看到了他们一起推出的“真福利、真补贴”,作为一名创业十余年尚未成功的互联网那个企业家,我实在是不支持什么补贴政策,长远来看,对于哪一方都没有好处,补贴只是最初级的手段,但从当下的形势来看,好像除了补贴,也没有其他更好的方式来迅速获取用户让用户熟悉和体验新品,也没有其他更有效的防御武器来抵御外界的野蛮进攻,或许这就是面对门外野蛮人野蛮生长的无奈。不过有一点能够让人欣慰,那就是我们的互联网用户已经成长起来了,特别是面对平台之间的竞争交战时,可以说是久经考验百度不侵了,价格依然是重要决策因素,但大家都早已明白,价格很重要但不是唯一重要的,低价看上去很美好,但实则是“口惠而实不至”,就像大强子嘴里的“兄弟”,稍一细品就没有那么美好。什么给兄弟们交五险一金,说的是全职骑手,也就是正式员工,说的好像哪家公司不给正式员工交五险一金一样,对于那些外包骑手,还是跟其他平台一样的待遇。把一件事做好,总是要有团队要有技术要有经验要有积累的,难道有良心就能做好?更何况还不一定是真心,如果是这样简单,我们这的狗早就占领全球引领全球发展了,因为在这里,太多良心都被狗吃了。郭沫若在《甲申三百年祭》中说,“虽然屡次在下《罪己诏》,申说爱民,但都是口惠而实不至。”挺像大强子的。

在商场上谈利益当然没错,利益也应该放在首位,否则很难持续下去,但大家组建的是商业公司,不是兄弟会,那就应该在商言商,现代化商业公司该做好的事情做好,该签署的协议就签,别一张嘴就是兄弟,喷出的却是利益的味道,况且现在的“兄弟”还是重新定义过的,未来还会被随时定义。大强子每次高调做“兄弟”论的时候,都是他以及京东感受到巨大压力的时候,从长远来看是活下去的压力,有压力是好事,但不能只打情感牌,甚至有些牌打得很危险,比如“五险一金”的牌,比如“底层民众大救星”的牌,不仅僭越,还很有可能被反噬。想打感情牌也可以,但要注意度,他应该把余华请来,做个读书分享会,分享两本书,一本是《兄弟》,一本是《活着》。

互联网江湖,兄弟会很多,最可怜的就是已经被逐出江湖的贾跃亭了,一个人独身在美国,望着彼岸绿油油的韭菜而镰长莫及,虽然开始做短视频了,妄图通过互联网来延伸镰刀的长度,但是韭菜们已经不买帐了。看着视频里他孤独落寞的模样,一个兄弟也没有,其实这也是一种人设,他应该打造自己刺客信条的人设,“当其他人都盲目追寻真理的时候,记住,万物皆虚。当其他人的思想都被法律与道德所束缚的时候,记住,万事皆允。我们躬耕于黑暗,服侍于光明。我们是刺客,我们下周回国。”

真兄弟,是团队,不是团伙。

❌
❌