Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

【404文库】“‘主动向组织交代问题’的有一些是被震慑的,有一些官员心里恐怕则是打着别的算盘的”(外二篇)

By: elijah
21 May 2025 at 09:52

CDT 档案卡
标题:【404文库】“‘主动向组织交代问题’的有一些是被震慑的,有一些官员心里恐怕则是打着别的算盘的”(外二篇)
来源:基本常识衣者朝新念兹集

主题归类:董袭莹中共官员律师
CDS收藏:时间馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

《404档案馆》讲述中国审查与反审查的故事,同时以文字、音频和视频的形式发布。播客节目可在 Apple Podcasts, Google Podcasts, Spotify 或泛用型播客客户端搜索“404档案馆”进行收听,视频节目可在Youtube“中国数字时代· 404档案馆”频道收看。

欢迎来到404档案馆,在这里,我们一起穿越中国数字高墙

尽管中国的言论审查和舆论管控日趋严峻,国家对公民的监控也无处不在,但我们依然可以看那些不服从的个体,顶着被删号、被约谈、甚至被监禁的风险,对不公义勇敢发出自己的声音。

中国数字时代在“404文库”栏目中长期收录这些被当局审查机制删除的声音。如果您也不希望这些声音就这样消失,请随手将它们转发给您可以转发的任何人。

在本期的【404文库】栏目中,我们将选读过去一周中引起舆论关注的三篇404文章。

一、基本常识|把锅推给董某莹造假,真是天大的笑话

董袭莹事件在中文互联网上持续发酵后,5月15日,国家卫健委发布关于此事件的调查通报,称董袭莹在协和4+4医学博士招录中存在成绩造假问题,另外她的毕业论文也涉抄袭。

img

最终,这场备受瞩目的“学阀”闹剧仅仅以撤销董袭莹的学历学位和医师资格告终。网民们普遍关注的董袭莹以及协和4+4项目中的其他“学阀”的家庭背景是否涉及贪腐、公权私用等问题未得到解答,甚至连协和4+4项目本身是否存在问题也未被提及。

对此,有微博网民嘲讽:“咱们老百姓运气可太好了,唯一一次油罐车装食用油,就给查出来了;唯一一个造假当医生的董小姐,就给查出来了。我们运气是真好。”

img

微信公众号“基本常识”作者项栋梁也发布文章,对当局“把锅推给董袭莹造假”的说辞表达不满,但该文很快便被删除。

文中写道:

一个简单的道理:

如果换作是我,假造一套资料说我是耶鲁大学金融专业的本科生,大学期间选修了物理化学生物等一系列课程,成绩都很优秀,现在申请去协和医学院读4+4的医学博士,你觉得我能被录取吗?

首先,协和4+4每年只从全球前50的大学招录30名精英学生,申请人数想必也不超过1000人,资料审核工作量并不大。学生报名时提交的学历、学位证书,还有各科成绩单,发一封邮件找学校核实一下,我作为普通人立马就露馅儿了。

那么,伪造学历成绩信息的董小姐,是怎么通过申请资料审查的?是谁放她过的?

然后,就算协和的招生办善良又天真,完全没想到会有坏人造假,没有核实我提交的成绩真假,但招录的面试环节总归是有的吧?

一名经济学的本科生,大学物理、有机化学、无机化学等课程完全没学过或者不及格,能跟面试的教授聊得起三羧酸循环,能读得出二甲双胍的化学式吗?

成绩好不好的,毕竟还需要专门考试才能测出来,但作为一个没有学过有机化学的普通人,专业面试聊3句话就被赶出去。

那么,4门基础课16个学分纯靠伪造的董小姐,是怎么通过面试的呢?是哪些人面试的?

再有,假设我天赋异禀临场应变能力超绝,硬是靠口才又闯过了面试这一关,混进了协和。那我在协和读博的4年,总要做实验,总要考试的吧?

无机化学、有机化学这些基础的学科知识与实验技能没有经过训练,过个层析柱不知道怎么装料,跑个凝胶电泳不知道样品往哪儿滴,作为普通人在协和4年肯定跟不上课程,做不完作业,通不过考试。

那么,董小姐是怎么在中国顶级医学院校完成4年学业的呢?她的导师就从来没有察觉过异常吗?

好,假设我入学后痛定思痛,课余时间恶补了那些理化生的基础课程,或者平时考试都作弊抄袭,愣是把这4年混过去了,还能在毕业典礼上获得院长的点名表扬。但我毕业论文怎么办呢?

一名博士生的毕业论文,要么是具有高度原创性的发明设计,要么在某个细分领域把人类的知识边界往前推进一点点,总之得是个正经的研究项目。

我当然可以抄袭别人已经发表的专利来拼凑一篇,或者让做教授的姑姑把她学生的论文抢过来给我用,但博士毕业论文还得送外审,还得有盲评,最最关键的,还会查重啊。

作为一个普通人,把查重率超过20%,大量抄袭已发表专利文章的博士毕业论文交上去,那跟直接放弃学位也没什么区别了……

那么,董小姐抄袭的毕业论文,是怎么通过重重评审拿到博士学位的呢?评审论文的负责人是谁?论文查重的负责人是谁?

一个不学无术的普通人,要想光凭自己造假就能一路闯过这么多关卡,在中国最顶尖的医学院校拿到博士学位,是完全、肯定、绝对不可能做到的。

在入学申请材料审查、面试、日常考试、毕业论文评审、答辩这些环节,必定有至少一位足够影响力的领导干部和数十位知情配合的教职员工,才有可能把董小姐一路包庇到博士毕业。

绝对不可能仅靠董小姐自己和家人造假就能骗到一个协和的医学博士学位。绝对有领导干部的干预,绝对有执行人员的渎职。

[…]分享一点基本常识:

既然造假的人查出来了,那些包庇造假,协助造假的人应该也不难查。

二、衣者朝新|江西官场出现“主动交代潮”,两大主因不容忽视

2025以来,江西因大批官员被官宣落马时“主动向组织交代问题”引起舆论关注,媒体纷纷以此作为新闻点进行报道,但没有一家媒体对这种集中出现的特殊现象进行进一步的解读和深入报道。

上述文字来自微信公众号“衣者朝新”近日发布的文章:《江西官场出现“主动交代潮”,两大主因不容忽视》。媒体人褚朝新对江西官员“主动交代潮”进行分析。

在这一篇遭到审查删除的文章中,作者写道:

比较发现,江西“主动向组织交代问题”的厅官比例之高,全国罕见,为什么这么多官员“主动向组织交代问题”呢,这意味着什么呢?

官方的宣传口径说,投案的多、主动交代问题的多是因为反腐的震慑作用所致。这一点我们不能否定,抓了这么多官员,屁股不干净又心虚胆小的官员不可能不怕,主动交代的应该是有不少。

但是,我们也不能高估所谓的震慑作用。大家都知道了,中纪委前日公布了河南省信阳市罗山县10名官员违规吃喝时有一名叫夏宇的县委政法委副书记酒后死亡。

讽刺的是,他们聚餐前在一起开的是深入贯彻中央八项规定精神学习教育部署会,八项规定的一个重要内容就是禁止违规吃喝。可是,他们刚散会就吃上喝上了。大中午的,县委常委、县委政法委书记、县检察院检察长等五名政法官员喝了四瓶白酒,人均八两,结果喝多了的县委政法委副书记夏宇当日下午死亡。

所以啊,我们必须冷静理性看待“主动交代潮”。复杂的反腐现实告诉我们,“主动向组织交代问题”的有一些是被震慑的,有一些官员心里恐怕则是打着别的算盘的。

“我们先学习一下《中国共产党纪律处分条例》,条例第十七条规定,主动交代本人应当受到党纪处分的问题的,可以从轻或者减轻处分。条例第四十条规定,条例所称主动交代,是指涉嫌违纪的党员在组织谈话函询、初步核实前向有关组织交代自己的问题,或者在谈话函询、初步核实和立案审查期间交代组织未掌握的问题。

很清楚,主动交代问题是可以从轻或者减轻处罚。所以,有些官员其实是奔着从轻或者减轻处罚去的。

但是,官场复杂,有些官员内心不堪,未必是真的“主动向组织交代问题”,而是交代轻的隐瞒重的、交代小的隐瞒大的,企图蒙混过关。

三、念兹集|抓律师、抓记者的,基本没什么好下场

5月13日,北京刑辩律师张新年在黑龙江绥化市办案时突遭当地警方传唤,引发广泛关注。

img

张新年为北京市中闻律师事务所律师,近期介入了绥化市望奎县一起敲诈勒索案的辩护工作,曾多次发帖质疑当地司法机关。

img

在张新年律师被传唤之后,微信公众号“念慈集”发布文章,对当局“抓律师、抓记者“的做法表示不满。

但该文也被删除。

文中写道:

抓律师、抓记者的,基本不会有什么好下场。

公开审判作为对秘密审判的否定,是当今世界各国所承认的最公正、最文明的审判方式和诉讼程序,其精神价值在于公开是实现司法民主的手段之一,是保证公众行使对社会事务的知情权,以便确保国家司法权行使的正当化和合理化。

无论是律师发现办案机关罔顾事实地将嫌疑人描述得十恶不赦的时候,还是办案机关污名化律师的时候,律师通过媒体、自媒体作出澄清和批评,乃是一种本能。

是的,不排除,某些律师、记者慑于各种压力,被轻松拿捏。

但动用公权力来压制律师和记者,就像玩俄罗斯轮盘赌。也许前五下都是空的,但第六下就能要命。

一旦遇到脖子硬的,不但抓律师、抓记者的想法不会得逞,相反,抓律师、抓记者这件事还会扯出背后的种种黑幕。

大清朝的著名案件,杨乃武与小白菜,不是二人有多大的本事。杨乃武与小白菜案能够掀起一场官场风暴,根本原因在于官场是一个借力打力的场景。

有人需要一个支点,杨乃武和小白菜,没有早一步,也没有晚一步,正巧赶上了。

官场这个场景。有无数双眼睛都在盯着竞争对手,都在守株待兔地等着竞争对手自己给自己挖坑。而律师、记者这两个群体“自带流量”的特殊性,又非常适合成为”借力打力“的支点。于是,抓律师、抓记者,表面看来虽似末端小节,但实质上却是以前发生大事的症结,也是将在以后掀起波澜的机缘。

以上是本期选读的三篇404文章。文章全文见中国数字时代网站。这些作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。

中国数字时代 CDT 致力于记录和传播中文互联网上被审查的信息,以及人们与审查对抗的努力。欢迎大家通过电报(Telegram)平台 向我们投稿,为记录和对抗中国网络审查作出你的贡献!

cdtimg

了解更多投稿信息,请阅读中国数字时代征稿说明

欢迎读者访问 CDT播客CDT视频 收听/观看更多相关内容。

【404文库】“董袭莹牵扯涉及4+4项目违规的人员”(外二篇)

By: elijah
13 May 2025 at 05:29

CDT 档案卡
标题:【404文库】“董袭莹牵扯涉及4+4项目违规的人员”(外二篇)
来源:思恩府驿站往事与随想新浪财经

主题归类:就业农民养老金董袭莹
CDS收藏:时间馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

《404档案馆》讲述中国审查与反审查的故事,同时以文字、音频和视频的形式发布。播客节目可在 Apple Podcasts, Google Podcasts, Spotify 或泛用型播客客户端搜索“404档案馆”进行收听,视频节目可在Youtube“中国数字时代· 404档案馆”频道收看。

欢迎来到404档案馆,在这里,我们一起穿越中国数字高墙

尽管中国的言论审查和舆论管控日趋严峻,国家对公民的监控也无处不在,但我们依然可以看那些不服从的个体,顶着被删号、被约谈、甚至被监禁的风险,对不公义勇敢发出自己的声音。

中国数字时代在“404文库”栏目中长期收录这些被当局审查机制删除的声音。如果您也不希望这些声音就这样消失,请随手将它们转发给您可以转发的任何人。

在本期的【404文库】栏目中,我们将选读过去一周中引起舆论关注的三篇404文章。

一、思恩府驿站|2025年,南宁失业有多严重?

5月初,微信公众号“思恩府驿站”发布文章,讲述2025年以来南宁失业问题。与当局长期以来所宣传的“就业形势一片大好”不同,该篇遭到审查删除的文章中,详细展现了当前艰难的就业环境。

文中写道:

在南宁求职,通勤时间过长成为不少人的一大难题。有的人需要乘坐10站地铁,出站后还要步行900米,从出门到公司起码要花费一个小时;还有人每天得先步行1.5公里到地铁站,乘坐8站地铁后,出站再走1公里才能抵达公司。更有甚者,需要多次转乘地铁,通勤时间长达两个小时,让上班族疲惫不堪。

薪资待遇又是一大痛点。许多工作试用期扣完社保后仅3500元,还有低至2000-3000元,连基本生活开销都难以满足。即使转正后,也不乐观,扣完社保到手3000多元。在物价不断上涨的当下,如此薪资水平让人……此外,社保缴纳不规范、不给员工缴纳社保的问题也较为普遍。

一些公司明确将招聘年龄限制在28-30岁以下,过了35岁,找到合适工作更是难上加难。年龄较大(其实也不大)的求职者,如30岁以上甚至40岁左右的人,深刻感受到了年龄带来的阻碍。他们即便有丰富的经验,也常常因为年龄不符连简历筛选这一关都过不了。“30的也一样,他们一边喊招不到人,一边又想要二十出头又要有工作经验的”“40了一看年龄简历都不看的”。“典型干活嫌人少,吃饭嫌人老……”

img

一位求职者吐槽:“30的也不要,2800都要本科以上,真不知道他们到底想要会什么技能的人了”。

学历方面,不少工作要求全日制大专以上学历,其他学历容易被拒之门外。

不少人还遭遇了各种坑。试工期过长且不合理是一个普遍问题,有的公司面试时承诺试工只需三天,可到了第三天,老板却不断延长试工期,从五天到七天,甚至半个月,而且试工期的工资计算方式也不明确,有的公司甚至规定试工期没有工资。还有的公司在招聘时承诺的薪资与实际不符,岗位工作内容与招聘信息描述相差甚远。有人在试岗期快结束时,才被告知自己的设计风格不符合公司要求,而在此之前,老板对其设计稿并未提出任何异议,甚至还表示认可。后来才发现,原来是公司原本的员工忙完手头的事情后要回来继续工作,自己只是被找来临时顶替的,白白耽误了半个月时间。还有人在面试时,被要求做一些与岗位无关的端茶倒水做PPT,那可能都还算小事。

[…]某些学生群体毕业后,班上至少一半以上的同学都经历过失业。自身的工作也极不稳定,前三份工作每份都做不到半年,不是钱少事多,就是公司各种奇葩规定,还时常找理由扣工资。有说工作相对稳定的,还遇到诸如单位报销款项迟迟不发等奇葩问题。

二、往事和随想|关于中国养老制度每个人都应该知道的5个常识

最近四个月呼吁提高农民基础养老金问题,一共写了十多篇文章,做了十期视频,一个深切感受就是:有很多所有人都该知道的常识不为人所知。

所以尽可能简略地写了5条:这里面有最基础的,比如多数省份农民一个月基础养老金不到200元(很多人城里人并不知道),也有99.99%的人都不知道的,比如财政对于不同群体的补贴情况。

如果大多数人都知道了这些常识,我相信“要不要大幅度提高农民基础养老金”,“哪有这个钱”等问题都不会再有争议了。请大家帮忙转发传播。

上述文字来自微信公众号“往事与随想”近日发布的《关于中国养老制度每个人都应该知道的5个常识》一文。

该号作者几个月来持续发布文章探讨中国养老制度存在的不公现象,尤其是农民养老金问题,但多数文章遭到当局封禁。

相关阅读:

在这一篇遭到审查删除的文章中,作者写道:

01 收入情况

体制内平均退休金6000多元/月

企业职工平均退休金3000多元/月

城乡居民(农民为主)养老金平均200多元/月

月收入比为:30:15:1

02 财政补贴

2023年国家针对不同群体的财政补贴:

体制内0.22亿人补贴8056亿,人均3051元/月;企业职工1.2亿人补贴7620亿,人均529元/月;城乡居民(农民)1.73亿人补贴3681亿,人均 177元/月

补贴比例为:17:3:1

03 增长情况

从2009年到2023年,体制内月退休金从2000多元增加到6000多元,增长了4000元左右,每年增长285元左右;企业职工月退休金从1000多元增加到3000多元,增长了2000元左右,每年增长140元左右;城乡居民(农民)月基础
养老金从55元增加到了223元,增长了168元,每年增长12元(超过一半省份低于150元,每年增长6元左右)

04 缴存比例

养老保险占工资比例为单位16%+个人8%, 高于世界平均水平,美国加拿大韩国的两倍体制内另有职业年金,单位8%+个人4%, 加上基本养老保险24%,合计36%, 远高于世界平均水平,均由纳税人承担

05 替代率

养老金领取水平与退休前工资收入的比率:体制内替代率超过80%,远超世界平均水平, 超过北欧高福利国家

企业职工替代率40%左右,低于世界平均水平城乡居民(农民)替代率10%左右(基于农村居民人均可支配收入约为城镇居民43%),不足以解决温饱问题

三、新浪财经|AI回答:董袭莹牵扯涉及4+4项目违规的人员

董袭莹事件以及牵扯出的协和医院“4+4”项目仍在中文互联网上发酵,但当局已采取措施对相关话题热度进行打压。

近日,新浪财经发帖,称其小编通过腾讯AI“腾讯元宝”进行提问:“董袭莹牵扯涉及4+4项目违规的人员”。“腾讯元宝”的回答中收集了在协和“4+4”项目中获利者的名单。

img

该回答显然不符合中共的“AI姓党”要求。于是,新浪财经发布的帖子很快就被删除。

原帖写道:

一、已确认的“4+4”项目学生

咸晓梦。初中通过剪纸特长进入名校,后考入复旦大学经济管理专业,再通过协和“4+4”项目获得医学博士学位。其学术能力与医学专业跨度引发质疑。

盛玺澄。复旦大学经济管理专业背景,通过“4+4”项目进入协和,两年完成医学理论学习和临床轮转,23岁获得博士学位。其培养周期远短于传统医学生 。

韩佳澍。15岁留学多伦多,擅长小提琴并加入协和演奏团,19岁进入协和医学院,23岁完成“4+4”项目。其艺术特长与医学专业关联性存疑 。

img
韩佳澍博士学位证书

金山木。地质专业背景,2019年赴欧洲“地质考察”,2020年通过“4+4”项目进入协和神经外科,博士论文正文仅12页,学术质量遭质疑。其博士后录用信息与官网公示存在矛盾 。

img
金山木论文目录

二、疑似特权关联人员

邱贵兴院士家族成员。网友推测协和“4+4”项目2020级名单中两名邱姓女生可能为院士孙女,但未获官方证实

蒋德利娜亲属。蒋德利娜(非“4+4”学生)同父异母妹妹为演员蒋依依,其家族资源或对蒋德利娜进入协和导医岗位产生影响,但未直接涉及“4+4”项目 。

三、系统性特权特征

家庭背景:35%的“4+4”学生家长为厅局级以上干部,远超传统医学专业比例(2.1%) 。

学术造假:部分学生论文篇幅异常(如正文仅12页),且存在挂名导师、违规缩短轮转期等问题 。

录取漏洞:部分学生未满足“4+4”项目要求的医学预科课程(如生物、化学学分不足),却通过特殊渠道入学 。

四、舆论争议焦点

公众质疑“4+4”模式沦为权贵阶层“直通车”,例如:

艺术特长生、经济学背景学生快速获得医学博士学位,挤占传统医学生资源;

临床轮转期被压缩至1年,规培质量难以保障;

入学选拔透明度低,存在“特殊关系”操作空间 。

以上信息综合自网络爆料及官方公示矛盾点,具体人员身份需以协和医学院最终调查结果为准。

5月1日,国家卫生健康委新闻发言人表示,近日,我委关注到中日友好医院胸外科肖某被举报所引发的相关舆情。我委已成立调查组,坚持实事求是、客观公正原则,联合有关方面对事件涉及的肖某、董某及有关机构等进行
认真调查核查,对发现的违法违规问题将依法依纪严肃处理。

以上是本期选读的三篇404文章。文章全文见中国数字时代网站。这些作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。

中国数字时代 CDT 致力于记录和传播中文互联网上被审查的信息,以及人们与审查对抗的努力。欢迎大家通过电报(Telegram)平台 向我们投稿,为记录和对抗中国网络审查作出你的贡献!

cdtimg

了解更多投稿信息,请阅读中国数字时代征稿说明

欢迎读者访问 CDT播客CDT视频 收听/观看更多相关内容。

历史押韵|董小姐已经上不了热搜了

By: elijah
5 May 2025 at 23:16

今天看了一下微博热搜,已经没有董小姐和协和等话题的热搜了。

img

要知道前两天热搜榜上,前五十个话题,有一大半都是她引起的。

img

上不了热搜,不代表大家没有讨论。网友还在发掘。

比如网友找到了董小姐在纽约的豪宅,价值1200万,全款,每年房产税都要交几十万。

img

还有人扒出了她毕业典礼上的视频,那个时候看上去还自然点,不像现在,一脸科技,有点整残了的感觉。

img

那么问题来了,她从高中就在美国留学,每年的开销很大,现在又爆出买了1200万+的房产,她哪来这么多钱?

国企老总的爹,高校副院长的妈,有这么多钱吗?即使有这么多钱,又是怎么绕过每年5万美元的外汇管制?

我想起了大明王朝电视剧里杨金水的台词:有些事不上称没有四两,上了称一千斤也打不住。

顺着这个思路捋捋,说不定还有意外收获。

看到她家随随便便一千多万在纽约繁华地段买房,我想起了北极鲶鱼,炫富说自己家里九位数。只不过北极鲶鱼是跑到澳大利亚不回来了。

我感觉董小姐就是回游版的北极鲶鱼,犹如北极鲑鱼。

CDT 档案卡
标题:董小姐已经上不了热搜了
作者:徐鹏1
发表日期:2025.5.5
来源:微信公众号“历史押韵”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

还有董袭莹的工作单位也从北京肿瘤医院变更到廊坊分院,廊坊人民有福了。工作单位的变化也在一瞬间。这是为了迎接调查吗?

她生完孩子还会再回来吗?虽然现在卫健委的调查报告还没出来,但这件事闹得挺大,她还能按照之前的规划路径走吗?估计很难。我觉得他们家肯定会改变策略了。

说不定就会走北极鲶鱼的路,不回来了。

现在,微博上一个热搜也没有,估计等到五一假期结束,新的热点上来,这件事也就过去了。

卫健委可能会处理肖飞和董小姐,至于其他人,就不好说了。

看到这个新闻,我总能联想到铁链女。当时全网热议铁链女时,还发现了趴地女,铁笼女,等等,最后调查了好久,也只说了铁链女,处理了一个姓董的,其他人都没有提。

而这次,当我们深扒董小姐时,又发现了咸小姐,韩小姐,金公子,蒋小姐,邱小姐等等,估计最后调查也只会说肖飞,再处理一个姓董的。其他人也不会提。

估计只会围绕这件事,不会扩大范围。

可如果不仔细调查这么多年协和4+4培养的医生,以后去医院,医生和患者都要有检查毕业证的默契。是5+3+3还是4+4?

本来现在医患关系就紧张,现在大家都知道医生队伍里有人滥竽充数,知道水货会害人性命,但却不知道具体是谁,看病时,心里能不慌吗?

这不是一颗耗子屎坏了一锅粥吗?

我想起一个段子,说一高校开学典礼上校长说:为了保护艾滋病人的上学权利,今年招了五个艾滋病人,为了保护隐私,姓名保密。那之后,学生们人人自危都不敢谈恋爱。

还是希望卫健委能把这些问题都调查清楚,并向社会公布。

西坡原创|除了四加四这个梗,什么都不会留下

5 May 2025 at 19:46

file

文|西坡

看到“四加四”已经变成一个可玩可笑的梗,早晨起来,写这么一篇。我并没有感到意外,这其实正是我一开始就没怎么参与的原因。

我实在不愿意做这样的“大聪明”,就像有人在孩子刚出生的时候,预言说他早晚都会死的。

假如有人把这个重要的道理在别处讲过,那么我宁愿缄默不语,但我没有看见:

愤怒是一个社会的稀缺资源,像金子一样宝贵。而且若不加以善待,怒气可能会化为毒气,笼罩在大地上,久久不散。

这些年来,我已经见过太多次愤怒被堵塞、被滥用的情况。眼下,甚至出现了非常成熟的愤怒收割链条,一座座风车架设在愤怒常经过的路口,整个社会的元气转化为私家的流量与利益。而我眼睁睁看着,束手无策。

CDT 档案卡
标题:除了四加四这个梗,什么都不会留下
作者:西坡
发表日期:2025.5.5
来源:微信公众号“西坡原创”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

像我一样经历过思索过一些事情的朋友,很容易明白我在说什么。但此间事不足为外人道也,对于那些没经历没思索过的人,我又能说什么呢?我有什么权利阻止别人的愤怒呢?

“物不得其平则鸣:草木之无声,风挠之鸣。水之无声,风荡之鸣。”我怎能拦得住风,我又怎能拦得住草木和水?

那些事情出来,心中有常识与常理的人,岂有不愤怒之理?但是这些愤怒最终会转化成什么,并不难得知。

原理是这样的:除非以恰当的方式,提出恰当的问题,否则一切声音都会归于喧嚣,一切喧嚣都会寂寞。这就是议程的重要性。

此时此刻,我看不见有效议程被提出的可能性。

我们面对的,是一个严重去结构化的舆论场。气旋起而又落,落而又起,但它永难促成有形的事业,因为它都难以维持自身的稳定存续。

几年前当我一开始意识到这个现象,以及它的根深蒂固之时,我恰好读到阮籍的《咏怀诗》:

夜中不能寐,起坐弹鸣琴。

薄帷鉴明月,清风吹我襟。

孤鸿号外野,翔鸟鸣北林。

徘徊将何见?忧思独伤心。

我听到的是天地闭合之后,一个独自思索着的人的哀鸣,他还无法忘记过去的记忆,却更加看不到前方的道路。只有弹琴,看月,吹风,听鸟,徘徊,忧思。

我还写过另外一篇“大聪明”话,我说现在“到处是低水平大乱斗”,这种牢骚是不值一钱的,但我做了一点界定,是可供参考的:

“大乱斗和公共讨论的区别在于,有没有框架意识,能不能分层地处理现实。厘清这一点,对于我们挺过垃圾时间至关重要。”

“这些人都在努力运用他们的知识和经验来处理眼前的现实,但他们的理性只是水面上薄薄的一层油污,没有任何深度可言。因为没有框架的约束,一件具有偶然性质的小事,就可以从每一个角度抽出一根细长的丝线,到天边,到海边,到宇宙尽头。”

我这几年写了很多只可为“此间人”理解,外人觉得莫名其妙不知所云的文章,但我认为我是做了一点熵减的工作的。我等待着我的所有“大聪明”被证否,被涤荡,被扫入垃圾堆的那一天。真到了那一天,没有人会比我更高兴。

但是在那一天到来之前,我宁愿我的朋友把注意力收回到自己身上。暂时接受不可改变的,致力于仍然可以改变的,或许这是现阶段最不坏的生存方式。

每一场声势浩大的浪潮,最后只能在公共记忆里留下一两个梗。而对于每一个具体的参与者来说,那些宝贵的情绪和情感,最终又会变成自己身上的什么东西,我不忍细想。因错付而生虚无,怨气旁溢,迁怒成为习惯,大概是难以避免的。

在承认现状的同时,还有什么是可以做、值得做的?在我看来,最重要的莫过于保存我们的理智与情感。不是在个体中保存,而是在群体中保存。

曾国藩在创办湘军之初,天下糜烂,到处危急,曾国藩却坚持认为:“剑戟不利,不可以断割;毛羽不丰,不可以高飞。若仓皇一出,比于辽东自诩之豕,又同灞上儿戏之师,则徒见笑大方耳。必须练百金精强之卒,制十分坚致之械,转战数年,曾无馁志,乃可出而一试。”

我还记得历史学家吕思勉先生的提醒:“当国家社会遭遇大变局之时,即系人们当潜心于学术之际,因为变局的来临,非由向来应付的错误,即因环境的急变……所以时局愈艰难,人们所研究的问题,反愈接近于根本。”

公共舆论何至于今天这种无议程、无结构的局面,是值得深思的。我倒不是主张退到山里去思考,我们可以以每一个对话框为试验田,一边实践一边思考,看到底是什么破坏了人与人之间的丝线,又该如何把它们重新联结起来。

【404文库】新浪财经|AI回答:董袭莹牵扯涉及4+4项目违规的人员

5 May 2025 at 19:06

小编通过腾讯元宝询问:“”董袭莹牵扯涉及4+4项目违规的人员”。

AI回答,根据搜索结果,董袭莹事件牵扯出的协和医学院“4+4”项目特权受益者主要包括以下人员:

CDT 档案卡
标题:AI回答:董袭莹牵扯涉及4+4项目违规的人员
作者:新浪财经
发表日期:2025.5.5
来源:新浪财经
主题归类:协和4+4
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

一、已确认的“4+4”项目学生

咸晓梦。初中通过剪纸特长进入名校,后考入复旦大学经济管理专业,再通过协和“4+4”项目获得医学博士学位。其学术能力与医学专业跨度引发质疑 。

盛玺澄。复旦大学经济管理专业背景,通过“4+4”项目进入协和,两年完成医学理论学习和临床轮转,23岁获得博士学位。其培养周期远短于传统医学生 。

韩佳澍。15岁留学多伦多,擅长小提琴并加入协和演奏团,19岁进入协和医学院,23岁完成“4+4”项目。其艺术特长与医学专业关联性存疑 。

金山木。地质专业背景,2019年赴欧洲“地质考察”,2020年通过“4+4”项目进入协和神经外科,博士论文正文仅12页,学术质量遭质疑。其博士后录用信息与官网公示存在矛盾 。

二、疑似特权关联人员

邱贵兴院士家族成员。网友推测协和“4+4”项目2020级名单中两名邱姓女生可能为院士孙女,但未获官方证实 。

file

蒋德利娜亲属。蒋德利娜(非“4+4”学生)同父异母妹妹为演员蒋依依,其家族资源或对蒋德利娜进入协和导医岗位产生影响,但未直接涉及“4+4”项目 。

三、系统性特权特征

家庭背景:35%的“4+4”学生家长为厅局级以上干部,远超传统医学专业比例(2.1%) 。

学术造假:部分学生论文篇幅异常(如正文仅12页),且存在挂名导师、违规缩短轮转期等问题 。

录取漏洞:部分学生未满足“4+4”项目要求的医学预科课程(如生物、化学学分不足),却通过特殊渠道入学 。

四、舆论争议焦点

公众质疑“4+4”模式沦为权贵阶层“直通车”,例如:

艺术特长生、经济学背景学生快速获得医学博士学位,挤占传统医学生资源;

临床轮转期被压缩至1年,规培质量难以保障;

入学选拔透明度低,存在“特殊关系”操作空间 。

以上信息综合自网络爆料及官方公示矛盾点,具体人员身份需以协和医学院最终调查结果为准。

5月1日,国家卫生健康委新闻发言人表示,近日,我委关注到中日友好医院胸外科肖某被举报所引发的相关舆情。我委已成立调查组,坚持实事求是、客观公正原则,联合有关方面对事件涉及的肖某、董某及有关机构等进行认真调查核查,对发现的违法违规问题将依法依纪严肃处理。

以上信息供调查组参考。

【404文库】协和医学院规培医生董袭莹博士论文, 中国知网已删除

4 May 2025 at 02:40

CDT编辑注:日前,中日友好医院医生肖飞被其妻举报婚外情,其中一位当事人为规培医师、协和医学院博士生董袭莹。举报信中还指出,肖飞曾在手术过程中与护士发生冲突,期间不顾患者安危,与董袭莹一同离开手术室。随后,董袭莹的教育背景引发网络关注。公开信息显示,董袭莹本科就读于美国哥伦比亚大学下属的女子学院——巴纳德学院,主修经济学,2019年被北京协和医学院“4+4”临床医学长学制试点班录取为博士研究生。相比中国传统医学教育体系通常更长的教学与规培周期,协和“4+4”模式在公平性与专业性方面引发质疑。与此同时,有网民指出,董袭莹的博士论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。事件持续发酵后,中国知网已将其博士论文下架,而这篇论文的下架流程是否遵循既定的撤稿标准亦受到质疑。有网友在此之前保存了论文PDF,并上传至GitHub。以下文字和图片由CDT通过PDF版转录存档。

北京协和医学院临床医学专业毕业论文
学校代码:10023
学 号: B2019012012

跨模态图像融合技术在医疗影像分析中的研究

专业年级:北京协和医学院临床医学专业 2019 级试点班
姓名: 董袭莹
导师: 邱贵兴(教授)
北京协和医学院 临床学院(北京协和医院)
骨科
完成日期:2023年5月

目录

摘要 …………………………………………………………………………………………………………………… 1
Abstract ………………………………………………………………………………………………………………. 3

  1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测 ………………………………… 6
    1.1. 前言 …………………………………………………………………………………………………….. 6
    1.2. 研究方法 ……………………………………………………………………………………………… 7
    1.2.1. 研究设计和工作流程 ………………………………………………………………….. 7
    1.2.2. 跨模态图像融合 …………………………………………………………………………. 7
    1.2.3. 宫颈癌病变区域检测 ………………………………………………………………… 11
    1.3. 实验 …………………………………………………………………………………………………… 11
    1.3.1. 临床信息和影像数据集 …………………………………………………………….. 11
    1.3.2. 模型训练过程 …………………………………………………………………………… 12
    1.3.3. 评价指标 ………………………………………………………………………………….. 13
    1.3.4. 目标检测模型的结果与分析 ……………………………………………………… 14
    1.4. 讨论 …………………………………………………………………………………………………… 15
    1.5. 结论 …………………………………………………………………………………………………… 16
  2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断 ………………………………. 18
    2.1. 前言 …………………………………………………………………………………………………… 18
    2.2. 研究方法 ……………………………………………………………………………………………. 19
    2.2.1. 研究设计和工作流程 ………………………………………………………………… 19
    2.2.2. 骨转移目标区域检测 ………………………………………………………………… 20
    2.2.3. 基于特征转换的跨模态数据融合 ………………………………………………. 20
    2.2.4. 乳腺癌骨转移的分类模型 …………………………………………………………. 21
    2.3. 实验 …………………………………………………………………………………………………… 22
    2.3.1. 临床信息和影像数据集 …………………………………………………………….. 22
    2.3.2. 模型训练过程 …………………………………………………………………………… 23
    2.3.3. 评价指标 ………………………………………………………………………………….. 24
    2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析 ……………………………………………………………………………………………….. 25
    2.4. 讨论 …………………………………………………………………………………………………… 30
    2.5. 结论 …………………………………………………………………………………………………… 32
    全文小结 ………………………………………………………………………………………………………….. 33
    参考文献 ………………………………………………………………………………………………………….. 35
    缩略词表 ………………………………………………………………………………………………………….. 40
    文献综述 ………………………………………………………………………………………………………….. 41
  3. 跨模态深度学习技术在临床影像中的应用 ……………………………………………………. 41
    3.1 Preface ………………………………………………………………………………………………… 41
    3.2. Deep Neural Network (DNN) ……………………………………………………………….. 42
    3.2.1. Supervised learning ……………………………………………………………………. 43
    3.2.2. Backpropagation ………………………………………………………………………… 46
    3.2.3. Convolutional neural networks (CNN) …………………………………………. 46
    3.3. Cross-modal fusion ………………………………………………………………………………. 49
    3.3.1. Cross-modal fusion methods ……………………………………………………….. 50
    3.3.2. Cross-modal image translation …………………………………………………….. 51
    3.4. The application of cross-modal deep learning ………………………………………….. 52
    3.5. conclusion …………………………………………………………………………………………… 55
    参考文献 …………………………………………………………………………………………………… 57
    致谢 …………………………………………………………………………………………………………………. 60
    独创性声明 ………………………………………………………………………………………………………. 61
    学位论文版权使用授权书 …………………………………………………………………………………. 61

摘要

背景

影像学检查是医疗领域最常用的筛查手段,据统计,医疗数据总量中有超过90%是由影像数据构成[1]。然而,根据亲身参与的临床病例[2]可知,很多情况下,仅凭医生的肉眼观察和主观诊断经验,不足以对影像学异常作一明确判断。而诊断不明引起的频繁就医、贻误病情,则会严重影响患者的生活质量。

相较于传统的主观阅片,人工智能技术通过深度神经网络分析大量影像和诊断数据,学习对病理诊断有用的特征,在客观数据的支持下做出更准确的判断。为了模拟临床医生结合各种成像模式(如 CT、MRI 和 PET)形成诊断的过程,本项目采用跨模态深度学习方法,将各种影像学模态特征进行有机结合,充分利用其各自的独特优势训练深度神经网络,以提高模型性能。鉴于肿瘤相关的影像学资料相对丰富,本项目以宫颈癌和乳腺癌骨转移为例,测试了跨模态深度学习方法在病变区域定位和辅助诊断方面的性能,以解决临床实际问题。

方法

第一部分回顾性纳入了220 例有FDG-PET/CT 数据的宫颈癌患者,共计72,602张切片图像。应用多种图像预处理策略对PET 和CT 图像进行图像增强,并进行感兴趣区域边缘检测、自适应定位和跨模态图像对齐。将对齐后的图像在通道上级联输入目标检测网络进行检测、分析及结果评估。通过与使用单一模态图像及其他 PET-CT 融合方法进行比较,验证本项目提出的 PET-CT 自适应区域特征融合结果在提高模型目标检测性能方面具有显著性优势。第二部分回顾性纳入了233 例乳腺癌患者,每例样本包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有3051 张CT 切片,3543 张MRI 切片,1818 张PET 切片。首先训练YOLOv5 对每种单一模态图像中的骨转移病灶进行目标检测。根据检测框的置信度划分八个区间,统计每个影像序列不同置信度区间中含有检出骨转移病灶的个数,并以此归一化后作为结构化医疗特征数据,采用级联方式融合三种模态的结构化特征实现跨模态特征融合。再用多种分类模型对结构化数据进行分类和评估。将基于特征转换的跨模态融合数据与特征转换后的单模态结构化数据,以及基于 C3D 分类模型的前融合方式进行比较,验证第二部分提出的方法在乳腺癌骨转移诊断任务中的优越性能。

结果

第一部分的基于跨模态融合的肿瘤检测实验证明,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性。相比使用CT 或PET 单模态图像以及其他融合方法生成的多模态图像作为网络输入,目标检测的平均精确度分别提高了 6.06%和 8.9%,且消除了一些假阳性结果。上述测试结果在使用不同的目标检测模型的情况下保持一致,这表明自适应跨模态融合方法有良好的通用性,可以泛化应用于各种目标检测模型的预处理阶段。第二部分基于特征转换的跨模态病例分类实验证明,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能。相较于单模态数据,跨模态融合数据的平均准确率和AUC分别提高了7.9%和8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也具有相同的实验结论:在不同的分类模型中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

结论

本项目主要包含两个部分。第一部分证实了基于区域特征匹配的跨模态图像融合后的数据集在检测性能上优于单模态医学图像数据集和其他融合方法。第二部分提出了一种基于特征转换的跨模态数据融合方法。使用融合后的数据进行分类任务,其分类性能优于仅使用单模态数据进行分类或使用前融合方法的性能。根据不同模态医学图像的特征差异与互补性,本项目验证了跨模态深度学习技术在病变区域定位和辅助诊断方面的优势。相比于只使用单模态数据进行训练的模型,跨模态深度学习技术有更优的诊断准确率,可以有效的成为临床辅助工具,协助和指导临床决策。

关键词:跨模态融合,深度学习,影像分析,宫颈癌,乳腺癌骨转移

Abstract

Background

Imaging examinations serve as the predominant screening method in the medical field. As statistics reveal, imaging data constitute over 90% of the entire medical dataset. Nonetheless, clinical cases have demonstrated that mere subjective diagnoses by clinicians often fall short in making definitive judgments on imaging anomalies. Misdiagnoses or undiagnosed conditions, which result in frequent hospital visits and delayed treatment, can profoundly affect patients’ quality of life.

Compared to the traditional subjective image interpretation by clinicians, AI leverages deep neural networks to analyze large-scale imaging and diagnostic data, extracting valuable features for pathology diagnosis, and thus facilitating more accurate decision-making, underpinned by objective data. To emulate clinicians’ diagnostic process that integrates various imaging modalities like CT, MRI, and PET, a cross-modal deep learning methodology is employed. This approach synergistically merges features from different imaging modalities, capitalizing on their unique advantages to enhance model performance.

Given the ample availability of oncologic imaging data, the project exemplifies the efficacy of this approach in cervical cancer segmentation and detection of breast cancer bone metastasis, thereby addressing pragmatic challenges in clinical practice.

Methods

The first part retrospectively analyzed 72,602 slices of FDG-PET/CT scans from 220 cervical cancer patients. Various preprocessing strategies were applied to enhance PET and CT images, including edge detection, adaptive ROI localization, and cross-modal image
fusion. The fused images were then concatenated on a channel-wise basis and fed into the object detection network for the precise segmentation of cervical cancer lesions. Compared to single modality images (either CT or PET) and alternative PET-CT fusion techniques,
the proposed method of PET-CT adaptive fusion was found to significantly enhance the object detection performance of the model. The second part of the study retrospectively analyzed 3,051 CT slices, 3,543 MRI slices and 1,818 PET slices from 233 breast cancer patients, with each case containing whole-body imaging of one to three modalities (CT, MRI, or PET). Initially, YOLOv5 was trained to detect bone metastases in images across different modalities. The confidence levels of the prediction boxes were segregated into eight tiers, following which the number of boxes predicting bone metastases in each imaging sequence was tallied within each confidence tier. This count was then normalized and utilized as a structured feature. The structured features from the three modalities were fused in a cascaded manner for cross-modal fusion. Subsequently, a variety of classification models were then employed to evaluate the structured features for diagnosing bone metastasis. In comparison to feature-transformed single-modal data and the C3D early fusion method, the cross-modal fusion data founded on feature transformation demonstrated superior performance in diagnosing breast cancer bone metastasis.

Results

The first part of our study delivered compelling experimental results, showing a significant improvement in the accuracy of cervical cancer segmentation when using adaptively fused PET-CT images. Our approach outperformed other object detection algorithms based on either single-modal images or multimodal images fused by other methods, with an average accuracy improvement of 6.06% and 8.9%, respectively, while also effectively mitigating false-positive results. These promising test results remained consistent across different object detection models, highlighting the robustness and universality of our adaptive fusion method, which can be generalized in the preprocessing stage of diverse object detection models. The second part of our study demonstrated that cross-modal fusion based on feature transformation could significantly improve the performance of bone metastasis classification models. When compared to algorithms employing single-modal data, models based on cross-modal data had an average increase in accuracy and AUC of 7.9% and 8.5%, respectively. This improvement was further corroborated by the shapes of the ROC and PR curves. Across a range of classification models, feature-transformed cross-modal data
consistently outperformed single-modal data in diagnosing breast cancer bone metastasis. Moreover, late fusion strategies grounded in feature transformation exhibited superior performance in classification tasks when juxtaposed with early fusion methods such as C3D.

Conclusions

This project primarily consists of two parts. The first part substantiates that deep learning object detection networks founded on the adaptive cross-modal image fusion method outperform those based on single-modal images or alternative fusion methods. The second part presents a cross-modal fusion approach based on feature transformation. When the fused features are deployed for classification models, they outperform those utilizing solely single-modal data or the early fusion model. In light of the differences and complementarity in the features of various image modalities, this project underscores the strengths of cross-modal deep learning in lesion segmentation and disease classification. When compared to models trained only on single-modal data, cross-modal deep learning offers superior diagnostic accuracy, thereby serving as an effective tool to assist in clinical decision-making.

Keywords: cross-modal fusion, deep learning, image analysis, cervical cancer, breast
cancer bone metastasis

1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测

1.1. 前言

宫颈癌是女性群体中发病率第四位的癌症,每年影响全球近 50 万女性的生命健康[3] 。准确和及时的识别宫颈癌至关重要,是否能对其进行早期识别决定了治疗方案的选择及预后情况[4]。氟代脱氧葡萄糖正电子发射计算机断层显像/电子计算机断层扫描(fluorodeoxyglucose-positron emission tomography/computed tomography, FDG-PET/CT),因其优越的敏感性和特异性,成为了一个重要的宫颈癌检测方式[5] 。由于CT 能够清晰地显示解剖结构,FDG-PET 能够很好地反映局灶的代谢信息形成功能影像,FDG-PET/CT 融合图像对可疑宫颈癌病灶的显示比单独使用高分辨率 CT 更准确,特别是在检测区域淋巴结受累和盆腔外病变扩展方面[6] ,[7] ,[8] 。然而,用传统方法为单一患者的 FDG-PET/CT 数据进行分析需要阅读数百幅影像,对病变区域进行鉴别分析,这一极为耗时的过程已经妨碍了临床医生对子宫颈癌的临床诊断。

随着计算机硬件和算法的进步,尤其是以深度学习[9] 、图像处理技术[10] ,[11] 为代表的机器学习技术的革新,这些人工智能算法在临床医学的许多领域中起着关键作用[12]。基于其强大有效的特征提取能力[13] ,[14] ,深度学习中的卷积神经网络可以通过梯度下降自动学习图像中的主要特征[15 ,极大地提高目标识别的准确性 [16],使深度学习成为计算机图像处理领域的主流技术[17] ,[18]。利用深度学习技术对宫颈癌影像进行分析可以辅助临床医生做出更为准确的判断,减轻临床医生的工作负担,提高诊断的准确性[19]。

目前已经有很多在单一模态图像中(CT 或 PET)基于深度学习技术进行病变检测的工作:Seung等使用机器学习技术依据PET图像对预测肺癌组织学亚型[20];Sasank 进行了基于深度学习算法检测头 CT 中关键信息的回顾性研究[21];Chen 使用随机游走(random walk)和深度神经网络对 CT 图像中的肺部病变进行分割[22] ,[23]。但很少有关于使用跨模态图像融合深度学习方法进行病变检测的研究。

基于 PET/CT 融合图像的病变检测项目包括三个研究任务:区域特征匹配[24],跨模态图像融合[25 和目标病变区域检测[26]。Mattes 使用互信息作为相似性标准,提出了一种三维PET 向胸部CT 配准的区域特征匹配算法[27]。Maqsood 提出了一种基于双尺度图像分解和稀疏表示的跨模态图像融合方案[28]。Elakkiya 利用更快的基于区域的卷积神经网络(Faster Region-Based Convolutional Neural Network, FR-CNN)进行颈部斑点的检测[29]。目前还没有将上述三个研究任务,即区域特征匹配、跨模态图像融合、病变区域检测任务,结合起来的研究工作。

为了减轻临床医生的工作负担,基于跨模态深度学习方法,本项目的第一部分提出了一个统一的多模态图像融合和目标检测框架,用于宫颈癌的检测。

1.2. 研究方法

1.2.1. 研究设计和工作流程

本项目旨在检测 CT 和 PET 图像中宫颈癌的病变区域,工作流程如图 1-1 所示:扫描设备对每位患者进行PET 和CT 图像序列的采集;通过区域特征匹配和图像融合来合成清晰且信息丰富的跨模态图像融合结果;采用基于深度学习的目标检测方法在融合图像中对可疑宫颈癌的病变区域进行目标检测。在图 1-1 的最后一行中,矩形框出的黄色区域及图中右上角放大的区域中展示了检测出的宫颈癌病变区域。

图 1-1 工作流程

img

1.2.2. 跨模态图像融合

图 1-2 展示了跨模态图像融合算法的流程图。根据计算发现两种模态图像的比例和位置不同,如仅进行简单的融合会错误地将处于不同位置的组织影像重叠,从而使组织发生错位,定位不准,产生不可接受的误差。因此,第一部分提出了一种跨模态图像融合策略,其中的步骤包括对感兴趣区域(region of interest, ROI)的自适应定位和图像融合。

在PET 和CT 图像中,自适应ROI定位能够精准识别待分析处理的关键目标,即人体组织影像,然后计算不同模态图像下组织影像之间的比例和位移。依据上述计算结果通过缩放、填充和裁剪的方式来融合 PET 和CT 图像。

图 1-2 CT 和PET 跨模态图像融合算法的流程图

img

1.2.2.1. 自适应ROI 定位

鉴于数据集中 PET 图像与 CT 图像的黑色背景均为零像素值填充,ROI 内非零像素值较多,而 ROI 边缘的非零像素值较少,因此,选用线检测方法来标画两种模态图像中的 ROI,最终标划结果如图 1-2 中的绿色线框出的部分所示,这四条线是 ROI 在四个方向上的边界。在不同方向上计算比例尺。在将 PET 图像放大后,根据ROI实现CT 和PET 图像的像素级对齐。裁剪掉多余的区域,并用零像素值来补充空白区域。如图 1- 3(a)所示,线检测方法从中心点出发,向四个方向即上下左右对非零像素值进行遍历,并记录下行或列上的非零像素值的数量。如图1- 3(b)所示,红色箭头代表遍历的方向。在从 ROI 中心向边缘进行遍历时,沿遍历经线上的非零像素值数量逐渐减少,如果某一线上非零像素值的计数低于预设的阈值,那么意味着该线已经触及到 ROI 的边缘,如图 1- 3(c)所示。然而,如果直接对未经预处理的图像应用线检测方法,会因受模糊边缘及其噪声的影响,得到较差的对齐结果,难以设置阈值。因此,需对PET 和CT 图像单独执行图像增强预处理,以优化 ROI 标化结果,改善跨模态融合效果。

由于PET 和CT 图像具有不同的纹理特征,应用不同的预处理策略,分别对图像进行增强处理,以强化 ROI 的边缘特性,同时消除噪声产生的干扰,再在两种不同模态图像中进行 ROI 定位,如图1-2 所示。

图 1-3 ROI 检测示意图

img

CT 图像是用 X 射线对检查部位一定厚度的组织层进行扫描,由探测器接收透过该层面的 X 射线,经数字转换器及计算机处理后形成的解剖学图像。CT 图像通常比 PET 图像更清晰。为了提取 ROI,需利用图像增强技术对 CT 图像进行预处理:首先,通过图像锐化增强边缘特征和灰度跳变部分,使 CT 图像的边缘(即灰度值突变区域)信息更加突出;由于锐化可能导致一定的噪声,再使用高斯模糊滤波器(Gaussian blur)[30 进行图像平滑去噪,将噪声所在像素点处理为周围相邻像素值的加权平均近似值,消除影响成像质量的边缘毛躁;并执行Canny边缘检测(Canny edge detection )[31 来设定阈值并连接边缘,从而在图像中提取目标对象的边缘。尽管Canny边缘检测算法已包含高斯模糊的去噪操作,但实验证实两次高斯模糊后的边缘提取效果更优。在对图像进行锐化处理后,将提取的边缘图像与高斯模糊后的图像进行叠加。具体地,对两个图像中的每个像素直接进行像素值相加,最终得到边缘更清晰且减轻噪声影响的增强后 CT 模态图像。

PET 图像是基于间接探测到的由正电子放射性核素发射的 γ 射线,经过计算机进行散射和随机信息的校正,形成的影像,能够显示体内代谢活动的信息。尽管PET 可以显示分子代谢水平,但由于成像原理的差异,PET 图像相较于 CT 图像显得模糊。对PET 的预处理方式与对CT 图像的类似,但省略了高斯模糊处理图像噪声的步骤,因为在锐化 PET 模态图像后产生的噪声较少,为防止有效特征信息的丢失,略过这一环节。

为了将两个模态的图像进行区域特征匹配,使用PET 和CT 图像中的矩形ROI框来计算缩放比例和位移参数,并通过缩放、填充和裁剪操作对PET 和CT 图像中的ROI 进行对齐。

1.2.2.2. 图像融合

CT 和 PET 图像的尺寸分别为 512×512 像素和 128×128 像素,ROI 特征区域位于图像的中心位置。通过缩放、零值填充和剪切,放大PET 图像的尺寸以与CT 图像的尺寸保持一致,并且将两个模态图像之间的 ROI 对齐,以便后续的融合处理。经处理的PET 和CT 图像转化为灰度形式,分别进行加权和图像叠加,将其置于不同通道中,作为网络的输入层。由于 PET 图像能展示体内分子层面的代谢水平,其对于肿瘤检测的敏感性高于CT 图像。因此,本研究的图像融合方法为PET 图像的ROI 分配了更多权重,以提高宫颈癌检测任务的表现。

图 1-4 比较了本项目提出的自适应图像融合的结果和直接融合的结果,选取人体不同部位的 CT、PET 和 PET/CT 图像的融合结果进行展示。第一和第二列分别展示了未经处理的原始 CT 和 PET 图像。简单融合算法仅将两个图像的像素点相加,并未执行特征匹配过程,得到的融合图像无任何实用价值。由于通道拼接融合后的图像转变为高维多模态数据,而非三通道数字图像,因此图 1-4 并未展示通道拼接融合方法所得图像。而本项目提出的自适应图像融合方法实现了跨模态图像的精准融合,可用于进一步的观察和计算。

图 1-4 不同图像融合方式的可视化结果

img

1.2.3. 宫颈癌病变区域检测

先由两位临床医生对跨模态融合图像中的病变区域进行人工标注,并训练YOLOv5 [32] 目标检测网络来识别融合图像中的病灶区域,如图 1-5 所示。模块骨架用于提取图像的深层特征,为减少通过切片操作进行采样过程中的信息损失,采用聚焦结构,并使用跨阶段局部网络(cross-stage partial network, CSPNet)[33] 来减少模型在推理中所需的计算量。头模块用于执行分类和回归任务,采用特征金字塔网络(feature pyramid network, FPN)和路径聚合网络(path aggregation network, PAN)[34]。

为了提高对极小目标区域的检测效果,输入层采用了mosaic数据增强(mosaic data augmentation)[35] 方法,将四个随机缩放、剪切和随机排列的图像拼接在一起。模块骨架包括 CSPNet 和空间金字塔池化(spatial pyramid pooling, SPP)[36] 操作。输入图像通过三个 CSP 操作和一个 SPP 操作,生成了一个四倍于原始大小的特征图。头模块有三个分支网络,分别接收来自不同层的融合特征、输出各层的边界框回归值和目标类别,最后由头模块合并分支网络的预测结果。

图 1-5 目标检测网络结构

img

1.3. 实验

1.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2010 年 1 月至 2018 年 12月期间在国家癌症中心中国医学科学院肿瘤医院被诊断为原发性宫颈癌的患者 2)有FDG-PET/CT 图像;3)有电子病历记录。总共入组了 220 名患者,共计 72,602 张切片图像,平均每位患者有 330 张切片图像入组实验。其中,CT 切片图像的高度和宽度均为512 像素,而PET 切片图像的高度和宽度均为128 像素,每个模态的数据集都包含了6,378张切片图像,即平均每位患者有29张切片图像,用于训练和测试。在入组进行分析之前,所有患者数据都已去标识化。本研究已获得北京协和医学院国家癌症中心伦理委员会的批准。

该数据集包含220 个患者的全身 CT 和全身 PET 图像数据,因入组的每位患者均确诊为宫颈癌,数据集中各例数据均包含病变区域,如表 1-1 所示。鉴于所有患者的CT 和PET 均在同一时间且使用相同设备采集,因此 CT 和PET 展示的解剖信息与代谢信息来自同一时刻患者身体的同一区域,其特征具有一对一对应且可匹配的特性。根据肿瘤大小、浸润深度、盆腔临近组织侵犯程度、腹盆腔淋巴结转移的情况可将宫颈癌的进展程度进行分期,主要包括四期,每期中又进一步细分为更具体的期别。国际妇产科联盟(International Federation of Gynecology and Obstetrics,
FIGO)于 2018 年 10 月更新了宫颈癌分期系统的最新版本[37]。本项目数据集囊括了 FIGO 分期全部四个期别的宫颈癌影像。为了保持训练和测试的公平性,纳入训练集和测试集的不同期别影像的分布,即不同 FIGO 分期的划分比例,需保持一致,否则可能会导致某些 FIGO 期别的数据集无法进行训练或测试。因此,在保证处于不同期别的患者数据的划分比例的基础上,采用五折交叉验证方法将220 名患者的数据进行五等分,每个部分大约包括了 45 例患者的数据,在每轮验证中随机选择一个部分作为测试集。所有模型都需要进行5 次训练和评估,以获取在测试集上表现出的性能的平均值和标准差。

表 1-1 数据集中的病例数及临床分期

img

1.3.2. 模型训练过程

在按上述步骤准备好数据集后,首先将图像从 512×512 像素调整为 1024×1024像素,然后使用多种数据增强方法,包括 mosaic 增强[38]、HSV(Hue, Saturation, Value)颜色空间增强[39]、随机图像平移、随机图像缩放和随机图像翻转,增加输入数据集对噪声的鲁棒性。在每次卷积后和激活函数前进行批归一化(Batch Normalization, BN)[40] 。所有隐藏层都采用 Sigmoid 加权线性单元 (Sigmoid-Weighted Linear Units, SiLU)[41 作为激活函数。训练模型所用的学习率设置为 1e-5,并在起始训练时选择较小的学习率,然后在 5 个轮次(epoch)后使用预设的学习
率。每个模型使用PyTorch 框架在4 个Nvidia Tesla V100-SXM2 32G GPU 上进行50个轮次的训练。使用 0.98 的动量和 0.01 的权值衰减通过随机梯度下降法(Stochastic Gradient Descend, SGD)来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。所有实验中的性能测量都是在采用最优参数设置的模型中对测试集进行测试得到的,详见表 1-2。

为了进一步证明本项目所提出的模型的普适性,选择了六个基于深度学习的目标检测模型作为基准,并测试了所有模型在输入不同的图像融合结果时的性能。每个模型的输入完全相同,而唯一的区别是神经网络中的超参数来自每个模型的官方设置,而这些超参数因模型而异。

表 1-2 网络训练的超参数

img

1.3.3. 评价指标

本项目使用“准确度精值50”(Accuracy Precision 50, AP50)来评估目标检测的性能。AP50 是当交并比(Intersection over Union, IOU)阈值为0.5 时的平均精度,如公式3所定义,其中P和R分别是精度(Precision)和召回率(Recall)的缩写。模型的预测结果会有不同的召回率和精度值,这取决于置信度阈值。将召回率作为横轴,精度作为纵轴,可以绘制 PR 曲线,而 AP 是该曲线下的面积。IOU 是将真实标注区域和模型预测区域的重叠部分除以两区域的集合部分(即真实区域和预测区域的并集)得到的结果,如公式4 所示。精度和召回率的计算方式分别在公式1 和2 中列出,其中真正例表示预测为正例的正样本,假正例和假负例代表的概念以此类推。精度表明在模型预测结果里,被判断为正例的样本中有多少实际是正例,而召回率表示实际为正例的样本中多少被预测为正例。表 1-3 记录了图像数据集交叉验证后各个目标检测模型的 AP50 的平均值和方差。

img

1.3.4. 目标检测模型的结果与分析

本项目采用不同的目标检测模型,包括单阶段目标检测模型(YOLOv5 [32]、RetinaNet[42]、ATSS [43 )和二阶段目标检测模型(Faster-RCNN [44
、CascadeRCNN [45]、LibraRCNN[46]),在五折交叉验证下比较了使用 CT 图像、PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像(concat fusion)和本项目所提出的 PET-CT自适应区域特征融合图像作为输入数据集时,每个模型的目标检测性能。其中,CT和PET是单模态图像,而PET-CT简单融合图像、PET-CT通道拼接图像和PET-CT 自适应区域特征融合图像是跨模态融合图像。简单融合是指将 PET 图像简单地缩放到与 CT 图像相同的大小后进行像素值的叠加,而通道拼接融合是直接将两种模态图像在通道上串联在一起作为网络的输入。

如表 1-3 所示,加粗的数字代表每行中最好的实验结果。与使用单一模态数据进行肿瘤检测模型分析(如只使用CT 或PET 图像)相比,本项目所提出的自适应跨模态图像融合方法在目标检测任务中展现出了更高的检测精度。由于自适应融合方法能够在跨模态融合之前将两种模态图像的信息进行预对齐,对 CT 图像和PET图像的结构特征进行一一配准,因此,与简单融合方法和通道拼接融合方法相比,自适应融合方法的性能最佳。上述针对不同模态图像及使用不同跨模态融合方法作为输入得到的测试性能结果在使用不同的目标检测模型的情况下保持一致,这表明本项目所提出的跨模态自适应融合方法有良好的通用性,可以泛化应用到各种目标检测模型的预处理中。

表 1-3 五折交叉验证目标检测实验的结果(“*” 表示交叉验证中的某一折在训练过程中出现梯度爆炸,数值为目标检测模型的 AP50 的均值和方差)

img

图 1-6 将不同模态图像下目标宫颈癌病变区域的检测结果和实际标注的癌灶区域进行了可视化。其中绿色框是由医师标注的真实病变区域,黄色框是目标检测模型的预测结果。分析图像模态信息可知,CT 图像既包含了人体正常结构的信息,也包含病灶的解剖信息,前者可能会干扰宫颈癌病变区域特征的识别和检测。因此,在单一 CT 模态下会有一些漏检。与 CT 模态的预测框相比,PET 模态下的预测框与标注框的 IOU 更高,或许是由于 PET 影像有更多能表现宫颈癌区域特征的信息。在 PET-CT 区域特征跨模态融合图像中检测效果最佳,因为 PET-CT 融合图像融合了两种模态的不同特征,从而大大提高检测的准确性。

图 1-6 跨模态融合图像的目标检测结果

img

1.4. 讨论

本项目旨在评估深度学习算法是否可以跨模态融合 FDG-PET 和 CT 图像,并在融合图像中实现宫颈癌病灶区域的自动检测。我们提出了一个基于跨模态融合图像的检测框架,包括区域特征匹配、图像融合和目标检测等步骤。融合 CT 和PET 图像可以最大程度地提取各个模态中包含的信息,因此 PET-CT 跨模态融合图像含有丰富的解剖和功能信息。目标检测实验证明,本项目提出的跨模态融合方法得到的融合图像显著提高了目标检测的准确性,相比单模态和其他融合方法得到的多模态图像,目标检测平均精确度分别提高了 6.06%和8.9%。

表 1-3 展示了基于不同的图像融合方法形成的多模态图像,不同检测模型在五折交叉验证下的结果。因在解剖和功能影像中均有异常表现的区域更可能是癌变,我们推测,图像信息对齐有利于对宫颈癌病灶的目标区域检测。图 1-6 展示了在不同目标检测模型和不同输入图像数据模态下目标检测效果的可视化图像。基于本项目提出的跨模态融合方法生成的图像进行的目标检测的检测结果更为准确,并消除了一些假阳性结果。根据医生的日常诊断习惯,生成了以红色和黄色为主色的融合图像。

利用 FDG-PET/CT 对宫颈癌进行及时、准确的分期能够影响患者的临床治疗决策,进而延缓疾病进展,并减少肿瘤治疗相关的整体财务负担[47] 。对 FDG-PET/CT 图像的解释在很大程度上依赖临床上获得的背景信息,并需要综合临床分析来确定是否发生癌症的浸润和转移[48]。在某些情况下,核医学科阅片医师可以迅速识别局部扩展和淋巴栓塞。而多数情况下,核医学科医师分析一位患者的FDG-PET/CT 影像学检查结果平均需要三个小时。比起占用医师昂贵且稀缺的时间,利用计算机进行此项工作既能节约成本,预计耗时又短,且可以全天候运行。本项目的目标是通过人工智能方法实现PET 和CT 图像的自动融合,并利用目标检测技术识别宫颈癌的浸润和转移,作为辅助工具加速 FDG-PET/CT 的阅片过程,从而使临床医生能够在最短的时间内按照 FIGO 指南对宫颈癌进行分期。

这项研究仍存在一些局限性。虽然本项目对基于 PET-CT 自适应融合图像的目标检测方法与其他最先进的基于深度学习的目标检测方法进行了比较,但将该方法拓展应用到其他病种的影像学分析的可行性仍需评估。此外,我们提出的跨模态融合框架在图像融合时并未考虑每种模态图像的权重分布。未来可以设计一种特殊的损失函数来调整 ROI 内每个像素的权重分布,以提高目标检测结果的准确性。

1.5. 结论

本项目提出了一种基于跨模态图像融合的多模态图像进行病变区域检测的深度学习框架,用于宫颈癌的检测。为了应对医学影像中单一模态图像在肿瘤检测方面的性能不足,提出了一种基于区域特征匹配的自适应跨模态图像融合策略,将融合后的多模态医学图像输入深度学习目标检测模型完成宫颈癌病变区域检测任务,并讨论了深度学习模型在每种模态图像输入间的性能差异。大量的实验证明,与使用单一模态的影像及基于简单融合方法或通道拼接融合方法的多模态影像相比,自适应融合后的多模态医学图像更有助于宫颈癌病变区域的检测。

本项目所提出的技术可实现 PET 和CT 图像的自动融合,并对宫颈癌病变区域进行检测,从而辅助医生的诊断过程,具备实际应用价值。后续将基于第一部分的目标检测模型基础,利用特征转换的方法,将图像数据转换为结构数据,将跨模态融合方法应用于分类问题。

2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断

2.1. 前言

骨骼是第三常见的恶性肿瘤转移部位,其发生率仅次于肺转移和肝转移,近 70%的骨转移瘤的原发部位为乳腺和前列腺[49] ,[50] 。骨转移造成的骨相关事件非常多样,从完全无症状到严重疼痛、关节活动度降低、病理性骨折、脊髓压迫、骨髓衰竭和高钙血症。高钙血症又可导致便秘、尿量过多、口渴和疲劳,或因血钙急剧升高导致心律失常和急性肾功能衰竭[51 。骨转移是乳腺癌最常见的转移方式,也是患者预后的分水岭,其诊断后的中位生存期约为 40 个月[52] ,[53] 。因此,及时发现骨转移病灶对于诊断、治疗方案的选择和乳腺癌患者的管理至关重要。目前,病灶穿刺活检是诊断骨转移的金标准,但鉴于穿刺活检有创、存在较高风险、且假阴性率高,临床常用影像学检查部分替代穿刺活检判断是否发生骨转移。

Batson的研究表明,乳腺的静脉回流不仅汇入腔静脉,还汇入自骨盆沿椎旁走行到硬膜外的椎静脉丛[54] 。通过椎静脉丛向骨骼的血液回流部分解释了乳腺癌易向中轴骨和肢带骨转移的原因。因潜在骨转移灶的位置分布较广,影像学筛查需要覆盖更大的区域,常要求全身显像。常用的骨转移影像诊断方法包括全身骨显像(whole-body bone scintigraphy, WBS)、计算机断层扫描(computed tomography, CT)、磁共振成像(magnetic resonance imaging, MRI)和正电子发射断层显像(positron emission tomography, PET)[55]。CT 可以清晰地显示骨破坏,硬化沉积,和转移瘤引起软组织肿胀;MRI 具有优异的骨和软组织对比分辨率;因 [18F] 氟化钠会特异性地被骨组织吸收、代谢, PET 可以定位全身各处骨代谢活跃的区域。然而,单一模态影像常不足以检测骨转移,且用传统方法综合单一患者的 CT、MRI、PET 数据筛查骨转移病灶需要对上千幅影像进行解读,这一极为耗时的过程可能影响临床医生对乳腺癌骨转移的诊断,造成误诊、漏诊。而骨转移的漏诊会误导一系列临床决策,导致灾难性后果。

作为一种客观评估体系,人工智能辅助骨转移自动诊断系统通过减少观察者间和观察者内的变异性,提高了诊断的一致性和可重复性,降低了假阴性率。在减轻临床医师的工作负担的同时,提高诊断的准确性。目前已经有很多在单一模态图像中(CT、MRI 或 PET)基于深度学习技术进行骨转移病变检测的工作: Noguchi 等人开发了一种基于深度学习的算法,实现了在所有 CT 扫描区域中对骨转移病灶的自动检测 [56];Fan 等人用 AdaBoost 算法和 Chan-Vese 算法在 MRI 图像上对肺癌的脊柱转移病灶进行了自动检测和分割肺[57];Moreau等人比较了不同深度学习算法在 PET/CT 图像上分割正常骨组织和乳腺癌骨转移区域的性能[58] 。但很少有使用跨模态数据融合的深度学习方法,判断是否存在骨转移灶的相关研究。

旨在减轻临床医生的工作负担,本章提出了基于特征转换的跨模态数据融合方法,用于分析 CT、MRI 和 PET 图像,以判断其中是否存在乳腺癌骨转移病灶。

基于特征转换的 CT、MRI 和 PET 跨模态图像数据融合,进行骨转移病变分类(即存在骨转移病灶和不存在骨转移病灶两类)项目包括三个研究任务:目标病变区域检测,特征构造及转换和分类任务。具体地,采用目标检测模型对不同模态的医学图像序列数据进行单独的骨转移瘤目标检测,再对这些检测结果进行特征提取。所提取的特征包括不同模态下检测结果置信度的区间占比、检测框的面积大小、检测框在图像中的空间位置分布等。这些特征被整理成结构化数据格式,完成了从非结构化影像数据到结构化数据特征的特征转换和融合过程。最后,将转换后的特征输入分类模型进行分类任务。实验比较了基于特征转换的跨模态数据融合方法在乳腺癌骨转移肿瘤分类任务的性能,与仅使用单模态数据执行分类
任务的性能。同时,还将本项目提出的基于特征转换的融合策略与其他融合方法进行了对比。

2.2. 研究方法

2.2.1. 研究设计和工作流程

本项目旨在判断 CT、MRI、PET 图像序列中是否存在乳腺癌骨转移病灶。工作流程如图 2-1 所示:扫描设备对每位患者进行 CT、MRI 或 PET 图像序列的采集;使用目标检测模型分别在不同模态图像中对可疑乳腺癌骨转移灶进行目标检测;对检测结果进行特征提取、构造和融合,得到具有可解释性的结构化医疗数据;用分类模型对结构化数据进行分类任务,得出预测结果,从而判断乳腺癌骨转移是否发生。

图 2-1 工作流程

img

2.2.2. 骨转移目标区域检测

先由两位临床医师对多模态数据集图像中的骨转移病灶进行人工标注,并对患者进行分类(标签分为乳腺癌骨转移和非乳腺癌骨转移),并训练 YOLOv5 目标检测网络,以识别各个单一模态图像中的乳腺癌骨转移病灶。

2.2.3. 基于特征转换的跨模态数据融合

在本项目的数据集中,各种模态序列影像的扫描范围均涵盖了患者的全身。某患者的影像序列(不论是单模态图像还是多模态图像)中检测到含有骨转移病灶的切片图像数量越多,则意味着该患者发生乳腺癌骨转移的概率越大。根据这一基本推理,采用后融合方法,将一个影像序列中含有肿瘤切片图像的比例(百分比)作为结构化的数据特征,作为后续分类任务的依据。

具体操作如下:在每个模态的图像中完成骨转移区域的目标检测任务训练后,统计每个图像序列中检测到转移瘤目标区域的检测框数量。按照检测框的置信度划分为 8 个区间:10%~20%、20%~30%、30%~40%、40%~50%、50%~60%、60%~70%、70%~80%和大于 80%。在每个区间内,分别统计各模态图像序列中转移瘤检测框数量,再除以该序列中切片图像的总数,得到每个置信度区间内每种模态图像序列中含有转移瘤检测框的百分比。接着将三种模态图像提取出的统计特征拼接,组成结构化数据,实现跨模态数据融合。若患者缺失某种模态数据,相应的统计特征(百分比)将被置为零。特征转换后的结构化数据如图 2-2 所示,每种模态数据包括 8 个特征,即不同的置信区间,最后一列为标签值,其中“0”表示负例,“1”表示正例。

图 2-2 特征转换后的结构化数据

img

2.2.4. 乳腺癌骨转移的分类模型

利用构建好的结构化医疗特征进行乳腺癌骨转移分类任务,融合跨模态图像数据特征判断是否发生乳腺癌骨转移。本项目采用分类模型主要以模式识别基础模型为主,包括SVM[59]、AdaBoost[60]、RandomForest[61]、LightGBM[62]、GBDT[63]。SVM 是一种基于核函数的监督学习模型,用于解决分类问题,通过寻找最优超平面在特征空间中将样本分为不同类别,决策函数映射输入特征到输出标签,核函数将特征映射到新空间,损失函数度量决策函数性能,最大化超平面与样本间距离实现分类,可使用不同核函数处理高维特征。Adaboost 是一种迭代算法,于1995 年由 Freund Y 等人提出,能够将多个弱分类器结合成一个强分类器,通过选择初始训练集、训练弱分类器、加权重新分配样本和重复训练直到训练完成所有弱学习器,最后通过加权平均或投票得出最终决策。由 Breiman L 等人于 2001 年提出得 RandomForest 是一种基于决策树的机器学习算法,可用于分类和回归任务。通过构建多个决策树并对它们的预测结果进行平均或投票来得出最终预测结果,训练过程中随机选择特征,以避免过拟合并减少计算量。机器学习模型 LightGBM是一种基于决策树的梯度提升机算法,由Ke G 等人在2017 年提出,适用于结构化数据的分类任务。具有高效、内存友好、支持并行处理和多 CPU 等特点,能快速处理大量特征,通过基于直方图的决策树算法减少训练时间和内存使用量。通过损失函数的泰勒展开式来近似表示残差来计算损失函数。由 Friedman J H 等人于2001 年提出的 GBDT 是一种迭代的决策树算法,通过构建多个决策树来拟合目标函数,每一步都在上一步的基础上构建新的决策树,以不断减小误差,流程包括选取子集、训练弱学习器、梯度下降法最小化误差,最终将弱学习器加入总体模型,重复以上步骤直至达到最优解。

2.2.4.1. 基于C3D 的跨模态数据融合分类模型

本项目采用C3D[64 分类模型作为对照模型,基于3D 卷积神经网络的深度学习方法,使用跨模态数据融合中的前融合策略。如图 2-1 所示,该融合策略从每个模态的图像序列中筛选出一部分,合并一个完整的多模态图像序列,并在通道上进行级联,进行跨模态数据融合。融合后的数据作为 3D 卷积神经网络的输入,经过多个 3D 卷积层提取特征,最终在全连接层中执行分类任务,以判断影像中是否存在乳腺癌骨转移病灶。

2.3. 实验

2.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2000 年 01 月至 2020 年 12月期间在北京协和医院或国家癌症中心中国医学科学院肿瘤医院被诊断为原发性乳腺癌的患者 2)有全身 CT 或 PET 或 MRI 其中任一模态的全身影像数据;3)有电子病历记录。入组患者中有145名被确诊为乳腺癌骨转移,作为正例样本,有88名患者未发生乳腺癌骨转移,作为负例样本。每例样本数据包含一至三种不同模态的图像序列,其图像尺寸和切片图像数量各异。乳腺癌骨转移的多模态医学图像数据集对患者的全身进行采样,由于患者的 CT、MRI 或 PET 是不同时间、在不同设备上采集的,不同模态间的特征并非一一匹配。其中,CT 模态共有3051 张切片,MRI 模态共有 3543 张切片,而 PET 模态共有 1818 张切片。在入组进行分析之前,所有患者数据都已去标识化。本研究已通过北京协和医院伦理委员会批准。

该数据集可以用于执行目标检测任务和分类任务。

骨转移目标检测任务仅分析数据集中的正例样本,进行五折交叉验证:将 145例患者的数据按模态分为三组(CT组、MRI组、PET组),在每个组内对数据进行五等分,在每轮验证中选取一部分作为测试集。为获得测试性能的平均值,所有模型都需进行5 次训练和评估。

在利用结构化数据执行分类任务时,需要平衡正负样本数量,因此要扩充数据集。将具有多种模态的样本拆分为包含较少模态的样本,如将“CT+MRI+PET”类型拆分为“CT+MRI”或“CT+PET”等。如表 2-1 所示,扩充后共有 380 例样本数据,包括188 个正样本和 192 个负样本。下一步,合并五折交叉验证的目标检测结果,此后,进行特征构建和转换,从而获得适合跨模态数据融合和分类任务的结构化数据;对于负样本数据,也需要在合并骨转移目标检测模型的推理结果后,对数据进行结构化处理。

为证实在乳腺癌骨转移判断的分类任务中,基于特征转换的跨模态融合数据性能优于单一模态数据,需要进行多模态融合数据与单模态数据的对照实验。如表 2-1 所示,单模态数据包括仅有 CT、仅有 MRI 和仅有 PET 三种类型的数据集合,总计 212 个样本,而多模态数据涵盖了CT+MRI、CT+PET、MRI+PET 和CT+MRI+PET 四种类型,共计 168 个样本。分别对单模态数据和多模态数据进行独立划分,将每种模态数据进行五等份,进行五折交叉验证。在每轮验证中,选择一部分作为测试集。利用 SVM、AdaBoost、RandomForest、LightGBM、GBDT以及 C3D 模型进行实验,每个模型都需进行 5 轮训练和评估,以获得测试集上性能的平均值。

为适应 C3D 模型对图像统一尺寸的要求,针对不同患者切片数量、大小的差异,进行预处理。在每种模态图像序列中等间隔抽取 60 张图像切片,并进行缩放,使其组合为 180 张 128×128 像素的切片。对于缺失的模态数据,用 60 张零像素值的黑色图像切片进行填充。从 180 张切片中随机选取一个起始位置,连续抽取 120张切片作为模型的最终输入,确保输入尺寸为 128×128×120 像素。

表 2-1 扩充后的分类数据集

img

2.3.2. 模型训练过程

在按上述步骤准备好数据集后,进行目标检测任务训练时,将每个模态的图像大小统一到1024×1024像素,然后使用多种数据增强方法,增加输入数据集对噪声的鲁棒性。

目标检测模型采用 YOLOv5 模型模型并使用 PyTorch 深度学习框架在 2 个Nvidia Tesla V100-SXM2 32G GPU 上进行 70 个轮次的训练。初始学习率为 0.00001,使用 0.98 的动量和 0.01 的权值衰减通过 SGD 来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。

进行分类任务时,采用 LightGBM、GBDT、AdaBoost、RandomForest 以及SVM,上述模型均为机器学习模型,其超参数对模型预测结果影响较大,在分类任务中,采用SVM、AdaBoost、RandomForest、LightGBM以及GBDT等机器学习模型。因其超参数会对预测结果产生较大影响,在训练过程中,使用网格搜索策略为这些模型寻找最佳参数。网格搜索策略在一定范围的超参数空间内寻找最佳的超参数组合,通过枚举各种可能的组合并评估模型预测结果,最终选择表现最优的超参数组合。要搜索的超参数包括学习率、树的最大深度、叶子节点数量、随机抽样比例、权重的L1正则化项和权重的L2正则化项等。实验结果将基于最优超参数设定下的预测模型。模型训练的网络结构图如图 2-3 所示。

用于对照的 C3D 模型使用 PyTorch 深度学习框架在 1 个 NVIDIA Tesla V100-SXM2 32GB GPU 上训练 100 个轮次,初始学习率为 0.00001,使用动量为 0.9,权值衰减为0.0005 的 SGD 梯度下降优化器对各网络层权重的目标函数进行优化。

图 2-3 网络结构图

img

2.3.3. 评价指标

本项目中的骨转移目标检测任务采用 AP50 作为评价指标,其介绍详见上一章节。

而在分类任务中,采用准确率(Accuracy, Acc)、敏感性(Sensitivity, Sen)、特异性(Specificity, Spe)、AUC(Area Under Curve, AUC)作为评价指标,并采用ROC 曲线和PR 曲线对模型进行评估。准确率是指对于给定的测试集,分类模型正确分类的样本数占总样本数的比例,如公式 5 所示,其中真正例(True Positive, TP)表示预测为正例且标签值为正例,假正例(False Positive, FP)表示预测为正例但标签值为负例,和假负例(False Negative, FN)和真负例(True Negative, TN)代表的概念以此类推。如公式 64 和公式 7 所示,敏感性和特异性的定义分别为:预
测正确的正例占所有正例的比例,以及预测正确的负例占所有负例的比例。ROC曲线是一种评估二分类模型的方法,其横轴为假阳性率(False Positive Rate,FPR),其计算方式与上一章的召回率(Recall)相同,纵轴为真阳性率(True Positive Rate,TPR),TPR 和 FPR 的计算方式详见公式 8 和公式 9。ROC 曲线展示了在不同阈值下,TPR 与 FPR 的变化关系。因为左上角点对应的假阳性率为 0,真阳性率为 1,表明模型将所有正例样本分类正确,且未将任何负例样本误判为正例。若 ROC 曲线靠近左上角,提示模型性能较好。AUC代表ROC曲线下的面积,即从(0,0)到(1,1)进行积分测量ROC曲线下二维区域的面积。AUC综合考虑所有可能的分类阈值,提供了一个全面的性能度量。AUC 值表示随机从正负样本中各抽取一个,分类器正确预测正例得分高于负例的概率。AUC 值越接近 1,说明模型性能越优秀。PR曲线的绘制方法详见上一章, PR曲线在不同分类阈值下展示了分类器在精度(Precision, P)和召回率(Recall, R)方面的整体表现。

img

2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析

本项目对乳腺癌骨转移多模态医学图像数据集(包括 CT、MRI、PET)进行了单模态肿瘤检测实验和基于特征转换的跨模态病例分类实验。其中,单模态肿瘤检测实验是多模态肿瘤分类实验的前置步骤。

采用单阶段目标检测模型 YOLOv5,在五折交叉验证下比较了使用单模态 CT图像、PET图像、MRI图像作为输入数据集时,模型的目标检测性能。并在将目标检测结果进行特征转换后,采用不同的分类模型,包括后融合分类模型(LightGBM、GBDT、AdaBoost、RandomForest、SVM) 和 前 融 合 分 类 模 型(C3D),在五折交叉验证下比较了使用单模态数据和跨模态融合数据作为输入时,每个模型的分类性能。

表 2-2 展示了在不同单一模态数据上,五折交叉验证得到的骨转移病灶检测结果,评估指标为 AP50。实验结果表明,PET 模态的检测精度较高,而 CT 模态的检测精度最低。输入数据量较少、检测目标面积小、转移瘤的特征难以与正常骨组织区分是提高检测精度的难点。图 2-4 不同单一模态图像下目标骨转移病变区域的检测结果和实际标注的癌灶区域进行了可视化。绿色框由医师标注,目标检测模型标注的预测框为黄色。

表 2-2 单模态骨转移灶检测五折交叉验证结果

img

图 2-4 可视化单模态目标检测结果

img

将 CT、MRI 和 PET 的数据组成单模态子数据集进行单模态分析,而将两种及两种以上的数据组成跨模态子数据集进行多模态分析。表 2-3 和表 2-4 展示了在上述两种子数据集中进行五折交叉验证的结果,对比了6 种不同模型每一折的准确率、AUC,及其平均值。这 6 类模型中的前 5 种模型使用后融合策略,而作为对照的C3D 模型采用前融合策略。对比表 2-3 和表 2-4 的实验结果可知,在任一模型(包括前融合模型)中,基于特征转换的跨模态融合数据在乳腺癌骨转移分类任务上相较于仅使用单模态数据的性能有所提高:平均准确率提高了7.9%;平均AUC 提高了8.5%。如表2-5 和2-6 所示,跨模态融合方法比单模态方法的平均敏感性提高了7.6%,平均特异性提高了 9.4%。

表 2-3 基于单模态子数据集进行分类任务的准确率和 AUC

img

表 2-4 基于跨模态子数据集行分类任务的准确率和 AUC

img

表 2-5 单模态数据分类的敏感性和特异性

img

表 2-6 跨模态融合数据分类的敏感性和特异性

img

图 2-5 和图 2-6 分别展示了 6 个模型利用单模态数据进行分类实验和利用特征转换和融合后的跨模态数据进行分类实验的 PR 曲线。可以根据曲线形状和曲线下方面积来评估不同模型的性能表现,曲线下面积越大,提示模型的性能越优秀。综合观察单模态和跨模态分类实验的P-R曲线图,可以发现,基于跨模态数据的分类任务的P-R 曲线下面积大于基于单模态数据的分类任务的P-R 曲线下面积,提示跨模态数据作为输入时分类模型的表现更加出色。

比较基于单模态数据进行分类的模型的 P-R 曲线,可见 3D 卷积网络的训练方式相较于其他后融合模型的性能表现更优。然而,在基于跨模态数据进行分类的模型的 P-R 曲线中,基于特征转换的跨模态后融合策略相对于基于 3D 卷积的前融合方法具有更好的性能。

图 2-5 基于单模态数据不同分类模型的的PR 曲线

img

图 2-6 基于跨模态数据不同分类模型的的PR 曲线

img

图 2-7 和图 2-8 展示了 6 种分类模型在使用单模态数据进行分类实验和使用跨模态数据进行分类实验的情况下的ROC 曲线。通过对比观察六个模型的ROC 曲线的形状和面积来评估不同模型的性能。靠近左上角的 ROC 曲线表示假阳性率接近0,真阳性率接近 1,趋近于左上角的 ROC 曲线提示模型性能优越。对比图 2-7 和图 2-8 可知,使用基于特征转换的跨模态数据的骨转移病例分类模型的性能更为优越。

图 2-7 基于单模态数据不同分类模型的的ROC 曲线

img

图 2-8 基于跨模态数据不同分类模型的的ROC 曲线

img

本文提出的跨模态数据融合方法是基于特征转换的后融合策略,相较于前融合策略具有更好的性能。实验表明,无论采用前融合或后融合策略,基于跨模态融合数据的实验都表现出了显著的优势。相较于多模态数据,单一模态数据所捕获的特征较为单一(如仅有结构信息) ,可能由于缺乏关键和全面的特征信息导致模型性能不佳,而跨模态融合方法则能从不同模态中获取更多的有效特征,并将其融合,从而提高准确率。

2.4. 讨论

本项目旨在评估基于特征转换的跨模态数据融合方法是否可以跨模态融合 CT、MRI 和 PET 图像的有效特征,以对乳腺癌患者进行是否发生骨转移的评估。本项目提出了一个基于特征转换的跨模态融合图像数据框架,用于对骨转移病变进行分类,包括目标病变区域检测、特征构造及融合形成可解释的结构化数据以及跨模态融合数据分类步骤。融合 CT、MRI 和 PET 的转换特征数据能够充分利用各个模态中的信息,为分类任务提供更多的数据支持,并增加辅助判断的特征线索。基于特征转换的跨模态病例分类实验证明,本项目提出的跨模态融合数据显著提高了对影像序列进行二分类任务的性能,相较于单模态数据,平均准确率和 AUC分别提高了7.9%和 8.5%。

如表 2-2 所示,单模态目标检测模型在 PET 图像中的检测精度较高,而在 CT和 MRI 图像中的精度相对较低。图 2-4 展示了在 YOLOv5 目标检测模型中不同单一输入图像模态下乳腺癌骨转移检测效果的可视化图像。分析各种图像模态信息可知,CT 和 MRI 图像不仅包含病灶的解剖信息,还包含了人体正常组织的结构信息,而后者可能会干扰宫颈癌病变区域特征的识别和检测,导致单一CT或MRI模态下出现漏检现象。与之不同,PET图像展示的是组织代谢信息。骨转移病灶通常伴随着频繁的成骨和破骨活动,在 PET 影像中呈高代谢,而正常骨组织的代谢相对较缓慢,通常不会显示在图像中。因此,PET 对背景组织的干扰较 CT、MRI 更不敏感,有助于目标检测模型识别异常代谢区域。因早期无症状骨转移病灶通常体积较小,可能因目标区域面积过小影响目标检测结果。在模型处理过程中,池化(pooling)操作可能导致特征或图像信息的损失,从而造成特征缺失。为了克服这一问题,后续研究可以关注提高模型在处理小目标区域时的性能。

表 2-4 和表 2-6 展示了在各种分类模型中,基于跨模态结构化数据在五折交叉验证下的分类性能。通过对比分析发现,相对于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在性能方面有所提高。医学影像数据有数据量较少、维度高、结构复杂以及样本识别难度大等特点,这导致将特征提取任务交由模型完成,直接输入原始数据或经过简单预处理的数据,让模型自主进行特征提取并生成最终输出的这种端到端的前融合方法效果不尽如人意。由于患者在体型、身高等方面的个体差异,一个图像序列内的CT和MRI切片数量也有所不同。因此,需要对图像进行归一化处理,将其转换为统一的标准格式,如调整到相同尺寸、修正切割后图像中心的位置等。归一化操作旨在对数据进行统一格式化和压缩,但这可能会导致图像未对齐、图像与特征错位、数据压缩过度以及特征丢失等问题。因此,采用基于特征转换的后融合策略可能更合适本项目。前融合所采用的 C3D分类模型是一种在三维数据上进行分析的网络模型。三维数据具有尺度高、维度大以及信息稀疏等特点。尽管 C3D 网络训练过程中增加了一个维度的信息,但同时也提高了算法分析的复杂性,特别是在模型训练过程中,占用了大量显存等硬件资源,可能导致批归一化不理想和网络收敛不完全的问题。与 C3D 相比,本文提出的二阶段后融合方法实现了特征压缩,提取置信度这种可解释的特征,并去除了无关的稀疏特征。在有限的硬件资源和数据量的限制下,这种方法能更好地学习数据特征,起到了类似正则化(通过在损失函数中添加约束,规范模型在后续迭代过程中避免过度拟合)的效果。

乳腺癌骨转移病灶在代谢和结构方面都较正常骨组织显著不同。因此,通过融合 CT、MRI 和 PET 图像的特征信息,实现解剖和功能信息的跨模态融合,能更有效地完成分类任务,帮助诊断乳腺癌骨转移。然而,综合分析全身 CT、MRI 和PET图像信息需要医师投入大量时间,且存在较大的观察者间差异。一旦发生漏诊,会导致严重后果。利用计算机辅助医师判断乳腺癌是否发生骨转移不仅可以节省成本和时间,还能提供更加客观的评估标准。计算机辅助诊断工具可以综合多模态图像的结果进行特征转换和分析,预防漏诊的发生。因此,在未来的研究中,可以重点关注开发此类计算机辅助诊断系统,以提高乳腺癌骨转移诊断的准确性和效率。

这项研究仍存在一些局限性。从单个影像模态中提取的特征较为单一,仅有置信区间,可以在后续的训练中可以从临床角度出发加入更多可能影响骨转移判断的因素作为分类特征,如检测目标的面积,或增加中轴骨检出目标的权重。因本项研究具有多模态影像数据的病例量不够,未来可以尝试除五折交叉验证之外其他的模型训练方法以降低数据量对分类模型性能的影响。

2.5. 结论

本项目提出了一种基于特征转换的跨模态数据融合方法进行分类任务的深度学习框架,用于判断是否发生乳腺癌骨转移。首先独立对不同模态的医学图像数据进行肿瘤检测,根据目标检测结果进行特征构造,并将其组织成结构化数据的形式,完成从非结构化数据特征到结构化数据特征的转换与融合。最终,将结构化数据特征输入分类器,进行骨转移的分类任务,并对照 C3D 前融合模型,讨论了基于特征转换方法进行跨模态数据后融合的优势。大量的实验证明,使用基于特征转换的跨模态融合数据进行分类任务的性能优于基于单模态数据的分类性能;使用本项目提出的后融合策略执行分类任务较使用前融合策略的分类模型(C3D)的性能更好。

本项目所提出的技术可综合 CT、MRI 和 PET 模态数据的特征,对乳腺癌患者是否发生骨转移进行判断,辅助临床医师进行乳腺癌骨转移病灶的筛查,具备实际应用价值,也为在医学图像分析任务中更有效地应用跨模态融合方法,提供了关键的理论支持。

全文小结

目前,医学影像学的解读大量依赖临床医生个人的主观诊断经验,人工阅片易漏诊小目标,难以推广及表述,具有一定的局限性。与此相比,人工智能技术可以通过深度神经网络对大量积累的影像数据和诊断数据进行分析,学习并提取数据中对病理诊断有用的特征,从而在数据支持下做出更客观的判断。按成像方式不同,医学影像数据可分为多种模态,如B超、CT、MRI、PET。为了最大限度模拟临床医生结合不同模态影像检查结果形成诊断的过程,设计人工智能模型时,应将各种影像学模态的特征进行有效的融合,即本项目中应用的跨模态深度学习方法,充分利用不同模态图像的独特优势训练深度神经网络,从而提高模型性能。本项目以宫颈癌和乳腺癌骨转移为例,验证了跨模态深度学习方法在病变区域定
位和辅助诊断方面的性能。

在第一部分中,我们回顾性纳入了220例有FDG-PET/CT数据的宫颈癌患者,共计 72,602 张切片图像。通过图像增强、边缘检测,实现 PET 和 CT 图像的 ROI自适应定位,再通过缩放、零值填充和剪切的方式,将两种模态图像的 ROI 对齐。经过加权和图像叠加,进行图像融合,将融合后的图像作为目标检测网络的输入层,进行宫颈癌病变区域检测。实验证明,相比使用单一 CT 图像、单一 PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像作为网络输入,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性,目标检测的平均精确度(AP50)分别提高了 6.06%和 8.9%,且消除了一些假阳性结果,展现出可观的临床应用价值。

在第二部分中,我们回顾性纳入了 233 例乳腺癌患者,每例样本数据包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有 3051 张 CT 切片,3543 张 MRI切片,1818 张 PET 切片。首先训练 YOLOv5 目标检测网络,对每种单一模态图像中的骨转移病灶进行目标检测。统计每个影像序列中含有检出骨转移病灶的个数和置信度,将每个置信区间内含有目标检测框的百分比作为结构化医疗特征数据。采用级联方式融合三种模态的结构化特征,得到具有可解释性的结构化医疗数据,再用分类模型进行分类,预测是否发生骨转移。实验证明,相较于单模态数据,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能,平均准确率和 AUC 分别提高了 7.9%和 8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也有相同的实验结论。在不同的分类模型(SVM、AdaBoost、RandomForest、LightGBM、GBDT)中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

综上所述,本文基于人工智能深度学习算法,针对不同模态医学图像的特征差异与互补性,进行多模态医学影像数据的跨模态融合,提高了模型的肿瘤检测和分类性能,检测模型和分类模型可以辅助影像学阅片过程,具有显著的临床实际应用价值。

参考文献

[1] 陈思源, 谭艾迪, 魏双剑, 盖珂珂. 基于区块链的医疗影像数据人工智能检测模型[J] . 网络安全与数据治理, 2022, 41(10): 21-25.
[2] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J . Gastroenterology, 2023, 164(2): 191-193.
[3] Arbyn M, Weiderpass E, Bruni L, et al. Estimates of incidence and mortality of cervical cancer in 2018: a worldwide analysis[J . The Lancet Global Health, 2020, 8(2): e191-e203.
[4] Marth C, Landoni F, Mahner S, et al. Cervical cancer: ESMO Clinical Practice Guidelines for diagnosis, treatment and follow-up[J . Annals of Oncology, 2017, 28:iv72-iv83.
[5] Gold M A. PET in Cervical Cancer—Implications forStaging,’Treatment Planning, Assessment of Prognosis, and Prediction of Response[J . Journal of the National Comprehensive Cancer Network, 2008, 6(1): 37-45.
[6] Gandy N, Arshad M A, Park W H E, et al. FDG-PET imaging in cervical cancer[C] .Seminars in nuclear medicine. WB Saunders, 2019, 49(6): 461-470.
[7] Grigsby P W. PET/CT imaging to guide cervical cancer therapy[J . Future Oncology, 2009, 5(7): 953-958.
[8] Mirpour S, Mhlanga J C, Logeswaran P, et al. The role of PET/CT in the management of cervical cancer[J . American Journal of Roentgenology, 2013, 201(2): W192-W205.
[9] LeCun Y, Bengio Y, Hinton G. Deep learning[J . nature, 2015, 521(7553): 436-444.
[10] Szeliski R. Computer vision: algorithms and applications Springer Science & Business Media[J] . 2010.
[11] Ma B, Yin X, Wu D, et al. End-to-end learning for simultaneously generating decision
map and multi-focus image fusion result[J . Neurocomputing, 2022, 470: 204-216.
[12] Anwar S M, Majid M, Qayyum A, et al. Medical image analysis using convolutional
neural networks: a review[J . Journal of medical systems, 2018, 42: 1-13.
[13] Ma B, Ban X, Huang H, et al. Deep learning-based image segmentation for al-la alloy
microscopic images[J . Symmetry, 2018, 10(4): 107.
[14] Li Z, He J, Zhang X, et al. Toward high accuracy and visualization: An interpretable feature extraction method based on genetic programming and non-overlap degree[C] . 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2020: 299-304.
[15] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J] . nature, 1986, 323(6088): 533-536.
[16] He K , Gkioxari G , Dollar P , et al. Mask R-CNN[C . International Conference on Computer Vision. IEEE Computer Society, 2017, pp. 2980-2988.
[17] Ma B, Wei X, Liu C, et al. Data augmentation in microscopic images for material data mining[J] . npj Computational Materials, 2020, 6(1): 125.
[18] Ma B, Zhu Y, Yin X, et al. Sesf-fuse: An unsupervised deep model for multi-focus image fusion[J] . Neural Computing and Applications, 2021, 33: 5793-5804.
[19] Kermany D S, Goldbaum M, Cai W, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J . cell, 2018, 172(5): 1122-1131. e9.
[20] Hyun S H, Ahn M S, Koh Y W, et al. A machine-learning approach using PET-based radiomics to predict the histological subtypes of lung cancer[J . Clinical nuclear medicine, 2019, 44(12): 956-960.
[21] Chilamkurthy S, Ghosh R, Tanamala S, et al. Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study[J . The Lancet, 2018, 392(10162): 2388-2396.
[22] Chen C, Xiao R, Zhang T, et al. Pathological lung segmentation in chest CT images based on improved random walker[J] . Computer methods and programs in biomedicine, 2021, 200: 105864.
[23] Chen C, Zhou K, Zha M, et al. An effective deep neural network for lung lesions segmentation from COVID-19 CT images[J] . IEEE Transactions on Industrial Informatics, 2021, 17(9): 6528-6538.
[24] Hill D L G, Batchelor P G, Holden M, et al. Medical image registration[J] . Physics in medicine & biology, 2001, 46(3): R1.
[25] Du J, Li W, Lu K, et al. An overview of multi-modal medical image fusion[J] .Neurocomputing, 2016, 215: 3-20.
[26] Watanabe H, Ariji Y, Fukuda M, et al. Deep learning object detection of maxillary cyst-like lesions on panoramic radiographs: preliminary study[J] . Oral radiology, 2021, 37: 487-493.
[27] Mattes D, Haynor D R, Vesselle H, et al. PET-CT image registration in the chest using free-form deformations[J] . IEEE transactions on medical imaging, 2003, 22(1): 120-128.
[28] Maqsood S, Javed U. Multi-modal medical image fusion based on two-scale image decomposition and sparse representation[J] . Biomedical Signal Processing and Control, 2020, 57: 101810.
[29] Elakkiya R, Subramaniyaswamy V, Vijayakumar V, et al. Cervical cancer diagnostics healthcare system using hybrid object detection adversarial networks[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 26(4): 1464-1471.
[30] Al-Ameen Z, Sulong G, Gapar M D, et al. Reducing the Gaussian blur artifact from CT medical images by employing a combination of sharpening filters and iterative deblurring algorithms[J] . Journal of Theoretical and Applied Information Technology, 2012, 46(1): 31-36.
[31] Canny J. A computational approach to edge detection[J] . IEEE Transactions on pattern analysis and machine intelligence, 1986 (6): 679-698.
[32] Jocher G, Stoken A, Borovec J, et al. ultralytics/yolov5: v5. 0-YOLOv5-P6 1280 models, AWS, Supervise. ly and YouTube integrations[J . Zenodo, 2021.
[33] Wang C Y, Liao H Y M, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020: 390-391.
[34] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C .
Proceedings of the IEEE conference on computer vision and pattern recognition, 2018:
8759-8768.
[35] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv, 2020, 2004: 10934.
[36] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J . IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.
[37] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J . Radiology, 2019, 292(1): 15-24.
[38] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv:2004.10934, 2020.
[39] Smith A R. Color gamut transform pairs[J . ACM Siggraph Computer Graphics, 1978, 12(3): 12-19.
[40] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by
reducing internal covariate shift[C . International conference on machine learning.
pmlr, 2015: 448-456.
[41] Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J . Neural Networks, 2018, 107: 3-11.
[42] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C] .Proceedings of the IEEE international conference on computer vision. 2017: 2980-2988.
[43] Zhang S, Chi C, Yao Y, et al. Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 9759-9768.
[44] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J . Advances in neural information processing systems, 2015, 28.
[45] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality object detection[C] .Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:6154-6162.
[46] Pang J, Chen K, Shi J, et al. Libra r-cnn: Towards balanced learning for object detection[C] . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019: 821-830.
[47] Cohen P A, Jhingran A, Oaknin A, et al. Cervical cancer[J . The Lancet, 2019, 393(10167): 169-182.
[48] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J] . Radiology, 2019, 292(1): 15-24.
[49] Coleman R E. Metastatic bone disease: clinical features, pathophysiology and treatment strategies[J . Cancer treatment reviews, 2001, 27(3): 165-176.
[50] Cecchini M G, Wetterwald A, Van Der Pluijm G, et al. Molecular and biological mechanisms of bone metastasis[J . EAU Update Series, 2005, 3(4): 214-226.
[51] Cuccurullo V, Lucio Cascini G, Tamburrini O, et al. Bone metastases radiopharmaceuticals:
an overview[J . Current radiopharmaceuticals, 2013, 6(1): 41-47.
[52] Emens L A, Davidson N E. The follow-up of breast cancer[C . Seminars in oncology. WB Saunders, 2003, 30(3): 338-348.
[53] Chen W Z, Shen J F, Zhou Y, et al. Clinical characteristics and risk factors for developing bone metastases in patients with breast cancer[J . Scientific reports, 2017, 7(1): 1-7.
[54] Batson O V. The function of the vertebral veins and their role in the spread of metastases[J . Annals of surgery, 1940, 112(1): 138.
[55] O’Sullivan G J, Carty F L, Cronin C G. Imaging of bone metastasis: an update[J] .World journal of radiology, 2015, 7(8): 202.
[56] Noguchi S, Nishio M, Sakamoto R, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J . European Radiology, 2022, 32(11): 7976-7987.
[57] Fan X , Zhang X , Zhang Z , et al. Deep Learning on MRI Images for Diagnosis of Lung Cancer Spinal Bone Metastasis[J . Contrast Media & Molecular Imaging, 2021, 2021(1):1-9.
[58] Moreau N, Rousseau C, Fourcade C, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[C] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). IEEE, 2020: 1532-1535.
[59] Boser B E, Guyon I M, Vapnik V N. A training algorithm for optimal margin classifiers[C] . Proceedings of the fifth annual workshop on Computational learning theory, 1992: 144-152.
[60] Freund Y, Schapire R E. A decision-theoretic generalization of on-line learning and an application to boosting[J] . Journal of computer and system sciences, 1997, 55(1): 119-139.
[61] Breiman L. Random forests[J . Machine learning, 2001, 45: 5-32.
[62] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree[J] . Advances in neural information processing systems, 2017, 30: 52.
[63] Chen T, Guestrin C. Xgboost: A scalable tree boosting system[C . Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016: 785-794.
[64] Tran D, Bourdev L, Fergus R, et al. Learning spatiotemporal features with 3d convolutional networks[C . Proceedings of the IEEE international conference on computer vision, 2015: 4489-4497.

img

文献综述

3. 跨模态深度学习技术在临床影像中的应用

The Application of Deep Learning and Cross-modal Fusion Methods in Medical Imaging

Abstract

Deep learning technology is gaining widespread prominence across various fields in this era. In the realm of medical imaging, it has steadily assumed a pivotal role in tasks such as feature recognition, object detection, and image segmentation, since its inception. With the continuous evolution of imaging techniques, the individual patient often possesses an expanding wealth of multi-modal imaging data. It is evident that deep learning models utilizing cross-modal image fusion techniques will find diverse applications in a lot more clinical scenarios. In the future, deep learning will play a significant role in the medical sector, encompassing screening, diagnosis, treatment, and long-term disease management. To provide a reference for future research, this review aims to present a concise overview of the fundamental principles of deep learning, the nature of cross-modal fusion methods based on deep learning, with their wide-ranging applications, and a comprehensive survey of the present clinical uses of single-modal and cross-modal deep learning techniques in medical imaging, with a particular emphasis on bone metastasis imaging.

Keywords: deep learning, cross-modal, tumor imaging, bong metastasis

3.1 Preface

Nowadays, data are generated in massive quantities in the healthcare sector, from sources such as high-resolution medical imaging, biosensors with continuous output of physiologic metrics, genome sequencing, and electronic medical records. The limits on the analysis of such data by humans alone have clearly been exceeded, necessitating an increased reliance on machines. The use of artificial intelligence (AI), the deep-learning subtype in particular, has been enabled by the use of labeled big data, along with markedly enhanced computing power and cloud storage. One field that has attracted particular attention for the application of AI is radiology, as the cost of medical scans is declining, and the use of imaging studies is now at least as common as physical examinations, even surpassing the latter in surgical emergencies out of humanism and accuracy concerns. AI can greatly aid clinicians in diagnosis, especially in the interpretation of radiographic images, the accuracy of which heavily relies on the clinical experience and scrutiny of their interpreters, thus freeing clinicians to devote more of their attention to providing bedside healthcare. The radiologic screening and staging of tumors rely heavily on radiologists’ subjective judgments. For some minuscule or ambivalent lesions, it is often difficult to arrive at a definitive diagnosis based solely on clinical experience. A case reported by Dong et al. proves the vulnerability of relying on error-prone human judgment[1 . AI methods mainly analyze medical images through image processing and deep learning techniques. As an assistant for clinicians, deep neural networks can be trained with large datasets of radiologic images or clinical information, automatically learning features key to the revelation of pathology or lesion localization. In addition to deep learning models based on images of a single modality, researchers have also proven the feasibility of integrating multi-modal medical imaging data in algorithms, with improved model robustness. A combination of feature representations from different imaging modalities can effectively improve the performance of tumor detection, classification, and segmentation. Artificially generating relatively scarce imaging data from more easily accessible radiographs by way of cross-modal image translation can not only aid diagnoses but also improve the performance of deep learning models.

This article will briefly review the relevant background of deep neural networks (DNNs), as well as the up-to-date development of cross-modal fusion and image translation methods. An overview of the current clinical applications of single-modal and cross-modal deep learning in tumor imaging, especially in bone metastasis imaging, is also provided.

3.2. Deep Neural Network (DNN)

Traditional machine learning methods face limitations in handling data in its raw form, as creating a suitable internal representation or feature vector requires a meticulous feature extractor designed manually to convert raw data, such as image pixels. Only after then a classifier, every detail of which was manually set and adjusted, could detect or classify patterns in the input, and spell out its outcome. Because of the varying qualities of images, lots of intricate image enhancement or filtering algorithms, such as adaptive Gaussian learning, histogram equalization, and de-noising, are designed alone for the purpose of pre-processing images to be ready for the feature extractor. Another downside of conventional machine learning is that manually coded algorithms would only, with images with finer details or better contrast, allow for automatic execution of the thought processes that can best mimic, not surpass, that of a clinician. All the key features to be extracted and used in encoding the classifier were essentially the same set of “inputs” a clinician would use to make his or her judgment.

In contrast, “representation learning” is a set of techniques utilized in deep learning, which enable machines to analyze raw data without manual feature engineering. This allows the system to automatically identify the relevant patterns or features needed for classification or detection. Pattern recognition using deep neural networks (DNNs) can help interpret medical scans, pathology slides, skin lesions, retinal images, electrocardiograms, endoscopy, faces, and vital signs. Deep learning algorithms employ multiple tiers of representation through the composition of nonlinear modules, which transform the input representation from one level to the next, beginning with the raw input and continuing to higher and more abstract levels. It is helpful to think of the entire network as, nonetheless, a “function”, that takes in a set of inputs and spills out an output, though with absurdly complicated parameters and transformations. Irrelevant variations or noise can be lost as stepping up towards the higher layers of representation that amplify only features important for discrimination. By this “layering” method, very complex functions can be learned. A key differentiating feature of deep learning compared with other subtypes of AI is its autodidactic quality, i.e. neither the number of layers nor features of each layer is designed by human engineers, unencumbered by either the essence or the flaws of the human brain.

3.2.1. Supervised learning

Supervised learning is the process of learning with training labels assigned by the supervisor, i.e. the training set of examples has its raw input data bundled with their desired outputs. When used to classify images into different categories, the machine is shown an image and produces an output in the form of a vector of scores, one for each category during training. In supervised learning, the machine receives immediate feedback on its performance when its output does not match the expected output. The aim is to assign the highest score to the desired category among all categories. This is achieved by calculating a cost function that measures the average error or distance between the output scores and the expected pattern of scores. The inputs of the cost function are the parameters of the machine. Much like the “update rule” used in the Mixed Complementarity Problem (MCP), the perceptron learning algorithm updates its internal adjustable parameters to minimize errors when it predicts the wrong category[2]. The adjustable parameters consist of weights and biases, where weights control the input-output function of the machine. The algorithm learns from its mistakes rather than successes, and the weights can number in the hundreds or millions. Weights are assigned to the connections between neurons from the input layer and one of the neurons in the next layer, in some sense representing the “strength” of a connection. The activation of a single notch of neurons in the next layer was computed by taking the weighted sum of all the activations of the first layer, e.g., greyscale values of the pixels. Just like biological neurons may have different thresholds that the graded sum of electric potentials at the cell body needed to reach for axonal propagation, the algorithm may not want its neuron to light up simply over a sum greater than 0. So, a “bias for inactivity” is introduced into the weighted sum formula. For example, if a neuron is designed to be active only if the weighted sum exceeds 10, then a 10 is subtracted from the formula before the transformation that follows. Weights represent the pixel pattern (weight assigned to each pixel can be visualized as a pixel pattern) that the algorithm identifies, while biases provide a threshold indicating the required level of weighted sum for a neuron to become meaningfully active. When the goal is to have the value of activations of the next layer between 0 and 1 and were the mapping to be smooth and linear, then the weighted sum can be pumped into a sigmoid function, i.e. 1/(1 + exp(−w)), where w is the weighted sum. A sigmoid transformation compresses the continuum of real numbers, mapping them onto the interval between 0 and 1, effectively pushing negative inputs towards zero, and positive inputs towards 1, and the output steadily increases around the input 0. Say the mapping is from p neurons from the one layer to the q neurons of the next layer, there would be p×q number of weights and q biases. These are all adjustable parameters that can be manipulated to modify the behavior of this network. In a deep learning system, changing the parameters may reflect a shift in the location, size, or shape of the representations to find “better” features to travel through the layers to get to the desired output.

At present though, preferred mappings in DNN are neither smooth nor linear. By applying a non-linear function to the input, the categories become separable by the last output layer in a linear way, resulting in a definitive category output, unlike the previously mentioned range of numerical values that would require arbitrary cut-off points to finalize the categorization. A sigmoid transformation was once popular in the era of Multilayer Perceptron, during which a machine was simply an executor of commands, and the feature detected by each layer was designed and programmed by human engineers, such that the final output, as a continuous variable, would be interpretable[3]. The rectified linear unit (ReLU) is currently the most widely used non-linear function, which introduces non-linearity into the network by setting all negative values to zero. This is in contrast to the smoother non-linearities, such as tanh(z) or 1/(1 + exp(−z)), used in previous decades.
ReLU has proven to be a faster learner in deep networks compared to these other non-linear functions and allows for the training of deep supervised networks without the need for unsupervised pre-training[4].

This would not work in DNN, as hidden layers would not be picking up edges and patterns based on our expectations. How the machine gets to the correct output is still an enigma, and its intelligence still awaits revelation.

The essential of learning by neural networks is to minimize the cost function. It is important for this cost function to have a nice and smooth output so that the local minimum can be obtained by taking little steps downhill, rather than being either on or off in a binary way the way biological neurons are. To adjust the weight and bias values of the parameter vector in a high-dimensional space, the learning algorithm computes a gradient vector that specifies how much the error, or cost, would increase or decrease if each parameter were slightly modified. In mathematical terms, this is similar to taking derivatives of a function with respect to a variable to observe the trend of the function between the two infinitesimally close values of that variable. In multivariate calculus, the gradient of a function indicates the path of the steepest incline, pointing towards the direction in the input space where one should move to minimize the output of this cost function with the utmost speed, and the length of the vector indicates exactly how steep the steepest ascent is. The weight vector is modified by shifting it in the opposite direction of the gradient vector, and the size of the adjustments is proportional to the slope of the gradient vector. When the slope of the gradient vector approaches the minimum, the step size decreases to prevent overshooting. This is the so-called “gradient descent” that converges on some local minimum. Minimizing the cost function can guarantee better performance across all training samples. Viewed from a different perspective, the gradient vector of the cost function encodes the relative importance of weights and biases, which changes to which weights matter the most to minimize the cost. The magnitude of each component represents
how sensitive the cost is to each weight and bias.

In practice, most practitioners use a procedure called stochastic gradient descent (SGD). It involves randomly selecting a few input vectors as mini-batches, computing the corresponding outputs, errors, and the gradient descent step. The weights were adjusted accordingly. This process is repeated for many small subsets of examples from the training set until the average cost function stops decreasing. Each small subset of examples gives a noisy estimate of the average gradient over all examples, and thus the “stochasticity”. Despite its simplicity, SGD often achieves good results with far less computation time than more complex optimization techniques[5].

3.2.2. Backpropagation

Recursively adjusting the weights in proportion to the activation of the second-to-last layer, vise vera, or altering the biases to decrease the cost for a single training sample is a single round of digital learning. In a nutshell, the backpropagation procedure is an algorithm of computing the gradient descent efficiently. Calculating the gradient of a cost function with respect to the weights in a stacked multilayer module is a practical application of the chain rule of derivatives. A key insight is that the derivative of the cost function concerning the input can be obtained by reversing the order of the layers, working from the higher to the lower layers. The process of backpropagation entails computing gradients through all layers. From the uppermost layer where the network generates predictions down towards the lowermost layer where the external input is introduced. Once these gradients have been calculated, it is straightforward to determine the gradients with respect to the weights and biases of each module. After these gradients are computed, it becomes a straightforward task to derive the gradients with respect to the weights and biases of each module. The average of desired changes, obtained by traversing the backpropagation route for alternate training samples, was the optimal adjustment that parameters could make to make the model performs better in the training set.

It was commonly thought that a simple gradient descent would get trapped in suboptimal local minima — weight configurations for which no small change would reduce the cost function, as finding the global minimum would be an intractable task. Recent theoretical and empirical results strongly suggest the cost function’s landscape is actually filled with a huge number of saddle points where the gradient is zero, indicating that the optimization challenge is more complex than originally thought, but most of these points have similar cost function values[6]. In other words, the depth of the local minima is almost the same across different saddle points, so it is not crucial which one the algorithm gets stuck at.

3.2.3. Convolutional neural networks (CNN)

Convolutional neural networks (CNNs) are easier to train and have better generalization capabilities compared to other feedforward networks with fully connected layers. They are specifically designed to process data represented as multiple arrays, such as grayscale images consisting of a single 2D array containing pixel intensities of varying values.

The four key ideas behind CNN are inspired by the properties of natural signals and visual neuroscience: local connections, shared weights, pooling, and the use of multi-layer. The convolutional and pooling layers are directly inspired by the concept of simple cells and complex cells, respectively, in the visual cortex, and the overall architecture is reminiscent of the LGN-V1-V2-V4-IT hierarchy in the visual cortex’s ventral pathway[7][8]. Local groups of values in array data often exhibit high correlation and form characteristic local motifs that can be readily identified. Therefore, pattern recognition makes CNN most useful in detecting images.

3.2.3.1. Convolution

The main function of the convolutional layer is to identify and extract local combinations of features from the preceding layer (Fig. 1). The actual process of matching is accomplished through filtering in the convolutional layer: A filter bank can be thought of as a small matrix of representative features (of real numbers) for which the number of rows and columns, eg. n× n, of pixels is arbitrarily set. The filter and image patch are lined up, and each image pixel is multiplied (dot product) by the corresponding feature. The result is added up and divided by the total number of pixels in the filter to arrive at a specific feature value. Feature value indicates how well the feature is represented at that position. Sliding over n pixels, the same procedure is repeated for every n× n block of pixels for the entire input image, and a feature map, a “map” of where the filter feature occurs, is obtained. All units in a feature map share the same filter bank. Therefore, the local characteristics of images and other signals remain constant regardless of their location. In simpler terms, a pattern that appears in one part of the image can appear in any other part as well. Hence, the approach of employing units with identical weights to identify corresponding patterns across various sections of the array is adopted. In a convolution layer, filtering can be performed for a bunch of features and create a stack of filtered images. Each feature map in a layer employs its own filter bank. From a mathematical standpoint, the operation of filtering executed by a feature map can be described as a discrete convolution, hence the name.

img

Fig. 1: Example of a filter (kernel) convolution. Note the new pixel value shown in the figure has not been weighted by the number of windows in the filter.

3.2.3.2. Pooling

The aim of the pooling layer is to reduce the size of a feature map by merging similar features into a single one through the following steps: (1) choose an appropriate window size, usually 2×2 or 3×3 pixels; (2) pick a stride (by how many pixels the window steps down to run through a feature map) accordingly, usually 2 pixels; (3) walk the window by its stride across the filtered images; (4) take the maximum value in each window as the pooling result and form a “pooled map”. A robust motif detection can be accomplished by simplifying the positioning of each feature across all feature maps that are fed into this CNN layer. Pooling helped the algorithm to neglect where in each window the maximum value occurs, making it less sensitive to small shifts in position, either parallel or rotational, an image that strongly fits the filter will still get picked up.

3.2.3.3. Normalization

To keep the math from blowing up, a layer is then passed through a non-linearity such as a ReLU making negative values all 0. This procedure of nonlinear transformation is “normalization” in deep learning terms.

The CNN architecture involves stacking multiple stages of convolution, non-linearity (normalization), and pooling on top of each other, followed by a final fully connected layer (Fig. 2). Each layer’s filter banks in the convolutional layers and voting weights in the fully connected layer are learned through the backpropagation algorithm. In the fully connected layer, also known as the dense layer due to the fact that a large number of neurons are densely connected with each other, a list of feature values becomes a list of votes, when timed by relevant weights that map this layer to the output layer gives the final answer. It is worth noting that this list of votes in the fully connected layer looks a lot alike a list of feature values. Indeed, the output of this layer as intermediate categories can still feed into the input of the next layer, propagating the cycle instead of becoming the final votes.

img

Fig. 2: Example of a CNN with various types of layers. The convolutional layer does not decrease the size, i.e., the number of pixels, of the input figure, rather it encodes the feature of its input. The pooling layer does decrease the size of its input. The amount of which the size decreases depends on the size of the pooling window and the stride.

3.3. Cross-modal fusion

Cross-modal fusion refers to the process of integrating data from different modalities. PET/CT is a classic example of cross-modal fusion. CT is a type of imaging modality that provides high-resolution, cross-sectional images with excellent clarity and density resolution. PET, on the other hand, is a nuclear imaging technique that generates images showing the spatial distribution of positron-emitting radiopharmaceuticals within the body. With less precise structural details, PET images are well capable of displaying metabolic activity. PET/CT fuses CT with PET, possessing information on both the anatomical details and the metabolic spectrum. As each different information stream possesses unique characteristics, single-modal data often do not contain all the effective features to produce accurate results, whether for data analysis or prediction tasks. Cross-modal deep learning models combine data from two or more different modalities, learning different feature representations from different modalities and facilitating communication and transformation among different information streams, to accomplish specific downstream tasks. This special type of deep learning can improve the accuracy of predictions and enhance the robustness of models.

3.3.1. Cross-modal fusion methods

Cross-modal fusion methods can be categorized into three types: early fusion, late fusion, and hybrid fusion. In early fusion, unimodal features are combined into a single representation before the feature extraction or modeling process[9] . After feature extraction or modeling is performed separately to reduce unimodal features, the outputs are integrated to learn concepts and obtain the final prediction in late fusion[10] . Whereas hybrid fusion combines early and late fusion methods, where fusion is performed at both the feature level
and the output layer [11].

There are various methods of early fusion, including operating on elements at the same position in different modalities. For example, in the field of medical imaging, different imaging modalities can be fused into an integrated image. Nefian et al. proposed a cross-modal early fusion method that used both the factorial and the coupled hidden Markov model for audio-visual integration in speech recognition[12] . Early fusion was done by multiplying the corresponding elements of visual features that capture mouth deformation over consecutive frames and the vector representation, representing the frequency of audio observations, learned by long short-term memory neural networks. A dimensionality reduction was then done on the observation vectors obtained by concatenation of the audio and visual features. Indeed, early fusion methods are often simple in structure with low computational complexity. However, the resulting feature is often high in dimensions, which can impose a significant computational burden on the subsequent model if dimensionality reduction is not performed.
As an example of late fusion, in 2014, Simonyan et al. proposed an architecture that separately inputs spatial and temporal recognition streams of videos, where the spatial stream recognizes actions from still video frames, whilst the temporal stream is in charge of action recognition from motion in the form of dense optical flow[13]. The learned feature outputs are combined by late fusion via either averaging or a linear support vector machine (SVM). As fusion significantly improves on both streams alone, the result proves the complementary nature of inputs spatial and temporal recognition streams and that cross-modal fusion indeed preserves more information of use in the algorithm. Late fusion does not explicitly consider the inter-modality correlation at the feature level, which may result in a lack of interaction among different modalities at the feature level. Consequently, the resulting feature representations after cross-modal fusion may not be rich enough, potentially limiting the effectiveness of the fusion approach.

There is no one optimal solution for all, and the choice of fusion method should be case-by-case.

3.3.2. Cross-modal image translation

Cross-modal image translation has gradually matured in the field of computer vision. Given sufficient training data, deep learning models are capable of learning discriminative features from images of different modalities, and the process of image-to-image translation can be viewed as transforming one potential representation of a scene to another.

In 2017, Isola et al. released a Pix2Pix software that is effective at various image translation tasks, such as synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images[14] . Conventional CNN learns to minimize a loss function that is arbitrary, the making of which takes a lot of manual effort. The Pix2Pix software adopts conditional Generative Adversarial Networks (GANs) that automatically learn the loss function to train the mapping from input to output images, besides learning the mapping itself, as a generic solution to pixel-to-pixel prediction. These networks solve the whole genre of problems that used to require very different loss functions. Conditional GANs differ from other formulation in that it treats output pixels as mutually dependent and thus learns a structured loss, which penalizes the joint configuration of the output. Pix2Pix has good performance on many image translation tasks, but its ability in generating high-resolution images is suboptimal. Wang et al. improved upon Pix2Pix by proposing a new image translation framework for synthesizing high-resolution photo-realistic images from semantic label maps using conditional GANs in 2018. Compared to Pix2Pix, this method has two main improvements: image translation at 2048 × 1024 resolution and semantic editing of images. To generate high-resolution images, their method uses a coarse-to-fine generator, which is composed of a local enhancer for fine high-resolution image conversion and a global generator for coarse low-resolution image conversion respectively, a multi-scale discriminator architecture, and a robust adversarial learning objective function.

Additionally, it adds a low-dimensional feature channel to the input, which allows for the generation of diverse results images based on the same input label map. Zhu et al. proposed the BicycleGAN model combining both the conditional Variational Autoencoder GAN approach and the conditional Latent Regressor GAN approach, based on Pix2Pix in 2017[15] . BicycleGAN is a technique for multi-modal image translation that accomplishes not just the primary objective of mapping the input, together with the latent code to the output, but also concurrently learns an encoder that maps the output back to the latent space. The bijection between the output and the latent space prevents multiple distinct latent codes from producing the same output, also known as non-injective mapping. BicycleGAN allows the generator to model a distribution of high-dimensional output given different encoders, producing diverse and realistic results while remaining faithful to the input.

To accurately transform specific objects among different modalities is the main challenge of cross-modal image translation. Most cross-modal image translation methods require paired data as the input, and due to the scarcity of the paired data, the translated images are often suboptimal or suffer from mode collapse, where the output only represents a limited number of real samples, etc. Therefore, how to achieve high-quality cross-modal image translation with a small amount of paired data is a valuable direction for research.

3.4. The application of cross-modal deep learning

AI is increasingly being studied in metastatic skeletal oncology imaging, and deep learning has been assessed for tasks such as detection, classification, segmentation, and prognosis. Zhao et al. developed a deep neural network-based model to detect bone metastasis on whole-body bone scan (WBS), irrespective of the primary malignancy[16 . Compared to experienced nuclear medicine physicians, the deep learning model not only had a time savings of 99.88% for the same workload, but it also had better diagnostic performance, with improved accuracy and sensitivity. To overcome the constraint of the time-consuming effort required for precise labeling of large datasets, Han et al. proposed a 2D CNN classifier-tandem architecture named GLUE, which integrates whole body and local patches for WBS of prostate cancer patients[17 . The 2D-CNN modeling is the best fit for planar nuclear medicine scans, provided there is a massive amount of training data available. The GLUE model had significantly higher AUCs than a whole-body-based 2D CNN model when the labeled dataset used for training was limited. Noguchi et al. developed a deep learning-based algorithm, with high lesion-based sensitivity and low false positives, to detect bone metastases in CT scans[18 . An observer study was also done to evaluate its clinical efficacy, which showed improved radiologists’ performance when aided by the model, with higher sensitivity, by both lesion-based and case-based analyses, in less amount of interpretation time. Fan et al. used AdaBoost and Chan-Vese algorithms to detect and segment sites of spinal metastasis of lung cancer on MRI images[19 . Chan-Vese algorithm had the best performance. The accuracy of the segmentation, expressed in terms of DSC and Jaccard coefficient scores, were 0.8591 and 0.8002, respectively. Liu et al. built a deep learning model based on 3D U-Net algorithms for the automatic segmentation of pelvic bone and sites of prostate cancer metastases on MRI-DWI and T1-weighted MRI images[20 . The model was found to work best on patients with few metastases, boosting the use of CNN as an aid in M-staging in clinical practice. Multiple deep classifiers were developed by Lin et al. to automatically detect metastases in 251 thoracic SPECT bone images[21 . The performance of the classifiers was found to be excellent, with an AUC of 0.98. Moreau et al. compared different deep learning approaches to segment bones and metastatic lesions in PET/CT images of breast cancer patients[22]. The results indicated that the U-NetBL-based approach for bone segmentation outperformed traditional methods, with a mean DSC of 0.94 ± 0.03, whereas the traditional methods struggled to distinguish metabolically active organs from the bone draft.

Compared to the aforementioned deep learning examples, the more avant-garde cross-modal image fusion and translation techniques have not been widely investigated in bone metastasis imaging. Xu et al. adopted two different convolutional neural networks for lesion segmentation and detection and combined the spatial feature representations extracted from the two different modalities of PET and CT[23] . Their cross-modal method completed the three-dimensional detection of multiple myeloma, outperforming traditional machine learning methods. The research conducted by Wang et al. revealed that texture features extracted from multiparametric prostate MRI before intervention, when combined with clinicopathological risks such as free PSA level, Gleason score, and age, could effectively predict bone metastasis in patients with prostate cancer[24] . The outcome of this study can be seen as a proof of concept for the significance of cross-modal data.

Even though cross-modal investigations regarding the sites of bone metastases are limited by now, there has been plenty of evidence proving the utility of cross-modal fusion in oncological imaging. These applications and trains of thought can be well extrapolated to the field of osseous metastasis imaging. Cross-modal fusion can be applied to tasks such as tumor detection, segmentation, and classification to improve model the performance of deep learning models. Cross-modal image translation can be used for data augmentation to facilitate various downstream tasks.

Cross-modal fusion methods are often employed to enrich the models with cross-modal image features, thus improving the performance of tumor detection. Further, convolutional neural networks are used to capture the relationships between adjacent pixels and extract effective features from the image in deep learning-based cross-modal tumor detection algorithms. In 2021, Huang et al. proposed a ResNet network-based framework, AW3M, that used ultrasonography of four different modalities jointly to diagnose breast cancer[25]. By combining the cross-modal data, the AW3M based upon multi-stream CNN equipped with self-supervised consistency loss was utilized to extract both modality-specific and modality-invariant features, with improved diagnostic performance.

As for tumor segmentation, many researchers hinge on either the four types of MRI image modalities or the two modalities of PET/CT encompassing anatomical and metabolic information to perform cross-modal fusion and improve segmentation performance. For instance, Ma et al. explored CNN-based cross-modal approaches for automated nasopharyngeal carcinoma segmentation[26]. Their proposed multi-modality CNN utilizes CT and MRI to jointly learn a cross-modal similarity metric and fuse complementary features at the output layer to segment paired CT-MR images, demonstrating exceptional performance. Additionally, the study combines the features extracted from each modality’s single-modality CNN and multi-modality CNN to create a combined CNN that capitalizes on the unique characteristics of each modality, thereby improving segmentation performance. Fu et al. introduced a deep learning-based framework for multimodal PET-CT segmentation that leverages PET’s high tumor sensitivity in 2021[27 . Their approach utilized a multimodal spatial attention module to highlight tumor regions and suppress normal regions with physiologic high uptake from PET input. The spatial attention maps generated by the PET-based module were then used to target a U-Net backbone for the segmentation of areas with higher tumor likelihood at different stages from CT images. Results showed that their method surpasses the state-of-the-art lung tumor segmentation approach by 7.6% in the Dice similarity coefficient.

As the diagnostic procedure often requires the integration of multi-modal information, such as chief complaints, physical examinations, medical histories, laboratory tests, and radiology, cross-modal fusion methods are also commonly utilized in disease classification tasks. Cross-modal fusion synthesizes data from different modalities to enrich effective feature representations, enabling deep learning models to extract useful information from different modalities to aid in diagnosis. Zhang et al. proposed a technique for prostate cancer diagnosis using a multi-modal combination of B-mode ultrasonography and sonoelastography[28] . Quantitative features such as intensity statistics, regional percentile features, and texture features were extracted from both modalities, and an integrated deep network was proposed to learn and fuse these multimodal ultrasound imaging features. The final step of disease classification was completed by a support vector machine.

Due to the relative scarcity of medical images, cross-modal image translation is often used to synthesize part of the data in the training set as a data augmentation method for a better-performing deep learning model with a small sample size. Since integrated data from different modalities often exhibit better performance in deep learning models, the multi-modal image data input generated by cross-modal image translation methods can be directly used as targets for tumor detection. A two-step approach for semi-supervised tumor segmentation using MRI and CT images was proposed by Jiang et al[29 . The first step is a tumor-aware unsupervised cross-modal adaptation using a target-specific loss to preserve tumors on synthesized MRIs from CT images. The second step involves training a U-Net model with synthesized and limited original MRIs using semi-supervised learning. Semi-supervised learning is used to boost the accuracy (80%) of tumor segmentation by combining labeled pre-treatment MRI scans with synthesized MRIs, while training with synthesized MRIs had an accuracy of 74%. The proposed approach demonstrated the effectiveness of tumor-aware adversarial cross-modal translation for accurate cancer segmentation from limited imaging data.

In general, there have been bounties of research supporting the application of deep learning in bone metastasis imaging, but the specific application of cross-modal fusion methods is still lacking. Whereas, clinical evaluations regarding bone metastasis often require multi-modal data, such as a chief complaint of lower back pain, a past medical history of pathological fractures, a positive genetic test for specific mutations indicating a higher risk of bone metastasis, or increased blood calcium and alkaline phosphatase concentrations in laboratory reports, etc. Therefore, evaluating osseous lesions with multi-modal data can improve the specificity of diagnosis and reduce the false positive rates in the diagnostic and treatment process. The application of cross-modal deep learning methods in the field of bone metastasis imaging and diagnosis is worth further exploration.

3.5. conclusion

The above review covers the definition and basic principles of deep learning and cross-modal image generation and fusion methods, briefly describes some common cross-modal deep learning algorithms, and summarizes bits of current research on the application of deep learning models in medical imaging, especially bone metastasis imaging. Compared to traditional deep learning models fed with data input of a single modality, multi-modal methods are more recent, with a limited number of relevant research. Given the increasing prevalence of cancer screening and the significant surge in patient-specific clinical data, including radiographs and laboratory tests, it is reasonable to anticipate an unparalleled demand for advanced, intelligent cross-modal deep learning methods in the future. Nevertheless, the use of AI in medical imaging analysis faces various challenges and limitations. These include the need for extensive and diverse datasets for training and validation, the potential for bias and overfitting, as well as the inherent black-box nature of deep learning algorithms[30 . Even though the demand for a large training set reiterates the merit of cross-modal deep learning, which enables the automatic generation of sample images through cross-modal image translation, the size of the training set still has a profound impact on the performance of algorithms. In parallel, the demand for “explainability” has led to the notion of “interpretable machine learning”, utilizing heat maps and metrics to track the focus of deep neural networks[31] . Overall, there is still much to be investigated regarding the application of cross-modal deep learning in the field of medical imaging.

In summary, the project should be founded on the application of cross-modal deep learning techniques to offer practical solutions for challenges encountered in the clinical setting.

参考文献

[1] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J] . Gastroenterology, 2023, 164(2): 191-193.
[2] Aswathi R R, Jency J, Ramakrishnan B, et al. Classification Based Neural Network Perceptron Modelling with Continuous and Sequential data[J] . Microprocessors and Microsystems, 2022: 104601.
[3] Gardner M W, Dorling S R. Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences[J] . Atmospheric environment, 1998, 32(14-15): 2627-2636.
[4] Glorot X, Bordes A, Bengio Y. Deep Sparse Rectifier Neural Networks[J] . Journal of Machine Learning Research, 2011, 15: 315-323.
[5] Bottou L, Bousquet O. The tradeoffs of large scale learning[J] . Advances in Neural Information Processing Systems, 2007, 20: 1-8.
[6] Dauphin, Y. et al. Identifying and attacking the saddle point problem in high-dimensional non-convex optimization[J] . Advances in neural information processing systems, 2014, 27: 2933–2941.
[7] Hubel D H, Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex[J] . Journal of Physiology, 1962, 160(1): 106-154.
[8] Cadieu C F, Hong H, Yamins D, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition[J] . Plos Computational Biology, 2014, 10(12): e1003963.
[9] Nefian A V, Liang L, Pi X, et al. Dynamic bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[10] Snoek C G M, Worring M, Smeulders A W M. Early versus late fusion in semantic video analysis[C] . Proceedings of the 13th annual ACM international conference on Multimedia, 2005: 399-402.
[11] Wu Z, Cai L, Meng H. Multi-level fusion of audio and visual features for speaker identification[C] . International Conference on Biometrics Springer, Berlin, Heidelberg, 2005: 493-499.
[12] Nefian A V, Liang L, Pi X, et al. Dynamic Bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[13] Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[J] . Advances in neural information processing systems, 2014, 27: 568–576.
[14] Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C] . Proceedings of the IEEE conference on computer vision and pattern recognition, 2017: 1125-1134.
[15] Zhu J Y, Zhang R, Pathak D, et al. Toward multimodal image-to-image translation[J]. Advances in neural information processing systems, 2017, 30: 465–476.
[16] Zhao Z, Pi Y, Jiang L, Xiang Y, Wei J, Yang P, et al. Deep neural network based artificial intelligence assisted diagnosis of bone scintigraphy for cancer bone metastasis[J] . Scientific Reports, 2020, 10(1): 17046.
[17] Han S, Oh J S, Lee J J. Diagnostic performance of deep learning models for detecting bone metastasis on whole-body bone scan in prostate cancer[J] . European journal of nuclear medicine and molecular imaging, 2021, 49(2): 1-11.
[18] Noguchi S, Nishio M, Sakamoto R, Yakami M, Fujimoto K, Emoto Y, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J] . European Radiology, 2022, 32(11): 7976-7987.
[19] Fan X, Zhang X, Zhang Z, Jiang Y. Deep learning on MRI images for diagnosis of lung cancer spinal bone metastasis[J] . Contrast Media & Molecular Imaging, 2021, 2021(1): 1-9.
[20] Liu X, Han C, Cui Y, Xie T, Zhang X, Wang X. Detection and segmentation of pelvic bones metastases in MRI images for patients with prostate cancer based on deep learning[J] . Frontiers in Oncology, 2021, 11: 773299.
[21] Lin Q, Li T, Cao C, Cao Y, Man Z, Wang H. Deep learning based automated diagnosis of bone metastases with SPECT thoracic bone images[J] . Scientific Reports, 2021, 11(1): 4223.
[22] Moreau N, Rousseau C, Fourcade C, Santini G, Ferrer L, Lacombe M, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[J] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society, 2020: 1532-1535.
[23] Xu L, Tetteh G, Lipkova J, et al. Automated whole-body bone lesion detection for multiple myeloma on 68Ga-pentixafor PET/CT imaging using deep learning methods[J] . Contrast media & molecular imaging, 2018, 2018: 2391925.
[24] Wang Y, Yu B, Zhong F, Guo Q, Li K, Hou Y, et al. MRI-based texture analysis of the primary tumor for pre-treatment prediction of bone metastases in prostate cancer[J] . Magnetic Resonance Imaging, 2019, 60: 76-84.
[25] Huang R, Lin Z, Dou H, et al. AW3M: An auto-weighting and recovery framework for breast cancer diagnosis using multi-modal ultrasound[J] . Medical Image Analysis, 2021, 72: 102137.
[26] Ma Z, Zhou S, Wu X, et al. Nasopharyngeal carcinoma segmentation based on enhanced convolutional neural networks using multi-modal metric learning[J] . Physics in Medicine & Biology, 2019, 64(2): 025005.
[27] Fu X, Bi L, Kumar A, et al. Multimodal spatial attention module for targeting multimodal PET-CT lung tumor segmentation[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 25(9): 3507-3516.
[28] Zhang Q, Xiong J, Cai Y, et al. Multimodal feature learning and fusion on B-mode ultrasonography and sonoelastography using point-wise gated deep networks for prostate cancer diagnosis[J] . Biomedical Engineering/Biomedizinische Technik, 2020, 65(1): 87-98.
[29] Jiang J, Hu Y C, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C] . International conference on medical image computing and computer-assisted intervention. Springer, Cham, 2018: 777-785.
[30] Castelvecchi D. Can we open the black box of AI?[J] . Nature, 2016, 538(7623): 20.
[31] Kuang C. Can A.I. Be Taught to Explain Itself?[J] . The New York Times, 2017, 21.

致谢

首先,感谢我的导师,邱贵兴院士,涓涓师恩,铭记于心。感谢吴南师兄,知遇之恩无以报。感谢吴东老师,三生有幸,得您伴我一程风雪。也感谢所有参与此项目的科研合作伙伴和课题组的师兄师弟们,你们的帮助让这项研究得以顺利进行。

感谢在协和遇到的所有老师们,学生朽木,希望未来也能如你们一样,不负一袭白衣。

最后,要感谢我的家人。Wherever I go, this family is my fortress.

这路遥马急的人间,你我平安喜乐就好。

毕导|董小姐,29页论文拿下协和医学博士

3 May 2025 at 22:34

最近沸沸扬扬的中日友好医院肖医生和董小姐事件,大家都了解吗?

起因是中日友好医院肖飞的妻子递交了一封举报信,里面详列了肖飞婚后出轨多名女性、出轨规培医生董袭莹、帮董在医院违规操作、拉着董离开手术室扔下手术台上的病人40分钟等恶劣事件。

img

肖医生倒是手术室冲冠一怒为红颜了,我要是在场护士和麻醉台上的病人,是真得麻了……这种人也能配叫医生吗??这是人干的事吗??

随后大家顺着这名出轨对象董袭莹开挖,发现更惊人的内幕都在她这啊!

img

网上舆论已经从普通的出轨讨论,变成对教育公平甚至医生轻视患者生命安全的质疑,事情非常错综复杂,我深扒了一下董医生的学术之路,这就给大家梳理下!

1、董医生的速通学医路

在协和官方通稿中,董小姐是作为优秀案例出现的。哥大经济学本科、4+4医学试点班、毕业成为协和医学博士,名校海归+协和博士光环拉满!但深挖一下发现根本经不起深挖啊!

img

董袭莹的本科是哥伦比亚大学巴纳德学院经济学专业。哥大确实是世界顶级名校,巴纳德学院也是哥大旗下的学院。网上有说这是三本野鸡学院,但我查了下它在全美211所文理学院的排名第14名,其实也不错的。但招生门槛确实低于哥大主校,不能以哥概全。

img

其次是让学经济的董小姐、变成医学博士的4+4医学试点班。

这个是协和推出的改革试点班,针对本科不是医学专业的同学,经过录取后你学4年医,出来就是协和医学博士了。这个制度是为了将多学科基因融入医学界。不过看介绍大学也得对生物、化学有学科基础,不知道董小姐学经济时有没有学到。

img

招生条件我从截图了官网,大家可以自行对比你能不能上。

img

这里还有一个疑惑,董小姐是2019年入学协和4+4,我去翻了下2019年的U.S. News文理学院排名,巴纳德学院仅排名25?可能每年的入学要求也各不相同吧。

img

关键董医生学得咋样呢?她2019年到2023年在协和经历了4年医学博士培训,普通医学生动辄8年或者5+3+4共计12年的学医路,她4年就走完了,还包括疫情时期,不知道她学医上不上网课。

而神奇的是,她的博士论文开篇写的是妇科影像相关 

img

博士论文的指导导师是骨科大拿

img

学位是内科博士

img

还是膀胱癌临床实践指南的一作

img

此外根据前面爆料,她现职为泌尿外科住院医师。真是一位跨学科领域的复合型人才啊!而这一切的成就,她只用了4年时间,这才是真正的天降神童吧,华佗扁鹊加在一起都不如她。

2、董医生的学术成果一览

深挖董医生的学术成果,也是叹为观止。我找到了董医生的博士毕业论文,细看了一下我都快崩溃了。

CDT 档案卡
标题:毕导|董小姐,29页论文拿下协和医学博士
作者:毕导
发表日期:2025.5.3
来源:微信公众号“毕导”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

整个博士论文一共就三章啊?我本科论文都比这个长!一般博士论文第一章绪论,二三四五章是具体工作,第六章是结论与展望。董博士只用三章,加上开头致谢独创性声明使用授权书一共61页就搞定了?!

img

再细看,她先用12页讲完了宫颈癌检测成果,再用17页讲完了乳腺癌的骨转移成果,其实她的博士论文部分到这29页就完结了!后面就是参考文献了!

后面那个16页的第三章,是一个英文综述,并不是她的科研成果。我不太了解医学领域,是医学博士论文固定就有这么个环节,还是说不加这个综述的话论文打印出来的厚度不足以在书脊上写题目?

我看着我那139页的博士论文嘴都气歪了。

img

而这篇她以第一作者身份发表了《Clinical practice guideline on bladder cancer 》也很有趣。董袭莹作为一个2023年5月才毕业的学生,在同年的五月,居然就成为了这篇膀胱癌临床实践指南的一作。对董小姐来说,真是一个丰收的五月啊!

img

凡是写过论文的,都明白一作在众多作者中的份量!那董具体做了什么呢?作者贡献部分写的是,董承担了翻译工作,甚至她的翻译还不是独立完成的,后面还跟着俩人…

img

这就名列一作了?好家伙所有翻译软件AI工具都有资格给一作了吧?这种拿一作方式我只敢在做科研狗美梦时畅想过…

看到这,一个在美四年经济学学成归来,四年速成顶级医学博士研究成果遍布妇科骨科内科膀胱癌的天才医学生形象,已然立住。

img

3、董医生的超强医院特权

毕业后,董医生又在医院享受超强特权。根据举报内容,她本来应该从胸外科转到脊柱外科,但不想转。于是肖飞医生和骨科教秘打招呼,被拒。她又通过个人关系,联系了两位主任达到目的。这背景和实力,令人叹为观止!

img

值得一提的是,这位和肖飞大吵的麻大夫还是盘尼西林的乐队成员。白天行医对抗业内黑幕,晚上还能玩乐队,好强!

img

在手术台上,董因为和护士起争执,肖飞直接带着董离开手术台40分钟,还好有一名格格巫护士不卑不亢,据理力争!很刚很顶!

img

这位肖飞医生,是不是把自己带入什么医学霸总了啊?综合看来,把病人晾在手术台、多次出轨、帮董进行违规操作、还想抢原配房子抚养权…这人真是集所有渣于一体,医德和个人道德都极其低劣的水平。

董医生的“注水”学医之路,令人触目惊心。如果专业能力不足者竟能一路绿灯,跻身国内顶级医院的手术台,这不仅是对寒窗苦读数十载的医学生的羞辱,是对熬夜加班、连口热饭都吃不上的规培生的践踏,更是对无数在科研与临床中挣扎求生的博士生群体的不公。

而最不可容忍的是——这是对患者生命的极端漠视。

希望关于整件事能有更加明确的调查结果,别让讨论止步于讨论。

别让讨论止步于讨论

六神磊磊读金庸|肖飞居然还让大家向董小姐学习

1 May 2025 at 21:55

file

事件本身已经不用多说了,都吃瓜多少轮了。

有一处很小的细节,最让人感觉不是滋味。

就是董小姐非要取消轮转,肖飞在工作群里怼麻医生,说了这样一番话:

“如果(你们的医生)因为工作量的轻微增加就闹情绪,建议他们和胸外科教学秘书联系,帮助他们向董大夫学习,更好理解规培住院医生应该具备的使命感和责任心。”

董袭莹小姐不肯去脊柱外科轮转,各种托关系、打电话,要留在肖医生的胸外科。

脊柱外科的麻昊宁医生十分火大,公然和肖飞开撕,并直言:这种特权行为,增加了同学们的工作量,导致不公平,大家意见很大。

原话就说的是“特权”。

结果是麻医生阻击失败,董小姐摇来大佬打招呼,让脊柱外科不得不低头,自己不用轮转了。

文章开头这番话,就是肖飞在群里撂下的一句胜利宣言:如果你们有意见,建议来向我们董大夫学习。

等于是贴脸开大。

file

CDT 档案卡
标题:肖飞居然还让大家向董小姐学习
作者:帅呆的sixgod
发表日期:2025.5.1
来源:微信公众号“六神磊磊读金庸”
主题归类:董袭莹
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这句话,是相当膈应人的。任何人但凡有一点基本的同理心,大概都会被这句话灼伤。

见字如见人,从中看得出此人个性确实比较骄狂,也的确是做得出手术室发飙,还解开女朋友助手的工作服,扔下病人扬长而去的事。

且来品味一下这句话,它妙就妙在,群里一百多人,以及所有的围观同事,都知道这是谎言和狂言,半个字都没人信。

就那么大个单位,谁不明白肖董二人的关系,谁又不明白这次拒绝轮岗是咋回事?

但肖飞偏就能怼得理直气壮,扯淡得义正辞严;偏就能毫无顾忌,公然说董大夫最棒、最优秀,还要你们学习她的“使命感和责任心”。

估计当时所有围观的医护都被上了一课:最牛逼的不是说谎,而是能够把谎话公然说得和真理一样。

最张狂的不是后台操作,而是操作完了还特意摆上前台让你吃下去。

我把这段话看了好多遍,字缝里歪歪斜斜只看出来一句:你服不服?就问麻医生你服不服?

过去,在你我这种土鳖的肤浅认知里,规矩不该是这样的。

总觉得倘若是既得利益者,通常应当低调一点,闷声发财最好。

占了便宜了,就多少顾及一下旁人的感受,这本该是走后门的基本道德。

人家科室都认栽了,何必还当众贴脸开大?你俩睡都睡了,何必非大群里示爱?要办的事明明都已办成了,何必不依不饶补刀拉仇恨?

却不知社会已经进化到另一个层面了。所谓低调、避嫌、闷声发财,原来都已经是穷人思维和底层认知了。

在肖飞他们的认知里,已经没有低调这一说,只有胜利之后的纵情宣泄和对失败者的当场折辱。

都说“得理不饶人”,但他们已经是不得理还不饶人。

都说“赢者通吃”,但这些赢者不但要通吃,还会公然让你向她学习。

活该你阻击失败,活该你社会资源不如,那么就往死里按你的头,问你服不服。

这让人想到武侠小说里很多桥段:

“如果小杨过你因为挨打次数的稍微增加就闹情绪,建议你和全真派的教学秘书联系,帮助你向赵志敬老师学习,更好理解修真行业的忍耐力和牺牲精神。”

“如果金翠莲你因为卖唱工作量的轻微增加就闹情绪,建议你和状元桥肉铺的教学秘书联系,帮助你向郑大官人学习,更好理解服务行业应该具备的使命感和责任心。”

只能说,这个世界上,存在着完全不同的两种人格,已经到了无法互相理解的地步。

一种“不争气型老实人格”是,一切以不冒犯别人、不产生冲突对立为宗旨。

哪怕只是得到自己份内应当的东西,也总觉得欠了别人的,心虚忐忑;偶尔被公平对待几次,都受宠若惊;正常地评了个职称、得了个先进,都莫名其妙地心下惴惴,忍不住在单位里溜墙根半月,唯恐被误会为张扬跋扈,伤害了旁人的感情。

这就是屌丝为什么终究是屌丝。

相比之下,肖飞这种完全是另一种人格,为了一点便宜,不惮于任何冲突和对立,哪怕赢了还要贴脸开大。

不止一个肖飞,整个故事里许多人都是如此。

譬如董小姐,以她的人生职业规划,几项关键目的都达到了。那就低调一点,混在别的老实孩子里暗度陈仓就完了呗。

可人家偏不,还要当明星学员;还要上媒体露脸,登大头照片。

里子也要面子也要,实的也要虚的也要,岗位也要流量也要,既要又要还要。

再者,博士已经拿到了,规培三年,坚持一下有什么挺不过去?轮岗一下怎么就熬不得?

可人家偏不,非要例外之上创造例外,不可能里再造不可能。

顶级大咖的关系,别人即便有,动用时都慎之又慎。换了那些穷孩子历练少的,别说求大佬办事了,连打个正常工作电话都紧张得不行,事先要做无数心理建设。可董小姐非要挑战规则,动用大咖,只为了一个屁大的“不轮转”。

达到目的之后,和肖医生还要不依不饶,群里发飙,去碾压那些捍卫原则的人,对人公开处刑。

特权的版本,如今已经升级了。

光是使用特权本身已没有快感了,只有揉捏、折辱不识相的阻挠者,“建议你们向董大夫学习”,才有足够的快感。

普通人其实已经很接受现实了,早都默认了“资源咖”“关系咖”的存在,默认了无处不在的裙带。

他们只是希望你们的吃相好看一点。

但在肖飞这些人看来,吃相好看,那还不如不吃。

看到一句话挺有意思:强者从不抱怨环境,因为环境就是他们搞坏的。

【404文库】阜成门六号院|董小姐算是京城婆罗门权贵出身吗?

1 May 2025 at 20:01

image

现在自媒体都说董小姐出生于京城婆罗门或权贵家庭,昨天笔者发朋友圈提出质疑,引发很多朋友的兴趣和讨论。其实董小姐家庭在北京不过是上中产,她的丝滑人生,不是靠特权,她这级别家庭没有什么特权,而是靠“人生自我努力”、精明钻营,以及没有道德羞耻感。

无独有偶,今天饶毅教授也在《请勿错怪协和王辰教授》一文中提到:“舆论认为某学生父母是权贵,我专门反问一位转这种新闻的官员,你认为她母亲在北京算官员吗,他回答‘不算’。所以,大家可以质疑有些问题,但说某生母亲是官员,她恐怕哭笑不得”。

可见饶先生也是这个观点,读者们但凡是了解京城社会生态的话,都不会同意董家属于婆罗门、权贵的说法的。为什么这么讲呢?

我们先看网络上梳理的董小姐父母及其亲戚的职称头衔,当然网络搜罗出来的信息也不可能完全准,但是最关键的其父母信息是准确的。董父为为中冶建筑研究总院有限公司副书记、总经理,而中冶建研院是五矿下的二级企业,央企下面二级公司的二把手一般是副局(厅)级或正处级,当然因为中冶建研院资格比较老,可能是局级。董母为北科大某学院副院长,比较确定的副处级。

其实这种家庭,在北京的朋友圈中算是标配,他们属于65后、75前的一代,但凡毕业于一个985级别的高校,工作比较勤奋、为人不至于太死板的情况下,都是比较容易达到这级别。这样的家庭在北京至少有数万个,确定说是一个上中产或高知家庭,如果非要说贵,那顶多是富贵,而不能是权贵。

CDT 档案卡
标题:董小姐算是京城婆罗门权贵出身吗?
作者:BJ王明远
发表日期:2025.5.1
来源:微信公众号“阜成门六号院”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这种局级家庭——大红旗轿车、门岗警卫这种最简单的上层身份标志,都与他们无缘。更不会享有职务外的特权,如果他们有些关系,也是利用手头资源,托关系走后门勾兑的,而非是不怒自威,人家处处巴结他们,主动给他们办好的。

前几天跟一些朋友聊天也谈到这个话题:北京(乃至全国)的官员群体远非大家想象中的那么神秘、无所不能。随着社会的开化进步,以及中央反腐力度逐渐加大,最起码到副部级、部级这个层面,除了少数很有职业特长,还能用知识发挥社会影响力的之外,他们如果退休后,影响力会迅速减弱,也不过是拿退休金的老干部,本身并无太多特殊待遇。甚至副部级连配的专车都没有了,他们也可能像你我这样在用滴滴打车,最起码局级层面出门打车很普遍。

如果董家真的是权贵,那么董小姐在2019年大学毕业后,不会拐弯抹角再去读四年医学,不管她是真读,还是假读,毕竟还需要四年的时间成本。那时候正好是金融业最风光的时候,董小姐读的又是经济学,董家如果有关系那么完全可以安排到最好的国有金融机构拿高薪,而不必再搞这么漫长的“曲线救国”。

笔者猜测正好是董父母资源有限,所以利用其祖父(协和校友、曾任某顶尖医院影像科主任)的残存关系,把孩子送进协和4+4试点班试一试,家人好把她扶上马、再送一程。董小姐的博士论文为影像方面的,并且有院士指导,正好验证了笔者上述猜测,很可能是她爷爷找了院士老同学给指导的,课题就是咱家最熟悉的领域,孙女不会爷爷可以帮。

所以,笔者认为,在董小姐的整个事件中,她祖父才是最关键,决定她的医学求学道路和职业道路的人物(如果网络披露的她祖父名字属实的话),而不是她父母,或者她的外祖父以及七大姑八大姨。

综上,董小姐一事不能用权贵模式来解释,更确切是用知识阶层堕落或精英自甘腐败来解释,董被爆料的行为,处处显示出这个家庭的精致利己主义,或极其善于经营:

1.从医的人最起码讲医德,引导自己孙女读医学博士是可以,无可厚非,但是给自己孙女辅导博士论文,又把孩子安排到肿瘤医院这种人命关天地方的一线医务岗是怎么回事?这不是害孩子,更是以后祸害患者吗?

2.董的成长路是被家长精心设计的,从规避高考到美国就读社区大学,然后转学到巴纳德学院,成功获得哥大的名分,再到协和博士班,显示出这个家庭善于利用便捷通道,让孩子获得成功。

并且董家一直善于利用媒体,她上小学时,就登上北京市属媒体;进入协和以及实习后,又找央媒的外围媒体给予曝光,可能家长觉得知名度越高,意味着孩子越成功。

3.董小姐的行为也表明,她是一个很聪明的人,但是又是被溺爱长大的,被家庭灌输追求极致成功,而缺乏道德底线的。比如她与有妇之夫搞婚外恋,还堕胎;再比如,她在2022 年到 2024 年期间,一共发表11篇高水平论文,从骨科到妇科,从放射科到泌尿科,从高分子物理,到化学到生物医学,跨度之大令人咋舌。

这样复杂的高难度学术研究,即使华佗转世也不太可能完成,何况对于一个从经济学转到医学的0基础新手。她的这些运作背后,可以清晰看到家庭给她的穿针引线,以及家庭行事给她的影响。

因此,董家行为分明就是一个中等家庭善于钻营的典型,董的成长更像是一个虎妈鸡娃,在京城有限资源的高度竞争中,拼命在维护社会地位不下降,甚至是有所上升的过程。这本质是一种平民的逻辑,而不是权贵家庭的逻辑,如果真是上层,会害怕高曝光,唯恐别人知道自己在干什么,就像有钱人怕人知道自己有钱,只有没钱人才爱好炫耀以及拼命赚些钱。

另外,这两天大家为了证明董小姐不学无术,都说巴纳德学院相当于国内三本,约等于南京大学金陵学院这一类,是一个水校,这一点笔者是不同意的。董小姐起初就读于哪个社区大学,怎么转学进来的,我们还不清楚,但是巴纳德是美国老牌文理学院,绝非平庸之辈。

巴纳德学院是“七姊妹”成员之一,这七所学校均建于1850年前后,初期是女子学院,所以人称“七姊妹”。“七姊妹”中在中国最有名卫斯理学院,宋美龄和冰心都毕业于这里;巴纳德学院创建于1889年,地理上紧贴哥大,或许因为它发生了财务困难,1900年起隶属于哥伦比亚大学,但仍保有独立的董事会与财政机构。

所以,巴纳德学院虽然比不上哥大本科金贵,但是本身教学质量也不差,毕竟它在全球的中心纽约,会有一流师资,就像北京最普通的本科学校——北京联合大学,教师里面清华北大博士生占比,可能超过地方一本院校。中国学生申请巴纳德学院的难度,笔者认为应该跟参加高考考取的211难度差不多,不是说花钱就能进入的水校。当然,董小姐通过社区大学转入,其中难度可能又降了很多。

以上分析,也并非为董小姐洗白,笔者对董小姐事件的态度,可见昨天发的文章,只不过是指出最近舆论上的一些误区,让我们更避免情绪化、更尊重事实去讨论这个社会事件。

最后祝大家假日愉快!并附一张图,供大家一乐,这可谓中国三甲名医院的真实写照。

file

基本常识|赵基淮同学你别怕,董家人手再黑也遮不了天!

1 May 2025 at 18:06

file
头图由豆包生成,提示词:女医生抢论文

今天看到媒体报道,董小姐的博士毕业论文与北京科技大学一名残疾学生的专利文章高度雷同,气得我真是拍案而起,瞬间就起了行侠仗义的念头。

这要是真的,就欺人太甚,太丧心病狂了!

image

首先声明,根据现有的证据分析,还不能完全断定断定董小姐论文属于抄袭或抢了他人的研究成果。但是,这里的巧合也太多了,多到让人不得不相信的程度。

巧合一:相同的选题

身在协和医学院临床医学专业读博的董小姐与北京科技大学计算机专业读研的赵基淮同学,居然精准选中了同一个课题的同一个切入角度。

这是董小姐的毕业论文《跨模态图像融合技术在医疗影像分析中的研究》,发表于2023年。

image

这是赵基淮同学申请的专利,一种跨模态生成和检测的方法及装置,用于医疗影像生成与处理,申请于2022年。

image

原本我还在想,董小姐也没有计算机背景啊,怎么毕业论文选了个医学与AI图像处理相关的交叉课题,这更像是计算机专业的技术选了个医学应用方向,而不是基于医学问题找了个AI的解决方案。

现在把这两个研究摆在一起,一切就很好解释了。

CDT 档案卡
标题:赵基淮同学你别怕,董家人手再黑也遮不了天!
作者:项栋梁
发表日期:2025.5.1
来源:微信公众号“基本常识”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

巧合二:论文中的配图

董小姐毕业论文中使用的图片,和赵基淮同学专利中使用的图片,不能说完全相同,只能说是一模一样。

image
董小姐论文配图

image
赵同学专利配图

此外还有多处文字论述几乎完全一致的对比,我就不一一举例了。论文查重与抄袭认定是学术委员会的事,但对我个人来说,已经足够做出判断了。

巧合三:董小姐的姑姑

赵同学的专利由4个人共同申请,其中3位是北京科技大学计算机学院的老师,只有他一个人是学生。稍有基本常识的人都知道,主要研究工作肯定是赵同学做的。

image

而这3位老师中的班晓娟,是赵同学的导师,她同时也是董小姐的姑姑。

巧合四:赵同学疑似被延迟毕业1年

赵基淮同学2020年考入北京科技大学计算机系读研,作为听力障碍人士,赵同学读研期间获得中国大学生自强之星等荣誉称号,参与多个重点项目,申请多项专利,绝对是品学兼优的好学生。

image

image

按照北京科技大学计算机专业硕士研究生的学制,2020年入学的赵基淮同学应该于2023年毕业,以他的实力,在本校本专业读个博士应该是顺理成章手到擒来的事。

然而,如此优秀的赵基淮,下一次出现在新闻里却成了2024级的博士研究生。

image

大概率,赵基淮同学被导师延迟毕业了一年!

这也是自董小姐事件发酵以来最令我愤怒的一个点,这太欺负人了,太丧尽天良了!

即便是杀人如麻的黑社会土匪也知道,不能欺辱老人、孩子、残疾人。董家人,如果还能称之为人的话,这么欺负一名品学兼优的残疾学生,连土匪都不如!

你要把自家孩子扶上马,镀上金,推荐去顶级医学院读个博士,大家也就忍了。

你家孩子不争气,你们有权有势给孩子花钱找个枪手把毕业论文给写好,大家咬咬牙也能忍了。

可你们,找一个品学兼优,身有残疾的研究生,把人家的研究成果抢走给自家孩子发毕业论文,完了还让残疾学生延迟毕业一年……

这特么是人能干出来的事吗?!!!

欺人太甚!

现在事情曝光出来,想必还在北京科技大学读博的赵同学会压力山大。

赵基淮同学,请你不要害怕,他董家势力再大也不能只手遮天。如果你遭受过不公正待遇,被迫参与了学术造假,希望你联系我或者媒体记者把实情公之于众。

如果你因此而遭受打击报复,无法继续在北京科技大学读博,我郑重承诺,可以个人捐赠人民币30万元帮助你到国外读博深造。还不够的话,我有充分把握可以通过公益途径帮你筹齐资金,资助你完成学业。

我能力有限,没有办法帮助你伸张正义,但我愿意做你坚强的后盾,我相信基本常识的读者也有很多人愿意支持你。

朗朗乾坤,不能让给这些魑魅魍魉!

南方周末|医院出轨门女主受质疑:警惕“4+4”医学教育沦为特别通道

30 April 2025 at 20:08

file

主管部门与相关医学院校有必要检讨其中可能存在的涉及教育公平、职业伦理与医疗安全的问题,进行必要的制度修补与完善工作,回应公众的疑问。4+4项目应该更加规范透明,或许可以由有更高公信力的第三方进行笔试,提高考试录取的公信力。

文|王兢

责任编辑|辛省志

近日,中日友好医院医生出轨事件连续几天热搜不退,即便在院方宣布处分决定后依然余波荡漾。公众更关心的议题,不是那点桃色绯闻,而是涉事医生的医德问题,以及更重要的教育公平、学术诚信等问题。

据媒体报道,涉事女规培医生董某莹的学历殊为“亮眼”。她本科毕业于美国哥伦比亚大学巴纳德学院经济学专业,2019年进入北京协和医学院“临床医学专业培养模式改革试点班”,即“4+4”试点班,2023年取得医学博士学位,之后进入中国医学科学院肿瘤医院工作,再进入中日友好医院进行规培学习。

董某莹的这份履历,引起外界诸多质疑。中国的医学教育,通常是5年制本科,3年制硕士,3-5年博士。也有高校实行5+3本硕连读、8年本博。但无论哪种培养路径,都要求学生在本科阶段就学习医学。

而“4+4”试点,则是从非医学专业的本科毕业生中选拔部分学生,通过4年医学教育,获得医学博士学位。北京协和医学院的官网显示,其“4+4临床医学试点班”始于2018年,起初生源限于国内几所顶尖高校,2019年起放宽至部分国外高校非医学毕业生。董某莹正是2019年通过这一项目进入协和医学院。

CDT 档案卡
标题:医院出轨门女主受质疑:警惕“4+4”医学教育沦为特别通道
作者:王兢
发表日期:2025.4.30
来源:微信公众号“南方周末”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

协和并不是国内第一家试点4+4医学教育的医学院,目的是“推动医学教育与多学科融合”“建设世界一流医学院”。这一做法也是参考了美国医学教育的做法。美国的医学院没有本科阶段教育,只从其他专业本科毕业生中招生,经过4年学习,获得“医学博士(Medicine Doctor)学位”。

国内的4+4医学教育,表面上学习了美国的做法,但录取难度不可同日而语。美国本科毕业生要考医学院,必须事先完成“医学先修课程”(pre-mad),通过号称“全美研究生入学最难最痛苦”的医学院入学考试(MCAT)。拿到MD学位后,还要经历一到三年的实习医生和住院医生阶段后,再通过美国医生执照考试(USMLS),才能最终成为医生。

而国内的4+4项目,虽然也要求在本科阶段生物学、化学、物理、数学等课程修够一定的学分,但是其招生中的笔试、面试等过程,都是由医学院校自行组织。另外,协和的招生简章显示,申请4+4项目需要2名医学相关学科的副教授以上人员的推荐信。不少网友认为,一个非医学专业的学生,如果没有深厚的人脉资源,要找两个医学专业的副教授写推荐信恐怕不容易,总不能挂个专家号让专家给写封推荐信吧?

说回到董某莹,她的经历还有很多疑点。比如,网传她被协和录取时是“内科学”专业,但学术论文数据库信息显示,博士论文内容与影像学相关。她还以第一作者的身份发表了一篇有关膀胱癌临床指南的论文,名列其后的,是一众泌尿外科的医学大佬。

毕业后,董某莹进入中国医学科学院(即协和医学院)肿瘤医院泌尿外科工作。内科、影像、外科间旋转自如,令人惊叹。这自然引起外界对董某莹学术水平与专业能力的质疑。而事件爆发之后,知网上已经搜不到董某莹的论文,这也进一步放大了外界的疑问:董某莹究竟真的是全能型人才还是“资源咖”?

如果说,真有本不具备学术水平与专业能力的人凭借“4+4”走捷径,那恐怕是对教育公平的践踏,也是对医生职业伦理的不尊重。而公众也担心,非医学专业的本科生,能否学好医学。协和医学院往年的4+4招生录取名单显示,有些学生本科学习的是外语、新媒体、经济学等专业,这些专业一般是不学习生物、物理、化学等课程的,他们的医学水平能和那些学习了8年甚至更长时间的同行一样吗?

4+4医学教育与传统的八年制教育到底孰优,或许还可以继续观察。但这一项目中潜在的教育公平问题已经成为公众普遍关心的焦点问题。事实上,这些天已有人从协和公布的历年4+4项目录取人员名单中寻找“蛛丝马迹”,各种传言满天飞,这所中国最顶级医学院的声誉已经严重受损。

主管部门与相关医学院校有必要检讨其中可能存在的涉及教育公平、职业伦理与医疗安全的问题,进行必要的制度修补与完善工作,回应公众的疑问,还给患者一个放心的手术台,捍卫医学共同体尤其是广大医学生对公平正义的信念。4+4项目即使继续执行下去,也应该更加规范透明。

黑噪音|在谈论“县城婆罗门”之前,您得先了解“京城婆罗门”

30 April 2025 at 19:40

file

几天前,一位董小姐告诉我们:海归很危险。

现在,另一位董小姐又现身说法:海归,确实很危险。

但海归危险倒不是因为间谍问题,而是因为海归里的镀金婆罗门,让普通人再次见识到了另一片天空——正如当年的故宫大G,我们不需要惊掉下巴,甚至不需要大跌眼镜。

婆罗门的日常,是普通人无法想象的世界,感谢上一位董小姐——至少她建议不录用海归,客观上能给普通人让开一条路。

事情细节,看官们想必已经吃瓜吃很多了,在此不表。

我看到一位土木工程出身的学生说,看完董小姐的履历,他觉得自己也可以做心脏搭桥手术——毕竟都是搭桥。

CDT 档案卡
标题:在谈论“县城婆罗门”之前,您得先了解“京城婆罗门”
作者:倪刃
发表日期:2025.4.30
来源:微信公众号“黑噪音”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

对于普通人来说,当你历经千辛万苦终于得到一个协和医院的手术机会,但你不知道手术室那位气质华贵的小姐姐,是哪路神仙。

有地位如此高贵的医学生给自己做手术,普通人还不得感恩戴德?

唯一的问题是,这位医学生只是在美国著名大学挂名的独立学院镀个金(而且是经济学),回国后靠着比正常标准短得多、简单得多的培养流程,就获得了拿手术刀的权利。

医学博士生正常培养流程应当是是“5+3+4”=12年,但董小姐学医第二年就拿起了协和医院的手术刀。

剩下唯一的问题就是,你敢不敢上这个手术台?

京城婆罗门最厉害的地方,不在于靠着父亲承接了协和的工程就能当上协和医生,而是在于——这地儿对人家来说也不过是换了个地方谈恋爱。

所以我说,普通人无法想象真正的婆罗门生活。

你以为的阶层金字塔尖,只是人家的生活边角料。

更何况,人家的医生男朋友还敢把病人晾在手术台40分钟。婆罗门的松弛感,不在于几十万一瓶的红酒,更不在于什么迈巴赫,而是在于工作与生活的自由切换。

普通人几辈子冒青烟才能挤进去的地方,只不过是人家散发松弛感的社交舞会。只不过,他们还需要穿着白大褂做做样子。

其实婆罗门一直存在,只不过县城婆罗门相比之下多了几分小地方的土味,而京城婆罗门处处都散发着骨子里的大气。

正如当年的大G,只是开车在故宫转一圈儿,随手发个朋友圈儿,潇洒只在不经意间,并不需要多么奢华。

不过,婆罗门也在进化。

在以前,商人后代还能嫁给权力场,但是我听说,现在的权力婆罗门已经越来越排斥富商。

官官联合,还是比官商联合要强。金钱只是权力的附属物,但权力本身可是金不换的稀缺物。

我提拔安置你的子女,你提拔安置我的子女,这种机制里面确实已经没有多少留给商人的空间。

同样地,留给好学生的空间也不多了。

以前我上学的时候,那是省重点,班里至少有一半人是本地的婆罗门子女,剩下的一半是自己考进来的。我是那个考进来的,但确实能感觉到没什么卵用,工作几年后返乡,当年那些婆罗门学生大部分都已经分布于体制内各个权力部门。

但那时候,留给普通人的通道还是比现在要多。

在这片土地,普通人能喝口汤的时代其实就已经是盛世。但现在,这个汤不是靠着小镇做题就能那么容易喝到了。

另外一个特征就是专业部门的婆罗门化,肖医生、董小姐事件即是如此。

在以前,普通人靠努力想要染指权力部门固然很难,但好歹能通过专业水平,抵达人生的天花板。所以医疗领域这类需要脑子的地方,是普通人能和婆罗门共舞的唯一渠道。

但现在,高级医院的医学生培养本身也已经婆罗门化,甚至可以说,他们设定的培养机制,就是为婆罗门量身定做的,是一种“萝卜机制”。

董小姐,她不是一个人。

普通人以为的上升通道,其实已经在蜕化为婆罗门的“包装流水线”。

这中间唯一需要担忧的,恐怕就是那些手术台上的病人。

从县城婆罗门到京城婆罗门,从董小姐到董小姐,普通人应当逐渐建立一种觉悟:停止想象。

当你停止想象,这一切就未曾发生。

(全文完)

大象新闻|桃色新闻扒出速成医女,董小姐的4+4能有多跨界

30 April 2025 at 19:30

file

今天(4月29日),“知网已搜不到董袭莹论文”话题冲上热搜第一。男医生肖飞被妻子实名举报“脚踩6只船”的医圈大瓜,炸向医疗教育界,火速把一个医学教育关键词——“4+4”也顶上了热搜。

file

桃色新闻扒出速成医女

肖飞妻子的实名举报信提到,肖飞婚内出轨的规培住院医师董袭莹,本该去脊柱外科轮转,为了维持不正当关系,肖飞去和骨科教学秘书麻昊宁打招呼,希望董袭莹继续留在胸外科工作一个月。被麻昊宁拒绝,肖飞和麻大夫就此事展开争吵。

更令人震惊的是,肖飞在手术中,抛下麻醉患者长达40分钟,去哄董袭莹。

这匪夷所思的操作曝光后,董袭莹的学历、家庭背景及“协和医学院4+4”培养模式引发热议。

file

file

CDT 档案卡
标题:桃色新闻扒出速成医女,董小姐的4+4能有多跨界
作者:大象新闻
发表日期:2025.4.30
来源:微信公众号“大象新闻”
主题归类:董袭莹
CDS收藏:人物馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

从实名举报信、网友检索公开信息梳理看,董袭莹的经历相当“魔幻”。

她本科在哥伦比亚大学巴纳德女子学院读经济学,2019年进入北京协和医学院“4+4临床医学试点班”项目。

然而,她哥大毕业的经历,遭到了网友的质疑。

据网友爆料,董袭莹实际毕业的院校并非哥伦比亚大学,而是与其仅一墙之隔的巴纳德学院。巴纳德学院是哥伦比亚大学的一所独立学院,毕业生的毕业证书上会盖有哥大与巴纳德学院的公章。

file

有网友将巴纳德学院与国内的独立学院相类比,认为其与哥伦比亚大学的关系,类似于国内的东南大学成贤学院与东南大学的关系,与哥大并没有太多实质性的联系。巴纳德学院是否符合“世界前20文理学院”的标准,令人存疑。

更令人质疑的是,巴纳德学院的入学途径似乎存在“捷径”。有网友指出,从当地社区学校入学的学生,基本都会被巴纳德学院录取。据传董袭莹就是通过这一途径进入巴纳德学院的。

file

据新华社报道,2021年11月5日,在北京市第六医院的医联体胸外科病房手术室,北京协和医学院实习医生董袭莹在团队协作中,开展荧光腔镜精准肺段手术。

医学博士生的正常学制,是“5+3+4”,即5年医学本科、3年医学硕士、4年医学博士。

但经济学的董袭莹,在学医的第2年,就去做手术了。

file

此外,网友截图称媒体曾报道,王辰院士、校长寄语北京协和医学院2023届毕业生,点名表扬“4+4”的董袭莹,但目前这句话已不见。

file

协和“4+4”除了经济学,还有园艺和外语

纵观董袭莹的学术历程,她本科学经济学,4+4指导老师是骨科院士,学位是内科,工作定在泌尿外科,规培是在胸外科,毕业论文选题是妇科影像学。

毕业后进入中国医学科学院肿瘤医院工作,后又进入中日友好医院进行规培学习,连国家规定的医学专业毕业生必须参加不少于3年的规培,她居然只需1年。

媒体追问,如此速培的医学博士,董袭莹到底是医学天才还是资源咖?大家需要一个答案。

更多网友涌入北京协和医院评论区,吐槽“朝圣一样去求医”,谁知道遇到的医生是不是“4+4”,强烈要求公示“4+4”名单。

file
file
file

那么,何为“4+4”?

据北京协和医院官微,“4+4”临床医学教育模式始于上世纪初的北美,是从各大学多专业本科生有志学医者中,择其优秀者,完成本科教育后进入医学院学习临床医学,毕业后获得医学博士学位。含本科教育4年,医学院教育4年,故名“4+4”学制。

file

据中国经营报,近期发表的一篇研究论文显示,在北京协和医学院2019级—2024级试点班的172名学生中,本科背景为理学的占到87.8%,且生物类专业的为68.6%。此外,还有工学、经济学、农学、文学专业毕业生,专业涵盖了经济学、经济数学、园艺、植物科学与技术、西班牙语。

file

★多所高校开设“4+4”、协和医班、协和药班

今年3月,北京协和医学院校长、中国工程院院士王辰在接受采访时说,协和医学院自2018年开始实行“4+4”医学教育模式,后来又与北航、北理、中国科大、北师大等探索开设了“协和医班”及“协和药班”,分别致力于为中国培养复合型“大医生”和医学、药学领军人才。

file

此外,上海交通大学医学院官方公众号显示,学校于2002年起,连续23年每年从“双一流”建设高校及建设学科选拔招收优秀本科毕业生,攻读临床医学专业博士学位。

file

浙江大学医学院从2005年开始的“巴德年医学班”,是4年非医学本科专业+4年医学博士的培养模式,不过该项目为“八年一贯”制,招生对象为高考生以及该校本科新生的再选拔。

北京协和医学院3月19日发布“4+4”医学试点班招生简章,其中,2026级招生计划45名,招生大学包括清华、北大等37所高校。

file
file
file

来源 | 大象新闻 曹亚勤 (综合极目新闻 中国经营报 新华社 北京协和医院 中国医学科学院新闻中心 网友评论 )

手指被咬穿,也得笑对生活

By: Steven
5 November 2024 at 01:27

时隔三十多年,我又被小动物咬了。这一次,是猫。

事情缘起于昨天下午,我刚从健身房回来,换好了衣服正准备出门跟筱烨小柒汇合,一起去看街舞的活动。突然一个电话打来,筱烨说燕姐(宠物医院的前任院长)建议尽快带康康(我们的布偶猫)去处理,再拖就麻烦了。于是我赶紧从杂物间里翻出背包,趁着康康在睡觉就把他带下楼了。

他的耳朵最近长了一个很大的血肿,而且这几天越来越大,因此需要医生把其中的瘀血脓血挤出来。但是这个家伙呢,平时就非常犟,不让剪指甲,不让洗耳朵,也不配合吃药,尽管我们再小心,也不让碰。这才发展成了血肿。

他这种猫和我们自己从小养的那些猫不一样,康康是以前猫舍的猫,从小被关笼子,人类把他抓出来不是打针吃药,就是各种摆弄,他没有体会过被人温柔对待。后来猫舍倒闭了,他有些呼吸道的问题,就被扔到了宠物医院,被人放弃了。医院治好后,我们也是有一些因缘际会,把他从医院领了出来。

虽然他不怎么信任人类,但对我们一家还是挺温柔的,平时都会主动来蹭我们,来床上和我们躺在一起,贴着我们。平时玩耍也不急不慢,或者说,就是看着比较迟钝,常常给人一种「笨笨的」顿感。他跟新捡的小米优关系特别好,每天都靠在一起互相舔,他还允许米优像吮奶头一样地吮吸他的粉肉垫。作为一只家猫,安静不闹事,跟你又有温暖的互动,真的是不错了。但是吧,唯独个性比较犟。

他的犟是整个医院的都知道的。留置针可以一天搞弯三根,做 B 超可以把脚趾蹬翻,虽然平时不声不响,但也是真的桀骜不驯。

所以医生给他检查、打针时,都得有我和护士一起紧紧抓住他,免得他乱动。但即便打了镇静,他也过了十来分钟才躺下,就算躺下了,手术过程中也好几次站起来挣扎。

他太疼了,毕竟是划开耳朵挤脓血啊。

等他药醒了,我拿上其他药背他回家。一路上就听他不停叫唤,听得人心疼;因为套上了伊丽莎白圈,他在里面空间也施展不开,就一直转身翻动。走到小区的院子里时,我把包放下来,拉开拉链,跟他说不要惊慌,我们回家了,然后换个方向背到正面,一边轻轻拍,一边跟他说话。但一路上他的声音真是听得人不忍心,加之有点担心他不停扭动会伤到刚做完手术的耳朵,于是进了电梯之后,我就想再安抚一下他。

还是拉开拉链,我把手伸进去摸摸他的额头和鼻子。

一瞬间,我感受到了刺骨的疼。

康康以一种从未有过的速度咬住了我的右手手指,而且不是玩闹的咬,是我能清晰感受到他的尖牙插进了我肉里的那种咬,是咬住了就死不松口的拼尽全力的咬。

我想赶紧往外拔,但我明显感受到他的四颗尖牙都已经扎进了肉里,我的手指被他强劲的咬合力紧紧夹住,丝毫动弹不得。虽然非常疼,但那一刻,我顿时明白了为什么家猫的体型都是这个尺寸,因为如果再大一圈的话,它们真的可以瞬间咬断一个人的气管。

我意识到必须立刻撬开他的嘴,把手拿出来,于是用左手去掰开他的下颌骨。他刚被掰开的嘴,瞬间再次咬住我刚刚挪出来一点点的手指,连同右手和左手一起,都被他锋利的尖牙贯穿了。

我甚至似乎听到了他的牙齿在再次贯穿的过程中,与手指肌肉、骨头摩擦产生的「噶叽噶叽」的声音,又疼又酸。

我觉得以他目前的神志,指望他自己松口是不可能了,于是心一横,决定强行把手指从中拔出来。我一边这么想着,脑海中就一边有了被划出一条长长的伤口的画面。但是确实没时间慢慢琢磨了,实在是太疼了!

手一拔出来,我就看到整个右手从指尖到手心流满了血。

低头赶紧用左手捡起掉落一地的药,用右手的拇指和食指拉起拉链,电梯一停,立刻抱起包往家里冲。

一进门,我满手的血把尤妈妈给吓坏了。我一边交待是康康刚才咬的,一边冲到洗手台用水龙头对着伤口不断冲洗。她拿来消毒喷剂给我处理,我简单擦干喷了药,跟她交待完十点之前先不要让康康吃东西,就果断出门了。

先是到宠物医院给医生护士看了下伤口,然后用香皂和流水冲洗了十分钟。大家一边惊叹于康康居然有战斗力如此爆发的时候,一边惊讶于伤口之深,一边谁也想不起来他到底打没打过狂犬疫苗。

因为他是被猫舍遗弃的,所以对于他过去的历史,其实没人知道。我们不知道他曾经遭受过什么,但很显然他的应激和不安全感都是人类造成的。所以我不怪他,当时心里想的就是,我得去附近的中心医院打针了。

这是我继上次结石手术之后,再来这里。

中间各种迷糊的就医流程就不赘述了,总之我大概七点半到的医院,中间排队、问诊、拿药、清创、打针(狂犬头两针)就搞到八点半了,然后护士说你去吃点东西,半小时后回来再打另一支破伤风。吃完回来先是皮试,二十分钟没问题再打,打完再观察半小时,这就搞到十点出头了。

中途,问诊医生旁边的同事问我:

这猫把你咬成这样,还养么?

我没说话,只是笑了笑。

问诊的医生对他说,当然继续养啊,爱动物的人都这样。我当时心里想,他这到底是在表达他也是养动物的人呢?还是在揶揄我?不过算了,起码他说的这话是我想说的,于是也没回应。

打针的护士也是有意思,看我一身猫毛(其实我已经清理过了)就问我,是不是在宠物医院工作的人。我就问她,这个狂犬疫苗要打一个月,这期间我能去运动吗?她说不行你这一个月都不行。我不死心,就又去问那个值班的医生。他正好从诊室里走出来,我问他我这个月能去健身房做力量训练吗,他缓缓举起左手,轻轻拍在我的左肩上,眼神里叹了一口气,对我说:

别去了,好好休息吧。

他当时那个眼神,说真的,我差点笑出来。太柔情了!

那有什么办法呢?只能休息了。我还跟大熊(我的健身教练)吐槽,这眼看着要在十一月大干一场了,马上要开始进步了,硬给我一口咬停了。回到家的时候,玄关柜上还留着我当时放下东西时留下的血迹。

所幸,康康已经安静下来了。

夜深人静,拍几张伤口的照片,做个记录吧。皮肤破损面积不大,但全是贯穿伤和撕裂伤,伤都在肌肉里,动一下都巨疼。当时医生说,你这已经属于三级暴露,如果不是家猫而是野猫的话,必须得打蛋白才可以的。所以说这也是万幸,咬的是我而不是筱烨或者小柒,大概就是我最近必须有这么一劫了。

当时宠物医院和中心医院的医生都说,你这手指伤得那么重,明天要肿成萝卜。我还笑笑说,不用明天,现在已经肿了。

事实上,第二天,确实要比前一晚肿得更多。

好嘛,这下撸铁撸不了,练琴练不了,洗澡和拿东西都不利索,彻底歇了。

我现在敲键盘打下那么多字也是不容易。幸好打字不需要怎么弯曲手指,但中指指尖一直没有直觉也是真挺不自在的。

前一天好不容易从雷兽山人马老师那里毕业了,刚把水神兽露娜的门敲开,好嘛,这下手柄也握不稳了。

如果我不是触犯了什么天条的话,应该就是等着降大任了。

但我想,康康他应该没在恨我吧?

不然为什么我写这篇日志的全程,他都一直靠在我的脚边翻肚皮睡觉呢?

希望你啊,快点好起来吧!

你的第一次手术:忽视多年的达摩克利斯之剑

By: Steven
5 October 2023 at 00:55

亲爱的苏:

别来无恙?你现在是哪一年?我真希望,后来你再没遇到我。

为了防止你忘记,我要把前些天发生的事完整记录下来,好让这「人生第一次」在你的脑海中始终清晰和深刻,时时鞭策和警示。因为实在拖太久了,才会让事情发展到那么糟糕的状况之中,如果你忘记了这一次的教训,下次见面,我也许会和死神一同来访。

「已经中重度积水了,再晚点来,肾功能就没有了。」

这是那晚医生说的话,你还记得的吧?

起|空心的肌肉酸痛

上周六的上午,你如往常一样骑自行车去公司。但在路上,你感觉到,随着每一次踩下链条踏板,体内都有一条肌肉在紧张。这条肌肉不在表层,它覆盖在至少两层腹部肌肉之下,从大腿根部连接到肋骨下缘,似乎是一条深层的长条型肌肉。你就这样忍着这种隐隐约约地不舒服,到了平常都会停留一会儿的 Coffee Vendor 中转休息片刻。喝过一杯手冲之后,回到公司,开始在不同的位置上穿梭、讨论,然后是一个接一个的会。你中途在位置上躺了半个小时,但那条肌肉既然在隐隐做疼。

某一刻,你忽然想到,既然是肌肉酸痛,那么应该科学拉伸一下就可以了。于是在网上搜了一些视频,找了走廊上一块没人的地儿,开始拉伸。方法有效,你感到有所缓解,然后接着回到讨论和会议之中。后来又开始疼,你就又跑出来拉伸一会,缓解之后再继续开会。

直到你觉得疼痛受不了,决定提前十五分钟下班。

因为第二天是周日,你昨天刚给小柒发过语音消息,说争取早点下班回去陪他。于是,你打开手机,发了一条回家的消息,半疲惫半兴奋地往回走了。

地铁上你没有座位,但你觉得一个男的也不好意思开口跟人说身体不舒服,就那么强忍着越来越严重的疼痛,握紧不锈钢立柱,站着。随着列车的摇摇晃晃,你觉得下腹的疼痛感越来越明显,「那根肌肉的抽筋」越来越强烈。然而,你在列车里又不能做拉伸运动。你的额头开始冒冷汗,右手边的一位女士发现了你的不适,站起来把位置让给了你。你这才蜷成了一个虾球,坐完了最后六七个站。

可即便如此,你还是下了地铁后步行去与筱烨、小柒汇合了。你和他们一起吃完九毛九,一边说着今天腹部的「肌肉酸疼」一边在餐厅的角落里做一些拉伸,试图缓解。但你记得的吧,这种疼痛一直持续到家里,也没有丝毫减弱,你越来越难受了。

于是你根据筱烨的建议,拿出筋膜球,开始在地上滚。

筋膜球顶着背的时候呢,是舒缓一点,但一站起来走进屋里,一弯腰,就感觉左边的身体空了一大块圆形的空间,无论如何都使不出力来。仿佛掉了链子的自行车,怎么踩都转不动,身体忽然变得不受控地倒下,双手下意识地伸出,撑住身体。

这种感觉似曾相识!对吧?

去年年底新冠疫情管制开放后的第一波感染,你当时的感觉和这个一模一样!六月份复阳的时候,你还做了一张图来记录当时身上肌肉酸疼的部位。你当时的感觉,和这两次新冠时的感受非常相似,甚至可以说是完全一致。

于是你拿出了筋膜枪,开始突突突。

可筋膜枪一碰你的后背,那酸疼瞬间放大成了一颗埋在身体里的柠檬,被暴打捶烂的柠檬在身后瞬间蔓延开,你立刻本能地拿开了筋膜枪,不想再碰一下。你心想:这也太酸爽了!这些酸疼也越来越疼,你慢慢注意不到酸的部份,只剩疼了。你疼得满地打滚,就是字面意义上的满地打滚,不仅滚来滚去,还在地上阴暗爬行,无论怎么扶着腰、抵着肚子也不能缓解丝毫片刻。疼,就是纯粹的疼,在体内深处。

筱烨提议去医院,你说好,你已经受不了了。

急诊的护士过来看了一眼,先问:以前有得过结石么?你说,有,但现在是肌肉酸痛。

等到终于可以见医生时,他问:以前有过结石么?你说,有,但没说后半句。因为你也没那么确信这只是肌肉酸痛了。医生又问,这次跟以前感觉一样吗?你说,不,不一样,以前是刺痛感,这次是肌肉酸痛的感觉。随后他让你躺下,按了按肚子,你说不疼,再让你坐起来敲了敲后背,敲右边时啥事没有,一敲左边就疼得不行。那种空了一块的感觉,瞬间覆盖了半边身体。

「就是结石嘛,去拍个片吧。」

医生很轻松地说了句,仿佛喝了口水。

你很久没打屁股针了,拍片前先打了两针,还头一次用了从肛门塞进去的止疼药。你感觉身上的疼痛在慢慢地变淡,你对那一条「抽筋的肌肉」的感觉逐渐消失了。但你依然需要一纸明确的判决书,一次点头落地。

等待的走廊里很冷,但似乎只有我一个人在冷。平时怕冷的筱烨都觉得医院空调开得不够,你却需要缩起来,等待 CT 室打开门。以前在嘉兰图时,你设计过一台移动式的 CT 机,但自己躺进这种完整尺寸的 CT 里头,却还是第一次。我知道,你不是害怕,但你从那一刻起,心中已经有了一种清晰的感觉:

「我忽略自己很多年了。」

你受不了走廊的冷,就和筱烨走到门诊外的长椅上坐着,等待判决书。

「石头不大,但是正好堵住这个位置了,导致积水挺严重的,已经中重度积水了,再晚点来,肾功能就没有了。你这个情况多久了?」

听到明确的判决后,心里反而舒坦了。

脑海里开始不断浮现出一些可能是前兆的画面:前两个月,你注意到自己尿里的泡泡比以前多,因为很快就消失了,你确定不是蛋白尿,也就没在意;两次新冠感染时,因为肌肉酸痛是全身多处的,因此掩盖了结石引起的痛感,你以为它们都是一样的症状和原因;结石引起的左边身体空洞酸胀感,你一直以为是缺乏锻炼和平时骑自行车引起的肌肉拉伤。

「超声和吃药对这种情况是没办法的,只能住院做手术了。你们明天白天过来找门诊的医生办一下住院吧,片子拍过了直接给他看就行。明天术前检查,后天手术,再观察一天没啥事的话就可以出院了。」

这是你人生中的两个第一次:

第一次住院,和第一次手术。

承|非洲草原上的小马不是为了竞赛而生的

周日下午,筱烨陪你到医院办理入院。

当病情确定后,心情反而轻松了不少。换好病号服,两人溜达到住院部三楼的 711 买了车仔面套餐,聊着天吃着面,看着天一点点黑下来。然后筱烨回家去照顾小柒,你回到九楼继续到处溜达。你原本带了一本《夜航西飞》过去,准备借着住院的机会,把它看完。但你那会完全坐不住,在床上躺一会,就得起来在楼里四处走走。直到有位护士过来,告诉你,明天早上七点五十要去做术前检查。她给了你两种造型的尿液收集管,一根是急诊时用的手指大小的管,一个是化妆品小样般矮胖的小圆柱。

此时,你隔壁床 26 号的人还没来,护士托你跟 TA 交待一声。临近十二点时,你打算睡了,她才进来。你递了话才躺下。

你原本定了七点半的闹钟,但你六点就醒了。

你喝了护士给的怪味儿营养液,在床上等到七点二十,一个短发的阿姨进来跟你们俩说:走!于是你和 26 号床一起跟着阿姨穿过陌生的医院走廊,你感觉这里像个迷宫,稍不留神就会迷路,所以你不断观察,尽可能记住每个路口的特征。走到心电图室时,阿姨叫你们在这里等医生上班。我忽然想起早上接的尿,就问,那两瓶东西放在哪里?这阿姨才说,你得自己拿到公共卫生间洗手台旁边的半透明箱子里的架子上,你赶紧回去放好,这样一会你拍 CT 的时候尿检报告也就出来了。

于是,你不得不自己往回走,走进迷宫里,凭借着刚刚记住的、还算新鲜的记忆,摸回了住院部九楼的病房里。你心想,幸好刚才记住了。放好尿样后,你赶紧赶回心电图室,生怕让同为病人的 26 号等太久,因为你的单子在她的手上。但你们在门外从七点半一直等到八点十分,期间看着医生们青春靓丽地走过来,换上白袍子,再出来进去若干趟,手里一会拿个杯子,一会抱着个篮子,下一波病人也陆陆续续来到叫号机器前扫码。

你是第一个,终于喊你了。

你躺下,医生让你卷起衣服和裤腿,她把一些夹子夹在你的脚踝和手上,把另一些贴片贴在胸口上,和你爸爸过世时,医生过来确认死亡时地操作,一模一样。

「可以了,下来吧。」

你和 26 号一起往回走,她走路很干脆,没一丝犹豫。她说往这边走,你疑惑了一句,你怎那么熟练?她没说话,但留下了一个苦笑。术后医生来巡房时,问到是否有过手术史,听到她说三月份做过一次人流。我那时想,一个医生、护士或者护工如果有志于文学的话,他们一定能写出非常优秀的作品。

下午没有检查,也没有任何安排,你拿出书,准备找个安静的地方。可是你在住院楼里上上下下走了几趟,也没有找到一个安静的角落,一个能看书的角落。你只好回到 25 号床,这里确实是整个医院最安静的地方了,尽管你心中并不认可。电话的声音、抖音的声音、电视机的声音、来来往往的护工和她们手里小推车的声音,以及窗外工地的声音,它们共同形成了一种还不足以称之为白噪音的噪音,你觉得难以安静下来。

最后你戴上 AirPods Pro,在降噪模式中,读完了小马赛跑的那一章。

只有悉心照料小马的作者,才知道它的能力以及安全范围,也只有真正爱马的人,才会让小马在胜利后,不再参加未来的一切比赛。她熟悉马的一切,也熟悉人心。你忽然想起,你原来打算把这本书中的一些内容摘取出来,放到三月份上海的 vlog 里的,现在,这些故事都串联在一起了,拍照和拍照的人、夜航西飞、爸爸的离去,以及你的手术,它们都是同一个故事,你想用诗歌把它们串联起来。

下午,筱烨过来看你,你说,你有一点害怕。

你上网查过手术的原理和做法,毋庸置疑,这当然是非常成熟的技术。但你依然觉得担心和害怕,因为这将是你第一次躺在手术台上。你开始想象那样的画面:裤子脱光,岔开腿,高高架起,医生在你没有知觉的地方熟练操作,你大脑清醒,等待着手术结束。你并不是因为觉得羞耻或者别的某个具体的原因而感到不安,你就是在忐忑,在为即将到来的第一次躺在手术台上接受手术这件事本身,感到不安和焦虑。

然后,你们聊到了你的母亲。因为她要过来和你们一起度过这个中秋国庆假期,让你感到很焦虑。这个从小到大都缺席的人,你对她即无爱也无恨,她是一个在你开始学《世上只有妈妈好》之前就已经化成一个代号的「叫做妈妈」的人。过去你尚可不断给自己洗脑,以此对抗在同龄人中你客观上「没有母亲照料」所导致的各种困境,可当你自己成为了父亲后,你才发现自己的父母那对你稀薄的情感。你没有长成一个反社会人格的恶鬼,是万幸,也是你三十来年尽力克己所修来的果,当然会很难不为此感到焦躁。

但筱烨也到点要回家照顾小柒了,你得自己面对术前的黑夜。

转|在大树房间里不存在任何羞耻

术前的夜并不只有等待。

你从下午五点多开始发烧,从 38.2 到 38.4 一路慢慢烧到 38.7 度。你一方面担心发烧会导致手术不能如期,另一方面又担心不能在母亲到家前出院,会节外生枝。你心中并不希望她来医院看你。可护士们觉得温度不算高,不需要进一步处理,只是说「多喝水」以及会告知医生。负责我们的夏业良医生一直在五楼做手术,你一整天都没见到他。当时你想,无论如何请明天一定要顺利完成手术,不要往后拖。你并不想术后躺在床上看见她。

下午两点多,护士把你们明天要做手术的人喊到护士台去,宣讲一些注意事项,以及陪护需要准备的东西。你拍下来,发给筱烨,等她送完小柒上学后过来。

你看不进书,开始上网搜手术视频。

你还不知道明天要进行的是硬管手术还是软管手术,但手术的原理和流程是差不多的:

麻醉师会先把你放倒,当你的下半身没有知觉后,医生会将一条细细长长的管子从你的尿道口插进去,顺着尿道进入膀胱,再由患侧的输尿管口进入输尿管内。管子前方有摄像头,它会一直沿着身体的自然腔道一直往上摸索,找到结石所在的位置,此时医生会插入钬激光的管子,用「枪口」对准结石一通输出,piapiapia 地击碎它,最后让碎沙顺着输尿管落入到膀胱,再全部吸出来。

了解可以缓解焦虑,确实如此。

但理性上缓解的担忧,在情绪上并不起作用。

你只是想要一点温柔的情绪来抚慰,只是猫咪舔毛般的安抚。

你还在发着烧,一直稳定在 39 度之内,没有鼻涕、咳嗽、咽嗓疼痛,也不头晕头疼恶心想吐,就只是发烧。护士觉得没什么问题,直到晚上十点半左右,夏医生才出现,把你和 26 床 31 床喊过去,给你们讲解手术的原理和流程。他说的和你自己查的,完全一样,唯一的区别是,你不知道自己明天要做哪种镜,而夏医生直接回复:是做硬镜。

但有一个不明确的信息:发烧的原因。

夏医生担心,是结石引起的炎症和脓。假如是脓,就怕有感染,那就会有生命危险,所以明天无论如何都要给我做手术,先把脓吸出来再处理结石。你其实没担心,觉得应该只是普通的感冒,但你没有预料到,哪怕只是普通感冒,这个烧,也将让你的手术体验非常难受,非常难熬。后来你在手术台上,一边后悔一边期待地熬完了那一个半小时。

下午护士宣讲时说,如果术前紧张睡不着,可以找她们申请安眠药;夏医生也说,如果实在睡不着,可以吃安眠药睡,要保证睡好。你心中犹豫了好几次。

担心睡不着,又担心醒太晚。

你前一夜就没睡好,有灯光原因,也有不断起夜的影响,而且一直做梦,睡不踏实。

你翻开《夜航西飞》,翻了翻小马赛跑章节。你没有看,你只是翻弄着书页,回忆着作者描述的故事,想象了一下小马最后冲击的样子,想到它受伤的脚踝和人们的掌声。合上书,盖好被子,你很快就睡着了。

六点十几分,你被叫醒,带你拍 CT 的阿姨给了你一包营养液。

你喝下去,然后看着 26 床被叫走,她是今天第一台手术。你合计了一下,跟筱烨说:

「我可能是十二点半进去。」

等待总是漫长,你依然烧着,没盼来手术通知,却等来了一瓶头孢。你问护士,这个针在手术前能打完么?她说,打不完,到时挂着做手术。虽不至于心中一惊,但听到这么说,还是不免多了一点紧张。

十二点半,一个新手女护士来喊我下楼。

为什么我会知道她是新手呢?一是她带我们和筱烨下楼时,忘了拿 CT 片子;二是她拿了住院部护士给的针水,带进了手术预备间,被中台护士说不可以这样操作,讲了半天责任划分之后又喊她回去换了。但在等待和手术期间,我才意识到,原来手术工作区域内,女性的比例是如此之高的!你之前也没想过这件事吧?

除了给我做手术的两位医生,是男性,其余四五人全都是女性;在各个房间里穿行的护士们,也几乎全都是女性,我只见过一个高个子的男护士。

因为不能戴眼镜,我看不清周围的东西,因此不知道在预备间等了多久。凭感觉的话,大概有半个小时多点。当你被护士带进手术室时,眼前的景象还是和想象中不太一样的。

那是一个绿色的房间。

一棵巨大的树从天花板上破顶而出,它白色的树根粗壮有力,厚实的树根一根根张开,盘踞在一张铺着绿色床单的、平整的金属架子床上。你看过一些跟手术相关的画面,也设计过一些医疗器械,但这个巨大、结实的纯白结构直接展现在你的眼前时,你还是受到了一点震撼。你看着周围的各种设备,有些围绕在床周围,有些散落在房间的四个角落,有些挂着各种管子和线缆,有些正发出节奏清晰的声音。你开始用看不清的眼睛拼命观察、思考:

医疗设备被设计成这样,是有这些原因的啊。

你头一次作为病患,切身地去理解那些设计。

你躺了一小会,麻醉师进来了。她让你侧过身去,在你腰椎中部摸了一下,告诉你,要开始,放松一下。你感觉到她前后扎了两针,可能还不到一分钟时间,你先是感觉从腹部开始的一整个横截面都暖暖的,紧接着,这股暖流从肚子向腹股沟、向大腿蔓延开去,几秒钟之内,你的整个下半身都泡在一股暖意中。

然后,你就感觉不到自己有下半身了。

那感觉很奇妙,你能清晰地感受到自己的肺的扩张,能活动自己的手指,转动自己的头,看到身边走来走去的护士们,但从腹部以下开始,你感受不到它们存在。它们既不像黑洞一样不可见、不可知,你的大脑依然是相信它们就在那里的,但又仿佛肚子中间横隔着一个时空的帘帐,帐的后面是一片「虚空」。

护士们叫我往下挪动一些身子,但我已经不能动了。

我看着她们拖着我的两条腿,一起喊一起用力,我唯一能感觉到的,是我头上的手术帽掉了。她们脱下我的裤子,把我的右腿放在架子上,整理下角度,再把左腿放在另一个架子上。虽然我看不清,但我大体上知道,我当时的姿势,和孕妇生产的姿势是类似的。

你是平躺着,全裸着下身,举高并岔开双腿的。

但你并没有感受到,任何羞耻。

医生、护士、病患,在这个空间里,你只能感受到「问题」和「方案」。性别不是一种凝视关系下的身份,是执行方案过程的所面对的「客观结构」。我甚至想灵魂出窍,亲眼从天花板上看看这个房间里发生的事,看看医生如何探入你的自然管道内,找到并击碎它,看看护士们在旁边究竟在忙着什么,看看你是如何不停地打寒颤,看看你的生命体征与那些仪器设备上显示的数字与图像之间的关系。我只想研究,你是如何被处理的。

事实上,整个手术过程里,我也几乎只能感受到无尽的寒颤。

非常无聊又漫长的、难熬的、因发烧引起的寒颤。

当医生和护士开始往我身上覆盖一层又一层、或绿或白的布料开始,我的上半身就开始不由自主地发抖。我和站在我右手边那个身高至少一米七五、但声音酥甜的护士说,我在发抖。她说,因为你在发烧啊~这个抖,不是那种穿着短袖站在医院走廊上的抖。我一边发抖一边回忆,此前的人生里我大概没有这样抖过。即便是两次新冠期间,或者其他得了流感的时候,畏寒也只是处于「怕冷」的状态,却从来没有这样,由内而外的,浑身上下所有能够使得上劲儿的肌肉都在参与的,如同绷紧的鼓皮正在被快节奏地击打着的,连续且高频的用力抽动。

这种肌肉活动从胸腔开始,我仿佛能感受到每一根横向的肋间肌,它们如同被绷紧的一大把并排的琴弦,在以某种鼓点为节奏,有力地牵动着我颈部和上臂的其他肌肉。它们一起在和某个不可遏制的节奏共振,把我整个人震得无法动弹。术中夏医生从后面过来问你,抖得厉害吗?你无法开口,只能点点头。

你还记得这种感觉吗?

你的手是自由,你的头是自由的,你的上半身其实是可以动的,但在这股不停的抖动之中,你连抬起一根手指都做不到。这持续不断的鼓点持续了整场手术,也是你在这场手术当中最强烈的感受。你也忽然理解了,为什么你从进入手术室开始,一直到术中术后,都有一台机器在发出富有规律的「滴滴」声。

因为你依靠这个声音,有意识地深呼吸,几次三番成功抑制了那股强烈的抖动。

你通过深呼吸来让我尽可能地镇定下来,让我可以有哪怕三到五秒不被寒颤支配,可以让我的肌肉有片刻休息。你以往只是通过调整呼吸来提神醒脑,但借助呼吸法,让自己从生理反应中平复片刻,这是头一次。

寒颤虽然煎熬,但你是清醒的,所以你可以听到医生和护士们在聊些什么,借此分散些许注意力:

「做好一场手术简单,写好一份报告难啊!」

「我还没吃午饭,做完这一个才能吃。」

「这个手术叫什么名字啊?你过来写一下嘛~」

「那谁的老公是某某吗?还是那个谁谁谁?」

「你看,其实输尿管没那么脆弱,可以这样操作。」

「唉,一瞄准病人就抖,打不中啊。」

「这也没脓啊。你家里人感冒了么?」

你说有,我太太也感冒了。那难怪了!

一场手术,就这么聊着聊着做完了。最后统计一下,出血两毫升,再喊你看一眼屏幕里已经碎成末的渣渣。医生说,你看啊,已经给你打成沙子了,都在这(膀胱)里面了。听着他的声音,转头就对另一个人说,来,把这些都吸出来。

既不像做梦,也不太真实。

寒颤正在消退,但也许是肌肉用力了,你感到呼吸有点累。

护士说,你觉得可以了,咱们就回去。你说等一下,还不行。你大口地呼吸,感受胸腔的肋间肌和肋骨在每一次呼吸之间的起伏与牵拉,感受每一口空气注满肺部再推出来,直到你重新感受到了右手的手指,可以弯曲,可以握拳和松开。

你说,我可以了。

合|屎尿屁都是好东西

你被推出手术室时,看着一条条灯光从头顶滑到脚底,心想:

电影里的这种镜头,是把摄影机绑在床上拍的吧?

你为自己的这个念头感到欣慰,因为它意味着你头脑清醒的同时,具备了一些幽默感和置身事外的娱乐精神。然后,你听到了一个熟悉的声音。

「感觉怎么样?」

「你一直在这里等着啊?」

「是啊。」

那一刻,你从情绪上理解了为什么说一个人做手术是顶级孤独了。在你仰头看见筱烨时,你觉得自己「回来了」,看见她,你才确信自己回到了人间,回到了人类社会,回到了现世。

你被放回床上,被整理好腿脚,被盖好两床被子。

你觉得不太对劲,为什么都回到病房了,还把我的脚架那么高呢?你把注意力集中到腿上,想挪一挪,可是被架起来的腿丝毫不动。你努力地让上半身立起来一些,这才发现,两条腿是平放在床上的,整个人都是平放的。腿悬空架起的感受,是从手术台上下来的错觉。

然后你开始听到护士跟筱烨说,要时不时检查一下尿袋,多了就要及时倒掉,免得倒流回膀胱。这时,你才知道身上正插着尿管。可是,你感受不到。只听见搬运你的护士对筱烨说,他现在麻药还没过,还感觉不到疼。无法动弹的你,直到两个多小时后,才努力侧身瞥见了一眼那个尿袋。

这东西是怎么插在我身上的?

你只对这个感兴趣。

周围的帘子都挡着,你趁着身边没人的空档,揭开被子和裤子,想看看这跟橡皮管到底是以一种怎样的结构安装在自己阴茎上的。你有点不能理解眼前看到的画面:一根黄色的足足有小拇指的三分之二直径的软管,从你的尿道口处延伸出来,它与阴茎结合的部份正在被包皮包裹着。正处于麻醉消退过程中的你,能感觉到,即便是在麻药没完全过的情况,你的手但凡碰一下自己的阴茎,都有一种非常别扭的疼痛和异物感。

「这绝对是有一整根东西插在我的尿道里!」

前两天,因为所有人都在叮嘱你多喝水,所以你上厕所的频率比平时高不少。于是,你形成了一个多跑厕所的行为模式。可是手术后你动不了,也还没从勤跑厕所的模式中转变过来,就总是处于一种「我要下床上厕所但不能下床」的轻微的焦虑之中。然而,经过两个小时的观察,你发现,你根本没有任何尿意。

因为所有的尿都从导尿管流到尿袋里了。

你顿时觉得:「这个发明太伟大了!」

正想着,你忽然感觉小腹里有一股拳头大小的气体在移动。它慢慢地穿过你的腹腔,来到了直肠附近。你想起昨天灌过肠了,也没再吃过别的东西,一直是挂着葡萄糖维持活动的能量。于是,你放心地让它出来了。

你忽然理解了,什么叫做通畅。

这也是四五点,中医科的医生来巡房辅助你复健时,问的第一个问题:放屁了么?

这个屁放完之后,你开始渐渐重新获得自己对于下半身的控制权。

你开始感觉到自己的腿和脚趾。虽然你还不能动,但你已经不会觉得它们被架在架子上了,也能感觉到脚趾可以尝试活动了。回到病房的时间大约是两点出头,到了大概四五点钟时,你终于重新获得了自己对两个大脚趾的控制权,它们俩可以前后摆动了。

「啊,陌生的天花板。」

这是你逐渐重获控制权时,脑海里闪过的一句熟悉的台词。

你并不是觉得自己像碇真嗣,虽然你也确实有点像碇真嗣,但「陌生的天花板」对于你来说,是一个熟悉的东西。这个梗,让你在那一刻获得了一些情绪上的安抚,使你在这个「陌生」当中得到了充分的「平和」与「舒展」。

但舒展的只是情绪,话还是说不出来的。

前一天尚且可以跟筱烨海聊一通,术后这七八个小时里,可就没声了。她在旁边陪着,虽然说忙工作,但就算她跟你说点什么,你也是出不来什么气,只能点头摇头,挤出几个「好」「行」来。

话最多的一阵,是中医科的两个医生来扎针的时候,听筱烨跟他们聊了一些育儿和养生的话题。你回答了几个问题,说了几句。有几年,你是非常抗拒中医的,没有可复制可证伪的科学方法论,全是经验医学,不同人看出来的东西都不一样,随机性太高,江湖骗子也多。但说起来也是诸多巧合,在前有国民党的老中医控制住了筱烨妈妈的红斑狼疮,后来是朋友的中医母亲给筱烨调气血备孕,后来经过几年营养学育儿,发现这套方法不适合小柒之后,改用中医育儿的理论来带,再到最近我和筱烨开始学习站桩和练气,你不得不承认,中医确实是有用的。作为广东人从小就时不时会接触到一些中医的东西,随着这些年练习冥想、内观,不知不觉间把不同门类的知识串在一起后,竟然也渐渐能够闭环的认知体系了。

约莫九点半,你可以下床了。

你提着尿袋去问护士:「这个东西什么时候可以拔掉?」意思是,你看,我可以下床了,不需要这个了。护士说等明天吧,早上医生查完房就给你拔了。你心想,嚯,那也就是说我今晚喝水不用担心起夜的问题了。

但不用起夜并不能换来安睡。

因为我们没有租到折叠床,筱烨今晚又得在旁陪护,所以我们只能两人挤在一张病床上。你知道病床有多窄,睡两个人,是没法翻身的。但你并没有因此不满,真正让你睡不踏实的事是,你竟然勃起了。

你也很困惑。你既没有梦见什么,也没有看见什么或者碰到什么,但它就不知为何地抬起头来了。但又因为插着导尿管,勃起有疼痛感,于是它就一直处于一种将起未起的状态。可是因为床太小,你的可活动范围既受空间限制,也受导尿管的牵制,于是乎,你只能像对待冥想时脑海中飞过的诸多思绪一般,对其视若无睹、置之不理。除了等待它消下去,你什么也做不了。

在第二天中午拔管之前,你一共勃起了四到五次。

即便是早上被推去做 CT 的路上,坐在轮椅里时,它也是一副想挺未挺的姿态,在裤子里摇摇晃晃。因此,我如果从床上或轮椅上下来,想自己走几步,就会感觉到强烈的异物感,以及由此带来的疼痛。

好不容易等到护士来拔管,又是一次煎熬。

这并非因为自己的阴茎直接暴露在女性护士面前,和拔管时的痛苦相比,这点羞耻心完全没有展现的机会。因为术后一直行动不便,加上之前在书中不停发抖导致体能的消耗,一直到拔管之前,你都没有精力去搜一下相关的资讯。护士脱下了你的裤子,戴上手套,说:

「来,深呼吸」

你还不知道接下来要发生什么,就看到她拿起了你的阴茎,不停地用沾了碘酒的棉签擦拭龟头以及尿道口,里头的异物感在她的手里愈发强烈,非常难受。

她用一根针管,从导尿管里抽出一团看上去非常清澈的水。你确信那不是膀胱里的尿液,它非常清澈,仿佛不属于泌尿系统。然后,她开始往外抽出这根三分之二小拇指粗的管子。你感到一阵诡异的疼痛。正当你试图通过深呼吸来缓和疼痛时,就看到整个管子从尿道口里被抽了出来,前端还带着一个圆圆的泡。一个呼吸还没完成,这根导尿管就完全被抽离了。

等一下,她取干净了么?

护士走后,你回忆着她取出来的东西,又看了看早上刚拍完的 CT 片子,满心疑问:这不是还有一根长长的管子,从膀胱一直连到肾脏么?她刚才取出来了么?好像没有那么长啊?

带着疑问,你开始了新的学习:了解导尿管的工作机制与输尿管支架。

导尿管的前端有一个用于注水的球囊,当导尿管插入到膀胱后,向球囊内注入生理盐水,就可以使球囊膨胀,堵住尿道,避免尿液从尿道流出,再通过液面相平的物理原理将膀胱内的尿液导出到尿袋中。这样就可以实现无需自主意识控制的排尿。

拔尿管也很简单,只要先抽出球囊里的生理盐水,再拔出即可。

但为什么你会觉得那么疼呢?因为球囊被撑开后,表面积会被撑大,因此收缩后会在对应位置形成一些褶皱。这些褶皱在抽出时,会刮蹭到神经丰富且敏感的尿道。

至于输尿管支架,是结石手术后为了避免输尿管狭窄等状况的发生,确保尿液可以被顺利从肾脏导向膀胱,并辅助碎石渣渣排除,而放置的。

出院之前我特意替你询问过夏医生,他说这根支架至少要在体内放置三到四周,到时打电话回来找他取出。期间不能激烈运动。我问怎样算剧烈?跑步算吗?他说跑步肯定不行的。那平时骑单车上下班可以么?不行,最好骑电动车,而且不要走那些颠簸路段,得平稳一点。

虽然是一根软管支架,但那么长一根东西安置在体内,完全没有不适也是不现实的。

出院这些天以来,你时不时会觉得腰酸、尿频,尤其是一些弯腰取物的时候,你会感觉到左侧的腰背里有一点指不清方位的酸软感。虽然资料都说,这些不适感在取出后都会完全消失,但你得带着这根支架去参加下个星期在香港的电子展了。

一想到要以这样的状态出差,多少还是觉得有点「凄凉」的。

总体来说,这次手术很顺利,恢复得也挺好。作为健康晴雨表的屎尿屁,术后一小时内就先放了屁,拔尿管后十分钟内就顺利完成了第一次鸡如刀割的、持续十分钟的排尿,出院当天下午也完成了四天以来的首次排便,可以说相当不错了。

在这个麻烦不断的本命年里,这也算是诸多不顺当中少有的顺畅了。

我已经给你买好了一支 1100ml 的保温杯。

真的是挑了很久,才找到这款容量、长宽比、颜值和性价比都比较合适的款。你这两天是表现得还比较不错,一天喝了两瓶多,但最重要的是养成好习惯。我不想你消耗意志力来坚持,只有好习惯才能救你。

我不想再在医院见到你,请照顾好自己,你不是一个人。

好好活下去,才能工作到八十岁。

—— 来自 2023 年十一假期,术后的你

❌
❌