Normal view

There are new articles available, click to refresh the page.
Today — 7 May 2025中国数字时代

智识漂流|协和孙主任投诉我了:“男性子宫肌瘤患者”主编无责

7 May 2025 at 19:42

相关阅读:智识漂流|“55名男性子宫肌瘤患者”,如何瞒过协和院士?

file

真的是第一次听到这种抗辩理由。

前文回顾:河南中医院36名男性剖宫产!协和院士背书……

前天我写了一篇文章,大意是:齐鲁医院霍文静在论文中制造了55个“子宫肌瘤男性患者”,如果她是齐鲁医院重点科室主任,那这个丑闻就大了。但她仅仅是一个护士而已,所以这个事件的关注点更应在国家药品监督管理局主管、中国医药科技出版社主办、协和院士主编的国家权威期刊——《实用妇科内分泌》电子杂志。

然后我扒了一下这份期刊:

编辑团队如下:它由我国著名妇产科领域学科带头人北京协和医院郎景和院士担任主编,孙爱军教授担任执行主编,北京协和医院妇科内分泌中心联合主办。全国妇产科领域著名专家教授担任副主编、常务编委和编委。

CDT 档案卡
标题:协和孙主任投诉我了:“男性子宫肌瘤患者”主编无责
作者:卸妆君
发表日期:2025.5.7
来源:微信公众号“智识漂流”
主题归类:学术造假
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

我的疑问是,这种一眼假的论文,是怎么发出来的?这真是一个巨大的谜团。《实用妇科内分泌》电子杂志都不审稿的吗?

全文见:“55名男性子宫肌瘤患者”,如何瞒过协和院士?

极目新闻稍晚的报道给了一个答案:发表“男性患子宫肌瘤”论文的杂志一年发文高达三千余篇,中介称版面费最高达万元,可提供代写服务。

就是这样一个事情。我没觉得自己做错什么,也没觉得自己侵犯了谁的名誉权。

结果今天收到一位孙先生的夺命连环投诉,都是针对这篇文章的。

第一个投诉发起于12.03分,投诉理由是:“责任编辑可以决策文章的发表,除非发生重大问题,才提交编委会讨论审议,决议提交执行主编决策,必要时才提交主编做决定。至今为止没有发给主编执行主编任何文章做决策。上面的文章对主编进行了人身攻击,申请删除上面文章。”

image

44分钟后,又投诉了一次,理由为:“针对近2日山东大学齐鲁医院霍文静的学术论文的报道,在报道传播过程中,出现了与主编,执行主编,编委团队不实信息,主编郎景和院士、执行主编、编委团队内的所有成员都未参与该稿件任何评审环节,对论文数据真实性、作者学术行为无监管义务,对该杂志的运行与发布情况并不知情。所发信息涉及内容与事实不符,要求删除。”

image

我猜测这位孙先生可能就是《实用妇科内分泌》电子杂志执行主编孙爱军。

孙爱军是北京协和医院能妇科内分泌与生殖中心主任,先后担任“国家十五,十一五,十二五支撑计划重点攻关项目与国家自然科学基金面上项目、首都卫生发展科研专项项目的负责人。

我其实是被吓到了。主编、执行主编“对论文数据真实性、作者学术行为无监管义务”?

真的是第一次听到这种抗辩理由。

主编和执行主编“对该杂志的运行与发布情况并不知情”,不是失职吗?你不知情,期刊发布的内容还是一样要承担责任的。这不是常识吗?

协和的大咖,你在搞什么啊?

我有点崩溃了。我要向中国工程院院士和协和妇产主任普及这个知识点吗?

根据《报纸期刊管理规定》《著作权法》及多家期刊公布的岗位职责,主编和执行主编的核心义务包括:

终审权责:执行主编需对每期稿件进行终审并签发,主编需对期刊的政治、学术、出版标准全面负责;

流程监督:建立三审三校制度,确保责任编辑初审—专家外审—执行主编终审流程落实;

质量把控:对明显存在数据异常(如男性子宫肌瘤患者这类医学常识性错误)的稿件,负有不可推卸的失察责任。

此事件已构成重大出版事故。主编团队却以”不知情"为由推卸责任,在那一本正经地胡说八道。

把我都整不会了。我该怎么办?我算说明白了吗?对协和的大咖真的刮目相看了。

知鸦读书|大生刘蟾:中西医之争,谁更厉害?

7 May 2025 at 19:36

在当今社会,中西医之争一直是一个备受关注且争议不断的话题。然而,我们需要清晰地认识到,中西医之争本质上是一个具有诱导性的假问题,很难通过争论得出明确的结果。

医学的核心目的是治病救人,其唯一的判断标准就是能否有效地治疗疾病。但现实中,人们常常用地域来区分医学,将其分为 “中医” 和 “西医”。这种做法其实是民族主义情绪在作祟,它预设了一种敌我对立的氛围,是不合理的。

file

实际上,全世界的古代医学在很多方面都有相似之处。

以中医为例,它强调不能暴饮暴食,提倡食用清淡、让人感觉舒服的食物,认为康复应顺应自然规律。而古希腊医学之父希伯克拉底也提出 “让食物成为你的药物,让药物成为你的食物”,古罗马医学家盖伦同样认为简陋可口的饮食对健康更有益。

此外,放血疗法在民间也有体现,比如老太太给发烧小孩扎中指放血退烧,这和古罗马的方法类似。这表明在古代,不同地域的医学都在探索如何维护人体健康,有着相似的思考方向。

到了 17 世纪,传统医学迎来了重大变革,迈入了现代医学阶段。

英国医生威廉・哈维通过解剖人体,深入认识了人体结构,这一举措带来了一场全新的医学革命。西医实际上包含了西方传统医学和西方现代医学,西方现代医学是在批判和继承西方传统医学的基础上不断发展而来的。

image

CDT 档案卡
标题:大生刘蟾:中西医之争,谁更厉害?
作者:大生刘蟾
发表日期:2025.5.7
来源:微信公众号“知鸦读书”
主题归类:中医
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

那么,中国是否有现代医学呢?答案是肯定的。

清末名医伍连德在抗疫过程中,最早提出了戴口罩、分餐制等理念,这些都是典型的现代医学理念。

屠呦呦在治疗疟疾时,从古代医方中获取灵感,经过大量的研究和实验,最终提炼出了青蒿素。她运用的是现代医学的理念和方法,是当之无愧的了不起的现代医学家。

image

“中医” 和 “西医” 这种分类方式天然地预设了对立情绪,并不科学。如果我们用传统医学和现代医学来划分,就会清晰许多。

不管是来自哪个地域的医生,使用何种方子,都应该用现代人的思维和认知进行重新检验。对于那些有效的方法和药物,我们应该保留并进一步研究和发展;而对于无效的部分,则应果断抛弃。同时,我们要借助高科技手段来提升治疗方法,充分发挥传统医学的最大价值。

倡导科学的医学态度

我们提倡现代医学,并不是要反对中医,而是要用现代思维来审视中医。中医有着悠久的历史和丰富的经验,其中必然有许多有用的东西值得我们去挖掘和传承。但不可否认的是,中医中也存在一些可能已经过时或无效的内容,我们需要进行自然的筛选。

image

医学不应该存在中西医的对立,而应该有传统医学与现代医学、有效和无效、医生和骗子的区分。在医学领域,打嘴炮式的争论是没有意义的,真正重要的是能够治病救人,为人们的健康保驾护航。

中西医之争不应成为我们关注的焦点,我们应该把目光更多地投向医学的本质,以科学、客观的态度对待不同的医学体系,取其精华,去其糟粕,共同推动医学的进步和发展,让更多的人受益于医学的成果。

image

【异闻观止】三里河|“五一”消费,爆了

7 May 2025 at 17:44

CDT编者按:微信公众号“三里河”发布一篇文章援引官方数据称“五一假期期间消费爆了”,并强调“中国有足够的韧性抵御外部环境冲击”,该报道引发了一些网友的质疑,因为人均消费“尚未恢复到疫情前的水平”。

@whyyoutouzhele:五一刚过,官媒交出了亮眼的数据:“五一消费爆了,中国游客消费同比增8%” 但人均消费尚未恢复到疫情前的水平。2019年五一,全国国内旅游接待总人数1.95亿人次;人均消费150.08元;2025年五一假期,全国国内旅游出游3.14亿人次,人均每日消费114.82元。今年五一假期人均每日消费较2019年下降了23.86%。


“五一”消费,爆了。

据文化和旅游部数据中心测算,假期5天全国国内出游3.14亿人次,同比增长6.4%;国内游客出游总花费1802.69亿元,同比增长8%。

file

据商务部商务大数据监测,假期全国重点零售和餐饮企业销售额同比增长6.3%。

消费市场的亮眼表现,不仅是一组令人振奋的统计数据,更折射出中国消费市场在政策工具与市场力量共振下激发出巨大活力。

CDT 档案卡
标题:“五一”消费,爆了
作者:三里河
发表日期:2025.5.7
来源:微信公众号“三里河”
主题归类:中美贸易战
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这背后,有哪些重要的趋势,又传递出怎样的信号?

文旅消费不断出“新”。

5天,总花费1802.69亿元,再次体现中国消费市场的韧性。

“五一”假期,各地创新和丰富消费场景,以多元供给激发消费潜力、市场活力,为游客带来深度体验。

从特种兵式夜游到博物馆奇妙夜,深度化、个性化等需求让文旅消费有了新变化、新趋势。

如,酣畅淋漓的音乐节和演唱会成为假日“新宠”。北京昌平区打造的“音乐+文旅”沉浸式体验,实现综合收入6593.05万元。

同样在北京,花式游园备受青睐,全市公园共接待游客931.83万人次,同比增加4.37%。

新变化还体现在“China Travel”+“China Shopping”上。

伴随入境免签利好,“五一”假期很多外国游客选择到中国旅游。

假期首日,天津国际邮轮母港,梦想号、芮吉塔号和海洋赞礼号三艘国际邮轮,三船同靠让2000多名外籍游客抵达中国。很多外国人还提着行李箱来“扫货”,支付宝平台显示,“五一”假期前三天,入境游客用支付宝消费金额同比去年增长180%。

新趋势上,县域游、夜经济在升温。

除了去大城市感受繁华商圈与地标景点,越来越多人出行的目的地也在变化,“反向旅游”逐渐兴起。

晋江、荣昌、平潭等小城凭借独特的非遗文化、未被过度开发的自然景观和充满烟火气的传统美食,成为都市人逃离喧嚣的新选择。

“县城游”持续走热的背后是消费者不再执着于追逐地标符号,而是更渴望在旅途中获得心灵的松弛,小地方大体验逐渐变得更具吸引力。

值得注意的是,“五一”期间多地推出“惠玩夜经济”活动,通过消费券、数字化导览等提升服务便捷性,拉动餐饮、住宿等二次消费。

如,陕西11个国家级夜间文旅消费集聚区客流量达481.7万人次,同比增长11.39%。

促消费政策撬动效应凸显。

观察消费者的变化,可以感知一个阶段的消费市场趋势演变。

“五一”假期,以旧换新政策展现出超预期的市场撬动效应。

假期前四天,汽车以旧换新补贴申请量超6万份,带动新车销售88亿元;消费者购买12大类家电产品356万台,带动销售119亿元;购买手机等数码产品242万件,带动销售64亿元。

如果拉长时间的维度,政策的精准性与需求撬动效应则更为凸显。

2025年初至5月5日0时,汽车以旧换新补贴申请量突破300万份;消费者购买12大类家电以旧换新产品5516万台,购买手机等数码产品4167万件。

系列数据印证了耐用消费品存量市场更新需求的巨大潜力,揭示了耐用消费品消费升级的深层逻辑,家庭耐用消费品进入集中更新周期,技术普惠正通过政策激励加速转化为现实消费力。

“五一”假期,中国更具韧性、更富层次的内需市场新图景正在展开。在政策工具与市场活力的双轮驱动下,中国有足够的韧性抵御外部环境冲击,在转型升级中积蓄新动能。

剑客写字的地方|这些事情放一起看,人心随着失望在凉却

7 May 2025 at 17:01

file

当一件几乎一样的事情,开始出现两种完全不同的评价时,那么必然是哪里出了点问题。去年4月份,江西抚州的才子大桥上,出现护栏被成片吹倒的画面。当时也上了热搜,官方说夜里11级大风,而网友们骂骂咧咧:耗资2亿,就这?

人们怀疑质量上存在豆腐渣以及施工中存在官商之间的利益勾结,所以才被大风捡了便宜。但与此同时,也有一小部分声音认为:这很难评价。接近12级的风把护栏吹塌,并非完全不可能。

image

可一年之后的今天,同样的事件出现后,无论是在视频里,还是在新闻报道下面,人们为地方官方“解释”的评价,可以说是万里挑不到一条。这种现象,对于我们这儿的人来说,反倒是有点凤毛麟角的意思了。

但这也相当合理,毕竟再如何自欺欺人的货色,也必须在大山落到自己头上之前,重新做回一个人。

5月6日,“百姓关注”发布消息,四川雅安一桥面护栏被风吹倒,石材碎裂,市民质疑是“豆腐渣工程”。

CDT 档案卡
标题:这些事情放一起看,人心随着失望在凉却
作者:送青人
发表日期:2025.5.7
来源:微信公众号“剑客写字的地方”
主题归类:塔西佗陷阱
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

当地的解释是咨询过气象部门了,就是风太大,后续维修会加一些相应的防护措施。

image

别再说风大了,笑太多,脸都要笑麻了。

怎么之前建造的时候,不加一点防护措施呢?有位网友的点评非常到位:照你们这个逻辑,那沿海城市是不是天天都得修护栏?黑白手套左右互搏,投标的公司岂不得发财。

这并不是普通人越来越爱刁难谁,是你常常用天气作借口,年年拿剧本喂饭,次次都说是真人真事。吃多了,哪怕只是一口热水,也会先咂摸咂摸,看看是不是工业风味。

真正被吹倒的,是群众的耐心、信任,还有那点点残余的期待。就像吃坏肚子的饭,你总不能每次都说锅的问题。

image

image

于是,见得多了,自然不好骗了、或是不愿意继续被骗了。隔三差五污吏落马,不是收了商人的钱,就是权色交易,或者是警察长期给黑恶势力提供庇护……甚至去年的央视纪录片里,还有某地公安局副局长的另一重身份曝光,直接是黑社会老大的。

连庇护都省了,自己去干。

真以为这种事情频繁的发生,只要打掉,便不会有任何影响吗?

殊不知,那些看不见的影响才是最致命的。很多人已经潜移默化的看到官,就想到贪,有的甚至看到穿着某些制服的人,都能联想到黑恶势力了。

失望多了,人心怎么可能没有一丝一毫的变化。

这种失望导致的变化,换种说法便是:你说你的,反正我不信。

有些东西,就像那被风吹倒的护栏一样,看起来结实,其实早已风中摇摇。

前几天,各大媒体纷纷转发90后男子搬砖赚200万的新闻,结果翻车翻了个彻底,收获了满满当当的嘲讽和揶揄。

这几天,又一个大叔卖600万个鸡蛋饼,直接挣了4套房出来。

image

你好歹得尊重一下看客的智商吧,25年卖600万个鸡蛋饼,你当你是孙大圣,会72变吗?就算你每天工作10个小时,全年无休,连着干了25年,算下来也必须每54秒钟就卖出去一个。

而比起每54秒钟卖出一个鸡蛋饼而言,显然每54秒做出一个鸡蛋饼的手速,更让人感到“有趣”。

这种内容,能怪网友们不信,怪他们在评论里质疑嘲讽吗?你可以粉饰太平,但无法修复人心;可以控制流量,但挡不住失望积压成潮。

事实上,那些动不动便质疑的,还算是保留了一些信任。现在已经有越来越多的人,开始看到这些内容后,连质疑都不屑了。

失望的次数太多了,明摆着扯淡的内容,却被大量媒体奉为圭臬,动不动搬两个缺斤少两的信息出来,作为表明立场的素材。死不悔改,那还质疑个屁。

人设可以立,护栏可以倒,智商可以骗,但人心骗一次、两次、三次之后,就变成你现在看到的样子。

谁言大风无眼,专拣豆腐渣吹。

信任一旦破碎,重建就比修桥难得多。哪怕后来真的刮来了12级大风,也很难再有人信那护栏是被风吹倒的。

不是因为风不够大,而是因为“谎太多”,人心早就吹凉了。

现实的模样|中国的“两院”院士,为什么没有屠呦呦?

4月30日,屠呦呦教授成功当选美国国家科学院外籍院士。

img

CDT 档案卡
标题:中国的“两院”院士,为什么没有屠呦呦?
作者:黑马诗语
发表日期:2025.5.6
来源:微信公众号“现实的模样”
主题归类:屠呦呦
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这消息一公布,在舆论场引起了轩然大波。

人们议论的焦点是,美国科学界的顶尖组织机构,都能吸收屠呦呦成为院士,为啥我们的“两院”(中国科学院和中国工程院)不能?

难道屠呦呦不够资格?

“三无科学家”屠呦呦

屠呦呦主要的科学贡献是发现了青蒿素。经过多年研究,她从中医古籍中得到启迪,改变了青蒿素传统提取工艺。她创建的低温提取青蒿抗疟有效部位的方法,成为青蒿素发现的关键性突破。

2015年10月,屠呦呦以“从中医药古典文献中获取灵感,先驱性地发现青蒿素,开创疟疾治疗新方法”,获得了诺贝尔生理学或医学奖。

img

自青蒿素问世以来,据世卫组织不完全统计,在全世界已挽救了数百万人的生命,每年治疗患者数亿人。在中国,从上世纪40年代每年约3000万的疟疾病例,经过70年不懈努力,如今已完全消除。这一伟大成就,屠呦呦可谓功不可没。

可就是这样一位为人类科学事业做出了巨大贡献的中国科学家,却因种种条件限制,始终未能入选中国科学院院士和中国工程院院士。

于是,屠呦呦就成了我国最著名的“三无科学家”(无博士学位、无留洋背景、无院士头衔)。

美国国家科学院

看了这些,或许有人会说,我们的“两院”那是“优中选优”,美国的科学院,是不是个“草台机构”?

据公开资料显示,美国国家科学院成立于1863年,属私人非营利性组织。科学院的成员由被选为院士的杰出科学家、工程师和医学专家组成。该院是美国国家科学、工程和医学的顶尖组织之一,拥有来自各个领域的知名学者和专家,包括诺贝尔奖得主和国家科学奖章获得者。

美国国家科学院院士的选举,是基于院士在自己的领域内所做出的卓越贡献和对整个领域的重要性来进行的,是通过对院士的名誉和声望的高度认可来选出的。

美国国家科学院的院士,是美国的最高学术荣誉之一。

到目前为止,美国国家科学院共有2662名院士,其中556名属外籍院士。

看到此,谁还敢说美国国家科学院是“草台机构”呢?

中国“两院”院士

关于中国“两院”院士的入选,一直就非议不断。

在中国科学界,院士,那是一种至高无上的荣誉称号,常常被视为科学领域的顶尖精英,他们的研究成果和学术影响力,对国家的科技发展可谓意义深远。

然而,近年来关于中国院士入选黑幕的传闻却不绝于耳。

①评选过程存在“人脉关系”。据相关调查显示,在部分院士评选中,有候选人凭借着与某些现有院士的师徒关系或者校友关系,从而获得了更多的支持。一些学术成果并非特别突出的候选人,却因为与多位有投票权的院士有着紧密的人脉联系,在评选中便能一路“过关斩将”。

一场本该以实力为评判标准的科学竞赛,选手的出身背景和人际关系却成了决定胜负的关键因素。这样选出的院士,已背离了科研能力和创新成果的要求,只能算作“关系院士”。

②科研成果评定存在“夸大”或“注水”现象。有专家表示,一些所谓的“重大科研成果”,在经过深入探究后发现,其实际的科学价值和创新性并没有宣传中那么大。某些科研团队为了让自己的成员入选院士,不惜动用大量的资源来美化成果。奇怪的是,这些成果却能在院士评选中被作为重要的砝码来参与评定。

这种评选,背后明显存在利益共同体的包装和推动的无耻勾当,这样选出来的院士,只能算作“水分院士”。

③地域因素和单位因素的畸形影响。有数据表明,某些地区或一些特定的科研单位,院士的入选人数呈现出一种不合理的集中现象。这些地区或者部门为了提升自己的科技声誉,集中资源和力量来推动本地区的候选人入选,而真正优秀的候选人,却被莫名其妙地排除在外了。

这种在评选过程中,明显的地域保护主义和特殊的推荐安排选出来的院士,只能算作“地域院士”。

在“关系院士”、“水分院士”和“地域院士”的重重作用下,象屠呦呦这样优秀的科学家不能当选院士,似乎也就情有可原了。

优秀的,不一定是院士;而院士,也不一定就优秀。像最近因董袭莹事件,被网友讽刺得体无完肤的王院士之流,不就是最好的例证么?

说到底,这些都是“关系”“圈子”的蝇营狗苟谋利伎俩在作怪。科学界,有假院士,文化界,一样也是黑幕重重。

如,本该是文学净土的中国作协,同样也充斥着“关系会员”“水分会员”和“地域会员”。那些真正埋头耕耘,作品质量上乘的作家,却总是得不到应有的认可;而一些水平一般,但会玩关系、会投机钻营的人,却能凭着几部“粪草作品”,堂而皇之就成了会员。这不仅是在作践文学,也是在赤裸裸地丟尽了作协的脸面!

科学界、文化界都尚且如此,其他的,还能好到哪儿去呢?

当“优秀”的评判标准被套上利益的“枷锁”后,“评判者”就会抬着一双“狗眼”,望着“被评者”振振有词地说:左看右看,你的水平都很低!

这,就是现实里对“评优”的莫大讽刺,谓曰——狗眼看人低!

“狗眼”,什么时候,才能被“人眼”所替代呢?

知识分子|中国论文总量已超美国,人均公共图书馆数却只有美国的1/21

 5.6

知识分子|The Intellectual

img

图片来源:Pixabay.com
CDT 档案卡
标题:中国论文总量已超美国,人均公共图书馆数却只有美国的1/21
作者:丁玖
发表日期:2025.5.6
来源:微信公众号“知识分子”
主题归类:中国学术
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

撰文 | 丁玖

责编 | 李珊珊

●                  ●                   ●

一个爱读书的民族才是有希望的民族。二十年前,一位颇有建树的南京大学校友和美国名校化学博士通过多年的仔细观察说:“中国人不读书,只读教科书”。而图书馆,便是培养民族阅读习惯的一个重要场所。

每所大学都有图书馆,往往还有不止一个,其中最主要的那个就是所谓的“大学图书馆”。藏书量最多的大学图书馆当属哈佛大学图书馆,藏有一千七百多万册。同样,每座城市都有自己的公共图书馆,可能也不止一个,最大的那个在“图书馆”前通常以所属城市命名或再加上“市立”或“公共”二字,如南京图书馆或纽约市立图书馆。

图书馆为人们提供书籍,但馆藏图书数目却从来不是衡量图书馆的最重要的指标。图书馆最重要的指标除了馆藏图书的内容质量外就是藏书的“流通量”,好比经济学家衡量经济活力注重“货币流通量”一样,这是图书馆“使用效率”的度量。类似前几年中国政府的一句告诫“房子是用来住的,不是用来炒的”,“书是用来读的,不是用来藏的”。

许多人都听说过一百七十年前在大英博物馆阅读桌下留下的“马克思脚印”这个故事。虽然“脚印”纯属子虚乌有,但是自1850年6月起,伟大学者马克思(Karl Marx,1818-1883)为了撰写《资本论》,与伦敦大英博物馆结下几十年的不解之缘。从早上9点到晚上7点,他通常待在那里的圆形阅览室中博览群书、收集材料、摘录分类、撰写书稿。他前后集数十年心血写就的四卷本辉煌巨著的第一卷于1867年出版。某种意义上讲,大英博物馆的阅览室是《资本论》诞生的助产士。

丘成桐在其自传《我的几何人生》中,回忆了他在加州大学伯克利分校数学系读博期间,课余时间日夜浸泡在数学图书馆里。在浩瀚的数学大海中,他不仅收获了学问,也初识了一位正在攻读物理博士的美丽姑娘,并最终收获了爱情。

读书多而藏书不多的最著名的中国读书人非钱钟书先生莫属。据说他几乎不买书,也不藏书,但他最善于利用图书馆资源。当他还是清华大学本科生时,就以“横扫清华图书馆”著称;当他成了中国社会科学院文学研究所一级研究员时,他会每周定期去研究所的图书馆,归还上次借阅的一批书,再捧回一袋书。所以,钱钟书无需藏书,书中的人文知识、历史典故、精辟论述等已贮存于大脑中或记录在笔记本里。我在2019年有幸瞻仰了他在无锡的故居,目睹玻璃柜里数本大部头多语种蝇头笔记摘录,被他如此广泛的阅读所震撼。

另有些人,家里有专门书房,一排排书架看上去气宇轩昂,一层层精装书像西装革履的绅士立在其中,它们却几乎没有机会下架活动筋骨,因为主人只是把书当作富丽堂皇的摆设,在他们心中,面子远比里子重要,是否忙里偷闲真正读书并不重要,不是吗?

我自幼也喜爱读书,期间数学书读到一纸博士学位证书,其他书和数学书一样到现在还喜欢读。我从小受父母影响,长大后也得益于几个好老师、好同学、好朋友,一直随心所欲地读书,乐此不疲。

去年我读到一位留美学人的博客,专谈中美两国的公共图书馆。作者查询了官方统计,发现截止到2022年,中国有3303家公共图书馆,平均每42万人共享一家,而美国则有17278家,平均每家服务2万人。这样按人口平均,两国公共图书馆的数目相差21倍。如果加上非公共图书馆(如学校图书馆和学术图书馆),美国共有131848家各类图书馆,而中国缺此官方数据。中国国民生产总值已近美国,学术论文总数已超美国,然而,从“公共图书馆数”这项量化“公民阅读普及率”的指标上看,两国尚有差距。

我在中美两国见识过多种图书馆,包括公共图书馆和高校图书馆。我想分享对两国公共图书馆和大学图书馆功能和区别的某些简单观察,借此发表点一孔之见。

01 中国图书馆:腾飞的三十年

改革开放前,由于中国经济发展尚未开始腾飞,需要资金维持的图书馆资源不丰富。但由于建国后十七年出版业者的共同努力及编辑部人普遍较高的专业素质和职业道德,从科学技术到人文历史,一本本出版发行的专业书籍或普及读物给各行各业的读者提供了营养丰富有益健康的精神食粮,广受公民喜爱,如商务印书馆、三联书店推出的汉译人文经典或随笔游记传记;科学出版社面向专业人士的科技著作;人民教育出版社及高等教育出版社不断重印或新出的各类教科书;人民文学出版社精心挑选的中外文学作品。多年来,我每次回国学术访问之余,会造访当地古旧书店或旧书摊,挑购优质旧版图书。那时的出版总量虽与今日无法相比,但书籍内涵优美,少有东抄西凑之作,货真价实,也让为数不多的各地图书馆起到了文化教育先锋作用。许多名人都曾回忆到他们少年时泡在图书馆里如饥似渴饱餐启蒙读物的幸福光景。

改革开放后,中国经济建设热潮汹涌,人们再次热爱起书籍,渴望阅读。1977年,高考的恢复让民众求知欲得到了空前爆发。考进大学的一代骄子,以悬梁刺股精神争分夺秒读书,他们精读与课程学业有关的教科书,泛读拓广知识开阔视野的课外书,大学图书馆里日夜坐满了人,许多炙手可热的教学参考书要排队借阅,图书馆的使用率达到极大提升。

一位北京大学地理系81级学生在几年前一篇回忆文章中,引用了歌唱当年北大图书馆的一首歌词:

晚风轻拂图书馆,座位全占满;没有座位怎么办,心里是凄惨惨;坐在门前的草地上我消磨许多时光,从七点半我一直挨到十点半。

也有几次被人赶,那景象真凄惨;收拾书包,垂头丧气我离开了图书馆;四处流窜犹如丧家之犬,直到黑夜吞没我在宿舍大门前。

图书馆,图书馆,北大的图书馆,有过许多美好时光;书包、饭票、铅笔盒,还有一个倒霉蛋。

更多进入了无围墙电视大学的在职青年,构成了全民读书的主力军。70年代末期,我在读大学时的一则日记中记录了下述故事:我一高中同学很上进,但因所修电视大学课程《材料力学》借不到教科书,专门来信请我帮忙从校图书馆借阅。此时图书馆使用功能更增强了,因为这本质上等同于国外大学图书馆名为“馆际互借”的一项便民服务。

随着持续不断的经济发展和不停建造的配套实施,中国的图书馆群也迎来了蓬勃发展的年代。文化建设紧跟城市建设的步伐向前发展,新的公共图书馆在各地不断涌现。大学扩招让大学城像商业城一样遍地开花出现,几乎每所大学都有了新校区,面积成倍增加,雄伟的新图书馆成了光彩夺目的校园一景。从北京图书馆脱胎扩建的国家图书馆,也于90年代拔地而起,气势恢宏。过去的三十年见证了中国公共及大学图书馆蓬勃发展的景象。

我上次回到家乡扬州,路过一家城市书房,就在风景迷人的瘦西湖边上,每天24小时开放,增添了这座苏北历史名城的文化风景。在拙书《亲历美国教育:三十年的体验与思考》由商务印书馆出版后,我也曾应邀在苏南名城无锡苏州的书堂做过演讲,探讨中美教育理念方式的异同。直接体验这些书房书堂并与听众互动,令我深感愉悦,并从他们的神态捕捉到书籍的魅力。自然,我们的公立图书馆也需及时跟上人们渴爱读书的步伐。

图书馆大楼竖起后,众多图书排列在一行行望不到尽头的崭新书架上,看上去琳琅满目,满眼是书的海洋。馆外人行马路通向大门的数十级宽阔台阶、馆内上下左右巨大容量的使用空间、阅览室内外色彩缤纷引人注目的艺术装饰,折射出一件件现代化硬件设施,仿佛让人进入了一个书籍时代的人间仙境。

清华大学历史上最令人敬仰的梅贻琦校长,在他1931年就职校长演说中留下一句名言:“所谓大学者,非谓有大楼之谓也,有大师之谓也。”如果将他的治校理念引申到书籍世界,就有:所谓图书馆者,非谓有高耸大楼之谓也,有好书流通之谓也。“大楼”是硬件条件的比喻,“流通”则是软件功能的刻画了。

二十年前,有位海外华人教授在书里记载了他在国内的一次图书馆经历。当时他正造访一家研究院,收到另一华人教授的电邮,请帮查找一篇中文期刊文章,复印寄给他。受托者在院内图书馆没能查到该文,别人告他附近那个资料齐全的图书中心应该有它。这幢新建高楼,外表厚重、气势宏伟。大门前的台阶个数,甚至可和能装万人的大会堂比比。他爬上去的虔诚之心,好似朝拜书的麦加世界。但寻找期刊、复印论文的前后过程,让这位学者感觉大变。手续之繁琐、交流之困难、氛围之尴尬、态度之傲慢、让他内心十分埋怨老朋友为啥叫自己替对方遭罪。他在此磨蹭良久的下午时光,整座大楼几乎是空空荡荡的,除了无所事事的工作人员,没看到几个人光临这座实用性大打折扣的壮观建筑。

几年后,笔者在国内一所名校的宾馆图书室(这是值得赞赏的一项服务,满足了爱读书访客的精神需求)读到一本书《美国人的性格》,在其第三部分“访美掠影”一文《博闻强识的电脑》中,著者费孝通这样回忆他本人在祖国图书馆内的切身感受:

只要想一想我自己要想写一篇文章,要引用一次自己明明记得的资料,为了要核实一下,去图书馆借书查阅,不知要花多少唇舌,多少时间。有时生了气,文章也吹了。

连费孝通这样一位面相慈祥的社会名流,读书著述查阅资料时也会受一通图书馆借书柜台喷出的气,可见他遇到的冷遇有多冷,心中的沮丧有多深。

02 美国图书馆:如何更好地为读者服务?

爱好读书是美国人一个重要特征。这个习惯从小养成,和美国初等教育重视阅读有关。在美国小学,数学远没有中国学得那么多那么深,毕竟成年人中大概95%一辈子用不到多少数学,比如解一元二次方程,所以少学点数学不难理解。然而,语文训练,包括大量阅读、写作练习和班级演讲,大大超过中国同类学生,因为语言交流能力在人生中最最重要。自然,他们长大后一直保持对书籍的热爱。在机场候机室或机舱里,许多美国人一书在手津津有味地读着,不像在中国公共场所放眼看去几乎人人都在玩手机。他们读得比较多的图书包括小说、传记和科普作品。有趣的是,美国学校用的教科书多是精装的,又厚又重,适合在教室里使用,但出版商却印刷了大量平装书,它们不仅重量轻,而且尺寸小到可以放进口袋,这是为方便旅行阅读考虑的。正因为喜欢读书并寻找对自己胃口的书,逛书店或图书馆成了美国人日常活动之一。书店是私营的,但图书馆却是政府用税收建造的。

美国的公共图书馆不仅星罗棋布分散在各城镇,而且许多就位于居民社区中,方便民众借书还书。我已在美国大学教书三十余年,经常光顾本校图书馆及周围的公共图书馆,熟悉它们的各种服务与功能,也享受过由此得到的好处。任教大学所在市,居民人数不到五万,却有一个较大的公共图书馆,但只有两层楼高,与全国各地普遍不建高楼的做法一致。它位于交通要道,离本市政府机构楼群相距较近,所以那些去联邦办公室办事或附近店铺购物的人可以顺便借几本书或几盘电影光盘带回家阅读或观赏。

不过我常光顾的,却是住家所在社区的一个图书馆,是县公共图书馆的一个分馆。它只有一层楼,虽然没有宏伟的建筑或气派的外表,却极端好使、十分受用,对本社区所有居民免费开放。只要提供居住本区的任何证明,如驾驶执照或水电费账单上的居住地址,就能免费获得一张借书卡,也无需预付“押金”。它每天开馆后供应免费咖啡,让你一边看书一边提神,闭馆后继续免费提供无线网络。馆内还有若干电脑,供读者免费使用,如上网查询或打字写作。每天来往借书还书的读者常见携儿带女,络绎不绝,工作人员总是笑容满面,热情服务。借阅者若不小心过期还书一两天也不会被无情罚款,一切富于人性化。虽只有寥寥几名职员,小小图书馆每周公益活动却排得满满的。有读书会、作家日、学电脑及健康讲座等,还专辟一间儿童借书阅览游戏室。

美国人不仅老年少年都爱读书,而且还积极捐出家中读完或长者逝世后遗留下、后辈无意占有的个人图书,送到图书馆让更多人受益。这种捐书,与风行全国的慈善捐物有一样的哲学理念:捐物是物质性的接济穷人,捐书是精神性的输送营养,它们加在一起后,就完成了物质文明和精神文明的双重使命。

由于爱读书人太多,捐书者也很多,所以公共图书馆和大学图书馆每年都举办一两次大型卖书活动,历时好几天。一般精装书每本一元,平装书降到五角,淘书者纷至沓来,往往一袋几袋买回家。到最后一天,常降到一袋书两三美元半送半卖。这些卖出的书,说不定过不久又捐了回来。所以,如同金融学里的货币流通那样,流入不同读者的这些书籍圆满实现了它们最大的功效。我家里越积越多的许多书就来自于旧书贱卖中淘到的宝贝,如一本英译的中国古代小说、几本贾平凹、金宇澄等的中文小说以及五十四卷一套还很崭新的《西方世界的伟大经典》。当然我也向美国人学习,不用再读的书捐给图书馆。

比起公共图书馆面向社会各界平民百姓,大学图书馆服务对象主要是大学生、研究生和老师,因而其教育与学术功能更强。我博士母校密歇根州立大学不仅有座很大的校级图书馆,数学系还拥有一个藏书丰富、装饰典雅的漂亮图书馆。系里每个教员都有钥匙,在图书馆关门后也可进去翻翻专业期刊或查查研究资料。那么研究生也被赋予这特权吗?答案是无论哪位获得资助刚来报到的研究生,不管来自本土还是国外,第一天从系研究生事务主任秘书手中,接过其助教办公室和楼门钥匙,另加系图书馆钥匙。几十年前,这令来自国内一所名牌大学的博士生十分惊奇,因为那所学府新落成不久的学校图书馆曾经大胆实行“开架借书”,但这方便学生之举却导致几个月后许多书不翼而飞。一些读书人或许像孔乙己那样认为“偷书”只是“窃书”,不像“偷钱”那么丢脸。这位博士生在原校读硕士时,数学系虽有图书馆,却每晚“铁将军把门”,师生无人能进。而这里竟如此相信刚来念书的外国青年,不怕书被偷了?西方文化中彼此信任的基因有多强!实践证明,外国学生与本国学生一样,无愧于系方充分信任。这名博士生在那里读书的几年内,从未听说过系图书馆“监守自盗”故事。每人充分享受使用图书馆的种种便利,尤其在静谧的夜间,坐在舒适的单人沙发上,沉浸于数学思维的汪洋大海中,那种感觉对求知者和探索者而言真是美妙至极。结果是,在这样的学术氛围下,读书动力加大了,学习效率提高了,钻研劲头更足了,写出的博士论文也富有创造性了。

收藏保管并对外借阅只是图书馆的基本功能,科学管理的图书馆总把读者需求放在首位,尽量挖掘图书资源,举办相关活动,如书展、画展、读书报告会等。在高度信息化的美国大学图书馆,高效为学生修课、教师授课、学术研究提供支持和方便。其中一个很得人心的“便民服务”就是所谓的“馆际互借”。顾名思义,如果某个学生或教师因为学业或研究而需要文献,但本校图书馆没有收藏,这时可填写“馆际借阅申请信息表”,输进所需资料有关信息,如书名、著者名、出版社名、版次、出版年份,网上提交后,连接各大学图书馆的信息高速公路很快就能找到馆藏此书并离本校最近的大学。只要此资料可以外借,很快就会寄到本校,校方图书馆马上通知当事人前来收取。自然,这种馆外图书的借期(可能不多于一个月)通常短于本馆(一般半年),但只要外馆不催还,可以续借。我的许多研究工作所需专著或论文集就得益于学校图书馆馆际互借办公室的高效服务。

在英特网出现前,借书需要通过馆藏目录卡片寻找书的号码,在书库拿到书办理借阅手续时,前台人员总是不忘贴上写有归还日期的标签。借书者却常常忘记这个日期而被事后催还并罚款。如今,发达的网络消除了这些麻烦,图书馆会在还书日前一周电邮通知阁下在那日前勿忘还书。但是如果你还想续借,可在网上完成续借手续而不必专门跑一趟图书馆。这不仅方便读者,也节省图书馆劳动力。

大学图书馆的主要顾客是学生,所以它不能像衙门那样一副冰冷面孔,而是自始至终微笑相迎。在美国,学生是大学的主人,因为他们付了学费,理应得到最佳待遇。而付给教师的薪水,不是对他们做研究的犒劳,而是对他们教书的报酬。所以一切措施都以学生为准。学校基层和中层管理者,如系主任和学院院长,最放在心上的是设法满足学生合理要求,而不是整天把眼光盯在教师科研考核上。

大学每周五日全部课程,上课时间总是从早晨八点开始,每节课的长度为50或75分钟,依该课每周上课三次或两次而定。机关办公室正常上班时间也从八点开始,但是大学图书馆为了最大限度照顾学生,总是提前开门,提前量从半到一小时都有,甚至像“早鸟(early bird)”那样更早起飞。这是“满足学生需求”的一个简单做法,因为上课前某些学生可能要去图书馆借书或去那里的电脑查什么东西。至于每天何时闭馆,也是尽量推迟。回想起我当年读大学时,学生宿舍每晚十点熄灯,图书馆也更早关门打烊,那时刻读书写字或许正在兴头上,却被突然响起的尖锐铃声命令你离开,心中的懊恼依然记忆犹新。而美国大学图书馆,一般会开到半夜甚至更久。到了期末考试前那两周,学生的睡眠时间自然减少,图书馆开张时间也相应前后延长,半夜三更时的灯火辉煌,为复习迎考的学子提供了光明和场所。

大学除了周末,还有寒暑假。在美国,除了几个法定假日,如元旦、马丁·路德·金生日、复活节、独立节、劳动节、感恩节和圣诞节等外,大学图书馆几乎天天开门。暑假历时三个月,多数学生利用这段时间打工挣学费或另有安排,但也有不少同学继续修课,尽早完成毕业所需的学分数,部分教师根据自愿原则教暑期课程,所获报酬不算在按九个月发放的年薪内。另外,暑假是大学老师们做研究的最佳时期,那些有研究基金支持的教师,因为不必教书,大把时间都用于做实验写论文出成果上了,他们门下的硕士或博士生也在暑假里大干快上,因此图书馆大门必须在炎热阳光下继续敞开。大学是教育新一代各行业尖兵的练兵场,是教授、博士后和研究生开垦未知世界的处女地。在这教学相长、探索自然的事业中,图书馆必须而且必能发挥巨大作用。

正因为公共图书馆和大学图书馆对于现代文明的排头兵角色,它们需要有信息与情报科学专业知识的工作人员来按不同部门各级管理。在美国,大学图书馆以及稍有规模的公共图书馆的中上层管理人员通常都有“图书馆与信息科学”的学士或硕士学位,部分人拥有博士学位。我任教大学有个本州唯一被美国图书馆协会认可的图书馆与信息科学专业,培养从学士到硕士学位的专业人才。在过去的几十年间,有不少来自中国的学生,其中包括北大图书馆学专业的毕业生,在此获得研究生学位,毕业后去了纽约等城市的公共图书馆或高校图书馆任职。

03 为什么我们不爱读书了?

如我在开头所述,读书,对一个国家和民族至关重要,然而,在中国,人们的读书习惯却远比不上欧美国家。在2009年发表于《科学时报》上的一篇随笔《读书与国家读书节》中,我曾解释了中国人“只读教科书”的来由:“教科书与考试相关,而目前铺天盖地的应试教育把教科书提升到无以伦比的高度。譬如,为考上替父母增光的‘清华北大’,众多学子从幼儿园到高中拼命死啃堆积成山的教科书和考试辅导书;为考上待遇诱人的国家公务员,一部分平时远离书籍的人也和备考学习指导书暂时热恋起来;为了在还不够风雅的乌纱帽上再套上一顶博士帽,某些一贯‘无暇’读书的官员也纷纷成了大学教授的宠儿。如此等等,给崇高的读书境界倾注了平庸的成分。”

另一个导致很多成年人远离书籍的原因是:考进大学前应试教育书读得太多太累,一旦结束这个阶段,入学后的部分大学生就有机会将“恨书”化作行动,再也不想读书了。还有一个原因归于网络世界的诱惑,它将大众尤其是青少年从书籍活页中赶走,抛进虚幻的电子空间。大量自媒体微信公众号文章的泛滥成灾,也吸引了许多热衷于获取“碎片知识”的读者。可惜,很多这样不负责任的“短平快”网络文章,不是东抄西抄拼凑而成,就是错误百出贻误读者,阅读质量怎能与经过正规渠道出版的优秀作品相比?

突飞猛进的现代科技既给人类带来了好处,比如若正处于酷暑,家里不开空调是无法快乐的,但有高科技产品在带来方便同时也带来害处,如电子计算器。计算器帮助人们快速完成繁琐运算,然而它的出现及学校对此放任使用,客观上已经害了几代美国小学生,因为他们离不开它,连“九九口诀表”也懒得去背。所以美国小孩的心算能力远低于中国小孩,罪魁祸首可能就是手中的计算器。类似地,中国成年人疏于读书,罪魁祸首或许是让人沉湎其中的智能手机。

自然,当今全民族没有养成良好读书习惯一个不应忽视的原因,一是图书馆太少,二是现有图书馆的潜在功能没被充分挖掘。如果国家与地方政府多点文化投资,星罗棋布地多建城镇、社区和乡村图书馆,对周围居民简化借书程序、优化服务质量,逐步培养民众阅读兴趣,并定期举办读书报告会、科学论坛、专家解惑、热点辩论等开启民智、训练思维、鼓励质疑、明辨是非的公益活动,吸引越来越多的公众加入读书队伍中,进而一步步改善人民的知识结构、认知习惯和交流能力。这样久而行之,公民整体素质就会稳步提高,分析和判断能力就会慢慢增强,其外在表现将是,容易感染上各类病毒的聚集性搓麻将活动将明显减少,而发展出如下生活方式的人将越来越多:他们坐在图书馆阅览室沙发里或家中书房靠背椅上,埋首于一本好书,领悟智者洞见、追随历史风云、聆听科学回音、品味优美写作,沉浸在收获满满的喜悦之中。

读书使人进步,而推动我们进步的一个动力源就在图书馆中!

(完稿于美国哈蒂斯堡居所夏日山庄,2025年2月。)

亲爱的读者们,不星标《知识分子》公众号,会错过每日科学新知!星标《知识分子》,紧跟前沿科学,一起探索科学的奥秘吧!

img

请戳上图卡片添加星标

img

关注《知识分子》视频号

get更多有趣、有料的科普内容

img

img

img

img

END

img

浣花溪杜甫|新鲜出炉的胡说八道,专家教授:马克思的祖先来自中国

img

CDT 档案卡
标题:新鲜出炉的胡说八道,专家教授:马克思的祖先来自中国
作者:徐鹏1
发表日期:2025.5.6
来源:微信公众号“浣花溪杜甫”
主题归类:马克思
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

最近,医学圈的事,让大家看到了医学的学术问题。

我们看到这些乱象不禁要问,只有医学有这样的学术问题吗?

当然不是,只是因为医学的问题关系着所有人的利益。

而在其他领域同样有令人瞠目结舌的学术成就。

一个叫杜钢建的人在微信公众号上发表了一篇《马克思的祖先来自中国》的文章,而且这个文章还是纪念马克思诞辰207年暨马克思主义中国化时代化座谈会在北京的发言稿。

我们先大致看看他的发言稿。

img

img

img

img

他的奇葩观点

1,马克思的祖先来自中国,马克思的祖先是在元朝跟着蒙古人到达欧洲。

2,马克思祖先是回族人,理由是没有记载马克思吃猪肉。而且姓马,再往前追溯是周文王后裔。

3,马克思女儿转世为人,成为广东武台寺印幸法师。

4,西周第一个国都是耶路撒冷,周文王、周武王、周成王,分别对应的是圣经和古兰经的扫罗王、大卫王、所罗门王。

……还有一些观点都不想总结了。

img

很难想象这是一个教授、博导、国务院特殊津贴的专家。

看他现在的内容,还是香港经济管理学院的院长。

img

一个社科类的专家,就这认知水平?

以前听说马克思研究,总觉得高大上。现在看了他的发言稿,感觉也不过如此嘛。

一本正经的胡说八道,如果没有话题可以不说,没必要胡扯。

马克思的中文翻译是马克思,他祖宗就要姓马?这是什么常识?

血缘传说和迁徙路径都没有任何证据,都是主观臆断。

马克思是犹太人,犹太人也不吃猪肉,也简葬,你就能推出他是回族?这是什么逻辑?

马克思主义是无神论的,你却说他女儿转世轮回成了武台寺法师。一个研究无神论的专家还在搞这些转世轮回,这不矛盾吗?

通篇胡扯,居然能堂而皇之地在座谈会上发言。这种座谈会有什么存在的意义?

而且他不是第一次发这种惊人语了。

他曾论证人类起源于湖南。

他还曾论证英国起源于湖北,英国的名字来源于湖北英山。这该死的谐音梗。

img

他还曾论证列宁是湖南人。

img

甚至他还说百余位外星人在湖南活动多年。

img

这位法学教授,就研究这些,可惜了那么多经费。

他研究出马克思,列宁都是中国人,服务于马克思主义中国化,本质上还是个投机分子。

用文化民族主义凌驾于学术客观性,误导公众认知,甚至把公众当傻子整。

我看还有很多人给他打赏嘛,那就是信了他这套说辞。

这样的人还是教授博导,误人子弟,社会科学还能研究出什么成果来?

这就是现在的学术环境,经费用来养这些人,白瞎了。

啥时候才能正常一点?

全文完

请关注点赞转发评论打赏

被这样的专家教授忽悠瘸了,不如玩点益智类小游戏。

Yesterday — 6 May 2025中国数字时代

老斯基财经|最终还是护士扛下了所有

6 May 2025 at 20:05

file

教大伙一键识别论文和民间偏方大全。

过了一个假期,咱们医学界又上升到了一个匪夷所思的高度。

大伙惊喜地发现,早在几年前,医学界就研究了多起男性得妇科病的案例。

在研究子宫肌瘤的护理要点时,采用的78例患者中男性占了45例。

咱们还研究了高危产妇、产后出血、绝经后子宫内膜病变等领域的男性患者情况。

file

再这么下去,兄弟们可以生娃的秘密可要藏不住了。

可能这些论文研究的成果对于大伙认知而言,过于超前,一些医院为了息事宁人,马上认领了错误。

山东大学齐鲁医院第一时间开展调查,给了自家霍护士记过和降级处理。

image

CDT 档案卡
标题:最终还是护士扛下了所有
作者:魔鬼斯基
发表日期:2025.5.6
来源:微信公众号“老斯基财经”
主题归类:学术造假
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

医院和医院之间的办事效率差距还是挺大的。

董小姐的事闹出这么大的动静,那家医院都还没站出来说啥,一个霍护士就让齐鲁医院迅速行动起来了。

其实男人得妇科病,也不是没有这个可能。

之前就有研究说,男人可能有子宫,而女人也可能有前列腺,这些都是退化不完全的结果。

医院这么积极认错,反而让大伙联想到了论文造假。

img

论文造假这事,咱们有关部门一直都很重视。

只是词条很关键,“男人得妇科病”这种词条自带热搜体质。

2020年9月,有关部门通报了7起论文买卖案件,买家来自:

中国医科大学肿瘤医院、青岛大学附属医院、福建医科大学附属漳州市医院、南京医科大学附属苏州医院、山东大学和南京理工大学等。

《长江日报》在15年前就披露了武汉大学沈阳研究团队的发现:

买卖论文在我国已形成产业,2009年产值高达10亿元人民币。

image

而且,这还是保守估计。

这些论文工厂比餐饮业更早走出了一条预制路线。

一些论文中介会时不时地在社交平台贴出,已经被杂志接收的只需要小修的论文。

如果有客户需要,交易后更换或者加上买家名字就可以了。

其实论文工厂不是一个区域性产物,而是一个世界性产物。在国外,代写论文有自己的学名——

合约作弊。

据说对于代写论文,一些欧美高校的大学生都有自己的国际渠道。

只不过大学生以为自己找的是学术更高的硕士、博士来操刀,没想到经过层层转包后,给他们代写的是:

来自肯尼亚的非洲兄弟。

数据显示,那里的“枪手”占到全球论文代写市场的一半以上。

image

一位肯尼亚兄弟还有一次引以为傲的操作。

有一次,他在撰写完初稿后,被客户紧急叫停,不是因为写得不好,而是论文写得实在质量太高。

搞得客户宝宝被自己的教授怀疑。

这位肯尼亚兄弟给出的对策是,降低内容深度甚至故意在几个关键处出错,让论文重新匹配客户宝宝的真实水平。

img

这个故事告诉咱们,一些表面看上去很低级的错误,有可能是产业链上的人故意留下的善意BUG。

比起董小姐,大伙对霍护士要友好得多,毕竟大伙儿也知道普通护士一天的工作量有多大。

去年有一个数据说,咱们这儿的护士缺口将近400万。

要想快速扭转这种行业局面,可能需要像董小姐这样的医学奇才带头投身护理事业,起一个表率作用。

目前看来,这样的假设是不太可能实现,所以大伙儿觉得这一行已经够辛苦了,论文造个假也不是不能理解。

一些热心网友甚至设想了各种可能,比如:

会不会是患者女扮男装,蒙骗了医院?

还有一种可能是霍护士等人觉得没有时间好好打磨论文,与其误导业内人士,不如留一个显眼的BUG。

让内行人一眼看穿这篇论文没有参考价值,而且从现在暴露的论文来看,这些BUG都留在论文的开头。

大伙都很忙,把这样的BUG留在开头,起码不浪费大伙儿的时间。

这年头生意是生意,学术是学术,大佬们可比咱们拎得清多了。

之前湖南有一本叫《求索》的刊物,主编让情妇从中介手里收稿,给钱了才发。

这笔生意做了10多年,主编情妇收的版面费高达近千万元。

image

连颜宁都忍不住在微博灵魂拷问:

凭啥文章是科研工作者写,天价发表费都让出版社挣?

image

这里面的一部分,可是护士们连轴转挣来的工资啊。

西坡原创|环境变差,不得不做二代

6 May 2025 at 17:19

file

文|西坡

上一篇文章发出之后,一位朋友跟我讨论二代这个现象。我突然意识到,二代的泛滥,其实是环境变差的结果。我有点后知后觉了,但想一想,非常合理。

朋友是在南方一家研究所做科研的,2000年左右上的大学。这个时间点是重要的。专业就不说了,叫他A师吧。

A师回忆,上学的时候,同学里边二代并不多。学而优则仕是有的,家里提前给规划了道路,一步一步按部就班。但是大部分同学,所学专业和父辈的专业是不同的。

当然,那个时候全民的整体学历水平还非常有限,很多大学生的父辈就是普通的农民或工人。还得换个角度去观察。

CDT 档案卡
标题:环境变差,不得不做二代
作者:西坡
发表日期:2025.5.6
来源:微信公众号“西坡原创”
主题归类:阶层固化
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

A师是个有心人,他记得上学的时候,本院系领导和老师们的孩子,也大都不是二代。“那些年的专业和职业选择非常丰富,不管父母教的是啥,子女学啥的都有。”

但是近六七年以来,情况发生了肉眼可见的变化。A师的身份已经从学生变成了带学生的老师,他发现周围同事的孩子,大部分都学的本专业。

我在脑子里回顾了一下这几年的新闻和舆论,发现很多事都可以在这里找到门道。那个被说了无数遍的“卷”字,突然变得具体起来。

近水楼台先得月,得先有楼台。在整个高考史上,“老三届”的含金量是最足的,因为那时候从老师到学生,所有队伍都是从头重建的,大家都在同一条起跑线上。

随着教育体制的正规化、完善化,逐渐有一批人,准确的说,是有一批家庭,进入了教学、科研和资源分配的中心位置。我们当然不能把这批人全部否定,因为在从无到有的过程中,人家也出了很大的力。

在整个社会处于扩张区间的时候,这其实还不太成为问题。比如在2000年左右的时候,那个时候社会矛盾的主场还在农村,三农问题牵引全社会的目光。现在想想仿佛前世烟云,其实不过二十来年。

那个时候当然已经有先知先觉的人,开始培养二代了。但许多新兴行业方兴未艾,社会思潮是进取的,文化是蓬勃的,二代们也不甘于做二代,他们还想着把一代拍在沙滩上呢。

而随着整个社会从扩张区间进入收缩区间,一代和二代们渐渐意识到,还是子承父业靠谱。

2010年代后半期往后,城市化和工业化的突飞猛进阶段结束,剩下的就是小火收汁。和国际接轨的进程,也渐渐宣告结束。

别人有的,我们都有了。别人会玩的,我们也大概都会玩了。蓝海开拓殆尽,一片一片都开始变成红海生存模式。

这个时候,一代们对子女们说,你复制我的道路,我有一手的经验,我也有现成的资源。你不愿意走也行,你满世界去看看,为了那样一个普普通通的工作,几千几万人挤破了头。

二代们一看一想,得,听他的吧。干啥不是干呢,要啥自行车。

前景的不确定,倒逼已经占据有利位置的人,抓紧利用现成的资源,完成竞争优势的代际传递。这和动物界、植物界的生存游戏,没有什么本质区别。

当然,这种集体选择倾向具有强烈的负外部性。环境变差,二代们只能安于做二代,但那些没有一代可以依傍的准一代们,就要面临双重损失了。总的机会缩减,现有的机会还要面临更不公平的竞争。

考虑到这些,我更能共情现在的年轻人了。因为那些发出哀嚎的,正是双重受损的这一批。

虽然我还是想跟他们说,不要把对环境的分析批判和自我成长混为一谈,正如我曾经说过的:我们无法等到社会变好再开始生活,即便在不公平的条件的,依然要自己动手找到向上攀爬的阶梯。但我此刻更能理解很多人心里的苦闷了。

我还想跟那些有一代的二代们和有二代的一代们说,那些你们看不见的人,依然存在,那些你们听不见的声音,依然存在。他们不仅是竞争者,也是所有人的机遇和道路。

人类是生物,但不应该仅仅是遵循适者生存模式的普通生物。河狸都知道建造水坝来为创造属于自己的环境,人类,尤其是自诩为精英的那部分人类,要学会为自己栖居的环境负责。

总要有人为整体和长远考虑。

“今天吵架了吗?”欢迎加入西坡读者群。自从有了群,美景和好文章不可胜食也。

智识漂流|“55名男性子宫肌瘤患者”,如何瞒过协和院士?

6 May 2025 at 17:10

file

该杂志标榜"国内唯一妇科内分泌专业期刊",却在核心领域出现颠覆性错误,严重损害专业权威性。

1

护士霍文静论文造假的新闻爆出后,山东大学齐鲁医院火速做出处理决定:

5月5日上午,我院关注到网友反馈的相关论文信息,第一时间开展调查工作。经核查,网传论文存在学术不端问题。我院依规依纪给予护士霍某某记过处分、降级处理,取消其五年内各类晋级晋升等资格。

CDT 档案卡
标题:“55名男性子宫肌瘤患者”,如何瞒过协和院士?
作者:卸妆君
发表日期:2025.5.6
来源:微信公众号“智识漂流”
主题归类:学术造假
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这篇题为《针对性护理干预在子宫肌瘤围手术期的情绪和生活质量临床应用效果》的论文,造假造得很不高明,因为它制造了55个“子宫肌瘤男性患者”霍文静称,“选取了子宫肌瘤患者80例,对照组患者中,男27例,女13例,观察组患者中,男28例,女12例”。

齐鲁医院很知名,是综合性三级甲等医院,由国家卫生健康委员(NHC)直接管理。医院成立于1890年,位于济南市历下区,是中国最早的现代化医院之一。

“北协和、南湘雅、东齐鲁、西华西”,中国医学界上世纪曾有著名四大医学中心说法。

如果霍文静是齐鲁医院重点科室主任,那这个丑闻就大了。但她仅仅是一个护士而已,所以有朋友在社交圈表示:这个事件的关注点更应在国家药品监督管理局主管、中国医药科技出版社主办、协和院士主编的国家权威期刊——《实用妇科内分泌》电子杂志。

但似乎还没有媒体采访到他们。

2

我们看看这份杂志是谁编的。

这份杂志的主要栏目包括:

论著:发表原创性研究论文。

综述:对某一领域的研究进展进行系统总结。

临床研究:探讨妇科内分泌领域的临床实践和研究。

诊断技术:介绍新的诊断技术和方法。

临床护理:分享妇科内分泌患者的护理经验。

医学广角:涵盖妇科内分泌领域的广泛话题。

编辑团队如下:

它由我国著名妇产科领域学科带头人北京协和医院郎景和院士担任主编,孙爱军教授担任执行主编,北京协和医院妇科内分泌中心联合主办。全国妇产科领域著名专家教授担任副主编、常务编委和编委。

郎景和院士大名鼎鼎,曾任北京协和医院妇产科系主任,是中国工程院院士,这很多人都知道。

image

孙爱军需要重点介绍一下,他是北京协和医院能妇科内分泌与生殖中心主任,先后担任“国家十五,十一五,十二五支撑计划重点攻关项目与国家自然科学基金面上项目、首都卫生发展科研专项项目的负责人。

image

这个期刊内容是北京协和医院主导的,基本没有什么异议了……甲辰年(2025)协和系真的流年不利啊!

这种一眼假的论文,是怎么发出来的?这真是一个巨大的谜团。《实用妇科内分泌》都不审稿的吗?

该论文于2017年发表却迟至2025年才被公众揭发,反映出期刊缺乏有效的论文追溯和纠错机制。

更讽刺的是,该杂志标榜"国内唯一妇科内分泌专业期刊",却在核心领域出现颠覆性错误,严重损害专业权威性。

是给钱就发稿所以不用审吗?

我们知道现在有很多医院内部人员参与代写论文,江苏省苏州市第九人民医院周海云,就曾作为参与作者,主动联系第三方机构代写胃癌研究论文。2021年事败后,受到党内警告、降级并调离原单位等处分。

从简单性别逻辑错误,到复杂实验数据篡改,均暴露同行评审的形式化。

要知道,像霍文静这种护士,想在国家级学术期刊发稿,不是肯砸钱就能办到的。

所以,郎景和与孙爱军——两位协和系大咖,你们不应该主动站出来说明情况原委吗?

另外顺便说句很多人的疑惑,一个护士,为什么要去国家权威期刊发稿?我一个朋友吐槽说:

问题是护士为啥要写论文?

类似的还有中小学老师为啥要写论文?

有什么意义?

【404文库】“当英语世界创造着占全球60%的互联网内容,中文信息仅贡献1.3%的微小份额,这种悬殊对比揭开了残酷真相”(外二篇)

By: elijah
6 May 2025 at 04:48

CDT 档案卡
标题:【404文库】“当英语世界创造着占全球60%的互联网内容,中文信息仅贡献1.3%的微小份额,这种悬殊对比揭开了残酷真相”(外二篇)
来源:阜成门六号院难得君科学与真相

主题归类:董袭莹董明珠防火墙
CDS收藏:时间馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

《404档案馆》讲述中国审查与反审查的故事,同时以文字、音频和视频的形式发布。播客节目可在 Apple Podcasts, Google Podcasts, Spotify 或泛用型播客客户端搜索“404档案馆”进行收听,视频节目可在Youtube“中国数字时代· 404档案馆”频道收看。

欢迎来到404档案馆,在这里,我们一起穿越中国数字高墙

尽管中国的言论审查和舆论管控日趋严峻,国家对公民的监控也无处不在,但我们依然可以看那些不服从的个体,顶着被删号、被约谈、甚至被监禁的风险,对不公义勇敢发出自己的声音。

中国数字时代在“404文库”栏目中长期收录这些被当局审查机制删除的声音。如果您也不希望这些声音就这样消失,请随手将它们转发给您可以转发的任何人。

在本期的【404文库】栏目中,我们将选读过去一周中引起舆论关注的三篇404文章。

一、阜成门六号院|董小姐算是京城婆罗门权贵出身吗?

四月底,北京协和医院医生肖飞的桃色新闻牵出了董袭莹“门阀”事件,该事件在中文互联网上引起网民强烈不满。

img

不少网民挖出了“董小姐”的家世背景,并对协和医院“4+4”医学博士项目表示质疑。

img

有网民统计,该项目中不少人都是“有关系”的“门阀世家”,认为该项目专为权贵设立。

img

面对网民们汹涌的讨论,微博、微信、小红书、抖音等平台均展开了严格审查。微信公众号“阜成门六号院”发表的一篇遭到审查删除的文章中,作者提出另一种看法,作者写道:

董小姐一事不能用权贵模式来解释,更确切是用知识阶层堕落或精英自甘腐败来解释,董被爆料的行为,处处显示出这个家庭的精致利己主义,或极其善于经营:

1.从医的人最起码讲医德,引导自己孙女读医学博士是可以,无可厚非,但是给自己孙女辅导博士论文,又把孩子安排到肿瘤医院这种人命关天地方的一线医务岗是怎么回事?这不是害孩子,更是以后祸害患者吗?

2.董的成长路是被家长精心设计的,从规避高考到美国就读社区大学,然后转学到巴纳德学院,成功获得哥大的名分,再到协和博士班,显示出这个家庭善于利用便捷通道,让孩子获得成功。

并且董家一直善于利用媒体,她上小学时,就登上北京市属媒体;进入协和以及实习后,又找央媒的外围媒体给予曝光,可能家长觉得知名度越高,意味着孩子越成功。

3.董小姐的行为也表明,她是一个很聪明的人,但是又是被溺爱长大的,被家庭灌输追求极致成功,而缺乏道德底线的。比如她与有妇之夫搞婚外恋,还堕胎;再比如,她在2022 年到 2024 年期间,一共发表11篇高水平论文,从骨科到妇科,从放射科到泌尿科,从高分子物理,到化学到生物医学,跨度之大令人咋舌。

这样复杂的高难度学术研究,即使华佗转世也不太可能完成,何况对于一个从经济学转到医学的0基础新手。她的这些运作背后,可以清晰看到家庭给她的穿针引线,以及家庭行事给她的影响。

二、难得君|解读董明珠的”海归间谍论”

除了协和“董小姐”外,另一知名“董小姐”董明珠近日也发表了惊人的“海归间谍论”,一些网民的有关讨论同样遭到审查。微信公众号“难得君”对此发表文章进行评论。

img

然而,该文很快便被审查删除。

文中节选部分写道:

2025年4月,珠海格力电器股东大会的聚光灯下,71岁的董明珠以压倒性优势开启第五个任期。

这位曾带领格力从年产值不足2000万的小厂蜕变为千亿帝国的”铁娘子”,本应在这个时刻展现企业家的睿智与格局。然而,当被问及管理层年轻化议题时,她的发言却让全场哗然:“绝不用一个海归派,海归派里有间谍!”
这句话犹如投入湖面的巨石。

次日,”董明珠称海归有间谍”的词条在社交平台阅读量突破10亿,某知识社区相关话题下,留学归国人员集体发声:“我们带着技术回国,不是为了当‘背锅侠’”。

舆论场上,支持者搬出”国家安全”大旗,反对者则翻出格力发展史,从朱江洪时代引进日本压缩机技术,到2013年设立美国硅谷研发中心,格力成长的每个关键节点都深深烙着国际化的印记。

将“海归”与“间谍”简单划等号,暴露出三个深层次问题:

其一,在全球化退潮的背景下,部分企业家的开放心态正在萎缩。某跨国企业高管指出:”如果连最渴望报效祖国的群体都遭质疑,我们如何吸引真正的外籍专家?”

其二,反映出某些企业对人才评价体系的懒政思维。网络安全专家李明认为,”与其搞’海归洁癖’,不如建立科学背调机制,某某对全球人才’敞开大门+严格审查’的模式值得借鉴”。

其三,暴露出传统制造业在转型升级中的认知局限。正如某投行分析师所说:”当特斯拉上海工厂30%的工程师有海外背景时,排斥国际化人才实质是自我封闭。”

更深层的危机在于社会信任纽带的撕裂。据统计,改革开放以来,留学生回国率从2000年的23%升至2024年的82%,这些带着国际视野归来的建设者,不应因个别案例被污名化。

国家安全固然重要,但防范风险的正确方式绝不是”把孩子和洗澡水一起倒掉”。

三、科学与真相|从全球流量排名看中文信息茧房的困局

中共当局“把孩子和洗澡水一起倒掉”的一个典型案例便是建立互联网防火墙。近日,微信公众号“科学与真相”便发布文章,质疑这一现象,但毫无疑问,该文在微信平台很快便被删除。

作者写道:

截止2025年3月1日,根据 Similarweb 网站排名, 当全球网民在Google检索知识、在YouTube观看视频、在Facebook分享生活时,中国互联网用户正困守在一个由百度(第15位)、淘宝(跌出前100位)和微信构筑的数字孤岛。Alexa数据显示,全球前15大流量平台中,仅百度(第15位)、俄罗斯Yandex(第12位)和部分受限的雅虎(第10位)能在境内正常访问。这种物理层面网络隔绝,造就了人类文明史上最吊诡的景观:14亿人口的市场与全球60%的英语信息之间,横亘着无形的数字柏林墙。

image

搜索引擎的对比尤为刺眼:Google以853亿月访问量统治着全球信息分发,而百度虽在中国市场独占鳌头,其国际影响力却仅限于中文世界。更令人深思的是,即便在被封锁的状态下,Google仍以断层优势稳居榜首,这种"缺席的统治力"印证了开放生态的顽强生命力。正如三星退出中国仍保持全球销量第一,谷歌被屏蔽13年依然傲视群雄,这些现象都在叩问:我们引以为傲的"市场规模",是否只是温水煮青蛙的幻象?

当英语世界创造着占全球60%的互联网内容,中文信息仅贡献1.3%的微小份额,这种悬殊对比揭开了残酷真相:每个中文网民本质上都生活在经过三重过滤的"楚门世界"。在抖音推送的娱乐至死中,在微博热搜的议程设置里,在微信朋友圈的信息茧房内,人们接触的所谓"海量信息",不过是浩瀚知识海洋中的涓滴之水。

这种认知局限在学术领域尤为致命。维基百科(第8位)作为全球最大的知识共享平台,其英文词条数量是中文版的15倍。当中国学生还在百度百科检索被阉割的知识时,国际学术界早已在arXiv、PubMed等开放平台实现知识共享。更可怕的是,那些呼吁"取消英语教育"的喧嚣,正在将阶层固化推向深渊——精英阶层通过VPN突破封锁获取全球60%的信息,而普通民众却被永久禁锢在1.3%的围城之中。

image

[…]那些叫嚣"取消英语"的愚昧,那些沉醉"市场规模"的虚妄,那些迷信"信息管控"的短视,终将被证明是文明进程中的逆流。当俄罗斯Yandex都在努力突破语言边界时,我们是否该反思:困守1.3%的信息孤岛,真的能孕育出引领人类文明的力量吗?答案,早已写在谷歌853亿月访问量的星辰大海里。

以上是本期选读的三篇404文章。文章全文见中国数字时代网站。这些作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。

中国数字时代 CDT 致力于记录和传播中文互联网上被审查的信息,以及人们与审查对抗的努力。欢迎大家通过电报(Telegram)平台 向我们投稿,为记录和对抗中国网络审查作出你的贡献!

cdtimg

了解更多投稿信息,请阅读中国数字时代征稿说明

欢迎读者访问 CDT播客CDT视频 收听/观看更多相关内容。

倪刃的黑噪音|电影业,正式倒退回2012年

By: elijah
5 May 2025 at 23:41

4月的中国电影票房,竟然比2012年4月的数字还要低。

其实还有另外一个数字更吓人:2012年全国只有3200多家电影院,但现在多达1.1万多家。

也就是说,在全国银幕数量增加3倍多的情况下,电影票房却只能跟2012年保持差不多一致。

别看《哪吒2》很火,但一部电影救不了整个电影行业,反而衬托出整个行业的萧条。

img

img

电影票房,带我们梦回了13年前。到底为什么会这样?

事实上,电影业的冷却是整个经济大环境“退烧”的表现。之前从2017年到2021年的电影行业火热,是“虚胖”而不是真实的、健康的增长。

电影业当年烧钱有多疯,如今寒意就有多刺骨。

CDT 档案卡
标题:电影业,正式倒退回2012年
作者:倪刃
发表日期:2025.5.3
来源:微信公众号“倪刃的黑噪音”
主题归类:电影
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

从2015年起,电影行业一度成为资本的宠儿。地产公司、互联网巨头、P2P平台、甚至卖家具的、做白酒的,全都一窝蜂冲进来,理由很简单:电影是“内容产业”,未来是“国运所系”,而且看起来赚钱快、话语权高、光环还大。

于是资金砸进来,明星片酬飙升到天际,剧本可以没有,IP必须要有。一个破小说改编权被炒到几千万,一个烂导演只要跟资本走得近,也能挂帅百亿项目。

这哪是拍电影?分明是在拍“资本项目”。

在这场游戏中,真正被消费的不是观众,而是信仰——对电影艺术的信仰、对内容价值的信仰。

就像中国其他那些被炒作的行业一样,电影业的虚火伤害的,是对这个行业本身的不尊重。如今各地疯狂上马音乐节,但屡屡传出音乐人去现场演出被吃“闭门羹”的事情,他们眼中音乐人根本就不是值得尊重的,音乐节的本质也早已脱离了音乐本身的信仰。

img

电影界都把寒冬归结为疫情原因,但这其实不过是催化剂,资本出逃才是致命一击。三年疫情摧毁了影院端的现金流,但更重要的是,它让资本明白了一个残酷的现实:电影,不是一个能快速套利的生意。

热钱最怕“慢”,电影却天然节奏缓慢:项目开发要时间,审批要时间,制作要时间,排片还得看脸色。更别说,票房的不确定性让这个“投资品”天然带着赌博属性。

所以,狡猾的资本开始撤退。那些靠讲故事“圈钱”的公司破产清算、裁员重组;“影视概念股”不再是二级市场的宠儿;曾经满口“十亿票房”梦想的导演,如今开始直播卖货或沉寂无声。

很多资深演员,现在都根本无戏可拍。

那些一度活跃在台前的影视资本大佬,一个个要么“转型文化创意”,要么干脆转向AI、芯片、新能源。这些人不是爱电影,他们只是爱钱。电影不香了,他们立刻跑路。

资本褪去之后,真正的问题浮出水面:

创作者缺乏基本的内容自驱力。 以前是资本逼着人“快产出、快上线”,没有机会深耕剧本,现在没人逼了,发现大多数所谓“导演”其实连个像样故事都讲不明白。

行业生态被惯坏了。 被资本哄过一次之后,行业上下都对“成功”有一种扭曲认知——必须大制作、大明星、炒作营销、线上带节奏。如今资源枯竭,这种路径完全失灵。

img

观众不再好骗了。 曾经一张名脸+热搜就能换十亿票房,如今观众早被薅怕了。小红书、豆瓣、知乎让电影的口碑真相几小时内就能穿透宣传泡沫。

可以说,中国电影的问题不是什么“周期下行”的遮羞布,而是长期被虚假繁荣绑架后的信用破产。

电影作为一门艺术要怒吼了:老子不是资本的提款机!

但是,中国电影已经濒死。

所有行业本质上都有个周期,电影也不例外。但中国电影的周期性低谷,并非自然波动,而是人为制造的“空心繁荣”塌陷。我们把电影当成了“金融资产”,但却没有给它时间成长、沉淀与积累,更谈不上耐心的创作。

当90多岁的美国名导伊斯特伍德还在扎实拍电影,中国30多岁的“电影大佬”就已经“退休”玩其他资本运作了。

img

导演?算个屁!只是资本的工具罢了。

各行各业的人,什么时候才能认真对待一个行业本身,而不是把一切行业都当作下金蛋的鸡?

中国的“全球电影业霸主”地位当年是怎么吹起来的?“中国票仓全球第一”、“十亿人看电影”、“国产片崛起”……这套话术被无数PPT里复读过。但资本最精明,他们比谁都明白:讲资本故事的能力如果不能转换为讲好电影故事的能力,这行就没未来。

现在资本一走,讲故事的人就傻眼了:没人买账了,没人投钱了,没人为情怀买单了。

很残酷地说,中国电影正在经历一场迟来的市场化清洗。 未来几年,没有内容、没有执行力的公司会全面出局;投机者会彻底离场;而真正热爱电影、愿意沉下心来做内容的人,将成为这场“大退潮”后的幸存者。

别再指望下一部《流浪地球》或《长津湖》乃至《哪吒》带动全行业复苏了,救命药不是票房奇迹,而是系统性的信任重建、创作机制重建、行业规范重建。

“打鸡血”式发展,代价是耗尽整个行业的生命,最后一地鸡毛。

电影业是中国很多行业的缩影,而资本的背后则是权力的狂欢。当权力之手裹挟着资本的暴风雨掠过各种各样本应单纯的行业,所到之处就像蝗虫群经过后一样,将寸草不生。

剑客写字的地方|当普通人不再惊讶和愤怒,才是输得彻底!

By: elijah
5 May 2025 at 23:34

刚刚在一篇文章里看到条数据,是关于某地一211大学各院研究生的就业率。标题起的不错,最高的专业就业率53%,最低的4%。

说标题不错,是因为乍一看,你都不知道这数字代表了什么。如果结合全部的数据表来看,意味着有八成失业。

img

img

有一点不得不提,该所学校勇气可嘉,别人都是给就业率注水,弄得表面鲜亮。他们,似乎想给普罗大众提个醒了。即便只是三方协议的数据统计,即便只能代表一小部分,但对普通群体而言,也依旧非常值得思考。尤其是这种提醒出现在此次4+4的风波之后,人们应该问问自己,再过几年,轮到自己的子女出去谋生之时,还有蛋糕可分吗? 

有人可能说,别急,慢慢来,一切都会变好的。

CDT 档案卡
标题:当普通人不再惊讶和愤怒,才是输得彻底!
作者:送青人
发表日期:2025.5.5
来源:微信公众号“剑客写字的地方”
主题归类:青年就业
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这是一贯的说辞,原本这是有可能的,相信的人也众多,小的时候认为只要长大就会有工作,后来觉得只要能上大学就一定会有一份不错的工作。但随着从“很久很久以前”开始,到很久很久之后的现在,这个过程依旧持续着,难免要有一些怀疑。

经过此次4+4的风波揭露出大量人们曾经并不知道的内幕之后,怀疑还在加深。而在很多人花费巨大的精力,把另外一些人之间千丝万缕的关系和背景扒出来后;把他们如何使用和玩弄特权的操作曝光出来后;让人们震惊而又生气,事情却又如泥牛入海,无半点回应之后……你说变好,我只想笑。

一个简单至极的逻辑:只一味的说某件事是假的、某个人的身份也是假的,却又三缄其口始终不肯讲讲“什么是真的”,或“假在哪里”。如果这也叫辟谣,那么法庭上还需要呈堂证供干什么。

你直接对犯人洗脱罪名的说辞辟谣不就好了?

其实大部分人都知道,心里更是很清楚,这只是那些记既得利益的群体在为自己的子女们互相交换资源。这一点也不难理解,就像网上那个段子一样:

儿子说,我长大后也要当院士。父亲笑了笑摸着儿子的头满脸溺爱:你已经是了,你只需要长大。

另一点,当这样的勾当说出来,人们的第一反应是冷笑,而不是惊呼和卧槽,而不是难以置信……那便已经是种失望麻木的态度了。

img

早上百无聊赖的划手机,看到上面这条海南一教育局长“靠教育吃教育”的新闻,说她不止收礼收钱,更是到了让“下属”跨省帮自己女儿办婚礼的程度。

连一秒钟的犹豫都没有,直接划过去了。现在想起来便觉得很惊讶,因为自身开始对这类事件习以为常,甚至麻木。在这种现状下,你来跟我说什么坚信、正义、未来之类,只回以白眼而无一句QNMD的问候,那是我已然为数不多的耐心和素质。

各位,这已经是荒唐的让人无法置评的事情了,可讽刺的是,人们正在对此失去兴趣。

img

如果说一个教育局局长,通过关系给自己及亲友的子女们开后门,是荒诞。那当一个教育局局长的手,可以通过各种交换、同僚关系、甚至威胁逼迫,插手到其他部门,或是在其他方面为自己以及自己的后代谋取利益……“荒诞”已无立足之地,它不配。

当然,“荒诞”都无立锥之地了,普通人和他们的子女自然更没有。

可如此天方夜谭的画面,大部分观众都会如我一般,轻飘飘的划过。

为何“轻飘飘”?因为,多大点事儿嘛;因为,不过如此!

可怕的是,有的人、有的现象,正在制造更多这种“轻飘飘”的画面,正在让更多的普通人,进入到对此无力之后,不再置评的状态中。然后继续添砖加瓦,造他们自己的天堂。

在“世说新语”里看到过引用的一句话,叫“上品无寒门,下品无士族”,说的是魏晋时期,只要出生在上等人家里,无论才能品行如何都能顺利做大官;反之,则再怎么努力,也希望渺茫。

没想到,作为千年之后从小听着“知识改变命运”这句话长大的人,如今看到千年前“下品无士族”这句话,依旧感触颇多。

知灼|震惊!史上最大规模医院“低级”学术造假曝光:30多篇论文称男性患子宫肌瘤,涉河南,山东,河北,福建,云南,辽宁等地……

By: elijah
5 May 2025 at 23:25

男性也能患子宫肌瘤、卵巢囊肿?

近日,网友“李大海说”向现代快报记者反映,他在知网检索发现,有30余篇医学论文内容荒诞、涉嫌学术造假,比如,在子宫肌瘤、卵巢囊肿、羊水栓塞等女性病相关论文中,居然出现了大量男性患者。

“问题论文”的作者分布在河南、河北、山东、福建等多个省份的医院,既有来自乡镇卫生院的,也有山东大学齐鲁医院、福建中医药大学附属人民医院、河南中医药大学第二附属医院等三甲医院。

img

据报道,5月4日,网友“李大海说”在网上公开爆料称,在一篇题为《针对性护理干预子宫肌瘤围手术期的情绪和生活质量临床应用效果》的论文中,作者列举了该院在1年中收治的55名男性子宫肌瘤患者。“我不太懂医学,但起码的常识还是有的。

男的长子宫肌瘤的前提是,他首先得有子宫吧。”据该网友反映,这篇论文发布在《实用妇科内分泌杂志(电子版)》,作者霍某某的任职单位是山东大学齐鲁医院妇科。

img

此前,“李大海说”就曾在其自媒体账号中多次爆料类似问题。

比如,在辽宁一家医院工作人员署名论文中,列举了115例男性宫颈癌患者;

云南普洱一医院工作人员在论文中列举出25例男性卵巢癌患者;

河北宁晋县一医院工作人员在论文中列举了46例男性产妇出血的例子……

img

一次偶然机会,他在知网搜索栏中写入子宫肌瘤、男性患者等关键词后,居然真的查出了有男性患子宫肌瘤的相关论文。

此后,他又尝试搜索产妇出血、卵巢囊肿等女性特有病症,没想到检索结果都显示有论文列举了男性患者。

img

5月3日——5日间,“李大海说”先后向现代快报记者提供了30多篇问题论文,而记者通过知网针对其中部分内容进行了核查,证实了该网友的说法。

img

另据极目新闻的报道,涉事的山东大学齐鲁医院今日发布情况说明称:

经核查,网传论文存在学术不端问题。医院依规依纪给予护士霍某某记过处分、降级处理,取消其五年内各类晋级晋升等资格。

实际上,医院被曝大范围造假,已经不是首次。

2021年9月17日,国家卫健委就曾公开通报山东济宁市第一人民医院大范围的学术造假问题。

img

根据通报,仅仅该院,3个月内共查处案件283起,在合计医生277人次、副护士长6人次被通报处理。

值得一提的是,国家卫健委此次共通报了13批学术造假处理结果, 山东济宁市第一人民医院出现在其中的8批通报里。

也就是说还有12个批次学术造假问题被发现。

img

当年8月份通报的另外10起学术论文造假、科研失信案件涉及医院和医生分别是:

河北省邢台市人民医院王晓贞为通讯作者,谢瑾为第一作者发表的论文造假;

吉林省吉林市中心医院刘播论文造假;

CDT 档案卡
标题:震惊!史上最大规模医院“低级”学术造假曝光:30多篇论文称男性患子宫肌瘤,涉河南,山东,河北,福建,云南,辽宁等地
作者:知灼
发表日期:2025.5.5
来源:微信公众号“知灼”
主题归类:学术造假
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

黑龙江省大庆市人民医院宋述清为通讯作者、宿鹏飞为第一作者发表的论文造假;

黑龙江省医院崔荣为通讯作者、张姝为第一作者发表的论文造假;

江苏省常州市第一人民医院孙晋亮论文造假;

安徽省合肥市第一人民医院原职工杜方超论文造假;

河南省周口市中心医院柳玉霞作为通讯作者/第一作者、河南大学淮河医院张艳为第二作者发表的论文造假;

广西壮族自治区百色市人民医院陆文忠为通讯作者、韦西江为第一作者发表的论文造假;

重庆大学附属三峡医院代宏论文造假;

陕西省第四人民医院张梅论文造假。

值得一提的是,其中,百色市人民医院对共有陆文忠(通讯作者)、李新武(第二作者)、陆吉利(第三作者)、梁俊卿(第五作者)、对韦尚兵(第六作者)等人卷入造假。

另外重庆大学附属三峡医院有王春梅、余志海、何东林、余昆、刘银、王胜6名参与作者卷入造假。

根据公开可查资料,上述人员之前这次被查到和曝光的学术造假的冰山一角。

历史押韵|董小姐已经上不了热搜了

By: elijah
5 May 2025 at 23:16

今天看了一下微博热搜,已经没有董小姐和协和等话题的热搜了。

img

要知道前两天热搜榜上,前五十个话题,有一大半都是她引起的。

img

上不了热搜,不代表大家没有讨论。网友还在发掘。

比如网友找到了董小姐在纽约的豪宅,价值1200万,全款,每年房产税都要交几十万。

img

还有人扒出了她毕业典礼上的视频,那个时候看上去还自然点,不像现在,一脸科技,有点整残了的感觉。

img

那么问题来了,她从高中就在美国留学,每年的开销很大,现在又爆出买了1200万+的房产,她哪来这么多钱?

国企老总的爹,高校副院长的妈,有这么多钱吗?即使有这么多钱,又是怎么绕过每年5万美元的外汇管制?

我想起了大明王朝电视剧里杨金水的台词:有些事不上称没有四两,上了称一千斤也打不住。

顺着这个思路捋捋,说不定还有意外收获。

看到她家随随便便一千多万在纽约繁华地段买房,我想起了北极鲶鱼,炫富说自己家里九位数。只不过北极鲶鱼是跑到澳大利亚不回来了。

我感觉董小姐就是回游版的北极鲶鱼,犹如北极鲑鱼。

CDT 档案卡
标题:董小姐已经上不了热搜了
作者:徐鹏1
发表日期:2025.5.5
来源:微信公众号“历史押韵”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

还有董袭莹的工作单位也从北京肿瘤医院变更到廊坊分院,廊坊人民有福了。工作单位的变化也在一瞬间。这是为了迎接调查吗?

她生完孩子还会再回来吗?虽然现在卫健委的调查报告还没出来,但这件事闹得挺大,她还能按照之前的规划路径走吗?估计很难。我觉得他们家肯定会改变策略了。

说不定就会走北极鲶鱼的路,不回来了。

现在,微博上一个热搜也没有,估计等到五一假期结束,新的热点上来,这件事也就过去了。

卫健委可能会处理肖飞和董小姐,至于其他人,就不好说了。

看到这个新闻,我总能联想到铁链女。当时全网热议铁链女时,还发现了趴地女,铁笼女,等等,最后调查了好久,也只说了铁链女,处理了一个姓董的,其他人都没有提。

而这次,当我们深扒董小姐时,又发现了咸小姐,韩小姐,金公子,蒋小姐,邱小姐等等,估计最后调查也只会说肖飞,再处理一个姓董的。其他人也不会提。

估计只会围绕这件事,不会扩大范围。

可如果不仔细调查这么多年协和4+4培养的医生,以后去医院,医生和患者都要有检查毕业证的默契。是5+3+3还是4+4?

本来现在医患关系就紧张,现在大家都知道医生队伍里有人滥竽充数,知道水货会害人性命,但却不知道具体是谁,看病时,心里能不慌吗?

这不是一颗耗子屎坏了一锅粥吗?

我想起一个段子,说一高校开学典礼上校长说:为了保护艾滋病人的上学权利,今年招了五个艾滋病人,为了保护隐私,姓名保密。那之后,学生们人人自危都不敢谈恋爱。

还是希望卫健委能把这些问题都调查清楚,并向社会公布。

Before yesterday中国数字时代

西坡原创|除了四加四这个梗,什么都不会留下

5 May 2025 at 19:46

file

文|西坡

看到“四加四”已经变成一个可玩可笑的梗,早晨起来,写这么一篇。我并没有感到意外,这其实正是我一开始就没怎么参与的原因。

我实在不愿意做这样的“大聪明”,就像有人在孩子刚出生的时候,预言说他早晚都会死的。

假如有人把这个重要的道理在别处讲过,那么我宁愿缄默不语,但我没有看见:

愤怒是一个社会的稀缺资源,像金子一样宝贵。而且若不加以善待,怒气可能会化为毒气,笼罩在大地上,久久不散。

这些年来,我已经见过太多次愤怒被堵塞、被滥用的情况。眼下,甚至出现了非常成熟的愤怒收割链条,一座座风车架设在愤怒常经过的路口,整个社会的元气转化为私家的流量与利益。而我眼睁睁看着,束手无策。

CDT 档案卡
标题:除了四加四这个梗,什么都不会留下
作者:西坡
发表日期:2025.5.5
来源:微信公众号“西坡原创”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

像我一样经历过思索过一些事情的朋友,很容易明白我在说什么。但此间事不足为外人道也,对于那些没经历没思索过的人,我又能说什么呢?我有什么权利阻止别人的愤怒呢?

“物不得其平则鸣:草木之无声,风挠之鸣。水之无声,风荡之鸣。”我怎能拦得住风,我又怎能拦得住草木和水?

那些事情出来,心中有常识与常理的人,岂有不愤怒之理?但是这些愤怒最终会转化成什么,并不难得知。

原理是这样的:除非以恰当的方式,提出恰当的问题,否则一切声音都会归于喧嚣,一切喧嚣都会寂寞。这就是议程的重要性。

此时此刻,我看不见有效议程被提出的可能性。

我们面对的,是一个严重去结构化的舆论场。气旋起而又落,落而又起,但它永难促成有形的事业,因为它都难以维持自身的稳定存续。

几年前当我一开始意识到这个现象,以及它的根深蒂固之时,我恰好读到阮籍的《咏怀诗》:

夜中不能寐,起坐弹鸣琴。

薄帷鉴明月,清风吹我襟。

孤鸿号外野,翔鸟鸣北林。

徘徊将何见?忧思独伤心。

我听到的是天地闭合之后,一个独自思索着的人的哀鸣,他还无法忘记过去的记忆,却更加看不到前方的道路。只有弹琴,看月,吹风,听鸟,徘徊,忧思。

我还写过另外一篇“大聪明”话,我说现在“到处是低水平大乱斗”,这种牢骚是不值一钱的,但我做了一点界定,是可供参考的:

“大乱斗和公共讨论的区别在于,有没有框架意识,能不能分层地处理现实。厘清这一点,对于我们挺过垃圾时间至关重要。”

“这些人都在努力运用他们的知识和经验来处理眼前的现实,但他们的理性只是水面上薄薄的一层油污,没有任何深度可言。因为没有框架的约束,一件具有偶然性质的小事,就可以从每一个角度抽出一根细长的丝线,到天边,到海边,到宇宙尽头。”

我这几年写了很多只可为“此间人”理解,外人觉得莫名其妙不知所云的文章,但我认为我是做了一点熵减的工作的。我等待着我的所有“大聪明”被证否,被涤荡,被扫入垃圾堆的那一天。真到了那一天,没有人会比我更高兴。

但是在那一天到来之前,我宁愿我的朋友把注意力收回到自己身上。暂时接受不可改变的,致力于仍然可以改变的,或许这是现阶段最不坏的生存方式。

每一场声势浩大的浪潮,最后只能在公共记忆里留下一两个梗。而对于每一个具体的参与者来说,那些宝贵的情绪和情感,最终又会变成自己身上的什么东西,我不忍细想。因错付而生虚无,怨气旁溢,迁怒成为习惯,大概是难以避免的。

在承认现状的同时,还有什么是可以做、值得做的?在我看来,最重要的莫过于保存我们的理智与情感。不是在个体中保存,而是在群体中保存。

曾国藩在创办湘军之初,天下糜烂,到处危急,曾国藩却坚持认为:“剑戟不利,不可以断割;毛羽不丰,不可以高飞。若仓皇一出,比于辽东自诩之豕,又同灞上儿戏之师,则徒见笑大方耳。必须练百金精强之卒,制十分坚致之械,转战数年,曾无馁志,乃可出而一试。”

我还记得历史学家吕思勉先生的提醒:“当国家社会遭遇大变局之时,即系人们当潜心于学术之际,因为变局的来临,非由向来应付的错误,即因环境的急变……所以时局愈艰难,人们所研究的问题,反愈接近于根本。”

公共舆论何至于今天这种无议程、无结构的局面,是值得深思的。我倒不是主张退到山里去思考,我们可以以每一个对话框为试验田,一边实践一边思考,看到底是什么破坏了人与人之间的丝线,又该如何把它们重新联结起来。

学问批判|对于协和“4+4”出现的问题,难道不应该追究政府有关部门的责任?

5 May 2025 at 17:46

file

这些天协和“4+4”培养模式是否公平的讨论在网上沸沸扬扬。前几天有朋友转发“五问舆论漩涡中的“协和‘4+4’模式”:是否公平,如何合格?”一文给我,问我怎么看?今天又看到有人转发"天!上海交大4+4更吓人”,虽然文章里说的事情我无法查实,但我觉得这个问题确实有深究的必要。

网上查得“4+4”医学生培养模式源于美国医学院学制。美国的医学院招生基本只针对已有学士学位的本科毕业生。录取后经过4年医学教育授予医学博士学位(M.D.)。

乍一看,协和的“4+4”医学生培养模式好像跟美国的很相似。不过,美国本科生如果想参加医学院学习必须通过专门的医学研究生院入学考试(Medical College Admission Test/MCAT)。这项考试不是由录取学校而是由美国医学院协会(Association of American Medical Colleges)主办的。然而,根据网上相关文章的介绍,国内“4+4”项目的考试是由医学院自行组织录取的。

虽然不能说医学院自行组织考试就一定涉及作弊和腐败,但相比较国家层面的考试,自行组织考试在防止作弊和腐败方面显然要差很多。

CDT 档案卡
标题:填入标题
作者:曲卫国
发表日期:2025.5.5
来源:微信公众号“学问批判”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

美国除了要通过MCAT以外,有介绍材料说,在美国获取医学博士学位后学生还要经过3-7年的规培,在取得医师执照后才能正式行医。协和有这方面的严格规定吗?如果有,为什么会出现以下这这些情况呢?

“董某莹从哥伦比亚大学巴纳德学院,与公众眼中“藤校”哥大含金量有别。主修经济学的董某莹回国后转为学医,2019年,她通过选拔进入了北京协和医学院“4+4临床医学试点班”项目,仅用4年取得医学博士学位,并以1年时间完成原本需要3年的住院医师规范化培训(规培)。”

网上还看到有报道说董某在2021年11月5日在北京市第六医院医联体胸外手术室在团队写作中展开荧光腔镜精准肺段手术。2019年入学,2021年应该还没有毕业,在没有拿到医学学位的情况下她竟然能做手术?

据此,我认为所揭示的问题应该与4+4培养模式本身的好坏关系不大,关键是该项目没有保证其公平、正常运转的实施制度和监督制度。协和问题的关键不是肖某和董某能耐,而是我们没有预防和阻止肖某和董某能耐发挥的体制机制。

“五问”这篇文章一开始就说:“国家卫生健康委新闻发言人表示,已成立调查组,坚持实事求是、客观公正原则,联合有关方面进行认真调查核查,对发现的违法违规问题将依法依纪严肃处理” 。

不太清楚卫健委的调查组在查什么,但不可思议的是,这次肖某问题被揭发,多少有点巧合。如果不是肖某个人生活出了问题,大概他今天还逍遥自在。

我认为除了追究肖某和董某的责任外,更要查为什么肖某和董某的问题,协和的有关部门不能察觉?为什么他的违规行为一直处于无监管状态?当然,最应该追究的是教育部,要查教育部为什么在明知没有任何制度保障的情况下就批准协和等医学院实施“4+4”项目?教育部的失察失职难道不是问题的根本原因之所在吗?

中国的许多问题,甚至可以说大多数问题的出现,其责任未必完全在具体实施单位。虽然具体实施人员公然践踏法律和道德准则确实应该被追究相应的责任,但更应该追究的是在项目实施的条件不成熟、缺乏基本的制度性保障情况下就批准这些项目的政府部门的责任。

我之所以剑指教育部,是因为我还想到了外语专业的危机讨论,想到了教育部推出的研究生扩招、提升教师学历等许多项目。现在的讨论几乎把问题都归咎于外语专业和具体学校。可如果没有当时教育部的官员无视外语专业的学科特性和基本的本科教育规律,盲目大量扩建和扩招,在许多不具学科专业条件的工科、专科学校里建起了外语专业院系,人为造成了市场供需失衡,外语专业的危机会这么严重?外语专业出现的问题和研究生质量问题难道与教育部不负责任的决策无关?

当然,更严重的是即便有监督机制,承担监督责任的政府部门也未必履职。我想到了3.15,被央视打假的伪劣商品都横行有些年月,但打假时却不见对应该承担体制性责任的工商局等政府部门有任何的追究;被抓的贪官横行霸道有相当时辰,有相当一部分官员是带病提拔的,反贪却不见追究承担审查、监督责任的组织部门的责任!

肖某的问题当然必须追究,但如果不追究政府主管部门的责任,不解决体制性问题,一个肖某倒下了,还会有更多的肖某站起来。

2025/5/4

【404文库】新浪财经|AI回答:董袭莹牵扯涉及4+4项目违规的人员

5 May 2025 at 19:06

小编通过腾讯元宝询问:“”董袭莹牵扯涉及4+4项目违规的人员”。

AI回答,根据搜索结果,董袭莹事件牵扯出的协和医学院“4+4”项目特权受益者主要包括以下人员:

CDT 档案卡
标题:AI回答:董袭莹牵扯涉及4+4项目违规的人员
作者:新浪财经
发表日期:2025.5.5
来源:新浪财经
主题归类:协和4+4
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

一、已确认的“4+4”项目学生

咸晓梦。初中通过剪纸特长进入名校,后考入复旦大学经济管理专业,再通过协和“4+4”项目获得医学博士学位。其学术能力与医学专业跨度引发质疑 。

盛玺澄。复旦大学经济管理专业背景,通过“4+4”项目进入协和,两年完成医学理论学习和临床轮转,23岁获得博士学位。其培养周期远短于传统医学生 。

韩佳澍。15岁留学多伦多,擅长小提琴并加入协和演奏团,19岁进入协和医学院,23岁完成“4+4”项目。其艺术特长与医学专业关联性存疑 。

金山木。地质专业背景,2019年赴欧洲“地质考察”,2020年通过“4+4”项目进入协和神经外科,博士论文正文仅12页,学术质量遭质疑。其博士后录用信息与官网公示存在矛盾 。

二、疑似特权关联人员

邱贵兴院士家族成员。网友推测协和“4+4”项目2020级名单中两名邱姓女生可能为院士孙女,但未获官方证实 。

file

蒋德利娜亲属。蒋德利娜(非“4+4”学生)同父异母妹妹为演员蒋依依,其家族资源或对蒋德利娜进入协和导医岗位产生影响,但未直接涉及“4+4”项目 。

三、系统性特权特征

家庭背景:35%的“4+4”学生家长为厅局级以上干部,远超传统医学专业比例(2.1%) 。

学术造假:部分学生论文篇幅异常(如正文仅12页),且存在挂名导师、违规缩短轮转期等问题 。

录取漏洞:部分学生未满足“4+4”项目要求的医学预科课程(如生物、化学学分不足),却通过特殊渠道入学 。

四、舆论争议焦点

公众质疑“4+4”模式沦为权贵阶层“直通车”,例如:

艺术特长生、经济学背景学生快速获得医学博士学位,挤占传统医学生资源;

临床轮转期被压缩至1年,规培质量难以保障;

入学选拔透明度低,存在“特殊关系”操作空间 。

以上信息综合自网络爆料及官方公示矛盾点,具体人员身份需以协和医学院最终调查结果为准。

5月1日,国家卫生健康委新闻发言人表示,近日,我委关注到中日友好医院胸外科肖某被举报所引发的相关舆情。我委已成立调查组,坚持实事求是、客观公正原则,联合有关方面对事件涉及的肖某、董某及有关机构等进行认真调查核查,对发现的违法违规问题将依法依纪严肃处理。

以上信息供调查组参考。

【CDT周报】第217期:患者:我是托关系进的医院,医生:我也是

5 May 2025 at 14:23

上期周报:【CDT周报】第216期:如果看不懂那谁谁,就去研究一下董明珠

过去两周中国数字时代【404文库】新增文章6篇,【每日一语】新增网语5条,【大事记】收录热点事件2件,刊登读者投稿3篇,投稿请点此

编者的话:

4月26日—5月3日,这一周。

北京中日友好医院胸外科副主任医师肖飞,被妻子谷某实名举报婚内出轨,谷某在一份九页的实名举报信中写道“肖飞在五年内出轨护士、护士长、医师等四人,还导致其中有人多次怀孕、堕胎。”举报信中还列举了一个严重违反执业规范的事件——肖飞和董袭莹医师(谷某指控的肖飞出轨对象之一)曾在手术过程中与护士发生冲突,期间肖飞不顾患者安危,离开手术室长达40分钟,险些酿成严重后果。4月27日,微博上“中日友好医院肖飞”的话题迅速登上热搜。因中日友好医院最终发文证实,肖某确实违反了生活纪律和医德医风,医院决定开除其党籍并解聘。之后,肖飞公开回应承认自己私德有亏,但对“术中离开患者40分钟”一事提供了不同说法。

img

然而,这起桃色新闻却开始走向了让人意想不到的方向…..有网友检索发现,举报信中提及的董袭莹医师拥有“传奇经历”——她本科毕业于哥伦比亚大学巴纳德学院(经济学专业),后进入了北京协和医学院“4+4临床医学试点班”项目,回国学医2年就参与四级手术,仅用4年时间就拿下医学博士学位,“弯道超车”完成了别人需10年才能结束的医学教育。对此,有不少医生感叹自己“信仰崩塌了,从医那么多年,才知道5+5+3小于4+4”。更神奇的是,董袭莹还多次医学“跨界”,学位是内科,规培在胸外科,工作定在泌尿外科,毕业论文的选题是影像学。并且还有网友指出,董袭莹的毕业论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。总之,很少有像董袭莹这样的人物,能同时涉及“教育公平、医患信任、婚姻忠诚、阶层固化和学术腐败”五大社会问题。

img

之后,网友们再度将一个医学教育关键词——“协和4+4”顶上了热搜,它指的是北京协和医院于2018年推出的教学改革项目,尝试通过“4年非医学专业教育+4年医学教育”的方式培养所谓的“复合型人才”。但有网友指出,“协和4+4”看似是从西方取经(据称参考了美国医学院培养制度),实则具有很多中国特色,国际上培养人才的有效渠道,在这里却变成了捷径….例如五项考试有三项都对外保密(北京青年报报道),也未曾听闻有“4+4”试点班的学生被淘汰(南方都市报报道),在透明度、规范度方面严重不足(目前连招生简章页面都无法打开),而这可能是它沦为“特别通道”的原因。还有网友嘲讽,“前几天,一位董大姐告诉我们‘海归很危险’。几天后,另一位董小姐现身说法‘海归,确实很危险’,危险的不是间谍问题,而是一种婆罗门化的萝卜机制。它无时无刻不在提醒普通人,请接受现实、停止想象”。

file

还有网友指出了另一种残酷现实,那就是董袭莹的家庭可能的确“善于钻营、极度利己、权力滥用、没有道德”,从小给她预制了一条最终成为医生的道路,而她的家庭或许还真的算不上婆罗门权贵,因为真正的权贵能在事发之前就开启404密码,并且能够以小学生的水平指引整个国家方向。但无论如何,董袭莹事件还是凸显出人们本应最信任的医疗场所,其实早已是千疮百孔、问题重重,一个流行网络段子就诠释了这种系统性的塌方腐败——“患者:我是托关系进的医院。 医生:我也是。 医疗器械:好巧我也是。 药品:原来大家都是啊!”随着董袭莹的大火,很多网友又扒出了“协和4+4”的更多问题,例如一位名叫盛玺澄的学生,她同时带有艺体特长生、高校自主招生、本科学捷克语、经管系毕业等标签,最后顺利进入协和医学院4+4,其国内版本的学医路径也相当令人生疑。如此看来,人们真应该感谢谷女士(肖飞妻子)、董小姐掀开了天宫一角,让这片土地上自古以来、根深蒂固的常态显露——无数人用手中或多或少的权力供下一代作弊。

img

另外,眼光独到的网友发现,事件中最悲惨的角色莫过于董小姐大发雷霆、肖医生中途离场后,那位仍躺在手术台上、被麻醉的病人。ta当时躺在病床上根本不知道自己可能死去,整个生命被极端漠视、被一些荒谬的事情所左右,这种无助像极了许多突遭横祸毫无准备的人,比如无差别袭击受害者。这种状态,实则比牛马人矿自觉,最后一代绝育更加悲惨,因为随时可能“死于随机”,并且对于原因一无所知。而ta至今没有发声,在微博话题“肖飞手术离场40分钟属于什么性质”下方,不少网友呼吁吊销其执业证书还那位病人一个公道。如今,国家卫健委已宣布就肖某董某事件成立调查组,但似乎很多人已经对这种“虽迟但到”的把戏已没什么耐心了,有一位网友直白评论道:“连医院这种可以主导一个人生死的地方也开始有二代崭露头角了,太吓人了……六朝旧事就要来了。”还有两位网友为封禁悟空、哪吒指明了思路——“今日欢呼孙大圣,只缘妖雾又重来”、“乾坤圈转乾坤变,朱门翠宇化飞烟”。

img

一周荐读:

2025年4月,中国数字时代搜集整理了过去一个月(2025.3.28—2025.4.28)期间反映国内热点事件的网络视频,以时间为序进行混剪制作了本月月度视频——《四月之声(2025)》。

2024年全球至少有375名作家因写作或表达自由而被监禁,而中国有118名作家遭到监禁,连续六年成为全球最大监狱。报告指出,全球被监禁作家人数连续第六年增长。2024年总人数相较2023年增加了36人,创下该指数自2019年设立以来的最高纪录。

在一审最后陈述中,王建兵表示:“我的本意不是去推翻政府,而是希望通过自己的努力,让一些人更加自由,社会更加平等和美好。”而黄雪琴表示:“作为一名记者,我做不到保持沉默。我也知道自己不安全,迟早有一天会面对这样的状况,但需要承担的后果,我愿意承担”。

一周关注:

现在自媒体都说董小姐出生于京城婆罗门或权贵家庭……其实董小姐家庭在北京不过是上中产,她的丝滑人生,不是靠特权,她这级别家庭没有什么特权,而是靠“人生自我努力”、精明钻营,以及没有道德羞耻感。

特权的版本,如今已经升级了。光是使用特权本身已没有快感了,只有揉捏、折辱不识相的阻挠者,“建议你们向董大夫学习”,才有足够的快感。普通人其实已经很接受现实了,他们只是希望你们的吃相好看一点。但在肖飞这些人看来,吃相好看,那还不如不吃。

最近,京东高调强势杀入外卖市场,京(东)(美)团大战如火如荼。消费者在盘算着,新进的鲶鱼有没有让我的外卖价格下降,速度上升,质量更有保证;骑手们在权衡着,刘强东的高调社保宣言是否确实提升了自己的真实总体福利。另一竞争对手饿了么,则除了策划送小龙虾活动(寓意虾[瞎]搞)之外,没有任何动作。

一周惊奇:

《哪吒2》的150亿+表现惊动了全世界,另一边当下的市场大盘却处于最为冰冷的时期,这种极致的割裂也是从未有过的。尤其是后春节档时期,相继经历了清明档倒退55%,工作日连续下探1000万+的绝境,更可怕的是接下来的五一档丝毫没有回暖的迹象。整个4月份的电影市场,已经处在了历史的低位。

一周讽刺:

商务部昨日表示,美方近期通过相关方面多次主动向中方传递信息,希望与中方谈起来。对此,中方正在进行评估。在一些人看来,谈判就是「跪」。按他们的逻辑,美帝这次一定跪了。秦始皇又摸电门了。但说实话,正如家传编辑部一位读者留言:若有利于国民,跪一下又何妨呢?勾践当年还为吴王夫差尝便呢。

新修订的《婚姻登记条例》即将在5月1日生效。这意味着,结婚登记和离婚登记都不再需要户口簿。但由于离婚冷静期等诸多限制,即便不需要户口本,离婚也并没有那么容易。“结婚免密支付,离婚拼多多砍一刀。”有网友调侃。

一周声音:

今天是五一国际劳动节,在此向奋斗在各个领域、各条战线中的姐妹们致以节日的祝贺和崇高的敬意!五一劳动节并非一个只是“歌颂”劳动者的节日,而是一个纪念劳动者所做过的抗争的节日。

那些叫嚣”取消英语”的愚昧,那些沉醉”市场规模”的虚妄,那些迷信”信息管控”的短视,终将被证明是文明进程中的逆流。我们是否该反思:困守1.3%的信息孤岛,真的能孕育出引领人类文明的力量吗?答案,早已写在谷歌853亿月访问量的星辰大海里。

最近四个月呼吁提高农民基础养老金问题,一共写了十多篇文章,做了十期视频,一个深切感受就是:有很多所有人都该知道的常识不为人所知。如果大多数人都知道了这些常识,我相信“要不要大幅度提高农民基础养老金”,“哪有这个钱”等问题都不会再有争议了。请大家帮忙转发传播。

一周故事:

27年来,温从文确认身份的路始终卡在起点。两岁那年,他父亲入狱,母亲出走。六年后,因出狱后的父亲不配合办理户籍,温从文成为一名“黑户”。被剥夺身份后,温从文也开始逐步丧失精神的归属。逃离暴力的父亲后,他在家族和村庄中无处可去。进入社会后,没有户口的他又在各个场合碰壁。

文件显示,会泽县2016年严重精神障碍患者筛查工作2016年8月8日开始,筛查工作由会泽县人民医院精神科具体负责实施……筛查工作指标为严重精神障碍患者确诊率必须达到辖区总人口的4.5‰以上;严重精神障碍患者社区服药率必须达到25%以上;严重精神障碍风险评估率需达100%。

风声OPINION|超时不再罚款,外卖时间会不会受影响?

By: unknown
5 May 2025 at 10:16
CDT 档案卡
标题:超时不再罚款,外卖时间会不会受影响?
作者:贾拥民
发表日期:2025.5.3
来源:风声OPINION
主题归类:外卖骑手
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

4月25日,饿了么宣布与骑手代表正式签订《2025 年度“饿了么”(上海)网约配送算法和劳动规则协议》。其中特别提到,逐步推进取消超时扣款处罚。

今年2月,媒体报道美团在广西部分城市正式上线“超时免罚”试点,将众包骑手的超时扣款改为积分制度。

取消外卖骑手超时罚款已经是大势所趋。但这种变化将会如何影响骑手行为和消费者体验,需要深入分析。

超时一般不能怪骑手,是其他环节导致的

这可以说是“算法向善”之举,目的是回应社会呼声,让骑手可以在路上“走得慢一些”,以保障更安全。

“超时免罚”的核心,是将原先单一的超时罚款制度转变为一个“积分制+容错率+投诉联动”的复合体系。

首先,骑手准时送达外卖订单,可以获得积分,在极端高峰期、恶劣天气等特殊时段里,骑手送餐可以得到奖励积分,并且对新手启动积分保护机制,确保“新手期”的骑手不会接到难度大、易超时的订单。当然,骑手因超时会被扣分。此外,如果骑手积分过低(以至于无法接单),那么还可以通过参加线上或线下的辅助培训恢复积分。

其次,引入“超时单率容错阈值”,例如每跑1000单,就允许3单超时。

再次,即便超时,如果客户表示认可,没有提出投诉,那么仍然可以免责。

除了取消超时罚款之外,美团还成立了“算法顾问委员会”,由法学、社会学等领域专家组成,并通过季度恳谈会吸纳骑手、商家与用户意见,纳入平台的算法。

至少从表面上看,将超时罚款制度改为积分制度,意味着从负向处罚转为正向激励,这当然是管理手段从刚到柔的转变,也是算法向善的一个表现,对于保障骑手安全,引导骑手提高服务质量,可能是有益的。

更重要的一点是,正如许多骑手都强调的,超时并不只是“骑手在路上花了太多时间”所导致的。事实上,超时的最主要的原因往往不在骑手身上。

从客户下单到商家备餐,再到骑手取餐送餐,这个过程中涉及的每一个环节都可能会耗费额外的时间,例如取餐点分散、卡餐、进不了小区、电梯拥挤,等等。超时罚款制度,几乎将超时的全部责任都压在骑手身上,确实存在有失公平的嫌疑。

有人还指出,外卖服务的消费体验并不应该单纯依靠“快”来支撑,只一味追求“快”反而掩盖了服务水平的多元维度。

外卖食品安全、餐品的完整度和骑手的有效沟通,同样是消费者在意的评价指标,而这些仅靠超时罚款是无法做到的。这种观点也是有一定道理的。

“超时免罚”现在似乎成了美团、饿了么保障骑手的劳动者权益,并把这方面的美誉度作为平台获取客户、提高竞争力的重要手段之一。尽管这也可能是迫于现实压力的举措,因为在去年,有关部门开展了“清朗·网络平台算法典型问题治理”专项行动,提出了算法导向正确、公平公正、公开透明、自主可控、责任落实等一系列要求。

关键的考验是,这种改变是不是能够提高消费者的体验。请不要忘记,在外卖行业,消费者的核心体验至少在目前这个阶段来看依然是准时送达。如果“超时免罚”会导致骑手送餐变慢了,那么就可能无法维持下去。

“超时免罚”可能会损害“想卷的骑手”的利益

有人认为,从超时罚款改为“超时免罚”反而会促进骑手更加准时送餐,原因是,“总部”会额外给钱,骑手的准时率越高,积分就越高,获得的额外奖励额度也就越高。

确实,以前准时送餐没有奖励,现在变成有奖励了,不是可以促使骑手更加努力地去追求准时送餐吗?

其实没有这么简单。

从原则上说,骑手是愿意努力用尽可能短的时间送餐的,因为这样他能获得更高的收入。但是“努力”这两个字本身就表明,他们这样做绝不是没有代价的。

正如许多人指出的,超时罚款对于保证外卖准时送达之所以特别有效,一个原因在于“损失厌恶”的心理倾向。

“损失厌恶”(loss aversion)指面对同等的损失和收益时,人们会感到损失带来的痛苦比收益带来的快乐更加强烈,因此更倾向于规避损失而不是争取收益。

诺贝尔经济学奖得主丹尼尔·卡尼曼和阿莫斯·特沃斯基等人的研究表明,损失带来的痛苦,至少是同等的收益带来的快乐的两倍。在超时罚款制度下,超时会导致本来可以获得的送餐收入遭受损失,使得骑手觉得特别可惜甚至痛苦,因此他们会努力去“抢时间”。

不难看出,在改为“超时免罚”之后,损失厌恶给骑手带来的这种驱动力基本上将不复存在。(由于超时会导致无法获得积分或被扣积分,而积分在一定意义上相当于钱,因此损失厌恶这种心理效应仍然会起到一定作用,但是与超时罚款时相比肯定会弱得多。)

因此,虽然有统计数据称,在2024年1至10月,美团外卖的总体超时率相当低,仅为0.75%左右,但这是超时罚款制度下的结果,改为超时免罚后,总体超时率是不是仍然可以保持在这么低的水平上,有待观察。

更重要的是,以往的经验已经证明,超时罚款是一个动态稳定的制度,而超时免罚则很可能是一个动态不稳定的制度。

这可以从三个角度来说:

第一个角度,超时罚款是封闭系统,外卖订单的结果可由算法确定,而超时免罚是开放过程,包含许多不可控因素。例如,若规定“客户不投诉则骑手超时免责”,不仅侵蚀了客户要求准时送达的基本权利,还需要户付出额外时间成本。骑手与客户的沟通过程中若出现争执,更可能损害平台声誉。此外,关于免责场景的认定也易产生争议。超时罚款制度的优势在于,用统一算法化解了这些时间成本、沟通成本和权利界定成本。

第二个角度,每个外卖订单涉及平台、商户、骑手和客户四方关系,这些方面都可能产生冲突。超时罚款制度将四方冲突简化为平台与骑手间的冲突,客户和商家则可以作为“大数据”被算法处理,实现了成功地降维。让客户重新介入意味着升维,这不仅是技术上的倒退,还会增加算法开发难度。

第三个角度,就骑手间互动而言,超时免罚可能导致“劣币驱逐良币”。准时送餐需要付出努力,而部分骑手可能不愿付出。超时免罚对这类骑手约束力较弱,他们会影响整体送餐效率。平台不得不将部分订单转给努力的骑手,而这些骑手可能无法承接更多订单,最终导致他们的绩效受到影响。在超时惩罚制度下,不努力的骑手对努力的骑手影响较小,但超时免罚制度下,不愿努力的骑手会影响整体效率。

因此,严格实施“超时免罚”制度在某种程度上会削弱平台的系统优势。

“超时免罚”实施效果如何,关键看用户体验

在美团等外卖平台出现之前,外卖业务也是存在的。例如,当金额达到了一定额度且距离较近时,有些餐厅可以提供送菜上门的,只是送餐速度通常很慢。

外卖行业是在美团、饿了么等外卖平台出现后才得到飞速发展的,关键因素就是许多人极力抨击的“算法”。由于成功地匹配了需求,外卖平台极大地降低了外卖的整体成本(主要体现在价格下降和等待时间减少这两方面),进而提高了客户可以获得的价值,放大了潜在消费需求并使之变成现实的消费行为。

很显然,这里需要形成一个“飞轮”——客户如果无法在较短的时间就可以吃到饭,那么就不会愿意支付配送费,或者干脆改回堂食或自己做饭,那样外卖业务就成了无源之水。

商家出餐、骑手送餐的效率如果不够高,那么能够送达的订单数量就会很少,骑手的收入就上不去,那样也就没有什么人愿意来当骑手。外卖订单数量上不去,商家也就没有能力提供价格低廉质量尚可的产品。

所以,最终的检验还是消费者的体验,或者说,能不能让客户觉得有性价比。

就外卖而言,除了价格之外,时间是性价比的关键要素。一个人既然决定吃外卖了,也就不会对“色香味”等方面有太高的期望,但对时间还是非常在乎的。点了外卖后,每多等一分钟,都是对客户的耐心的折磨,会严重影响性价比。

因此,上面这个“飞轮”也可能会倒转过来。一旦客户觉得不满意,开始减少外卖订单,到一定程度后就可能引发向下的正反馈,从而导致风险。不过,从目前的情况来看,由于美团已经在多年的市场竞争中形成了强大的护城河,还看不到这个风险。

业内专家指出,外卖行业的壁垒要高于电商,因为外卖要求商家、用户和骑手三者都达到规模经济。

如前所述,要做到“快”,并不仅仅取决于骑手跑多快。从客户下单的那一秒开始,对算法、对平台的运营能力的考验就开始了——有足够多的商家入驻平台了吗?平台让商家做到自动接单了吗?平台帮助商家实现备餐流程的标准化、数据化了吗?平台是不是有骑手随时待命?平台能不能为骑手规划最优路线……任何一个环节都可能导致快不起来。

美团已经在外卖的整个链条上占据了巨大优势。它打败了饿了么、阻击了滴滴和抖音,就是证明。不过,万一美团面临其他真正的风险时(例如抖音收购饿了么并大打价格战?),这个“超时免罚”制度也有可能成为一个相当致命的因素。

刘夙的科技世界|这路遥马急的京城

By: unknown
5 May 2025 at 10:13
CDT 档案卡
标题:这路遥马急的京城
作者:刘夙的科技世界
发表日期:2025.5.3
来源:刘夙的科技世界
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

4月份的时候,我安排了“五一”长假期间去北京的出行计划。订票的时候,我还不知道中日友好医院的肖飞出轨案。这件事成为网络热点之后,我有感而发,遂作《这路遥马急的人间》一文。随后,我又重新查看了一下北京的行程,发觉可以抽出半天时间,去这一热点事件涉及的几个地方看看。我觉得这比去那些人人熟知的著名景点好玩多了。旅游的真谛,就是要发挥主动性,去自己想去、觉得有趣的地方,而不是被动地跟在别人屁股后面,去一大堆自己可能并不想去的热门景点。

于是我在地图上选定了5个地点,如下:

image

  1. 中日友好医院本部。这是故事开始的地方。肖飞本为该医院的胸外科副主任医师,因为屡次婚内出轨,其妻忍无可忍,向医院纪委写了举报信,最后导致肖飞在4月27日被院方开除党籍并解聘。他最后一次出轨的对象是董袭莹,当时也正在该医院参加住院医师规范化培训。

  2. 中冶建筑研究总院有限公司(简称中冶建研院)。董袭莹的父亲董晓辉,为该公司党委副书记、总经理。

  3. 北京科技大学本部。董袭莹的母亲米振莉,为该校工程技术研究院副院长。这个研究院实际上并不在本部,而是位于北科大的昌平创新园区,不过我时间有限,就不去那么远的地方了。

  4. 协和医学院和协和医院。前者是董袭莹的母校,她从美国留学归来后,被协和医学院的4+4学制试点班录取,并顺利获得医学博士学位。其导师为邱贵兴院士,是协和医院骨科的老主任;邱院士的得意弟子仉建国,则是骨科的现任主任。

  5. 中国医学科学院肿瘤医院。在北京是与北京大学肿瘤医院齐名的肿瘤专科医院,因为在老北京城东南方向,习惯上简称“东肿”(相应地,位于老北京城西边的北京大学肿瘤医院则简称“西肿”)。董袭莹从协和毕业后,即入职该医院泌尿外科,成为住院医师。直到4月29日,她的执业地点才发生变化,从北京市的本部改到了该医院位于河北省的廊坊院区。

我规划的路线是:东肿→协和医学院和协和医院→中日友好医院→中冶建研院→北京科技大学。5月3日早晨到达北京之后,我就立即踏上了这趟京城医学文化之旅。

第一站东肿,因为长假期间暂停门诊,显得颇为冷清。

image

门诊楼自然是进不去的,但我隔着窗玻璃,看到了几个介绍各科室出诊医生的电子公告屏,其中的泌尿外科出诊名单中,赫然有宋刚和管考鹏两位医生的名字。2022年,东肿副院长兼泌尿外科主任邢念增领衔编写了最新版的《膀胱癌诊疗指南》。2023年7月至2024年3月,该指南的英译版分三部分陆续在中国主办的英文期刊《精准泌尿学》(UroPrecision)上发表,改题为《膀胱癌临床实践指南》(Clinical practice guideline on bladder cancer),作为译者的董袭莹与宋刚、管考鹏并列为第一作者。

image

离开东肿,在北面的人卫大厦(人民卫生出版社所在地)前面,我忽然看到了一片马蔺(学名Iris lactea),花期还没过,仍有蓝紫色的花朵点缀在叶丛中。在董小姐的博士论文致谢中,她以这样一句话收尾:“这路遥马急的人间,你我平安喜乐就好。”而就在董小姐的工作地点附近不远处,便能找到一种带“马”字的植物,多巧!这算是我的专业知识带给我的旅行乐趣吧。

image

我乘坐84路公交车前往协和医学院。途中路过天坛公园,从公园东门瞥见了里面的祈年殿。网友发现,2007年的时候,年仅10岁的董袭莹曾经参加了新浪亲子组织的“体验艺术、采风北京”绘画活动,以迎接2008年北京夏季奥运会。董袭莹与大她两岁的另一位小朋友合作,完成了《采风天坛》线描画,其中画的就是祈年殿。

image

我毕竟不是记者,缺乏抓拍照片的敏锐本能。当我意识到我路过了董小姐曾经活动过的地方之后,公交车已经开过了天坛东门,祈年殿再也看不到了。但我很快发现,天坛公园高墙外这条路两边的绿化带里,种满了一种正在开蓝紫色花的观赏植物,居然又是马蔺。这回我马上抓拍了一张照片,聊胜于无吧。

image

到达协和医学院之后,我拍了古色古香的旧址大门照片。

image

又走到协和医院门诊楼,里面照常接诊(包括骨科),人还不少。

image

从协和医院东门出来,也没忘补一张门诊楼的正立面。

image

我没有在协和医学院和协和医院附近看到马蔺,但在门诊楼的南边,却碰到了一处精心布置的花境。

image

这时候,我的专业知识又发挥作用了,识别出其中采用了耧斗菜、高翠雀(大花飞燕草)、月季、天竺葵、蓝花鼠尾草、美人蕉、五彩苏、蓝目菊、四季海棠等花材,此外还有矮牵牛——虽然没有马,却有牛。

image

接下来,我仍然乘坐84路公交,前往第三站——中日友好医院。上车之后,乘车管理员提醒说:“国子监站不停。”虽然能够想到是因为游人太多,为了安全起见,公交只能临时甩站,但我有点纳闷:国子监有这么火吗?是因为高考在即,很多考生和家长去祈愿吗?直到公交开到国子监站附近,我才恍然大悟——原来那里乌泱乌泱的人流,其实是去雍和宫的!

image

中日友好医院在樱花园东街。

image

一下车,便又看到马蔺。

image

连医院围栏外都种了一大片。

image

我没想到,这种带“马”字的野花,现在已经得到了北京园林部门如此广泛的应用。仔细一想,也确实有道理。作为本土野生植物,马蔺耐寒、耐热、耐旱、耐盐碱,吸着机动车尾气而无怨无悔,每年春天还会绽放出美丽而精致的花朵,实在是再理想不过的城市绿化植物。

“五一”这几天,中日友好医院的急诊开着,但门诊关了。我想上门诊二楼去胸外科参观,被守在一楼电梯口的保安断然拒绝。没办法,只能到手术楼一楼看看。2024年7月,肖飞医生应该就是在这栋楼上情绪失控,冲着巡回护士大喊大叫,拉着董小姐径直离开手术室,结果把已经全麻的病人在手术台上撂了几十分钟。

image

告别中日友好医院,在前往中冶建研院的公交车上,我感觉自己已经颇有经验了,便预计一定也可以在附近找到马蔺。

中冶建研院在西土城路上。

image

所谓“土城”,就是元大都城的城墙遗存,“西土城”即西城墙的北段,现在连同北城墙(“北土城”)都已辟为元大都城垣遗址公园。在西土城路边,我没有看到马蔺,但猜测遗址公园里肯定有。我果然没猜错。

image

于是在前往最后一站北京科技大学时,我猜测的已经不是能不能看见马蔺,而是走多久就可以遇到马蔺了。事实比我最乐观的预计还乐观,因为就和中日友好医院的情况一样,一下车,路边就是马蔺。对于如此可歌可泣的植物,这次我索性一屁股坐在地上,以平视的视角拍摄它,背景嘛,自然就是北科大的正门。

image

北科大这个朝西的正门,我以前在北京求学期间就来过,因为门内有一尊高大的伟人塑像。

image

与北科大西门一路之隔的是中国地质大学东门,门内也有一尊高大的伟人塑像,两尊塑像呈面对面之势,这是海淀这片高教区的有趣“热知识”之一。董小姐的事件成为网上热点之后,网上出现一种声音,在愤慨之余,说终于明白当年伟人为什么要发动那场运动。我可以理解这种想法——在没有更多智识资源的时候,怀旧,就成为大众发泄对现实不满的最容易的方法之一。

到这里,我的京城医学文化之行就结束了。我对这趟参观很满意,甚至觉得超出了我的预想,因为马蔺和矮牵牛这两种“牛马”植物,完美地出现在每一个地点的高墙大门之外,成为我没有预料到的旅行主线。特别是马蔺,作为一种完美的象征,给我留下了极深的印象。正如一位知乎网友所说的:除了董小姐在博士论文里引用的那句“这路遥马急的人间,你我平安喜乐就好”之外,琼瑶也曾写过一句脍炙人口的歌词:“让我们红尘做伴,活得潇潇洒洒;策马奔腾,共享人世繁华。”而现在,他才明白歌词里的马是什么意思。

在这路遥马急的京城,看到这位知乎网友的评论,我笑出了声。

【404文库】中国日报|“中国人不怕,中国人能吃苦!”

By: unknown
5 May 2025 at 10:10
CDT 档案卡
标题:“中国人不怕,中国人能吃苦!”
作者:中国日报
发表日期:2025.4.19
来源:中国日报
主题归类:中美关税战
CDS收藏:真理馆
版权说明:本文引用或部分引用的作品,版权按照政府宣传材料和历史文件进行处理。详细版权说明

距美国政府正式发起关税战,已过去两个多星期。面对国内外的强烈反对声浪,特朗普的关税大棒一会儿举起,一会儿放下,试图逼迫相关国家通过谈判等方式向美国妥协,其“霸凌”本质也逐渐显现。

但美国“关税霸凌”的伎俩,在中国这却一脚踢到了钢板上!

4月16日,中国企业百观科技创始人吴冕卿(Robert Wu)在《纽约时报》撰文就指出了中国为何不怕美国的关税霸凌,并称特朗普政府误判了中国的韧性。

img

他在文中指出,特朗普面临的主要问题是,他和他的团队显然——而且是错误地——假设中国会不顾一切地维持对美国的出口,因此会屈服于他的意愿。

Mr. Trump’s main problem is that he and his team evidently — and wrongly — assumed China was so desperate to protect its exports to the United States that it would simply bend to his will.

文章指出,特朗普加征的高额关税以及中国采取的反制措施会对中国造成一定影响,但与特朗普第一任期相比,如今中国在某些方面已经有了更好的准备。

But China is in some respects better prepared today to hold its ground than it was during Mr. Trump’s first term.

吴冕卿在文中提到,中国一直在推行多元化出口策略,如今中国对美的出口占比已大幅降低。中国政府手中有多种政策工具可以缓解长期贸易战带来的压力,但随着美国消费者感受到通胀加剧带来的压力、投资者看到自己的股票市值缩水、企业高管对经济前景愈发悲观,特朗普的谈判立场正日益削弱。

此外,吴冕卿还提到了中国在应对特朗普关税战中,不惧对方讹诈的“内力”:中国人的坚韧和吃苦精神。

中国历史里反复出现的艰难时期,已在这个民族心里根植了忍耐和坚韧的能力。用一个词来表示,叫做“吃苦”。尽管如今的中国年轻人已经习惯了比前几代人更舒适的消费生活,但“吃苦”精神依然根深蒂固。

Recurring periods of hardship in Chinese history have embedded in the nation’s psyche a capacity for endurance and fortitude. The phrase for this is “chi ku,” or to “eat bitterness.” Younger Chinese today are accustomed to more comfortable consumer lives than previous generations, but chi ku still runs strong.

文章还提到,中美两国都在尝试转变各自的经济模式,中国想由生产转向更多的消费,美国则想由过度消费,转向更多的制造。这两种转型都不容易。

但对习惯于吃苦的中国人来说,转向少产多消费相对容易;而美国这样一个以消费为中心的国家,要向相反方向转型则更为艰难。

But it is easier for the Chinese, conditioned to endure hardship, to shift toward producing less and consuming more than for a consumer-centric economy like the United States to move the other way.

该文章在《纽约时报》官网上发布后,引起了读者热烈讨论,吸引了400多条的读者留言。

一名读者留言表示:我完全相信中国人能够找到创新方法来取代美国消费者。中国人民早已习惯了艰苦的生活,并且拥护政府的政策。如果政府说他们需要吃苦,他们就会吃苦。而美国很快就会开始抱怨,因为他们无法从亚马逊买到便宜的东西。

img

张3丰的世界|纽约,我记得的

4 May 2025 at 09:00
CDT 档案卡
标题:纽约,我记得的
作者:张3丰
发表日期:2025.5.3
来源:微信公众号“张3丰的世界”
主题归类:李文亮
CDS收藏:人物馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

在纽约有一天空闲时间。早上从酒店出来,发现没有任何想去的地方,就信步走到了中央公园。

从东南角进去,慢慢走向西北角。即使不用导航,我也轻松走到了李医生长椅那里。

过去几个月,我在成都曾为两位朋友指过路,帮他们寻到了那里。

这次有不同发现。

李医生长椅旁边新增了纪念著名的俄罗斯dissident——Alexei Navalny的椅子。

img

我判断它是新添的,一个原因是2023年我第一次来找长椅的时候,挨个看过那几个椅子上的名字,没注意到它;还有一个原因是,椅子旁边摆放了鲜花,椅子上还有一张纸。

img

这通常是新的纪念物的标志。

大概这是一些在纽约的俄罗斯人出钱捐赠的。我不知道背后的故事,但是这个位置选择很有意思。一位俄罗斯人,一位中国人。他们都曾被自己的国家所伤害,而有些人却暗暗发誓,永远不要忘记。

img

Never give up。

这是一个三角地带,今天很热闹,有一个乐队在这里唱歌。天气晴朗,人们的脸上洋溢着希望。看上去,这和中央公园其他角落没什么不同。

但是对像我这样的专门寻访过来的过客来说,内心却有着惊心动魄的风景。

2023年10月底抵达纽约的时候,内心满是慌张。这次来到纽约,完全是不同的心境。昨天从波士顿乘坐火车抵达Moynihan Hall,进了34街地铁站,马上就有了一种熟悉的感觉。

纽约很大,还有很多我没去过的地方。但是,我对去探索这个城市的未知领域,却没有多大兴趣。我发现自己真正在意的,反而是自己去过的地方。

这个发现让我惊讶。我并不是很自恋的人,也不是很在乎记忆。我去过很多次北京,很少去我的母校北师大。

但是纽约却不同,这个城市已经在我内心种下了一点什么。

img

【重温】歪脑|武汉封城5年之后,那些点滴的创痛印记,以及在日常中抵抗失忆的普通人

4 May 2025 at 07:07
CDT 档案卡
标题:武汉封城5年之后,那些点滴的创痛印记,以及在日常中抵抗失忆的普通人
作者:祖唯纳
发表日期:2025.3.5
来源:歪脑
主题归类:武汉封城
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

CDT编辑注:自由亚洲旗下的新媒体平台“歪脑”日前因特朗普行政令而暂停运营。成立于2017年的歪脑主要面向华语世界青年群体传播自由主义价值。本文发表于2025年3月5日。CDT近期将持续回顾歪脑的报道。

一个人能在鼠疫和生活的赌博中所赢得的全部东西,就是知识和记忆。
——加缪小说《鼠疫》

1 当年的志愿者:“武汉哪里还有什么新冠疫情的痕迹?”

“当年做抗疫志愿者的时候,这还是个新车,只开了50公里。现在已经有40万公里了!还有两年就要报废了。”潘欣转着他的方向盘说。这是2025年2月的一天,他的车正穿行在武汉的街巷上。

img

潘欣手机上存档的疫情期间“防控车辆专用通行证”。(祖唯纳摄)

他总有点不相信,2020年1月23日武汉封城,那一天,至今过去已经五年了。那时候,人心惶惶,他刚入行做网约车司机才两个星期。此前他刚从一家倒闭的外企出来,刚30岁,充满了工作激情,总想做点什么。封城了,在家里待着也是无聊,正好领导问他要不要去志愿者,他没有犹豫就报了名。

潘欣是他所在团队的300多个志愿者之一。在全城人心惶惶的日子里,接送了许多前往医院的孕妇、病人以及往返养老院的老人。“刚开始根本不知道怕,到怕的时候已经回不去了。”回顾起来,他说。

潘欣户籍所在地是江汉区,做志愿者在是东湖高新区,因为不能跨区,他整整半年没回家,前两个月就睡在车里,后来才被安排了地方住。

“前两个月是太苦了,吃了两个月泡面。” 记忆中,到现在还是那同一个味道的“红烧牛肉味杯面”。每天,在社区站点的白色工作台上吃方便面,口罩直接拉到下巴处,头上有志愿者字样的红色鸭舌帽也不取下来。刚开始还能接受,可吃到半个月就受不了了,“就算山珍海味天天吃也会腻啊。”他说。但那时物资紧缺,外面援助还没进来,能吃的食物只有泡面加火腿肠,没办法,只能熬着。

其实如果不是被问起,潘欣很少和别人主动说起疫情那几年的事情。

武汉哪里还有什么新冠疫情的痕迹?他想不到,顶多想到雷神山和火神山两座医院——这是市政府为接纳疫情期间的病患建设的临时医院,两家医院,据说用了4万人,各用了10天时间就建成了,当时被官方媒体称为“奇迹”,但现在基本处于关闭状态。“两座医院现在都停了!”他说。语气中带着惋惜。

他的武汉普通话尾音拖长,语调上扬着重复:“新冠疫情都过了好多年了!人们都已经遗忘了。”

但他忘不了。疫情结束了,那些生命里的痕迹还以实体的形式存在着,不经意,就会和他撞个满怀。

他开的比亚迪T3车头上放着一枚“抗疫英雄”的徽章,这算是政府对他当时做志愿者的表彰。武汉市公安交通管理局当年给他的车发的“中心城区专用通行证”的牌子,他也一直保管着,放在车上天天日晒,已经有些褪色了。上面有“2020.04”的字样。当年的4月8日,是武汉解除封城的日子。

img

潘欣后来得到的“抗疫英雄”徽章。(祖唯纳摄)

潘欣自己并不常玩抖音。但疫情那会儿,除了做志愿者接送人,也没别的事情,他就拍下一些穿着防护服、参加培训工作的视频,放在自己的抖音帐号上。这些视频,到现在都还在。他偶尔会打开,帮他回忆起那段时光。他也记得,自己当初做志愿者,并不知道有无补贴。好在疫情结束后,政府补贴了每天六百元。

和潘欣不一样,今年45岁的段师傅沒拿到徽章和补贴,他就做了一个星期的志愿者,帮医生送帽子、衣物等,后来太害怕就没做了。他说,后来全国许多城市都封城,但肯定都没有武汉当时恐怖,他所在的小区里当时有老人死了,尸体停在家十天都没有救护车来。“殡仪馆人都满了。”

段师傅说,现在他对疫情已经没有记忆了,“就当一个经历吧,没有什么特别的。”但真回忆起来,还是有恐惧。“怎么说呢?反正没到我头上吧。”

2 “我会把抖音和新华社、人民日报结合起来看。”

img

华南海鲜市场所在的新华路大道上,路两旁屹立着不少梧桐树,曾经的市场被淡蓝色的围墙挡得严严实实,上面写着“华南市场整体搬迁到黄陂区汉口北大道”的字样。还有一些”社会主义核心价值观”的宣传语和广告。从疫情结束后到现在,这沉默的围墙,是武汉少有的关于新冠疫情曾经爆发过的痕迹。

img

旧华南海鲜市场蓝色铁皮栏上的广告牌。(祖唯纳摄)

“那个市场就放在那,没拆也没用。”潘欣说。至今,他和段师傅都不相信疫情和华南海鲜市场有任何实质关联。段师傅说“华南海鲜市场吃蝙蝠是扯淡。”潘欣也说,武汉人并不怎么吃野味,怎么可能从蝙蝠传到人身上?“这只是政府为了安抚人心的说法。”

至今新冠疫情的起源仍未有定论,华南海鲜市场一度被中国官方解释为疫情爆发的源头。

2020年1月政府关闭了华南海鲜市场,有些摊户被迁到了郊区。如今的市场周围,还有不少眼镜店和小卖铺,但是四五百米内,都很难找到一家开张的餐厅。

img

华南海鲜市场附近的沙县小吃和热干面店都关着门。(祖唯纳摄)

2025年2月,春节过后不久。一位年长的男士牵着一个小孩的手经过这里,他解释说,旁边这些商铺封起来跟华南海鲜市场无关,是要重新装修的,3月就会开张。

他说自己就住在华南海鲜市场附近,起初疫情爆发时,他没有感染。2022年,感染了“奥密克戎”,但“两三天就好了”。说到疫情的来源,他也不相信疫情和华南海鲜市场有关。

2020年3月,时任中国外交部发言人赵立坚在推特上的发言,曾暗示是参加军运会的美国军人将病毒带过来这一说法。疫情爆发五年后,这位先生和我随即交谈的七八位武汉市民一样,都和政府的看法一致。

政府的宣传显然影响到了普通人的判断。段师傅也是他们中的一位。“你听过一个词叫做‘信息茧房’吗?你刷的东西如果是美食、旅游,给你推送的就主要是美食、旅游,我喜欢看军事、政治方面。”他对我说。他承认中国有舆论控制,但自认为现在的中国互联网上,获取信息的渠道也很多,“我会把抖音和新华社、人民日报结合起来看。”

3 消失的一款咖啡,名字叫“吹哨者”,以及“哦,那个死去的医生”

img

武汉地处长江与汉江交汇处,是中国中部最大的城市,九省通衢,同时也是中国铁路网、公路网和华中地区航空的主要枢纽。

2025年的1月23日成了武汉人难忘的日子。五年前这天,武汉宣布封城,在佛山做钢材生意的喻先生当时正在从广东赶回武汉老家过春节,他在路口被拦住做选择:要么现在掉头,要么就走不了,等解封。他选择了回武汉的家,“肯定是要回家过年嘛。”5年后的这个2月,采访中,他对我说。

在武汉,至今“76”都是一个特别的数字。从2020年1月23日封城,到4月8日解封,武汉人整整经历了76天被封锁在家中,几乎完全失去自由的生活。

尽管作为武汉人经历了那样艰难的时刻。但对很多人来说,如今在这座城市,并没有什么地方可以体现出那一段时间武汉人承受的这一切——没有纪念碑、没有展览馆。对他们的痛苦,没有真正的纪念。

img

第一批接受病患的金银潭医院。这是医院汉江北路的健康管理门诊部。(祖唯纳摄)

但总是有一些地方,提醒着人们疫情曾经席卷过这个城市。

疫情爆发后第一批接受病患的金银潭医院就是其中一个地标。这家医院是著名的传染病专科医院,2024年4月,医院宣布正式将感染性疾病区和日常综合医疗服务分区,这象征着它向综合型医院的转变。

医院的健康门诊部位于江汉北路。坐落在社区里,显得静谧,不见了当年的紧张和忙碌气氛。中午十二点多,对面的卤肉大饼店排起了长龙。

同济医院也是首批接诊大量患者的医院,疫情期间特别收治了许多危重症患者。医院的汉口主院区坐落在硚口区解放大道,这条贯穿城市南北的主干道如今车流如织。医院正门旁位于医院一层的急诊部,暮色中,红色标识格外醒目。

钱师傅说,他唯一能想起的、在公开场合能看到的关于疫情的纪念,在同济医院附近的天桥上。那里标记了当年各地不同省市驰援武汉疫情的医护人员人数。

不过他记成了栏杆上有具体的外省医院医护人员的名字,而实际上只有一个个统计数字。凑近看,其中“西藏医疗队”是“3人”。

img

同济医院附近天桥上的各地医疗队“驰援武汉”人数标记,是武汉为数不多的对那场疫情的公共纪念。(祖唯纳摄)

李文亮医生工作的武汉市中心医院,一度是医护感染最严重的医院之一。

医院位于南京路,对面是历史文化街区咸安坊,红砖外墙,里弄布局。现在除了一些连锁的餐厅店,这里还有许多特色的小资店铺。关于疫情的记忆,偶尔也会在这里跳出来。

img

“吹哨人”李文亮医生曾经工作的武汉市中心医院外观。(祖唯纳摄)

医院附近有一家结合了咖啡和复古胶片的小酒馆,开业一年,但老板说已经算是“开了蛮长时间了”。还有一间结合了中古首饰和设计师服饰的咖啡厅,去年十月份开业,店员小杨说“这边咖啡厅更换得太快了。”

2021年时,附近的一家咖啡厅餐牌上,曾有一款咖啡名为“吹哨者咖啡——100%有争议”,还有媒体报道过。如今,这家咖啡馆已不复存在。在一家装置显得先锋的酒馆里,有许多女性主义的布展,很多顾客留下书和推荐语,书柜上有很多探讨关于死亡的留言、还有本关于眼科学的书,但没有任何痕迹有关李文亮医生。似乎人们心照不宣,没有人会公开提到李医生。

img

武汉中心医院附近一家小酒馆里的“女性主义”主题展览。(祖唯纳摄)

当时在武汉中心医院做眼科医生的李文亮,后来被称为新冠疫情的吹哨者,因在疫情初期率先在校友群“预警”注意防范病毒,被当局训诫,并说成是“造谣者”。2020年2月7日凌晨,武汉市中心医院宣布年仅34岁的李文亮去世,在互联网上引发了极大的社会震动。

在武汉循礼门地铁站F出口,距离李文亮工作的医院骑行八分钟左右的地方,是一个大型商场,和中国其他城市有着类似的奶茶店、美食打卡地标、美容院。商场对面一家换手机膜的街头小店的老板,边用酒精棉擦拭着手机边说:“李文亮是谁啊?我不认识啊!”

img

没听说过李文亮的贴膜店老板。(祖唯纳摄)

再一问,原来他不是武汉人,三年前才从湖南来武汉工作。武汉本地人大多听说过李文亮,如今再提起这个名字,有人会说道:“哦,那个死去的医生。”

在李文亮曾工作的医院,专家墙上不见这位已逝医生的名字。服务台的工作人员回答起关于他的问题也相当谨慎:“他以前在这工作,但我们不认识他,不是很清楚。”医院门口报刊亭的老板娘说,“人死都死了,疫情都结束了,我也不是很了解,这东西不能瞎说的。你自己上网了解下。”

img

2025年2月,有病患走过武汉市中心医院里的“专家墙”。(祖唯纳摄)

互联网上,令国人自豪、可与chatGPT媲美的人工智能DeepSeek回答不上“李文亮是谁?”这个问题。一行字显示:“你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。”

不过在有些地方,李文亮从未被忘记。新浪微博上,他当年最后一条公开的内容,永远停留在2020年2月1日:“今天核酸检测结果阳性,尘埃落定,终于确诊了。”

这条微博下面的评论在那天之后,每一天都在更新,已经超过一百万条。2025年情人节这天,有人在评论区跟他“絮叨”:“元宵节和情人节分手了,知道分的对,但是这事谁会开心呢对吧。要去考科目三了,希望能一次过。” 还有人这样表达想念:“老李,北京的花快开了。”

武汉没有纪念他的痕迹,但还是有无数的中国人在纪念他。

4 “商铺一条一条街地关”,以及突然火起来的旅游业

img

疫情给武汉留下了什么?钱师傅觉得,武汉遭受的最大影响是,经济变得萧条,“那些商铺整片整片地关,一条一条街地关。”他觉得全国经济这几年都不好,但武汉更明显。

封城在家时,他还没做网约车司机。他本来经营着一家开了十年的儿童摄影店,疫情期间,门可罗雀,生意做不下去,只能关门。店铺倒闭后,他在家休息了一段时间,还是入了网约车这一行。疫情后他收入严重降低,网约车平台抽成后,收入并不高。他说,如果是武汉的普通上班族,每个月收入就在四五千元,可武汉的消费水平一点儿也不算低。

img

2025年2月的武汉,人们在路边吃早餐。(祖唯纳摄)

在商场做招商工作的蒋婷,同样感受到疫情让这座城市在经济上受创。她觉得,当年刚解封时,人们还报复性消费了一阵,但很快就迎来“消费降级”。餐饮业所受影响相对较小,但许多品牌服装业明显式微。在给商场做店铺招商时,她听到许多租户说,营业额都变差了。她的父母多年前从浙江温州来武汉做服装生意,疫情期间也结业回了老家。

互联网上,也有很多人讲述自己的生活如何被疫情影响。曾经写“武汉日记”的“蜘蛛猴面包”曾经在微博上发问:关于疫情的第五年,你们有什么想说的?有一个叫谜迦的网友,留言说,她现在只有疫情前四分之一的收入,生活水平直线下降,但和许多武汉人一样,她心态依然积极:“感激熬过了疫情的病毒,而人总是要继续奋斗的,希望在明天。”

在经济低迷中,武汉的旅游业却得到意外的发展。2020年中国社科院发布的《新冠肺炎疫情下的旅游需求趋势调研报告》显示,武汉成了游客最想去的城市,超过了曾位列第一的北京。

疫情过后,当地政府顺势倾斜资源大力发展旅游业。2025年,长江网一篇文章提到,要把武汉黄陂区打造成为武汉建设世界旅游目的地城市“先行区”。我采访的喻先生说,他在疫情结束后,因为要照顾孩子读书,从广东搬回了武汉生活。他记得,疫情刚结束后的十一长假,武汉长江大桥和黄鹤楼上的人山人海,“我都震惊了”,前年春节时,许多外地游客来武汉过年,他还记得那一年鹅毛大雪,密密麻麻的人,挤在长江两岸放烟花,“感觉武汉名气越来越大。”

img

武汉著名景点“黄鹤楼”外。(祖唯纳摄)

5 公务员考试培训中,不能被提及的“疫情”两个字,以及那些被回避的创痛

尽管官方刻意营造“英雄城市”的叙事,以及旅游业出乎意料地发展,让城市多了一些热闹。但真正生活在这里的武汉人,在“封城”过去五年之后,创痛依然存在。他们很少主动提起疫情,也刻意回避创伤记忆,“好像有了PTSD,对生活有极度的不安全感”,在无能为力中也丧失了参与对公共事务的热情,“更讨厌和柴米油盐离得很远的宏大叙事了。”一位受访者告诉我。

“疫情”也是官方要淡化的词。在广东准备公务员考试的宗阳,在参加公务员面试培训时被告知,一定不要在回答中用“疫情”这个词。培训班老师说,提了会扣分,只能用“那几年”来替代。2024年春节联欢晚会,武汉市成为分会场之一,不过主持人并未提到这座中部最大的城市曾和疫情有任何关联。

也有人选择不忘记。五年前,武汉解封前两天,生活在这里的胡琪琛告诉我,她感到人们太健忘。随着解封而来的是,“没有追责,好像什么都好了一样”。她认为,一切肯定都会过去,但疫情这两个月期间的种种悲剧在她心里过不去。她说,“我会一直记得这种感受。”

五年后我再次联系到她。她说,疫情期间那些记忆仍很深刻:仓促的封城、挤兑的医疗资源、停摆的交通、看不上病的病人、发“牺牲一座城拯救一个国”从而有分歧的朋友……她依然为作为一个公民竟可以被关在家里两个月感到愤怒,也不认同要为集体牺牲个人,“因为你没有被抛弃,你还有得活,但是很多人真的没得活。”

事实上,武汉解封第二天,她就去了香港。她说,疫情直接影响了她对未来生活的选择。她本考虑去北京工作,但作为媒体从业者,疫情时她采访人也被采访,又经历爷爷逝世。亲历种种,她感到受伤以及在内地做记者的极度不自由,“没法改变,只能逃。”

过去这些年,她一共就回了武汉四次,主要是探望家人,每次待的时间也就几天。她发现,武汉有一些改变,比如新建了东湖绿道,武汉光谷也有越来越多科技公司。但她觉得自己对这个城市并无太多留恋。“武汉是在进步,但是再进步,也没法留住我。”

而疫情之后,对很多生活在武汉,也从未想过逃离的人来说,生活还是该干嘛干嘛,只不过许多武汉人习惯了常常戴口罩。小杨说:“武汉人对这个可能更注重一些,被伤过。”

img

2025年2月,武汉一家餐厅,服务员都被要求带上口罩。(祖唯纳摄)

25岁的小杨一直在武汉生活。现在想起疫情那段时间,小杨仍觉魔幻,先是没料到封城,后来也是生平第一次看着不甘被封的人们聚集、闹着上街。她不爱宅着,最初封城时,她不知道在家做什么好。家对面是武汉第六医院,每天她就在阳台看外面车来车往,听着“呜哇呜哇”的急促救护车声,心情焦躁无比,只能借由整日整夜看《甄嬛传》来舒缓。

img

一张被丢弃的口罩。小杨拍摄于医院附近的中山公园。(小杨摄)

持续三年的疫情中,她印象最深的场景是深夜看着女朋友被社区的车拉走。那是2022年,她和小她一岁的女朋友小傅出去游玩了一天后,在黄陂区的家里住,深夜近十二点,突然接到社区电话。电话铃响,她们犹豫很久要不要接、要不要开门。后来开了门,穿着防护服的工作人员把行程跟她一致,却不知何故就变成“密接”的小傅送上大巴,拉到郊区隔离。

车上全都是戴着口罩的人,小傅上车后,车子继续去不同的地方拉人,凌晨一两点才到达郊区某便捷宾馆。大概做了很多次隔离点,宾馆电梯和走廊全部都罩上塑料薄膜,装潢设施都很老旧,“厕所也都黄黄的”。那天晚上,小傅很害怕,跟本来已经睡着的小杨打了整夜的视频。

好在就隔离了一天,第二天小区群里越来越多人说自己“阳”了。很快,所有人都感染了新冠病毒,大家对“阳”这件事再不忌惮了。

如今,小傅回忆说,自己有段时间甚至有了创伤应激反应,不敢接别人电话,怕电话一结束就又被拉走,甚至学校辅导员打来,都觉得可怕,担心是督促她在早上八点前做健康监测打卡。

6 拥有了一部相机的女孩:“我想用记录抵抗遗忘”。

img

2022年,小杨在天桥见到一位阿姨望向远方,仿佛也和她一样不知未来要去往何方。(小杨摄)

疫情对人们的生活似乎也有些正面影响:封城前,小杨按父母的安排在一间公司做文员工作,但封城后,她觉得,要把想做的事赶紧做了。要不然死了做不了怎么办?她一直很想做摄影师,于是封城隔日,就去家附近还开着的相机铺买了部佳能90D。解封后,她就背着这部相机,在城里捕捉想要拍摄的场景和瞬间。用快门定格画面,“我想用记录抵抗遗忘”。

2022年,她在天桥上看到一个阿姨在看着远方发呆,这场疫症让“人心惶惶”,小杨感到她似乎也和自己一样,在想象着未来会是怎样,她按下了快门。

疫情期间政府在路上封了很多铁皮栏,但时而可以看到某处的铁皮栏被戳开了一个洞,大家通过这个洞递送物资。疫情近尾声时,小杨通过这个洞看到大家陆续在生活了,她就定格下从洞里望出去骑着共享单车的阿姨,和谋生中的外卖员。

img

政府安装的铁皮栏被戳开了一个洞,从洞口望出去,见到为生计奔走的快递骑手。(小杨摄)

img

同上,洞口外看到的路人。(小杨摄)

小杨说,对疫情,人们也不能说是淡忘,如果聊起,大家还是有很多可以说。“一提起那段时间,武汉人就会说,那段时间你干嘛了我干嘛了,然后就会觉得,真牛啊,我们。”仿佛人人都是幸存者。

疫情期间小杨经历了亲人离世。她爷爷是慢性阻塞性肺病患者。疫情期间病情加剧过世。爷爷去世前几天,他们点了一大桶肯德基,一起围着吃鸡腿。小杨说,如果回到那时候,很想再跟从小带大自己的爷爷说,她很爱他。“回想以前的记忆的时候,总想要做到更好,想说能不能更好点。”

亲人离世,也让小杨也第一次反思了生死的问题,“死了的人就是死了,活着的人得好好活着,除了热爱生命,也没有其他办法。” 抗疫志愿者潘欣也有同样的感悟。

小傅也觉得,疫情让她更珍惜和小杨的感情,经历了疫情的磨炼,两人的关系也更坚固了。疫情时,两人前后生病,互相照顾,抚慰对方焦躁和害怕的心情。小傅隔离时,小杨陪她整夜打电话;小杨送外卖,小傅也跟她一起送。

那会儿因原本工作的法餐厅在疫情期间关门,小杨想去送外卖补贴收入。某天深夜十一点多,有人叫了炸鸡外卖。她们到炸鸡店时才发现,炸鸡店门全被封住了。炸鸡炸好后,厨师只能从门上面递炸鸡过来。两人接过炸鸡,告别在等外卖时和她们唠嗑的大叔,踩上电动车,前往封控的社区送餐。

img

影子(小杨摄)

炸鸡的香味和相伴的柔情永远留在了记忆里。小傅笑着总结:“现在觉得,可能恋爱的感觉把疫情的感觉都冲淡了。”

米兰·昆德拉在文学论中提到一个三十岁的男人约拿斯游荡的故事:约拿斯醒来,发现自己所在的世界是空的,几个月的时间里,在他自杀之前,他走遍世界绝望地寻找他生命的痕迹,寻找自己甚至别人的回忆。

对生活在后疫情时代、依然要面对生活艰辛的很多武汉人来说,呵护自己的记忆,抚平伤痛,同时对抗遗忘,依然是不经意间同时在做的事。

img

影子(小杨摄)

(为保护受访者,文中网约车司机潘欣使用了化名)

益两|五一特辑:为什么地铁上的辱骂与保洁休息室是同一件事

4 May 2025 at 06:14

从垃圾站下班之后,老刀回家洗了个澡,换了衣服。白色衬衫和褐色裤子,这是他唯一一套体面衣服,衬衫袖口磨了边,他把袖子卷到胳膊肘……他在垃圾站上班,没必要穿得体面,偶尔参加谁家小孩的婚礼,才拿出来穿在身上。这一次他不想脏兮兮地见陌生人。他在垃圾站连续工作了五小时,很担心身上会有味道。
——《北京折叠》

CDT 档案卡
标题:五一特辑:为什么地铁上的辱骂与保洁休息室是同一件事
作者:小草、ch、yn
发表日期:2025.5.3
来源:微信公众号“益两”
主题归类:劳工权益
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

郝景芳写于2012年的短片科幻小说《北京折叠》,是继刘慈欣的《三体》之后第二部获得雨果奖的中文作品。小说里,未来的北京被分成三个互不相通的空间,分别居住着统治阶级、中产阶级,和底层劳动者。三个空间的人轮流醒来,互不干扰彼此的生活。小说的主角老刀是生活在第三空间的垃圾工,蜗居在昏暗的地下胶囊,仅能在深夜的十二小时苏醒,用布满裂痕的双手分拣着整座城市的残渣。而现实中的劳动者们,则以更隐晦的方式经历着与老刀相似的“折叠”。

在北京的晚班地铁,一名农民工正常地坐在座位上,却因衣服沾有粉尘遭到邻座男子无端地辱骂;在许多公共场所,清洁员们往往没有固定的休息区域,只能在杂乱的工具间、洗手间里的一格,或漆黑楼梯间用餐与休憩;而在一些标榜“高端”的商场,外卖员因“形象不好”的理由被禁止入内,即便作为消费者短暂停留,身着工作服的骑手仍会遭到劝离。

在这些场景中,本应属于所有人的公共空间在无声中设立了“体面”的门槛,悄悄评判着“谁有使用公共空间的权利”。现实中的种种案例告诉我们,有些折叠并不需要机械装置,偏见本身便是最锋利的裁纸刀。

ONE 隐形的双手

image

摘自小红书 小猪的人间日记

之所以将地铁上被“嫌弃”的农民工、“不配”拥有休息室的保洁阿姨写在一起,是因为我们发现他们所面临的并非是个体的歧视或偏见,而是一种系统性的漠视和敌意。对于北京地铁上劳动者遭到歧视的事件,我们当然可以指责歧视劳动者的个人缺乏同理心或刻薄冷漠,但保洁阿姨休息室的缺乏告诉我们,即使没有个体对个体的歧视与偏见,我们的劳动者们依然面临着结构性的困境,即“不被看到”。

“不被看到”很多时候并非是明晃晃的敌意,不会以肉体攻击或语言羞辱这样激烈的方式展开,但会像一根小刺,扎在劳动者勤劳的双手中。在一项关于清洁工的访谈中,许多清洁工提到,"在你工作的时候,人们可以从你身边经过,就好像你是隐形的一样”。这样的无视是我们习以为常的,或许也是体力劳动者们习以为常的,但这并不是一个人所应当过的有尊严的生活。我们希望被当作平等的个人,没有人希望蜗居在厕所隔间进食。我们希望工作成果被尊重,没有人希望刚刚完成的工作变为一团乱麻。我们在工作中得到肯定,没有人希望在完成一切后被无视存在。

但这些希望没有达成,本质上而言,这其实是一种对于劳动者全然的异化。在工作岗位中,ta们不再被视为是有灵魂、有情感的个人生命,而被纯粹地当作了清洁工具或运输方式。因此我们不需要向他们问好,不需要考虑他们的情感需求;系统也无需考虑ta们的休息与尊严,留在ta们生命中的,唯有工作。

TWO 偏见的眼神

img
img

图源来自网络

然而,在不被看到的同时,体力劳动者往往还要面临更为激烈的暴力,社会学家称之为我们将之称为“超可见性”(Hypervisibility)。具体而言,如果建筑工人出现在建筑工地,ta面对的是路人的漠视。庞大的城市有太多的施工场所,没有人会想到应该和水泥色的工人打个招呼。但就是这样一群“隐形人”,如果他们穿着水泥色的工作服装进入公共交通、商场、图书馆,他们将被所有人关注,忽然之间便成为了“巨星”。而这样异常高的关注有时则会演变为更进一步的语言或肢体的暴力,正如地铁与商场对建筑工人和外卖骑手的驱逐。

  究其本质,这样的高度关注与驱逐背后所反映的是鲜明的“界限”。在《北京折叠》中,“界限”直接呈现为空间和时间的生硬划分,第三空间的垃圾工只能在无人的深夜活动在无人的街头。而在我们所面临的现实中,我们看不见摸不到科幻小说中的“界限”,但却时刻能感受到这堵无形的墙。当体力劳动者与中产市民同乘地铁,市民愤怒了,卑微如尘土的工人为什么可以与他同乘?当保洁员拥有体面的休息室,有人疑惑了,肮脏的工作凭什么有干净的生活。界限不被允许打破,一切越界者都将被驱逐。

但问题在于,我们之间真的应当存在“界限”吗?在五一劳动节前夕,我想“劳动最光荣”这句听起来颇具年代感的话不应真正过时。一切平凡的劳动者,当然有权有干净整洁的休息室,有权搭乘公共交通工具,有权读书写字,有权有尊严受尊重的生活。

当然,我们并非指责任何一个个体,在今天每一个人都在为求生筋疲力竭,体力劳动者的困境也不仅仅是有尊严的生活。但在异常艰难的当下,或许携起手来,才能共同前行。看到我们身边与我们共同经受一切的体力劳动者们,将ta们当作与我们相同的兄弟姐妹,关注自己,关注ta们。

THREE 我们能做些什么

目前,我们已采取多种措施试图改善这一问题。上海闵行区的公厕为保洁员们设立了专门的休息室。十五平方米的房间里,设施配置齐全,解决了保洁员吃饭难、喝水难、休息难的问题。针对农民工、外卖骑手的法律保障措施也在逐步落地。(央视新闻:这些照片让人心疼!请给保洁员一个休息空间)

但改善劳动者处境并非一朝一夕可完成的事业,我们也想向益两的读者发出呼吁。不管你是公益机构或企业的员工、高校学生、或是小区居民,我们都可以为改善身边底层劳动者的处境做些什么。

正视:承认体力劳动者为社会发展做出的不可磨灭的贡献,拒绝歧视。
看见:和他们聊聊天,尝试了解他们的工作和生活。
支持:在日常生活中做出力所能及的帮助,比如顺手将垃圾扔进垃圾桶。
帮助:发现劳动者的困境后,可向公司、学校或机构的管理层反映。
进步:通过本地的政务APP、市长信箱等民众参与渠道提出建言。
平等:我们也要意识到,我们所做的并不是施舍或“献爱心”,得到尊重是劳动者应得的基本权利。

image

更多内容扫码查看益两词条【劳动权益】

【404文库】协和医学院规培医生董袭莹博士论文, 中国知网已删除

4 May 2025 at 02:40

CDT编辑注:日前,中日友好医院医生肖飞被其妻举报婚外情,其中一位当事人为规培医师、协和医学院博士生董袭莹。举报信中还指出,肖飞曾在手术过程中与护士发生冲突,期间不顾患者安危,与董袭莹一同离开手术室。随后,董袭莹的教育背景引发网络关注。公开信息显示,董袭莹本科就读于美国哥伦比亚大学下属的女子学院——巴纳德学院,主修经济学,2019年被北京协和医学院“4+4”临床医学长学制试点班录取为博士研究生。相比中国传统医学教育体系通常更长的教学与规培周期,协和“4+4”模式在公平性与专业性方面引发质疑。与此同时,有网民指出,董袭莹的博士论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。事件持续发酵后,中国知网已将其博士论文下架,而这篇论文的下架流程是否遵循既定的撤稿标准亦受到质疑。有网友在此之前保存了论文PDF,并上传至GitHub。以下文字和图片由CDT通过PDF版转录存档。

北京协和医学院临床医学专业毕业论文
学校代码:10023
学 号: B2019012012

跨模态图像融合技术在医疗影像分析中的研究

专业年级:北京协和医学院临床医学专业 2019 级试点班
姓名: 董袭莹
导师: 邱贵兴(教授)
北京协和医学院 临床学院(北京协和医院)
骨科
完成日期:2023年5月

目录

摘要 …………………………………………………………………………………………………………………… 1
Abstract ………………………………………………………………………………………………………………. 3

  1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测 ………………………………… 6
    1.1. 前言 …………………………………………………………………………………………………….. 6
    1.2. 研究方法 ……………………………………………………………………………………………… 7
    1.2.1. 研究设计和工作流程 ………………………………………………………………….. 7
    1.2.2. 跨模态图像融合 …………………………………………………………………………. 7
    1.2.3. 宫颈癌病变区域检测 ………………………………………………………………… 11
    1.3. 实验 …………………………………………………………………………………………………… 11
    1.3.1. 临床信息和影像数据集 …………………………………………………………….. 11
    1.3.2. 模型训练过程 …………………………………………………………………………… 12
    1.3.3. 评价指标 ………………………………………………………………………………….. 13
    1.3.4. 目标检测模型的结果与分析 ……………………………………………………… 14
    1.4. 讨论 …………………………………………………………………………………………………… 15
    1.5. 结论 …………………………………………………………………………………………………… 16
  2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断 ………………………………. 18
    2.1. 前言 …………………………………………………………………………………………………… 18
    2.2. 研究方法 ……………………………………………………………………………………………. 19
    2.2.1. 研究设计和工作流程 ………………………………………………………………… 19
    2.2.2. 骨转移目标区域检测 ………………………………………………………………… 20
    2.2.3. 基于特征转换的跨模态数据融合 ………………………………………………. 20
    2.2.4. 乳腺癌骨转移的分类模型 …………………………………………………………. 21
    2.3. 实验 …………………………………………………………………………………………………… 22
    2.3.1. 临床信息和影像数据集 …………………………………………………………….. 22
    2.3.2. 模型训练过程 …………………………………………………………………………… 23
    2.3.3. 评价指标 ………………………………………………………………………………….. 24
    2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析 ……………………………………………………………………………………………….. 25
    2.4. 讨论 …………………………………………………………………………………………………… 30
    2.5. 结论 …………………………………………………………………………………………………… 32
    全文小结 ………………………………………………………………………………………………………….. 33
    参考文献 ………………………………………………………………………………………………………….. 35
    缩略词表 ………………………………………………………………………………………………………….. 40
    文献综述 ………………………………………………………………………………………………………….. 41
  3. 跨模态深度学习技术在临床影像中的应用 ……………………………………………………. 41
    3.1 Preface ………………………………………………………………………………………………… 41
    3.2. Deep Neural Network (DNN) ……………………………………………………………….. 42
    3.2.1. Supervised learning ……………………………………………………………………. 43
    3.2.2. Backpropagation ………………………………………………………………………… 46
    3.2.3. Convolutional neural networks (CNN) …………………………………………. 46
    3.3. Cross-modal fusion ………………………………………………………………………………. 49
    3.3.1. Cross-modal fusion methods ……………………………………………………….. 50
    3.3.2. Cross-modal image translation …………………………………………………….. 51
    3.4. The application of cross-modal deep learning ………………………………………….. 52
    3.5. conclusion …………………………………………………………………………………………… 55
    参考文献 …………………………………………………………………………………………………… 57
    致谢 …………………………………………………………………………………………………………………. 60
    独创性声明 ………………………………………………………………………………………………………. 61
    学位论文版权使用授权书 …………………………………………………………………………………. 61

摘要

背景

影像学检查是医疗领域最常用的筛查手段,据统计,医疗数据总量中有超过90%是由影像数据构成[1]。然而,根据亲身参与的临床病例[2]可知,很多情况下,仅凭医生的肉眼观察和主观诊断经验,不足以对影像学异常作一明确判断。而诊断不明引起的频繁就医、贻误病情,则会严重影响患者的生活质量。

相较于传统的主观阅片,人工智能技术通过深度神经网络分析大量影像和诊断数据,学习对病理诊断有用的特征,在客观数据的支持下做出更准确的判断。为了模拟临床医生结合各种成像模式(如 CT、MRI 和 PET)形成诊断的过程,本项目采用跨模态深度学习方法,将各种影像学模态特征进行有机结合,充分利用其各自的独特优势训练深度神经网络,以提高模型性能。鉴于肿瘤相关的影像学资料相对丰富,本项目以宫颈癌和乳腺癌骨转移为例,测试了跨模态深度学习方法在病变区域定位和辅助诊断方面的性能,以解决临床实际问题。

方法

第一部分回顾性纳入了220 例有FDG-PET/CT 数据的宫颈癌患者,共计72,602张切片图像。应用多种图像预处理策略对PET 和CT 图像进行图像增强,并进行感兴趣区域边缘检测、自适应定位和跨模态图像对齐。将对齐后的图像在通道上级联输入目标检测网络进行检测、分析及结果评估。通过与使用单一模态图像及其他 PET-CT 融合方法进行比较,验证本项目提出的 PET-CT 自适应区域特征融合结果在提高模型目标检测性能方面具有显著性优势。第二部分回顾性纳入了233 例乳腺癌患者,每例样本包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有3051 张CT 切片,3543 张MRI 切片,1818 张PET 切片。首先训练YOLOv5 对每种单一模态图像中的骨转移病灶进行目标检测。根据检测框的置信度划分八个区间,统计每个影像序列不同置信度区间中含有检出骨转移病灶的个数,并以此归一化后作为结构化医疗特征数据,采用级联方式融合三种模态的结构化特征实现跨模态特征融合。再用多种分类模型对结构化数据进行分类和评估。将基于特征转换的跨模态融合数据与特征转换后的单模态结构化数据,以及基于 C3D 分类模型的前融合方式进行比较,验证第二部分提出的方法在乳腺癌骨转移诊断任务中的优越性能。

结果

第一部分的基于跨模态融合的肿瘤检测实验证明,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性。相比使用CT 或PET 单模态图像以及其他融合方法生成的多模态图像作为网络输入,目标检测的平均精确度分别提高了 6.06%和 8.9%,且消除了一些假阳性结果。上述测试结果在使用不同的目标检测模型的情况下保持一致,这表明自适应跨模态融合方法有良好的通用性,可以泛化应用于各种目标检测模型的预处理阶段。第二部分基于特征转换的跨模态病例分类实验证明,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能。相较于单模态数据,跨模态融合数据的平均准确率和AUC分别提高了7.9%和8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也具有相同的实验结论:在不同的分类模型中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

结论

本项目主要包含两个部分。第一部分证实了基于区域特征匹配的跨模态图像融合后的数据集在检测性能上优于单模态医学图像数据集和其他融合方法。第二部分提出了一种基于特征转换的跨模态数据融合方法。使用融合后的数据进行分类任务,其分类性能优于仅使用单模态数据进行分类或使用前融合方法的性能。根据不同模态医学图像的特征差异与互补性,本项目验证了跨模态深度学习技术在病变区域定位和辅助诊断方面的优势。相比于只使用单模态数据进行训练的模型,跨模态深度学习技术有更优的诊断准确率,可以有效的成为临床辅助工具,协助和指导临床决策。

关键词:跨模态融合,深度学习,影像分析,宫颈癌,乳腺癌骨转移

Abstract

Background

Imaging examinations serve as the predominant screening method in the medical field. As statistics reveal, imaging data constitute over 90% of the entire medical dataset. Nonetheless, clinical cases have demonstrated that mere subjective diagnoses by clinicians often fall short in making definitive judgments on imaging anomalies. Misdiagnoses or undiagnosed conditions, which result in frequent hospital visits and delayed treatment, can profoundly affect patients’ quality of life.

Compared to the traditional subjective image interpretation by clinicians, AI leverages deep neural networks to analyze large-scale imaging and diagnostic data, extracting valuable features for pathology diagnosis, and thus facilitating more accurate decision-making, underpinned by objective data. To emulate clinicians’ diagnostic process that integrates various imaging modalities like CT, MRI, and PET, a cross-modal deep learning methodology is employed. This approach synergistically merges features from different imaging modalities, capitalizing on their unique advantages to enhance model performance.

Given the ample availability of oncologic imaging data, the project exemplifies the efficacy of this approach in cervical cancer segmentation and detection of breast cancer bone metastasis, thereby addressing pragmatic challenges in clinical practice.

Methods

The first part retrospectively analyzed 72,602 slices of FDG-PET/CT scans from 220 cervical cancer patients. Various preprocessing strategies were applied to enhance PET and CT images, including edge detection, adaptive ROI localization, and cross-modal image
fusion. The fused images were then concatenated on a channel-wise basis and fed into the object detection network for the precise segmentation of cervical cancer lesions. Compared to single modality images (either CT or PET) and alternative PET-CT fusion techniques,
the proposed method of PET-CT adaptive fusion was found to significantly enhance the object detection performance of the model. The second part of the study retrospectively analyzed 3,051 CT slices, 3,543 MRI slices and 1,818 PET slices from 233 breast cancer patients, with each case containing whole-body imaging of one to three modalities (CT, MRI, or PET). Initially, YOLOv5 was trained to detect bone metastases in images across different modalities. The confidence levels of the prediction boxes were segregated into eight tiers, following which the number of boxes predicting bone metastases in each imaging sequence was tallied within each confidence tier. This count was then normalized and utilized as a structured feature. The structured features from the three modalities were fused in a cascaded manner for cross-modal fusion. Subsequently, a variety of classification models were then employed to evaluate the structured features for diagnosing bone metastasis. In comparison to feature-transformed single-modal data and the C3D early fusion method, the cross-modal fusion data founded on feature transformation demonstrated superior performance in diagnosing breast cancer bone metastasis.

Results

The first part of our study delivered compelling experimental results, showing a significant improvement in the accuracy of cervical cancer segmentation when using adaptively fused PET-CT images. Our approach outperformed other object detection algorithms based on either single-modal images or multimodal images fused by other methods, with an average accuracy improvement of 6.06% and 8.9%, respectively, while also effectively mitigating false-positive results. These promising test results remained consistent across different object detection models, highlighting the robustness and universality of our adaptive fusion method, which can be generalized in the preprocessing stage of diverse object detection models. The second part of our study demonstrated that cross-modal fusion based on feature transformation could significantly improve the performance of bone metastasis classification models. When compared to algorithms employing single-modal data, models based on cross-modal data had an average increase in accuracy and AUC of 7.9% and 8.5%, respectively. This improvement was further corroborated by the shapes of the ROC and PR curves. Across a range of classification models, feature-transformed cross-modal data
consistently outperformed single-modal data in diagnosing breast cancer bone metastasis. Moreover, late fusion strategies grounded in feature transformation exhibited superior performance in classification tasks when juxtaposed with early fusion methods such as C3D.

Conclusions

This project primarily consists of two parts. The first part substantiates that deep learning object detection networks founded on the adaptive cross-modal image fusion method outperform those based on single-modal images or alternative fusion methods. The second part presents a cross-modal fusion approach based on feature transformation. When the fused features are deployed for classification models, they outperform those utilizing solely single-modal data or the early fusion model. In light of the differences and complementarity in the features of various image modalities, this project underscores the strengths of cross-modal deep learning in lesion segmentation and disease classification. When compared to models trained only on single-modal data, cross-modal deep learning offers superior diagnostic accuracy, thereby serving as an effective tool to assist in clinical decision-making.

Keywords: cross-modal fusion, deep learning, image analysis, cervical cancer, breast
cancer bone metastasis

1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测

1.1. 前言

宫颈癌是女性群体中发病率第四位的癌症,每年影响全球近 50 万女性的生命健康[3] 。准确和及时的识别宫颈癌至关重要,是否能对其进行早期识别决定了治疗方案的选择及预后情况[4]。氟代脱氧葡萄糖正电子发射计算机断层显像/电子计算机断层扫描(fluorodeoxyglucose-positron emission tomography/computed tomography, FDG-PET/CT),因其优越的敏感性和特异性,成为了一个重要的宫颈癌检测方式[5] 。由于CT 能够清晰地显示解剖结构,FDG-PET 能够很好地反映局灶的代谢信息形成功能影像,FDG-PET/CT 融合图像对可疑宫颈癌病灶的显示比单独使用高分辨率 CT 更准确,特别是在检测区域淋巴结受累和盆腔外病变扩展方面[6] ,[7] ,[8] 。然而,用传统方法为单一患者的 FDG-PET/CT 数据进行分析需要阅读数百幅影像,对病变区域进行鉴别分析,这一极为耗时的过程已经妨碍了临床医生对子宫颈癌的临床诊断。

随着计算机硬件和算法的进步,尤其是以深度学习[9] 、图像处理技术[10] ,[11] 为代表的机器学习技术的革新,这些人工智能算法在临床医学的许多领域中起着关键作用[12]。基于其强大有效的特征提取能力[13] ,[14] ,深度学习中的卷积神经网络可以通过梯度下降自动学习图像中的主要特征[15 ,极大地提高目标识别的准确性 [16],使深度学习成为计算机图像处理领域的主流技术[17] ,[18]。利用深度学习技术对宫颈癌影像进行分析可以辅助临床医生做出更为准确的判断,减轻临床医生的工作负担,提高诊断的准确性[19]。

目前已经有很多在单一模态图像中(CT 或 PET)基于深度学习技术进行病变检测的工作:Seung等使用机器学习技术依据PET图像对预测肺癌组织学亚型[20];Sasank 进行了基于深度学习算法检测头 CT 中关键信息的回顾性研究[21];Chen 使用随机游走(random walk)和深度神经网络对 CT 图像中的肺部病变进行分割[22] ,[23]。但很少有关于使用跨模态图像融合深度学习方法进行病变检测的研究。

基于 PET/CT 融合图像的病变检测项目包括三个研究任务:区域特征匹配[24],跨模态图像融合[25 和目标病变区域检测[26]。Mattes 使用互信息作为相似性标准,提出了一种三维PET 向胸部CT 配准的区域特征匹配算法[27]。Maqsood 提出了一种基于双尺度图像分解和稀疏表示的跨模态图像融合方案[28]。Elakkiya 利用更快的基于区域的卷积神经网络(Faster Region-Based Convolutional Neural Network, FR-CNN)进行颈部斑点的检测[29]。目前还没有将上述三个研究任务,即区域特征匹配、跨模态图像融合、病变区域检测任务,结合起来的研究工作。

为了减轻临床医生的工作负担,基于跨模态深度学习方法,本项目的第一部分提出了一个统一的多模态图像融合和目标检测框架,用于宫颈癌的检测。

1.2. 研究方法

1.2.1. 研究设计和工作流程

本项目旨在检测 CT 和 PET 图像中宫颈癌的病变区域,工作流程如图 1-1 所示:扫描设备对每位患者进行PET 和CT 图像序列的采集;通过区域特征匹配和图像融合来合成清晰且信息丰富的跨模态图像融合结果;采用基于深度学习的目标检测方法在融合图像中对可疑宫颈癌的病变区域进行目标检测。在图 1-1 的最后一行中,矩形框出的黄色区域及图中右上角放大的区域中展示了检测出的宫颈癌病变区域。

图 1-1 工作流程

img

1.2.2. 跨模态图像融合

图 1-2 展示了跨模态图像融合算法的流程图。根据计算发现两种模态图像的比例和位置不同,如仅进行简单的融合会错误地将处于不同位置的组织影像重叠,从而使组织发生错位,定位不准,产生不可接受的误差。因此,第一部分提出了一种跨模态图像融合策略,其中的步骤包括对感兴趣区域(region of interest, ROI)的自适应定位和图像融合。

在PET 和CT 图像中,自适应ROI定位能够精准识别待分析处理的关键目标,即人体组织影像,然后计算不同模态图像下组织影像之间的比例和位移。依据上述计算结果通过缩放、填充和裁剪的方式来融合 PET 和CT 图像。

图 1-2 CT 和PET 跨模态图像融合算法的流程图

img

1.2.2.1. 自适应ROI 定位

鉴于数据集中 PET 图像与 CT 图像的黑色背景均为零像素值填充,ROI 内非零像素值较多,而 ROI 边缘的非零像素值较少,因此,选用线检测方法来标画两种模态图像中的 ROI,最终标划结果如图 1-2 中的绿色线框出的部分所示,这四条线是 ROI 在四个方向上的边界。在不同方向上计算比例尺。在将 PET 图像放大后,根据ROI实现CT 和PET 图像的像素级对齐。裁剪掉多余的区域,并用零像素值来补充空白区域。如图 1- 3(a)所示,线检测方法从中心点出发,向四个方向即上下左右对非零像素值进行遍历,并记录下行或列上的非零像素值的数量。如图1- 3(b)所示,红色箭头代表遍历的方向。在从 ROI 中心向边缘进行遍历时,沿遍历经线上的非零像素值数量逐渐减少,如果某一线上非零像素值的计数低于预设的阈值,那么意味着该线已经触及到 ROI 的边缘,如图 1- 3(c)所示。然而,如果直接对未经预处理的图像应用线检测方法,会因受模糊边缘及其噪声的影响,得到较差的对齐结果,难以设置阈值。因此,需对PET 和CT 图像单独执行图像增强预处理,以优化 ROI 标化结果,改善跨模态融合效果。

由于PET 和CT 图像具有不同的纹理特征,应用不同的预处理策略,分别对图像进行增强处理,以强化 ROI 的边缘特性,同时消除噪声产生的干扰,再在两种不同模态图像中进行 ROI 定位,如图1-2 所示。

图 1-3 ROI 检测示意图

img

CT 图像是用 X 射线对检查部位一定厚度的组织层进行扫描,由探测器接收透过该层面的 X 射线,经数字转换器及计算机处理后形成的解剖学图像。CT 图像通常比 PET 图像更清晰。为了提取 ROI,需利用图像增强技术对 CT 图像进行预处理:首先,通过图像锐化增强边缘特征和灰度跳变部分,使 CT 图像的边缘(即灰度值突变区域)信息更加突出;由于锐化可能导致一定的噪声,再使用高斯模糊滤波器(Gaussian blur)[30 进行图像平滑去噪,将噪声所在像素点处理为周围相邻像素值的加权平均近似值,消除影响成像质量的边缘毛躁;并执行Canny边缘检测(Canny edge detection )[31 来设定阈值并连接边缘,从而在图像中提取目标对象的边缘。尽管Canny边缘检测算法已包含高斯模糊的去噪操作,但实验证实两次高斯模糊后的边缘提取效果更优。在对图像进行锐化处理后,将提取的边缘图像与高斯模糊后的图像进行叠加。具体地,对两个图像中的每个像素直接进行像素值相加,最终得到边缘更清晰且减轻噪声影响的增强后 CT 模态图像。

PET 图像是基于间接探测到的由正电子放射性核素发射的 γ 射线,经过计算机进行散射和随机信息的校正,形成的影像,能够显示体内代谢活动的信息。尽管PET 可以显示分子代谢水平,但由于成像原理的差异,PET 图像相较于 CT 图像显得模糊。对PET 的预处理方式与对CT 图像的类似,但省略了高斯模糊处理图像噪声的步骤,因为在锐化 PET 模态图像后产生的噪声较少,为防止有效特征信息的丢失,略过这一环节。

为了将两个模态的图像进行区域特征匹配,使用PET 和CT 图像中的矩形ROI框来计算缩放比例和位移参数,并通过缩放、填充和裁剪操作对PET 和CT 图像中的ROI 进行对齐。

1.2.2.2. 图像融合

CT 和 PET 图像的尺寸分别为 512×512 像素和 128×128 像素,ROI 特征区域位于图像的中心位置。通过缩放、零值填充和剪切,放大PET 图像的尺寸以与CT 图像的尺寸保持一致,并且将两个模态图像之间的 ROI 对齐,以便后续的融合处理。经处理的PET 和CT 图像转化为灰度形式,分别进行加权和图像叠加,将其置于不同通道中,作为网络的输入层。由于 PET 图像能展示体内分子层面的代谢水平,其对于肿瘤检测的敏感性高于CT 图像。因此,本研究的图像融合方法为PET 图像的ROI 分配了更多权重,以提高宫颈癌检测任务的表现。

图 1-4 比较了本项目提出的自适应图像融合的结果和直接融合的结果,选取人体不同部位的 CT、PET 和 PET/CT 图像的融合结果进行展示。第一和第二列分别展示了未经处理的原始 CT 和 PET 图像。简单融合算法仅将两个图像的像素点相加,并未执行特征匹配过程,得到的融合图像无任何实用价值。由于通道拼接融合后的图像转变为高维多模态数据,而非三通道数字图像,因此图 1-4 并未展示通道拼接融合方法所得图像。而本项目提出的自适应图像融合方法实现了跨模态图像的精准融合,可用于进一步的观察和计算。

图 1-4 不同图像融合方式的可视化结果

img

1.2.3. 宫颈癌病变区域检测

先由两位临床医生对跨模态融合图像中的病变区域进行人工标注,并训练YOLOv5 [32] 目标检测网络来识别融合图像中的病灶区域,如图 1-5 所示。模块骨架用于提取图像的深层特征,为减少通过切片操作进行采样过程中的信息损失,采用聚焦结构,并使用跨阶段局部网络(cross-stage partial network, CSPNet)[33] 来减少模型在推理中所需的计算量。头模块用于执行分类和回归任务,采用特征金字塔网络(feature pyramid network, FPN)和路径聚合网络(path aggregation network, PAN)[34]。

为了提高对极小目标区域的检测效果,输入层采用了mosaic数据增强(mosaic data augmentation)[35] 方法,将四个随机缩放、剪切和随机排列的图像拼接在一起。模块骨架包括 CSPNet 和空间金字塔池化(spatial pyramid pooling, SPP)[36] 操作。输入图像通过三个 CSP 操作和一个 SPP 操作,生成了一个四倍于原始大小的特征图。头模块有三个分支网络,分别接收来自不同层的融合特征、输出各层的边界框回归值和目标类别,最后由头模块合并分支网络的预测结果。

图 1-5 目标检测网络结构

img

1.3. 实验

1.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2010 年 1 月至 2018 年 12月期间在国家癌症中心中国医学科学院肿瘤医院被诊断为原发性宫颈癌的患者 2)有FDG-PET/CT 图像;3)有电子病历记录。总共入组了 220 名患者,共计 72,602 张切片图像,平均每位患者有 330 张切片图像入组实验。其中,CT 切片图像的高度和宽度均为512 像素,而PET 切片图像的高度和宽度均为128 像素,每个模态的数据集都包含了6,378张切片图像,即平均每位患者有29张切片图像,用于训练和测试。在入组进行分析之前,所有患者数据都已去标识化。本研究已获得北京协和医学院国家癌症中心伦理委员会的批准。

该数据集包含220 个患者的全身 CT 和全身 PET 图像数据,因入组的每位患者均确诊为宫颈癌,数据集中各例数据均包含病变区域,如表 1-1 所示。鉴于所有患者的CT 和PET 均在同一时间且使用相同设备采集,因此 CT 和PET 展示的解剖信息与代谢信息来自同一时刻患者身体的同一区域,其特征具有一对一对应且可匹配的特性。根据肿瘤大小、浸润深度、盆腔临近组织侵犯程度、腹盆腔淋巴结转移的情况可将宫颈癌的进展程度进行分期,主要包括四期,每期中又进一步细分为更具体的期别。国际妇产科联盟(International Federation of Gynecology and Obstetrics,
FIGO)于 2018 年 10 月更新了宫颈癌分期系统的最新版本[37]。本项目数据集囊括了 FIGO 分期全部四个期别的宫颈癌影像。为了保持训练和测试的公平性,纳入训练集和测试集的不同期别影像的分布,即不同 FIGO 分期的划分比例,需保持一致,否则可能会导致某些 FIGO 期别的数据集无法进行训练或测试。因此,在保证处于不同期别的患者数据的划分比例的基础上,采用五折交叉验证方法将220 名患者的数据进行五等分,每个部分大约包括了 45 例患者的数据,在每轮验证中随机选择一个部分作为测试集。所有模型都需要进行5 次训练和评估,以获取在测试集上表现出的性能的平均值和标准差。

表 1-1 数据集中的病例数及临床分期

img

1.3.2. 模型训练过程

在按上述步骤准备好数据集后,首先将图像从 512×512 像素调整为 1024×1024像素,然后使用多种数据增强方法,包括 mosaic 增强[38]、HSV(Hue, Saturation, Value)颜色空间增强[39]、随机图像平移、随机图像缩放和随机图像翻转,增加输入数据集对噪声的鲁棒性。在每次卷积后和激活函数前进行批归一化(Batch Normalization, BN)[40] 。所有隐藏层都采用 Sigmoid 加权线性单元 (Sigmoid-Weighted Linear Units, SiLU)[41 作为激活函数。训练模型所用的学习率设置为 1e-5,并在起始训练时选择较小的学习率,然后在 5 个轮次(epoch)后使用预设的学习
率。每个模型使用PyTorch 框架在4 个Nvidia Tesla V100-SXM2 32G GPU 上进行50个轮次的训练。使用 0.98 的动量和 0.01 的权值衰减通过随机梯度下降法(Stochastic Gradient Descend, SGD)来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。所有实验中的性能测量都是在采用最优参数设置的模型中对测试集进行测试得到的,详见表 1-2。

为了进一步证明本项目所提出的模型的普适性,选择了六个基于深度学习的目标检测模型作为基准,并测试了所有模型在输入不同的图像融合结果时的性能。每个模型的输入完全相同,而唯一的区别是神经网络中的超参数来自每个模型的官方设置,而这些超参数因模型而异。

表 1-2 网络训练的超参数

img

1.3.3. 评价指标

本项目使用“准确度精值50”(Accuracy Precision 50, AP50)来评估目标检测的性能。AP50 是当交并比(Intersection over Union, IOU)阈值为0.5 时的平均精度,如公式3所定义,其中P和R分别是精度(Precision)和召回率(Recall)的缩写。模型的预测结果会有不同的召回率和精度值,这取决于置信度阈值。将召回率作为横轴,精度作为纵轴,可以绘制 PR 曲线,而 AP 是该曲线下的面积。IOU 是将真实标注区域和模型预测区域的重叠部分除以两区域的集合部分(即真实区域和预测区域的并集)得到的结果,如公式4 所示。精度和召回率的计算方式分别在公式1 和2 中列出,其中真正例表示预测为正例的正样本,假正例和假负例代表的概念以此类推。精度表明在模型预测结果里,被判断为正例的样本中有多少实际是正例,而召回率表示实际为正例的样本中多少被预测为正例。表 1-3 记录了图像数据集交叉验证后各个目标检测模型的 AP50 的平均值和方差。

img

1.3.4. 目标检测模型的结果与分析

本项目采用不同的目标检测模型,包括单阶段目标检测模型(YOLOv5 [32]、RetinaNet[42]、ATSS [43 )和二阶段目标检测模型(Faster-RCNN [44
、CascadeRCNN [45]、LibraRCNN[46]),在五折交叉验证下比较了使用 CT 图像、PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像(concat fusion)和本项目所提出的 PET-CT自适应区域特征融合图像作为输入数据集时,每个模型的目标检测性能。其中,CT和PET是单模态图像,而PET-CT简单融合图像、PET-CT通道拼接图像和PET-CT 自适应区域特征融合图像是跨模态融合图像。简单融合是指将 PET 图像简单地缩放到与 CT 图像相同的大小后进行像素值的叠加,而通道拼接融合是直接将两种模态图像在通道上串联在一起作为网络的输入。

如表 1-3 所示,加粗的数字代表每行中最好的实验结果。与使用单一模态数据进行肿瘤检测模型分析(如只使用CT 或PET 图像)相比,本项目所提出的自适应跨模态图像融合方法在目标检测任务中展现出了更高的检测精度。由于自适应融合方法能够在跨模态融合之前将两种模态图像的信息进行预对齐,对 CT 图像和PET图像的结构特征进行一一配准,因此,与简单融合方法和通道拼接融合方法相比,自适应融合方法的性能最佳。上述针对不同模态图像及使用不同跨模态融合方法作为输入得到的测试性能结果在使用不同的目标检测模型的情况下保持一致,这表明本项目所提出的跨模态自适应融合方法有良好的通用性,可以泛化应用到各种目标检测模型的预处理中。

表 1-3 五折交叉验证目标检测实验的结果(“*” 表示交叉验证中的某一折在训练过程中出现梯度爆炸,数值为目标检测模型的 AP50 的均值和方差)

img

图 1-6 将不同模态图像下目标宫颈癌病变区域的检测结果和实际标注的癌灶区域进行了可视化。其中绿色框是由医师标注的真实病变区域,黄色框是目标检测模型的预测结果。分析图像模态信息可知,CT 图像既包含了人体正常结构的信息,也包含病灶的解剖信息,前者可能会干扰宫颈癌病变区域特征的识别和检测。因此,在单一 CT 模态下会有一些漏检。与 CT 模态的预测框相比,PET 模态下的预测框与标注框的 IOU 更高,或许是由于 PET 影像有更多能表现宫颈癌区域特征的信息。在 PET-CT 区域特征跨模态融合图像中检测效果最佳,因为 PET-CT 融合图像融合了两种模态的不同特征,从而大大提高检测的准确性。

图 1-6 跨模态融合图像的目标检测结果

img

1.4. 讨论

本项目旨在评估深度学习算法是否可以跨模态融合 FDG-PET 和 CT 图像,并在融合图像中实现宫颈癌病灶区域的自动检测。我们提出了一个基于跨模态融合图像的检测框架,包括区域特征匹配、图像融合和目标检测等步骤。融合 CT 和PET 图像可以最大程度地提取各个模态中包含的信息,因此 PET-CT 跨模态融合图像含有丰富的解剖和功能信息。目标检测实验证明,本项目提出的跨模态融合方法得到的融合图像显著提高了目标检测的准确性,相比单模态和其他融合方法得到的多模态图像,目标检测平均精确度分别提高了 6.06%和8.9%。

表 1-3 展示了基于不同的图像融合方法形成的多模态图像,不同检测模型在五折交叉验证下的结果。因在解剖和功能影像中均有异常表现的区域更可能是癌变,我们推测,图像信息对齐有利于对宫颈癌病灶的目标区域检测。图 1-6 展示了在不同目标检测模型和不同输入图像数据模态下目标检测效果的可视化图像。基于本项目提出的跨模态融合方法生成的图像进行的目标检测的检测结果更为准确,并消除了一些假阳性结果。根据医生的日常诊断习惯,生成了以红色和黄色为主色的融合图像。

利用 FDG-PET/CT 对宫颈癌进行及时、准确的分期能够影响患者的临床治疗决策,进而延缓疾病进展,并减少肿瘤治疗相关的整体财务负担[47] 。对 FDG-PET/CT 图像的解释在很大程度上依赖临床上获得的背景信息,并需要综合临床分析来确定是否发生癌症的浸润和转移[48]。在某些情况下,核医学科阅片医师可以迅速识别局部扩展和淋巴栓塞。而多数情况下,核医学科医师分析一位患者的FDG-PET/CT 影像学检查结果平均需要三个小时。比起占用医师昂贵且稀缺的时间,利用计算机进行此项工作既能节约成本,预计耗时又短,且可以全天候运行。本项目的目标是通过人工智能方法实现PET 和CT 图像的自动融合,并利用目标检测技术识别宫颈癌的浸润和转移,作为辅助工具加速 FDG-PET/CT 的阅片过程,从而使临床医生能够在最短的时间内按照 FIGO 指南对宫颈癌进行分期。

这项研究仍存在一些局限性。虽然本项目对基于 PET-CT 自适应融合图像的目标检测方法与其他最先进的基于深度学习的目标检测方法进行了比较,但将该方法拓展应用到其他病种的影像学分析的可行性仍需评估。此外,我们提出的跨模态融合框架在图像融合时并未考虑每种模态图像的权重分布。未来可以设计一种特殊的损失函数来调整 ROI 内每个像素的权重分布,以提高目标检测结果的准确性。

1.5. 结论

本项目提出了一种基于跨模态图像融合的多模态图像进行病变区域检测的深度学习框架,用于宫颈癌的检测。为了应对医学影像中单一模态图像在肿瘤检测方面的性能不足,提出了一种基于区域特征匹配的自适应跨模态图像融合策略,将融合后的多模态医学图像输入深度学习目标检测模型完成宫颈癌病变区域检测任务,并讨论了深度学习模型在每种模态图像输入间的性能差异。大量的实验证明,与使用单一模态的影像及基于简单融合方法或通道拼接融合方法的多模态影像相比,自适应融合后的多模态医学图像更有助于宫颈癌病变区域的检测。

本项目所提出的技术可实现 PET 和CT 图像的自动融合,并对宫颈癌病变区域进行检测,从而辅助医生的诊断过程,具备实际应用价值。后续将基于第一部分的目标检测模型基础,利用特征转换的方法,将图像数据转换为结构数据,将跨模态融合方法应用于分类问题。

2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断

2.1. 前言

骨骼是第三常见的恶性肿瘤转移部位,其发生率仅次于肺转移和肝转移,近 70%的骨转移瘤的原发部位为乳腺和前列腺[49] ,[50] 。骨转移造成的骨相关事件非常多样,从完全无症状到严重疼痛、关节活动度降低、病理性骨折、脊髓压迫、骨髓衰竭和高钙血症。高钙血症又可导致便秘、尿量过多、口渴和疲劳,或因血钙急剧升高导致心律失常和急性肾功能衰竭[51 。骨转移是乳腺癌最常见的转移方式,也是患者预后的分水岭,其诊断后的中位生存期约为 40 个月[52] ,[53] 。因此,及时发现骨转移病灶对于诊断、治疗方案的选择和乳腺癌患者的管理至关重要。目前,病灶穿刺活检是诊断骨转移的金标准,但鉴于穿刺活检有创、存在较高风险、且假阴性率高,临床常用影像学检查部分替代穿刺活检判断是否发生骨转移。

Batson的研究表明,乳腺的静脉回流不仅汇入腔静脉,还汇入自骨盆沿椎旁走行到硬膜外的椎静脉丛[54] 。通过椎静脉丛向骨骼的血液回流部分解释了乳腺癌易向中轴骨和肢带骨转移的原因。因潜在骨转移灶的位置分布较广,影像学筛查需要覆盖更大的区域,常要求全身显像。常用的骨转移影像诊断方法包括全身骨显像(whole-body bone scintigraphy, WBS)、计算机断层扫描(computed tomography, CT)、磁共振成像(magnetic resonance imaging, MRI)和正电子发射断层显像(positron emission tomography, PET)[55]。CT 可以清晰地显示骨破坏,硬化沉积,和转移瘤引起软组织肿胀;MRI 具有优异的骨和软组织对比分辨率;因 [18F] 氟化钠会特异性地被骨组织吸收、代谢, PET 可以定位全身各处骨代谢活跃的区域。然而,单一模态影像常不足以检测骨转移,且用传统方法综合单一患者的 CT、MRI、PET 数据筛查骨转移病灶需要对上千幅影像进行解读,这一极为耗时的过程可能影响临床医生对乳腺癌骨转移的诊断,造成误诊、漏诊。而骨转移的漏诊会误导一系列临床决策,导致灾难性后果。

作为一种客观评估体系,人工智能辅助骨转移自动诊断系统通过减少观察者间和观察者内的变异性,提高了诊断的一致性和可重复性,降低了假阴性率。在减轻临床医师的工作负担的同时,提高诊断的准确性。目前已经有很多在单一模态图像中(CT、MRI 或 PET)基于深度学习技术进行骨转移病变检测的工作: Noguchi 等人开发了一种基于深度学习的算法,实现了在所有 CT 扫描区域中对骨转移病灶的自动检测 [56];Fan 等人用 AdaBoost 算法和 Chan-Vese 算法在 MRI 图像上对肺癌的脊柱转移病灶进行了自动检测和分割肺[57];Moreau等人比较了不同深度学习算法在 PET/CT 图像上分割正常骨组织和乳腺癌骨转移区域的性能[58] 。但很少有使用跨模态数据融合的深度学习方法,判断是否存在骨转移灶的相关研究。

旨在减轻临床医生的工作负担,本章提出了基于特征转换的跨模态数据融合方法,用于分析 CT、MRI 和 PET 图像,以判断其中是否存在乳腺癌骨转移病灶。

基于特征转换的 CT、MRI 和 PET 跨模态图像数据融合,进行骨转移病变分类(即存在骨转移病灶和不存在骨转移病灶两类)项目包括三个研究任务:目标病变区域检测,特征构造及转换和分类任务。具体地,采用目标检测模型对不同模态的医学图像序列数据进行单独的骨转移瘤目标检测,再对这些检测结果进行特征提取。所提取的特征包括不同模态下检测结果置信度的区间占比、检测框的面积大小、检测框在图像中的空间位置分布等。这些特征被整理成结构化数据格式,完成了从非结构化影像数据到结构化数据特征的特征转换和融合过程。最后,将转换后的特征输入分类模型进行分类任务。实验比较了基于特征转换的跨模态数据融合方法在乳腺癌骨转移肿瘤分类任务的性能,与仅使用单模态数据执行分类
任务的性能。同时,还将本项目提出的基于特征转换的融合策略与其他融合方法进行了对比。

2.2. 研究方法

2.2.1. 研究设计和工作流程

本项目旨在判断 CT、MRI、PET 图像序列中是否存在乳腺癌骨转移病灶。工作流程如图 2-1 所示:扫描设备对每位患者进行 CT、MRI 或 PET 图像序列的采集;使用目标检测模型分别在不同模态图像中对可疑乳腺癌骨转移灶进行目标检测;对检测结果进行特征提取、构造和融合,得到具有可解释性的结构化医疗数据;用分类模型对结构化数据进行分类任务,得出预测结果,从而判断乳腺癌骨转移是否发生。

图 2-1 工作流程

img

2.2.2. 骨转移目标区域检测

先由两位临床医师对多模态数据集图像中的骨转移病灶进行人工标注,并对患者进行分类(标签分为乳腺癌骨转移和非乳腺癌骨转移),并训练 YOLOv5 目标检测网络,以识别各个单一模态图像中的乳腺癌骨转移病灶。

2.2.3. 基于特征转换的跨模态数据融合

在本项目的数据集中,各种模态序列影像的扫描范围均涵盖了患者的全身。某患者的影像序列(不论是单模态图像还是多模态图像)中检测到含有骨转移病灶的切片图像数量越多,则意味着该患者发生乳腺癌骨转移的概率越大。根据这一基本推理,采用后融合方法,将一个影像序列中含有肿瘤切片图像的比例(百分比)作为结构化的数据特征,作为后续分类任务的依据。

具体操作如下:在每个模态的图像中完成骨转移区域的目标检测任务训练后,统计每个图像序列中检测到转移瘤目标区域的检测框数量。按照检测框的置信度划分为 8 个区间:10%~20%、20%~30%、30%~40%、40%~50%、50%~60%、60%~70%、70%~80%和大于 80%。在每个区间内,分别统计各模态图像序列中转移瘤检测框数量,再除以该序列中切片图像的总数,得到每个置信度区间内每种模态图像序列中含有转移瘤检测框的百分比。接着将三种模态图像提取出的统计特征拼接,组成结构化数据,实现跨模态数据融合。若患者缺失某种模态数据,相应的统计特征(百分比)将被置为零。特征转换后的结构化数据如图 2-2 所示,每种模态数据包括 8 个特征,即不同的置信区间,最后一列为标签值,其中“0”表示负例,“1”表示正例。

图 2-2 特征转换后的结构化数据

img

2.2.4. 乳腺癌骨转移的分类模型

利用构建好的结构化医疗特征进行乳腺癌骨转移分类任务,融合跨模态图像数据特征判断是否发生乳腺癌骨转移。本项目采用分类模型主要以模式识别基础模型为主,包括SVM[59]、AdaBoost[60]、RandomForest[61]、LightGBM[62]、GBDT[63]。SVM 是一种基于核函数的监督学习模型,用于解决分类问题,通过寻找最优超平面在特征空间中将样本分为不同类别,决策函数映射输入特征到输出标签,核函数将特征映射到新空间,损失函数度量决策函数性能,最大化超平面与样本间距离实现分类,可使用不同核函数处理高维特征。Adaboost 是一种迭代算法,于1995 年由 Freund Y 等人提出,能够将多个弱分类器结合成一个强分类器,通过选择初始训练集、训练弱分类器、加权重新分配样本和重复训练直到训练完成所有弱学习器,最后通过加权平均或投票得出最终决策。由 Breiman L 等人于 2001 年提出得 RandomForest 是一种基于决策树的机器学习算法,可用于分类和回归任务。通过构建多个决策树并对它们的预测结果进行平均或投票来得出最终预测结果,训练过程中随机选择特征,以避免过拟合并减少计算量。机器学习模型 LightGBM是一种基于决策树的梯度提升机算法,由Ke G 等人在2017 年提出,适用于结构化数据的分类任务。具有高效、内存友好、支持并行处理和多 CPU 等特点,能快速处理大量特征,通过基于直方图的决策树算法减少训练时间和内存使用量。通过损失函数的泰勒展开式来近似表示残差来计算损失函数。由 Friedman J H 等人于2001 年提出的 GBDT 是一种迭代的决策树算法,通过构建多个决策树来拟合目标函数,每一步都在上一步的基础上构建新的决策树,以不断减小误差,流程包括选取子集、训练弱学习器、梯度下降法最小化误差,最终将弱学习器加入总体模型,重复以上步骤直至达到最优解。

2.2.4.1. 基于C3D 的跨模态数据融合分类模型

本项目采用C3D[64 分类模型作为对照模型,基于3D 卷积神经网络的深度学习方法,使用跨模态数据融合中的前融合策略。如图 2-1 所示,该融合策略从每个模态的图像序列中筛选出一部分,合并一个完整的多模态图像序列,并在通道上进行级联,进行跨模态数据融合。融合后的数据作为 3D 卷积神经网络的输入,经过多个 3D 卷积层提取特征,最终在全连接层中执行分类任务,以判断影像中是否存在乳腺癌骨转移病灶。

2.3. 实验

2.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2000 年 01 月至 2020 年 12月期间在北京协和医院或国家癌症中心中国医学科学院肿瘤医院被诊断为原发性乳腺癌的患者 2)有全身 CT 或 PET 或 MRI 其中任一模态的全身影像数据;3)有电子病历记录。入组患者中有145名被确诊为乳腺癌骨转移,作为正例样本,有88名患者未发生乳腺癌骨转移,作为负例样本。每例样本数据包含一至三种不同模态的图像序列,其图像尺寸和切片图像数量各异。乳腺癌骨转移的多模态医学图像数据集对患者的全身进行采样,由于患者的 CT、MRI 或 PET 是不同时间、在不同设备上采集的,不同模态间的特征并非一一匹配。其中,CT 模态共有3051 张切片,MRI 模态共有 3543 张切片,而 PET 模态共有 1818 张切片。在入组进行分析之前,所有患者数据都已去标识化。本研究已通过北京协和医院伦理委员会批准。

该数据集可以用于执行目标检测任务和分类任务。

骨转移目标检测任务仅分析数据集中的正例样本,进行五折交叉验证:将 145例患者的数据按模态分为三组(CT组、MRI组、PET组),在每个组内对数据进行五等分,在每轮验证中选取一部分作为测试集。为获得测试性能的平均值,所有模型都需进行5 次训练和评估。

在利用结构化数据执行分类任务时,需要平衡正负样本数量,因此要扩充数据集。将具有多种模态的样本拆分为包含较少模态的样本,如将“CT+MRI+PET”类型拆分为“CT+MRI”或“CT+PET”等。如表 2-1 所示,扩充后共有 380 例样本数据,包括188 个正样本和 192 个负样本。下一步,合并五折交叉验证的目标检测结果,此后,进行特征构建和转换,从而获得适合跨模态数据融合和分类任务的结构化数据;对于负样本数据,也需要在合并骨转移目标检测模型的推理结果后,对数据进行结构化处理。

为证实在乳腺癌骨转移判断的分类任务中,基于特征转换的跨模态融合数据性能优于单一模态数据,需要进行多模态融合数据与单模态数据的对照实验。如表 2-1 所示,单模态数据包括仅有 CT、仅有 MRI 和仅有 PET 三种类型的数据集合,总计 212 个样本,而多模态数据涵盖了CT+MRI、CT+PET、MRI+PET 和CT+MRI+PET 四种类型,共计 168 个样本。分别对单模态数据和多模态数据进行独立划分,将每种模态数据进行五等份,进行五折交叉验证。在每轮验证中,选择一部分作为测试集。利用 SVM、AdaBoost、RandomForest、LightGBM、GBDT以及 C3D 模型进行实验,每个模型都需进行 5 轮训练和评估,以获得测试集上性能的平均值。

为适应 C3D 模型对图像统一尺寸的要求,针对不同患者切片数量、大小的差异,进行预处理。在每种模态图像序列中等间隔抽取 60 张图像切片,并进行缩放,使其组合为 180 张 128×128 像素的切片。对于缺失的模态数据,用 60 张零像素值的黑色图像切片进行填充。从 180 张切片中随机选取一个起始位置,连续抽取 120张切片作为模型的最终输入,确保输入尺寸为 128×128×120 像素。

表 2-1 扩充后的分类数据集

img

2.3.2. 模型训练过程

在按上述步骤准备好数据集后,进行目标检测任务训练时,将每个模态的图像大小统一到1024×1024像素,然后使用多种数据增强方法,增加输入数据集对噪声的鲁棒性。

目标检测模型采用 YOLOv5 模型模型并使用 PyTorch 深度学习框架在 2 个Nvidia Tesla V100-SXM2 32G GPU 上进行 70 个轮次的训练。初始学习率为 0.00001,使用 0.98 的动量和 0.01 的权值衰减通过 SGD 来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。

进行分类任务时,采用 LightGBM、GBDT、AdaBoost、RandomForest 以及SVM,上述模型均为机器学习模型,其超参数对模型预测结果影响较大,在分类任务中,采用SVM、AdaBoost、RandomForest、LightGBM以及GBDT等机器学习模型。因其超参数会对预测结果产生较大影响,在训练过程中,使用网格搜索策略为这些模型寻找最佳参数。网格搜索策略在一定范围的超参数空间内寻找最佳的超参数组合,通过枚举各种可能的组合并评估模型预测结果,最终选择表现最优的超参数组合。要搜索的超参数包括学习率、树的最大深度、叶子节点数量、随机抽样比例、权重的L1正则化项和权重的L2正则化项等。实验结果将基于最优超参数设定下的预测模型。模型训练的网络结构图如图 2-3 所示。

用于对照的 C3D 模型使用 PyTorch 深度学习框架在 1 个 NVIDIA Tesla V100-SXM2 32GB GPU 上训练 100 个轮次,初始学习率为 0.00001,使用动量为 0.9,权值衰减为0.0005 的 SGD 梯度下降优化器对各网络层权重的目标函数进行优化。

图 2-3 网络结构图

img

2.3.3. 评价指标

本项目中的骨转移目标检测任务采用 AP50 作为评价指标,其介绍详见上一章节。

而在分类任务中,采用准确率(Accuracy, Acc)、敏感性(Sensitivity, Sen)、特异性(Specificity, Spe)、AUC(Area Under Curve, AUC)作为评价指标,并采用ROC 曲线和PR 曲线对模型进行评估。准确率是指对于给定的测试集,分类模型正确分类的样本数占总样本数的比例,如公式 5 所示,其中真正例(True Positive, TP)表示预测为正例且标签值为正例,假正例(False Positive, FP)表示预测为正例但标签值为负例,和假负例(False Negative, FN)和真负例(True Negative, TN)代表的概念以此类推。如公式 64 和公式 7 所示,敏感性和特异性的定义分别为:预
测正确的正例占所有正例的比例,以及预测正确的负例占所有负例的比例。ROC曲线是一种评估二分类模型的方法,其横轴为假阳性率(False Positive Rate,FPR),其计算方式与上一章的召回率(Recall)相同,纵轴为真阳性率(True Positive Rate,TPR),TPR 和 FPR 的计算方式详见公式 8 和公式 9。ROC 曲线展示了在不同阈值下,TPR 与 FPR 的变化关系。因为左上角点对应的假阳性率为 0,真阳性率为 1,表明模型将所有正例样本分类正确,且未将任何负例样本误判为正例。若 ROC 曲线靠近左上角,提示模型性能较好。AUC代表ROC曲线下的面积,即从(0,0)到(1,1)进行积分测量ROC曲线下二维区域的面积。AUC综合考虑所有可能的分类阈值,提供了一个全面的性能度量。AUC 值表示随机从正负样本中各抽取一个,分类器正确预测正例得分高于负例的概率。AUC 值越接近 1,说明模型性能越优秀。PR曲线的绘制方法详见上一章, PR曲线在不同分类阈值下展示了分类器在精度(Precision, P)和召回率(Recall, R)方面的整体表现。

img

2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析

本项目对乳腺癌骨转移多模态医学图像数据集(包括 CT、MRI、PET)进行了单模态肿瘤检测实验和基于特征转换的跨模态病例分类实验。其中,单模态肿瘤检测实验是多模态肿瘤分类实验的前置步骤。

采用单阶段目标检测模型 YOLOv5,在五折交叉验证下比较了使用单模态 CT图像、PET图像、MRI图像作为输入数据集时,模型的目标检测性能。并在将目标检测结果进行特征转换后,采用不同的分类模型,包括后融合分类模型(LightGBM、GBDT、AdaBoost、RandomForest、SVM) 和 前 融 合 分 类 模 型(C3D),在五折交叉验证下比较了使用单模态数据和跨模态融合数据作为输入时,每个模型的分类性能。

表 2-2 展示了在不同单一模态数据上,五折交叉验证得到的骨转移病灶检测结果,评估指标为 AP50。实验结果表明,PET 模态的检测精度较高,而 CT 模态的检测精度最低。输入数据量较少、检测目标面积小、转移瘤的特征难以与正常骨组织区分是提高检测精度的难点。图 2-4 不同单一模态图像下目标骨转移病变区域的检测结果和实际标注的癌灶区域进行了可视化。绿色框由医师标注,目标检测模型标注的预测框为黄色。

表 2-2 单模态骨转移灶检测五折交叉验证结果

img

图 2-4 可视化单模态目标检测结果

img

将 CT、MRI 和 PET 的数据组成单模态子数据集进行单模态分析,而将两种及两种以上的数据组成跨模态子数据集进行多模态分析。表 2-3 和表 2-4 展示了在上述两种子数据集中进行五折交叉验证的结果,对比了6 种不同模型每一折的准确率、AUC,及其平均值。这 6 类模型中的前 5 种模型使用后融合策略,而作为对照的C3D 模型采用前融合策略。对比表 2-3 和表 2-4 的实验结果可知,在任一模型(包括前融合模型)中,基于特征转换的跨模态融合数据在乳腺癌骨转移分类任务上相较于仅使用单模态数据的性能有所提高:平均准确率提高了7.9%;平均AUC 提高了8.5%。如表2-5 和2-6 所示,跨模态融合方法比单模态方法的平均敏感性提高了7.6%,平均特异性提高了 9.4%。

表 2-3 基于单模态子数据集进行分类任务的准确率和 AUC

img

表 2-4 基于跨模态子数据集行分类任务的准确率和 AUC

img

表 2-5 单模态数据分类的敏感性和特异性

img

表 2-6 跨模态融合数据分类的敏感性和特异性

img

图 2-5 和图 2-6 分别展示了 6 个模型利用单模态数据进行分类实验和利用特征转换和融合后的跨模态数据进行分类实验的 PR 曲线。可以根据曲线形状和曲线下方面积来评估不同模型的性能表现,曲线下面积越大,提示模型的性能越优秀。综合观察单模态和跨模态分类实验的P-R曲线图,可以发现,基于跨模态数据的分类任务的P-R 曲线下面积大于基于单模态数据的分类任务的P-R 曲线下面积,提示跨模态数据作为输入时分类模型的表现更加出色。

比较基于单模态数据进行分类的模型的 P-R 曲线,可见 3D 卷积网络的训练方式相较于其他后融合模型的性能表现更优。然而,在基于跨模态数据进行分类的模型的 P-R 曲线中,基于特征转换的跨模态后融合策略相对于基于 3D 卷积的前融合方法具有更好的性能。

图 2-5 基于单模态数据不同分类模型的的PR 曲线

img

图 2-6 基于跨模态数据不同分类模型的的PR 曲线

img

图 2-7 和图 2-8 展示了 6 种分类模型在使用单模态数据进行分类实验和使用跨模态数据进行分类实验的情况下的ROC 曲线。通过对比观察六个模型的ROC 曲线的形状和面积来评估不同模型的性能。靠近左上角的 ROC 曲线表示假阳性率接近0,真阳性率接近 1,趋近于左上角的 ROC 曲线提示模型性能优越。对比图 2-7 和图 2-8 可知,使用基于特征转换的跨模态数据的骨转移病例分类模型的性能更为优越。

图 2-7 基于单模态数据不同分类模型的的ROC 曲线

img

图 2-8 基于跨模态数据不同分类模型的的ROC 曲线

img

本文提出的跨模态数据融合方法是基于特征转换的后融合策略,相较于前融合策略具有更好的性能。实验表明,无论采用前融合或后融合策略,基于跨模态融合数据的实验都表现出了显著的优势。相较于多模态数据,单一模态数据所捕获的特征较为单一(如仅有结构信息) ,可能由于缺乏关键和全面的特征信息导致模型性能不佳,而跨模态融合方法则能从不同模态中获取更多的有效特征,并将其融合,从而提高准确率。

2.4. 讨论

本项目旨在评估基于特征转换的跨模态数据融合方法是否可以跨模态融合 CT、MRI 和 PET 图像的有效特征,以对乳腺癌患者进行是否发生骨转移的评估。本项目提出了一个基于特征转换的跨模态融合图像数据框架,用于对骨转移病变进行分类,包括目标病变区域检测、特征构造及融合形成可解释的结构化数据以及跨模态融合数据分类步骤。融合 CT、MRI 和 PET 的转换特征数据能够充分利用各个模态中的信息,为分类任务提供更多的数据支持,并增加辅助判断的特征线索。基于特征转换的跨模态病例分类实验证明,本项目提出的跨模态融合数据显著提高了对影像序列进行二分类任务的性能,相较于单模态数据,平均准确率和 AUC分别提高了7.9%和 8.5%。

如表 2-2 所示,单模态目标检测模型在 PET 图像中的检测精度较高,而在 CT和 MRI 图像中的精度相对较低。图 2-4 展示了在 YOLOv5 目标检测模型中不同单一输入图像模态下乳腺癌骨转移检测效果的可视化图像。分析各种图像模态信息可知,CT 和 MRI 图像不仅包含病灶的解剖信息,还包含了人体正常组织的结构信息,而后者可能会干扰宫颈癌病变区域特征的识别和检测,导致单一CT或MRI模态下出现漏检现象。与之不同,PET图像展示的是组织代谢信息。骨转移病灶通常伴随着频繁的成骨和破骨活动,在 PET 影像中呈高代谢,而正常骨组织的代谢相对较缓慢,通常不会显示在图像中。因此,PET 对背景组织的干扰较 CT、MRI 更不敏感,有助于目标检测模型识别异常代谢区域。因早期无症状骨转移病灶通常体积较小,可能因目标区域面积过小影响目标检测结果。在模型处理过程中,池化(pooling)操作可能导致特征或图像信息的损失,从而造成特征缺失。为了克服这一问题,后续研究可以关注提高模型在处理小目标区域时的性能。

表 2-4 和表 2-6 展示了在各种分类模型中,基于跨模态结构化数据在五折交叉验证下的分类性能。通过对比分析发现,相对于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在性能方面有所提高。医学影像数据有数据量较少、维度高、结构复杂以及样本识别难度大等特点,这导致将特征提取任务交由模型完成,直接输入原始数据或经过简单预处理的数据,让模型自主进行特征提取并生成最终输出的这种端到端的前融合方法效果不尽如人意。由于患者在体型、身高等方面的个体差异,一个图像序列内的CT和MRI切片数量也有所不同。因此,需要对图像进行归一化处理,将其转换为统一的标准格式,如调整到相同尺寸、修正切割后图像中心的位置等。归一化操作旨在对数据进行统一格式化和压缩,但这可能会导致图像未对齐、图像与特征错位、数据压缩过度以及特征丢失等问题。因此,采用基于特征转换的后融合策略可能更合适本项目。前融合所采用的 C3D分类模型是一种在三维数据上进行分析的网络模型。三维数据具有尺度高、维度大以及信息稀疏等特点。尽管 C3D 网络训练过程中增加了一个维度的信息,但同时也提高了算法分析的复杂性,特别是在模型训练过程中,占用了大量显存等硬件资源,可能导致批归一化不理想和网络收敛不完全的问题。与 C3D 相比,本文提出的二阶段后融合方法实现了特征压缩,提取置信度这种可解释的特征,并去除了无关的稀疏特征。在有限的硬件资源和数据量的限制下,这种方法能更好地学习数据特征,起到了类似正则化(通过在损失函数中添加约束,规范模型在后续迭代过程中避免过度拟合)的效果。

乳腺癌骨转移病灶在代谢和结构方面都较正常骨组织显著不同。因此,通过融合 CT、MRI 和 PET 图像的特征信息,实现解剖和功能信息的跨模态融合,能更有效地完成分类任务,帮助诊断乳腺癌骨转移。然而,综合分析全身 CT、MRI 和PET图像信息需要医师投入大量时间,且存在较大的观察者间差异。一旦发生漏诊,会导致严重后果。利用计算机辅助医师判断乳腺癌是否发生骨转移不仅可以节省成本和时间,还能提供更加客观的评估标准。计算机辅助诊断工具可以综合多模态图像的结果进行特征转换和分析,预防漏诊的发生。因此,在未来的研究中,可以重点关注开发此类计算机辅助诊断系统,以提高乳腺癌骨转移诊断的准确性和效率。

这项研究仍存在一些局限性。从单个影像模态中提取的特征较为单一,仅有置信区间,可以在后续的训练中可以从临床角度出发加入更多可能影响骨转移判断的因素作为分类特征,如检测目标的面积,或增加中轴骨检出目标的权重。因本项研究具有多模态影像数据的病例量不够,未来可以尝试除五折交叉验证之外其他的模型训练方法以降低数据量对分类模型性能的影响。

2.5. 结论

本项目提出了一种基于特征转换的跨模态数据融合方法进行分类任务的深度学习框架,用于判断是否发生乳腺癌骨转移。首先独立对不同模态的医学图像数据进行肿瘤检测,根据目标检测结果进行特征构造,并将其组织成结构化数据的形式,完成从非结构化数据特征到结构化数据特征的转换与融合。最终,将结构化数据特征输入分类器,进行骨转移的分类任务,并对照 C3D 前融合模型,讨论了基于特征转换方法进行跨模态数据后融合的优势。大量的实验证明,使用基于特征转换的跨模态融合数据进行分类任务的性能优于基于单模态数据的分类性能;使用本项目提出的后融合策略执行分类任务较使用前融合策略的分类模型(C3D)的性能更好。

本项目所提出的技术可综合 CT、MRI 和 PET 模态数据的特征,对乳腺癌患者是否发生骨转移进行判断,辅助临床医师进行乳腺癌骨转移病灶的筛查,具备实际应用价值,也为在医学图像分析任务中更有效地应用跨模态融合方法,提供了关键的理论支持。

全文小结

目前,医学影像学的解读大量依赖临床医生个人的主观诊断经验,人工阅片易漏诊小目标,难以推广及表述,具有一定的局限性。与此相比,人工智能技术可以通过深度神经网络对大量积累的影像数据和诊断数据进行分析,学习并提取数据中对病理诊断有用的特征,从而在数据支持下做出更客观的判断。按成像方式不同,医学影像数据可分为多种模态,如B超、CT、MRI、PET。为了最大限度模拟临床医生结合不同模态影像检查结果形成诊断的过程,设计人工智能模型时,应将各种影像学模态的特征进行有效的融合,即本项目中应用的跨模态深度学习方法,充分利用不同模态图像的独特优势训练深度神经网络,从而提高模型性能。本项目以宫颈癌和乳腺癌骨转移为例,验证了跨模态深度学习方法在病变区域定
位和辅助诊断方面的性能。

在第一部分中,我们回顾性纳入了220例有FDG-PET/CT数据的宫颈癌患者,共计 72,602 张切片图像。通过图像增强、边缘检测,实现 PET 和 CT 图像的 ROI自适应定位,再通过缩放、零值填充和剪切的方式,将两种模态图像的 ROI 对齐。经过加权和图像叠加,进行图像融合,将融合后的图像作为目标检测网络的输入层,进行宫颈癌病变区域检测。实验证明,相比使用单一 CT 图像、单一 PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像作为网络输入,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性,目标检测的平均精确度(AP50)分别提高了 6.06%和 8.9%,且消除了一些假阳性结果,展现出可观的临床应用价值。

在第二部分中,我们回顾性纳入了 233 例乳腺癌患者,每例样本数据包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有 3051 张 CT 切片,3543 张 MRI切片,1818 张 PET 切片。首先训练 YOLOv5 目标检测网络,对每种单一模态图像中的骨转移病灶进行目标检测。统计每个影像序列中含有检出骨转移病灶的个数和置信度,将每个置信区间内含有目标检测框的百分比作为结构化医疗特征数据。采用级联方式融合三种模态的结构化特征,得到具有可解释性的结构化医疗数据,再用分类模型进行分类,预测是否发生骨转移。实验证明,相较于单模态数据,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能,平均准确率和 AUC 分别提高了 7.9%和 8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也有相同的实验结论。在不同的分类模型(SVM、AdaBoost、RandomForest、LightGBM、GBDT)中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

综上所述,本文基于人工智能深度学习算法,针对不同模态医学图像的特征差异与互补性,进行多模态医学影像数据的跨模态融合,提高了模型的肿瘤检测和分类性能,检测模型和分类模型可以辅助影像学阅片过程,具有显著的临床实际应用价值。

参考文献

[1] 陈思源, 谭艾迪, 魏双剑, 盖珂珂. 基于区块链的医疗影像数据人工智能检测模型[J] . 网络安全与数据治理, 2022, 41(10): 21-25.
[2] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J . Gastroenterology, 2023, 164(2): 191-193.
[3] Arbyn M, Weiderpass E, Bruni L, et al. Estimates of incidence and mortality of cervical cancer in 2018: a worldwide analysis[J . The Lancet Global Health, 2020, 8(2): e191-e203.
[4] Marth C, Landoni F, Mahner S, et al. Cervical cancer: ESMO Clinical Practice Guidelines for diagnosis, treatment and follow-up[J . Annals of Oncology, 2017, 28:iv72-iv83.
[5] Gold M A. PET in Cervical Cancer—Implications forStaging,’Treatment Planning, Assessment of Prognosis, and Prediction of Response[J . Journal of the National Comprehensive Cancer Network, 2008, 6(1): 37-45.
[6] Gandy N, Arshad M A, Park W H E, et al. FDG-PET imaging in cervical cancer[C] .Seminars in nuclear medicine. WB Saunders, 2019, 49(6): 461-470.
[7] Grigsby P W. PET/CT imaging to guide cervical cancer therapy[J . Future Oncology, 2009, 5(7): 953-958.
[8] Mirpour S, Mhlanga J C, Logeswaran P, et al. The role of PET/CT in the management of cervical cancer[J . American Journal of Roentgenology, 2013, 201(2): W192-W205.
[9] LeCun Y, Bengio Y, Hinton G. Deep learning[J . nature, 2015, 521(7553): 436-444.
[10] Szeliski R. Computer vision: algorithms and applications Springer Science & Business Media[J] . 2010.
[11] Ma B, Yin X, Wu D, et al. End-to-end learning for simultaneously generating decision
map and multi-focus image fusion result[J . Neurocomputing, 2022, 470: 204-216.
[12] Anwar S M, Majid M, Qayyum A, et al. Medical image analysis using convolutional
neural networks: a review[J . Journal of medical systems, 2018, 42: 1-13.
[13] Ma B, Ban X, Huang H, et al. Deep learning-based image segmentation for al-la alloy
microscopic images[J . Symmetry, 2018, 10(4): 107.
[14] Li Z, He J, Zhang X, et al. Toward high accuracy and visualization: An interpretable feature extraction method based on genetic programming and non-overlap degree[C] . 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2020: 299-304.
[15] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J] . nature, 1986, 323(6088): 533-536.
[16] He K , Gkioxari G , Dollar P , et al. Mask R-CNN[C . International Conference on Computer Vision. IEEE Computer Society, 2017, pp. 2980-2988.
[17] Ma B, Wei X, Liu C, et al. Data augmentation in microscopic images for material data mining[J] . npj Computational Materials, 2020, 6(1): 125.
[18] Ma B, Zhu Y, Yin X, et al. Sesf-fuse: An unsupervised deep model for multi-focus image fusion[J] . Neural Computing and Applications, 2021, 33: 5793-5804.
[19] Kermany D S, Goldbaum M, Cai W, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J . cell, 2018, 172(5): 1122-1131. e9.
[20] Hyun S H, Ahn M S, Koh Y W, et al. A machine-learning approach using PET-based radiomics to predict the histological subtypes of lung cancer[J . Clinical nuclear medicine, 2019, 44(12): 956-960.
[21] Chilamkurthy S, Ghosh R, Tanamala S, et al. Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study[J . The Lancet, 2018, 392(10162): 2388-2396.
[22] Chen C, Xiao R, Zhang T, et al. Pathological lung segmentation in chest CT images based on improved random walker[J] . Computer methods and programs in biomedicine, 2021, 200: 105864.
[23] Chen C, Zhou K, Zha M, et al. An effective deep neural network for lung lesions segmentation from COVID-19 CT images[J] . IEEE Transactions on Industrial Informatics, 2021, 17(9): 6528-6538.
[24] Hill D L G, Batchelor P G, Holden M, et al. Medical image registration[J] . Physics in medicine & biology, 2001, 46(3): R1.
[25] Du J, Li W, Lu K, et al. An overview of multi-modal medical image fusion[J] .Neurocomputing, 2016, 215: 3-20.
[26] Watanabe H, Ariji Y, Fukuda M, et al. Deep learning object detection of maxillary cyst-like lesions on panoramic radiographs: preliminary study[J] . Oral radiology, 2021, 37: 487-493.
[27] Mattes D, Haynor D R, Vesselle H, et al. PET-CT image registration in the chest using free-form deformations[J] . IEEE transactions on medical imaging, 2003, 22(1): 120-128.
[28] Maqsood S, Javed U. Multi-modal medical image fusion based on two-scale image decomposition and sparse representation[J] . Biomedical Signal Processing and Control, 2020, 57: 101810.
[29] Elakkiya R, Subramaniyaswamy V, Vijayakumar V, et al. Cervical cancer diagnostics healthcare system using hybrid object detection adversarial networks[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 26(4): 1464-1471.
[30] Al-Ameen Z, Sulong G, Gapar M D, et al. Reducing the Gaussian blur artifact from CT medical images by employing a combination of sharpening filters and iterative deblurring algorithms[J] . Journal of Theoretical and Applied Information Technology, 2012, 46(1): 31-36.
[31] Canny J. A computational approach to edge detection[J] . IEEE Transactions on pattern analysis and machine intelligence, 1986 (6): 679-698.
[32] Jocher G, Stoken A, Borovec J, et al. ultralytics/yolov5: v5. 0-YOLOv5-P6 1280 models, AWS, Supervise. ly and YouTube integrations[J . Zenodo, 2021.
[33] Wang C Y, Liao H Y M, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020: 390-391.
[34] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C .
Proceedings of the IEEE conference on computer vision and pattern recognition, 2018:
8759-8768.
[35] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv, 2020, 2004: 10934.
[36] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J . IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.
[37] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J . Radiology, 2019, 292(1): 15-24.
[38] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv:2004.10934, 2020.
[39] Smith A R. Color gamut transform pairs[J . ACM Siggraph Computer Graphics, 1978, 12(3): 12-19.
[40] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by
reducing internal covariate shift[C . International conference on machine learning.
pmlr, 2015: 448-456.
[41] Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J . Neural Networks, 2018, 107: 3-11.
[42] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C] .Proceedings of the IEEE international conference on computer vision. 2017: 2980-2988.
[43] Zhang S, Chi C, Yao Y, et al. Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 9759-9768.
[44] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J . Advances in neural information processing systems, 2015, 28.
[45] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality object detection[C] .Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:6154-6162.
[46] Pang J, Chen K, Shi J, et al. Libra r-cnn: Towards balanced learning for object detection[C] . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019: 821-830.
[47] Cohen P A, Jhingran A, Oaknin A, et al. Cervical cancer[J . The Lancet, 2019, 393(10167): 169-182.
[48] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J] . Radiology, 2019, 292(1): 15-24.
[49] Coleman R E. Metastatic bone disease: clinical features, pathophysiology and treatment strategies[J . Cancer treatment reviews, 2001, 27(3): 165-176.
[50] Cecchini M G, Wetterwald A, Van Der Pluijm G, et al. Molecular and biological mechanisms of bone metastasis[J . EAU Update Series, 2005, 3(4): 214-226.
[51] Cuccurullo V, Lucio Cascini G, Tamburrini O, et al. Bone metastases radiopharmaceuticals:
an overview[J . Current radiopharmaceuticals, 2013, 6(1): 41-47.
[52] Emens L A, Davidson N E. The follow-up of breast cancer[C . Seminars in oncology. WB Saunders, 2003, 30(3): 338-348.
[53] Chen W Z, Shen J F, Zhou Y, et al. Clinical characteristics and risk factors for developing bone metastases in patients with breast cancer[J . Scientific reports, 2017, 7(1): 1-7.
[54] Batson O V. The function of the vertebral veins and their role in the spread of metastases[J . Annals of surgery, 1940, 112(1): 138.
[55] O’Sullivan G J, Carty F L, Cronin C G. Imaging of bone metastasis: an update[J] .World journal of radiology, 2015, 7(8): 202.
[56] Noguchi S, Nishio M, Sakamoto R, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J . European Radiology, 2022, 32(11): 7976-7987.
[57] Fan X , Zhang X , Zhang Z , et al. Deep Learning on MRI Images for Diagnosis of Lung Cancer Spinal Bone Metastasis[J . Contrast Media & Molecular Imaging, 2021, 2021(1):1-9.
[58] Moreau N, Rousseau C, Fourcade C, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[C] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). IEEE, 2020: 1532-1535.
[59] Boser B E, Guyon I M, Vapnik V N. A training algorithm for optimal margin classifiers[C] . Proceedings of the fifth annual workshop on Computational learning theory, 1992: 144-152.
[60] Freund Y, Schapire R E. A decision-theoretic generalization of on-line learning and an application to boosting[J] . Journal of computer and system sciences, 1997, 55(1): 119-139.
[61] Breiman L. Random forests[J . Machine learning, 2001, 45: 5-32.
[62] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree[J] . Advances in neural information processing systems, 2017, 30: 52.
[63] Chen T, Guestrin C. Xgboost: A scalable tree boosting system[C . Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016: 785-794.
[64] Tran D, Bourdev L, Fergus R, et al. Learning spatiotemporal features with 3d convolutional networks[C . Proceedings of the IEEE international conference on computer vision, 2015: 4489-4497.

img

文献综述

3. 跨模态深度学习技术在临床影像中的应用

The Application of Deep Learning and Cross-modal Fusion Methods in Medical Imaging

Abstract

Deep learning technology is gaining widespread prominence across various fields in this era. In the realm of medical imaging, it has steadily assumed a pivotal role in tasks such as feature recognition, object detection, and image segmentation, since its inception. With the continuous evolution of imaging techniques, the individual patient often possesses an expanding wealth of multi-modal imaging data. It is evident that deep learning models utilizing cross-modal image fusion techniques will find diverse applications in a lot more clinical scenarios. In the future, deep learning will play a significant role in the medical sector, encompassing screening, diagnosis, treatment, and long-term disease management. To provide a reference for future research, this review aims to present a concise overview of the fundamental principles of deep learning, the nature of cross-modal fusion methods based on deep learning, with their wide-ranging applications, and a comprehensive survey of the present clinical uses of single-modal and cross-modal deep learning techniques in medical imaging, with a particular emphasis on bone metastasis imaging.

Keywords: deep learning, cross-modal, tumor imaging, bong metastasis

3.1 Preface

Nowadays, data are generated in massive quantities in the healthcare sector, from sources such as high-resolution medical imaging, biosensors with continuous output of physiologic metrics, genome sequencing, and electronic medical records. The limits on the analysis of such data by humans alone have clearly been exceeded, necessitating an increased reliance on machines. The use of artificial intelligence (AI), the deep-learning subtype in particular, has been enabled by the use of labeled big data, along with markedly enhanced computing power and cloud storage. One field that has attracted particular attention for the application of AI is radiology, as the cost of medical scans is declining, and the use of imaging studies is now at least as common as physical examinations, even surpassing the latter in surgical emergencies out of humanism and accuracy concerns. AI can greatly aid clinicians in diagnosis, especially in the interpretation of radiographic images, the accuracy of which heavily relies on the clinical experience and scrutiny of their interpreters, thus freeing clinicians to devote more of their attention to providing bedside healthcare. The radiologic screening and staging of tumors rely heavily on radiologists’ subjective judgments. For some minuscule or ambivalent lesions, it is often difficult to arrive at a definitive diagnosis based solely on clinical experience. A case reported by Dong et al. proves the vulnerability of relying on error-prone human judgment[1 . AI methods mainly analyze medical images through image processing and deep learning techniques. As an assistant for clinicians, deep neural networks can be trained with large datasets of radiologic images or clinical information, automatically learning features key to the revelation of pathology or lesion localization. In addition to deep learning models based on images of a single modality, researchers have also proven the feasibility of integrating multi-modal medical imaging data in algorithms, with improved model robustness. A combination of feature representations from different imaging modalities can effectively improve the performance of tumor detection, classification, and segmentation. Artificially generating relatively scarce imaging data from more easily accessible radiographs by way of cross-modal image translation can not only aid diagnoses but also improve the performance of deep learning models.

This article will briefly review the relevant background of deep neural networks (DNNs), as well as the up-to-date development of cross-modal fusion and image translation methods. An overview of the current clinical applications of single-modal and cross-modal deep learning in tumor imaging, especially in bone metastasis imaging, is also provided.

3.2. Deep Neural Network (DNN)

Traditional machine learning methods face limitations in handling data in its raw form, as creating a suitable internal representation or feature vector requires a meticulous feature extractor designed manually to convert raw data, such as image pixels. Only after then a classifier, every detail of which was manually set and adjusted, could detect or classify patterns in the input, and spell out its outcome. Because of the varying qualities of images, lots of intricate image enhancement or filtering algorithms, such as adaptive Gaussian learning, histogram equalization, and de-noising, are designed alone for the purpose of pre-processing images to be ready for the feature extractor. Another downside of conventional machine learning is that manually coded algorithms would only, with images with finer details or better contrast, allow for automatic execution of the thought processes that can best mimic, not surpass, that of a clinician. All the key features to be extracted and used in encoding the classifier were essentially the same set of “inputs” a clinician would use to make his or her judgment.

In contrast, “representation learning” is a set of techniques utilized in deep learning, which enable machines to analyze raw data without manual feature engineering. This allows the system to automatically identify the relevant patterns or features needed for classification or detection. Pattern recognition using deep neural networks (DNNs) can help interpret medical scans, pathology slides, skin lesions, retinal images, electrocardiograms, endoscopy, faces, and vital signs. Deep learning algorithms employ multiple tiers of representation through the composition of nonlinear modules, which transform the input representation from one level to the next, beginning with the raw input and continuing to higher and more abstract levels. It is helpful to think of the entire network as, nonetheless, a “function”, that takes in a set of inputs and spills out an output, though with absurdly complicated parameters and transformations. Irrelevant variations or noise can be lost as stepping up towards the higher layers of representation that amplify only features important for discrimination. By this “layering” method, very complex functions can be learned. A key differentiating feature of deep learning compared with other subtypes of AI is its autodidactic quality, i.e. neither the number of layers nor features of each layer is designed by human engineers, unencumbered by either the essence or the flaws of the human brain.

3.2.1. Supervised learning

Supervised learning is the process of learning with training labels assigned by the supervisor, i.e. the training set of examples has its raw input data bundled with their desired outputs. When used to classify images into different categories, the machine is shown an image and produces an output in the form of a vector of scores, one for each category during training. In supervised learning, the machine receives immediate feedback on its performance when its output does not match the expected output. The aim is to assign the highest score to the desired category among all categories. This is achieved by calculating a cost function that measures the average error or distance between the output scores and the expected pattern of scores. The inputs of the cost function are the parameters of the machine. Much like the “update rule” used in the Mixed Complementarity Problem (MCP), the perceptron learning algorithm updates its internal adjustable parameters to minimize errors when it predicts the wrong category[2]. The adjustable parameters consist of weights and biases, where weights control the input-output function of the machine. The algorithm learns from its mistakes rather than successes, and the weights can number in the hundreds or millions. Weights are assigned to the connections between neurons from the input layer and one of the neurons in the next layer, in some sense representing the “strength” of a connection. The activation of a single notch of neurons in the next layer was computed by taking the weighted sum of all the activations of the first layer, e.g., greyscale values of the pixels. Just like biological neurons may have different thresholds that the graded sum of electric potentials at the cell body needed to reach for axonal propagation, the algorithm may not want its neuron to light up simply over a sum greater than 0. So, a “bias for inactivity” is introduced into the weighted sum formula. For example, if a neuron is designed to be active only if the weighted sum exceeds 10, then a 10 is subtracted from the formula before the transformation that follows. Weights represent the pixel pattern (weight assigned to each pixel can be visualized as a pixel pattern) that the algorithm identifies, while biases provide a threshold indicating the required level of weighted sum for a neuron to become meaningfully active. When the goal is to have the value of activations of the next layer between 0 and 1 and were the mapping to be smooth and linear, then the weighted sum can be pumped into a sigmoid function, i.e. 1/(1 + exp(−w)), where w is the weighted sum. A sigmoid transformation compresses the continuum of real numbers, mapping them onto the interval between 0 and 1, effectively pushing negative inputs towards zero, and positive inputs towards 1, and the output steadily increases around the input 0. Say the mapping is from p neurons from the one layer to the q neurons of the next layer, there would be p×q number of weights and q biases. These are all adjustable parameters that can be manipulated to modify the behavior of this network. In a deep learning system, changing the parameters may reflect a shift in the location, size, or shape of the representations to find “better” features to travel through the layers to get to the desired output.

At present though, preferred mappings in DNN are neither smooth nor linear. By applying a non-linear function to the input, the categories become separable by the last output layer in a linear way, resulting in a definitive category output, unlike the previously mentioned range of numerical values that would require arbitrary cut-off points to finalize the categorization. A sigmoid transformation was once popular in the era of Multilayer Perceptron, during which a machine was simply an executor of commands, and the feature detected by each layer was designed and programmed by human engineers, such that the final output, as a continuous variable, would be interpretable[3]. The rectified linear unit (ReLU) is currently the most widely used non-linear function, which introduces non-linearity into the network by setting all negative values to zero. This is in contrast to the smoother non-linearities, such as tanh(z) or 1/(1 + exp(−z)), used in previous decades.
ReLU has proven to be a faster learner in deep networks compared to these other non-linear functions and allows for the training of deep supervised networks without the need for unsupervised pre-training[4].

This would not work in DNN, as hidden layers would not be picking up edges and patterns based on our expectations. How the machine gets to the correct output is still an enigma, and its intelligence still awaits revelation.

The essential of learning by neural networks is to minimize the cost function. It is important for this cost function to have a nice and smooth output so that the local minimum can be obtained by taking little steps downhill, rather than being either on or off in a binary way the way biological neurons are. To adjust the weight and bias values of the parameter vector in a high-dimensional space, the learning algorithm computes a gradient vector that specifies how much the error, or cost, would increase or decrease if each parameter were slightly modified. In mathematical terms, this is similar to taking derivatives of a function with respect to a variable to observe the trend of the function between the two infinitesimally close values of that variable. In multivariate calculus, the gradient of a function indicates the path of the steepest incline, pointing towards the direction in the input space where one should move to minimize the output of this cost function with the utmost speed, and the length of the vector indicates exactly how steep the steepest ascent is. The weight vector is modified by shifting it in the opposite direction of the gradient vector, and the size of the adjustments is proportional to the slope of the gradient vector. When the slope of the gradient vector approaches the minimum, the step size decreases to prevent overshooting. This is the so-called “gradient descent” that converges on some local minimum. Minimizing the cost function can guarantee better performance across all training samples. Viewed from a different perspective, the gradient vector of the cost function encodes the relative importance of weights and biases, which changes to which weights matter the most to minimize the cost. The magnitude of each component represents
how sensitive the cost is to each weight and bias.

In practice, most practitioners use a procedure called stochastic gradient descent (SGD). It involves randomly selecting a few input vectors as mini-batches, computing the corresponding outputs, errors, and the gradient descent step. The weights were adjusted accordingly. This process is repeated for many small subsets of examples from the training set until the average cost function stops decreasing. Each small subset of examples gives a noisy estimate of the average gradient over all examples, and thus the “stochasticity”. Despite its simplicity, SGD often achieves good results with far less computation time than more complex optimization techniques[5].

3.2.2. Backpropagation

Recursively adjusting the weights in proportion to the activation of the second-to-last layer, vise vera, or altering the biases to decrease the cost for a single training sample is a single round of digital learning. In a nutshell, the backpropagation procedure is an algorithm of computing the gradient descent efficiently. Calculating the gradient of a cost function with respect to the weights in a stacked multilayer module is a practical application of the chain rule of derivatives. A key insight is that the derivative of the cost function concerning the input can be obtained by reversing the order of the layers, working from the higher to the lower layers. The process of backpropagation entails computing gradients through all layers. From the uppermost layer where the network generates predictions down towards the lowermost layer where the external input is introduced. Once these gradients have been calculated, it is straightforward to determine the gradients with respect to the weights and biases of each module. After these gradients are computed, it becomes a straightforward task to derive the gradients with respect to the weights and biases of each module. The average of desired changes, obtained by traversing the backpropagation route for alternate training samples, was the optimal adjustment that parameters could make to make the model performs better in the training set.

It was commonly thought that a simple gradient descent would get trapped in suboptimal local minima — weight configurations for which no small change would reduce the cost function, as finding the global minimum would be an intractable task. Recent theoretical and empirical results strongly suggest the cost function’s landscape is actually filled with a huge number of saddle points where the gradient is zero, indicating that the optimization challenge is more complex than originally thought, but most of these points have similar cost function values[6]. In other words, the depth of the local minima is almost the same across different saddle points, so it is not crucial which one the algorithm gets stuck at.

3.2.3. Convolutional neural networks (CNN)

Convolutional neural networks (CNNs) are easier to train and have better generalization capabilities compared to other feedforward networks with fully connected layers. They are specifically designed to process data represented as multiple arrays, such as grayscale images consisting of a single 2D array containing pixel intensities of varying values.

The four key ideas behind CNN are inspired by the properties of natural signals and visual neuroscience: local connections, shared weights, pooling, and the use of multi-layer. The convolutional and pooling layers are directly inspired by the concept of simple cells and complex cells, respectively, in the visual cortex, and the overall architecture is reminiscent of the LGN-V1-V2-V4-IT hierarchy in the visual cortex’s ventral pathway[7][8]. Local groups of values in array data often exhibit high correlation and form characteristic local motifs that can be readily identified. Therefore, pattern recognition makes CNN most useful in detecting images.

3.2.3.1. Convolution

The main function of the convolutional layer is to identify and extract local combinations of features from the preceding layer (Fig. 1). The actual process of matching is accomplished through filtering in the convolutional layer: A filter bank can be thought of as a small matrix of representative features (of real numbers) for which the number of rows and columns, eg. n× n, of pixels is arbitrarily set. The filter and image patch are lined up, and each image pixel is multiplied (dot product) by the corresponding feature. The result is added up and divided by the total number of pixels in the filter to arrive at a specific feature value. Feature value indicates how well the feature is represented at that position. Sliding over n pixels, the same procedure is repeated for every n× n block of pixels for the entire input image, and a feature map, a “map” of where the filter feature occurs, is obtained. All units in a feature map share the same filter bank. Therefore, the local characteristics of images and other signals remain constant regardless of their location. In simpler terms, a pattern that appears in one part of the image can appear in any other part as well. Hence, the approach of employing units with identical weights to identify corresponding patterns across various sections of the array is adopted. In a convolution layer, filtering can be performed for a bunch of features and create a stack of filtered images. Each feature map in a layer employs its own filter bank. From a mathematical standpoint, the operation of filtering executed by a feature map can be described as a discrete convolution, hence the name.

img

Fig. 1: Example of a filter (kernel) convolution. Note the new pixel value shown in the figure has not been weighted by the number of windows in the filter.

3.2.3.2. Pooling

The aim of the pooling layer is to reduce the size of a feature map by merging similar features into a single one through the following steps: (1) choose an appropriate window size, usually 2×2 or 3×3 pixels; (2) pick a stride (by how many pixels the window steps down to run through a feature map) accordingly, usually 2 pixels; (3) walk the window by its stride across the filtered images; (4) take the maximum value in each window as the pooling result and form a “pooled map”. A robust motif detection can be accomplished by simplifying the positioning of each feature across all feature maps that are fed into this CNN layer. Pooling helped the algorithm to neglect where in each window the maximum value occurs, making it less sensitive to small shifts in position, either parallel or rotational, an image that strongly fits the filter will still get picked up.

3.2.3.3. Normalization

To keep the math from blowing up, a layer is then passed through a non-linearity such as a ReLU making negative values all 0. This procedure of nonlinear transformation is “normalization” in deep learning terms.

The CNN architecture involves stacking multiple stages of convolution, non-linearity (normalization), and pooling on top of each other, followed by a final fully connected layer (Fig. 2). Each layer’s filter banks in the convolutional layers and voting weights in the fully connected layer are learned through the backpropagation algorithm. In the fully connected layer, also known as the dense layer due to the fact that a large number of neurons are densely connected with each other, a list of feature values becomes a list of votes, when timed by relevant weights that map this layer to the output layer gives the final answer. It is worth noting that this list of votes in the fully connected layer looks a lot alike a list of feature values. Indeed, the output of this layer as intermediate categories can still feed into the input of the next layer, propagating the cycle instead of becoming the final votes.

img

Fig. 2: Example of a CNN with various types of layers. The convolutional layer does not decrease the size, i.e., the number of pixels, of the input figure, rather it encodes the feature of its input. The pooling layer does decrease the size of its input. The amount of which the size decreases depends on the size of the pooling window and the stride.

3.3. Cross-modal fusion

Cross-modal fusion refers to the process of integrating data from different modalities. PET/CT is a classic example of cross-modal fusion. CT is a type of imaging modality that provides high-resolution, cross-sectional images with excellent clarity and density resolution. PET, on the other hand, is a nuclear imaging technique that generates images showing the spatial distribution of positron-emitting radiopharmaceuticals within the body. With less precise structural details, PET images are well capable of displaying metabolic activity. PET/CT fuses CT with PET, possessing information on both the anatomical details and the metabolic spectrum. As each different information stream possesses unique characteristics, single-modal data often do not contain all the effective features to produce accurate results, whether for data analysis or prediction tasks. Cross-modal deep learning models combine data from two or more different modalities, learning different feature representations from different modalities and facilitating communication and transformation among different information streams, to accomplish specific downstream tasks. This special type of deep learning can improve the accuracy of predictions and enhance the robustness of models.

3.3.1. Cross-modal fusion methods

Cross-modal fusion methods can be categorized into three types: early fusion, late fusion, and hybrid fusion. In early fusion, unimodal features are combined into a single representation before the feature extraction or modeling process[9] . After feature extraction or modeling is performed separately to reduce unimodal features, the outputs are integrated to learn concepts and obtain the final prediction in late fusion[10] . Whereas hybrid fusion combines early and late fusion methods, where fusion is performed at both the feature level
and the output layer [11].

There are various methods of early fusion, including operating on elements at the same position in different modalities. For example, in the field of medical imaging, different imaging modalities can be fused into an integrated image. Nefian et al. proposed a cross-modal early fusion method that used both the factorial and the coupled hidden Markov model for audio-visual integration in speech recognition[12] . Early fusion was done by multiplying the corresponding elements of visual features that capture mouth deformation over consecutive frames and the vector representation, representing the frequency of audio observations, learned by long short-term memory neural networks. A dimensionality reduction was then done on the observation vectors obtained by concatenation of the audio and visual features. Indeed, early fusion methods are often simple in structure with low computational complexity. However, the resulting feature is often high in dimensions, which can impose a significant computational burden on the subsequent model if dimensionality reduction is not performed.
As an example of late fusion, in 2014, Simonyan et al. proposed an architecture that separately inputs spatial and temporal recognition streams of videos, where the spatial stream recognizes actions from still video frames, whilst the temporal stream is in charge of action recognition from motion in the form of dense optical flow[13]. The learned feature outputs are combined by late fusion via either averaging or a linear support vector machine (SVM). As fusion significantly improves on both streams alone, the result proves the complementary nature of inputs spatial and temporal recognition streams and that cross-modal fusion indeed preserves more information of use in the algorithm. Late fusion does not explicitly consider the inter-modality correlation at the feature level, which may result in a lack of interaction among different modalities at the feature level. Consequently, the resulting feature representations after cross-modal fusion may not be rich enough, potentially limiting the effectiveness of the fusion approach.

There is no one optimal solution for all, and the choice of fusion method should be case-by-case.

3.3.2. Cross-modal image translation

Cross-modal image translation has gradually matured in the field of computer vision. Given sufficient training data, deep learning models are capable of learning discriminative features from images of different modalities, and the process of image-to-image translation can be viewed as transforming one potential representation of a scene to another.

In 2017, Isola et al. released a Pix2Pix software that is effective at various image translation tasks, such as synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images[14] . Conventional CNN learns to minimize a loss function that is arbitrary, the making of which takes a lot of manual effort. The Pix2Pix software adopts conditional Generative Adversarial Networks (GANs) that automatically learn the loss function to train the mapping from input to output images, besides learning the mapping itself, as a generic solution to pixel-to-pixel prediction. These networks solve the whole genre of problems that used to require very different loss functions. Conditional GANs differ from other formulation in that it treats output pixels as mutually dependent and thus learns a structured loss, which penalizes the joint configuration of the output. Pix2Pix has good performance on many image translation tasks, but its ability in generating high-resolution images is suboptimal. Wang et al. improved upon Pix2Pix by proposing a new image translation framework for synthesizing high-resolution photo-realistic images from semantic label maps using conditional GANs in 2018. Compared to Pix2Pix, this method has two main improvements: image translation at 2048 × 1024 resolution and semantic editing of images. To generate high-resolution images, their method uses a coarse-to-fine generator, which is composed of a local enhancer for fine high-resolution image conversion and a global generator for coarse low-resolution image conversion respectively, a multi-scale discriminator architecture, and a robust adversarial learning objective function.

Additionally, it adds a low-dimensional feature channel to the input, which allows for the generation of diverse results images based on the same input label map. Zhu et al. proposed the BicycleGAN model combining both the conditional Variational Autoencoder GAN approach and the conditional Latent Regressor GAN approach, based on Pix2Pix in 2017[15] . BicycleGAN is a technique for multi-modal image translation that accomplishes not just the primary objective of mapping the input, together with the latent code to the output, but also concurrently learns an encoder that maps the output back to the latent space. The bijection between the output and the latent space prevents multiple distinct latent codes from producing the same output, also known as non-injective mapping. BicycleGAN allows the generator to model a distribution of high-dimensional output given different encoders, producing diverse and realistic results while remaining faithful to the input.

To accurately transform specific objects among different modalities is the main challenge of cross-modal image translation. Most cross-modal image translation methods require paired data as the input, and due to the scarcity of the paired data, the translated images are often suboptimal or suffer from mode collapse, where the output only represents a limited number of real samples, etc. Therefore, how to achieve high-quality cross-modal image translation with a small amount of paired data is a valuable direction for research.

3.4. The application of cross-modal deep learning

AI is increasingly being studied in metastatic skeletal oncology imaging, and deep learning has been assessed for tasks such as detection, classification, segmentation, and prognosis. Zhao et al. developed a deep neural network-based model to detect bone metastasis on whole-body bone scan (WBS), irrespective of the primary malignancy[16 . Compared to experienced nuclear medicine physicians, the deep learning model not only had a time savings of 99.88% for the same workload, but it also had better diagnostic performance, with improved accuracy and sensitivity. To overcome the constraint of the time-consuming effort required for precise labeling of large datasets, Han et al. proposed a 2D CNN classifier-tandem architecture named GLUE, which integrates whole body and local patches for WBS of prostate cancer patients[17 . The 2D-CNN modeling is the best fit for planar nuclear medicine scans, provided there is a massive amount of training data available. The GLUE model had significantly higher AUCs than a whole-body-based 2D CNN model when the labeled dataset used for training was limited. Noguchi et al. developed a deep learning-based algorithm, with high lesion-based sensitivity and low false positives, to detect bone metastases in CT scans[18 . An observer study was also done to evaluate its clinical efficacy, which showed improved radiologists’ performance when aided by the model, with higher sensitivity, by both lesion-based and case-based analyses, in less amount of interpretation time. Fan et al. used AdaBoost and Chan-Vese algorithms to detect and segment sites of spinal metastasis of lung cancer on MRI images[19 . Chan-Vese algorithm had the best performance. The accuracy of the segmentation, expressed in terms of DSC and Jaccard coefficient scores, were 0.8591 and 0.8002, respectively. Liu et al. built a deep learning model based on 3D U-Net algorithms for the automatic segmentation of pelvic bone and sites of prostate cancer metastases on MRI-DWI and T1-weighted MRI images[20 . The model was found to work best on patients with few metastases, boosting the use of CNN as an aid in M-staging in clinical practice. Multiple deep classifiers were developed by Lin et al. to automatically detect metastases in 251 thoracic SPECT bone images[21 . The performance of the classifiers was found to be excellent, with an AUC of 0.98. Moreau et al. compared different deep learning approaches to segment bones and metastatic lesions in PET/CT images of breast cancer patients[22]. The results indicated that the U-NetBL-based approach for bone segmentation outperformed traditional methods, with a mean DSC of 0.94 ± 0.03, whereas the traditional methods struggled to distinguish metabolically active organs from the bone draft.

Compared to the aforementioned deep learning examples, the more avant-garde cross-modal image fusion and translation techniques have not been widely investigated in bone metastasis imaging. Xu et al. adopted two different convolutional neural networks for lesion segmentation and detection and combined the spatial feature representations extracted from the two different modalities of PET and CT[23] . Their cross-modal method completed the three-dimensional detection of multiple myeloma, outperforming traditional machine learning methods. The research conducted by Wang et al. revealed that texture features extracted from multiparametric prostate MRI before intervention, when combined with clinicopathological risks such as free PSA level, Gleason score, and age, could effectively predict bone metastasis in patients with prostate cancer[24] . The outcome of this study can be seen as a proof of concept for the significance of cross-modal data.

Even though cross-modal investigations regarding the sites of bone metastases are limited by now, there has been plenty of evidence proving the utility of cross-modal fusion in oncological imaging. These applications and trains of thought can be well extrapolated to the field of osseous metastasis imaging. Cross-modal fusion can be applied to tasks such as tumor detection, segmentation, and classification to improve model the performance of deep learning models. Cross-modal image translation can be used for data augmentation to facilitate various downstream tasks.

Cross-modal fusion methods are often employed to enrich the models with cross-modal image features, thus improving the performance of tumor detection. Further, convolutional neural networks are used to capture the relationships between adjacent pixels and extract effective features from the image in deep learning-based cross-modal tumor detection algorithms. In 2021, Huang et al. proposed a ResNet network-based framework, AW3M, that used ultrasonography of four different modalities jointly to diagnose breast cancer[25]. By combining the cross-modal data, the AW3M based upon multi-stream CNN equipped with self-supervised consistency loss was utilized to extract both modality-specific and modality-invariant features, with improved diagnostic performance.

As for tumor segmentation, many researchers hinge on either the four types of MRI image modalities or the two modalities of PET/CT encompassing anatomical and metabolic information to perform cross-modal fusion and improve segmentation performance. For instance, Ma et al. explored CNN-based cross-modal approaches for automated nasopharyngeal carcinoma segmentation[26]. Their proposed multi-modality CNN utilizes CT and MRI to jointly learn a cross-modal similarity metric and fuse complementary features at the output layer to segment paired CT-MR images, demonstrating exceptional performance. Additionally, the study combines the features extracted from each modality’s single-modality CNN and multi-modality CNN to create a combined CNN that capitalizes on the unique characteristics of each modality, thereby improving segmentation performance. Fu et al. introduced a deep learning-based framework for multimodal PET-CT segmentation that leverages PET’s high tumor sensitivity in 2021[27 . Their approach utilized a multimodal spatial attention module to highlight tumor regions and suppress normal regions with physiologic high uptake from PET input. The spatial attention maps generated by the PET-based module were then used to target a U-Net backbone for the segmentation of areas with higher tumor likelihood at different stages from CT images. Results showed that their method surpasses the state-of-the-art lung tumor segmentation approach by 7.6% in the Dice similarity coefficient.

As the diagnostic procedure often requires the integration of multi-modal information, such as chief complaints, physical examinations, medical histories, laboratory tests, and radiology, cross-modal fusion methods are also commonly utilized in disease classification tasks. Cross-modal fusion synthesizes data from different modalities to enrich effective feature representations, enabling deep learning models to extract useful information from different modalities to aid in diagnosis. Zhang et al. proposed a technique for prostate cancer diagnosis using a multi-modal combination of B-mode ultrasonography and sonoelastography[28] . Quantitative features such as intensity statistics, regional percentile features, and texture features were extracted from both modalities, and an integrated deep network was proposed to learn and fuse these multimodal ultrasound imaging features. The final step of disease classification was completed by a support vector machine.

Due to the relative scarcity of medical images, cross-modal image translation is often used to synthesize part of the data in the training set as a data augmentation method for a better-performing deep learning model with a small sample size. Since integrated data from different modalities often exhibit better performance in deep learning models, the multi-modal image data input generated by cross-modal image translation methods can be directly used as targets for tumor detection. A two-step approach for semi-supervised tumor segmentation using MRI and CT images was proposed by Jiang et al[29 . The first step is a tumor-aware unsupervised cross-modal adaptation using a target-specific loss to preserve tumors on synthesized MRIs from CT images. The second step involves training a U-Net model with synthesized and limited original MRIs using semi-supervised learning. Semi-supervised learning is used to boost the accuracy (80%) of tumor segmentation by combining labeled pre-treatment MRI scans with synthesized MRIs, while training with synthesized MRIs had an accuracy of 74%. The proposed approach demonstrated the effectiveness of tumor-aware adversarial cross-modal translation for accurate cancer segmentation from limited imaging data.

In general, there have been bounties of research supporting the application of deep learning in bone metastasis imaging, but the specific application of cross-modal fusion methods is still lacking. Whereas, clinical evaluations regarding bone metastasis often require multi-modal data, such as a chief complaint of lower back pain, a past medical history of pathological fractures, a positive genetic test for specific mutations indicating a higher risk of bone metastasis, or increased blood calcium and alkaline phosphatase concentrations in laboratory reports, etc. Therefore, evaluating osseous lesions with multi-modal data can improve the specificity of diagnosis and reduce the false positive rates in the diagnostic and treatment process. The application of cross-modal deep learning methods in the field of bone metastasis imaging and diagnosis is worth further exploration.

3.5. conclusion

The above review covers the definition and basic principles of deep learning and cross-modal image generation and fusion methods, briefly describes some common cross-modal deep learning algorithms, and summarizes bits of current research on the application of deep learning models in medical imaging, especially bone metastasis imaging. Compared to traditional deep learning models fed with data input of a single modality, multi-modal methods are more recent, with a limited number of relevant research. Given the increasing prevalence of cancer screening and the significant surge in patient-specific clinical data, including radiographs and laboratory tests, it is reasonable to anticipate an unparalleled demand for advanced, intelligent cross-modal deep learning methods in the future. Nevertheless, the use of AI in medical imaging analysis faces various challenges and limitations. These include the need for extensive and diverse datasets for training and validation, the potential for bias and overfitting, as well as the inherent black-box nature of deep learning algorithms[30 . Even though the demand for a large training set reiterates the merit of cross-modal deep learning, which enables the automatic generation of sample images through cross-modal image translation, the size of the training set still has a profound impact on the performance of algorithms. In parallel, the demand for “explainability” has led to the notion of “interpretable machine learning”, utilizing heat maps and metrics to track the focus of deep neural networks[31] . Overall, there is still much to be investigated regarding the application of cross-modal deep learning in the field of medical imaging.

In summary, the project should be founded on the application of cross-modal deep learning techniques to offer practical solutions for challenges encountered in the clinical setting.

参考文献

[1] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J] . Gastroenterology, 2023, 164(2): 191-193.
[2] Aswathi R R, Jency J, Ramakrishnan B, et al. Classification Based Neural Network Perceptron Modelling with Continuous and Sequential data[J] . Microprocessors and Microsystems, 2022: 104601.
[3] Gardner M W, Dorling S R. Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences[J] . Atmospheric environment, 1998, 32(14-15): 2627-2636.
[4] Glorot X, Bordes A, Bengio Y. Deep Sparse Rectifier Neural Networks[J] . Journal of Machine Learning Research, 2011, 15: 315-323.
[5] Bottou L, Bousquet O. The tradeoffs of large scale learning[J] . Advances in Neural Information Processing Systems, 2007, 20: 1-8.
[6] Dauphin, Y. et al. Identifying and attacking the saddle point problem in high-dimensional non-convex optimization[J] . Advances in neural information processing systems, 2014, 27: 2933–2941.
[7] Hubel D H, Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex[J] . Journal of Physiology, 1962, 160(1): 106-154.
[8] Cadieu C F, Hong H, Yamins D, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition[J] . Plos Computational Biology, 2014, 10(12): e1003963.
[9] Nefian A V, Liang L, Pi X, et al. Dynamic bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[10] Snoek C G M, Worring M, Smeulders A W M. Early versus late fusion in semantic video analysis[C] . Proceedings of the 13th annual ACM international conference on Multimedia, 2005: 399-402.
[11] Wu Z, Cai L, Meng H. Multi-level fusion of audio and visual features for speaker identification[C] . International Conference on Biometrics Springer, Berlin, Heidelberg, 2005: 493-499.
[12] Nefian A V, Liang L, Pi X, et al. Dynamic Bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[13] Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[J] . Advances in neural information processing systems, 2014, 27: 568–576.
[14] Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C] . Proceedings of the IEEE conference on computer vision and pattern recognition, 2017: 1125-1134.
[15] Zhu J Y, Zhang R, Pathak D, et al. Toward multimodal image-to-image translation[J]. Advances in neural information processing systems, 2017, 30: 465–476.
[16] Zhao Z, Pi Y, Jiang L, Xiang Y, Wei J, Yang P, et al. Deep neural network based artificial intelligence assisted diagnosis of bone scintigraphy for cancer bone metastasis[J] . Scientific Reports, 2020, 10(1): 17046.
[17] Han S, Oh J S, Lee J J. Diagnostic performance of deep learning models for detecting bone metastasis on whole-body bone scan in prostate cancer[J] . European journal of nuclear medicine and molecular imaging, 2021, 49(2): 1-11.
[18] Noguchi S, Nishio M, Sakamoto R, Yakami M, Fujimoto K, Emoto Y, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J] . European Radiology, 2022, 32(11): 7976-7987.
[19] Fan X, Zhang X, Zhang Z, Jiang Y. Deep learning on MRI images for diagnosis of lung cancer spinal bone metastasis[J] . Contrast Media & Molecular Imaging, 2021, 2021(1): 1-9.
[20] Liu X, Han C, Cui Y, Xie T, Zhang X, Wang X. Detection and segmentation of pelvic bones metastases in MRI images for patients with prostate cancer based on deep learning[J] . Frontiers in Oncology, 2021, 11: 773299.
[21] Lin Q, Li T, Cao C, Cao Y, Man Z, Wang H. Deep learning based automated diagnosis of bone metastases with SPECT thoracic bone images[J] . Scientific Reports, 2021, 11(1): 4223.
[22] Moreau N, Rousseau C, Fourcade C, Santini G, Ferrer L, Lacombe M, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[J] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society, 2020: 1532-1535.
[23] Xu L, Tetteh G, Lipkova J, et al. Automated whole-body bone lesion detection for multiple myeloma on 68Ga-pentixafor PET/CT imaging using deep learning methods[J] . Contrast media & molecular imaging, 2018, 2018: 2391925.
[24] Wang Y, Yu B, Zhong F, Guo Q, Li K, Hou Y, et al. MRI-based texture analysis of the primary tumor for pre-treatment prediction of bone metastases in prostate cancer[J] . Magnetic Resonance Imaging, 2019, 60: 76-84.
[25] Huang R, Lin Z, Dou H, et al. AW3M: An auto-weighting and recovery framework for breast cancer diagnosis using multi-modal ultrasound[J] . Medical Image Analysis, 2021, 72: 102137.
[26] Ma Z, Zhou S, Wu X, et al. Nasopharyngeal carcinoma segmentation based on enhanced convolutional neural networks using multi-modal metric learning[J] . Physics in Medicine & Biology, 2019, 64(2): 025005.
[27] Fu X, Bi L, Kumar A, et al. Multimodal spatial attention module for targeting multimodal PET-CT lung tumor segmentation[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 25(9): 3507-3516.
[28] Zhang Q, Xiong J, Cai Y, et al. Multimodal feature learning and fusion on B-mode ultrasonography and sonoelastography using point-wise gated deep networks for prostate cancer diagnosis[J] . Biomedical Engineering/Biomedizinische Technik, 2020, 65(1): 87-98.
[29] Jiang J, Hu Y C, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C] . International conference on medical image computing and computer-assisted intervention. Springer, Cham, 2018: 777-785.
[30] Castelvecchi D. Can we open the black box of AI?[J] . Nature, 2016, 538(7623): 20.
[31] Kuang C. Can A.I. Be Taught to Explain Itself?[J] . The New York Times, 2017, 21.

致谢

首先,感谢我的导师,邱贵兴院士,涓涓师恩,铭记于心。感谢吴南师兄,知遇之恩无以报。感谢吴东老师,三生有幸,得您伴我一程风雪。也感谢所有参与此项目的科研合作伙伴和课题组的师兄师弟们,你们的帮助让这项研究得以顺利进行。

感谢在协和遇到的所有老师们,学生朽木,希望未来也能如你们一样,不负一袭白衣。

最后,要感谢我的家人。Wherever I go, this family is my fortress.

这路遥马急的人间,你我平安喜乐就好。

❌
❌