Normal view

There are new articles available, click to refresh the page.
Today — 4 May 2025中国数字时代

【404文库】协和医学院规培医生董袭莹博士论文, 中国知网已删除

4 May 2025 at 02:40

CDT编辑注:日前,中日友好医院医生肖飞被其妻举报婚外情,其中一位当事人为规培医师、协和医学院博士生董袭莹。举报信中还指出,肖飞曾在手术过程中与护士发生冲突,期间不顾患者安危,与董袭莹一同离开手术室。随后,董袭莹的教育背景引发网络关注。公开信息显示,董袭莹本科就读于美国哥伦比亚大学下属的女子学院——巴纳德学院,主修经济学,2019年被北京协和医学院“4+4”临床医学长学制试点班录取为博士研究生。相比中国传统医学教育体系通常更长的教学与规培周期,协和“4+4”模式在公平性与专业性方面引发质疑。与此同时,有网民指出,董袭莹的博士论文与北京科技大学的一项发明专利存在多处雷同,涉嫌学术不端。事件持续发酵后,中国知网已将其博士论文下架,而这篇论文的下架流程是否遵循既定的撤稿标准亦受到质疑。有网友在此之前保存了论文PDF,并上传至GitHub。以下文字和图片由CDT通过PDF版转录存档。

北京协和医学院临床医学专业毕业论文
学校代码:10023
学 号: B2019012012

跨模态图像融合技术在医疗影像分析中的研究

专业年级:北京协和医学院临床医学专业 2019 级试点班
姓名: 董袭莹
导师: 邱贵兴(教授)
北京协和医学院 临床学院(北京协和医院)
骨科
完成日期:2023年5月

目录

摘要 …………………………………………………………………………………………………………………… 1
Abstract ………………………………………………………………………………………………………………. 3

  1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测 ………………………………… 6
    1.1. 前言 …………………………………………………………………………………………………….. 6
    1.2. 研究方法 ……………………………………………………………………………………………… 7
    1.2.1. 研究设计和工作流程 ………………………………………………………………….. 7
    1.2.2. 跨模态图像融合 …………………………………………………………………………. 7
    1.2.3. 宫颈癌病变区域检测 ………………………………………………………………… 11
    1.3. 实验 …………………………………………………………………………………………………… 11
    1.3.1. 临床信息和影像数据集 …………………………………………………………….. 11
    1.3.2. 模型训练过程 …………………………………………………………………………… 12
    1.3.3. 评价指标 ………………………………………………………………………………….. 13
    1.3.4. 目标检测模型的结果与分析 ……………………………………………………… 14
    1.4. 讨论 …………………………………………………………………………………………………… 15
    1.5. 结论 …………………………………………………………………………………………………… 16
  2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断 ………………………………. 18
    2.1. 前言 …………………………………………………………………………………………………… 18
    2.2. 研究方法 ……………………………………………………………………………………………. 19
    2.2.1. 研究设计和工作流程 ………………………………………………………………… 19
    2.2.2. 骨转移目标区域检测 ………………………………………………………………… 20
    2.2.3. 基于特征转换的跨模态数据融合 ………………………………………………. 20
    2.2.4. 乳腺癌骨转移的分类模型 …………………………………………………………. 21
    2.3. 实验 …………………………………………………………………………………………………… 22
    2.3.1. 临床信息和影像数据集 …………………………………………………………….. 22
    2.3.2. 模型训练过程 …………………………………………………………………………… 23
    2.3.3. 评价指标 ………………………………………………………………………………….. 24
    2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析 ……………………………………………………………………………………………….. 25
    2.4. 讨论 …………………………………………………………………………………………………… 30
    2.5. 结论 …………………………………………………………………………………………………… 32
    全文小结 ………………………………………………………………………………………………………….. 33
    参考文献 ………………………………………………………………………………………………………….. 35
    缩略词表 ………………………………………………………………………………………………………….. 40
    文献综述 ………………………………………………………………………………………………………….. 41
  3. 跨模态深度学习技术在临床影像中的应用 ……………………………………………………. 41
    3.1 Preface ………………………………………………………………………………………………… 41
    3.2. Deep Neural Network (DNN) ……………………………………………………………….. 42
    3.2.1. Supervised learning ……………………………………………………………………. 43
    3.2.2. Backpropagation ………………………………………………………………………… 46
    3.2.3. Convolutional neural networks (CNN) …………………………………………. 46
    3.3. Cross-modal fusion ………………………………………………………………………………. 49
    3.3.1. Cross-modal fusion methods ……………………………………………………….. 50
    3.3.2. Cross-modal image translation …………………………………………………….. 51
    3.4. The application of cross-modal deep learning ………………………………………….. 52
    3.5. conclusion …………………………………………………………………………………………… 55
    参考文献 …………………………………………………………………………………………………… 57
    致谢 …………………………………………………………………………………………………………………. 60
    独创性声明 ………………………………………………………………………………………………………. 61
    学位论文版权使用授权书 …………………………………………………………………………………. 61

摘要

背景

影像学检查是医疗领域最常用的筛查手段,据统计,医疗数据总量中有超过90%是由影像数据构成[1]。然而,根据亲身参与的临床病例[2]可知,很多情况下,仅凭医生的肉眼观察和主观诊断经验,不足以对影像学异常作一明确判断。而诊断不明引起的频繁就医、贻误病情,则会严重影响患者的生活质量。

相较于传统的主观阅片,人工智能技术通过深度神经网络分析大量影像和诊断数据,学习对病理诊断有用的特征,在客观数据的支持下做出更准确的判断。为了模拟临床医生结合各种成像模式(如 CT、MRI 和 PET)形成诊断的过程,本项目采用跨模态深度学习方法,将各种影像学模态特征进行有机结合,充分利用其各自的独特优势训练深度神经网络,以提高模型性能。鉴于肿瘤相关的影像学资料相对丰富,本项目以宫颈癌和乳腺癌骨转移为例,测试了跨模态深度学习方法在病变区域定位和辅助诊断方面的性能,以解决临床实际问题。

方法

第一部分回顾性纳入了220 例有FDG-PET/CT 数据的宫颈癌患者,共计72,602张切片图像。应用多种图像预处理策略对PET 和CT 图像进行图像增强,并进行感兴趣区域边缘检测、自适应定位和跨模态图像对齐。将对齐后的图像在通道上级联输入目标检测网络进行检测、分析及结果评估。通过与使用单一模态图像及其他 PET-CT 融合方法进行比较,验证本项目提出的 PET-CT 自适应区域特征融合结果在提高模型目标检测性能方面具有显著性优势。第二部分回顾性纳入了233 例乳腺癌患者,每例样本包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有3051 张CT 切片,3543 张MRI 切片,1818 张PET 切片。首先训练YOLOv5 对每种单一模态图像中的骨转移病灶进行目标检测。根据检测框的置信度划分八个区间,统计每个影像序列不同置信度区间中含有检出骨转移病灶的个数,并以此归一化后作为结构化医疗特征数据,采用级联方式融合三种模态的结构化特征实现跨模态特征融合。再用多种分类模型对结构化数据进行分类和评估。将基于特征转换的跨模态融合数据与特征转换后的单模态结构化数据,以及基于 C3D 分类模型的前融合方式进行比较,验证第二部分提出的方法在乳腺癌骨转移诊断任务中的优越性能。

结果

第一部分的基于跨模态融合的肿瘤检测实验证明,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性。相比使用CT 或PET 单模态图像以及其他融合方法生成的多模态图像作为网络输入,目标检测的平均精确度分别提高了 6.06%和 8.9%,且消除了一些假阳性结果。上述测试结果在使用不同的目标检测模型的情况下保持一致,这表明自适应跨模态融合方法有良好的通用性,可以泛化应用于各种目标检测模型的预处理阶段。第二部分基于特征转换的跨模态病例分类实验证明,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能。相较于单模态数据,跨模态融合数据的平均准确率和AUC分别提高了7.9%和8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也具有相同的实验结论:在不同的分类模型中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

结论

本项目主要包含两个部分。第一部分证实了基于区域特征匹配的跨模态图像融合后的数据集在检测性能上优于单模态医学图像数据集和其他融合方法。第二部分提出了一种基于特征转换的跨模态数据融合方法。使用融合后的数据进行分类任务,其分类性能优于仅使用单模态数据进行分类或使用前融合方法的性能。根据不同模态医学图像的特征差异与互补性,本项目验证了跨模态深度学习技术在病变区域定位和辅助诊断方面的优势。相比于只使用单模态数据进行训练的模型,跨模态深度学习技术有更优的诊断准确率,可以有效的成为临床辅助工具,协助和指导临床决策。

关键词:跨模态融合,深度学习,影像分析,宫颈癌,乳腺癌骨转移

Abstract

Background

Imaging examinations serve as the predominant screening method in the medical field. As statistics reveal, imaging data constitute over 90% of the entire medical dataset. Nonetheless, clinical cases have demonstrated that mere subjective diagnoses by clinicians often fall short in making definitive judgments on imaging anomalies. Misdiagnoses or undiagnosed conditions, which result in frequent hospital visits and delayed treatment, can profoundly affect patients’ quality of life.

Compared to the traditional subjective image interpretation by clinicians, AI leverages deep neural networks to analyze large-scale imaging and diagnostic data, extracting valuable features for pathology diagnosis, and thus facilitating more accurate decision-making, underpinned by objective data. To emulate clinicians’ diagnostic process that integrates various imaging modalities like CT, MRI, and PET, a cross-modal deep learning methodology is employed. This approach synergistically merges features from different imaging modalities, capitalizing on their unique advantages to enhance model performance.

Given the ample availability of oncologic imaging data, the project exemplifies the efficacy of this approach in cervical cancer segmentation and detection of breast cancer bone metastasis, thereby addressing pragmatic challenges in clinical practice.

Methods

The first part retrospectively analyzed 72,602 slices of FDG-PET/CT scans from 220 cervical cancer patients. Various preprocessing strategies were applied to enhance PET and CT images, including edge detection, adaptive ROI localization, and cross-modal image
fusion. The fused images were then concatenated on a channel-wise basis and fed into the object detection network for the precise segmentation of cervical cancer lesions. Compared to single modality images (either CT or PET) and alternative PET-CT fusion techniques,
the proposed method of PET-CT adaptive fusion was found to significantly enhance the object detection performance of the model. The second part of the study retrospectively analyzed 3,051 CT slices, 3,543 MRI slices and 1,818 PET slices from 233 breast cancer patients, with each case containing whole-body imaging of one to three modalities (CT, MRI, or PET). Initially, YOLOv5 was trained to detect bone metastases in images across different modalities. The confidence levels of the prediction boxes were segregated into eight tiers, following which the number of boxes predicting bone metastases in each imaging sequence was tallied within each confidence tier. This count was then normalized and utilized as a structured feature. The structured features from the three modalities were fused in a cascaded manner for cross-modal fusion. Subsequently, a variety of classification models were then employed to evaluate the structured features for diagnosing bone metastasis. In comparison to feature-transformed single-modal data and the C3D early fusion method, the cross-modal fusion data founded on feature transformation demonstrated superior performance in diagnosing breast cancer bone metastasis.

Results

The first part of our study delivered compelling experimental results, showing a significant improvement in the accuracy of cervical cancer segmentation when using adaptively fused PET-CT images. Our approach outperformed other object detection algorithms based on either single-modal images or multimodal images fused by other methods, with an average accuracy improvement of 6.06% and 8.9%, respectively, while also effectively mitigating false-positive results. These promising test results remained consistent across different object detection models, highlighting the robustness and universality of our adaptive fusion method, which can be generalized in the preprocessing stage of diverse object detection models. The second part of our study demonstrated that cross-modal fusion based on feature transformation could significantly improve the performance of bone metastasis classification models. When compared to algorithms employing single-modal data, models based on cross-modal data had an average increase in accuracy and AUC of 7.9% and 8.5%, respectively. This improvement was further corroborated by the shapes of the ROC and PR curves. Across a range of classification models, feature-transformed cross-modal data
consistently outperformed single-modal data in diagnosing breast cancer bone metastasis. Moreover, late fusion strategies grounded in feature transformation exhibited superior performance in classification tasks when juxtaposed with early fusion methods such as C3D.

Conclusions

This project primarily consists of two parts. The first part substantiates that deep learning object detection networks founded on the adaptive cross-modal image fusion method outperform those based on single-modal images or alternative fusion methods. The second part presents a cross-modal fusion approach based on feature transformation. When the fused features are deployed for classification models, they outperform those utilizing solely single-modal data or the early fusion model. In light of the differences and complementarity in the features of various image modalities, this project underscores the strengths of cross-modal deep learning in lesion segmentation and disease classification. When compared to models trained only on single-modal data, cross-modal deep learning offers superior diagnostic accuracy, thereby serving as an effective tool to assist in clinical decision-making.

Keywords: cross-modal fusion, deep learning, image analysis, cervical cancer, breast
cancer bone metastasis

1. 基于特征匹配的跨模态图像融合的宫颈癌病变区域检测

1.1. 前言

宫颈癌是女性群体中发病率第四位的癌症,每年影响全球近 50 万女性的生命健康[3] 。准确和及时的识别宫颈癌至关重要,是否能对其进行早期识别决定了治疗方案的选择及预后情况[4]。氟代脱氧葡萄糖正电子发射计算机断层显像/电子计算机断层扫描(fluorodeoxyglucose-positron emission tomography/computed tomography, FDG-PET/CT),因其优越的敏感性和特异性,成为了一个重要的宫颈癌检测方式[5] 。由于CT 能够清晰地显示解剖结构,FDG-PET 能够很好地反映局灶的代谢信息形成功能影像,FDG-PET/CT 融合图像对可疑宫颈癌病灶的显示比单独使用高分辨率 CT 更准确,特别是在检测区域淋巴结受累和盆腔外病变扩展方面[6] ,[7] ,[8] 。然而,用传统方法为单一患者的 FDG-PET/CT 数据进行分析需要阅读数百幅影像,对病变区域进行鉴别分析,这一极为耗时的过程已经妨碍了临床医生对子宫颈癌的临床诊断。

随着计算机硬件和算法的进步,尤其是以深度学习[9] 、图像处理技术[10] ,[11] 为代表的机器学习技术的革新,这些人工智能算法在临床医学的许多领域中起着关键作用[12]。基于其强大有效的特征提取能力[13] ,[14] ,深度学习中的卷积神经网络可以通过梯度下降自动学习图像中的主要特征[15 ,极大地提高目标识别的准确性 [16],使深度学习成为计算机图像处理领域的主流技术[17] ,[18]。利用深度学习技术对宫颈癌影像进行分析可以辅助临床医生做出更为准确的判断,减轻临床医生的工作负担,提高诊断的准确性[19]。

目前已经有很多在单一模态图像中(CT 或 PET)基于深度学习技术进行病变检测的工作:Seung等使用机器学习技术依据PET图像对预测肺癌组织学亚型[20];Sasank 进行了基于深度学习算法检测头 CT 中关键信息的回顾性研究[21];Chen 使用随机游走(random walk)和深度神经网络对 CT 图像中的肺部病变进行分割[22] ,[23]。但很少有关于使用跨模态图像融合深度学习方法进行病变检测的研究。

基于 PET/CT 融合图像的病变检测项目包括三个研究任务:区域特征匹配[24],跨模态图像融合[25 和目标病变区域检测[26]。Mattes 使用互信息作为相似性标准,提出了一种三维PET 向胸部CT 配准的区域特征匹配算法[27]。Maqsood 提出了一种基于双尺度图像分解和稀疏表示的跨模态图像融合方案[28]。Elakkiya 利用更快的基于区域的卷积神经网络(Faster Region-Based Convolutional Neural Network, FR-CNN)进行颈部斑点的检测[29]。目前还没有将上述三个研究任务,即区域特征匹配、跨模态图像融合、病变区域检测任务,结合起来的研究工作。

为了减轻临床医生的工作负担,基于跨模态深度学习方法,本项目的第一部分提出了一个统一的多模态图像融合和目标检测框架,用于宫颈癌的检测。

1.2. 研究方法

1.2.1. 研究设计和工作流程

本项目旨在检测 CT 和 PET 图像中宫颈癌的病变区域,工作流程如图 1-1 所示:扫描设备对每位患者进行PET 和CT 图像序列的采集;通过区域特征匹配和图像融合来合成清晰且信息丰富的跨模态图像融合结果;采用基于深度学习的目标检测方法在融合图像中对可疑宫颈癌的病变区域进行目标检测。在图 1-1 的最后一行中,矩形框出的黄色区域及图中右上角放大的区域中展示了检测出的宫颈癌病变区域。

图 1-1 工作流程

img

1.2.2. 跨模态图像融合

图 1-2 展示了跨模态图像融合算法的流程图。根据计算发现两种模态图像的比例和位置不同,如仅进行简单的融合会错误地将处于不同位置的组织影像重叠,从而使组织发生错位,定位不准,产生不可接受的误差。因此,第一部分提出了一种跨模态图像融合策略,其中的步骤包括对感兴趣区域(region of interest, ROI)的自适应定位和图像融合。

在PET 和CT 图像中,自适应ROI定位能够精准识别待分析处理的关键目标,即人体组织影像,然后计算不同模态图像下组织影像之间的比例和位移。依据上述计算结果通过缩放、填充和裁剪的方式来融合 PET 和CT 图像。

图 1-2 CT 和PET 跨模态图像融合算法的流程图

img

1.2.2.1. 自适应ROI 定位

鉴于数据集中 PET 图像与 CT 图像的黑色背景均为零像素值填充,ROI 内非零像素值较多,而 ROI 边缘的非零像素值较少,因此,选用线检测方法来标画两种模态图像中的 ROI,最终标划结果如图 1-2 中的绿色线框出的部分所示,这四条线是 ROI 在四个方向上的边界。在不同方向上计算比例尺。在将 PET 图像放大后,根据ROI实现CT 和PET 图像的像素级对齐。裁剪掉多余的区域,并用零像素值来补充空白区域。如图 1- 3(a)所示,线检测方法从中心点出发,向四个方向即上下左右对非零像素值进行遍历,并记录下行或列上的非零像素值的数量。如图1- 3(b)所示,红色箭头代表遍历的方向。在从 ROI 中心向边缘进行遍历时,沿遍历经线上的非零像素值数量逐渐减少,如果某一线上非零像素值的计数低于预设的阈值,那么意味着该线已经触及到 ROI 的边缘,如图 1- 3(c)所示。然而,如果直接对未经预处理的图像应用线检测方法,会因受模糊边缘及其噪声的影响,得到较差的对齐结果,难以设置阈值。因此,需对PET 和CT 图像单独执行图像增强预处理,以优化 ROI 标化结果,改善跨模态融合效果。

由于PET 和CT 图像具有不同的纹理特征,应用不同的预处理策略,分别对图像进行增强处理,以强化 ROI 的边缘特性,同时消除噪声产生的干扰,再在两种不同模态图像中进行 ROI 定位,如图1-2 所示。

图 1-3 ROI 检测示意图

img

CT 图像是用 X 射线对检查部位一定厚度的组织层进行扫描,由探测器接收透过该层面的 X 射线,经数字转换器及计算机处理后形成的解剖学图像。CT 图像通常比 PET 图像更清晰。为了提取 ROI,需利用图像增强技术对 CT 图像进行预处理:首先,通过图像锐化增强边缘特征和灰度跳变部分,使 CT 图像的边缘(即灰度值突变区域)信息更加突出;由于锐化可能导致一定的噪声,再使用高斯模糊滤波器(Gaussian blur)[30 进行图像平滑去噪,将噪声所在像素点处理为周围相邻像素值的加权平均近似值,消除影响成像质量的边缘毛躁;并执行Canny边缘检测(Canny edge detection )[31 来设定阈值并连接边缘,从而在图像中提取目标对象的边缘。尽管Canny边缘检测算法已包含高斯模糊的去噪操作,但实验证实两次高斯模糊后的边缘提取效果更优。在对图像进行锐化处理后,将提取的边缘图像与高斯模糊后的图像进行叠加。具体地,对两个图像中的每个像素直接进行像素值相加,最终得到边缘更清晰且减轻噪声影响的增强后 CT 模态图像。

PET 图像是基于间接探测到的由正电子放射性核素发射的 γ 射线,经过计算机进行散射和随机信息的校正,形成的影像,能够显示体内代谢活动的信息。尽管PET 可以显示分子代谢水平,但由于成像原理的差异,PET 图像相较于 CT 图像显得模糊。对PET 的预处理方式与对CT 图像的类似,但省略了高斯模糊处理图像噪声的步骤,因为在锐化 PET 模态图像后产生的噪声较少,为防止有效特征信息的丢失,略过这一环节。

为了将两个模态的图像进行区域特征匹配,使用PET 和CT 图像中的矩形ROI框来计算缩放比例和位移参数,并通过缩放、填充和裁剪操作对PET 和CT 图像中的ROI 进行对齐。

1.2.2.2. 图像融合

CT 和 PET 图像的尺寸分别为 512×512 像素和 128×128 像素,ROI 特征区域位于图像的中心位置。通过缩放、零值填充和剪切,放大PET 图像的尺寸以与CT 图像的尺寸保持一致,并且将两个模态图像之间的 ROI 对齐,以便后续的融合处理。经处理的PET 和CT 图像转化为灰度形式,分别进行加权和图像叠加,将其置于不同通道中,作为网络的输入层。由于 PET 图像能展示体内分子层面的代谢水平,其对于肿瘤检测的敏感性高于CT 图像。因此,本研究的图像融合方法为PET 图像的ROI 分配了更多权重,以提高宫颈癌检测任务的表现。

图 1-4 比较了本项目提出的自适应图像融合的结果和直接融合的结果,选取人体不同部位的 CT、PET 和 PET/CT 图像的融合结果进行展示。第一和第二列分别展示了未经处理的原始 CT 和 PET 图像。简单融合算法仅将两个图像的像素点相加,并未执行特征匹配过程,得到的融合图像无任何实用价值。由于通道拼接融合后的图像转变为高维多模态数据,而非三通道数字图像,因此图 1-4 并未展示通道拼接融合方法所得图像。而本项目提出的自适应图像融合方法实现了跨模态图像的精准融合,可用于进一步的观察和计算。

图 1-4 不同图像融合方式的可视化结果

img

1.2.3. 宫颈癌病变区域检测

先由两位临床医生对跨模态融合图像中的病变区域进行人工标注,并训练YOLOv5 [32] 目标检测网络来识别融合图像中的病灶区域,如图 1-5 所示。模块骨架用于提取图像的深层特征,为减少通过切片操作进行采样过程中的信息损失,采用聚焦结构,并使用跨阶段局部网络(cross-stage partial network, CSPNet)[33] 来减少模型在推理中所需的计算量。头模块用于执行分类和回归任务,采用特征金字塔网络(feature pyramid network, FPN)和路径聚合网络(path aggregation network, PAN)[34]。

为了提高对极小目标区域的检测效果,输入层采用了mosaic数据增强(mosaic data augmentation)[35] 方法,将四个随机缩放、剪切和随机排列的图像拼接在一起。模块骨架包括 CSPNet 和空间金字塔池化(spatial pyramid pooling, SPP)[36] 操作。输入图像通过三个 CSP 操作和一个 SPP 操作,生成了一个四倍于原始大小的特征图。头模块有三个分支网络,分别接收来自不同层的融合特征、输出各层的边界框回归值和目标类别,最后由头模块合并分支网络的预测结果。

图 1-5 目标检测网络结构

img

1.3. 实验

1.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2010 年 1 月至 2018 年 12月期间在国家癌症中心中国医学科学院肿瘤医院被诊断为原发性宫颈癌的患者 2)有FDG-PET/CT 图像;3)有电子病历记录。总共入组了 220 名患者,共计 72,602 张切片图像,平均每位患者有 330 张切片图像入组实验。其中,CT 切片图像的高度和宽度均为512 像素,而PET 切片图像的高度和宽度均为128 像素,每个模态的数据集都包含了6,378张切片图像,即平均每位患者有29张切片图像,用于训练和测试。在入组进行分析之前,所有患者数据都已去标识化。本研究已获得北京协和医学院国家癌症中心伦理委员会的批准。

该数据集包含220 个患者的全身 CT 和全身 PET 图像数据,因入组的每位患者均确诊为宫颈癌,数据集中各例数据均包含病变区域,如表 1-1 所示。鉴于所有患者的CT 和PET 均在同一时间且使用相同设备采集,因此 CT 和PET 展示的解剖信息与代谢信息来自同一时刻患者身体的同一区域,其特征具有一对一对应且可匹配的特性。根据肿瘤大小、浸润深度、盆腔临近组织侵犯程度、腹盆腔淋巴结转移的情况可将宫颈癌的进展程度进行分期,主要包括四期,每期中又进一步细分为更具体的期别。国际妇产科联盟(International Federation of Gynecology and Obstetrics,
FIGO)于 2018 年 10 月更新了宫颈癌分期系统的最新版本[37]。本项目数据集囊括了 FIGO 分期全部四个期别的宫颈癌影像。为了保持训练和测试的公平性,纳入训练集和测试集的不同期别影像的分布,即不同 FIGO 分期的划分比例,需保持一致,否则可能会导致某些 FIGO 期别的数据集无法进行训练或测试。因此,在保证处于不同期别的患者数据的划分比例的基础上,采用五折交叉验证方法将220 名患者的数据进行五等分,每个部分大约包括了 45 例患者的数据,在每轮验证中随机选择一个部分作为测试集。所有模型都需要进行5 次训练和评估,以获取在测试集上表现出的性能的平均值和标准差。

表 1-1 数据集中的病例数及临床分期

img

1.3.2. 模型训练过程

在按上述步骤准备好数据集后,首先将图像从 512×512 像素调整为 1024×1024像素,然后使用多种数据增强方法,包括 mosaic 增强[38]、HSV(Hue, Saturation, Value)颜色空间增强[39]、随机图像平移、随机图像缩放和随机图像翻转,增加输入数据集对噪声的鲁棒性。在每次卷积后和激活函数前进行批归一化(Batch Normalization, BN)[40] 。所有隐藏层都采用 Sigmoid 加权线性单元 (Sigmoid-Weighted Linear Units, SiLU)[41 作为激活函数。训练模型所用的学习率设置为 1e-5,并在起始训练时选择较小的学习率,然后在 5 个轮次(epoch)后使用预设的学习
率。每个模型使用PyTorch 框架在4 个Nvidia Tesla V100-SXM2 32G GPU 上进行50个轮次的训练。使用 0.98 的动量和 0.01 的权值衰减通过随机梯度下降法(Stochastic Gradient Descend, SGD)来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。所有实验中的性能测量都是在采用最优参数设置的模型中对测试集进行测试得到的,详见表 1-2。

为了进一步证明本项目所提出的模型的普适性,选择了六个基于深度学习的目标检测模型作为基准,并测试了所有模型在输入不同的图像融合结果时的性能。每个模型的输入完全相同,而唯一的区别是神经网络中的超参数来自每个模型的官方设置,而这些超参数因模型而异。

表 1-2 网络训练的超参数

img

1.3.3. 评价指标

本项目使用“准确度精值50”(Accuracy Precision 50, AP50)来评估目标检测的性能。AP50 是当交并比(Intersection over Union, IOU)阈值为0.5 时的平均精度,如公式3所定义,其中P和R分别是精度(Precision)和召回率(Recall)的缩写。模型的预测结果会有不同的召回率和精度值,这取决于置信度阈值。将召回率作为横轴,精度作为纵轴,可以绘制 PR 曲线,而 AP 是该曲线下的面积。IOU 是将真实标注区域和模型预测区域的重叠部分除以两区域的集合部分(即真实区域和预测区域的并集)得到的结果,如公式4 所示。精度和召回率的计算方式分别在公式1 和2 中列出,其中真正例表示预测为正例的正样本,假正例和假负例代表的概念以此类推。精度表明在模型预测结果里,被判断为正例的样本中有多少实际是正例,而召回率表示实际为正例的样本中多少被预测为正例。表 1-3 记录了图像数据集交叉验证后各个目标检测模型的 AP50 的平均值和方差。

img

1.3.4. 目标检测模型的结果与分析

本项目采用不同的目标检测模型,包括单阶段目标检测模型(YOLOv5 [32]、RetinaNet[42]、ATSS [43 )和二阶段目标检测模型(Faster-RCNN [44
、CascadeRCNN [45]、LibraRCNN[46]),在五折交叉验证下比较了使用 CT 图像、PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像(concat fusion)和本项目所提出的 PET-CT自适应区域特征融合图像作为输入数据集时,每个模型的目标检测性能。其中,CT和PET是单模态图像,而PET-CT简单融合图像、PET-CT通道拼接图像和PET-CT 自适应区域特征融合图像是跨模态融合图像。简单融合是指将 PET 图像简单地缩放到与 CT 图像相同的大小后进行像素值的叠加,而通道拼接融合是直接将两种模态图像在通道上串联在一起作为网络的输入。

如表 1-3 所示,加粗的数字代表每行中最好的实验结果。与使用单一模态数据进行肿瘤检测模型分析(如只使用CT 或PET 图像)相比,本项目所提出的自适应跨模态图像融合方法在目标检测任务中展现出了更高的检测精度。由于自适应融合方法能够在跨模态融合之前将两种模态图像的信息进行预对齐,对 CT 图像和PET图像的结构特征进行一一配准,因此,与简单融合方法和通道拼接融合方法相比,自适应融合方法的性能最佳。上述针对不同模态图像及使用不同跨模态融合方法作为输入得到的测试性能结果在使用不同的目标检测模型的情况下保持一致,这表明本项目所提出的跨模态自适应融合方法有良好的通用性,可以泛化应用到各种目标检测模型的预处理中。

表 1-3 五折交叉验证目标检测实验的结果(“*” 表示交叉验证中的某一折在训练过程中出现梯度爆炸,数值为目标检测模型的 AP50 的均值和方差)

img

图 1-6 将不同模态图像下目标宫颈癌病变区域的检测结果和实际标注的癌灶区域进行了可视化。其中绿色框是由医师标注的真实病变区域,黄色框是目标检测模型的预测结果。分析图像模态信息可知,CT 图像既包含了人体正常结构的信息,也包含病灶的解剖信息,前者可能会干扰宫颈癌病变区域特征的识别和检测。因此,在单一 CT 模态下会有一些漏检。与 CT 模态的预测框相比,PET 模态下的预测框与标注框的 IOU 更高,或许是由于 PET 影像有更多能表现宫颈癌区域特征的信息。在 PET-CT 区域特征跨模态融合图像中检测效果最佳,因为 PET-CT 融合图像融合了两种模态的不同特征,从而大大提高检测的准确性。

图 1-6 跨模态融合图像的目标检测结果

img

1.4. 讨论

本项目旨在评估深度学习算法是否可以跨模态融合 FDG-PET 和 CT 图像,并在融合图像中实现宫颈癌病灶区域的自动检测。我们提出了一个基于跨模态融合图像的检测框架,包括区域特征匹配、图像融合和目标检测等步骤。融合 CT 和PET 图像可以最大程度地提取各个模态中包含的信息,因此 PET-CT 跨模态融合图像含有丰富的解剖和功能信息。目标检测实验证明,本项目提出的跨模态融合方法得到的融合图像显著提高了目标检测的准确性,相比单模态和其他融合方法得到的多模态图像,目标检测平均精确度分别提高了 6.06%和8.9%。

表 1-3 展示了基于不同的图像融合方法形成的多模态图像,不同检测模型在五折交叉验证下的结果。因在解剖和功能影像中均有异常表现的区域更可能是癌变,我们推测,图像信息对齐有利于对宫颈癌病灶的目标区域检测。图 1-6 展示了在不同目标检测模型和不同输入图像数据模态下目标检测效果的可视化图像。基于本项目提出的跨模态融合方法生成的图像进行的目标检测的检测结果更为准确,并消除了一些假阳性结果。根据医生的日常诊断习惯,生成了以红色和黄色为主色的融合图像。

利用 FDG-PET/CT 对宫颈癌进行及时、准确的分期能够影响患者的临床治疗决策,进而延缓疾病进展,并减少肿瘤治疗相关的整体财务负担[47] 。对 FDG-PET/CT 图像的解释在很大程度上依赖临床上获得的背景信息,并需要综合临床分析来确定是否发生癌症的浸润和转移[48]。在某些情况下,核医学科阅片医师可以迅速识别局部扩展和淋巴栓塞。而多数情况下,核医学科医师分析一位患者的FDG-PET/CT 影像学检查结果平均需要三个小时。比起占用医师昂贵且稀缺的时间,利用计算机进行此项工作既能节约成本,预计耗时又短,且可以全天候运行。本项目的目标是通过人工智能方法实现PET 和CT 图像的自动融合,并利用目标检测技术识别宫颈癌的浸润和转移,作为辅助工具加速 FDG-PET/CT 的阅片过程,从而使临床医生能够在最短的时间内按照 FIGO 指南对宫颈癌进行分期。

这项研究仍存在一些局限性。虽然本项目对基于 PET-CT 自适应融合图像的目标检测方法与其他最先进的基于深度学习的目标检测方法进行了比较,但将该方法拓展应用到其他病种的影像学分析的可行性仍需评估。此外,我们提出的跨模态融合框架在图像融合时并未考虑每种模态图像的权重分布。未来可以设计一种特殊的损失函数来调整 ROI 内每个像素的权重分布,以提高目标检测结果的准确性。

1.5. 结论

本项目提出了一种基于跨模态图像融合的多模态图像进行病变区域检测的深度学习框架,用于宫颈癌的检测。为了应对医学影像中单一模态图像在肿瘤检测方面的性能不足,提出了一种基于区域特征匹配的自适应跨模态图像融合策略,将融合后的多模态医学图像输入深度学习目标检测模型完成宫颈癌病变区域检测任务,并讨论了深度学习模型在每种模态图像输入间的性能差异。大量的实验证明,与使用单一模态的影像及基于简单融合方法或通道拼接融合方法的多模态影像相比,自适应融合后的多模态医学图像更有助于宫颈癌病变区域的检测。

本项目所提出的技术可实现 PET 和CT 图像的自动融合,并对宫颈癌病变区域进行检测,从而辅助医生的诊断过程,具备实际应用价值。后续将基于第一部分的目标检测模型基础,利用特征转换的方法,将图像数据转换为结构数据,将跨模态融合方法应用于分类问题。

2. 基于特征转换的跨模态数据融合的乳腺癌骨转移的诊断

2.1. 前言

骨骼是第三常见的恶性肿瘤转移部位,其发生率仅次于肺转移和肝转移,近 70%的骨转移瘤的原发部位为乳腺和前列腺[49] ,[50] 。骨转移造成的骨相关事件非常多样,从完全无症状到严重疼痛、关节活动度降低、病理性骨折、脊髓压迫、骨髓衰竭和高钙血症。高钙血症又可导致便秘、尿量过多、口渴和疲劳,或因血钙急剧升高导致心律失常和急性肾功能衰竭[51 。骨转移是乳腺癌最常见的转移方式,也是患者预后的分水岭,其诊断后的中位生存期约为 40 个月[52] ,[53] 。因此,及时发现骨转移病灶对于诊断、治疗方案的选择和乳腺癌患者的管理至关重要。目前,病灶穿刺活检是诊断骨转移的金标准,但鉴于穿刺活检有创、存在较高风险、且假阴性率高,临床常用影像学检查部分替代穿刺活检判断是否发生骨转移。

Batson的研究表明,乳腺的静脉回流不仅汇入腔静脉,还汇入自骨盆沿椎旁走行到硬膜外的椎静脉丛[54] 。通过椎静脉丛向骨骼的血液回流部分解释了乳腺癌易向中轴骨和肢带骨转移的原因。因潜在骨转移灶的位置分布较广,影像学筛查需要覆盖更大的区域,常要求全身显像。常用的骨转移影像诊断方法包括全身骨显像(whole-body bone scintigraphy, WBS)、计算机断层扫描(computed tomography, CT)、磁共振成像(magnetic resonance imaging, MRI)和正电子发射断层显像(positron emission tomography, PET)[55]。CT 可以清晰地显示骨破坏,硬化沉积,和转移瘤引起软组织肿胀;MRI 具有优异的骨和软组织对比分辨率;因 [18F] 氟化钠会特异性地被骨组织吸收、代谢, PET 可以定位全身各处骨代谢活跃的区域。然而,单一模态影像常不足以检测骨转移,且用传统方法综合单一患者的 CT、MRI、PET 数据筛查骨转移病灶需要对上千幅影像进行解读,这一极为耗时的过程可能影响临床医生对乳腺癌骨转移的诊断,造成误诊、漏诊。而骨转移的漏诊会误导一系列临床决策,导致灾难性后果。

作为一种客观评估体系,人工智能辅助骨转移自动诊断系统通过减少观察者间和观察者内的变异性,提高了诊断的一致性和可重复性,降低了假阴性率。在减轻临床医师的工作负担的同时,提高诊断的准确性。目前已经有很多在单一模态图像中(CT、MRI 或 PET)基于深度学习技术进行骨转移病变检测的工作: Noguchi 等人开发了一种基于深度学习的算法,实现了在所有 CT 扫描区域中对骨转移病灶的自动检测 [56];Fan 等人用 AdaBoost 算法和 Chan-Vese 算法在 MRI 图像上对肺癌的脊柱转移病灶进行了自动检测和分割肺[57];Moreau等人比较了不同深度学习算法在 PET/CT 图像上分割正常骨组织和乳腺癌骨转移区域的性能[58] 。但很少有使用跨模态数据融合的深度学习方法,判断是否存在骨转移灶的相关研究。

旨在减轻临床医生的工作负担,本章提出了基于特征转换的跨模态数据融合方法,用于分析 CT、MRI 和 PET 图像,以判断其中是否存在乳腺癌骨转移病灶。

基于特征转换的 CT、MRI 和 PET 跨模态图像数据融合,进行骨转移病变分类(即存在骨转移病灶和不存在骨转移病灶两类)项目包括三个研究任务:目标病变区域检测,特征构造及转换和分类任务。具体地,采用目标检测模型对不同模态的医学图像序列数据进行单独的骨转移瘤目标检测,再对这些检测结果进行特征提取。所提取的特征包括不同模态下检测结果置信度的区间占比、检测框的面积大小、检测框在图像中的空间位置分布等。这些特征被整理成结构化数据格式,完成了从非结构化影像数据到结构化数据特征的特征转换和融合过程。最后,将转换后的特征输入分类模型进行分类任务。实验比较了基于特征转换的跨模态数据融合方法在乳腺癌骨转移肿瘤分类任务的性能,与仅使用单模态数据执行分类
任务的性能。同时,还将本项目提出的基于特征转换的融合策略与其他融合方法进行了对比。

2.2. 研究方法

2.2.1. 研究设计和工作流程

本项目旨在判断 CT、MRI、PET 图像序列中是否存在乳腺癌骨转移病灶。工作流程如图 2-1 所示:扫描设备对每位患者进行 CT、MRI 或 PET 图像序列的采集;使用目标检测模型分别在不同模态图像中对可疑乳腺癌骨转移灶进行目标检测;对检测结果进行特征提取、构造和融合,得到具有可解释性的结构化医疗数据;用分类模型对结构化数据进行分类任务,得出预测结果,从而判断乳腺癌骨转移是否发生。

图 2-1 工作流程

img

2.2.2. 骨转移目标区域检测

先由两位临床医师对多模态数据集图像中的骨转移病灶进行人工标注,并对患者进行分类(标签分为乳腺癌骨转移和非乳腺癌骨转移),并训练 YOLOv5 目标检测网络,以识别各个单一模态图像中的乳腺癌骨转移病灶。

2.2.3. 基于特征转换的跨模态数据融合

在本项目的数据集中,各种模态序列影像的扫描范围均涵盖了患者的全身。某患者的影像序列(不论是单模态图像还是多模态图像)中检测到含有骨转移病灶的切片图像数量越多,则意味着该患者发生乳腺癌骨转移的概率越大。根据这一基本推理,采用后融合方法,将一个影像序列中含有肿瘤切片图像的比例(百分比)作为结构化的数据特征,作为后续分类任务的依据。

具体操作如下:在每个模态的图像中完成骨转移区域的目标检测任务训练后,统计每个图像序列中检测到转移瘤目标区域的检测框数量。按照检测框的置信度划分为 8 个区间:10%~20%、20%~30%、30%~40%、40%~50%、50%~60%、60%~70%、70%~80%和大于 80%。在每个区间内,分别统计各模态图像序列中转移瘤检测框数量,再除以该序列中切片图像的总数,得到每个置信度区间内每种模态图像序列中含有转移瘤检测框的百分比。接着将三种模态图像提取出的统计特征拼接,组成结构化数据,实现跨模态数据融合。若患者缺失某种模态数据,相应的统计特征(百分比)将被置为零。特征转换后的结构化数据如图 2-2 所示,每种模态数据包括 8 个特征,即不同的置信区间,最后一列为标签值,其中“0”表示负例,“1”表示正例。

图 2-2 特征转换后的结构化数据

img

2.2.4. 乳腺癌骨转移的分类模型

利用构建好的结构化医疗特征进行乳腺癌骨转移分类任务,融合跨模态图像数据特征判断是否发生乳腺癌骨转移。本项目采用分类模型主要以模式识别基础模型为主,包括SVM[59]、AdaBoost[60]、RandomForest[61]、LightGBM[62]、GBDT[63]。SVM 是一种基于核函数的监督学习模型,用于解决分类问题,通过寻找最优超平面在特征空间中将样本分为不同类别,决策函数映射输入特征到输出标签,核函数将特征映射到新空间,损失函数度量决策函数性能,最大化超平面与样本间距离实现分类,可使用不同核函数处理高维特征。Adaboost 是一种迭代算法,于1995 年由 Freund Y 等人提出,能够将多个弱分类器结合成一个强分类器,通过选择初始训练集、训练弱分类器、加权重新分配样本和重复训练直到训练完成所有弱学习器,最后通过加权平均或投票得出最终决策。由 Breiman L 等人于 2001 年提出得 RandomForest 是一种基于决策树的机器学习算法,可用于分类和回归任务。通过构建多个决策树并对它们的预测结果进行平均或投票来得出最终预测结果,训练过程中随机选择特征,以避免过拟合并减少计算量。机器学习模型 LightGBM是一种基于决策树的梯度提升机算法,由Ke G 等人在2017 年提出,适用于结构化数据的分类任务。具有高效、内存友好、支持并行处理和多 CPU 等特点,能快速处理大量特征,通过基于直方图的决策树算法减少训练时间和内存使用量。通过损失函数的泰勒展开式来近似表示残差来计算损失函数。由 Friedman J H 等人于2001 年提出的 GBDT 是一种迭代的决策树算法,通过构建多个决策树来拟合目标函数,每一步都在上一步的基础上构建新的决策树,以不断减小误差,流程包括选取子集、训练弱学习器、梯度下降法最小化误差,最终将弱学习器加入总体模型,重复以上步骤直至达到最优解。

2.2.4.1. 基于C3D 的跨模态数据融合分类模型

本项目采用C3D[64 分类模型作为对照模型,基于3D 卷积神经网络的深度学习方法,使用跨模态数据融合中的前融合策略。如图 2-1 所示,该融合策略从每个模态的图像序列中筛选出一部分,合并一个完整的多模态图像序列,并在通道上进行级联,进行跨模态数据融合。融合后的数据作为 3D 卷积神经网络的输入,经过多个 3D 卷积层提取特征,最终在全连接层中执行分类任务,以判断影像中是否存在乳腺癌骨转移病灶。

2.3. 实验

2.3.1. 临床信息和影像数据集

本项目选取符合以下条件的患者开展研究:1)于 2000 年 01 月至 2020 年 12月期间在北京协和医院或国家癌症中心中国医学科学院肿瘤医院被诊断为原发性乳腺癌的患者 2)有全身 CT 或 PET 或 MRI 其中任一模态的全身影像数据;3)有电子病历记录。入组患者中有145名被确诊为乳腺癌骨转移,作为正例样本,有88名患者未发生乳腺癌骨转移,作为负例样本。每例样本数据包含一至三种不同模态的图像序列,其图像尺寸和切片图像数量各异。乳腺癌骨转移的多模态医学图像数据集对患者的全身进行采样,由于患者的 CT、MRI 或 PET 是不同时间、在不同设备上采集的,不同模态间的特征并非一一匹配。其中,CT 模态共有3051 张切片,MRI 模态共有 3543 张切片,而 PET 模态共有 1818 张切片。在入组进行分析之前,所有患者数据都已去标识化。本研究已通过北京协和医院伦理委员会批准。

该数据集可以用于执行目标检测任务和分类任务。

骨转移目标检测任务仅分析数据集中的正例样本,进行五折交叉验证:将 145例患者的数据按模态分为三组(CT组、MRI组、PET组),在每个组内对数据进行五等分,在每轮验证中选取一部分作为测试集。为获得测试性能的平均值,所有模型都需进行5 次训练和评估。

在利用结构化数据执行分类任务时,需要平衡正负样本数量,因此要扩充数据集。将具有多种模态的样本拆分为包含较少模态的样本,如将“CT+MRI+PET”类型拆分为“CT+MRI”或“CT+PET”等。如表 2-1 所示,扩充后共有 380 例样本数据,包括188 个正样本和 192 个负样本。下一步,合并五折交叉验证的目标检测结果,此后,进行特征构建和转换,从而获得适合跨模态数据融合和分类任务的结构化数据;对于负样本数据,也需要在合并骨转移目标检测模型的推理结果后,对数据进行结构化处理。

为证实在乳腺癌骨转移判断的分类任务中,基于特征转换的跨模态融合数据性能优于单一模态数据,需要进行多模态融合数据与单模态数据的对照实验。如表 2-1 所示,单模态数据包括仅有 CT、仅有 MRI 和仅有 PET 三种类型的数据集合,总计 212 个样本,而多模态数据涵盖了CT+MRI、CT+PET、MRI+PET 和CT+MRI+PET 四种类型,共计 168 个样本。分别对单模态数据和多模态数据进行独立划分,将每种模态数据进行五等份,进行五折交叉验证。在每轮验证中,选择一部分作为测试集。利用 SVM、AdaBoost、RandomForest、LightGBM、GBDT以及 C3D 模型进行实验,每个模型都需进行 5 轮训练和评估,以获得测试集上性能的平均值。

为适应 C3D 模型对图像统一尺寸的要求,针对不同患者切片数量、大小的差异,进行预处理。在每种模态图像序列中等间隔抽取 60 张图像切片,并进行缩放,使其组合为 180 张 128×128 像素的切片。对于缺失的模态数据,用 60 张零像素值的黑色图像切片进行填充。从 180 张切片中随机选取一个起始位置,连续抽取 120张切片作为模型的最终输入,确保输入尺寸为 128×128×120 像素。

表 2-1 扩充后的分类数据集

img

2.3.2. 模型训练过程

在按上述步骤准备好数据集后,进行目标检测任务训练时,将每个模态的图像大小统一到1024×1024像素,然后使用多种数据增强方法,增加输入数据集对噪声的鲁棒性。

目标检测模型采用 YOLOv5 模型模型并使用 PyTorch 深度学习框架在 2 个Nvidia Tesla V100-SXM2 32G GPU 上进行 70 个轮次的训练。初始学习率为 0.00001,使用 0.98 的动量和 0.01 的权值衰减通过 SGD 来优化各网络层的权重目标函数。在训练过程中,网络在验证集上达到最小的损失时,选择最佳参数。

进行分类任务时,采用 LightGBM、GBDT、AdaBoost、RandomForest 以及SVM,上述模型均为机器学习模型,其超参数对模型预测结果影响较大,在分类任务中,采用SVM、AdaBoost、RandomForest、LightGBM以及GBDT等机器学习模型。因其超参数会对预测结果产生较大影响,在训练过程中,使用网格搜索策略为这些模型寻找最佳参数。网格搜索策略在一定范围的超参数空间内寻找最佳的超参数组合,通过枚举各种可能的组合并评估模型预测结果,最终选择表现最优的超参数组合。要搜索的超参数包括学习率、树的最大深度、叶子节点数量、随机抽样比例、权重的L1正则化项和权重的L2正则化项等。实验结果将基于最优超参数设定下的预测模型。模型训练的网络结构图如图 2-3 所示。

用于对照的 C3D 模型使用 PyTorch 深度学习框架在 1 个 NVIDIA Tesla V100-SXM2 32GB GPU 上训练 100 个轮次,初始学习率为 0.00001,使用动量为 0.9,权值衰减为0.0005 的 SGD 梯度下降优化器对各网络层权重的目标函数进行优化。

图 2-3 网络结构图

img

2.3.3. 评价指标

本项目中的骨转移目标检测任务采用 AP50 作为评价指标,其介绍详见上一章节。

而在分类任务中,采用准确率(Accuracy, Acc)、敏感性(Sensitivity, Sen)、特异性(Specificity, Spe)、AUC(Area Under Curve, AUC)作为评价指标,并采用ROC 曲线和PR 曲线对模型进行评估。准确率是指对于给定的测试集,分类模型正确分类的样本数占总样本数的比例,如公式 5 所示,其中真正例(True Positive, TP)表示预测为正例且标签值为正例,假正例(False Positive, FP)表示预测为正例但标签值为负例,和假负例(False Negative, FN)和真负例(True Negative, TN)代表的概念以此类推。如公式 64 和公式 7 所示,敏感性和特异性的定义分别为:预
测正确的正例占所有正例的比例,以及预测正确的负例占所有负例的比例。ROC曲线是一种评估二分类模型的方法,其横轴为假阳性率(False Positive Rate,FPR),其计算方式与上一章的召回率(Recall)相同,纵轴为真阳性率(True Positive Rate,TPR),TPR 和 FPR 的计算方式详见公式 8 和公式 9。ROC 曲线展示了在不同阈值下,TPR 与 FPR 的变化关系。因为左上角点对应的假阳性率为 0,真阳性率为 1,表明模型将所有正例样本分类正确,且未将任何负例样本误判为正例。若 ROC 曲线靠近左上角,提示模型性能较好。AUC代表ROC曲线下的面积,即从(0,0)到(1,1)进行积分测量ROC曲线下二维区域的面积。AUC综合考虑所有可能的分类阈值,提供了一个全面的性能度量。AUC 值表示随机从正负样本中各抽取一个,分类器正确预测正例得分高于负例的概率。AUC 值越接近 1,说明模型性能越优秀。PR曲线的绘制方法详见上一章, PR曲线在不同分类阈值下展示了分类器在精度(Precision, P)和召回率(Recall, R)方面的整体表现。

img

2.3.4. 单模态骨转移灶检测模型及基于特征转换的跨模态分类模型的结果与分析

本项目对乳腺癌骨转移多模态医学图像数据集(包括 CT、MRI、PET)进行了单模态肿瘤检测实验和基于特征转换的跨模态病例分类实验。其中,单模态肿瘤检测实验是多模态肿瘤分类实验的前置步骤。

采用单阶段目标检测模型 YOLOv5,在五折交叉验证下比较了使用单模态 CT图像、PET图像、MRI图像作为输入数据集时,模型的目标检测性能。并在将目标检测结果进行特征转换后,采用不同的分类模型,包括后融合分类模型(LightGBM、GBDT、AdaBoost、RandomForest、SVM) 和 前 融 合 分 类 模 型(C3D),在五折交叉验证下比较了使用单模态数据和跨模态融合数据作为输入时,每个模型的分类性能。

表 2-2 展示了在不同单一模态数据上,五折交叉验证得到的骨转移病灶检测结果,评估指标为 AP50。实验结果表明,PET 模态的检测精度较高,而 CT 模态的检测精度最低。输入数据量较少、检测目标面积小、转移瘤的特征难以与正常骨组织区分是提高检测精度的难点。图 2-4 不同单一模态图像下目标骨转移病变区域的检测结果和实际标注的癌灶区域进行了可视化。绿色框由医师标注,目标检测模型标注的预测框为黄色。

表 2-2 单模态骨转移灶检测五折交叉验证结果

img

图 2-4 可视化单模态目标检测结果

img

将 CT、MRI 和 PET 的数据组成单模态子数据集进行单模态分析,而将两种及两种以上的数据组成跨模态子数据集进行多模态分析。表 2-3 和表 2-4 展示了在上述两种子数据集中进行五折交叉验证的结果,对比了6 种不同模型每一折的准确率、AUC,及其平均值。这 6 类模型中的前 5 种模型使用后融合策略,而作为对照的C3D 模型采用前融合策略。对比表 2-3 和表 2-4 的实验结果可知,在任一模型(包括前融合模型)中,基于特征转换的跨模态融合数据在乳腺癌骨转移分类任务上相较于仅使用单模态数据的性能有所提高:平均准确率提高了7.9%;平均AUC 提高了8.5%。如表2-5 和2-6 所示,跨模态融合方法比单模态方法的平均敏感性提高了7.6%,平均特异性提高了 9.4%。

表 2-3 基于单模态子数据集进行分类任务的准确率和 AUC

img

表 2-4 基于跨模态子数据集行分类任务的准确率和 AUC

img

表 2-5 单模态数据分类的敏感性和特异性

img

表 2-6 跨模态融合数据分类的敏感性和特异性

img

图 2-5 和图 2-6 分别展示了 6 个模型利用单模态数据进行分类实验和利用特征转换和融合后的跨模态数据进行分类实验的 PR 曲线。可以根据曲线形状和曲线下方面积来评估不同模型的性能表现,曲线下面积越大,提示模型的性能越优秀。综合观察单模态和跨模态分类实验的P-R曲线图,可以发现,基于跨模态数据的分类任务的P-R 曲线下面积大于基于单模态数据的分类任务的P-R 曲线下面积,提示跨模态数据作为输入时分类模型的表现更加出色。

比较基于单模态数据进行分类的模型的 P-R 曲线,可见 3D 卷积网络的训练方式相较于其他后融合模型的性能表现更优。然而,在基于跨模态数据进行分类的模型的 P-R 曲线中,基于特征转换的跨模态后融合策略相对于基于 3D 卷积的前融合方法具有更好的性能。

图 2-5 基于单模态数据不同分类模型的的PR 曲线

img

图 2-6 基于跨模态数据不同分类模型的的PR 曲线

img

图 2-7 和图 2-8 展示了 6 种分类模型在使用单模态数据进行分类实验和使用跨模态数据进行分类实验的情况下的ROC 曲线。通过对比观察六个模型的ROC 曲线的形状和面积来评估不同模型的性能。靠近左上角的 ROC 曲线表示假阳性率接近0,真阳性率接近 1,趋近于左上角的 ROC 曲线提示模型性能优越。对比图 2-7 和图 2-8 可知,使用基于特征转换的跨模态数据的骨转移病例分类模型的性能更为优越。

图 2-7 基于单模态数据不同分类模型的的ROC 曲线

img

图 2-8 基于跨模态数据不同分类模型的的ROC 曲线

img

本文提出的跨模态数据融合方法是基于特征转换的后融合策略,相较于前融合策略具有更好的性能。实验表明,无论采用前融合或后融合策略,基于跨模态融合数据的实验都表现出了显著的优势。相较于多模态数据,单一模态数据所捕获的特征较为单一(如仅有结构信息) ,可能由于缺乏关键和全面的特征信息导致模型性能不佳,而跨模态融合方法则能从不同模态中获取更多的有效特征,并将其融合,从而提高准确率。

2.4. 讨论

本项目旨在评估基于特征转换的跨模态数据融合方法是否可以跨模态融合 CT、MRI 和 PET 图像的有效特征,以对乳腺癌患者进行是否发生骨转移的评估。本项目提出了一个基于特征转换的跨模态融合图像数据框架,用于对骨转移病变进行分类,包括目标病变区域检测、特征构造及融合形成可解释的结构化数据以及跨模态融合数据分类步骤。融合 CT、MRI 和 PET 的转换特征数据能够充分利用各个模态中的信息,为分类任务提供更多的数据支持,并增加辅助判断的特征线索。基于特征转换的跨模态病例分类实验证明,本项目提出的跨模态融合数据显著提高了对影像序列进行二分类任务的性能,相较于单模态数据,平均准确率和 AUC分别提高了7.9%和 8.5%。

如表 2-2 所示,单模态目标检测模型在 PET 图像中的检测精度较高,而在 CT和 MRI 图像中的精度相对较低。图 2-4 展示了在 YOLOv5 目标检测模型中不同单一输入图像模态下乳腺癌骨转移检测效果的可视化图像。分析各种图像模态信息可知,CT 和 MRI 图像不仅包含病灶的解剖信息,还包含了人体正常组织的结构信息,而后者可能会干扰宫颈癌病变区域特征的识别和检测,导致单一CT或MRI模态下出现漏检现象。与之不同,PET图像展示的是组织代谢信息。骨转移病灶通常伴随着频繁的成骨和破骨活动,在 PET 影像中呈高代谢,而正常骨组织的代谢相对较缓慢,通常不会显示在图像中。因此,PET 对背景组织的干扰较 CT、MRI 更不敏感,有助于目标检测模型识别异常代谢区域。因早期无症状骨转移病灶通常体积较小,可能因目标区域面积过小影响目标检测结果。在模型处理过程中,池化(pooling)操作可能导致特征或图像信息的损失,从而造成特征缺失。为了克服这一问题,后续研究可以关注提高模型在处理小目标区域时的性能。

表 2-4 和表 2-6 展示了在各种分类模型中,基于跨模态结构化数据在五折交叉验证下的分类性能。通过对比分析发现,相对于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在性能方面有所提高。医学影像数据有数据量较少、维度高、结构复杂以及样本识别难度大等特点,这导致将特征提取任务交由模型完成,直接输入原始数据或经过简单预处理的数据,让模型自主进行特征提取并生成最终输出的这种端到端的前融合方法效果不尽如人意。由于患者在体型、身高等方面的个体差异,一个图像序列内的CT和MRI切片数量也有所不同。因此,需要对图像进行归一化处理,将其转换为统一的标准格式,如调整到相同尺寸、修正切割后图像中心的位置等。归一化操作旨在对数据进行统一格式化和压缩,但这可能会导致图像未对齐、图像与特征错位、数据压缩过度以及特征丢失等问题。因此,采用基于特征转换的后融合策略可能更合适本项目。前融合所采用的 C3D分类模型是一种在三维数据上进行分析的网络模型。三维数据具有尺度高、维度大以及信息稀疏等特点。尽管 C3D 网络训练过程中增加了一个维度的信息,但同时也提高了算法分析的复杂性,特别是在模型训练过程中,占用了大量显存等硬件资源,可能导致批归一化不理想和网络收敛不完全的问题。与 C3D 相比,本文提出的二阶段后融合方法实现了特征压缩,提取置信度这种可解释的特征,并去除了无关的稀疏特征。在有限的硬件资源和数据量的限制下,这种方法能更好地学习数据特征,起到了类似正则化(通过在损失函数中添加约束,规范模型在后续迭代过程中避免过度拟合)的效果。

乳腺癌骨转移病灶在代谢和结构方面都较正常骨组织显著不同。因此,通过融合 CT、MRI 和 PET 图像的特征信息,实现解剖和功能信息的跨模态融合,能更有效地完成分类任务,帮助诊断乳腺癌骨转移。然而,综合分析全身 CT、MRI 和PET图像信息需要医师投入大量时间,且存在较大的观察者间差异。一旦发生漏诊,会导致严重后果。利用计算机辅助医师判断乳腺癌是否发生骨转移不仅可以节省成本和时间,还能提供更加客观的评估标准。计算机辅助诊断工具可以综合多模态图像的结果进行特征转换和分析,预防漏诊的发生。因此,在未来的研究中,可以重点关注开发此类计算机辅助诊断系统,以提高乳腺癌骨转移诊断的准确性和效率。

这项研究仍存在一些局限性。从单个影像模态中提取的特征较为单一,仅有置信区间,可以在后续的训练中可以从临床角度出发加入更多可能影响骨转移判断的因素作为分类特征,如检测目标的面积,或增加中轴骨检出目标的权重。因本项研究具有多模态影像数据的病例量不够,未来可以尝试除五折交叉验证之外其他的模型训练方法以降低数据量对分类模型性能的影响。

2.5. 结论

本项目提出了一种基于特征转换的跨模态数据融合方法进行分类任务的深度学习框架,用于判断是否发生乳腺癌骨转移。首先独立对不同模态的医学图像数据进行肿瘤检测,根据目标检测结果进行特征构造,并将其组织成结构化数据的形式,完成从非结构化数据特征到结构化数据特征的转换与融合。最终,将结构化数据特征输入分类器,进行骨转移的分类任务,并对照 C3D 前融合模型,讨论了基于特征转换方法进行跨模态数据后融合的优势。大量的实验证明,使用基于特征转换的跨模态融合数据进行分类任务的性能优于基于单模态数据的分类性能;使用本项目提出的后融合策略执行分类任务较使用前融合策略的分类模型(C3D)的性能更好。

本项目所提出的技术可综合 CT、MRI 和 PET 模态数据的特征,对乳腺癌患者是否发生骨转移进行判断,辅助临床医师进行乳腺癌骨转移病灶的筛查,具备实际应用价值,也为在医学图像分析任务中更有效地应用跨模态融合方法,提供了关键的理论支持。

全文小结

目前,医学影像学的解读大量依赖临床医生个人的主观诊断经验,人工阅片易漏诊小目标,难以推广及表述,具有一定的局限性。与此相比,人工智能技术可以通过深度神经网络对大量积累的影像数据和诊断数据进行分析,学习并提取数据中对病理诊断有用的特征,从而在数据支持下做出更客观的判断。按成像方式不同,医学影像数据可分为多种模态,如B超、CT、MRI、PET。为了最大限度模拟临床医生结合不同模态影像检查结果形成诊断的过程,设计人工智能模型时,应将各种影像学模态的特征进行有效的融合,即本项目中应用的跨模态深度学习方法,充分利用不同模态图像的独特优势训练深度神经网络,从而提高模型性能。本项目以宫颈癌和乳腺癌骨转移为例,验证了跨模态深度学习方法在病变区域定
位和辅助诊断方面的性能。

在第一部分中,我们回顾性纳入了220例有FDG-PET/CT数据的宫颈癌患者,共计 72,602 张切片图像。通过图像增强、边缘检测,实现 PET 和 CT 图像的 ROI自适应定位,再通过缩放、零值填充和剪切的方式,将两种模态图像的 ROI 对齐。经过加权和图像叠加,进行图像融合,将融合后的图像作为目标检测网络的输入层,进行宫颈癌病变区域检测。实验证明,相比使用单一 CT 图像、单一 PET 图像、PET-CT 简单融合图像、PET-CT 通道拼接融合图像作为网络输入,PET-CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性,目标检测的平均精确度(AP50)分别提高了 6.06%和 8.9%,且消除了一些假阳性结果,展现出可观的临床应用价值。

在第二部分中,我们回顾性纳入了 233 例乳腺癌患者,每例样本数据包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有 3051 张 CT 切片,3543 张 MRI切片,1818 张 PET 切片。首先训练 YOLOv5 目标检测网络,对每种单一模态图像中的骨转移病灶进行目标检测。统计每个影像序列中含有检出骨转移病灶的个数和置信度,将每个置信区间内含有目标检测框的百分比作为结构化医疗特征数据。采用级联方式融合三种模态的结构化特征,得到具有可解释性的结构化医疗数据,再用分类模型进行分类,预测是否发生骨转移。实验证明,相较于单模态数据,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能,平均准确率和 AUC 分别提高了 7.9%和 8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也有相同的实验结论。在不同的分类模型(SVM、AdaBoost、RandomForest、LightGBM、GBDT)中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

综上所述,本文基于人工智能深度学习算法,针对不同模态医学图像的特征差异与互补性,进行多模态医学影像数据的跨模态融合,提高了模型的肿瘤检测和分类性能,检测模型和分类模型可以辅助影像学阅片过程,具有显著的临床实际应用价值。

参考文献

[1] 陈思源, 谭艾迪, 魏双剑, 盖珂珂. 基于区块链的医疗影像数据人工智能检测模型[J] . 网络安全与数据治理, 2022, 41(10): 21-25.
[2] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J . Gastroenterology, 2023, 164(2): 191-193.
[3] Arbyn M, Weiderpass E, Bruni L, et al. Estimates of incidence and mortality of cervical cancer in 2018: a worldwide analysis[J . The Lancet Global Health, 2020, 8(2): e191-e203.
[4] Marth C, Landoni F, Mahner S, et al. Cervical cancer: ESMO Clinical Practice Guidelines for diagnosis, treatment and follow-up[J . Annals of Oncology, 2017, 28:iv72-iv83.
[5] Gold M A. PET in Cervical Cancer—Implications forStaging,’Treatment Planning, Assessment of Prognosis, and Prediction of Response[J . Journal of the National Comprehensive Cancer Network, 2008, 6(1): 37-45.
[6] Gandy N, Arshad M A, Park W H E, et al. FDG-PET imaging in cervical cancer[C] .Seminars in nuclear medicine. WB Saunders, 2019, 49(6): 461-470.
[7] Grigsby P W. PET/CT imaging to guide cervical cancer therapy[J . Future Oncology, 2009, 5(7): 953-958.
[8] Mirpour S, Mhlanga J C, Logeswaran P, et al. The role of PET/CT in the management of cervical cancer[J . American Journal of Roentgenology, 2013, 201(2): W192-W205.
[9] LeCun Y, Bengio Y, Hinton G. Deep learning[J . nature, 2015, 521(7553): 436-444.
[10] Szeliski R. Computer vision: algorithms and applications Springer Science & Business Media[J] . 2010.
[11] Ma B, Yin X, Wu D, et al. End-to-end learning for simultaneously generating decision
map and multi-focus image fusion result[J . Neurocomputing, 2022, 470: 204-216.
[12] Anwar S M, Majid M, Qayyum A, et al. Medical image analysis using convolutional
neural networks: a review[J . Journal of medical systems, 2018, 42: 1-13.
[13] Ma B, Ban X, Huang H, et al. Deep learning-based image segmentation for al-la alloy
microscopic images[J . Symmetry, 2018, 10(4): 107.
[14] Li Z, He J, Zhang X, et al. Toward high accuracy and visualization: An interpretable feature extraction method based on genetic programming and non-overlap degree[C] . 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2020: 299-304.
[15] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J] . nature, 1986, 323(6088): 533-536.
[16] He K , Gkioxari G , Dollar P , et al. Mask R-CNN[C . International Conference on Computer Vision. IEEE Computer Society, 2017, pp. 2980-2988.
[17] Ma B, Wei X, Liu C, et al. Data augmentation in microscopic images for material data mining[J] . npj Computational Materials, 2020, 6(1): 125.
[18] Ma B, Zhu Y, Yin X, et al. Sesf-fuse: An unsupervised deep model for multi-focus image fusion[J] . Neural Computing and Applications, 2021, 33: 5793-5804.
[19] Kermany D S, Goldbaum M, Cai W, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J . cell, 2018, 172(5): 1122-1131. e9.
[20] Hyun S H, Ahn M S, Koh Y W, et al. A machine-learning approach using PET-based radiomics to predict the histological subtypes of lung cancer[J . Clinical nuclear medicine, 2019, 44(12): 956-960.
[21] Chilamkurthy S, Ghosh R, Tanamala S, et al. Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study[J . The Lancet, 2018, 392(10162): 2388-2396.
[22] Chen C, Xiao R, Zhang T, et al. Pathological lung segmentation in chest CT images based on improved random walker[J] . Computer methods and programs in biomedicine, 2021, 200: 105864.
[23] Chen C, Zhou K, Zha M, et al. An effective deep neural network for lung lesions segmentation from COVID-19 CT images[J] . IEEE Transactions on Industrial Informatics, 2021, 17(9): 6528-6538.
[24] Hill D L G, Batchelor P G, Holden M, et al. Medical image registration[J] . Physics in medicine & biology, 2001, 46(3): R1.
[25] Du J, Li W, Lu K, et al. An overview of multi-modal medical image fusion[J] .Neurocomputing, 2016, 215: 3-20.
[26] Watanabe H, Ariji Y, Fukuda M, et al. Deep learning object detection of maxillary cyst-like lesions on panoramic radiographs: preliminary study[J] . Oral radiology, 2021, 37: 487-493.
[27] Mattes D, Haynor D R, Vesselle H, et al. PET-CT image registration in the chest using free-form deformations[J] . IEEE transactions on medical imaging, 2003, 22(1): 120-128.
[28] Maqsood S, Javed U. Multi-modal medical image fusion based on two-scale image decomposition and sparse representation[J] . Biomedical Signal Processing and Control, 2020, 57: 101810.
[29] Elakkiya R, Subramaniyaswamy V, Vijayakumar V, et al. Cervical cancer diagnostics healthcare system using hybrid object detection adversarial networks[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 26(4): 1464-1471.
[30] Al-Ameen Z, Sulong G, Gapar M D, et al. Reducing the Gaussian blur artifact from CT medical images by employing a combination of sharpening filters and iterative deblurring algorithms[J] . Journal of Theoretical and Applied Information Technology, 2012, 46(1): 31-36.
[31] Canny J. A computational approach to edge detection[J] . IEEE Transactions on pattern analysis and machine intelligence, 1986 (6): 679-698.
[32] Jocher G, Stoken A, Borovec J, et al. ultralytics/yolov5: v5. 0-YOLOv5-P6 1280 models, AWS, Supervise. ly and YouTube integrations[J . Zenodo, 2021.
[33] Wang C Y, Liao H Y M, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020: 390-391.
[34] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C .
Proceedings of the IEEE conference on computer vision and pattern recognition, 2018:
8759-8768.
[35] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv, 2020, 2004: 10934.
[36] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J . IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.
[37] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J . Radiology, 2019, 292(1): 15-24.
[38] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J . arXiv preprint arXiv:2004.10934, 2020.
[39] Smith A R. Color gamut transform pairs[J . ACM Siggraph Computer Graphics, 1978, 12(3): 12-19.
[40] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by
reducing internal covariate shift[C . International conference on machine learning.
pmlr, 2015: 448-456.
[41] Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J . Neural Networks, 2018, 107: 3-11.
[42] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C] .Proceedings of the IEEE international conference on computer vision. 2017: 2980-2988.
[43] Zhang S, Chi C, Yao Y, et al. Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection[C . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 9759-9768.
[44] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J . Advances in neural information processing systems, 2015, 28.
[45] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality object detection[C] .Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:6154-6162.
[46] Pang J, Chen K, Shi J, et al. Libra r-cnn: Towards balanced learning for object detection[C] . Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019: 821-830.
[47] Cohen P A, Jhingran A, Oaknin A, et al. Cervical cancer[J . The Lancet, 2019, 393(10167): 169-182.
[48] Lee S I, Atri M. 2018 FIGO staging system for uterine cervical cancer: enter cross-sectional imaging[J] . Radiology, 2019, 292(1): 15-24.
[49] Coleman R E. Metastatic bone disease: clinical features, pathophysiology and treatment strategies[J . Cancer treatment reviews, 2001, 27(3): 165-176.
[50] Cecchini M G, Wetterwald A, Van Der Pluijm G, et al. Molecular and biological mechanisms of bone metastasis[J . EAU Update Series, 2005, 3(4): 214-226.
[51] Cuccurullo V, Lucio Cascini G, Tamburrini O, et al. Bone metastases radiopharmaceuticals:
an overview[J . Current radiopharmaceuticals, 2013, 6(1): 41-47.
[52] Emens L A, Davidson N E. The follow-up of breast cancer[C . Seminars in oncology. WB Saunders, 2003, 30(3): 338-348.
[53] Chen W Z, Shen J F, Zhou Y, et al. Clinical characteristics and risk factors for developing bone metastases in patients with breast cancer[J . Scientific reports, 2017, 7(1): 1-7.
[54] Batson O V. The function of the vertebral veins and their role in the spread of metastases[J . Annals of surgery, 1940, 112(1): 138.
[55] O’Sullivan G J, Carty F L, Cronin C G. Imaging of bone metastasis: an update[J] .World journal of radiology, 2015, 7(8): 202.
[56] Noguchi S, Nishio M, Sakamoto R, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J . European Radiology, 2022, 32(11): 7976-7987.
[57] Fan X , Zhang X , Zhang Z , et al. Deep Learning on MRI Images for Diagnosis of Lung Cancer Spinal Bone Metastasis[J . Contrast Media & Molecular Imaging, 2021, 2021(1):1-9.
[58] Moreau N, Rousseau C, Fourcade C, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[C] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). IEEE, 2020: 1532-1535.
[59] Boser B E, Guyon I M, Vapnik V N. A training algorithm for optimal margin classifiers[C] . Proceedings of the fifth annual workshop on Computational learning theory, 1992: 144-152.
[60] Freund Y, Schapire R E. A decision-theoretic generalization of on-line learning and an application to boosting[J] . Journal of computer and system sciences, 1997, 55(1): 119-139.
[61] Breiman L. Random forests[J . Machine learning, 2001, 45: 5-32.
[62] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree[J] . Advances in neural information processing systems, 2017, 30: 52.
[63] Chen T, Guestrin C. Xgboost: A scalable tree boosting system[C . Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, 2016: 785-794.
[64] Tran D, Bourdev L, Fergus R, et al. Learning spatiotemporal features with 3d convolutional networks[C . Proceedings of the IEEE international conference on computer vision, 2015: 4489-4497.

img

文献综述

3. 跨模态深度学习技术在临床影像中的应用

The Application of Deep Learning and Cross-modal Fusion Methods in Medical Imaging

Abstract

Deep learning technology is gaining widespread prominence across various fields in this era. In the realm of medical imaging, it has steadily assumed a pivotal role in tasks such as feature recognition, object detection, and image segmentation, since its inception. With the continuous evolution of imaging techniques, the individual patient often possesses an expanding wealth of multi-modal imaging data. It is evident that deep learning models utilizing cross-modal image fusion techniques will find diverse applications in a lot more clinical scenarios. In the future, deep learning will play a significant role in the medical sector, encompassing screening, diagnosis, treatment, and long-term disease management. To provide a reference for future research, this review aims to present a concise overview of the fundamental principles of deep learning, the nature of cross-modal fusion methods based on deep learning, with their wide-ranging applications, and a comprehensive survey of the present clinical uses of single-modal and cross-modal deep learning techniques in medical imaging, with a particular emphasis on bone metastasis imaging.

Keywords: deep learning, cross-modal, tumor imaging, bong metastasis

3.1 Preface

Nowadays, data are generated in massive quantities in the healthcare sector, from sources such as high-resolution medical imaging, biosensors with continuous output of physiologic metrics, genome sequencing, and electronic medical records. The limits on the analysis of such data by humans alone have clearly been exceeded, necessitating an increased reliance on machines. The use of artificial intelligence (AI), the deep-learning subtype in particular, has been enabled by the use of labeled big data, along with markedly enhanced computing power and cloud storage. One field that has attracted particular attention for the application of AI is radiology, as the cost of medical scans is declining, and the use of imaging studies is now at least as common as physical examinations, even surpassing the latter in surgical emergencies out of humanism and accuracy concerns. AI can greatly aid clinicians in diagnosis, especially in the interpretation of radiographic images, the accuracy of which heavily relies on the clinical experience and scrutiny of their interpreters, thus freeing clinicians to devote more of their attention to providing bedside healthcare. The radiologic screening and staging of tumors rely heavily on radiologists’ subjective judgments. For some minuscule or ambivalent lesions, it is often difficult to arrive at a definitive diagnosis based solely on clinical experience. A case reported by Dong et al. proves the vulnerability of relying on error-prone human judgment[1 . AI methods mainly analyze medical images through image processing and deep learning techniques. As an assistant for clinicians, deep neural networks can be trained with large datasets of radiologic images or clinical information, automatically learning features key to the revelation of pathology or lesion localization. In addition to deep learning models based on images of a single modality, researchers have also proven the feasibility of integrating multi-modal medical imaging data in algorithms, with improved model robustness. A combination of feature representations from different imaging modalities can effectively improve the performance of tumor detection, classification, and segmentation. Artificially generating relatively scarce imaging data from more easily accessible radiographs by way of cross-modal image translation can not only aid diagnoses but also improve the performance of deep learning models.

This article will briefly review the relevant background of deep neural networks (DNNs), as well as the up-to-date development of cross-modal fusion and image translation methods. An overview of the current clinical applications of single-modal and cross-modal deep learning in tumor imaging, especially in bone metastasis imaging, is also provided.

3.2. Deep Neural Network (DNN)

Traditional machine learning methods face limitations in handling data in its raw form, as creating a suitable internal representation or feature vector requires a meticulous feature extractor designed manually to convert raw data, such as image pixels. Only after then a classifier, every detail of which was manually set and adjusted, could detect or classify patterns in the input, and spell out its outcome. Because of the varying qualities of images, lots of intricate image enhancement or filtering algorithms, such as adaptive Gaussian learning, histogram equalization, and de-noising, are designed alone for the purpose of pre-processing images to be ready for the feature extractor. Another downside of conventional machine learning is that manually coded algorithms would only, with images with finer details or better contrast, allow for automatic execution of the thought processes that can best mimic, not surpass, that of a clinician. All the key features to be extracted and used in encoding the classifier were essentially the same set of “inputs” a clinician would use to make his or her judgment.

In contrast, “representation learning” is a set of techniques utilized in deep learning, which enable machines to analyze raw data without manual feature engineering. This allows the system to automatically identify the relevant patterns or features needed for classification or detection. Pattern recognition using deep neural networks (DNNs) can help interpret medical scans, pathology slides, skin lesions, retinal images, electrocardiograms, endoscopy, faces, and vital signs. Deep learning algorithms employ multiple tiers of representation through the composition of nonlinear modules, which transform the input representation from one level to the next, beginning with the raw input and continuing to higher and more abstract levels. It is helpful to think of the entire network as, nonetheless, a “function”, that takes in a set of inputs and spills out an output, though with absurdly complicated parameters and transformations. Irrelevant variations or noise can be lost as stepping up towards the higher layers of representation that amplify only features important for discrimination. By this “layering” method, very complex functions can be learned. A key differentiating feature of deep learning compared with other subtypes of AI is its autodidactic quality, i.e. neither the number of layers nor features of each layer is designed by human engineers, unencumbered by either the essence or the flaws of the human brain.

3.2.1. Supervised learning

Supervised learning is the process of learning with training labels assigned by the supervisor, i.e. the training set of examples has its raw input data bundled with their desired outputs. When used to classify images into different categories, the machine is shown an image and produces an output in the form of a vector of scores, one for each category during training. In supervised learning, the machine receives immediate feedback on its performance when its output does not match the expected output. The aim is to assign the highest score to the desired category among all categories. This is achieved by calculating a cost function that measures the average error or distance between the output scores and the expected pattern of scores. The inputs of the cost function are the parameters of the machine. Much like the “update rule” used in the Mixed Complementarity Problem (MCP), the perceptron learning algorithm updates its internal adjustable parameters to minimize errors when it predicts the wrong category[2]. The adjustable parameters consist of weights and biases, where weights control the input-output function of the machine. The algorithm learns from its mistakes rather than successes, and the weights can number in the hundreds or millions. Weights are assigned to the connections between neurons from the input layer and one of the neurons in the next layer, in some sense representing the “strength” of a connection. The activation of a single notch of neurons in the next layer was computed by taking the weighted sum of all the activations of the first layer, e.g., greyscale values of the pixels. Just like biological neurons may have different thresholds that the graded sum of electric potentials at the cell body needed to reach for axonal propagation, the algorithm may not want its neuron to light up simply over a sum greater than 0. So, a “bias for inactivity” is introduced into the weighted sum formula. For example, if a neuron is designed to be active only if the weighted sum exceeds 10, then a 10 is subtracted from the formula before the transformation that follows. Weights represent the pixel pattern (weight assigned to each pixel can be visualized as a pixel pattern) that the algorithm identifies, while biases provide a threshold indicating the required level of weighted sum for a neuron to become meaningfully active. When the goal is to have the value of activations of the next layer between 0 and 1 and were the mapping to be smooth and linear, then the weighted sum can be pumped into a sigmoid function, i.e. 1/(1 + exp(−w)), where w is the weighted sum. A sigmoid transformation compresses the continuum of real numbers, mapping them onto the interval between 0 and 1, effectively pushing negative inputs towards zero, and positive inputs towards 1, and the output steadily increases around the input 0. Say the mapping is from p neurons from the one layer to the q neurons of the next layer, there would be p×q number of weights and q biases. These are all adjustable parameters that can be manipulated to modify the behavior of this network. In a deep learning system, changing the parameters may reflect a shift in the location, size, or shape of the representations to find “better” features to travel through the layers to get to the desired output.

At present though, preferred mappings in DNN are neither smooth nor linear. By applying a non-linear function to the input, the categories become separable by the last output layer in a linear way, resulting in a definitive category output, unlike the previously mentioned range of numerical values that would require arbitrary cut-off points to finalize the categorization. A sigmoid transformation was once popular in the era of Multilayer Perceptron, during which a machine was simply an executor of commands, and the feature detected by each layer was designed and programmed by human engineers, such that the final output, as a continuous variable, would be interpretable[3]. The rectified linear unit (ReLU) is currently the most widely used non-linear function, which introduces non-linearity into the network by setting all negative values to zero. This is in contrast to the smoother non-linearities, such as tanh(z) or 1/(1 + exp(−z)), used in previous decades.
ReLU has proven to be a faster learner in deep networks compared to these other non-linear functions and allows for the training of deep supervised networks without the need for unsupervised pre-training[4].

This would not work in DNN, as hidden layers would not be picking up edges and patterns based on our expectations. How the machine gets to the correct output is still an enigma, and its intelligence still awaits revelation.

The essential of learning by neural networks is to minimize the cost function. It is important for this cost function to have a nice and smooth output so that the local minimum can be obtained by taking little steps downhill, rather than being either on or off in a binary way the way biological neurons are. To adjust the weight and bias values of the parameter vector in a high-dimensional space, the learning algorithm computes a gradient vector that specifies how much the error, or cost, would increase or decrease if each parameter were slightly modified. In mathematical terms, this is similar to taking derivatives of a function with respect to a variable to observe the trend of the function between the two infinitesimally close values of that variable. In multivariate calculus, the gradient of a function indicates the path of the steepest incline, pointing towards the direction in the input space where one should move to minimize the output of this cost function with the utmost speed, and the length of the vector indicates exactly how steep the steepest ascent is. The weight vector is modified by shifting it in the opposite direction of the gradient vector, and the size of the adjustments is proportional to the slope of the gradient vector. When the slope of the gradient vector approaches the minimum, the step size decreases to prevent overshooting. This is the so-called “gradient descent” that converges on some local minimum. Minimizing the cost function can guarantee better performance across all training samples. Viewed from a different perspective, the gradient vector of the cost function encodes the relative importance of weights and biases, which changes to which weights matter the most to minimize the cost. The magnitude of each component represents
how sensitive the cost is to each weight and bias.

In practice, most practitioners use a procedure called stochastic gradient descent (SGD). It involves randomly selecting a few input vectors as mini-batches, computing the corresponding outputs, errors, and the gradient descent step. The weights were adjusted accordingly. This process is repeated for many small subsets of examples from the training set until the average cost function stops decreasing. Each small subset of examples gives a noisy estimate of the average gradient over all examples, and thus the “stochasticity”. Despite its simplicity, SGD often achieves good results with far less computation time than more complex optimization techniques[5].

3.2.2. Backpropagation

Recursively adjusting the weights in proportion to the activation of the second-to-last layer, vise vera, or altering the biases to decrease the cost for a single training sample is a single round of digital learning. In a nutshell, the backpropagation procedure is an algorithm of computing the gradient descent efficiently. Calculating the gradient of a cost function with respect to the weights in a stacked multilayer module is a practical application of the chain rule of derivatives. A key insight is that the derivative of the cost function concerning the input can be obtained by reversing the order of the layers, working from the higher to the lower layers. The process of backpropagation entails computing gradients through all layers. From the uppermost layer where the network generates predictions down towards the lowermost layer where the external input is introduced. Once these gradients have been calculated, it is straightforward to determine the gradients with respect to the weights and biases of each module. After these gradients are computed, it becomes a straightforward task to derive the gradients with respect to the weights and biases of each module. The average of desired changes, obtained by traversing the backpropagation route for alternate training samples, was the optimal adjustment that parameters could make to make the model performs better in the training set.

It was commonly thought that a simple gradient descent would get trapped in suboptimal local minima — weight configurations for which no small change would reduce the cost function, as finding the global minimum would be an intractable task. Recent theoretical and empirical results strongly suggest the cost function’s landscape is actually filled with a huge number of saddle points where the gradient is zero, indicating that the optimization challenge is more complex than originally thought, but most of these points have similar cost function values[6]. In other words, the depth of the local minima is almost the same across different saddle points, so it is not crucial which one the algorithm gets stuck at.

3.2.3. Convolutional neural networks (CNN)

Convolutional neural networks (CNNs) are easier to train and have better generalization capabilities compared to other feedforward networks with fully connected layers. They are specifically designed to process data represented as multiple arrays, such as grayscale images consisting of a single 2D array containing pixel intensities of varying values.

The four key ideas behind CNN are inspired by the properties of natural signals and visual neuroscience: local connections, shared weights, pooling, and the use of multi-layer. The convolutional and pooling layers are directly inspired by the concept of simple cells and complex cells, respectively, in the visual cortex, and the overall architecture is reminiscent of the LGN-V1-V2-V4-IT hierarchy in the visual cortex’s ventral pathway[7][8]. Local groups of values in array data often exhibit high correlation and form characteristic local motifs that can be readily identified. Therefore, pattern recognition makes CNN most useful in detecting images.

3.2.3.1. Convolution

The main function of the convolutional layer is to identify and extract local combinations of features from the preceding layer (Fig. 1). The actual process of matching is accomplished through filtering in the convolutional layer: A filter bank can be thought of as a small matrix of representative features (of real numbers) for which the number of rows and columns, eg. n× n, of pixels is arbitrarily set. The filter and image patch are lined up, and each image pixel is multiplied (dot product) by the corresponding feature. The result is added up and divided by the total number of pixels in the filter to arrive at a specific feature value. Feature value indicates how well the feature is represented at that position. Sliding over n pixels, the same procedure is repeated for every n× n block of pixels for the entire input image, and a feature map, a “map” of where the filter feature occurs, is obtained. All units in a feature map share the same filter bank. Therefore, the local characteristics of images and other signals remain constant regardless of their location. In simpler terms, a pattern that appears in one part of the image can appear in any other part as well. Hence, the approach of employing units with identical weights to identify corresponding patterns across various sections of the array is adopted. In a convolution layer, filtering can be performed for a bunch of features and create a stack of filtered images. Each feature map in a layer employs its own filter bank. From a mathematical standpoint, the operation of filtering executed by a feature map can be described as a discrete convolution, hence the name.

img

Fig. 1: Example of a filter (kernel) convolution. Note the new pixel value shown in the figure has not been weighted by the number of windows in the filter.

3.2.3.2. Pooling

The aim of the pooling layer is to reduce the size of a feature map by merging similar features into a single one through the following steps: (1) choose an appropriate window size, usually 2×2 or 3×3 pixels; (2) pick a stride (by how many pixels the window steps down to run through a feature map) accordingly, usually 2 pixels; (3) walk the window by its stride across the filtered images; (4) take the maximum value in each window as the pooling result and form a “pooled map”. A robust motif detection can be accomplished by simplifying the positioning of each feature across all feature maps that are fed into this CNN layer. Pooling helped the algorithm to neglect where in each window the maximum value occurs, making it less sensitive to small shifts in position, either parallel or rotational, an image that strongly fits the filter will still get picked up.

3.2.3.3. Normalization

To keep the math from blowing up, a layer is then passed through a non-linearity such as a ReLU making negative values all 0. This procedure of nonlinear transformation is “normalization” in deep learning terms.

The CNN architecture involves stacking multiple stages of convolution, non-linearity (normalization), and pooling on top of each other, followed by a final fully connected layer (Fig. 2). Each layer’s filter banks in the convolutional layers and voting weights in the fully connected layer are learned through the backpropagation algorithm. In the fully connected layer, also known as the dense layer due to the fact that a large number of neurons are densely connected with each other, a list of feature values becomes a list of votes, when timed by relevant weights that map this layer to the output layer gives the final answer. It is worth noting that this list of votes in the fully connected layer looks a lot alike a list of feature values. Indeed, the output of this layer as intermediate categories can still feed into the input of the next layer, propagating the cycle instead of becoming the final votes.

img

Fig. 2: Example of a CNN with various types of layers. The convolutional layer does not decrease the size, i.e., the number of pixels, of the input figure, rather it encodes the feature of its input. The pooling layer does decrease the size of its input. The amount of which the size decreases depends on the size of the pooling window and the stride.

3.3. Cross-modal fusion

Cross-modal fusion refers to the process of integrating data from different modalities. PET/CT is a classic example of cross-modal fusion. CT is a type of imaging modality that provides high-resolution, cross-sectional images with excellent clarity and density resolution. PET, on the other hand, is a nuclear imaging technique that generates images showing the spatial distribution of positron-emitting radiopharmaceuticals within the body. With less precise structural details, PET images are well capable of displaying metabolic activity. PET/CT fuses CT with PET, possessing information on both the anatomical details and the metabolic spectrum. As each different information stream possesses unique characteristics, single-modal data often do not contain all the effective features to produce accurate results, whether for data analysis or prediction tasks. Cross-modal deep learning models combine data from two or more different modalities, learning different feature representations from different modalities and facilitating communication and transformation among different information streams, to accomplish specific downstream tasks. This special type of deep learning can improve the accuracy of predictions and enhance the robustness of models.

3.3.1. Cross-modal fusion methods

Cross-modal fusion methods can be categorized into three types: early fusion, late fusion, and hybrid fusion. In early fusion, unimodal features are combined into a single representation before the feature extraction or modeling process[9] . After feature extraction or modeling is performed separately to reduce unimodal features, the outputs are integrated to learn concepts and obtain the final prediction in late fusion[10] . Whereas hybrid fusion combines early and late fusion methods, where fusion is performed at both the feature level
and the output layer [11].

There are various methods of early fusion, including operating on elements at the same position in different modalities. For example, in the field of medical imaging, different imaging modalities can be fused into an integrated image. Nefian et al. proposed a cross-modal early fusion method that used both the factorial and the coupled hidden Markov model for audio-visual integration in speech recognition[12] . Early fusion was done by multiplying the corresponding elements of visual features that capture mouth deformation over consecutive frames and the vector representation, representing the frequency of audio observations, learned by long short-term memory neural networks. A dimensionality reduction was then done on the observation vectors obtained by concatenation of the audio and visual features. Indeed, early fusion methods are often simple in structure with low computational complexity. However, the resulting feature is often high in dimensions, which can impose a significant computational burden on the subsequent model if dimensionality reduction is not performed.
As an example of late fusion, in 2014, Simonyan et al. proposed an architecture that separately inputs spatial and temporal recognition streams of videos, where the spatial stream recognizes actions from still video frames, whilst the temporal stream is in charge of action recognition from motion in the form of dense optical flow[13]. The learned feature outputs are combined by late fusion via either averaging or a linear support vector machine (SVM). As fusion significantly improves on both streams alone, the result proves the complementary nature of inputs spatial and temporal recognition streams and that cross-modal fusion indeed preserves more information of use in the algorithm. Late fusion does not explicitly consider the inter-modality correlation at the feature level, which may result in a lack of interaction among different modalities at the feature level. Consequently, the resulting feature representations after cross-modal fusion may not be rich enough, potentially limiting the effectiveness of the fusion approach.

There is no one optimal solution for all, and the choice of fusion method should be case-by-case.

3.3.2. Cross-modal image translation

Cross-modal image translation has gradually matured in the field of computer vision. Given sufficient training data, deep learning models are capable of learning discriminative features from images of different modalities, and the process of image-to-image translation can be viewed as transforming one potential representation of a scene to another.

In 2017, Isola et al. released a Pix2Pix software that is effective at various image translation tasks, such as synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images[14] . Conventional CNN learns to minimize a loss function that is arbitrary, the making of which takes a lot of manual effort. The Pix2Pix software adopts conditional Generative Adversarial Networks (GANs) that automatically learn the loss function to train the mapping from input to output images, besides learning the mapping itself, as a generic solution to pixel-to-pixel prediction. These networks solve the whole genre of problems that used to require very different loss functions. Conditional GANs differ from other formulation in that it treats output pixels as mutually dependent and thus learns a structured loss, which penalizes the joint configuration of the output. Pix2Pix has good performance on many image translation tasks, but its ability in generating high-resolution images is suboptimal. Wang et al. improved upon Pix2Pix by proposing a new image translation framework for synthesizing high-resolution photo-realistic images from semantic label maps using conditional GANs in 2018. Compared to Pix2Pix, this method has two main improvements: image translation at 2048 × 1024 resolution and semantic editing of images. To generate high-resolution images, their method uses a coarse-to-fine generator, which is composed of a local enhancer for fine high-resolution image conversion and a global generator for coarse low-resolution image conversion respectively, a multi-scale discriminator architecture, and a robust adversarial learning objective function.

Additionally, it adds a low-dimensional feature channel to the input, which allows for the generation of diverse results images based on the same input label map. Zhu et al. proposed the BicycleGAN model combining both the conditional Variational Autoencoder GAN approach and the conditional Latent Regressor GAN approach, based on Pix2Pix in 2017[15] . BicycleGAN is a technique for multi-modal image translation that accomplishes not just the primary objective of mapping the input, together with the latent code to the output, but also concurrently learns an encoder that maps the output back to the latent space. The bijection between the output and the latent space prevents multiple distinct latent codes from producing the same output, also known as non-injective mapping. BicycleGAN allows the generator to model a distribution of high-dimensional output given different encoders, producing diverse and realistic results while remaining faithful to the input.

To accurately transform specific objects among different modalities is the main challenge of cross-modal image translation. Most cross-modal image translation methods require paired data as the input, and due to the scarcity of the paired data, the translated images are often suboptimal or suffer from mode collapse, where the output only represents a limited number of real samples, etc. Therefore, how to achieve high-quality cross-modal image translation with a small amount of paired data is a valuable direction for research.

3.4. The application of cross-modal deep learning

AI is increasingly being studied in metastatic skeletal oncology imaging, and deep learning has been assessed for tasks such as detection, classification, segmentation, and prognosis. Zhao et al. developed a deep neural network-based model to detect bone metastasis on whole-body bone scan (WBS), irrespective of the primary malignancy[16 . Compared to experienced nuclear medicine physicians, the deep learning model not only had a time savings of 99.88% for the same workload, but it also had better diagnostic performance, with improved accuracy and sensitivity. To overcome the constraint of the time-consuming effort required for precise labeling of large datasets, Han et al. proposed a 2D CNN classifier-tandem architecture named GLUE, which integrates whole body and local patches for WBS of prostate cancer patients[17 . The 2D-CNN modeling is the best fit for planar nuclear medicine scans, provided there is a massive amount of training data available. The GLUE model had significantly higher AUCs than a whole-body-based 2D CNN model when the labeled dataset used for training was limited. Noguchi et al. developed a deep learning-based algorithm, with high lesion-based sensitivity and low false positives, to detect bone metastases in CT scans[18 . An observer study was also done to evaluate its clinical efficacy, which showed improved radiologists’ performance when aided by the model, with higher sensitivity, by both lesion-based and case-based analyses, in less amount of interpretation time. Fan et al. used AdaBoost and Chan-Vese algorithms to detect and segment sites of spinal metastasis of lung cancer on MRI images[19 . Chan-Vese algorithm had the best performance. The accuracy of the segmentation, expressed in terms of DSC and Jaccard coefficient scores, were 0.8591 and 0.8002, respectively. Liu et al. built a deep learning model based on 3D U-Net algorithms for the automatic segmentation of pelvic bone and sites of prostate cancer metastases on MRI-DWI and T1-weighted MRI images[20 . The model was found to work best on patients with few metastases, boosting the use of CNN as an aid in M-staging in clinical practice. Multiple deep classifiers were developed by Lin et al. to automatically detect metastases in 251 thoracic SPECT bone images[21 . The performance of the classifiers was found to be excellent, with an AUC of 0.98. Moreau et al. compared different deep learning approaches to segment bones and metastatic lesions in PET/CT images of breast cancer patients[22]. The results indicated that the U-NetBL-based approach for bone segmentation outperformed traditional methods, with a mean DSC of 0.94 ± 0.03, whereas the traditional methods struggled to distinguish metabolically active organs from the bone draft.

Compared to the aforementioned deep learning examples, the more avant-garde cross-modal image fusion and translation techniques have not been widely investigated in bone metastasis imaging. Xu et al. adopted two different convolutional neural networks for lesion segmentation and detection and combined the spatial feature representations extracted from the two different modalities of PET and CT[23] . Their cross-modal method completed the three-dimensional detection of multiple myeloma, outperforming traditional machine learning methods. The research conducted by Wang et al. revealed that texture features extracted from multiparametric prostate MRI before intervention, when combined with clinicopathological risks such as free PSA level, Gleason score, and age, could effectively predict bone metastasis in patients with prostate cancer[24] . The outcome of this study can be seen as a proof of concept for the significance of cross-modal data.

Even though cross-modal investigations regarding the sites of bone metastases are limited by now, there has been plenty of evidence proving the utility of cross-modal fusion in oncological imaging. These applications and trains of thought can be well extrapolated to the field of osseous metastasis imaging. Cross-modal fusion can be applied to tasks such as tumor detection, segmentation, and classification to improve model the performance of deep learning models. Cross-modal image translation can be used for data augmentation to facilitate various downstream tasks.

Cross-modal fusion methods are often employed to enrich the models with cross-modal image features, thus improving the performance of tumor detection. Further, convolutional neural networks are used to capture the relationships between adjacent pixels and extract effective features from the image in deep learning-based cross-modal tumor detection algorithms. In 2021, Huang et al. proposed a ResNet network-based framework, AW3M, that used ultrasonography of four different modalities jointly to diagnose breast cancer[25]. By combining the cross-modal data, the AW3M based upon multi-stream CNN equipped with self-supervised consistency loss was utilized to extract both modality-specific and modality-invariant features, with improved diagnostic performance.

As for tumor segmentation, many researchers hinge on either the four types of MRI image modalities or the two modalities of PET/CT encompassing anatomical and metabolic information to perform cross-modal fusion and improve segmentation performance. For instance, Ma et al. explored CNN-based cross-modal approaches for automated nasopharyngeal carcinoma segmentation[26]. Their proposed multi-modality CNN utilizes CT and MRI to jointly learn a cross-modal similarity metric and fuse complementary features at the output layer to segment paired CT-MR images, demonstrating exceptional performance. Additionally, the study combines the features extracted from each modality’s single-modality CNN and multi-modality CNN to create a combined CNN that capitalizes on the unique characteristics of each modality, thereby improving segmentation performance. Fu et al. introduced a deep learning-based framework for multimodal PET-CT segmentation that leverages PET’s high tumor sensitivity in 2021[27 . Their approach utilized a multimodal spatial attention module to highlight tumor regions and suppress normal regions with physiologic high uptake from PET input. The spatial attention maps generated by the PET-based module were then used to target a U-Net backbone for the segmentation of areas with higher tumor likelihood at different stages from CT images. Results showed that their method surpasses the state-of-the-art lung tumor segmentation approach by 7.6% in the Dice similarity coefficient.

As the diagnostic procedure often requires the integration of multi-modal information, such as chief complaints, physical examinations, medical histories, laboratory tests, and radiology, cross-modal fusion methods are also commonly utilized in disease classification tasks. Cross-modal fusion synthesizes data from different modalities to enrich effective feature representations, enabling deep learning models to extract useful information from different modalities to aid in diagnosis. Zhang et al. proposed a technique for prostate cancer diagnosis using a multi-modal combination of B-mode ultrasonography and sonoelastography[28] . Quantitative features such as intensity statistics, regional percentile features, and texture features were extracted from both modalities, and an integrated deep network was proposed to learn and fuse these multimodal ultrasound imaging features. The final step of disease classification was completed by a support vector machine.

Due to the relative scarcity of medical images, cross-modal image translation is often used to synthesize part of the data in the training set as a data augmentation method for a better-performing deep learning model with a small sample size. Since integrated data from different modalities often exhibit better performance in deep learning models, the multi-modal image data input generated by cross-modal image translation methods can be directly used as targets for tumor detection. A two-step approach for semi-supervised tumor segmentation using MRI and CT images was proposed by Jiang et al[29 . The first step is a tumor-aware unsupervised cross-modal adaptation using a target-specific loss to preserve tumors on synthesized MRIs from CT images. The second step involves training a U-Net model with synthesized and limited original MRIs using semi-supervised learning. Semi-supervised learning is used to boost the accuracy (80%) of tumor segmentation by combining labeled pre-treatment MRI scans with synthesized MRIs, while training with synthesized MRIs had an accuracy of 74%. The proposed approach demonstrated the effectiveness of tumor-aware adversarial cross-modal translation for accurate cancer segmentation from limited imaging data.

In general, there have been bounties of research supporting the application of deep learning in bone metastasis imaging, but the specific application of cross-modal fusion methods is still lacking. Whereas, clinical evaluations regarding bone metastasis often require multi-modal data, such as a chief complaint of lower back pain, a past medical history of pathological fractures, a positive genetic test for specific mutations indicating a higher risk of bone metastasis, or increased blood calcium and alkaline phosphatase concentrations in laboratory reports, etc. Therefore, evaluating osseous lesions with multi-modal data can improve the specificity of diagnosis and reduce the false positive rates in the diagnostic and treatment process. The application of cross-modal deep learning methods in the field of bone metastasis imaging and diagnosis is worth further exploration.

3.5. conclusion

The above review covers the definition and basic principles of deep learning and cross-modal image generation and fusion methods, briefly describes some common cross-modal deep learning algorithms, and summarizes bits of current research on the application of deep learning models in medical imaging, especially bone metastasis imaging. Compared to traditional deep learning models fed with data input of a single modality, multi-modal methods are more recent, with a limited number of relevant research. Given the increasing prevalence of cancer screening and the significant surge in patient-specific clinical data, including radiographs and laboratory tests, it is reasonable to anticipate an unparalleled demand for advanced, intelligent cross-modal deep learning methods in the future. Nevertheless, the use of AI in medical imaging analysis faces various challenges and limitations. These include the need for extensive and diverse datasets for training and validation, the potential for bias and overfitting, as well as the inherent black-box nature of deep learning algorithms[30 . Even though the demand for a large training set reiterates the merit of cross-modal deep learning, which enables the automatic generation of sample images through cross-modal image translation, the size of the training set still has a profound impact on the performance of algorithms. In parallel, the demand for “explainability” has led to the notion of “interpretable machine learning”, utilizing heat maps and metrics to track the focus of deep neural networks[31] . Overall, there is still much to be investigated regarding the application of cross-modal deep learning in the field of medical imaging.

In summary, the project should be founded on the application of cross-modal deep learning techniques to offer practical solutions for challenges encountered in the clinical setting.

参考文献

[1] Dong X, Wu D. A rare cause of peri-esophageal cystic lesion[J] . Gastroenterology, 2023, 164(2): 191-193.
[2] Aswathi R R, Jency J, Ramakrishnan B, et al. Classification Based Neural Network Perceptron Modelling with Continuous and Sequential data[J] . Microprocessors and Microsystems, 2022: 104601.
[3] Gardner M W, Dorling S R. Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences[J] . Atmospheric environment, 1998, 32(14-15): 2627-2636.
[4] Glorot X, Bordes A, Bengio Y. Deep Sparse Rectifier Neural Networks[J] . Journal of Machine Learning Research, 2011, 15: 315-323.
[5] Bottou L, Bousquet O. The tradeoffs of large scale learning[J] . Advances in Neural Information Processing Systems, 2007, 20: 1-8.
[6] Dauphin, Y. et al. Identifying and attacking the saddle point problem in high-dimensional non-convex optimization[J] . Advances in neural information processing systems, 2014, 27: 2933–2941.
[7] Hubel D H, Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex[J] . Journal of Physiology, 1962, 160(1): 106-154.
[8] Cadieu C F, Hong H, Yamins D, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition[J] . Plos Computational Biology, 2014, 10(12): e1003963.
[9] Nefian A V, Liang L, Pi X, et al. Dynamic bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[10] Snoek C G M, Worring M, Smeulders A W M. Early versus late fusion in semantic video analysis[C] . Proceedings of the 13th annual ACM international conference on Multimedia, 2005: 399-402.
[11] Wu Z, Cai L, Meng H. Multi-level fusion of audio and visual features for speaker identification[C] . International Conference on Biometrics Springer, Berlin, Heidelberg, 2005: 493-499.
[12] Nefian A V, Liang L, Pi X, et al. Dynamic Bayesian networks for audio-visual speech recognition[J] . EURASIP Journal on Advances in Signal Processing, 2002, 2002(11):1-15.
[13] Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[J] . Advances in neural information processing systems, 2014, 27: 568–576.
[14] Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C] . Proceedings of the IEEE conference on computer vision and pattern recognition, 2017: 1125-1134.
[15] Zhu J Y, Zhang R, Pathak D, et al. Toward multimodal image-to-image translation[J]. Advances in neural information processing systems, 2017, 30: 465–476.
[16] Zhao Z, Pi Y, Jiang L, Xiang Y, Wei J, Yang P, et al. Deep neural network based artificial intelligence assisted diagnosis of bone scintigraphy for cancer bone metastasis[J] . Scientific Reports, 2020, 10(1): 17046.
[17] Han S, Oh J S, Lee J J. Diagnostic performance of deep learning models for detecting bone metastasis on whole-body bone scan in prostate cancer[J] . European journal of nuclear medicine and molecular imaging, 2021, 49(2): 1-11.
[18] Noguchi S, Nishio M, Sakamoto R, Yakami M, Fujimoto K, Emoto Y, et al. Deep learning–based algorithm improved radiologists’ performance in bone metastases detection on CT[J] . European Radiology, 2022, 32(11): 7976-7987.
[19] Fan X, Zhang X, Zhang Z, Jiang Y. Deep learning on MRI images for diagnosis of lung cancer spinal bone metastasis[J] . Contrast Media & Molecular Imaging, 2021, 2021(1): 1-9.
[20] Liu X, Han C, Cui Y, Xie T, Zhang X, Wang X. Detection and segmentation of pelvic bones metastases in MRI images for patients with prostate cancer based on deep learning[J] . Frontiers in Oncology, 2021, 11: 773299.
[21] Lin Q, Li T, Cao C, Cao Y, Man Z, Wang H. Deep learning based automated diagnosis of bone metastases with SPECT thoracic bone images[J] . Scientific Reports, 2021, 11(1): 4223.
[22] Moreau N, Rousseau C, Fourcade C, Santini G, Ferrer L, Lacombe M, et al. Deep learning approaches for bone and bone lesion segmentation on 18FDG PET/CT imaging in the context of metastatic breast cancer[J] . 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society, 2020: 1532-1535.
[23] Xu L, Tetteh G, Lipkova J, et al. Automated whole-body bone lesion detection for multiple myeloma on 68Ga-pentixafor PET/CT imaging using deep learning methods[J] . Contrast media & molecular imaging, 2018, 2018: 2391925.
[24] Wang Y, Yu B, Zhong F, Guo Q, Li K, Hou Y, et al. MRI-based texture analysis of the primary tumor for pre-treatment prediction of bone metastases in prostate cancer[J] . Magnetic Resonance Imaging, 2019, 60: 76-84.
[25] Huang R, Lin Z, Dou H, et al. AW3M: An auto-weighting and recovery framework for breast cancer diagnosis using multi-modal ultrasound[J] . Medical Image Analysis, 2021, 72: 102137.
[26] Ma Z, Zhou S, Wu X, et al. Nasopharyngeal carcinoma segmentation based on enhanced convolutional neural networks using multi-modal metric learning[J] . Physics in Medicine & Biology, 2019, 64(2): 025005.
[27] Fu X, Bi L, Kumar A, et al. Multimodal spatial attention module for targeting multimodal PET-CT lung tumor segmentation[J] . IEEE Journal of Biomedical and Health Informatics, 2021, 25(9): 3507-3516.
[28] Zhang Q, Xiong J, Cai Y, et al. Multimodal feature learning and fusion on B-mode ultrasonography and sonoelastography using point-wise gated deep networks for prostate cancer diagnosis[J] . Biomedical Engineering/Biomedizinische Technik, 2020, 65(1): 87-98.
[29] Jiang J, Hu Y C, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C] . International conference on medical image computing and computer-assisted intervention. Springer, Cham, 2018: 777-785.
[30] Castelvecchi D. Can we open the black box of AI?[J] . Nature, 2016, 538(7623): 20.
[31] Kuang C. Can A.I. Be Taught to Explain Itself?[J] . The New York Times, 2017, 21.

致谢

首先,感谢我的导师,邱贵兴院士,涓涓师恩,铭记于心。感谢吴南师兄,知遇之恩无以报。感谢吴东老师,三生有幸,得您伴我一程风雪。也感谢所有参与此项目的科研合作伙伴和课题组的师兄师弟们,你们的帮助让这项研究得以顺利进行。

感谢在协和遇到的所有老师们,学生朽木,希望未来也能如你们一样,不负一袭白衣。

最后,要感谢我的家人。Wherever I go, this family is my fortress.

这路遥马急的人间,你我平安喜乐就好。

Yesterday — 3 May 2025中国数字时代

毕导|董小姐,29页论文拿下协和医学博士

3 May 2025 at 22:34

最近沸沸扬扬的中日友好医院肖医生和董小姐事件,大家都了解吗?

起因是中日友好医院肖飞的妻子递交了一封举报信,里面详列了肖飞婚后出轨多名女性、出轨规培医生董袭莹、帮董在医院违规操作、拉着董离开手术室扔下手术台上的病人40分钟等恶劣事件。

img

肖医生倒是手术室冲冠一怒为红颜了,我要是在场护士和麻醉台上的病人,是真得麻了……这种人也能配叫医生吗??这是人干的事吗??

随后大家顺着这名出轨对象董袭莹开挖,发现更惊人的内幕都在她这啊!

img

网上舆论已经从普通的出轨讨论,变成对教育公平甚至医生轻视患者生命安全的质疑,事情非常错综复杂,我深扒了一下董医生的学术之路,这就给大家梳理下!

1、董医生的速通学医路

在协和官方通稿中,董小姐是作为优秀案例出现的。哥大经济学本科、4+4医学试点班、毕业成为协和医学博士,名校海归+协和博士光环拉满!但深挖一下发现根本经不起深挖啊!

img

董袭莹的本科是哥伦比亚大学巴纳德学院经济学专业。哥大确实是世界顶级名校,巴纳德学院也是哥大旗下的学院。网上有说这是三本野鸡学院,但我查了下它在全美211所文理学院的排名第14名,其实也不错的。但招生门槛确实低于哥大主校,不能以哥概全。

img

其次是让学经济的董小姐、变成医学博士的4+4医学试点班。

这个是协和推出的改革试点班,针对本科不是医学专业的同学,经过录取后你学4年医,出来就是协和医学博士了。这个制度是为了将多学科基因融入医学界。不过看介绍大学也得对生物、化学有学科基础,不知道董小姐学经济时有没有学到。

img

招生条件我从截图了官网,大家可以自行对比你能不能上。

img

这里还有一个疑惑,董小姐是2019年入学协和4+4,我去翻了下2019年的U.S. News文理学院排名,巴纳德学院仅排名25?可能每年的入学要求也各不相同吧。

img

关键董医生学得咋样呢?她2019年到2023年在协和经历了4年医学博士培训,普通医学生动辄8年或者5+3+4共计12年的学医路,她4年就走完了,还包括疫情时期,不知道她学医上不上网课。

而神奇的是,她的博士论文开篇写的是妇科影像相关 

img

博士论文的指导导师是骨科大拿

img

学位是内科博士

img

还是膀胱癌临床实践指南的一作

img

此外根据前面爆料,她现职为泌尿外科住院医师。真是一位跨学科领域的复合型人才啊!而这一切的成就,她只用了4年时间,这才是真正的天降神童吧,华佗扁鹊加在一起都不如她。

2、董医生的学术成果一览

深挖董医生的学术成果,也是叹为观止。我找到了董医生的博士毕业论文,细看了一下我都快崩溃了。

CDT 档案卡
标题:毕导|董小姐,29页论文拿下协和医学博士
作者:毕导
发表日期:2025.5.3
来源:微信公众号“毕导”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

整个博士论文一共就三章啊?我本科论文都比这个长!一般博士论文第一章绪论,二三四五章是具体工作,第六章是结论与展望。董博士只用三章,加上开头致谢独创性声明使用授权书一共61页就搞定了?!

img

再细看,她先用12页讲完了宫颈癌检测成果,再用17页讲完了乳腺癌的骨转移成果,其实她的博士论文部分到这29页就完结了!后面就是参考文献了!

后面那个16页的第三章,是一个英文综述,并不是她的科研成果。我不太了解医学领域,是医学博士论文固定就有这么个环节,还是说不加这个综述的话论文打印出来的厚度不足以在书脊上写题目?

我看着我那139页的博士论文嘴都气歪了。

img

而这篇她以第一作者身份发表了《Clinical practice guideline on bladder cancer 》也很有趣。董袭莹作为一个2023年5月才毕业的学生,在同年的五月,居然就成为了这篇膀胱癌临床实践指南的一作。对董小姐来说,真是一个丰收的五月啊!

img

凡是写过论文的,都明白一作在众多作者中的份量!那董具体做了什么呢?作者贡献部分写的是,董承担了翻译工作,甚至她的翻译还不是独立完成的,后面还跟着俩人…

img

这就名列一作了?好家伙所有翻译软件AI工具都有资格给一作了吧?这种拿一作方式我只敢在做科研狗美梦时畅想过…

看到这,一个在美四年经济学学成归来,四年速成顶级医学博士研究成果遍布妇科骨科内科膀胱癌的天才医学生形象,已然立住。

img

3、董医生的超强医院特权

毕业后,董医生又在医院享受超强特权。根据举报内容,她本来应该从胸外科转到脊柱外科,但不想转。于是肖飞医生和骨科教秘打招呼,被拒。她又通过个人关系,联系了两位主任达到目的。这背景和实力,令人叹为观止!

img

值得一提的是,这位和肖飞大吵的麻大夫还是盘尼西林的乐队成员。白天行医对抗业内黑幕,晚上还能玩乐队,好强!

img

在手术台上,董因为和护士起争执,肖飞直接带着董离开手术台40分钟,还好有一名格格巫护士不卑不亢,据理力争!很刚很顶!

img

这位肖飞医生,是不是把自己带入什么医学霸总了啊?综合看来,把病人晾在手术台、多次出轨、帮董进行违规操作、还想抢原配房子抚养权…这人真是集所有渣于一体,医德和个人道德都极其低劣的水平。

董医生的“注水”学医之路,令人触目惊心。如果专业能力不足者竟能一路绿灯,跻身国内顶级医院的手术台,这不仅是对寒窗苦读数十载的医学生的羞辱,是对熬夜加班、连口热饭都吃不上的规培生的践踏,更是对无数在科研与临床中挣扎求生的博士生群体的不公。

而最不可容忍的是——这是对患者生命的极端漠视。

希望关于整件事能有更加明确的调查结果,别让讨论止步于讨论。

别让讨论止步于讨论

简法|《民营经济促进法》来了,然后呢?

3 May 2025 at 22:07

img

《促进法》选择“重申”而非“重建”,简单地指向那个可能本就运转不畅的旧有体系,这能在多大程度上带来实质性的改变?

新法出台

《民营经济促进法》终于出台了,像一颗投入水中的石子,在舆论场上激起了不少涟漪。

立法本身无疑是个大动作,毕竟“民营经济”这四个字的分量,在当下中国的经济版图和社会生活中,没人能否认。高层反复强调“两个毫不动摇”,现在又有了专门的法律背书。

CDT 档案卡
标题:简法|《民营经济促进法》来了,然后呢?
作者:简法
发表日期:2025.5.3
来源:微信公众号“简法”
主题归类:民营经济促进法
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

但多年的社会经验告诉我们,法律文本是一回事,现实运行往往是另一回事。我们发现,《民营经济促进法》很多意在约束不当行为、包括潜在的政府干预的条款,其法律后果最终指向的还是“依法”处理。这本身没问题,法律体系本就该相互支撑。可问题在于,“依法”的那个“法”在实践中是如何被解释、被执行的?是所有市场主体真的能在同一个起跑线上,面对同一套规则,得到同一种对待吗?还是说,依然存在着某种“身份”上的隐形差异?

“依法”的困境

我们清楚的是,《民营经济促进法》本身并不是独立的处罚依据,它更像是一个指引,将具体的惩戒权力交回给《行政处罚法》、《反垄断法》等现存的法律框架。该罚的,依据原有法律本就该罚

这种安排的潜在问题是显而易见的。如果说,那些损害民营经济的行为,本就已在现有法律的规制之下,那么现实中挥之不去的困境(如选择性执法、地方保护、隐性壁垒),恰恰说明了原有法律体系在执行层面的不足或扭曲。如今,《促进法》选择“重申”而非“重建”,简单地指向那个可能本就运转不畅的旧有体系,这能在多大程度上带来实质性的改变?这是否回避了真正的难题——即如何确保那些既有的“法”能够被公正、有效、不打折扣地执行,尤其是在涉及到权力制约和政府自身行为规范时?

更进一步说,这种路径依赖,是否会让这部《促进法》沦为一种“立法上的表态 它满足了程序上的需求,传递了某种积极信号,但在具体的约束力上却可能显得绵软无力。毕竟,若处罚的依据、标准、程序乃至最终裁量权都没有本质变化,那么仅仅多了一部“指引性”的法律,对于那些在复杂政商关系中早已游刃有余的潜规则而言,又能构成多少真正的威慑?它更像是在呼吁一种理想状态,却未能提供足够坚实的工具去锻造它。这部法律的象征意义,似乎远大于其可能产生的直接法律效果。

落地之间

我们不能脱离现实的土壤去谈论法律。过去这些年,民营企业经历过高光时刻,也感受过阵阵寒意。政策的钟摆、执法的尺度、市场的“玻璃门”、“旋转门”……这些东西塑造了企业家的真实体感和预期。一部法律的出台,能否真正扭转一些根深蒂固的观念,改变一些由来已久的习惯性做法?比如,地方政府在招商引资、项目审批、资源分配时,能否真正做到不偏不倚?当民企与国企、或者与政府部门发生纠纷时,天平是否能真正保持水平?当遭遇不公时,寻求救济的渠道是否真的畅通且有效?执行层面的决心和能力,可能比法律条文本身更牵动人心。

说到底,信心这东西,不是靠一纸法律就能“促进”出来的。它是过往经验的积累,是对未来稳定性的预期。这部法律提供了一个新的起点,一个新的观察窗口。它更像是一个官方的“承诺书”,承诺要为民营经济提供一个更好的环境。但承诺能否兑现,承诺的分量有多重,还需要时间和无数个具体案例来检验。

民营经济的活力,关系着就业、创新、税收,最终也关系到我们每个普通人的生活。它的兴衰,从来不只是经济问题,也是社会问题,甚至关乎更深层次的社会结构和信任基础。

且看未来

所以,这部法律出台了,很好。但兴奋过后,更多的是冷静的观察。它会成为那根撬动现实改变的杠杆,还是仅仅停留在“看上去很美”的层面?我们每个人,无论是企业家、打工人还是消费者,其实都在用自己的方式参与和见证着这个过程。历史会给出答案,而在此之前,不妨多一份审慎的关注,少一些轻率的断言。

路,才刚刚开始。

三月云|五一劳动节|再论女性与劳动

CDT 档案卡
标题:五一劳动节|再论女性与劳动
作者:三月vulcanus
发表日期:2025.5.2
来源:三月云
主题归类:五一劳动节
主题归类:女性权利
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

今天是五一国际劳动节,在此向奋斗在各个领域、各条战线中的姐妹们致以节日的祝贺和崇高的敬意!

五一劳动节并非一个只是“歌颂”劳动者的节日,而是一个纪念劳动者所做过的抗争的节日。

劳动节的由来要从19世纪80年代说起,那时美国资产阶级为了利润,对工人进行着残酷的压榨。哪里有剥削,哪里就有反抗。自1877年开始,美国各地不断出现罢工运动。迫于压力,美国国会制定了相关法律,但这些条文从未得到真正落实,工人的斗争还在继续。1886年5月1日,以芝加哥为中心,2万多家企业的35万人发起罢工游行,要求改善劳动条件,实行八小时工作制。5月3日,芝加哥政府出动警察进行镇压,开枪打死两名工人。5月4日,工人在干草市场举行抗议,再次与警察发生激烈冲突,造成200多名民众伤亡、7名警察死亡,史称“干草市场惨案”。

1888年,在英国伦敦勒·博火柴厂,有672名工人为了争取劳动保障、改善劳动条件进行了罢工。她们由于在无防护的情况下长期接触有毒的磷,导致面部溃烂至完全畸形,而生病后的工人则会遭到工厂解雇。同时,她们的工资仅有当时英国男工人工资的三分之一。于是,她们为了自己的权益,走上街头进行罢工。

img

▲长期接触磷后面部畸形的工人。

这是历史上第一次全女性的罢工,并产生了一个早期的女性工会组织——“火柴制造者工会”。社会改革家安妮·贝桑特(Annie Besant)对她们进行了采访,并写成文章登载在报纸上。她们遭受的压榨激起了社会各界的声援与同情,起初态度强硬的工厂也不得不进行让步和屈服:不再解雇工人,并且改善劳动环境,让她们不必再长期接触磷。

img

▲安妮·贝桑特(Annie Besant)

1889年,为了纪念劳动者们为了自身权益所做的斗争,第二国际将每年的五月一日设立为国际劳动节。

让我们一起来高呼,呼声响遍人间和天上:八小时工作,八小时休息,剩下的八小时全都归自己!

——《八小时之歌》(1878年)

我们最后对于“五一”纪念日的自身,希望它早日完成那“八小时”运动的使命,更进而负起“六小时”运动的新使命来。

——李大钊《“五一”May Day 运动史》(1920年)

因此,五一劳动节的真正意义与内核,不在于虚假的“劳动最光荣”,也不在于虚伪地歌颂苦难,而是纪念她们曾经的不屈抗争,是实实在在地去缩短工作时长,改善劳动条件,提高劳动保障。

这很好理解——女性一直在劳动,但直到近代才拥有工资。为什么?不是因为她们更加起劲地进行劳动了,而是因为她们开始抗争了。

劳动既不是权力,也不能带来权利。对劳动能力的支配,对劳动过程的控制,对劳动产品的占有,才是权力,也决定了权利。如果只靠劳动与歌颂劳动就能带来权利与保障、权势与财富,那么世界首富将会是一头牛。

img

所以,财产靠母父,家务靠妻子,开销靠姐妹,出生都靠女人的货色,竟然还敢反咬一口鉴定女人是不是“劳动妇女”和“独立女性”?

img

img

img

▲真女权不但劳动,还要革了田力的命。怎么小田力只敢挑对自己有利的方面说呢?

而在今天这个劳动者的节日中,还有一个好消息:《中华人民共和国农村集体经济组织法》将于2025年5月1日正式生效。这部法律,第一次明确规定:“妇女享有与男子平等的权利,不得以妇女未婚、结婚、离婚、丧偶、户无男性等为由,侵害妇女在农村集体经济组织中的各项权益”。

此前,在农村,只有男人才有资格分配村里的资源,女人则必须要到了年纪就嫁出去,自始至终都算不得本村成员而是某个男人的村子里的成员。男的生来就永久享受村民资格,而女性则必须要成为某个男人的妻子才能跟着获得村民资格。一旦她们的婚姻状况发生变化,例如离异改嫁,她们自己连同子女都会被立刻取消村民资格,丧失仅有的那一点土地权益,娘家和婆家两头空。2016年的一项社会调查显示,中国农村中的出嫁和离异女性不享受村民待遇的有84.45%,而判过刑或正在监狱中的男罪犯不享受村民待遇的只有20.43%。2019年,浙江杭州则规定拆迁户家里如有两个儿子可以分得三个人的面积,而两个女儿只能分得两个人的面积。

据千千律师事务所数据,关于农村女性土地权益的案件,47.1%的法院甚至会直接驳回起诉拒不审理。为什么?农村失地女性维权难的最重要原因就是此前的法律依据不清晰,法院即便判决,也往往会推给“村民自治”,也就是让村里的老登来决定——结果可想而知。而这一次,她们应有的权利终于有了明确的法律保障。

这样的成果并非“时代进步”的自发馈赠,而是无数农村女性、女法律工作者、女学者以及广大社会力量不懈努力、不屈抗争的结果。

img

而可笑的是,在农村中,劳动主力一直都是女性:

img

可她们不但没有得到与付出的劳动相匹配的权益,甚至连自己的名字都被遮蔽——“农民伯伯”。

此外,很多cgg总是喜欢天天把什么“下矿”“工地”的挂嘴上。然而,这不过是他们企图垄断“弱势群体”与“劳动者”形象的惯用手段,以此来抹杀女性劳动者的存在,并恬不知耻地把自己这个吃尽红利的性别群体伪装成社会的受害者。

img

img

首先,重体力劳动行业不但是“有女的”,甚至是女性占多数,因为男人都去更加有利可图的行业和岗位去了,只剩下了最苦最累的岗位留给女人。以工地为例,工地上真正的脏活累活,例如抡大锤拉水泥往往是女的在干,而赚钱多的大工或者说技工才是被男人垄断的领域。

img

所谓的底层女劳动者与“底层男劳动者”,正如保洁与保安。真正辛苦还赚钱少、毫无劳动保障的,绝不是天天躺在保安室里装成“弱势群体”的老头。

并且,在当前这个90%的财富与权力被男人所垄断的社会中,不劳而获的男人比不劳而获的女人多出成百上千倍。对着这个社会真正的既得利益者与特权群体视而不见甚至热情跪舔,看到“男贫困生”用着苹果全家桶穿着AJ玩着steam只是一笑而过,而看到女人喝了口奶茶却立刻七窍生烟狗急跳墙,跑到贴吧上大骂什么“小仙女”、“阶级”、“生产力”云云。

那我只能说,所有田力受到的所谓“压迫”都是应得的。别怪以后我看到任何举着身份证的小田力都只会说这男的应该是仙人跳诬告价钱没谈好吧。问就是前集短砍树后集短暴晒,他们的前辈把路走绝了。

第二,也是最重要的。cgg天天说什么当兵下矿工地没有女人,可到底是女人不愿去还是这些领域在系统性地排斥女人?

之前,很多人对这种现象的解释是“逆向歧视”。就是说既然他们歧视女性,认为女性没有能力承担这些工作,那么这些工作只由男性承担就是歧视的代价,是回旋镖。但我不同意逆向歧视这个概念。因为,“逆向歧视”尽管认为田力活该,却还是预设了男人从事这些行业是受害者。不,不是,他们从来都不是受害者——只要你能看到他们身边的底层女性在过什么生活。

是的,男矿工辛苦、危险。但,如果你能意识到还有名义上和他们处于同一阶层,但完全被隐身、被噤声的女性呢?她们还在地里干着无比辛苦繁重的农活,忙碌了一天之后还要回家烧饭做家务,劳动强度比起矿工有过之而无不及。但收入呢?很多农村女性辛辛苦苦务农一年,收入仅仅几千元,不及男矿工一个月的收入。

不是她们吃不了苦,她们现在的生活更苦——怎么没见到结婚生孩子的时候他们说女人吃不了苦得保护女性不能干这些呢?下矿并不比在村里务农做家务辛苦多少,但收入却是后者的几十倍。禁止女性从事某某行业,到底是为了“保护女性”,还是保障底层男的工作、维护他们的经济地位?事实上,因为“女人不下矿”,她们为了赚钱只能前往更没有保障和更加危险的黑煤窑里干活。

img

img

先是禁止底层女性从事这些虽然辛苦但收入较高的行业,再在网上胡说什么“小仙女逃避劳动”,最后玩一手田忌赛马忽视社会上占比90%的男老板男富豪男官员,把“阶级矛盾”和终极压迫者归结为“中产小资女喝奶茶”。这才是真正对我们这个社会主义国家的挑衅,以及对人类本质的侮辱。

如果再遇到田力不怀好意地问什么支不支持女人也应该有下矿的权利,我的回答是:当然支持。我支持贫穷女性拥有成为正式矿工、工地技工、海员、保安、货车司机和维修工的权利,我支持广大女性拥有成为技术骨干、企业管理者和机关事业单位干部的权利,我支持高层女性拥有成为国家领导人的权利。

事实上,很多天天把“没有性别矛盾只有阶级矛盾”挂嘴上的人忘记了:男权统治发生于阶级形成之前,跪着的母亲生不出站着的人类。不是女性解放被包含于工人解放之中,而是只有女性真正解放了,才会有全人类的解放与无产阶级的胜利。

在今天这个属于劳动者的节日里,我不说什么“劳动最光荣”。在一个剥削社会中,为特权者增加财富的劳动并不光荣。我只衷心地祝愿各位姐妹们工作有尊严,劳动有保障,收入节节高!

浣溪沙杜甫|屠呦呦当选美国科学院院士,在4+4的衬托下更有价值了

img

CDT 档案卡
标题:屠呦呦当选美国科学院院士,在4+4的衬托下更有价值了
作者:徐鹏1
发表日期:2025.5.2
来源:微信公众号“浣溪沙杜甫”
主题归类:屠呦呦
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

近日,由肖飞和董袭莹的烂事顺藤摸瓜还牵扯了协和医院4+4模式,甚至还牵扯出了一些院士。

比如董袭莹在协和4+4的导师邱贵兴也是中国工程院院士。

特别的一点,邱贵兴作为一个骨科权威专家,却成为董袭莹妇科影像学的导师。

这跨度之大,让人震惊。

而且董袭莹的博士论文只有薄薄的30页,完全不符合一般博士论文的字数要求,就这么个小册子,邱贵兴居然给审核通过了。这是为什么呢?

董袭莹在中日友好医院规培的时候,本来就应该各个科室轮流实习,这是规培的铁律,可她和肖飞好上了,只想留在肖飞身边,最后还和医院的其他医生护士吵起来,最后是堂堂的邱贵兴院士打招呼,把董袭莹违规留在肖飞身边。

都说院士是国之重器,怎么尽在帮董袭莹擦屁股。

利用学术权威,干预临床安排,破坏规培制度的公平。

都说将军有剑,不斩苍蝇,是形容国之重器,不会轻易为了些小事出手,而邱贵兴院士在董袭莹面前却让人感觉,院士有纸,尽擦屁股。

而且在协和4+4名单里,还有两个,邱靖涵(2024级)和邱靖婷(2026级),两个姓邱的而且看着名字还像两姐妹。

要知道进协和4+4,对于普通人是有多难?可这邱姓两姐妹却双双入选,这难度比苏轼苏辙两兄弟同时中进士还难。

网友纷纷猜测这两人和邱贵兴有关,说他在搞学术近亲繁殖。

我觉得邱院士在此时就该公布其家庭背景,还有入学的推荐信,面试材料都公布了吧,以正视听,别逼着网友去调查。

看到邱贵兴在这场舆论风暴中的表现,也对院士这个群体窥豹一斑。

中国首位获得诺贝尔奖的科学家屠呦呦教授,即使得了诺贝尔奖,也没能成为中国的院士,屠呦呦的院士难封,也看出评选院士的严苛,即使得了诺奖也没法成为中国的院士。有人说屠呦呦没成为院士是因为超龄了。

如果屠呦呦成为了院士,那至少可以说我们的院士里得过一次诺奖。而现在,每年那么多经费,却没有一块诺奖。

屠呦呦虽然没能成为中国的院士,但她在最近却当选了美国科学院的外籍院士。

img

没想到吧,这是屠呦呦教授实至名归,而不是美帝故意刺激人。

她是真正的院士,一生潜心做科研,发现青蒿素,开创治疗疟疾的新方法,拯救了无数人,是现在最伟大的科学家。

只可惜屠呦呦教授当选美国科学院院士这样的新闻,完全被董袭莹的烂事压住了热度。报道此事的媒体少,报道董袭莹的媒体多。

不过这样也好,没有对比就没有伤害,特别是在协和4+4的衬托下,更有价值了。

协和4+4的瓜还有很多,只是越扒越凄凉。

希望我们这个社会,多一些屠呦呦,少一些董袭莹。

全文完

请关注点赞转发评论

老干体v|美方11次下跪求谈,要不要给面子?我方正在评估!

By: unknown
3 May 2025 at 01:27
CDT 档案卡
标题:美方11次下跪求谈,要不要给面子?我方正在评估!
作者:老干体v
发表日期:2025.5.2
来源:老干体v
主题归类:中美关税战
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

我在《一部《不跪》惊天下,毛主席智慧贯全片!》中说,说这么狠的话,应该是已经开始谈判了,占个嘴上便宜。

果然,商务部昨日表示,美方近期通过相关方面多次主动向中方传递信息,希望与中方谈起来。对此,中方正在进行评估。

在一些人看来,谈判就是「跪」。按他们的逻辑,美帝这次一定跪了。

秦始皇又摸电门了。

但说实话,正如家传编辑部一位读者留言:若有利于国民,跪一下又何妨呢?勾践当年还为吴王夫差尝便呢。

川皇这个人,一方面死要面子,另一方面却并不执念于面子,该软则软,用他们的话说,就叫「战略不确定」。

他像个小猴乱窜,我方一开始还跟着跳舞,后来发现被戏得像厚重的大象,一时竟无法决断,干脆不再跟牌。

就像一首老歌,山不转水转:我方如山,美方似水。

川皇此时求谈,看似气势如虹,实际上也难得很。他的百日维新四面楚歌,股市大跌、民调大跌,就连最心爱的左膀右臂也都断翅:

  • 今日,白宫为马斯克举行欢送会。

  • 昨日,国家安全顾问沃尔兹被贬谪为驻纽约联合国大使,顾问一职由国务卿卢比奥兼任。

  • 沃尔兹因为在群里聊军国大事被贬,国防部长能否保住也在两可之间。

此时美方的局势并不稳定,正因如此,CCT视旗下的小号也明说了:「有“不确定”,那我们就消除“不确定”——美方如果想和中方进行接触,中方就利用这些接触意图,逼出其真实的意图,更好地掌握主动权。」

有意思吧?这话特别像胡锡进的口气,很接地气。

当然,也像中医疗法,将寒气「逼」出来。

当然,这也是武侠常用术语,将毒气「逼」出来。

能不能逼出来我不知道,但在短短10天之内,川皇团队至少说了11次「在和中国联系」,这让我方挣足了面子。

以至于CCT视的视频号在播放商务部消息时,语速慢得如同大丧之音,生怕用户漏掉了一个字。

而且,小号还用了「洞穿美国的谈判心理,就会发现,在接触方面,我们不是理亏的一方,也不应该藏着掖着,我们很坦然」的话语。

但问题是,这篇文章仍然发在小号上,还是留了退路,以防万一川皇又变卦,弄得我方措手不及,失了面子。

因此,如此重要的一篇文章,竟然到目前为止只有6.8万阅读量,留言一条也没有!

可见对如何引导舆论,还是进退两难,干脆先关闭留言,直到「逼出其真实的意图」。

细究原因,是不是吸取了之前的教训?

比如没有摸清美方的真实意图,在应对时失了方寸,办了些不甚得体的事、说了些不甚适宜的话?

听说《不跪》这个视频,已经不让转发了,所以官媒都没有跟进。

以及6月份结束的最高党报海外版和球报「中美友好交流故事」征文大赛,还要不要继续办?

形势变化很快,一不小心就要被耍,还是小心为上。

既然双方都要谈,有没有前置条件?现在看来都有。

  • 美财长贝森特:高关税,这就是大棒;而胡萝卜就是——来找我们,取消你们的关税,取消你们的非关税贸易壁垒,停止操纵货币,停止补贴劳动力和资本,然后我们再谈。

  • 我方商务部:美方想谈就应拿出谈的诚意,要在纠正错误做法、取消单边加征关税等问题上做好准备,拿出行动……任何可能的对话、会谈中,如果美方不纠正错误的单边关税措施,则说明美方完全没有诚意,且会进一步损害双方互信。

看双方的条件,我竟然觉得有得谈。

一方面,双方所谓的条件,其实都是要谈的内容,而非开谈的条件,更像是提前要价。

但CCT视小号又说,在美国没有实质性举动前,中方没必要和美方谈,不知这是否代表了官方态度。

不过,小号又说,美国如果希望同中国接触,现阶段对中国来说也没有坏处。

好扭捏啊,就像个哄不好的小媳妇,弄得我也摸不清小号的真实意图。

此外,小号已将其他国家有可能的谈判成果归到自己名下:中国是被加征所谓「对等」关税最高的国家,如果连中国都要作出巨大的让步,主动去找美国谈判,那对其他国家而言,能够争取的空间就非常有限了。

——换言之,如果他国得了好处,那也是通过中国的抗争换来的。

在80年前的抗战中,是中国的中流砥柱。

在2025年贸易战中,是全球的中流砥柱。

「横空大气排山去,砥柱人间是此峰。」那就大气一点,赏美帝个面子,谈谈?

那些原本是废话的常识|比“内卷不如作弊”更可怕的是“为后代能作弊而努力”

By: unknown
3 May 2025 at 01:21
CDT 档案卡
标题:比“内卷不如作弊”更可怕的是“为后代能作弊而努力”
作者:叶克飞
发表日期:2025.5.1
来源:那些原本是废话的常识
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

随便写几句吧。

协和这事儿并不是创新发明,而是国际经验。但国际上培养人才的有效渠道,到这里就变成捷径。

有人慨叹“孩子再怎么内卷,也比不上能作弊的”,这就是现实。普通人家孩子要想实现世俗意义上的成功,得寒窗苦读多少年?一路上要把多少人挤在身后?但有些人就是能用更短的时间、更轻松的方式实现这一目标。有人担心这些人拿手术刀,其实没必要,因为他们的真实目标是转入管理岗位。

网上很多人觉得这事儿过于惊悚,这反应多少有点装外宾,这类事情在各个领域不都是常态吗?小到孩子入学,大到职场晋升,总有捷径专供某些人。

有人根据各种爆料信息(部分已经辟谣),认为当事人算不上权贵婆罗门出身,这种“曲线救国”的模式恰恰说明当事人父母办法不多。这话或许没错,很多人觉得不可思议的捷径,可能在真正“有办法的人”那里就是最笨的办法,这就好比前几年那句流行语,“有钱人的生活超出我的想象”,婆罗门的捷径同样是超出大多数人想象能力的。

但问题恰恰在这里,留意现实就会看到,无数人都在竭尽全力,用手中或多或少的权力供下一代作弊。“孩子再怎么内卷,也比不上能作弊的”,在我眼中还算不上最可怕的,最可怕的是“拼命努力,是为了让自己的下一代有作弊的资格”。

这几乎是这片土地上自古以来、根深蒂固的常态。拼命参加科举考试是为了什么?为了黄金屋和颜如玉,为了做官,因为做官才能做“人上人”。只有成为“人上人”,才能拿到各种特权。这个无法改变的传统,才是一代代人要面对的真相。

捉刀时间max|美国从《永乐大典》中还“偷”走了什么?

By: unknown
3 May 2025 at 01:16
CDT 档案卡
标题:美国从《永乐大典》中还“偷”走了什么?
作者:捉刀时间max
发表日期:2025.5.2
来源:捉刀时间max
主题归类:网络民族主义
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

无意中点开了一个人的作品:什么电脑出自《易经》,手机来自《天工开物》,牛顿抄袭的《奇器图说》,奔驰山寨的木牛流马,青霉素取自《伤寒杂病论》,就连福特级核动力航母的图纸,都是剽窃明代魏学洢的《核舟记》。他宣称,这一切在《永乐大典》中都有记载,甚至他还宣称,人类对《永乐大典》的开发不足千分之一。比如马斯克只是秘密得到了《永乐大典》的一点儿残本,就敢夸下海口移民火星。

质疑是迈向真理的第一步,从布鲁诺疑惑地心说,到爱因斯坦怀疑牛顿,质疑如同一把锋利的手术刀,剖开表象、直指真理。但质疑不是无脑的牵强附会,不是张冠李戴的自我催眠,而是对真理的执着追寻。可以怀疑后人托名附会亚里士多德,但不是看到《核舟记》这三个字,就把它吹嘘成是核动力航母的设计图纸。

img

我一直以为那些是搞笑作品,但是看到几十万的点赞,不免就陷入了沉默,然后再看看他们带的货,名贵的保健品、酱香的珍藏酒,便又恍然大悟。

不过,我还是有一个疑问,为什么他们热衷于说西方的科学发明来源于《永乐大典》,而不说西方的人文发明也来源于《永乐大典》呢?比如美国国父的六大发明。今天,我们来一起看看,美国国父们在《永乐大典》里偷走了什么。

第一、制宪会议。

1787年,美国在费城召开制宪会议,这一事件本身就是一个重大发明。55名代表坐下来,通过会议来创建国家,而不是凭借谁的钱多,或者谁兵强马壮。代表们通过开会来讨论国家的根本大法,他们进行的不仅仅是创建国家,更是人类首次系统的实践启蒙思想家的社会契约论。

这一制度发明体现在三个方面:首先,会议的代表并非各州官方指定,而是人民选出来的代表。其次,会议的程序突破了原来的邦联条例,采用了一人一票的表决机制。最后,宪法的批准由各州单独审批。

这种自下而上的建国模式,彻底颠覆了传统国家的叙事逻辑。正如美国宪法之父麦迪逊所说:制宪会议不在于邦联条例的授权,而在于人民主权的直接行使。

img

第二、成文宪法。

1787年,美国宪法文本的制定标志着成文宪法范式的确立。美国宪法以6000多字的精炼文本,实现了国家规则的明文化。富兰克林曾经充满深意的指出:我们正在为世界立范,这个实验的成功将改变人类文明的进程。

与英国不成文的宪法相比,美国宪法的成文化具有革命性的意义:第一、确立了宪法作为最高法的地位。第二、建立了刚性的修改程序。第三、创设了宪法的解释机制。这种将政治契约法典化的模式,成为了宪政国家的标准。正如《独立宣言》的起草人杰斐逊所说:将权力关进法律文本的牢笼。

第三、分权制衡。

美国表面看是三权分立,但其实是八权分立。只是因为国家机构只有三权而已,另外的新闻权、工会权、持枪权等等并不在国家机构手中。

麦迪逊在《联邦党人文集》中指出:野心只能用野心来对抗。美国国父们将孟德斯鸠的三权分立理论,发展成了错综复杂的动态制衡体系。让立法、行政、司法三种权力,既相互独立,又彼此制约。这种既对抗又协作的制衡体系,确保了任何权力分支都无法一家独大。正如美国第28任总统威尔逊所说:不是简单的分权,而是交织的制衡。

第四、权利法案。

1791年美国各州批准的《权利法案》,将自由主义之父洛克的自然权利理论,转化为了具体的宪政实践。杰斐逊在给麦迪逊的信中说:《权利法案》是人民的必要武器,没有它,宪法只不过是统治者的游戏规则而已。

比如:1971年《纽约时报》诉沙利文案,最高法通过开放性的解释,维护了第一修正案。《权利法案》的开放性解释机制,让它历经230余年仍能适应时代的变迁。

img

第五、司法审查。

1803年,马伯里诉麦迪逊案确立了司法审查权,首席大法官马歇尔在判决书中创造性地指出:解释法律是司法部门的权力,与宪法相抵触的法律无效。

这一制度发明也体现三个方面:第一、司法权是宪法争议的终极仲裁者。第二、司法权充当了联邦权与地方州权的协调者。第三、司法权是公民权利的最后保障。正如托克维尔在《论美国的民主》一书中所说:美国问题的最终解决,迟早都会变成司法的问题。托克维尔的预言无一不准,因为后来有一次美国总统大位的归属,都变成了司法的问题。

第六、复合共和。

美国联邦制的创新在于构建了双重主权的体系,也就是既非单一制国家的中央集权,也非邦联制的松散联合。形象表述就是:大共和国里套着一堆小共和国。这种权力划分,创造性地解决了大国治理的规模难题。正如托克维尔所说:各州如同实验室,不断进行制度的创新。而联邦既给予各州自由,又提供国家力量,这是美国保持活力的奥秘。

img

美国国父们的六大发明,环环相扣,构成了相互支撑的体系:制宪会议确立了人民主权的原则,成文宪法提供了根本的规范,权利法案保护个人的自由,司法审查维系宪法的权威,分权制衡防止权力的滥用,复合共和平衡中央与地方。正如《联邦党人文集》的作者之一杰伊所说:这个国家不是建立在抽象的理论之上,而是基于对人性的深刻认知。

美国国父们的六大发明,或许是抄袭的《永乐大典》,但《永乐大典》的缔造者明帝国,显然并不承认。

新新默存|王五四:这届兄弟会不行

By: unknown
3 May 2025 at 01:00
CDT 档案卡
标题:王五四:这届兄弟会不行
作者:王五四
发表日期:2025.5.1
来源:新新默存
主题归类:外卖员
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

不得不承认,“兄弟”这个词特别适合北方语系的人讲出来,江苏宿迁的大强子一说“兄弟”,就有种他老乡项羽的霸气感,这种感觉就像2018年5月16日,刘强东在第二届世界智能大会上说的,“京东不会开除任何一个兄弟。”霸气侧漏,言简意赅,不拖泥带水,没有说“兄弟”的最终解释权归他所有。要是换成潮汕无党派人士马化腾,兄弟二字一出口,你就感觉两肋上要被插两刀,而且不用说也知道,“兄弟”二字的解释权归深圳市腾讯计算机系统有限公司所有。

去年刘强东又重新定义了一下兄弟,“凡是长期业绩不好,从来不拼搏的人,不是我的兄弟”“不想拼没错,但你不是我的兄弟,你是路人,我们不应该共事”,“兄弟”这种关系其实挺脆弱挺危险,既没有血缘,又没有商业合同,全靠江湖道义和个人道德支撑,随时都有被重新定义和增加附加条件的风险,在社会江湖上还好,这个行业讲究的就是个道义,“兄弟”关系相对牢靠,但放在商业江湖里,“兄弟”如衣服,远不如“合伙人”“股东”来的踏实些,我的利益就是我的利益,我躺着也是我的,我不拼搏也是我的,不是你赏赐给我的,不是你想剥夺就能剥夺的。

前几天,京东宣布入局外卖市场,刘强东还亲自送了几单外卖,在和骑手们的聚餐上,大强子一举酒杯,“欢迎美团、饿了么兄弟们加入我们京东。”有点电影《阳光灿烂的日子》里小混蛋的模样,在电影里,王朔饰演的社会大哥小混蛋刚刚和解了一场群殴,在事后的聚餐上,他酒杯一举说了句,“四海之内皆兄弟,五洲震荡和为贵”,大强子总提兄弟,可惜还处于兄弟会的初级阶段,是想让兄弟们为了“兄弟”二字一起给他卖命,他心里还没有“和为贵”。急于在外卖市场站住脚的大强子杀气腾腾,完全没有领悟和气生财的道理,他的急迫和他的杀气,都源于京东在骑手数量和商家数量上的不足,他嘴上强调的骑手待遇和商家品质,看似是在揭露行业弊端,实则还是他的急迫和杀气的具体体现。他嘴里的兄弟,就是他口水战的杀器,他需要通过口水战吸引商家和骑手的注意力以及他们大量的加入,尽快补齐短板,可是罗马不是一天建成的,骡马也不是一天招募齐的。江湖上一提兄弟情义,最容易点燃众人情绪,可真遇到事情,真看到现实的残酷,利益当前,性命攸关,“兄弟”二字就再也硬不起来了,李雪健老师饰演的张作霖曾经说过,什么是江湖,江湖不是打打杀杀,江湖是人情世故。不懂人情世故,只想利用兄弟们的一腔热血成就自己的霸业,连古惑仔都不如。

在知道刘强东之前,我先知道的是刘华强,以前只觉得孙红雷演技好,现在回头看看,刘华强的台词也写的不错。特别是这句,“我有我的兄弟,我得为他们的生命负责。”作为一个黑社会老大,需要的是兄弟们以命相博,但他没跟兄弟们说,凡是长期收不到保护费的,业绩不好的,从来不拼命的,不是我的兄弟。反而要对兄弟们的生命负责。他公开对兄弟们讲的是“在爱情和道义之间,我选择的是道义。”而不是一口道义一口奶茶。遇到危险的时候,他说的是“兄弟,要走一起走!”他深明大义,处处为兄弟着想却从没想过让兄弟们感恩戴德,“宋大哥有宋大哥的兄弟,华强有华强的朋友,我那些朋友也都是靠我吃饭的。”在他眼里,兄弟也是朋友,靠他吃饭,天经地义,而不是说,“不想拼没错,但你不是我的兄弟,你是路人,什么叫路人,就是你既不是我朋友,也不是我兄弟”,左一个兄弟右一个兄弟,说来说去全是利益。

作为大哥,刘华强心里一直装着兄弟,刚跟两个兄弟见面就送钱,这点很像一千年以前的一位大哥,及时雨宋江,一见兄弟就给钱。不仅仅是大哥,作为大国,有责任有担当的大国,我们也是经常给非洲兄弟送钱,那么大强子,作为一个大老板,是不是也应该像大哥和大国学习呢。况且,你现在已经是事业巅峰期了,不要老是一副“先帝创业未半而中道崩殂”的样子,不要总想着“想当初,老子的队伍才开张,拢共只有十几个人,七八条枪”的凄凉景象,现在可以让兄弟们跟着吃了,而不是想当初那会儿,都是跟着你吃苦和吃亏。

兄弟是可以一起打江山的,但一起坐江山很难,哪怕是亲兄弟,比如玄武门之变,比如烛影斧声,比如九子夺嫡,大家都想把那个“最终解释权”抢到手,否则前面说的再好听,一解释就完蛋了。哪怕像太平天国的洪秀全,贵为天王,上面还有个天父,天父本来应该是个如梦幻泡影如露亦如电的存在,不会影响天王的一人独大,却偏偏出来个东王杨秀清,声称自己能请天父下凡,而且还降临到他的身体上,借他的口发号施令,如此一来,天王的“最终解释权”就落在了东王身上,借着这个最终解释权,东王鞭打过天王,东王借天父口气对洪秀全说:“你与东王都是我的儿子,东王有这么大功劳,为什么只称九千岁呢?”洪秀全只能回答:“东王打江山,亦当是万岁。”洪秀全当初也没想到,这个曾经蛊惑人心拉拢队伍的做法,到了最后竟然成为别人打压操控自己的政治工具。

兔死狗烹,韭尽镰藏,是历史发展进程中常见的现象。打天下时,兄弟之间相互信任,休戚与共,坐天下时,兄弟关系成了君臣关系,手握重兵的功臣以及知根知底的前兄弟,对新王和新王朝来说,都是一个潜在的威胁,双方互帮互助协同合作的关系,变成了竞争甚至敌对的关系,比如朱元璋,对一起打天下的兄弟痛下杀手。商场不是战场,没有那么血腥,所以大强子也特意强调,不是兄弟也不是敌人,是路人,但却有点此地无银三百两欲盖弥彰的味道。

从市场经济的角度来看,一家大型互联网企业入局外卖市场,不论是对餐饮商家、骑手,还是用户,都是有好处的,不管是鲶鱼效应重振活力也好,还是改善骑手职业环境,以及餐饮行业的生存困境,或者说让更多的人关注外卖行业,关注骑手,关注餐饮……,都是非常有必要的。面对京东来势汹汹的进攻,大家都没有急吼吼地正面硬刚,美团发了一首诗,“他强由他强,清风拂山岗。他横任他横,明月照大江。”无视他人,做好自己,阿里太极推手般的应对也是“闪”了大强子的腰一下,淘宝天猫旗下推出了即时零售业务“淘宝闪购”,并在淘宝app首页以“闪购”一级流量入口展示。这在我看来,可以说是长效反击,也可以看作防御升级,但更像是在即时零售这个业态里射出的最长的一枪,让子弹飞一会儿。因为互联网行业发展至今,早就没有你死我活的竞态了,而是各自发力,各尽所能,共同推动行业的发展,嘴里喊打喊杀的,基本都是先把水搅混想趁火打劫的混子。“即时零售”“闪购”是非常清晰的商业表述,就是指服务用户的态度和速度,很多人可能没有感觉,认为没有什么创新和变化,作为一名有二十年工龄的古典互联网老兵,深知这个行业要有真正的创新和变化太难了,想当年互联网群雄纷争,大家玩的大多是宏大的概念,遥远的许诺,慢慢也就脱离了商业的本质,而今,“闪购”这两个字可以说是回归了零售业的根本,如果有什么值得期待的互联网大事件,这就是值得期待的变化,而不是什么给兄弟交纳五险一金。

淘宝闪购推出时,我在网上看到了他们一起推出的“真福利、真补贴”,作为一名创业十余年尚未成功的互联网那个企业家,我实在是不支持什么补贴政策,长远来看,对于哪一方都没有好处,补贴只是最初级的手段,但从当下的形势来看,好像除了补贴,也没有其他更好的方式来迅速获取用户让用户熟悉和体验新品,也没有其他更有效的防御武器来抵御外界的野蛮进攻,或许这就是面对门外野蛮人野蛮生长的无奈。不过有一点能够让人欣慰,那就是我们的互联网用户已经成长起来了,特别是面对平台之间的竞争交战时,可以说是久经考验百度不侵了,价格依然是重要决策因素,但大家都早已明白,价格很重要但不是唯一重要的,低价看上去很美好,但实则是“口惠而实不至”,就像大强子嘴里的“兄弟”,稍一细品就没有那么美好。什么给兄弟们交五险一金,说的是全职骑手,也就是正式员工,说的好像哪家公司不给正式员工交五险一金一样,对于那些外包骑手,还是跟其他平台一样的待遇。把一件事做好,总是要有团队要有技术要有经验要有积累的,难道有良心就能做好?更何况还不一定是真心,如果是这样简单,我们这的狗早就占领全球引领全球发展了,因为在这里,太多良心都被狗吃了。郭沫若在《甲申三百年祭》中说,“虽然屡次在下《罪己诏》,申说爱民,但都是口惠而实不至。”挺像大强子的。

在商场上谈利益当然没错,利益也应该放在首位,否则很难持续下去,但大家组建的是商业公司,不是兄弟会,那就应该在商言商,现代化商业公司该做好的事情做好,该签署的协议就签,别一张嘴就是兄弟,喷出的却是利益的味道,况且现在的“兄弟”还是重新定义过的,未来还会被随时定义。大强子每次高调做“兄弟”论的时候,都是他以及京东感受到巨大压力的时候,从长远来看是活下去的压力,有压力是好事,但不能只打情感牌,甚至有些牌打得很危险,比如“五险一金”的牌,比如“底层民众大救星”的牌,不仅僭越,还很有可能被反噬。想打感情牌也可以,但要注意度,他应该把余华请来,做个读书分享会,分享两本书,一本是《兄弟》,一本是《活着》。

互联网江湖,兄弟会很多,最可怜的就是已经被逐出江湖的贾跃亭了,一个人独身在美国,望着彼岸绿油油的韭菜而镰长莫及,虽然开始做短视频了,妄图通过互联网来延伸镰刀的长度,但是韭菜们已经不买帐了。看着视频里他孤独落寞的模样,一个兄弟也没有,其实这也是一种人设,他应该打造自己刺客信条的人设,“当其他人都盲目追寻真理的时候,记住,万物皆虚。当其他人的思想都被法律与道德所束缚的时候,记住,万事皆允。我们躬耕于黑暗,服侍于光明。我们是刺客,我们下周回国。”

真兄弟,是团队,不是团伙。

Before yesterday中国数字时代

首席商业评论|董明珠口爆“间谍论”,格力急了还是董明珠急了?

By: unknown
2 May 2025 at 01:53
CDT 档案卡
标题:董明珠口爆“间谍论”,格力急了还是董明珠急了?
作者:韩水土
发表日期:2025.4.26
来源:首席商业评论
主题归类:海归间谍论
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

近日,在格力电器的股东大会上,董明珠明确表示:“格力绝不用海归派,因为里面可能有间谍。我们不知道谁是,谁不是,只能保守地选择在国内高校培养人才。”

有评论称,这或许与一些往事有关,2023年格力某海归工程师离职后,将本企业技术参数泄露给外资企业,导致格力两亿元订单受到损失。

但从时间节点看,这个理由似乎并不是这次言论的直接诱因。这已经不是董明珠首次公开表达对海归人才的排斥,在2022年她就曾宣称公司超1.3万名研发人员“全部来自国内高校”。

也有人称董明珠快言快语,被“海归”伤透了或者就是纯粹提防某类人。本来这种选择也是每家公司的自由,董明珠怎么选人,或者格力怎么选人,完全是自己的自由,不招海归,我们也管不着,也不是不可以理解,毕竟这是格力的“内政”。

但即便理解她这么做,不代表认可她这么说。作为曾经的企业领袖,在回应“管理层年轻化”问题时,董明珠直接宣扬“间谍论”,肯定是有大问题的。将商业间谍风险简单归因为海归人才,背离常识,而且傲慢,如果真的按照这个逻辑,一些海归间谍还有国内的出生地,那个出生地的人才是不是也都不招呢?如此简单给人打上一个标签就定“死罪”,无疑是反智的表现,也会令人觉得是气急败坏的感觉。这样的言论逻辑甚至和当年的“华人与狗不得入内”一样无耻。

其实稍微了解一下历史,就会知道董明珠这个言论无疑是荒谬且无稽之谈,钱学森这样的两弹一星功勋都是海归,更有新中国第一代领导人也有海归背景,难道他们因为海归标签也可以被一概归类为间谍风险?再稍微搜索一下,我们也会发现,本土培养人员的叛变也是客观存在的,间谍风险有各种因素和环境导致,是否海归甚至都算不上一个核心要素,现在的信息交流和海内外交通那么方便,早就不是仅有海归才可能有海外相关利益的那个时代了。

所以,“绝不用”、“间谍”……这番口不择言,实则揭示出董明珠作为传统家电企业掌门人,真的老了:思维还停留在上个世纪,口号响亮,家长式作风,只顾输出情绪,一棒子打死,而不去思考问题发生的具体原因或本质,只能根据背景标签简单的一刀切。

当然,董明珠有可能故意这么说,为了搞流量,或者是说给一些格力的固有粉丝群听的,但是不是真的只有董大姐自己知道了。

很多时候,人不能解决一个问题时,会把问题的对象“去人化”或者进行丑化,为排除他们的行为找到合理的理由,进而为自己找到心理安慰。

即便如此,董明珠的位子似乎暂时还是挺稳的,这也是她口爆间谍论,甚至直接口爆Diss小米和雷军的底气吧。

但不管如何,格力的市场份额在2024年逐渐被蚕食是一个大隐患。

01 卸掉总裁,董明珠连任董事长,2024或成转折点

4月22日,格力电器召开2025年第一次临时股东大会,董明珠再次当选董事长。

有数据显示,董明珠以35.7亿股同意票(占有效表决权股份总数124.46%)连任第十三届董事会董事长,同时卸掉总裁职务,由高管张伟接任。此外,格力董事会成员也进行了不小的调整,增减变动明显,可谓是一场大换血。

回望来时路,从基层销售人员,到企业掌门人,董明珠带领格力走到今天,已经有三十五个年头。自2003年起担任格力电器总裁,2012年当选董事会董事长,董明珠以铁腕企业家的管理风格,推动格力电器从规模经济转向技术驱动,被商界称为“铁娘子”。

在董明珠强硬领导下,格力电器成绩不俗:技术上掌握压缩机、变频技术等核心部件,在空调市场份额上连续多年位居全球第一,利润增长稳健,2023年营收规模超2000亿元。并且,企业分红能力也很突出,同时提供大量就业岗位。

然而,2024年似乎是一个重要的转折点:格力的主营业务空调产品在国内的市场份额(约25.5%),不仅被美的(约28%)赶超,就连小米、海尔、TCL等企业也有冲击的势头。2024年三季度,格力营收同比下滑5.39%,一改过去十多个季度连续同比上涨的趋势。

不仅如此,格力,正在面临诸多问题与挑战。

02 格力的挑战,难解的困局

具体来看,当前格力面临四大问题。

第一,企业治理问题。首先,掌门人权力过大,决策过于集权化,存在品牌形象风险。就如最近董明珠的“间谍论”发言,不仅引起广大海归人士不满,在法律上公开指控特定的群体为“间谍”,可能构成诽谤,这将严重损害企业形象,或造成部分用户弃用格力产品。

此外,格力作为家电品牌与董事长董明珠存在过度绑定问题,比如不少格力专卖店更名为董明珠专卖店,这种试图打造个人IP的行为是双刃剑,首席商业评论在早前的文章中就特别分析过。

最后,强IP企业往往存在接班人选问题,和网红商超胖东来一样,格力也存在接班人问题,年过古稀的董明珠会决定未来接班人人选吗?外界无从得知。从孟羽童和王自如的情况和此次“间谍论”的发言看,对于人才选用,董明珠似乎更依赖个人喜好。

第二,多元战略问题。空调市场遭受各大企业围剿、挤压,市场变化多端,格力选择实行多元战略,试图多方位寻求利润增长点,比如开展手机、新能源、芯片与智能装备等业务。

然而,多元化战略也开展得不够顺利:格力手机因高价低能被市场排斥,销量不足,最终被内部消化,始终没能出圈。格力生活电器,占市场份额仍不足10%,绿色能源2024年上半年营收同比下降31.8%,业务收缩显著。自主研发的空调芯片,市场份额不足1%,工业机器人海外市场拓展缓慢。

第三,渠道转型受阻。无论是小米,还是美的,这几年在渠道营销上发展的都不错,比如线上渠道直播电商,已经承担起不小的销售额。而格力,线上零售额还存在短板,直播电商销售额不及头部竞争对手。此外,格力的经销商体系也遭遇动荡,多地经销商减持股票套现。

第四,海外布局滞后。目前,格力自主品牌出口占比仍然不足30%,不及美的的41%,也不及海尔的35%。此外,区域市场薄弱,过分依赖东南亚和中东市场,而美国和欧洲的市场占有率却不足5%,最近美国关税战打响,对后面的发展不能说没有影响。

可以说,这四大问题,正阻碍着格力进一步发展,基业长青的宏伟目标将成为挑战。

03 格力向何处去?

董明珠“间谍论”的不当发言,可能暗含其作为掌门人对格力前途晦暗不明的担忧,从而剑走偏锋。格力向何处去?是格力股东和董事会,未来必须要思量的问题。

针对前面提到的问题,格力在四方面发力,或能破局,盘活棋面。首先,在企业治理上既要掌权又要放权,谨言慎行,建立科学有效的人才选拔体系。

格力电器新任总裁张伟

第二,在多元化战略上,继续加大研发投入,构建技术壁垒与产品升级,同时加快品类拓展与品牌重塑,实现从空调到健康家生态的战略目标。

第三,积极推动渠道转型升级,力争全面实现从经销商模式向新零售模式的过渡,同时加速推进营销场景化创新,类似“健康家电进社区的”的营销活动要多做,拉近与用户的距离。

第四,继续深耕国际市场,尤其加速在越南、印尼等地区的建厂。另外,积极参与世界杯等全球赛事的赞助,提升国际形象,并利用社交媒体进行品牌宣传,让格力走得更深、更远。

百年变局,不仅是世界的,也是企业的。一家企业,总会遇到很多问题和挑战,最关键的做法是重视它们,解决它们,而如何解决,能否看得更加长远,无疑是由掌门人的格局决定的。

参考资料:

1新京报:“绝不用海归派”,董明珠“间谍言论”背离常识

2南都周刊:董明珠,不再兼任格力电器总裁

3谷雨实验室:董明珠71岁了,她还在战斗

4民企观:“空调之王”格力电器的困境

冷杉RECORD|不愿将就的年轻人,撞上离婚冷静期

By: unknown
2 May 2025 at 01:34
CDT 档案卡
标题:不愿将就的年轻人,撞上离婚冷静期
作者:王禹饶
发表日期:2025.4.29
来源:冷杉RECORD
主题归类:离婚冷静期
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

结婚变得更加容易了。

新修订的《婚姻登记条例》即将在5月1日生效。这意味着,结婚登记和离婚登记都不再需要户口簿。但由于离婚冷静期等诸多限制,即便不需要户口本,离婚也并没有那么容易。

“结婚免密支付,离婚拼多多砍一刀。”有网友调侃。

的确,每隔一段时间,“离婚冷静期”就会被推至舆论的风口浪尖。

最近一次是在今年两会上,全国政协委员蒋胜男建议删除民法典中关于“离婚冷静期”的条款——她上一次提出类似意见是在2020年参加民法典草案审议时。“离婚冷静期”生效四年来,人们关心它的实施效果,也忧虑它带来的副作用:若其中一方反复撤回离婚登记申请,另一方便需要不断地经历离婚冷静期,双方矛盾很可能因此激化。

根据2024年民政事业发展统计公报的数据,自2021年实施“离婚冷静期”以来,协议离婚占比从2020年的86.1%降至2023年的71.94%。与此同时,诉讼离婚占比则从13.9%升至28.06%——从这个角度看,离婚冷静期似乎并没能对婚姻起到黏合作用。

另一方面,2024年的结婚登记量却创下1980年以来的历史新低。

这一趋势与婚姻律师刘琬琳的观察相符,“如今人们对婚姻的态度有了转变:既然离婚这么麻烦,那我干脆不要结婚了。”刘琬琳是湖北美宜佳律师事务所的创始人。去年冬天,《再见爱人》第四季热播期间,她带领团队60位律师一起看节目、开直播。这场跨界尝试,意外地成为观察当代中国婚姻现状的窗口。

最近,我们采访了刘琬琳,试图厘清几个关键问题:在离婚冷静期实施的四年多里,它究竟如何重塑着中国人的婚恋选择?当法律程序可能成为情感桎梏时,怎样重新理解婚姻的本质?而在诉诸法律之前,是否还存在其他解决婚姻困境的可能?

以下是刘琬琳的口述:

无法轻易退出的“游戏”

离婚冷静期实施后,我们律所出现的情况是:找律师帮忙协商好的夫妻,更愿意直接到法院走诉讼,通过调解的方式离婚。因为可能在一个月内,法院就达成一份调解了,没必要再等“冷静期”。换作以前,律师出面帮他们协商好之后,大家就马上去民政局协议离婚了。

这一现象导致民政部门的协议离婚数据出现某种“失真”:不见得他们的离婚登记数量趋缓,真实的离婚人数就减少,可能是人们选择“曲线救国”了。

对于冲动离婚的情况,离婚冷静期的确有一定效果;但对那些深思熟虑决定离婚的人,他们再怎么“冷静”也要离婚。一些时候,“冷静期”反而可能加剧对双方的影响和伤害,比如好不容易达成一致的条件,在“冷静期”内一方反悔,导致夫妻间的信任崩塌,彼此猜疑猜忌,最后双方都不愿意协商了。

我们有个客户就是这样。她老公赌博,本来两个人已经说好了,女方除了孩子什么都不要,按男方说的拿点儿钱帮他还赌债,就可以离婚。但是在冷静期内,男方又在外面借钱赌博,让女方给他填窟窿——因为他要抓住这种机会:你既然这么想要摆脱我,对吧,那我就要再让你拿点钱出来。这种无限循环,是非常恐怖的状态。两人原本当时当下就可以离婚,但因为冷静期,变数增加了,矛盾和争议也加剧了,最后到我们这里来起诉。

就是说,有离婚冷静期放在这儿,可能就导致大家本来可以好好协商的事情协商不了。两个人会处在一个博弈的状态——反正还有 30天的冷静期,那我就先等等,看看万一呢?

至于离婚冷静期要不要废除,我觉得不能“一竿子”地看,还是要分情况对待。但这样执行起来就有非常大的难度。在当前,离婚冷静期仍在实施的情况下,如果存在家暴等严重过错,而且也有证据能够证明的话,建议大家采取诉讼离婚的方式。法院对家庭暴力、人身伤害有绿色通道,比如“人身保护令”,时间上会快很多。

对于这些在婚姻中受到伤害的离婚当事人,无论年龄多大,都蛮需要有人支持的。因为当事人本身会有恐惧,对将来不是很有希望,担心万一离了过得比现在更差。当用这种思想把自己圈禁在牢笼里时,就很需要外力的助推。比如我们遇到过一个孩子,陪妈妈来离婚———一般稍微上年纪的人,只要孩子们支持,她反而心理上会有力量感。在这个家庭中,男方有家暴,又有外遇,女方为了供两个孩子上大学,忍了二三十年。后来实在忍不下去了,女儿也支持妈妈和爸爸分开。

也有很多诉讼离婚无法速战速决。如果进入诉讼程序,周期长的话,可能两年都不止。

它最核心的点在于,第一次起诉离婚时,在某些情况下,比如法院不认定夫妻感情破裂,对方不同意离婚,也没有重婚、家庭暴力、虐待遗弃家庭成员等原则性问题的时候,法院是可以先判不离婚的。它会强制禁诉,也就是要求原告冷静6个月后,才能重新起诉。家庭琐事产生的一些矛盾,比如婆媳矛盾、教育问题等都不是法院判决离婚的理由。

和离婚冷静期一样,禁诉期的核心目的也是希望大家能够慎重、理智地对待婚姻,不要在冲动之下做决定。毕竟两口子一起生活,磕磕碰碰非常正常。而且婚姻不仅是两个成年人的事情,还涉及两个家庭,有可能还涉及下一代,它的关系面非常广,所以会有离婚冷静期、禁诉期。

但这里有个很现实的问题,就是财产分配上的不公平。法院第一次不判离的时候,是不会处理财产分割的。这就给掌握财产的一方钻了空子——他们可能不是真的不想离婚,而是想利用这段时间转移财产。再加上六个月的禁诉期,等第二次起诉要分财产的时候,有些钱和东西可能早就被转走了,甚至还被“合法化”了。这对另一方特别不公平。

所以冷静期也好,禁诉期也好,我觉得感情的问题是可以冷静的,但不能把孩子的问题、财产的问题一起冷静,否则就有风险。

女性更容易在“冷静”中受损

因为“冷静”受损的一方,女性居多,尤其是全职妈妈。

全职妈妈把自己的重心全部放在家庭里,男方在外面打拼事业,创造经济财富。那么在这场婚姻中,男方肯定是直接掌握财产的一方,他知道他有多少财产、在什么地方、具体什么情况,“冷静”的时候,就会导致女方婚也离不了,财产也控制不了,陷入被动。

我们经手过一个案例就是这样,女方是全职妈妈,把儿子和女儿培养得很优秀,男方在外面打拼,有了第三者后,想跟原配离婚。但他不主动提——因为他提了离婚,女方就可以提条件,会涉及财产切割,于是男方就故意打压女方,用不回家等办法逼迫女方自己提离婚。当女方提出离婚的时候,男方又会说,“我在外面那么辛苦,你在家里享受,竟然还要提离婚、分财产”——他就这样把自己放在道德高点上,建立优势。

女方起诉之后,男方又说自己没有财产。考虑到女方长期做家庭主妇,对财产知情权不够透明,在第一次诉讼时我们申请到了法院的调查令,锁定了男方的一些财产信息。男方知道自己的招儿没用了,在财产上做出了妥协。最后他们是调解离婚的——诉讼离婚中,要么是调解离婚,要么是法院最后判决离婚。前者拿到的是调解书,后者是判决书。

其实在离婚案件中,调解程序是贯穿始终的,但凡有机会都要调,要尽可能把双方矛盾降到最低。做不了夫妻还可以做朋友,做不了朋友,还可以做孩子的父母,总归来说尽量让双方可以和平冷静地处理这个事情。毕竟到了判决那步,夫妻之间的隔阂和矛盾确实会加剧。

通常走到判决那步的夫妻,要么是财产上坚决不让步,要么是因为想要孩子。比如在二胎家庭,原本以为可能一人要一个,可以很轻松解决这个问题,但现在很多人不是争一个,而是争两个。他们不希望两个小朋友分开,担心分开之后对小朋友造成不好的影响。

离婚难度的增加跟人们的经济状况也有关系。财产形态丰富了,不可分割的东西多了,就会导致离婚麻烦一些。以前离婚要分房子、车子,现在更多的是无形资产,比如公司股权,基金股票,虚拟货币,还有经营的公众号、网店,这就让财产分起来没那么简单了。

很多人选择在婚前就把财产计算得很明确,比如谁出钱买房子,写谁的名字,谁出钱谁还贷,收入怎么分。我觉得这样做是对的,我们开始直面婚姻的本质问题了。其实婚姻本身就不是单纯的感情问题。谈恋爱说喜不喜欢,但结婚绝对不是喜不喜欢对方才结婚,结婚一定是两个需求价值的交换。提前把话说清楚,反而会有利于后面去解决问题。

“很多问题没必要忍”

我从2015年开始做离婚律师。这10年里,能感觉到的一个变化是,大家越来越容易因为鸡毛蒜皮的琐事而离婚,比如双方相处不来,凑不到一起。但之前更多是一些重大问题才会导致离婚,比如重婚、家庭暴力。我理解这是现在的人越来越独立的一个表现,随着经济的发展,人的忍耐阈值在降低,就是“很多问题我没必要忍”,人们会考虑自己多一些。

可能这也是之所以有“冷静期”的原因,就是让大家认识婚姻的本质——选择跟一个人结婚,不能只看到对方的优点,看不到缺点,而且每个人的需求都是在变化的。当矛盾发生的时候,不要轻易用离婚的方式来解决问题。简单来说,你不会游泳,换一个泳池也不会游。

但目前来看,离婚冷静期带来的一个问题是,大家反向地不是去考虑婚姻该怎么经营,而是觉得“离个婚这么麻烦,那我不要结婚了”。我有客户就这么想。所以现在很多人不结婚,只同居。

我觉得这是好事。每个时代对婚姻的需求是不一样的。以前人们觉得要忍,是因为觉得两个人需要绑定在一起,才能有对抗风险的能力,经济才能稳定。但现在大家物质生活水平提起来了,开始追求精神上的愉悦了。如果说之前的婚姻是为了增加抗风险的能力,现在很多人则是为了找到志同道合的人,找到精神愉悦。这也是生存模式决定行为模式。

来找我们离婚的人,85%以上都是女性,年纪最大的有70岁,因为“忍不下去了”。相比之下,男的在离婚问题上,忍耐阈值比女性高很多。很多问题他们能忍,只要不出边界,不触发底线,他们其实不太愿意离婚。

刚才说的这个70岁的女性,之前她一直在为孩子容忍男方出轨。后来,孩子们都有自己的生活了,儿孙满堂了,女方仍然没有换得男方的尊重,她就想为自己活一活。很多时候都是这样,女性选择离婚的时候,通常都是想让自己快乐、幸福一点,而不是把整个重心放在丈夫、孩子那里。

随着年龄增长,女性在很多问题上很通透的。你只要不触到她的财产经济利益,她不太愿意在一些小情小爱上纠葛。她非常清醒和独立,不纠结,就是你能给我提供经济价值的时候,我就和你在一起,你可以不跟我提供其他的,你随便在外面玩都可以,我把我自己保护得很好。但是一旦你的经济价值出现问题,我也会立刻快刀斩乱麻地跟你分开。

我有个50多岁的客户,她活得非常通透,不像一般人眼中的全职妈妈,生活中都是把自己放在第一位的。她老公在外面可能也不是很顾家,但她不在意,她说你只要不触到我的经济利益无所谓。但是最近她发现对方公司生意出了状况,她非常果断地要做切割。

这些年,我能明显感觉到想要离婚的人,年龄段变低了。也就是说,年轻人不排斥离婚,他们很清晰、清醒,觉得不能好好过就分开,“本来找一个人来遮风挡雨,没想到风雨都是这个人带来的”。我觉得这很正常,随着经济发展,每个人意识层面的独立性会越来越强。因为婚姻本身也是两个人组合在一起各自满足各自的需求,当其中一方觉得另一方不太能够满足“我”的需求了,或者自己也能满足这些需求的时候,就不会选择忍让。

之前我们总说七年之痒,但现在三年就是一个很大的坎。很多人都是正准备要小孩的时候发现彼此不适合,然后快刀斩乱麻。一般三年一过,基本上都会有小孩了,有小孩之后婚姻可能会相对稳定一点。

我们也有一些女性客户是第一次起诉后在法庭上和好的,还有第一次起诉判不离后,两个人自己和好的。这种情况普遍是因为孩子问题或经济问题没那么容易切割,尤其女性很容易为小孩做出妥协和忍让,想为孩子保留完整的家庭。

其实我不太认可这种行为,这不是解决问题的根本方式。

当夫妻之间出了问题,又要去维持虚有其表的婚姻状态,是不会对孩子好的。孩子非常敏感,他们要的是父母有爱的家庭氛围。如果妈妈不快乐,会无形中把一些情绪暴露在小孩那里。小孩也会感到很大压力,觉得“妈妈为了我才这样”,会有很强的负罪感,不会快乐。

65%都是调解

离婚看似简单,其实掺杂了太多情感问题与关系问题,确实需要律师在处理这些问题时有一定的情怀,要对处理人的关系有特别的兴趣。

对我们来说,追求的不能是单纯地用法律规则,而是能够帮他们把法律规则用活,能够真正解决他们的问题,让他们真的在混乱的、仇视的关系中握手言和。所以婚姻律师要有一个大的使命愿景,就是希望每一个在婚姻泥沼中的当事人都能够有重新开始的勇气。

我们做的6000多起离婚案件里,有65%都是调解的。

有时听到人们说婚姻律师就是离婚律师,我就会纠正,告诉他们婚姻律师不是离婚律师,也不是拆家律师。婚姻律师很重要的价值是,在夫妻之间缓冲矛盾,避免不必要的冲突。如果一个婚姻律师不抱着调停、调和的态度,只是单纯地走程序,为达到目的不择手段,是会出问题的。

最初想当婚姻律师,很大程度上源于我实习期做的一起婚姻家事案件。

那个客户我记得特别清楚,她是一个遭遇家庭暴力的当事人,30多岁。她不敢见她的老公,老公在她的想象中非常恐怖。听过她的表述后,当时我们也没有多想,就直接选择起诉离婚的方法了。等到法院开庭那天,她老公带了一群人过来,要把这个女的抓回去。在法院,他见到他老婆的第一件事,就是伸手掐住她的脖子说,“你还敢跟我离婚?你给我回家”,非常凶神恶煞。

当时我第一反应是,走到客户身边,把男方的手打下来,跟他说,“你注意这里是法院,不要太嚣张”。我发现我不害怕当时那种状态,我反而觉得那个女孩太需要人帮助了。

这个案子最神奇的地方是,那天开完庭后,男方找了一群人堵在门口不让我们走,最后我们是在法警的护送下走的。但你能想象吗?在这么尖锐的关系中,这个案子我们最后帮她协议离婚了。

当时我们找了男方沟通,想看看彼此的误会在哪里——如果不把话说清楚,女方是要躲一辈子的。离婚不是解决问题的根本办法,法院判决也不是。当我们联系到男方时,他跟我们说,“她要离婚,她怎么不自己好好跟我说,要用这种(上法庭的)方式让我丢丑?”我们了解到男方这种心态后,就采取了协议离婚的方式。后来男方还帮女方支付了律师费,他拿着现金到民政局交给我们那一刻,给我触动特别大:一个在法庭上像恶魔一样的人,在协议离婚的时候竟然成了“小顺毛”。

那个案子之后我意识到,婚姻问题里,一念天堂,一念地狱。如果处理得好,大家就都是善良的,如果处理不好,激发的就是恶意,人也会变得可怖。人们很多时候是在跟自己的想象过日子——不是说先换位思考一下对方的立场,而是完全站在自己的立场,先给你定性,再去找证据来证明自己的定性是对的。如果因为想象,在婚姻中产生了这么多误会、分歧,冲突,那真的好可惜。

六神磊磊读金庸|肖飞居然还让大家向董小姐学习

1 May 2025 at 21:55

file

事件本身已经不用多说了,都吃瓜多少轮了。

有一处很小的细节,最让人感觉不是滋味。

就是董小姐非要取消轮转,肖飞在工作群里怼麻医生,说了这样一番话:

“如果(你们的医生)因为工作量的轻微增加就闹情绪,建议他们和胸外科教学秘书联系,帮助他们向董大夫学习,更好理解规培住院医生应该具备的使命感和责任心。”

董袭莹小姐不肯去脊柱外科轮转,各种托关系、打电话,要留在肖医生的胸外科。

脊柱外科的麻昊宁医生十分火大,公然和肖飞开撕,并直言:这种特权行为,增加了同学们的工作量,导致不公平,大家意见很大。

原话就说的是“特权”。

结果是麻医生阻击失败,董小姐摇来大佬打招呼,让脊柱外科不得不低头,自己不用轮转了。

文章开头这番话,就是肖飞在群里撂下的一句胜利宣言:如果你们有意见,建议来向我们董大夫学习。

等于是贴脸开大。

file

CDT 档案卡
标题:肖飞居然还让大家向董小姐学习
作者:帅呆的sixgod
发表日期:2025.5.1
来源:微信公众号“六神磊磊读金庸”
主题归类:董袭莹
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这句话,是相当膈应人的。任何人但凡有一点基本的同理心,大概都会被这句话灼伤。

见字如见人,从中看得出此人个性确实比较骄狂,也的确是做得出手术室发飙,还解开女朋友助手的工作服,扔下病人扬长而去的事。

且来品味一下这句话,它妙就妙在,群里一百多人,以及所有的围观同事,都知道这是谎言和狂言,半个字都没人信。

就那么大个单位,谁不明白肖董二人的关系,谁又不明白这次拒绝轮岗是咋回事?

但肖飞偏就能怼得理直气壮,扯淡得义正辞严;偏就能毫无顾忌,公然说董大夫最棒、最优秀,还要你们学习她的“使命感和责任心”。

估计当时所有围观的医护都被上了一课:最牛逼的不是说谎,而是能够把谎话公然说得和真理一样。

最张狂的不是后台操作,而是操作完了还特意摆上前台让你吃下去。

我把这段话看了好多遍,字缝里歪歪斜斜只看出来一句:你服不服?就问麻医生你服不服?

过去,在你我这种土鳖的肤浅认知里,规矩不该是这样的。

总觉得倘若是既得利益者,通常应当低调一点,闷声发财最好。

占了便宜了,就多少顾及一下旁人的感受,这本该是走后门的基本道德。

人家科室都认栽了,何必还当众贴脸开大?你俩睡都睡了,何必非大群里示爱?要办的事明明都已办成了,何必不依不饶补刀拉仇恨?

却不知社会已经进化到另一个层面了。所谓低调、避嫌、闷声发财,原来都已经是穷人思维和底层认知了。

在肖飞他们的认知里,已经没有低调这一说,只有胜利之后的纵情宣泄和对失败者的当场折辱。

都说“得理不饶人”,但他们已经是不得理还不饶人。

都说“赢者通吃”,但这些赢者不但要通吃,还会公然让你向她学习。

活该你阻击失败,活该你社会资源不如,那么就往死里按你的头,问你服不服。

这让人想到武侠小说里很多桥段:

“如果小杨过你因为挨打次数的稍微增加就闹情绪,建议你和全真派的教学秘书联系,帮助你向赵志敬老师学习,更好理解修真行业的忍耐力和牺牲精神。”

“如果金翠莲你因为卖唱工作量的轻微增加就闹情绪,建议你和状元桥肉铺的教学秘书联系,帮助你向郑大官人学习,更好理解服务行业应该具备的使命感和责任心。”

只能说,这个世界上,存在着完全不同的两种人格,已经到了无法互相理解的地步。

一种“不争气型老实人格”是,一切以不冒犯别人、不产生冲突对立为宗旨。

哪怕只是得到自己份内应当的东西,也总觉得欠了别人的,心虚忐忑;偶尔被公平对待几次,都受宠若惊;正常地评了个职称、得了个先进,都莫名其妙地心下惴惴,忍不住在单位里溜墙根半月,唯恐被误会为张扬跋扈,伤害了旁人的感情。

这就是屌丝为什么终究是屌丝。

相比之下,肖飞这种完全是另一种人格,为了一点便宜,不惮于任何冲突和对立,哪怕赢了还要贴脸开大。

不止一个肖飞,整个故事里许多人都是如此。

譬如董小姐,以她的人生职业规划,几项关键目的都达到了。那就低调一点,混在别的老实孩子里暗度陈仓就完了呗。

可人家偏不,还要当明星学员;还要上媒体露脸,登大头照片。

里子也要面子也要,实的也要虚的也要,岗位也要流量也要,既要又要还要。

再者,博士已经拿到了,规培三年,坚持一下有什么挺不过去?轮岗一下怎么就熬不得?

可人家偏不,非要例外之上创造例外,不可能里再造不可能。

顶级大咖的关系,别人即便有,动用时都慎之又慎。换了那些穷孩子历练少的,别说求大佬办事了,连打个正常工作电话都紧张得不行,事先要做无数心理建设。可董小姐非要挑战规则,动用大咖,只为了一个屁大的“不轮转”。

达到目的之后,和肖医生还要不依不饶,群里发飙,去碾压那些捍卫原则的人,对人公开处刑。

特权的版本,如今已经升级了。

光是使用特权本身已没有快感了,只有揉捏、折辱不识相的阻挠者,“建议你们向董大夫学习”,才有足够的快感。

普通人其实已经很接受现实了,早都默认了“资源咖”“关系咖”的存在,默认了无处不在的裙带。

他们只是希望你们的吃相好看一点。

但在肖飞这些人看来,吃相好看,那还不如不吃。

看到一句话挺有意思:强者从不抱怨环境,因为环境就是他们搞坏的。

【404文库】阜成门六号院|董小姐算是京城婆罗门权贵出身吗?

1 May 2025 at 20:01

image

现在自媒体都说董小姐出生于京城婆罗门或权贵家庭,昨天笔者发朋友圈提出质疑,引发很多朋友的兴趣和讨论。其实董小姐家庭在北京不过是上中产,她的丝滑人生,不是靠特权,她这级别家庭没有什么特权,而是靠“人生自我努力”、精明钻营,以及没有道德羞耻感。

无独有偶,今天饶毅教授也在《请勿错怪协和王辰教授》一文中提到:“舆论认为某学生父母是权贵,我专门反问一位转这种新闻的官员,你认为她母亲在北京算官员吗,他回答‘不算’。所以,大家可以质疑有些问题,但说某生母亲是官员,她恐怕哭笑不得”。

可见饶先生也是这个观点,读者们但凡是了解京城社会生态的话,都不会同意董家属于婆罗门、权贵的说法的。为什么这么讲呢?

我们先看网络上梳理的董小姐父母及其亲戚的职称头衔,当然网络搜罗出来的信息也不可能完全准,但是最关键的其父母信息是准确的。董父为为中冶建筑研究总院有限公司副书记、总经理,而中冶建研院是五矿下的二级企业,央企下面二级公司的二把手一般是副局(厅)级或正处级,当然因为中冶建研院资格比较老,可能是局级。董母为北科大某学院副院长,比较确定的副处级。

其实这种家庭,在北京的朋友圈中算是标配,他们属于65后、75前的一代,但凡毕业于一个985级别的高校,工作比较勤奋、为人不至于太死板的情况下,都是比较容易达到这级别。这样的家庭在北京至少有数万个,确定说是一个上中产或高知家庭,如果非要说贵,那顶多是富贵,而不能是权贵。

CDT 档案卡
标题:董小姐算是京城婆罗门权贵出身吗?
作者:BJ王明远
发表日期:2025.5.1
来源:微信公众号“阜成门六号院”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这种局级家庭——大红旗轿车、门岗警卫这种最简单的上层身份标志,都与他们无缘。更不会享有职务外的特权,如果他们有些关系,也是利用手头资源,托关系走后门勾兑的,而非是不怒自威,人家处处巴结他们,主动给他们办好的。

前几天跟一些朋友聊天也谈到这个话题:北京(乃至全国)的官员群体远非大家想象中的那么神秘、无所不能。随着社会的开化进步,以及中央反腐力度逐渐加大,最起码到副部级、部级这个层面,除了少数很有职业特长,还能用知识发挥社会影响力的之外,他们如果退休后,影响力会迅速减弱,也不过是拿退休金的老干部,本身并无太多特殊待遇。甚至副部级连配的专车都没有了,他们也可能像你我这样在用滴滴打车,最起码局级层面出门打车很普遍。

如果董家真的是权贵,那么董小姐在2019年大学毕业后,不会拐弯抹角再去读四年医学,不管她是真读,还是假读,毕竟还需要四年的时间成本。那时候正好是金融业最风光的时候,董小姐读的又是经济学,董家如果有关系那么完全可以安排到最好的国有金融机构拿高薪,而不必再搞这么漫长的“曲线救国”。

笔者猜测正好是董父母资源有限,所以利用其祖父(协和校友、曾任某顶尖医院影像科主任)的残存关系,把孩子送进协和4+4试点班试一试,家人好把她扶上马、再送一程。董小姐的博士论文为影像方面的,并且有院士指导,正好验证了笔者上述猜测,很可能是她爷爷找了院士老同学给指导的,课题就是咱家最熟悉的领域,孙女不会爷爷可以帮。

所以,笔者认为,在董小姐的整个事件中,她祖父才是最关键,决定她的医学求学道路和职业道路的人物(如果网络披露的她祖父名字属实的话),而不是她父母,或者她的外祖父以及七大姑八大姨。

综上,董小姐一事不能用权贵模式来解释,更确切是用知识阶层堕落或精英自甘腐败来解释,董被爆料的行为,处处显示出这个家庭的精致利己主义,或极其善于经营:

1.从医的人最起码讲医德,引导自己孙女读医学博士是可以,无可厚非,但是给自己孙女辅导博士论文,又把孩子安排到肿瘤医院这种人命关天地方的一线医务岗是怎么回事?这不是害孩子,更是以后祸害患者吗?

2.董的成长路是被家长精心设计的,从规避高考到美国就读社区大学,然后转学到巴纳德学院,成功获得哥大的名分,再到协和博士班,显示出这个家庭善于利用便捷通道,让孩子获得成功。

并且董家一直善于利用媒体,她上小学时,就登上北京市属媒体;进入协和以及实习后,又找央媒的外围媒体给予曝光,可能家长觉得知名度越高,意味着孩子越成功。

3.董小姐的行为也表明,她是一个很聪明的人,但是又是被溺爱长大的,被家庭灌输追求极致成功,而缺乏道德底线的。比如她与有妇之夫搞婚外恋,还堕胎;再比如,她在2022 年到 2024 年期间,一共发表11篇高水平论文,从骨科到妇科,从放射科到泌尿科,从高分子物理,到化学到生物医学,跨度之大令人咋舌。

这样复杂的高难度学术研究,即使华佗转世也不太可能完成,何况对于一个从经济学转到医学的0基础新手。她的这些运作背后,可以清晰看到家庭给她的穿针引线,以及家庭行事给她的影响。

因此,董家行为分明就是一个中等家庭善于钻营的典型,董的成长更像是一个虎妈鸡娃,在京城有限资源的高度竞争中,拼命在维护社会地位不下降,甚至是有所上升的过程。这本质是一种平民的逻辑,而不是权贵家庭的逻辑,如果真是上层,会害怕高曝光,唯恐别人知道自己在干什么,就像有钱人怕人知道自己有钱,只有没钱人才爱好炫耀以及拼命赚些钱。

另外,这两天大家为了证明董小姐不学无术,都说巴纳德学院相当于国内三本,约等于南京大学金陵学院这一类,是一个水校,这一点笔者是不同意的。董小姐起初就读于哪个社区大学,怎么转学进来的,我们还不清楚,但是巴纳德是美国老牌文理学院,绝非平庸之辈。

巴纳德学院是“七姊妹”成员之一,这七所学校均建于1850年前后,初期是女子学院,所以人称“七姊妹”。“七姊妹”中在中国最有名卫斯理学院,宋美龄和冰心都毕业于这里;巴纳德学院创建于1889年,地理上紧贴哥大,或许因为它发生了财务困难,1900年起隶属于哥伦比亚大学,但仍保有独立的董事会与财政机构。

所以,巴纳德学院虽然比不上哥大本科金贵,但是本身教学质量也不差,毕竟它在全球的中心纽约,会有一流师资,就像北京最普通的本科学校——北京联合大学,教师里面清华北大博士生占比,可能超过地方一本院校。中国学生申请巴纳德学院的难度,笔者认为应该跟参加高考考取的211难度差不多,不是说花钱就能进入的水校。当然,董小姐通过社区大学转入,其中难度可能又降了很多。

以上分析,也并非为董小姐洗白,笔者对董小姐事件的态度,可见昨天发的文章,只不过是指出最近舆论上的一些误区,让我们更避免情绪化、更尊重事实去讨论这个社会事件。

最后祝大家假日愉快!并附一张图,供大家一乐,这可谓中国三甲名医院的真实写照。

file

基本常识|赵基淮同学你别怕,董家人手再黑也遮不了天!

1 May 2025 at 18:06

file
头图由豆包生成,提示词:女医生抢论文

今天看到媒体报道,董小姐的博士毕业论文与北京科技大学一名残疾学生的专利文章高度雷同,气得我真是拍案而起,瞬间就起了行侠仗义的念头。

这要是真的,就欺人太甚,太丧心病狂了!

image

首先声明,根据现有的证据分析,还不能完全断定断定董小姐论文属于抄袭或抢了他人的研究成果。但是,这里的巧合也太多了,多到让人不得不相信的程度。

巧合一:相同的选题

身在协和医学院临床医学专业读博的董小姐与北京科技大学计算机专业读研的赵基淮同学,居然精准选中了同一个课题的同一个切入角度。

这是董小姐的毕业论文《跨模态图像融合技术在医疗影像分析中的研究》,发表于2023年。

image

这是赵基淮同学申请的专利,一种跨模态生成和检测的方法及装置,用于医疗影像生成与处理,申请于2022年。

image

原本我还在想,董小姐也没有计算机背景啊,怎么毕业论文选了个医学与AI图像处理相关的交叉课题,这更像是计算机专业的技术选了个医学应用方向,而不是基于医学问题找了个AI的解决方案。

现在把这两个研究摆在一起,一切就很好解释了。

CDT 档案卡
标题:赵基淮同学你别怕,董家人手再黑也遮不了天!
作者:项栋梁
发表日期:2025.5.1
来源:微信公众号“基本常识”
主题归类:协和4+4
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

巧合二:论文中的配图

董小姐毕业论文中使用的图片,和赵基淮同学专利中使用的图片,不能说完全相同,只能说是一模一样。

image
董小姐论文配图

image
赵同学专利配图

此外还有多处文字论述几乎完全一致的对比,我就不一一举例了。论文查重与抄袭认定是学术委员会的事,但对我个人来说,已经足够做出判断了。

巧合三:董小姐的姑姑

赵同学的专利由4个人共同申请,其中3位是北京科技大学计算机学院的老师,只有他一个人是学生。稍有基本常识的人都知道,主要研究工作肯定是赵同学做的。

image

而这3位老师中的班晓娟,是赵同学的导师,她同时也是董小姐的姑姑。

巧合四:赵同学疑似被延迟毕业1年

赵基淮同学2020年考入北京科技大学计算机系读研,作为听力障碍人士,赵同学读研期间获得中国大学生自强之星等荣誉称号,参与多个重点项目,申请多项专利,绝对是品学兼优的好学生。

image

image

按照北京科技大学计算机专业硕士研究生的学制,2020年入学的赵基淮同学应该于2023年毕业,以他的实力,在本校本专业读个博士应该是顺理成章手到擒来的事。

然而,如此优秀的赵基淮,下一次出现在新闻里却成了2024级的博士研究生。

image

大概率,赵基淮同学被导师延迟毕业了一年!

这也是自董小姐事件发酵以来最令我愤怒的一个点,这太欺负人了,太丧尽天良了!

即便是杀人如麻的黑社会土匪也知道,不能欺辱老人、孩子、残疾人。董家人,如果还能称之为人的话,这么欺负一名品学兼优的残疾学生,连土匪都不如!

你要把自家孩子扶上马,镀上金,推荐去顶级医学院读个博士,大家也就忍了。

你家孩子不争气,你们有权有势给孩子花钱找个枪手把毕业论文给写好,大家咬咬牙也能忍了。

可你们,找一个品学兼优,身有残疾的研究生,把人家的研究成果抢走给自家孩子发毕业论文,完了还让残疾学生延迟毕业一年……

这特么是人能干出来的事吗?!!!

欺人太甚!

现在事情曝光出来,想必还在北京科技大学读博的赵同学会压力山大。

赵基淮同学,请你不要害怕,他董家势力再大也不能只手遮天。如果你遭受过不公正待遇,被迫参与了学术造假,希望你联系我或者媒体记者把实情公之于众。

如果你因此而遭受打击报复,无法继续在北京科技大学读博,我郑重承诺,可以个人捐赠人民币30万元帮助你到国外读博深造。还不够的话,我有充分把握可以通过公益途径帮你筹齐资金,资助你完成学业。

我能力有限,没有办法帮助你伸张正义,但我愿意做你坚强的后盾,我相信基本常识的读者也有很多人愿意支持你。

朗朗乾坤,不能让给这些魑魅魍魉!

星球商业评论|董小姐掀开了天宫一角

1 May 2025 at 09:30
CDT 档案卡
标题:董小姐掀开了天宫一角
作者:杨乃悟
发表日期:2025.4.30
来源:微信公众号“星球商业评论”
主题归类:特权阶层
主题归类:董袭莹
CDS收藏:话语馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

中国医学史上,注定会有董小姐的名字了。

这两天肖飞医生和董袭莹医生的瓜,已经远远超越了裤裆那点事儿。《人民的名义》唯一一个死的,是农民的儿子祁同伟。现在,唯一被处理的,也是寒窗苦读的肖医生。

和他一起的董医生迟迟没了下文。

董袭莹,北京协和医学院医学博士,中国科学院肿瘤医院执业医师,中日友好医院规培医生。本科就读于哥伦比亚大学巴纳德学院经济学专业。2019年,董医生通过协和4+4试点班开始跨专业攻读医学。

这个4+4项目从2018年到2024年,一共就收过3个经济学专业的学生,比新媒体、园艺、艺术专业不知高到哪里去了。

董医生的履历很神奇,被4+4项目录取时的专业是内科。在校就读期间,董医生就能连续和多位院士共同发表论文,内容覆盖骨科、胸外科再到脑外科。更神奇的是,虽然是实习生,董医生不仅能登上手术台,参与复杂手术,还能被国社报道。

然后被内科专业录取的她在毕业时凭借妇科影像学的论文变成了外科医生。然后又去了中国科学院肿瘤医院从事泌尿科工作。

很快,初出茅庐的董医生就成为了《膀胱癌诊疗手册指南》的第一作者,开始指导起新同学来了。你们这些医学牛马,不要总在帽子上写“我不是4+4”了,对照董医生,然后问问自己:

这么多年了工资涨没涨,有没有认真工作?

image

协和4+4的目的是培养交叉学科人才,据我看董医生交叉得非常好。内科、外科、肿瘤科、妇科、影像科……一直交叉到肖飞医生的胸外科。

看到董医生如此年轻又如此优秀,很多网友酸酸地说她是凭祖荫举孝廉。

乃悟问了中日友好医院和北京科技大学的朋友,他们都说董小姐的爹是中冶建筑研究院的总经理,娘是北京科技大学的教授和院长,外公是知名外籍院士,力学专家米耀荣,还是米芾的后人。

这些不恰恰能证明董医生的优秀?

要知道4+4项目宣传说自己是优中选优。比如当年北大光华管理学院的毕业生陈如月,为了上协和4+4选修了大量医学高难度课程,结果面试没成功。最后只能重新参加高考,考了上海交大医学八年制。

这难道不足以证明4+4项目的公平?

4+4是一种学习自美国的医学生培养模式。也就是从非医学专业的本科生中筛选一部分来学习医学。美国人采取这种方式,是因为他们没有医学本科,所以理论上所有医学生都属于跨专业。

这种模式很早之前就有高校在开展。比如浙江大学、上海交大。早在2002年,上海交大就开始实施4+4模式,但只限理工科。直到2018年,才开始招收文科生,但可能是太难了,当年居然无一名文科生报名。

协和医学院也在2018年启动了首批4+4的试点班。和美国有全国统一的考试不同,协和招收4+4的学生,一是要求出身名校,二是要求两名副教授以上职称推荐,三是要求修够相关学科的学分,而考核方法是:

面试。

据说这种多站式面试引进自加拿大,能全方位考察考生。有记者采访了当时的考生。考生说他们有5种考核方法,除了面试和英语考试外,其他三种:

保密。

2020年协和的4+4招生开始出现笔试要求。但同样的,面试的考官是谁?笔试的习题是哪些?谁来阅卷?谁来监督公正?面试的评分标准是什么,一概不知。

现在就连招生简章都是保密的了,网页已经无法打开。按照协和的说法,4+4能够筛选出:

精英中的精英,真正热爱医学的学生。

比如2025级冬季班招收的盛玺澄同学。根据网上公开信息,盛玺澄同学初中时就读于上海市青浦区实验中学,并加入上海市学生表演艺术团工艺表演一团。中考时,因为是优秀团员,又是艺体特长生,享受降20分录取的政策。

高中时,盛同学当选为最美中学生,又是参加数学竞赛,又是参加英语竞赛,又是参加电视台节目,还被选为优秀毕业生。

2018年,盛同学同时在北京大学、上海外国语大学自主招生入围。只要她高考考到相应成绩(比如一本线),就会被录取。乃悟查了一下,盛同学在上海外国语入选的专业是:

捷克语。

最终盛同学选择了复旦管理学院。复旦经管学院曾刊登了一则来自盛同学的中秋感言。盛同学深情回顾了自己唯一一次不在父母身边过中秋,是去瑞士巴塞尔参加演出庆祝两城缔结友好城市十周年。

2022年,盛同学本科毕业。中间可能是工作,也可能是读硕士,直到这次被协和医学院录取。

一个舞蹈特长生,擅长捷克语,经管系毕业的优秀人才,就要来给大家看病啦!

2024年,一位叫做邱靖涵的小姑娘被录取了。而后,一位叫做邱靖婷的小姑娘又将在2026年春季入学。他们这个姓,算了,我还是不能乱猜,因为不是孤例。

2024年入学的还有个男同学,医学院还没上已经是医学辅助治疗系统的发明人之一了,第一发明人竟然和他一个姓。

更别提其他什么15岁跳级,23岁拿下协和博士一年后就搞肿瘤科研,地质生12页论文就入职协和了。

当然,也不是所有人都觉得4+4选出来的都是精英。比如今年4月,一篇刊登于《基础医学与临床》上的论文就指出,通过对协和4+4的学生们进行回顾,发现他们无论是论文产出数量、评分、临床能力,都和传统5+3培养出来的学生有差距:

核心胜任力差异性比较大。

这种暴论,完全都是对精英们的污蔑。

患者们无非是冒了点生命危险,董小姐失去的可是镀金路上的垫脚石啊。

img

【重温】歪脑|作为思想犯的王建兵与黄雪琴:在互助与连结中获得滋养的灵魂

1 May 2025 at 08:45

CDT编辑注:自由亚洲旗下的新媒体平台“歪脑”日前因特朗普行政令而暂停运营。成立于2017年的歪脑主要面向华语世界青年群体传播自由主义价值。本文发表于2024年8月21日。CDT近期将持续回顾歪脑的报道。

CDT 档案卡
标题:作为思想犯的王建兵与黄雪琴:在互助与连结中获得滋养的灵魂
作者:张泰格
发表日期:2024.8.21
来源:歪脑
主题归类:雪饼案
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

2021年初,处于国保严密监控下的卢昱宇正过着东奔西顾的生活,“年关难过”对于他来说有着另一番味道。他每到一处,当地的国保必然会闻风而至跟踪、骚扰,他就只能再搬一个地方。卢昱宇曾两次去过广州,两次都被当地国保强行驱赶,“广州不欢迎你!”——国保只是说。当他老家贵州的警察仍然无休止的骚扰时,他决定再去广州。

那个经朋友介绍可以收留他的人叫“煎饼”,望文生义,于是他初初在脑子里给王建兵构建的形象是个圆鼓鼓的大胖子。王建兵去火车站接他,卢昱宇看到的却是“一副硬核摇滚形象,还留着小山羊胡的西北大汉。”让他这个南方人有了一些压力。所幸,短暂的交流后,“他就露馅了”。——和外表相反,煎饼语调柔和,从不高谈阔论。自言性格孤僻的卢昱宇,却很快和王建兵成了朋友。

在王建兵家暂居的三四天中,王建兵对卢的照顾无微不至,“吃饭什么的都是他做,我觉得一定要去帮忙刷碗,他也说‘不用我自己来就好了’。”卢昱宇暂住的地方,就是广州海珠区新港西路149号202房——这里也是后来被官方列为组织聚会用以“煽动颠覆国家政权”的地点。王建兵也顺理成章在之后邀请了因收集记录中国各地群体性事件而系狱4年的卢昱宇来做分享会。

卢昱宇是维权信息平台“非新闻”的创办人,在2016年中被捕后,最初以“煽动颠覆国家政权罪”起诉,后因证据不足,改以“寻衅滋事罪”定罪四年,最终的定罪依据,仅仅是他发布的8条微博。4年的刑期,卢昱宇光在看守所就度过了1年4个月,在监狱度过了2年8个月。——卢的这一切经历与当下黄雪琴王建兵二人所经历的,又是何其相似。当然,这已经是后话了。

公民社会风浪中的“夜航船”

2024年6月14日,广州中级人民法院以“煽动颠覆国家政权罪”判处黄雪琴有期徒刑五年,王建兵有期徒刑三年六个月。两人曾分别以独立记者、公益人士的身份投身于多个社会公共议题的倡导。黄雪琴曾参与多起#MeToo案件的报道和为性侵害性骚扰受害人提供帮助和支持;而王建兵则长期在中国公益领域工作,从事过农村教育发展、残障社群赋能和尘肺病工人权益工作。

而他们被当局抓捕并判刑的核心原因,则是在广州组织的见面和聚会活动,这令黄雪琴和王建兵成为了政府眼中“煽动他人颠覆国家政权”的罪犯。“雪饼案”的刑事判决书有27页,由广东省广州市中级人民法院2024年6月13日发出,上面盖上了法院的大红图章,案件号“(2022)粤01刑初298号”提示着全案不寻常的处理时间——黄雪琴和王建兵于2021年被捕,在上庭前经历了长达两年的拘留。而2023年9月的庭审却仅用了一天时间。而最终的判决结果也延宕了九个月之久,这早已超过了刑诉法规定的最长等待判决时间。

判决书显示,两人在境外平台及社交网络的言论表达被视为攻击政府、诋毁政权的煽动行为;此外两人还参与和协助“非暴力运动”课程,更重要的是,他们共同组织的“夜航船”每周聚会,被视为重大的煽动颠覆国家政权的行为。雪饼案关注组认为,正是“雪饼组织的每周聚会,深耕催化行动者社群,并试图重建多年来被打压的公民社会网络。该聚会所凝聚的社群网络及其衍生的社会批判,令当局将其视为危害国家安全的不稳定因素。”

img

雪饼案判决结果

黄雪琴和王建兵的共同朋友祥子忆述,每周四“夜航船”的聚会,从2020年11月开始,一直举办到两人被捕的2021年9月。公安机关则更详细地为聚会统计了次数:“202分享会’总共办了20至30场左右,其中大约20次是有主题的”(见判决书第20页)。”祥子说,聚会的主题包括安全空间的互相支持:朋友间分享困惑、人生挑战,其他朋友互助提供建议等。也有一些针对社会事件的建设性、批判性讨论。也包括一些知识分享,例如邀请相关领域的学者、专业人士,分享经历和感受,学习新知识。另外也有一些关于社群的能力建设培训和讨论,比如处理性骚扰危机,工人维权等。当然还有打麻将、桌游等娱乐活动和身心关怀。

“曾经有一个具体主题,比如安全空间的支持,提到有些伙伴被喝茶,会提供建议,按照判决书,这些都被警方视为‘鼓励与警察做斗争’”。祥子说。最终,这些原本正常的活动,都被法庭约化成为了“煽动他人颠覆我国国家政权 、推翻社会主义制度”的“犯罪构成要件(见判决书第25页)”。

“夜航船”的名字是王建兵起的,劳工行动者祥子在接受公民媒体WOMEN我们访问的时候曾提到,“名字很像在夜里摸黑航行的感觉,即使没有方向,大家也还是要抱在一起向前走。”——为此,王建兵还设计了一个小logo。那是三个人挤在一艘小小的木帆船上,海面波浪汹涌,上面的人却似乎仍然安然的坐定对谈着。然而这些意象和期待在公安机关的侦查中,则是:“王建兵、黄雪琴等组织“夜航船““艄水”群组中, 借讨论社会话题之机,煽动参加人员对我国政权的不满,传授反侦查方法,交流如何开展煽动颠覆我国政权活动等(内容见判决书第15页)”。

img

“夜航船”的logo。曾经热络的聚会群组,在“雪饼”被捕之后变成“0 members”。

王建兵力所能及的“小事情”

近期,王建兵的亲友向记者转述了他本人对于聚会活动的初衷和看法,他说2019年后言论环境越来越差,再加上疫情的影响,大家已经习惯了网上的交流。他觉得“人始终要有些活生生的互动”,期望大家不要因此隔离,“不要就这样散了,所以就做了这个挺小的事情。”王建兵说,这是他力所能及的小事情,“特别大的我也做不了,就只能做这种小事情。”

狱中的他,也仍然在记挂着一些未完成的“小事情”。他曾经在2021年探访过十多个湖南株洲攸县的尘肺病人,他了解到两个月之间便有两名病友去世,当时他就期望能够给他们做一些筹款工作,但是因为被捕最终没有进行下去。他还有些懊悔,觉得这个事情没有做好,也不知道剩下的人怎么样了。因为共同打工的关系,尘肺病往往会让一整个村的男性都成为患者,这个不可逆的病患会让他们妻离子散、家破人亡;而这些患者需要长期吸氧,因为躺着呼吸不畅,只能趴在桌子上睡觉。因此,这些病友更需要社群的陪伴和心理支援,这也是当时王建兵的主要工作。而他每月花2600人民币租下的202房,本就是为了能够请广东省职业病防治院里的工人多来聊天而准备的。还因为尘肺病工人们大多呼吸不畅,无法爬楼,他选择的也是价格更高的二楼。

王建兵惦记的,还有那桩社群内没有解决的性骚扰事件。他的朋友王欣、木斓曾经在社群内遭遇过性骚扰事件,而施暴者当时是王建兵多年的好朋友。“王建兵当时的态度就是和这个人割席绝交。他的这种反应对我的帮助非常大,是很重要的鼓励。”王欣说他会主动关心几位受害者,并约她们一起谈诉求和解决方法。因此事件搬离广州的木斓,也常常会收到来自王建兵的问候。

无论是对#MeToo当事人的支援还是聚会的筹备,王建兵的工作总是不显山不露水。参加活动的大家都觉得王建兵的角色并不显眼“因为建兵很少去主动去发表观点,他更多是做组织,他就是把大家拉到一起去调去约不同的人,就是去动员然后去设定主题,去给大家准备各种水果、食物、茶,收尾的打扫卫生也是他来做。整个讨论过程当中,他都是协作的角色,鼓励大家去发表自己的意见。

王建兵的家乡

王建兵的家乡是甘肃天水,到了天水市还要再转车半小时才能到他家的村子。王家以务农为生,天水出名的是樱桃和苹果,近年也开始种一些金桃。父亲王治学在王建兵被捕后,曾经拍摄视频,用很朴素的话语呼吁执法机关让家属和律师会见王建兵:“我的娃娃不是个坏娃娃,当初读书以后,他在社会上搞这个公益事业。我觉得是一点坏事都没做过,这一次出了这么大的事情,也不知道是啥事情。”

“从他父亲的语气和表达里能感受到,他不觉得自己儿子被抓坐牢是一个很耻辱的事情,反而他心里面觉得自己的儿子是一个很正义、很善良的人。”木斓在王建兵被捕后,去过王家,王建兵母亲长期患有哮喘,儿子的被捕让她多了不少牵挂和担忧。王建兵是他们村子少有的大学生,毕业于西北师范大学的幼师专业。家人曾经的期望和他本人的选择多多少少有着不同,不过他们说自己在农村,很多东西他们不明白,“但是孩子有自己的人生,既然父母没办法给到更好的,那就让儿子自己去做好了。”

img

王建兵的父亲王治学

曾经和王建兵共事过的朋友小五,记得他这样讲述自己的家乡:小时候只有土豆可以吃,家里贫穷得连裤子都买不起,几个人分享一条裤子,让要出门的人穿,其余时间就躲在被窝里,或者光着屁股走。

当时小五和王建兵共同在一个残障人士赋能工作的团队中,王建兵是负责人,在一年多的时间内他们要密集的给残障人士进行赋能培训。小五在和他的合作中真切的感受到王建兵的热诚:“他对于边缘群体的关注有一种真挚的情怀,这些可能都源自他本人的家庭背景。”

王建兵幼师毕业之后,最早在西部阳光基金会做过农村地区的教育工作,2014年在恭明社会组织发展中心负责残障社群赋能项目。2018年后关注劳工和职业病议题,尤其是对尘肺病工人的权益倡导。NGO的工作薪资很低,小五当时曾经问过王建兵要不要回去当老师,“他就很意味深长的笑着朝我摇摇头,那意思是不再可能了。”

小五和朋友们喜欢管生活简朴的王建兵叫做王大爷,“因为他和你聊天的时候,总会捋着他的山羊胡,笑眯眯地故作沉思状。”他爱喝茶,爱古诗词——很多朋友都收到过他做的古体诗,又往往因为看不懂而不久就遗失了,他会把仅有的工资用来买成堆成堆线装书。

因为关注尘肺病工人,他也对“矿工诗人”陈年喜的诗歌钟爱有加。王建兵曾经一次性买了陈年喜很多本诗歌集《炸裂志》,一方面是为了支持陈年喜创作,一方面也是为了把这些作品送给朋友,让他们更多了解工人。

王建兵对朋友也不吝惜,木斓在休养的时候学做茶叶,王建兵便会转给她1000块钱提前买茶,除了自己喝,他也会在探望朋友的时候给他们送去分享。一直到他被捕,这笔茶钱还没有花完;不像卢昱宇的老家遵义,广州的冬天温暖,看到卢只穿了一双厚厚的防寒鞋,王建兵就操心起来,一定要给他买一双适合在广州穿的鞋,于是就塞给卢300块钱让他自己去买。其实很多朋友都知道,王建兵当时的生活已然非常拮据。

从王建兵家出来后,卢昱宇在广州过了年,其后在郊区长洲岛租下了一个有开放大阳台的老房子。虽然很脏很破旧,但是一番改造后,也成了黄雪琴、王建兵等一众朋友经常见面、喝茶、饮酒、打麻将的地方。

这里门口有一个枇杷树,王建兵就把这个地方命名为“枇杷居”,更作诗一首赠与卢昱宇。辗转动荡之下,这首诗已经找不到了,但卢昱宇还很记得里面描写了他当时的生活状况。

得知卢昱宇提到了枇杷居,祥子特意给记者找出了王建兵作于2021年3月5日的那首《賀友人新卜“枇杷居”》

浪子天涯一處家,卜居尤喜近枇杷;

門迎曲巷市聲遠,簾隔風塵舊夢賒;

長夜消愁宜對酒,小樓聽雨好煎茶;

鳴禽芳草漫招引,欲踏春光到落花。

img

阳光、美景、好友相伴,那大概是卢昱宇离开中国前相对比较开心的日子了。——只是还没等到春光尽、落花散,就在王建兵赠诗的4天后,他还是被国保爬阳台入室驱赶,再次被迫离开了广州。那时的枇杷也才刚刚成熟。因为不舍得这个“枇杷居”,王建兵便提议把这个地方继续承租下去,每月500多人民币的租金还是一人出一百块这样续下去的。

朋友知道他内心中有个自洽自足的丰富小世界,这让他并不急于表达自己,但也忽略了他已经内化的情绪,既来自外部,也来自自身。

得悉卢昱宇流离到了郑州,为了见他,准备返回老家天水的王建兵特意在郑州短暂停留。郑州火车站广场人来人往。改革开放以来,这里就成为了中国最繁忙的火车站之一,每天有数万甚至十多万来自中西部的农民工经此,或是北上北京、或是南下广东。王建兵作为从甘肃走出来的大学生,也行径这里去过北京、落脚广州。

一个工人集体行动记录者、一个职业病倡导者,就这样在偌大郑州火车站广场有一句没一句的聊了一个小时,王建兵说,我们这样的人没有未来也看不到希望,没房没车也不敢恋爱结婚,怕连累人家姑娘……卢昱宇说:“直到那时,我才知道,这个在生活中总是关心着别人的人,内心是如此绝望。只是他一直都把这种绝望埋在了心底。”

这是卢昱宇最后一次见到他,不久后王建兵就被捕了,连同“枇杷居”也一起被警察抄家。

对于长期投身公益圈的王建兵来说,卢昱宇这样背景的客人也许对他来说已经成为常态:从2015年开始,中国公益圈和公民社会持续震荡:“女权五姐妹”被捕、NGO“益仁平”成员郭彬、杨占青被捕,其后是“709大抓捕”以及针对劳工组织的大抓捕。广州作为这些事件的中心之一,威胁和逮捕就在身边不断发生着,2017年黎学文和十多位中国公民曾在广东新会的海边祭奠刘晓波,旋即被警方逮捕并被长时间关押。——这些都给了当时王建兵不小的冲击,再加上2016年《境外NGO 管理法》出台,中国的公民社会直接被置于国家安全的管控框架之中,他本人所在的NGO同样在动荡中面对抉择,小五回忆:“当时很多机构都面对转型,很多项目都无法再做下去,敏感一点的方向都要放弃。无论是从机构还是他个人都要考虑何去何从的问题。”

从恭明中心的工作岗位离开后,他颓丧的在家宅了很久,总是离群索居的一个人在打游戏,他的情绪问题也是从那个时候开始的。当时广东地区的很多年轻人也因此再次归于沉寂,“王建兵作为公民社会兴旺时期过来的人,除了感到悲哀,他也觉得很有必要去重新把大家聚在一起创造一个安全空间。”祥子说。在王建兵眼中,在经历了过去十多年公民社会的低沉和挫败后,在这些艰难时期重新凝结社群、促进青年行动者的网络和互助是至关重要的。他希望通过定期聚会的方式重新建立连结、探索新的公民社群行动方式。

与人的连结让他们获得滋养

小针和黄雪琴相识在2018年,那时黄正在进行#MeToo的报道,二人成了私交甚好的朋友。2019年,黄因为参加香港反修例运动游行并发表文章,于10月被警方以“寻衅滋事罪”拘留,直到翌年1月方才被保释。

img

黄雪琴

在小针的忆述中,黄雪琴是那种充满了热情和想象力的“社牛”。“有一次我们在一个很小的咖啡馆里聊天,她就突然问我‘你觉得上一年年有没有什么好事?’我说好像没有什么好事,她说的是2018年。”接着黄雪琴便自顾自的说,“那一年最好的事情是#MeToo发生了。”后来她就开始问咖啡馆的所有人你觉得今年最好的好事是什么?

小针觉得黄雪琴是那种好奇心,同时有能够把好奇心变成一个真正问题的能力。“她其实是一个与他人在连接当中感受到滋养的一个人。”因为做#MeToo的报导,黄雪琴认识很多当事人,她几乎跟给所有的当事人,都提供那种小针自己都觉得承受不来的情感支援。“她会跟当事人聊完天后,带着当事人去参加活动、去读书会。她是真诚的希望对方能够从她和她的朋友那里能够感受到更多情感上互动。她是一个很真实的人,哪怕是在当事人面前也都是无保留的。”

回忆涌上来就收不住,小针又迫不及待的讲述了黄雪琴的另一个故事。小针当年因为被警察找上门,导致自己非常抑郁,而那时黄雪琴也已经被捕。“就说我要看一个电影,一个对这个体制可能还有些希望的电影。我就看了德国的《窃听风暴》。”那时一部描述东德时期秘密警察窃听艺术家,并出于人性将其拯救的故事。

“当时对那个电影我毫无感觉,因为我知道我遇到的警察都不是这种人。”但是中间有一个桥段却令她不期然想起了黄雪琴。“那个秘密警察说,他们对待艺术家或者思想犯的方式,就是把他们关起来然后不给他们看报纸、不跟他们说任何话,然后他们就慢慢的枯萎掉了。——因为这些思想犯的灵魂,就是非常渴望和他人保持联系,并从中得到滋养吧。当时我看这段的时候我就哭,因为我就想到了黄雪琴不就是这样的人吗。”

她回忆自己在黄雪琴第一次被释放的时候去找她,本以为只是吃饭,结果她马上问小针还记不记得李翘楚?说要给李翘楚写点东西。“她感觉好像从来没有(因为坐牢)受过什么伤一样,我以为她出来之后至少会休息,或者说我不想再做这样的事了。怎料她出来的第一想念就是还是要去创作,还是要去做对别人有用的事。”

小针很担心她在狱中受到的对待,但又不敢直问,“感觉你还是以前那个样子……”,黄雪琴却开玩笑的问:“你觉得我在里面被打了吗?”小针不敢答,生怕触碰到黄雪琴的伤疤。黄却很大方的告诉她自己没有被打,警察对待思想犯的方式就是不停的审讯轰炸。她特意向小针分享自己在狱中的观察,自己在被监视居住的过程中是没有隐私的,往往要当着警察的面换衣服,对于女性来说是非常屈辱的事情。

黄雪琴知道自己需要社群、需要朋友的滋养,她也用这种方式去滋养他人。

在判刑之前,两人已被囚超过1000天,而早前据雪饼案关注组称,因为长期的关押审讯和半夜突发提讯,二人身体和心灵都备受煎熬。黄雪琴除了体重骤减,更出现“继发性闭经”等问题;王建兵早前则被单独关押长达五个多月。”而近期王建兵的亲友向记者表示,他还出现了心脏和肠胃方面的问题,而他在狱中更曾经因为感染新冠连续高烧数日而没有获得药物治疗的情况

“坐牢最辛苦的地方就是,它会把你和外界的所有东西都切断。然后每一天每一秒,它会让你被驯服、被淹没。”作为曾经的政治犯,卢昱宇一早已经体验过了封闭的牢狱生活,这也是他最担心黄雪琴王建兵的地方。“每一个很小的规则你都要去反抗的话,是需要付出很大的代价。”卢昱宇觉得每天吃饭前警察都会要求所有犯人蹲下,“我觉得这是非常侮辱人格的。你不蹲,警察就会动手,我也会还手。打到后面,他们觉得你这人没救了,也就不和你打了。王建兵是那种书生气的人,以前做尘肺病工作,他说话就很温和,在监狱里面可能很吃亏。”

从他的亲友了解,王建兵在狱中并没有听说受到什么欺负,他的精神状态向好,但是心脏和肠胃问题仍然值得关注。狱中的王建兵迫切的渴望阅读,他近期开出的书目包括汉娜·阿伦特的《人的境况》以及查尔斯·泰勒的 《本真性的原理》,此外还希望可以读到上野千鹤子的 《厌女》,他说这本书之前读到一半没有读完,至今念念不忘。

来自世界各地的声援

在黄雪琴王建兵被判刑两天后,他们的朋友小针和十余名伙伴,在夕阳下的威斯敏斯特桥展开了一副“超级超级大”的横幅,“这其实是向声援巴勒斯坦活动学的,他们之前便在桥上挂了一个特别震撼的banner”,这是一场女权主义者的快速的跨国联动。“我都不知道是什么时候开始的,我就感觉是大家想为黄雪琴做一点什么事,然后就拉了一个群把彼此认识的各地方不同的人,也是一些比较活跃的各地小组的组织者拉进来 。”

口号很快敲定:“只要黄雪琴不自由,我们都不自由。”英文版本则是“WE ARE NOT FREE UNTIL XUEQIN IS FREE”。同一天,相似的横幅出现在了温哥华唐人街、旧金山金门大桥,华盛顿方尖碑前,以及纽约时代广场、东京涉谷路口和东京铁塔下……

img

图顺序:纽约、三藩、DC。

img

图顺序:伦敦、东京、波士顿。

小针在黄雪琴第一次被捕的时候,就为她撰写过声援文章。“当时我想这些书写对我自己很重要,因为我也不知道能做什么,也不知道对黄雪琴有什么用。”再见到被释放的黄雪琴,黄告诉小针,她给自己写的文章她都看过了,很感动。“其实我到现在还保留着我跟她出来之后的聊天记录,就是她跟我说,她在里面的时候就知道我们会在外面支持她的。所以她想着我们就会很有力气和信心吧。”

“用这种很drama的方式想要去记住她,我觉得这对她来说是很重要的。我不想让她的那种意志只是一种虚幻的意志,我希望她出来之后能看到,这些信念是真实的。”小针说。

这种真实也是画条幅的辛苦和抬条幅的重量,她们去印巴人的布料店花150英镑买了3*25米的白布料,前一晚用投影把字投在布上描出边缘,再请朋友把字涂上。“这个Banner非常非常的重,它可能要十个人拿,而且在桥上(展示)其实也是拿不住的。”从制作到展示,前前后后有20多个朋友帮忙。

小针认为,这次活动最重要的一件事情,是让很多支持关心黄雪琴的人能够具体亲身地参与。“不管怎么样,我们身体力行站在桥上拿着横幅的时候,那种感觉跟网上转发是完全不一样的。我们在海外的人是很需要这种感觉的,也算是一种复健吧。其实画横幅和展示本身并不难做,难的是要有一个作为组织者的commitment(承诺)。其实海外年轻人同样需要有这样的行动机会,但更需要有意愿做组织的人。”

她期望未来能够尽可能多的在公民社会中做组织工作,而非一个参与者。“我以前对组织者的想象必须是非常聪明、非常有能力、愿意冒风险的;但是我想,哪怕是和大家在家中做钩织、一起做快闪这样的小事情,也值得来组织。”某种意义上,这就是黄雪琴王建兵所留下影响。

王建兵、黄雪琴不过三四十人的小小社群,滋养出来的能量其实并不容小觑。祥子提到,在广州,这种社群的陪伴和支持,在不断受压抑的公民社会里,成了给了年轻人喘息的空间和发展更多想像力的地方。实际上,2022年的白纸运动中,被捕的年轻人往往本身也有着很强的社群网络连结。

img

民众头戴黄雪琴与王建兵的照片表达声援。

当然,寒蝉效应下,二人被捕导致广州的公民社会社群四散,几位受访者也都逐渐远离了自己公民社会的圈子。祥子坦言,“经历挚友被捕、判刑其实本身也是一个非常受挫的过程,因为很多朋友对这段经历都有阴影,甚至出现PTSD。虽然不断有新的朋友加入支持,但是这个创伤的救援环境,仍然有很多人会慢慢离开……”

其实朋友眼中的王建兵从来就不是一个勇敢而冒进的人,甚至有人说如果知道后果是这么严重,他大概都不会去做这样的聚会,但他就是有自己择善固执的地方。

在一审最后陈述中,王建兵表示:“我的本意不是去推翻政府,而是希望通过自己的努力,让一些人更加自由,社会更加平等和美好。”而黄雪琴表示:“作为一名记者,我做不到保持沉默。我也知道自己不安全,迟早有一天会面对这样的状况,但需要承担的后果,我愿意承担”。一审判决时,黄雪琴趁宣判间隙,当庭表示不服判决,将上诉。而在明年3月就要刑满的王建兵在考虑之后则仅就部分判决上诉。

木斓最关心就是黄雪琴和王建兵能够早日回家。她既感动于黄雪琴不认罪义无反顾的坚定;也理解王建兵仅就部分判决上诉的选择。她希望他能尽快获得自由。“毕竟这个圈子塑造了太多‘铮铮铁骨’的男性形象,却太缺少人性关怀。”

小五梦见过王建兵很多次,梦里的他成了一个庸俗忙碌的小老板,他事业有成,放下执念,做回了一个庸俗的人。

刘夙的科技世界|这路遥马急的人间

1 May 2025 at 08:34
CDT 档案卡
标题:这路遥马急的人间
作者:刘夙
发表日期:2025.4.30
来源:微信公众号“刘夙的科技世界”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

今天是4月最后一天,“五一”长假前一天。写多了消耗脑力的长篇理性文章,偶尔也想轻松一下,写一篇短小的随感。

小时候,我的家境并不富裕,所以很遗憾,没能培养出演奏乐器或绘画的技能。特别是绘画,我觉得真的非常实用。很多用文字不能表达的意味,用一幅漫画就可以含蓄而绝妙地道出。我总是设想,假如我会画漫画,今天我阴阳怪气的能力,还能再提升十倍。

回想4年前,也就是2021年的时候,很多话题,在网上就已经不能公开讨论了。能够讨论的,往往都是一些琐碎而无足轻重的问题,什么“该不该跟外卖员说谢谢”、“小年应该是哪一天”、“汤圆和元宵是否一样”之类。还有一些问题,我总觉得从一百多年前的新文化运动开始就应该达成社会共识,居然现在还在争论,比如“文艺作品是否允许出现婚外情”、“女人能不能上桌”、“美术学院要不要画裸体”之类。当时还有个叫《奇葩说》的聊天节目,也贡献了不少这类不咸不淡的话题,最典型的一个问题是说美术馆着火了,在世界名画和猫之间,你只能选择救一个,那你是救画还是救猫?

看到这种局面,我当时来了灵感,就用Powerpoint加上Windows里的“画图”软件,画了这么一幅漫画:

image

我把这幅漫画私下分享给武汉大学的周玄毅老师,当时他还上微博,就发了出去,据说转发上千。因为这点小小的成绩,我忽发奇想,想学画漫画,于是毅然买了一台iPad Air平板电脑,配上苹果原装触控笔,又买了绘画软件Procreate。当然,这也就是一时兴起,后来我根本就没有开始学。这台iPad的主要用处,也变成了看电子书和用多邻国学外语。

这样过了几年,我们迎来了大语言模型时代。尽管我看不惯舆论对这些大语言模型的过度吹嘘,但承认它们确实提供了一些非常便利的功能,能够让普通人做一些本来没有能力做到的事情——比如画漫画。

4月下旬,简中网的舆论状况依旧,有些突发事件不允许讨论,但不妨碍另一些事件可以讨论得热火朝天。这几天最热的话题之一,就是肖飞出轨案。肖飞是中日友好医院胸外科的副主任医师,因为多次婚内出轨,其妻子(也是医生)忍无可忍,向医院纪委写了举报信,最后导致肖飞在4月27日被院方开除党籍并解聘。

我一开始并没有关注这件事,觉得只是很普通的狗血事件而已。一个多月前,在听说了某海外名人身上一件类似的事情之后,我在朋友圈发了条感想:“要想干大事,还是自宫吧。没有性激素刺激,可以省掉很多冲动带来的麻烦,还能长寿。”这基本就是我对所有这类桃色新闻的通用评论。

但后来,舆论的焦点就转移到了肖飞医师最后出轨的那位年轻规培医生董袭莹身上,因为她的经历暴露了远比桃色新闻严重的事情——以权谋私。

董袭莹据说出身高级技术官僚和知识分子家庭(据说她父亲是某科技型国企的总经理,母亲是北京某工科高校的研究院副院长),年纪轻轻,就到美国读了高中和本科,毕业于知名女校巴纳德学院。随后,她于2019年成功考取了协和医学院的4+4制医学研究生,于2023年顺利毕业,获得医学博士学位。

所谓“4+4制”,是主要由美国采用的医学生培养制度,即不设医学本科教育和本科学位,只有医学职业教育和博士学位。医学职业教育面向所有本科招生,只要在4年本科阶段中修过攻读医学所必需的一些课程(如有机化学),就可以申请到医学院就读。顺利的话,4年之后即可毕业,获得参加医师执照考试的资格。顺便说一句,美国的律师也采取职业教育的方式培养,而没有法学本科教育和本科学位。

中国的传统医学教育则不然,设有医生本科教育和本科学位,由此又形成了多种本+硕或本+博的医学生培养方案。协和医学院(以及其他一些大学)为什么要在医学教育完全不同于美国的情况下引入美式的4+4制?据说是因为有很多成绩优异的高材生,在高考报志愿时没有报医学,后来才发现自己真正感兴趣的是当医生。4+4制可以给这些潜在的医学人才提供一个机会,把他们也吸引到医学界里来。

这听上去是一个很合理的理由,但只要对这个社会有所了解,就知道嘴上说一套、实际做一套的情况太普遍了。董袭莹的履历就暴露出一种可能——这个4+4制,恐怕更主要不是为了吸引什么有志于学医生的优秀学子,而是为有权有势者的子女开辟一条捷径,让他们弯道超车,甩掉按常规方法辛苦求学的普通医学生。

通过肖飞妻子的举报信以及其他网络爆料,目前可以证实的是,董袭莹在获得医学博士学位、在中日友好医院参加规范化培训期间,拒绝完成规培所必须要求的科室轮转,通过其邱姓导师(骨科专家、工程院院士)的干预,执意留在其情夫肖飞所在的胸外科,违反了规培规范。此后又在胸外科手术室中,莫名其妙地与巡回护士发生冲突,由此导致作为主刀医生的肖飞情绪失控,冲那名巡回护士大喊大叫,又赌气拉上董袭莹离开手术室,把已经麻醉的病人撂在手术台上长达40分钟。

规培期间这些匪夷所思的事情,令人不由得怀疑,董袭莹能够考上协和医学院,背后可能也有什么不可告人的内幕。这就让她的事情超越了一般的桃色新闻,而成为每一个反感学术界腐败的人都无法不关注的大事。

这几天,这个瓜越吃越大,连协和4+4制录取的其他学生,也都成了网民深扒的对象。处于风口浪尖的协和医学院,也采取了一些紧急应对措施,比如从力推4+4制的王辰院士的2023年毕业演讲中删除涉及董袭莹的部分,从知网上把董袭莹的毕业论文下线,等等。但这些在汹汹舆论面前,只不过是杯水车薪。可以预料,“五一”长假期间,这件事还会继续发酵;至于发酵到什么程度,神秘力量才会决定出手干涉,压制热度,不妨拭目以待。

在董袭莹的毕业论文下线之前,早就有好事者下载下来,再上传到网盘。这篇论文的致谢颇为简短,最后一句是:“这路遥马急的人间,你我平安喜乐就好。”这句抄自网络文艺金句的话,勾起了我的无限感慨。这时候,我觉得说什么都没必要了,只有漫画能表达我的心情。于是我就让ChatGPT-4o按着我提供的创意,画出了如下的漫画:

image

常言道,工具就是人体的延伸。大语言模型作为有用的工具,只要用得好,也应该成为你的延伸。我到今天,算是深切感受到,大语言模型真的可以弥补我不会绘画的短板,成为我公共表达的延伸。在这路遥马急的人间,我因此也真的感受到了一丝喜乐。

南方周末|医院出轨门女主受质疑:警惕“4+4”医学教育沦为特别通道

30 April 2025 at 20:08

file

主管部门与相关医学院校有必要检讨其中可能存在的涉及教育公平、职业伦理与医疗安全的问题,进行必要的制度修补与完善工作,回应公众的疑问。4+4项目应该更加规范透明,或许可以由有更高公信力的第三方进行笔试,提高考试录取的公信力。

文|王兢

责任编辑|辛省志

近日,中日友好医院医生出轨事件连续几天热搜不退,即便在院方宣布处分决定后依然余波荡漾。公众更关心的议题,不是那点桃色绯闻,而是涉事医生的医德问题,以及更重要的教育公平、学术诚信等问题。

据媒体报道,涉事女规培医生董某莹的学历殊为“亮眼”。她本科毕业于美国哥伦比亚大学巴纳德学院经济学专业,2019年进入北京协和医学院“临床医学专业培养模式改革试点班”,即“4+4”试点班,2023年取得医学博士学位,之后进入中国医学科学院肿瘤医院工作,再进入中日友好医院进行规培学习。

董某莹的这份履历,引起外界诸多质疑。中国的医学教育,通常是5年制本科,3年制硕士,3-5年博士。也有高校实行5+3本硕连读、8年本博。但无论哪种培养路径,都要求学生在本科阶段就学习医学。

而“4+4”试点,则是从非医学专业的本科毕业生中选拔部分学生,通过4年医学教育,获得医学博士学位。北京协和医学院的官网显示,其“4+4临床医学试点班”始于2018年,起初生源限于国内几所顶尖高校,2019年起放宽至部分国外高校非医学毕业生。董某莹正是2019年通过这一项目进入协和医学院。

CDT 档案卡
标题:医院出轨门女主受质疑:警惕“4+4”医学教育沦为特别通道
作者:王兢
发表日期:2025.4.30
来源:微信公众号“南方周末”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

协和并不是国内第一家试点4+4医学教育的医学院,目的是“推动医学教育与多学科融合”“建设世界一流医学院”。这一做法也是参考了美国医学教育的做法。美国的医学院没有本科阶段教育,只从其他专业本科毕业生中招生,经过4年学习,获得“医学博士(Medicine Doctor)学位”。

国内的4+4医学教育,表面上学习了美国的做法,但录取难度不可同日而语。美国本科毕业生要考医学院,必须事先完成“医学先修课程”(pre-mad),通过号称“全美研究生入学最难最痛苦”的医学院入学考试(MCAT)。拿到MD学位后,还要经历一到三年的实习医生和住院医生阶段后,再通过美国医生执照考试(USMLS),才能最终成为医生。

而国内的4+4项目,虽然也要求在本科阶段生物学、化学、物理、数学等课程修够一定的学分,但是其招生中的笔试、面试等过程,都是由医学院校自行组织。另外,协和的招生简章显示,申请4+4项目需要2名医学相关学科的副教授以上人员的推荐信。不少网友认为,一个非医学专业的学生,如果没有深厚的人脉资源,要找两个医学专业的副教授写推荐信恐怕不容易,总不能挂个专家号让专家给写封推荐信吧?

说回到董某莹,她的经历还有很多疑点。比如,网传她被协和录取时是“内科学”专业,但学术论文数据库信息显示,博士论文内容与影像学相关。她还以第一作者的身份发表了一篇有关膀胱癌临床指南的论文,名列其后的,是一众泌尿外科的医学大佬。

毕业后,董某莹进入中国医学科学院(即协和医学院)肿瘤医院泌尿外科工作。内科、影像、外科间旋转自如,令人惊叹。这自然引起外界对董某莹学术水平与专业能力的质疑。而事件爆发之后,知网上已经搜不到董某莹的论文,这也进一步放大了外界的疑问:董某莹究竟真的是全能型人才还是“资源咖”?

如果说,真有本不具备学术水平与专业能力的人凭借“4+4”走捷径,那恐怕是对教育公平的践踏,也是对医生职业伦理的不尊重。而公众也担心,非医学专业的本科生,能否学好医学。协和医学院往年的4+4招生录取名单显示,有些学生本科学习的是外语、新媒体、经济学等专业,这些专业一般是不学习生物、物理、化学等课程的,他们的医学水平能和那些学习了8年甚至更长时间的同行一样吗?

4+4医学教育与传统的八年制教育到底孰优,或许还可以继续观察。但这一项目中潜在的教育公平问题已经成为公众普遍关心的焦点问题。事实上,这些天已有人从协和公布的历年4+4项目录取人员名单中寻找“蛛丝马迹”,各种传言满天飞,这所中国最顶级医学院的声誉已经严重受损。

主管部门与相关医学院校有必要检讨其中可能存在的涉及教育公平、职业伦理与医疗安全的问题,进行必要的制度修补与完善工作,回应公众的疑问,还给患者一个放心的手术台,捍卫医学共同体尤其是广大医学生对公平正义的信念。4+4项目即使继续执行下去,也应该更加规范透明。

黑噪音|在谈论“县城婆罗门”之前,您得先了解“京城婆罗门”

30 April 2025 at 19:40

file

几天前,一位董小姐告诉我们:海归很危险。

现在,另一位董小姐又现身说法:海归,确实很危险。

但海归危险倒不是因为间谍问题,而是因为海归里的镀金婆罗门,让普通人再次见识到了另一片天空——正如当年的故宫大G,我们不需要惊掉下巴,甚至不需要大跌眼镜。

婆罗门的日常,是普通人无法想象的世界,感谢上一位董小姐——至少她建议不录用海归,客观上能给普通人让开一条路。

事情细节,看官们想必已经吃瓜吃很多了,在此不表。

我看到一位土木工程出身的学生说,看完董小姐的履历,他觉得自己也可以做心脏搭桥手术——毕竟都是搭桥。

CDT 档案卡
标题:在谈论“县城婆罗门”之前,您得先了解“京城婆罗门”
作者:倪刃
发表日期:2025.4.30
来源:微信公众号“黑噪音”
主题归类:董袭莹
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

对于普通人来说,当你历经千辛万苦终于得到一个协和医院的手术机会,但你不知道手术室那位气质华贵的小姐姐,是哪路神仙。

有地位如此高贵的医学生给自己做手术,普通人还不得感恩戴德?

唯一的问题是,这位医学生只是在美国著名大学挂名的独立学院镀个金(而且是经济学),回国后靠着比正常标准短得多、简单得多的培养流程,就获得了拿手术刀的权利。

医学博士生正常培养流程应当是是“5+3+4”=12年,但董小姐学医第二年就拿起了协和医院的手术刀。

剩下唯一的问题就是,你敢不敢上这个手术台?

京城婆罗门最厉害的地方,不在于靠着父亲承接了协和的工程就能当上协和医生,而是在于——这地儿对人家来说也不过是换了个地方谈恋爱。

所以我说,普通人无法想象真正的婆罗门生活。

你以为的阶层金字塔尖,只是人家的生活边角料。

更何况,人家的医生男朋友还敢把病人晾在手术台40分钟。婆罗门的松弛感,不在于几十万一瓶的红酒,更不在于什么迈巴赫,而是在于工作与生活的自由切换。

普通人几辈子冒青烟才能挤进去的地方,只不过是人家散发松弛感的社交舞会。只不过,他们还需要穿着白大褂做做样子。

其实婆罗门一直存在,只不过县城婆罗门相比之下多了几分小地方的土味,而京城婆罗门处处都散发着骨子里的大气。

正如当年的大G,只是开车在故宫转一圈儿,随手发个朋友圈儿,潇洒只在不经意间,并不需要多么奢华。

不过,婆罗门也在进化。

在以前,商人后代还能嫁给权力场,但是我听说,现在的权力婆罗门已经越来越排斥富商。

官官联合,还是比官商联合要强。金钱只是权力的附属物,但权力本身可是金不换的稀缺物。

我提拔安置你的子女,你提拔安置我的子女,这种机制里面确实已经没有多少留给商人的空间。

同样地,留给好学生的空间也不多了。

以前我上学的时候,那是省重点,班里至少有一半人是本地的婆罗门子女,剩下的一半是自己考进来的。我是那个考进来的,但确实能感觉到没什么卵用,工作几年后返乡,当年那些婆罗门学生大部分都已经分布于体制内各个权力部门。

但那时候,留给普通人的通道还是比现在要多。

在这片土地,普通人能喝口汤的时代其实就已经是盛世。但现在,这个汤不是靠着小镇做题就能那么容易喝到了。

另外一个特征就是专业部门的婆罗门化,肖医生、董小姐事件即是如此。

在以前,普通人靠努力想要染指权力部门固然很难,但好歹能通过专业水平,抵达人生的天花板。所以医疗领域这类需要脑子的地方,是普通人能和婆罗门共舞的唯一渠道。

但现在,高级医院的医学生培养本身也已经婆罗门化,甚至可以说,他们设定的培养机制,就是为婆罗门量身定做的,是一种“萝卜机制”。

董小姐,她不是一个人。

普通人以为的上升通道,其实已经在蜕化为婆罗门的“包装流水线”。

这中间唯一需要担忧的,恐怕就是那些手术台上的病人。

从县城婆罗门到京城婆罗门,从董小姐到董小姐,普通人应当逐渐建立一种觉悟:停止想象。

当你停止想象,这一切就未曾发生。

(全文完)

大象新闻|桃色新闻扒出速成医女,董小姐的4+4能有多跨界

30 April 2025 at 19:30

file

今天(4月29日),“知网已搜不到董袭莹论文”话题冲上热搜第一。男医生肖飞被妻子实名举报“脚踩6只船”的医圈大瓜,炸向医疗教育界,火速把一个医学教育关键词——“4+4”也顶上了热搜。

file

桃色新闻扒出速成医女

肖飞妻子的实名举报信提到,肖飞婚内出轨的规培住院医师董袭莹,本该去脊柱外科轮转,为了维持不正当关系,肖飞去和骨科教学秘书麻昊宁打招呼,希望董袭莹继续留在胸外科工作一个月。被麻昊宁拒绝,肖飞和麻大夫就此事展开争吵。

更令人震惊的是,肖飞在手术中,抛下麻醉患者长达40分钟,去哄董袭莹。

这匪夷所思的操作曝光后,董袭莹的学历、家庭背景及“协和医学院4+4”培养模式引发热议。

file

file

CDT 档案卡
标题:桃色新闻扒出速成医女,董小姐的4+4能有多跨界
作者:大象新闻
发表日期:2025.4.30
来源:微信公众号“大象新闻”
主题归类:董袭莹
CDS收藏:人物馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

从实名举报信、网友检索公开信息梳理看,董袭莹的经历相当“魔幻”。

她本科在哥伦比亚大学巴纳德女子学院读经济学,2019年进入北京协和医学院“4+4临床医学试点班”项目。

然而,她哥大毕业的经历,遭到了网友的质疑。

据网友爆料,董袭莹实际毕业的院校并非哥伦比亚大学,而是与其仅一墙之隔的巴纳德学院。巴纳德学院是哥伦比亚大学的一所独立学院,毕业生的毕业证书上会盖有哥大与巴纳德学院的公章。

file

有网友将巴纳德学院与国内的独立学院相类比,认为其与哥伦比亚大学的关系,类似于国内的东南大学成贤学院与东南大学的关系,与哥大并没有太多实质性的联系。巴纳德学院是否符合“世界前20文理学院”的标准,令人存疑。

更令人质疑的是,巴纳德学院的入学途径似乎存在“捷径”。有网友指出,从当地社区学校入学的学生,基本都会被巴纳德学院录取。据传董袭莹就是通过这一途径进入巴纳德学院的。

file

据新华社报道,2021年11月5日,在北京市第六医院的医联体胸外科病房手术室,北京协和医学院实习医生董袭莹在团队协作中,开展荧光腔镜精准肺段手术。

医学博士生的正常学制,是“5+3+4”,即5年医学本科、3年医学硕士、4年医学博士。

但经济学的董袭莹,在学医的第2年,就去做手术了。

file

此外,网友截图称媒体曾报道,王辰院士、校长寄语北京协和医学院2023届毕业生,点名表扬“4+4”的董袭莹,但目前这句话已不见。

file

协和“4+4”除了经济学,还有园艺和外语

纵观董袭莹的学术历程,她本科学经济学,4+4指导老师是骨科院士,学位是内科,工作定在泌尿外科,规培是在胸外科,毕业论文选题是妇科影像学。

毕业后进入中国医学科学院肿瘤医院工作,后又进入中日友好医院进行规培学习,连国家规定的医学专业毕业生必须参加不少于3年的规培,她居然只需1年。

媒体追问,如此速培的医学博士,董袭莹到底是医学天才还是资源咖?大家需要一个答案。

更多网友涌入北京协和医院评论区,吐槽“朝圣一样去求医”,谁知道遇到的医生是不是“4+4”,强烈要求公示“4+4”名单。

file
file
file

那么,何为“4+4”?

据北京协和医院官微,“4+4”临床医学教育模式始于上世纪初的北美,是从各大学多专业本科生有志学医者中,择其优秀者,完成本科教育后进入医学院学习临床医学,毕业后获得医学博士学位。含本科教育4年,医学院教育4年,故名“4+4”学制。

file

据中国经营报,近期发表的一篇研究论文显示,在北京协和医学院2019级—2024级试点班的172名学生中,本科背景为理学的占到87.8%,且生物类专业的为68.6%。此外,还有工学、经济学、农学、文学专业毕业生,专业涵盖了经济学、经济数学、园艺、植物科学与技术、西班牙语。

file

★多所高校开设“4+4”、协和医班、协和药班

今年3月,北京协和医学院校长、中国工程院院士王辰在接受采访时说,协和医学院自2018年开始实行“4+4”医学教育模式,后来又与北航、北理、中国科大、北师大等探索开设了“协和医班”及“协和药班”,分别致力于为中国培养复合型“大医生”和医学、药学领军人才。

file

此外,上海交通大学医学院官方公众号显示,学校于2002年起,连续23年每年从“双一流”建设高校及建设学科选拔招收优秀本科毕业生,攻读临床医学专业博士学位。

file

浙江大学医学院从2005年开始的“巴德年医学班”,是4年非医学本科专业+4年医学博士的培养模式,不过该项目为“八年一贯”制,招生对象为高考生以及该校本科新生的再选拔。

北京协和医学院3月19日发布“4+4”医学试点班招生简章,其中,2026级招生计划45名,招生大学包括清华、北大等37所高校。

file
file
file

来源 | 大象新闻 曹亚勤 (综合极目新闻 中国经营报 新华社 北京协和医院 中国医学科学院新闻中心 网友评论 )

【CDT月度视频】四月之声(2025)——“中国不需要谁指明方向”

30 April 2025 at 19:25

谨以此片向《四月之声》致敬。本项目将持续更新,直到《四月之声》及同类影片在中国解禁。

2025年4月,中国数字时代搜集整理了过去一个月(2025.3.28—2025.4.28)期间反映国内热点事件的网络视频,以时间为序进行混剪制作了本月月度视频——《四月之声(2025)》。

在内容上,该片揭示了当局的言论审查、权利打压,也记录了民间疾苦、民众呐喊与抗争;在形式上,该片模仿了2022年4月22日发布、随即风行全网并遭到审查的抗议上海封城的短片《四月之声》。

我们谨以此片向这部匿名作品致敬。本项目也将持续更新,直到《四月之声》及同类影片在中国解禁。

同时,在中国数字空间更新有该作品的彩色版本。相关链接:https://youtu.be/4PH4LJlWx8g

致谢:感谢 @李老师不是你老师 、@YesterdayBigcat 对中国相关事件素材的收集与分享。

CDT 档案卡
标题:【CDT月度视频】四月之声(2025)——“中国不需要谁指明方向”
作者:中国数字时代
发表日期:2025.4.30
主题归类:四月之声
CDS收藏:大事记
版权说明:该作品版权归中国数字时代所有,欢迎个人、媒体和研究机构在注明来源的前提下免费使用。详细版权说明

  • 2025.3.28 缅甸发生7.7级大地震,泰国曼谷一栋由中铁十局修建的大楼坍塌
  • 2025.3.31 甲亢哥Speed成都行两次遇到路人发表种族歧视言论
  • 2025.4.1 江西抚州第六人民医院破产倒闭,一年间江西已有多家医院关门
  • 2025.4.2 来自贵州的“寻找失踪儿童父母团”在河北某广场遭警察阻拦
  • 2025.4.2 深圳网友记录街边的门店在一年多的时间里频繁更换
  • 2025.4.3 一名法学毕业生表示,实习工资2500元扣了社保到手700元
  • 2025.4.4 成都当地政府无理封禁传统集市邹家场,摊贩们集体冲卡
  • 2024.4.6 面对美国提高对华关税,人民日报发评论称“天塌不下来“ (一些商家、网民宣布对美国实施“单方面制裁”)
  • 2025.4.6 成都男子用环卫工人时薪在一家连锁超市测试购买力
  • 2025.4.7 前中共总书记胡耀邦之子、“太子党”内自由派人士胡德华病逝
  • 2025.4.10 大连男子发现某条大街上多家商铺都在进行打折促销
  • 2025.4.10 广东东莞一名劳务派遣工人,月工作388个小时仅收入5848元
  • 2025.4.11 河北任丘市市民发现,当地道路旁的树木被统一修剪成了正方形
  • 2025.4.11 一名外贸从业者称,这次贸易战真的“锤到了我们外贸人,而且很痛“
  • 2025.4.11 武汉突降暴雨致个别道路内涝严重,一些车主趴在车顶等待救援
  • 2025.4.11 无锡市红豆置业总部民众抗议房屋未能交付,警察用“遮羞布”维稳
  • 2025.4.12 河南郑州一小区外墙掉落,外卖小哥被砸倒在地,手机仍在提醒接单
  • 2025.4.12 陆配小微从台湾回贵州后首次发视频,评论区许多网民留言嘲讽
  • 2025.4.12 贵州黔东南台江县陈女士COS石矶娘娘角色,被人辱骂是“日本女人”
  • 2025.4.13 一名医生谈中美贸易战,担忧美国进口的医疗器械会大幅涨价
  • 2025.4.13 广东一名货拉拉司机称,一工厂让他把几十名工人用货车拉到另一工厂
  • 2025.4.13 上海一男子称发了自己住桥洞下的视频,被警方告知影响市容
  • 2025.4.14 三河市商户牌匾禁用“红蓝黑”,市监局负责人曾称“红、蓝色太俗”
  • 2024.4.14 河北三河市民众拍视频称,当地的社会主义核心价值观标语都被刷成了绿色
  • 2025.4.14 乌克兰军方在基辅举行记者会,两名中国战俘在会上答问
  • 2025.4.15 成都一天桥再现“四通桥标语”,抗议者呼吁“中国不需要谁指明方向,民主才是方向”
  • 2025.4.16 海南三亚金鸡岭街发生一起厢式货车沿街冲撞行人及车辆事件
  • 2025.4.17 博主质疑央美人工智能科技雄安有限公司的“提升生命体机器人”
  • 2025.4.17 陕西商洛一名城管掐路边小贩的脖子,并用铁桶猛砸其头部
  • 2025.4.17 广州多名城管手持盾牌和钢叉殴打在户外表演的残疾人
  • 2025.4.17 广东深圳一女子称,因为贸易战纸箱包装厂的工作受到影响
  • 2025.4.17 广东湛江霞山区爱国街道办书记被当地访民用锄头打死在街道办门口
  • 2025.4.18 甘肃兰州警察摆拍扶老奶奶过马路
  • 2025.4.19 一个孩子在阅读儿童读物时,发现了有关黑猫警长的“不实报道”
  • 2025.4.19 UP主“蔡雅奇刑法”发布视频《认罪认罚是个非常操蛋的制度》
  • 2025.4.19 某博主打假武汉市邓甲生鲜市场时,遭到商家殴打、抢手机
  • 2025.4.20 广东番禺男子拍摄路边成排关门转让的商铺感慨经济不好(后被警察查手机)
  • 2025.4.20 985本科毕业的女生小静分享开始跑外卖的收入构成
  • 2025.4.21 江苏市民向银行预约大额取款,被警察询问用途和查手机
  • 2025.4.21 博主吐槽无锡市最新的人才引进标准,简直是羞辱人才
  • 2025.4.21 四川一男子网购高锰酸钾、雄黄粉后,被警方询问具体用途
  • 2025.4.22 浙江金华苏孟乡中心小学门前汽车冲撞人群致多人伤亡
  • 2025.4.22 浙江台州发生重大枪击案,网传视频显示至少2名警察中枪倒地
  • 2025.4.22 小红书博主要求取消工厂12小时“两班倒”的工作制
  • 2025.4.22 多地群众反映中央巡视组电话无法打通
  • 2025.4.22 董明珠谈用人标准时说“绝对不用海归派,因为海归里面有间谍”
  • 2025.4.22 河南叶县一退伍军人网上反映退伍兵安置问题,深夜被人撬开房门
  • 2025.4.23 网民发现湖北黄冈沪武高速凤凰关水段桥承重柱钢筋外露问题
  • 2025.4.23 湖南民众冒雨排队向中央巡视组反映问题,但无法拨通信访电话
  • 2025.4.23 北京顺义区潮白河大桥发生垮塌,大桥从中间位置断裂
  • 2025.4.24 江苏市民银行取钱被要求提供微信聊天截图等信息
  • 2025.4.24 上海海银财富暴雷受害者集体维权遭到警察暴力镇压
  • 2025.4.24 某博主在凌晨随机找日本商家,拨电话叫对方“起来重睡”
  • 2025.4.24 某位律师盘点了2022-2024年因为翻墙被处罚的案例数据
  • 2025.4.25 网传湖北武汉一家牛肉面馆发生无差别持刀砍人事件
  • 2025.4.27 周鸿祎在重庆被路人问到360借条问题,回应“那不是我的公司”
  • 2025.4.27 一名211土木硕士称,2020年花了200万买的房子亏了70万
  • 2025.4.27 媒体宣传一名脑瘫女骑手七年累计送了7.3万多单外卖引网友批评

六神磊磊读金庸|群众被两个董小姐搞得团团转

30 April 2025 at 16:51

file

和格十三老师撞题了,她真的,我哭死。昨天半夜没写完,大家凑合看吧。

两位董小姐,一个董明珠,一个董袭莹。

一个是最近离奇“间谍论”的高管,一个是最近医院八卦新闻的主角之一。完全不搭噶的两个人,但假如连起来看,就会觉得分外耐人寻味。其交汇点是一个词:海归。

董明珠反海归,董袭莹就是海归。

董明珠竭力向底层拱火,说海归是外人,是别有用心的人;而董袭莹在医学界的一路开挂则说明,有一些海归恰恰是“自己人”、“天龙人”。

只有吃瓜群众被耍得团团乱转,找不着北:

你们到底是回来窃取机密的,还是来继承家产的?

到底你们是外人,还是我们是外人?

CDT 档案卡
标题:群众被两个董小姐搞得团团转
作者:帅呆的sixgod
发表日期:2025.4.30
来源:微信公众号“六神磊磊读金庸”
主题归类:董明珠
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

这里面有一种很强的矛盾感和撕裂感。

董明珠说绝不招留学生,因为海归里有“间谍”。这番言论,在下沉的舆论场里一度引发大片叫好,点燃了许多人心中抵制留子、防火防盗的热情。

仿佛完全忘了她提携的王自如是海外高层次人才“孔雀计划”获奖者。

如果只看下沉用户的叫好,你会以为社会已保守到墙角,海外学生已无容身之地。

然而,在普通人看不到的地方,还有董袭莹。

家族背景深厚的她,从海外经济学本科迅速成为知名医院“风云人物”,一众大佬刷脸护航,履历中种种弯道超车,三年规陪都减到只需一年。唯一失手是怀了肖飞这大坑货的娃。

而她的通关券之一,恰恰就是哥伦比亚大学巴纳德学院的留学身份。

两个董小姐的事放一起,会形成一种撕裂。它会让人觉得非常怪异和不适,有一种逻辑脱榫、不能自洽的怪异。

好比说,桃花岛号召抵制外来学生,你非常认同,天天走访普查,结果回头一看,人家女婿耶律齐当了丐帮帮主了。

郭大小姐告诉你,抵制外来学生,主要是指杨过。耶律齐大爷那么优秀,必须重用嘛。

你是不是就会有点混乱?

也是琢磨了好一阵,才明白了这里面的逻辑。

董明珠的事和董袭莹的事,一个发生在言论的前台,一个发生在利益分配的后台;一个是故意给人看给人听的,一个是普通人看不见听不见的。

前台是刻意迎合,后台是默默输送;前台是意识上的日趋保守,后台是利益上的不断固化。

说白了,“海归”这玩意不过就好比一张牌,花色不变,但它的含义是可以变换的。

它可以是董明珠们手中的一块红布,也可以是董袭莹们手中的一张内部通行证。

它可以暗戳戳地指外人,也可以不动声色地标识自己人。当需要你亢奋喝彩、要引起你对外的反感和戒惧时,它是一张牌;当它要成为阶层繁殖、利益输送的默契和借口时,它就是另一张牌。

类似扑克里的2,可以很小,也可以很大,全看玩斗地主还是炸金花。

当你在前面恨完了,董小姐在后面吃完了,最后留下来供大众针对、宣泄的,是更多小杨过这样没有资源、压根无法复制董袭莹路线的无辜留子。 

有人说,董明珠一类高管抛出“间谍论”,只是因为他们个人观念保守,就当个笑话看就完了。

这话也对也不对。

诚然,很多一些类似的管理人士,因为教育背景、工作性质、长期惯性等原因,他们确实是非常保守的,甚至是迂腐的,对世界的理解非常刻板。

但那并不是完全的真相。真相是,在管理对象面前,他们可以是极度保守的;但在利益面前,他们就可以是极度开放开通的。

压根没有那么多条条框框,没有那么多食古不化的老脑筋。土和洋都不是问题,茅台和爱马仕都不是问题,学外语不是问题,孩子上哈佛上耶鲁都不嫌弃。

岳不群那么保守,口口声声“以气驭剑”,严禁学旁门左道,结果你看在《辟邪剑谱》面前他保守不保守?零件说嘎就嘎,激进得很。

这些人“反海归”的实质,就是把你的流量和上升空间一起拿走。董大姐拿走流量,董小姐拿走上升空间。

你则得到满满的自豪。

然后躺上手术台,麻醉完,肖飞大夫出去了,哄董小姐去了,你的人生闭环。

犀牛娱乐|电影市场已回到2012年水准

30 April 2025 at 05:07

当下的电影市场,正处于最为割裂的时期。

《哪吒2》的150亿+表现惊动了全世界,另一边当下的市场大盘却处于最为冰冷的时期,这种极致的割裂也是从未有过的。尤其是后春节档时期,相继经历了清明档倒退55%,工作日连续下探1000万+的绝境,更可怕的是接下来的五一档丝毫没有回暖的迹象。整个4月份的电影市场,已经处在了历史的低位。

市场倒退达13年

遥想2023年的电影市场,犀牛娱乐最常用的论点便是市场退回到了7年前,去年显得更加严峻,常用的词汇便是市场倒退10年。此刻,内地电影市场再度下探,截至目前4月份累计票房刚刚突破11亿大关,预计将以近12亿体量收官,这意味着,中国电影市场,单月体量已经倒退了13年之多,回到2012年水准。

img

市场如此幅度的下沉,影院彻底被抛弃的现象,放眼过去十几年都是较为罕见的。纵观全年电影市场来看,4月、9月、11月历来都是年度的一个低谷时期,可即便如此,2025年4月份来到11亿+票房,显然是极为不正常的数据,已经不能简单用腰斩、膝斩来形容,属于一个超跌的状态。

去掉口罩时期的市场表现外,最近一次单月不足11亿体量要追溯到2012年11月,单月11亿基本属于2012年左右的水准。从列表可以清晰的看出,今年4月份表现已经比2012年4月还要低,比巅峰期的2017年有着明显的差距,较巅峰期下滑多达74%之多。

一个月票房11亿+,单日平均3000多万,这是非常可怕的数字,要知道2012年全国只有3200多家影院,如今早已来到了1.1万+的影院数量,两者的效率根本不可同日而语。影院数量翻了接近4倍,票价亦是大幅的提升,但最终票房依然不如13年前,这肯定出现了问题。

img

另外,今年4月份的冰冷,也是出现了各种见证历史的时刻,拿今年4月2日的票房来看,单日票房仅为1200多万,同样属于13年前的表现,也是今年单日票房最低的一天。更可怕的是,单日总场次34.2万,但总出票竟然仅有34.7万,这意味全国所有的影城,一个影厅平均只有一个人,意味着“全国人均包场”,也相当于大部分场次是没有人的。

一个人一个厅,如此恐怖的效率,意味着对于绝大部分影城来说,关门都要好过营业,处于一个严重的亏损模式。在《哪吒2》带来的强大赚钱效应之后,影城可能将面临长达几个月的亏损。此刻的电影市场,正经历着前所未有的寒冷,“人均包场”注定将载入史册。

img

继续拆解今年4月份市场,可以发现更加严峻的问题。哪怕数字如此寒冷,但单月票房冠军依然由《哪吒2》所霸占,要知道《哪吒2》是一部已经上映3个月的电影了,依然还得靠着它最后一丝热度来支撑着电影大盘,对于新片来说,这才是更加尴尬的。

当冯小刚新片《向阳花》顺利突破2亿大关之后,导演发朋友圈表示,《向阳花》成为了春节档之后首部票房突破2亿的电影,也是首部未亏损的电影,背后充满了无奈和唏嘘。偌大的内地电影市场,竟然连续2个月几乎没有市场的输出,身处原地踏步的节奏当中。

市场倒退13年、全国人均包场都是严重不正常的。在4月期间,其中4月18日,国家电影局、中央广播电视总台在北京启动“中国电影消费年”,“预计投入不少于10亿元观影优惠补贴,围绕重点档期支持电影消费季”。可当下面临的绝境,岂是10亿观影补贴能够解决的。

如今的内地市场只有三个档期

当下的整个电影行业,已经进入了一个恶性循环:越是冷档期,越是没有片子,于是市场也就越冷,于是越是没有片子,如此反复循环之后,当下的内地电影市场,仅剩下三个真正意义的档期了,即春节档、暑期档以及国庆档。全年分为了三个档期以及其他档期。

CDT 档案卡
标题:犀牛娱乐|电影市场已回到2012年水准
作者:犀牛娱乐
发表日期:2025.4.29
来源:微信公众号“犀牛娱乐”
主题归类:中国电影
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

正如前面提到的恶性循环,当档期无人问津之后,三个档期受到的追捧只会越来越强,最终总体票房占比也越来越高,即强者愈强。而所谓的小档期将再也没有翻身的机会,清明档的惨败算是预期之内,更可怕的是,哪怕五天长假的五一档,都已经被边缘化,沦为了三大档期之外的“其他档期”了。

从今年五一档的片单就能看出,如今连五一档都被嫌弃了,处在了鄙视链的末端了,上不了饭桌了,毕竟真正的种子项目根本就不会考虑,其背后正是恶性循环所导致。就真正的好项目、大项目来说,三大档期成为了仅有的选择,也是盈利的保障。

行业也完全根据档期的梯队,对项目进行三六九等的排布,哪些能够上春节档、哪些上暑期档、国庆档,哪些上其他档期,哪些上普通周末,这是一套完整的链条,项目都被明码标价,根本没办法完成阶级跨越,只能处在自己的层级,这形成了一种无形的枷锁。

这种逐步稳固的阶级,其实是今年4月份电影市场不佳的幕后真正原因,换言之,清明档只能匹配这种级别的项目,因为优质项目不愿来,更小的项目进不来,进而导致了清明档低迷的表现。即将到来的五一档,这些项目基本属于中等体量级别,以它们的量级难以进驻春节档,甚至暑期档,最终获得了与之匹配的五一档。

久而久之,档期将形成阶级固化,这不利于档期的概念,优质的大片完全可以来到三大档期以外的节点,具备品质的黑马自然也能挑战三大档期,可游戏规则已经制定,接下来完成阶级挑战和跨越的机会只能越来越少。或许接下来,4月份倒退13年的现象还将持续发生。

风声OPINION|为何催婚政策戳不中年轻人的心?

30 April 2025 at 04:06

如今家庭的功能和形态已经发生了变化,人们不再把家庭的存续视为全部的任务,而是越来越重视婚姻和生育对个人发展的影响了。

2025年4月25日,民政部官方网站公布的《2025年第一季度民政统计报告》显示,今年第一季度全国办理结婚登记的对数为181万,比去年同期有所减少;而离婚登记则达到了63万对,较去年同期有所增加。

与2024年第一季度的196.9万对结婚登记和57.3万对离婚登记相比,今年一季度的结婚登记减少了15.9万对,离婚登记则增加了5.7万对。

登记结婚数据逐渐走低,各级政府的催生(婚)政策越发密集。由多个层级的政府分散地决定出台的促进生育政策,人们通常将它们统称为催生政策。

继这些催生政策之后,各地的催婚政策也在不断出台。年轻人在想什么呢?为什么许多人仍不买账呢?

从“催生”走到“催婚”是必然的

在一定程度上,催婚政策可以看作催生政策的一个组成部分。当然,从催生到催婚,是很自然的一个发展,因为在中国,通常情况下,结婚组成家庭是生育子女的前提。既然开始催生了,也就很难避免再向前走到催婚这一步。

更直接的一个原因可能是,目前的催生政策,大部分都着眼于催生“二孩”或“三孩”(见表1),但是实际上,有不少结婚的夫妇,“一孩”也不愿意生,对于这些人,出台催生政策也不大可能生二孩、三孩。

CDT 档案卡
标题:风声OPINION|为何催婚政策戳不中年轻人的心?
作者:风声OPINION
发表日期:2025.4.29
来源:微信公众号“风声OPINION”
主题归类:结婚率
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

另一方面,国家卫健委的资料显示,自先后实施单独两孩政策、全面两孩政策、三孩政策以来,我国出生人口中二孩及以上占比已经提升到了55%以上。

因此要想催生出更多的孩子,首先要稳住一孩生育这个“基本盘”,即先得保证一孩家庭的数量有所增长或不下降,而一孩家庭数量的增长的前提是有更多人愿意结婚组建家庭。

在这个意义上,从催生走到催婚,或许是一种必然。

表1:2021年以来若干地方政府出台的催生政策 

img

注一:本表只是一个不完全统计,而且各地出台的催生政策并不仅限于现金形式发放的生育奖励和育儿补贴,一般都还会在孕期服务、产假、孩子入托入学优待、妇女就业保障等方面规定相应的优惠政策,有的还附带了购房补贴政策。

注二:按月或按年发放育儿补贴的,除了湖北省武汉市东湖高新区补贴到孩子六周岁之外,均只补贴到三周岁。

目前,已经出台催婚政策的地方政府相对来说还比较少(有些是作为催生政策组合的一项政策形式出现的),下面列出了其中的一部分(见表2)。

表2:若干地方政府出台的催婚政策

img

除了以经济激励的手法催婚之外,在法律上和思想文化上其实也在助力催婚。例如,2024年8月份公布的《婚姻登记条例(修订草案征求意见稿)》第八条提出,“办理结婚登记的内地居民应当出具下列证件和书面材料:(一)本人的居民身份证;(二)本人无配偶以及与对方当事人没有直系血亲和三代以内旁系血亲关系的签字声明。”这就取消了以往结婚登记需要出具户口本的规定,实际上可能会起到鼓励想结婚的人违背户主意愿(或至少无需取得户主同意)结婚的作用。

又如,国务院办公厅印发的完善生育支持政策的文件,强调要积极构建新型婚育文化大力倡导积极的婚恋观、生育观,并将相关内容融入到中小学、本专科教育中去。

在一定程度上,这基本上就是在说“催婚和催生要从娃娃抓起”了。

“催婚”“催生”思路的背后

地方政府的催生和催婚政策,呈现出了各自为政、碎片化的特点;更重要的是,从政策思路来说,可能仍没有超出就问题解决问题的层面。

不少专家言必称“人口危机”,强调必须扭转少子化、老龄化加剧的局面,认为鼓励生育长期内事关国家繁荣和中华文明传承,短期内有助于扩大内需、稳增长、稳就业。但需要承认的是,当代中国人的生育观念,毕竟在总体上已经转向了少生和优生,而且个人对自我的未来发展的考虑,业已成为制约婚姻和生育的首要因素(这方面尤其突出的是女性的观念的转变)。

img

其他影响因素,包括机会成本高、经济负担重、照料子女困难大等等,在很大程度上都是附着在这个因素的基础上发挥作用的。

不要忘记,观念决定行动,如今家庭的功能和形态已经发生了变化,人们不再把家庭的存续视为全部的任务,而越来越重视婚姻和生育对个人发展的影响了。

对于地方政府来说,催婚催生从某个角度来看也许确实是一种有益的投资,长期可能会带来可观回报,并且在短期内就可能见效,但是这仍然只是把“人口”视为一种可以控制和调配的资源。

只要承认结婚和生育是个人决策,不应该受任何力量的强制,那么不把个人的价值实现需要考虑在内的催生和催婚政策,就可能流于就问题解决问题,从而无法具备从整体战略出发解决问题时的政策一致性。

这一点不妨从更原始的家庭形态出发来说明。在这种传统的家庭关系中,丈夫在外面工作并获得收入,妻子则抚育孩子、照顾老人、料理家务。许多经济学家都正确地阐明了,无论是丈夫,还是妻子,他们付出的劳动都是生产性的。

但是关键在于,丈夫由于从外部获得了货币收入,他的劳动实现了显性的价值,而妻子的劳动的价值却无法显性地得到确认。这种差异会带来很大的冲突。古代社会的男女不平等其实是解决这个问题的一个方法(当然不是一个值得赞颂的方法)。

在现代社会中,男女平等了,当夫妻都参加了工作并获得收入时,这个问题有所缓解,但是仍然继续存在,因为家庭内部肯定还有很多无法实现其显性价值的“生产活动”。也正因为如此,爱情、亲情,以及家庭生活中各种有爱的场景,对于个人的价值实现来说是必不可少的,或者说,它们补偿了无法通过市场来实现的价值。

现在许多碎片化的催生和催婚政策,由于通常是从地方发展经济的需要这个角度进行合理性论证的,恰恰会将个人的婚姻和生育决策带入完全以货币数量进行片面市场化计算的情境,从而可能会起到反效果。

也就是说,许多地方政府出台催生政策的动机是拉动经济(特别是房地产),而制定催婚政策的目的则是因为催生政策似乎不怎么见效。这是一种“就问题解决问题”的思路,不是“根据整体战略确定解决问题的方法”的思路。

欧洲、美国等西方国家,以及韩国、日本等东亚国家的历史经验,还有经济学、社会学等领域的理论研究,都已经告诉我们——在实现了现代化的社会中,少子化、老龄化是不可避免的趋势。

这里还有一个问题是,在出现了拐点之后,中国人口下降速度似乎比韩国、日本等国出现拐点后要快,有不少人认为直接原因是中国的结婚率下降得更快,而这又可以作为出台催婚政策的一个理由。

那么近年来中国的结婚率为什么会下降得更快?问题可能出在政策不一致性上面。

img

政策矛盾:离婚越来越难

从人口统计数据来看,近几年中国的结婚适龄人群其实并不小,但是结婚率却快速下行。

尽管2010年后新出生人口中男女比例失调严重,但就数据而言,20-34岁的结婚适龄人群中男性人数与女性人数相差并不太大,而且由于男性的法定结婚年龄比女性晚两年,这个差距就更小了。只不过由于男性的内部存在竞争或挤出效应,即很多大龄男性会与少龄妇女婚配(例如,成功中年男人迎娶年小妻子),结婚适龄男女人数的实际差距要比数据显示得大得多。

即便如此,相比于庞大的结婚适龄人口,现在的结婚率也显得低了一些。如表3所示,民政部相关数据显示,自2013年达到最高点以来,结婚率一路下行。2023年有所反弹(原因是前几年新冠疫情期间“被耽误”的新人集中登记结婚),但也只是昙花一现,2024年前三季度出现了更加猛烈的下跌。

表3:2013年以来历年结婚率

img

作为对表3中的数据的补充,再来看一下离婚对数。根据民政部的数据,‌离婚对数在2019年达到最高峰的470.1万对之后,也呈现下降趋势:2020年为433.9万对,2021年为283.93万对,‌2022为287.9万对,2023年为259.3万对,2024年前三季度为196.7万对。

离婚率从2021年开始迅速下降,一个很重要的原因可能是“离婚冷静期”制度从2021年1月1日开始实施。根据《‌中华人民共和国民法典》第一千零七十七条的规定,自婚姻登记机关收到离婚登记申请之日起三十日内,任何一方不愿意离婚的,可以向婚姻登记机关撤回离婚登记申请。前款规定期限届满后三十日内,双方应当亲自到婚姻登记机关申请发给‌离婚证;未申请的,视为撤回离婚登记申请。

离婚冷静期制度,在维护婚姻的稳定和下一代的权益等方面均有重要意义,也与国际惯例相符,但是在执行中似乎有所走偏了,实际上导致了离婚难度大幅增大的结果。

事实上,离婚难度的增大,对结婚是有劝退作用的。“婚姻是一座围城,城外的人想冲进去,城里的人想逃出来。”这句话出自钱钟书的代表作《围城》,虽然是小说家言,但是却得到了经济学家的理论证明。

豪尔特(Hauert)等人在《科学》上发表的论文中证明:参与人可以自由选择退出,是合作得以出现和维持的一个条件。婚姻无疑是一项合作事业,如果没有退出“围城”的自由,必定会削弱人们进入“围城”的动力。

img

或者至少可以说,如果离婚变得更加困难了,那么人们在考虑要不要结婚时会变得更加谨慎,同时即便结婚了,在考虑要不要孩子时也可能会变得更加谨慎。

从经济学的角度分析,大体上可以认为结婚是个人通过与他人匹配实现合作的决策(而生育则是个人之间合作进行人生最重要的投资之一的决策)。

如果觉得结婚和生育无法帮助实现个人的价值,同时又觉得离婚很难,那么即便有了各种催生、催婚政策,也存在导致均衡结果的风险,即本来可以匹配成功的双方未能实现匹配,因为一方觉得结婚生子就是对自己的惩罚,而另一方则庆幸不结婚似乎也过得下去。

毫无疑问,各地出台的催生、催婚政策,在边际上(即对那些本来已经打算结婚生子,但是有点犹豫的人来说)会有相当不错的效果,但是由于碎片化,再加上存在政策不一致性,也有可能效果不佳,甚至适得其反。

伍里川|当市长信箱“已读乱回”

30 April 2025 at 02:43

明明举报诗词大会决赛问题,得到的回复却是工程欠款问题。近日,宁夏银川市市长信箱一条张冠李戴的回复,引发了不少关注。4月27日,银川市电子政务服务中心工作人员回复记者称,此事系工作人员失误所致,现已被内部处理,12345平台也已向举报人电话致歉。
img

4月27日晚,银川市人民政府办公室发布情况通报:经查,“市长信箱”工作人员在办理过程中出现工作错误,将积极整改。同时,督促经办单位主动与诉求人沟通,并诚恳致歉,现已依规对相关责任人问责处理。

图片

27日,就此事接连写了两篇评论,但依然有未尽之意想表达。

有人说,别上纲上线,不就是工作人员的失误吗?

确实,有关方面说了,“复制粘贴错了,出现了张冠李戴”。

从技术上说,复制粘贴犯错,可能性是存在的。工作人员也是人不是神。

但是这个问题的关键在于,“复制粘贴”可能就是一些地方市长信箱的核心工作了。人们责怪的哪里只是员工的工作不细致呢?

就算复制粘贴不犯错,结果又能怎样?

不妨看看这一段:对于举报人举报“诗词大会决赛不公平”,4月27日,西夏区文联工作人员回应媒体记者称,接到相关举报后,对诗词大赛进行了复盘,最终认为评委打分客观,做到了公开、公平、公正,不存在不公平的情况。这一回复可谓“极简”,而举报人所反映的却是一个沉重的、复杂的话题。而关键是,银川市人民政府办公室发布的情况通报,也没有一个字提到举报的问题。

换句话说,这事在本质上就到此为止了。最大的问题,已经变为就技术性错误进行“道歉”。

CDT 档案卡
标题:伍里川|当市长信箱“已读乱回”
作者:伍里川
发表日期:2025.4.29
来源:微信公众号“伍里川”
主题归类:公务员
CDS收藏:公民馆
版权说明:该作品版权归原作者所有。中国数字时代仅对原作进行存档,以对抗中国的网络审查。详细版权说明

我相信这不是举报人希望看到的。

举报的问题是否存在,旁人无可断定。但文联方面作为可能的被监督对象,仅以一小段回复就按下“结束键”,还是太耐人寻味了。

这事难道不值得更高层级进行详细的调查?

多年来,个别地方的市长信箱以“无厘头回复”引发网友吐槽。例如“我办没时间跟你闲扯,你有意见到创建办来面谈”、群众反映的是税务领域的问题,市长信箱却建议投诉者与某超市联系。这类回复,堵塞了群众反映问题的通道、耽搁了问题的解决,对群众的情感和政府的形象造成了伤害。

有人批评市长信箱成为摆设,这个话不客观。市长信箱做出的贡献有目共睹。

但是,有时投诉确实无果。在常态下,市长信箱能不能担起更大责任,为群众撑腰,却是一个现实考题。

当市长信箱已读乱回,老百姓还能靠谁?

现实中,投诉了,但没啥大用。这是不少人的困惑所在。

市长信箱已读乱回,受到这么大的关注,说明市长信箱在人民心目中的地位,也说明,现实中,群众的诉苦、解忧渠道还不是很多。

政务服务,很辛苦,很不易,但是面对群众的冷暖,只能把工作做得更好。

谁也不能强求市长信箱由市长本人亲自抓,但至少,“市长信箱”不能变为一种机械的、例行公事的工作机制吧?

❌
❌