摘要:在医学图像分割中, 半监督学习技术解决了标注成本高的问题. 然而, 现有的半监督方法忽略了伪标签质量不一致和模型的约束泛化问题. 因此, 本文提出了冲突驱动的交叉学习框架CDCL, 它无缝整合交叉监督和平均教师模型. 这一框架促进了有效的知识转移, 并采用两套不同的师生结构提升模型性能. 同时, 知识通过各自的教师模型在不同模型之间进行交换, 从而促进了相互学习和能力提升. 此外, 在CDCL中引入特征冲突损失(FCL)鼓励模型之间传递多样化且互补的知识, 从而丰富整体的学习动态. 更重要的是, CDCL还采用了成对复制粘贴(PCP)策略, 以生成新的训练样本来丰富模型训练. 在2个公共数据集上实验结果表明, CDCL在ACDC数据集标记数据比为10%的情况下, 平均Dice和Jaccard系数分别达到90.23%和82.71%, 分别比BCP模型提高了1.39%和2.09%. 在 PROMISE12数据集中20%和30%标记比下Dice系数分别达到了78.9%和80.09%.