摘要:基于全切片图像(whole slide image, WSI)的癌症诊断与分类预测已成为病理学领域的重要研究方向. 然而, WSI图像通常具有极大的尺寸和复杂的结构, 现有方法难以捕捉病理图像中形态各异的图像块之间的复杂联系, 特别是两者之间的空间距离较远时. 为了解决这一问题, 本文提出了一个基于图神经网络的深度学习模型Bi-DDRGNN, 用于实现精确的癌症诊断与亚型分类. Bi-DDRGNN的结构包括有向动态图注意力网络分支DD-GAT和邻域全连接的残差图卷积网络ResGCN. 通过分别从全局视角和邻域视角两个角度构建图结构, Bi-DDRGNN能够有效捕捉图像块之间的长距离依赖关系和局部细节特征, 从而更好地处理WSI中的复杂结构. 具体而言, DD-GAT通过构建有向边和动态调整的注意力机制, 在图像块之间传递信息, 进而捕捉不同区域之间的长程依赖关系; ResGCN模块利用空间邻接关系, 将图像块在局部范围内进行连接, 捕捉WSI的局部特征, 并通过残差连接增强了模型对局部细节的表达能力. 此外, Bi-DDRGNN还通过引入一个特征融合模块GF来有效聚合两分支路径的图特征, 提升最终的分类精度和模型的表达能力. 在3个公开数据集TCGA-NSCLC、TCGA-BRAC、CAMELYON16上进行的广泛实验表明, Bi-DDRGNN的性能优于其他先进算法, 充分证明了模型的有效性.