摘要:针对真实世界图像超分辨率任务中图片退化类型多样与细节恢复困难的问题, 现有方法在结构保持与语义一致性方面仍存在不足. 为此, 本文提出一种语义感知交互扩散图像超分辨率重建方法(semantic-aware interactive diffusion method for image super-resolution reconstruction, SISRM), 引入语义分割信息作为先验以增强重建过程的结构理解与语义引导. 具体而言, 该方法首先设计并训练分割感知提示提取器, 通过分割掩码编码器和标签文本生成器, 从退化低分辨率图像中高效提取分割掩码嵌入与语义标签; 其次, 引入交互式文本到图像控制器, 结合分割交叉注意力模块和可训练图像编码器, 通过多模态语义条件引导扩散过程增强局部细节与全局结构感知; 最后, 提出掩码特征融合机制缓解局部条件控制与全局潜在分布差异, 提高生成图像的一致性和视觉质量. 在 DIV2K-Val 和 RealSR 数据集上, 所提方法在无参考图像质量评估和跨模态图像质量评估最高分别达到0.6121和0.7274, 感知质量提高明显, 验证了其在细节还原、语义一致性及视觉质量方面的综合优势.