计算机工程与科学 ›› 2025, Vol. 47 ›› Issue (5): 864-874.
于致远1,2,3,宋慧慧2,3,4
YU Zhiyuan1,2,3,SONG Huihui2,3,4
摘要: 时空融合旨在生成具有高时空分辨率的遥感图像。目前,大多数时空融合模型通常使用卷积运算进行特征提取,无法对全局特征的相关性进行建模,这限制了它们捕获长程依赖性的能力。同时,由于图像空间分辨率的显著差异,重建细节纹理变得十分困难。为了解决这些问题,提出了一种用于遥感图像时空融合的多尺度全聚合网络模型。首先,引入改进的Transformer编码器结构学习图像中的局部时间特征和全局时间特征,通过在空间和通道维度对像素交互进行建模,有效提取图像中包含的时间和空间纹理信息。其次,设计了一种多尺度分层聚合模块,包括局部卷积、中尺度自注意力和全局自注意力,提供全尺度的特征提取能力,这有助于弥补模型在重建过程中出现的特征损失。最后,采用自适应实例归一化和权重融合模块,通过学习从粗图像到精细图像的纹理转移和局部变化,生成具有全局时空相关性的融合图像。在CIA和LGC这2个标准数据集上将提出的模型与5个具有代表性的时空融合模型进行了对比实验。实验结果显示,所提出模型在5种评价指标上均取得了最优结果。