冬小麦在中国粮食生产中具有重要地位,及时且准确地预测其产量对粮食安全和农业可持续发展具有重要意义。遥感为大规模作物估产提供了便利,然而,主流的基于卷积-循环混合神经网络的冬小麦估产方法难以充分学习长时序遥感影像中的全局空间光谱特征和长距离时间依赖关系。因此,该研究提出了一种面向遥感影像全局-局部时空特征提取的冬小麦估产模型。
该模型采用CNN与Vision Transformer(ViT)并行的双分支架构,同时提取遥感影像的局部纹理、光谱响应等特征和全局空间光谱信息。随后,通过耦合注意力融合模块(coupled attention fusion module,CAFM),在全局与局部特征的双向交互过程中自适应整合空谱信息。最后,结合基于Transformer的时间编码器,以精准捕捉作物生长过程中的长距离时间依赖关系。
该模型通过全面挖掘冬小麦生长的空间、光谱和时间动态特征,有效提升估产的准确性。该研究以全国冬小麦主产区为研究区,基于2003—2022年的冬小麦产量数据和MODIS遥感影像,构建估产数据集并验证GSTFEN模型的性能。