CN113935537A - 一种基于深度学习的云图内插预测方法及*** - Google Patents
一种基于深度学习的云图内插预测方法及*** Download PDFInfo
- Publication number
- CN113935537A CN113935537A CN202111234379.9A CN202111234379A CN113935537A CN 113935537 A CN113935537 A CN 113935537A CN 202111234379 A CN202111234379 A CN 202111234379A CN 113935537 A CN113935537 A CN 113935537A
- Authority
- CN
- China
- Prior art keywords
- time
- optical flow
- cloud
- prediction
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000013135 deep learning Methods 0.000 title claims abstract description 31
- 230000003287 optical effect Effects 0.000 claims abstract description 324
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 69
- 230000000903 blocking effect Effects 0.000 claims abstract description 40
- 238000013507 mapping Methods 0.000 claims abstract description 35
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 238000012937 correction Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000003491 array Methods 0.000 claims description 3
- 230000004907 flux Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000011160 research Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于深度学习的云图内插预测方法及***,属于云图内插预测领域,首先获取起始时次云图和结束时次云图;采用光流法生成双向光流;根据双向光流进行中间光流预测,得到双向近似中间光流;再进行后向光流翘曲计算,得到预测时次到起始时次、结束时次的预测时次预估云图;将数据输入至SuperSlomo模型中,输出预测像素阻塞映射和预测中间光流误差;然后进行中间光流误差校正,得到校正后的中间时次光流;再次进行后向光流翘曲计算,得到预测时次到起始时次、结束时次的校正云图;根据预测时次到起始时次、结束时次的校正云图和预测像素阻塞映射,生成最终预测的中间云图,使时次云图间保持时间连续性,时间间隔短且均匀。
Description
技术领域
本发明涉及云图内插预测领域,特别是涉及一种基于深度学习的云图内插 预测方法及***。
背景技术
随着有关遥感图像研究的逐渐探索,遥感图像在气象、地质以及资源调查 等领域中都有着广泛的应用,尤其是在气象方面,遥感卫星云图对于对流云团 识别、追踪以及云团行动轨迹预测等研究来说都是必不可少的。由于全天候气 象遥感卫星的探测以及卫星云图分辨率的不断提高,卫星云图的质量已经可以 满足气象研究的需求。
然而,现有的卫星云图中经常会出现相邻时次云图时间间隔过长或每个云 图间时间不等的情况,从而使得这些云图无法保持时间连续性,进而使得卫星 云图合成的视频具有强烈顿挫感,不仅不利于观察和研究,还会对流云轨迹预 测和云图外推等研究有很大影响。因此,如何使卫星云图间的时间间隔更短、 更均匀,提升相邻时次云图间的时间连续性,这是气象预报中一个亟待解决的 问题。
发明内容
本发明的目的是提供一种基于深度学习的云图内插预测方法及***,在起 始时次云图和结束时次云图的基础上,准确地预测出中间云图并将其***到起 始时次云图和结束时次云图之间,使卫星云图间的时间间隔更短、更均匀,提 升相邻时次云图间的时间连续性,降低甚至消除卫星云图合成视频后的顿挫感。
为实现上述目的,本发明提供了如下方案:
一方面,本发明提供了一种基于深度学习的云图内插预测方法,包括:
获取起始时次云图和结束时次云图;
采用光流法,根据所述起始时次云图和所述结束时次云图生成双向光流;
根据所述双向光流,对中间光流进行预测,得到双向近似中间光流;
根据所述双向近似中间光流、所述起始时次云图和所述结束时次云图进行 后向光流翘曲计算,分别得到由预测时次到起始时次的近似中间光流和起始时 次云图推算得到的预测时次预估云图以及由预测时次到结束时次的近似中间 光流和结束时次云图推算得到的预测时次预估云图;
将所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到 的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次 云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以 及所述双向近似中间光流输入至基于深度学习的SuperSlomo模型中,输出预 测像素阻塞映射和预测中间光流误差;
根据所述预测中间光流误差和所述双向近似中间光流进行中间光流误差 校正,得到校正后的中间时次光流;
根据所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图 进行后向光流翘曲计算,分别得到预测时次到起始时次的校正云图以及预测时 次到结束时次的校正云图;
根据所述预测时次到起始时次的校正云图、所述预测时次到结束时次的校 正云图和所述预测像素阻塞映射进行云图预测,生成最终预测的中间云图。
可选的,根据所述起始时次云图和所述结束时次云图生成双向光流,具体 包括:
根据所述起始时次云图和所述结束时次云图,采用光流法分别生成由起始 时次到所述结束时次云图的光流数组以及由结束时次到所述起始时次云图的 光流数组,两种所述光流数组构成所述双向光流。
可选的,所述根据所述双向光流,对中间光流进行预测,得到双向近似中 间光流,具体包括:
将所述双向光流代入到光流预测公式中,对中间光流进行预测计算,分别 得到预测时次到结束时次的近似中间光流和预测时次到起始时次的近似中间 光流;两种所述近似中间光流构成所述双向近似中间光流;
其中,所述预测时次到结束时次的近似中间光流的光流预测公式为:
所述预测时次到起始时次的近似中间光流的光流预测公式为:
其中,表示预测时次到结束时次的近似中间光流;t表示中间时次, 且t∈(0,1);表示预测时次到起始时次的近似中间光流,F0→1表示起 始时次云图到结束时次云图的光流,F1→0表示结束时次云图到起始时次云图的 光流。
可选的,所述根据所述双向近似中间光流、所述起始时次云图和所述结束 时次云图进行后向光流翘曲计算,分别得到由预测时次到起始时次的近似中间 光流和起始时次云图推算得到的预测时次预估云图以及由预测时次到结束时 次的近似中间光流和结束时次云图推算得到的预测时次预估云图,具体包括:
将所述双向近似中间光流、所述起始时次云图和所述结束时次云图代入到 后向光流翘曲公式中,计算得到所述由预测时次到起始时次的近似中间光流和 起始时次云图推算得到的预测时次预估云图和所述由预测时次到结束时次的 近似中间光流和结束时次云图推算得到的预测时次预估云图,表示为:
其中,表示生成的近似中间时次云图;α0表示控制预估云图的贡献参数, 且α0∈[0,1];*表示矩阵对应元素相乘;g(·)表示光流翘曲,表示 由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次 预估云图,表示由预测时次到结束时次的近似中间光流和结束时次 云图推算得到的预测时次预估云图;I0表示起始时次云图,I1表示结束时次云 图;表示预测时次到结束时次的近似中间光流;表示预测时次到起始 时次的近似中间光流。
可选的,所述将所述由预测时次到起始时次的近似中间光流和起始时次云 图推算得到的预测时次预估云图、所述由预测时次到结束时次的近似中间光流 和结束时次云图推算得到的预测时次预估云图、所述起始时次云图、所述结束 时次云图以及所述双向近似中间光流输入至基于深度学习的SuperSlomo模型 中,输出预测像素阻塞映射和预测中间光流误差,具体包括:
以所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到 的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次 云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以 及所述双向近似中间光流为所述SuperSlomo模型的输入,所述SuperSlomo模 型在光流法插值的基础上利用U-Net全卷积神经网络实现预测光流的训练,并 输出所述预测像素阻塞映射和所述预测中间光流误差。
可选的,所述U-Net全卷积神经网络包括一个编码器和一个解码器,其中, 所述编码器为6层网络结构,每一层网络结构包括两个卷积层和一个平均池化 层;每个卷积层包括一个LeakyReLu激活函数;所述解码器为五层网络结构, 每一层网络结构包括两个卷积层和一个双线上采样层,每个卷积层也包括一个 LeakyReLu激活函数;
所述解码器的每一层输入是由上一层输出和所述编码器中与其同层的输 出混合后组成的,实现跳跃链接,通过所述跳跃链接的方式以保留所述编码器 的特征。
可选的,所述根据所述预测中间光流误差和所述双向近似中间光流进行中 间光流误差校正,得到校正后的中间时次光流,具体包括:
将所述预测中间光流误差和所述双向近似中间光流代入至校正公式中计 算得到所述校正后的中间时次光流,表示为:
其中,F’t→0表示预测时次到起始时次的校正后的中间时次光流,F’t→1表 示预测时次到结束时次的校正后的中间时次光流;表示预测时次到结束时 次的近似中间光流,表示预测时次到起始时次的近似中间光流;ΔFt→0表 示预测时次到起始时次的预测中间光流误差,ΔFt→1表示预测时次到结束时次 的预测中间光流误差。
可选的,所述根据所述校正后的中间时次光流、所述起始时次云图和所述 结束时次云图进行后向光流翘曲计算,分别得到预测时次到起始时次的校正云 图以及预测时次到结束时次的校正云图,具体包括:
将所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图代 入到后向光流翘曲公式中,计算得到所述预测时次到起始时次的校正云图和所 述预测时次到结束时次的校正云图,表示为:
I’t=α0*g(I0,F’t→0)+(1-α0)*g(I1,F’t→1);
其中,I’t表示误差校正后生成的近似中间时次云图;α0表示控制预估云图 的贡献参数,且α0∈[0,1];*表示矩阵对应元素相乘;g(·)表示光流翘曲, g(I0,F’t→0)表示预测时次到起始时次的校正云图,g(I1,F’t→1)表示预测时次到 结束时次的校正云图;I0表示起始时次云图,I1表示结束时次云图;F’t→0表示 预测时次到起始时次的校正后的中间时次光流,F’t→1表示预测时次到结束时 次的校正后的中间时次光流。
可选的,所述根据所述预测时次到起始时次的校正云图、所述预测时次到 结束时次的校正云图和所述预测像素阻塞映射进行云图预测,生成最终预测的 中间云图,具体包括:
将所述预测像素阻塞映射加入到所述后向光流翘曲公式中得到云图预测 公式,并将所述预测时次到起始时次的校正云图、所述预测时次到结束时次的 校正云图代入到所述云图预测公式中,生成所述最终预测的中间云图;所述云 图预测公式表示为:
I”t=(1-t)Vt←0*g(I0,F’t→0)+tVt←1*g(I1,F’t→1);
其中,I”t表示预测生成的中间云图;t表示中间时次;Vt←0和Vt←1分别表 示预测像素阻塞映射;*表示矩阵对应元素相乘;g(I0,F’t→0)表示预测时次到 起始时次的校正云图,g(I1,F’t→1)表示预测时次到结束时次的校正云图;
对所述云图预测公式归一化处理,表示为:
其中,It表示最终预测的中间云图,(1-t)Vt←0+tVt←1表示标准化因子。
另一方面,本发明还提供了一种基于深度学习的云图内插预测***,包括:
起始时次云图和结束时次云图获取模块,用于获取起始时次云图和结束时 次云图;
双向光流生成模块,用于采用光流法,根据所述起始时次云图和所述结束 时次云图生成双向光流;
中间光流预测模块,用于根据所述双向光流,对中间光流进行预测,得到 双向近似中间光流;
预估云图获取模块,用于根据所述双向近似中间光流、所述起始时次云图 和所述结束时次云图进行后向光流翘曲计算,分别得到由预测时次到起始时次 的近似中间光流和起始时次云图推算得到的预测时次预估云图以及由预测时 次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图;
像素阻塞映射和中间光流误差输出模块,用于将所述由预测时次到起始时 次的近似中间光流和起始时次云图推算得到的预测时次预估云图、所述由预测 时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云 图、所述起始时次云图、所述结束时次云图以及所述双向近似中间光流输入至 基于深度学习的SuperSlomo模型中,输出预测像素阻塞映射和预测中间光流 误差;
中间光流误差校正模块,用于根据所述预测中间光流误差和所述双向近似 中间光流进行中间光流误差校正,得到校正后的中间时次光流;
校正云图获取模块,用于根据所述校正后的中间时次光流、所述起始时次 云图和所述结束时次云图进行后向光流翘曲计算,分别得到预测时次到起始时 次的校正云图以及预测时次到结束时次的校正云图;
中间云图预测和生成模块,用于根据所述预测时次到起始时次的校正云图、 所述预测时次到结束时次的校正云图和所述预测像素阻塞映射进行云图预测, 生成最终预测的中间云图。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种基于深度学习的云图内插预测方法,首先获取起始时次 云图和结束时次云图,然后经过生成双向光流、预测中间光流、后向光流翘曲 的过程,并采用基于深度学习的SuperSlomo模型预测像素阻塞映射和中间光 流误差,并根据预测的中间光流误差进行中间光流误差校正,通过SuperSlomo 模型预测像素阻塞映射和中间光流误差,并对中间光流进行误差校正,能够有 效提高所预测的中间云图的清晰度。最后根据再次后向光流翘曲后得到的校正 云图以及预测像素阻塞映射进行云图预测,最终生成预测的准确的、清晰的中 间云图。本发明基于起始时次云图和结束时次云图,能够准确地预测出清晰的 中间云图,并使其内插到起始时次云图和结束时次云图之间,从而能够缩小云 图间的时间间隔,使卫星云图间的时间间隔更短、更均匀,进而保证了相邻时 次云图间的时间连续性,降低甚至消除卫星云图合成视频后的顿挫感,使得卫 星云图视频的整体连续性更强,更加流畅,清晰度更高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施 例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是 本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的 前提下,还可以根据这些附图获得其他的附图。以下附图并未刻意按实际尺寸 等比例缩放绘制,重点在于示出本发明的主旨。
图1为本发明实施例1提供的基于深度学习的云图内插预测方法的流程图;
图2为本发明实施例1提供的SuperSlomo网络流程图;
图3为本发明实施例1提供的光流可视化示意图;
图4为本发明实施例1提供的近似中间光流合成示意图;
图5为本发明实施例1提供的光流翘曲示意图;
图6为本发明实施例1提供的SuperSlomo网络的结构示意图;
图7为本发明实施例1提供的U-Net全卷积神经网络的结构示意图;
图8为本发明实施例1提供的FY4A-AGRI云图0.65μm通道数据实验结 果对比图;
图9为本发明实施例1提供的FY4A-AGRI云图10.4μm红外通道数据实 验结果对比图;
图10为本发明实施例1提供的H8-AHI卫星云图11.2μm红外通道数据实 验结果对比图;
图11为本发明实施例1提供的H8-AHI云图GeoColor通道数据实验结果 对比图;
图12为本发明实施例2提供基于深度学习的云图内插预测***的结构框 图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清 楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是 全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造 性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如本发明和权利要求书中所示,除非上下文明确提示例外情形,“一”、 “一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说 来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步 骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元 素。
虽然本发明对根据本发明的实施例的***中的某些模块做出了各种引用, 然而,任何数量的不同模块可以被使用并运行在用户终端和/或服务器上。所 述模块仅是说明性的,并且所述***和方法的不同方面可以使用不同模块。
本发明中使用了流程图用来说明根据本发明的实施例的***所执行的操 作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,根 据需要,可以按照倒序或同时处理各种步骤。同时,也可以将其他操作添加到 这些过程中,或从这些过程移除某一步或数步操作。
卫星云图对于气象业务预报来说是必不可少的研究资料。而对于卫星云图 来说,经常会出现相邻时次云图时间间隔不等或无法使用的云图等情况,使得 这些云图经常无法保持时间连续性,这无疑给气象预报,尤其是灾害性天气预 报等任务带来了不小的困难。
为了解决这一问题,本发明提供了一种基于深度学习的云图内插预测方法 及***,在起始时次云图和结束时次云图的基础上,准确地预测出中间云图并 将其***到起始时次云图和结束时次云图之间,使卫星云图间的时间间隔更短、 更均匀,提升相邻时次云图间的时间连续性,降低甚至消除卫星云图合成视频 后的顿挫感。本发明采用基于深度学习的SuperSlomo模型对FY-4A静止卫星 AGRI和H8卫星AHI中的云图进行云图内插。SuperSlomo网络是一种光流法 结合U-Net网络的深度学习网络。在实验验证阶段,使用的是AGRIS的10.4μm 红外通道和0.65μm可见光通道的云图和H8-AHI的11.2μm红外通道以及彩色 合成图的云图。通过与其他的视频内插模型作对比,本发明采用的SuperSlomo 模型生成的内插云图相比于其他几种模型效果更好,云图更加清晰,峰值信噪 比和结构相似性指数等评价指标也更优于其他几种模型。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和 具体实施方式对本发明作进一步详细的说明。
实施例1
如图1所示,本实施例提出了一种基于深度学习的云图内插预测方法,该 方法包括以下步骤:
步骤S1、获取起始时次云图和结束时次云图。
本实施例中,采用的卫星资料是FY-4A卫星多通道扫描成像辐射计 (FY-4A-Advanced Geosynchronous Radiation Imager,FY-4A-AGRI)和 Himawari-8成像仪(Himawari-8-Advanced Himawari Imager,H8-AHI)的卫星 云图数据。
其中,FY-4A-AGRI可以获取多个通道的卫星观测资料,能够有效提高国 家和地区的天气预报以及灾害预警水平。与FY-2系列卫星携带的红外和可见 光自旋扫描辐射计(VISSR)相比,FY-4A-AGRI的通道数由5个增加至14 个,从可见光波段(0.47μm)覆盖至长波红外波段(13.5μm),包括可见光、 短波红外、中波红外和长波红外等波段,星上辐射定标精度为0.5K,灵敏度 为0.2K。可见光及近红外通道的空间分辨率最高可达0.5km,中波红外通道最 高可达2km,长波红外通道最高可达4km。AGRI的观测模式分为常规模式、 增强模式和应急模式三种。其中,常规观测模式包括:(1)逐小时一次的全 圆盘观测,观测时间为整点至整点过15min,其中00时至21时每隔三小时加 密观测两次,每日共40次全圆盘观测;(2)其余时间为每5min一次的中国 区域观测,范围约为10°-55°N,70°-140°E。本实施例在最后的实验验证阶段, 使用的是FY-4A卫星多通道扫描成像辐射计中的10.4μm红外通道和0.65μm 可见光通道。
H8-AHI卫星数据来源于日本宇宙航空研究开发机构地球观测研究中心。 该卫星数据已经经过辐射定标和地理定位等预处理。空间分辨率为5km,时间 分辨率为10min,覆盖范围为60°N-60°S,80°E-160°W。Himawari-8是新一代 静止气象卫星,搭载的辐射成像仪AHI具有16个通道。本实施例在最后的实 验验证阶段,使用的是Himawari-8卫星辐射成像仪11.2μm红外通道和地质彩 色(GeoColor)合成图片。
本实施例中,首先获取FY-4A-AGRI和H8-AHI的卫星云图中的起始时次 云图和结束时次云图。应说明的是,FY-4A-AGRI和H8-AHI的卫星云图仅仅 是一种优选方案,本发明不对卫星云图的具体来源进行限定,因此,卫星云图 的具体来源并不是固定的、唯一的,还可以采用其它型号的成像扫描仪器以及 相应的云图资料,可根据实际情况自行设定。
步骤S2、采用光流法,根据所述起始时次云图和所述结束时次云图生成 双向光流。具体包括:
根据所述起始时次云图和所述结束时次云图,采用光流法分别生成由起始 时次到所述结束时次云图的光流数组以及由结束时次到所述起始时次云图的 光流数组,两种所述光流数组构成所述双向光流。
如图2所示,在获得起始时次云图I0和结束时次云图I1后,本发明首先 进行的是利用光流法生成双向光流的步骤。光流(Optical Flow)是空间运动 物体在观察成像平面上的像素运动的瞬时速度向量,是利用图像序列中像素在 时间域上的变化以及相邻时次图片(帧)之间的相关性,以寻找上一帧跟当前 帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。 一般而言,光流是由于场景中前景目标本身的移动、相机的运动,或者两者的 共同运动所产生的。
数字化的光流是一个三维的数组,这个数组的维度为[height,width,2]。 其中,第一维“height”和第二维“width”分别表示每一帧的高和宽,第三维 “2”则表示当前帧到后一帧中每个像素的瞬时速度向量。瞬时速度向量由水 平方向的x向量和垂直方向的y向量组成,数字的大小表示向量的长度,符号 表示方向。光流的可视化图片如图3所示。
步骤S3、根据所述双向光流,对中间光流进行预测,得到双向近似中间 光流。
在已知起始时次云图I0和结束时次云图I1的情况下,可以得到这两个云 图的光流F0→1和F1→0。但是要想得到在I0和I1之间的云图,则需要中间时次t 到起始时次或结束时次的光流Ft→0和Ft→1,也就是光流预测。其中,t∈(0, 1),且t为归一化后的中间时次。本实施例还考虑到RGB图像合成的时间一 致性的问题,在进行光流预测时通过结合双向矢量光流来得到近似的中间光流, 具体情况如图4所示。
图4中每列对应某个时次,每个点代表一个像素,本实施例需要得到从中 心的时次T=t的空心像素点到T=0或T=1的实心像素点的向量。采用的方法 就是利用图4中的实线箭头向量乘以归一化的时间参数t或1-t得到近似的向 量,表示为:
Ft→1(p)=(1-t)F0→1(p);
Ft→0(p)=tF1→0(p);
其中,p表示像素点;t表示中间时次,且t∈(0,1);F0→1和F1→0分别 表示起始时次云图I0和结束时次云图I1的光流;Ft→1(p)表示像素点p从时次 T=t到T=1的移动向量,Ft→0(p)表示像素点p从时次T=t到T=0的移动向量, 这里的移动向量表示的就是光流。考虑到时间一致性的问题,需要将双向输入 光流合成为新的光流作为近似中间光流,即本实施例步骤S3光流预测得到双 向近似中间光流的过程。
步骤S3具体包括:
将所述双向光流代入到光流预测公式中,对中间光流进行预测计算,分别 得到预测时次到结束时次的近似中间光流和预测时次到起始时次的近似中间 光流;两种所述近似中间光流构成所述双向近似中间光流;
根据上述的移动向量的计算公式转换为光流预测公式。其中,所述预测时 次到结束时次的近似中间光流的光流预测公式为:
所述预测时次到起始时次的近似中间光流的光流预测公式为:
其中,表示预测时次到结束时次的近似中间光流;t表示中间时次, 且t∈(0,1);表示预测时次到起始时次的近似中间光流,F0→1表示起 始时次云图到结束时次云图的光流,F1→0表示结束时次云图到起始时次云图的 光流。
还需说明的是,本发明所述的预测时次可以有多个,预测时次的个数表示 在起始时次云图和结束时次云图之间预测的中间云图的个数,具体个数会按照 起始时次云图和结束时次云图的时间段大小除以云图内插后要达到的最小时 间间隔,最小时间间隔为根据实际需求人为进行外部输入、预先设定的最小时 间间隔值,最小时间间隔值越小,则***的中间云图的数量也就越多,最终合 成的卫星云图视频的时间连续性也就越佳。预测时次的具体个数由程序自动运 算得到。
步骤S4、根据所述双向近似中间光流、所述起始时次云图和所述结束时 次云图进行后向光流翘曲计算,分别得到由预测时次到起始时次的近似中间光 流和起始时次云图推算得到的预测时次预估云图以及由预测时次到结束时次 的近似中间光流和结束时次云图推算得到的预测时次预估云图。
在通过步骤S3得到近似中间光流后,需要利用T=0或T=1的原始图像帧 以及近似中间光流通过某种转换函数得到T=t的中间时次帧,而这种转换函数 就是光流翘曲。翘曲是通过双线性插值实现,双线性插值指的是根据图像中相 邻的四个像素点计算出以这四个点为顶点的正方形内任意一点的像素值。目前 的翘曲函数包括前向翘曲(ForwardWarping)和后向翘曲(BackwardWarping), 即前向和后向的移动图像中的像素,具体如图5所示。
如图5所示,图5A表示的是前向翘曲,即由原始图片通过正向中间光流 或转换为翘曲后的图像;图5B表示的是后向翘曲,即由原始图片和 逆向中间光流或通过双线性插值逆向推出翘曲后的图像。由于前向翘 曲会出现一些空洞(图A中深色方块),即原始图片的像素经过翘曲后没有 像素映射到该位置,而后向翘曲则不存在这个空洞问题。因此,本发明在翘曲 函数中选用的是后向翘曲,利用后向翘曲在上面合成近似中间光流时只合成了和这两个逆向中间光流,即预测时次到结束时次的近似中间光流以及 预测时次到起始时次的近似中间光流,其中,预测时次是本发明需要预测出来 的起始时次和结束时次之间的中间时次。
通过合成光流和初始时次T=0的起始时次云图I0翘曲生成的中间云 图It与和I0生成的中间云图是相同的,但是实际情况中像素移动并不一定 保持线性,使得这两种情况生成的云图会有一些差距。因此,为了生成的中间 时次的云图即中间云图更加贴合实际,需要将这两种过程生成的中间云图It按比例混合,从而得到步骤S4使用的后向光流翘曲公式。
步骤S4具体包括:
将所述双向近似中间光流、所述起始时次云图和所述结束时次云图代入到 后向光流翘曲公式中,计算得到所述由预测时次到起始时次的近似中间光流和 起始时次云图推算得到的预测时次预估云图和所述由预测时次到结束时次的 近似中间光流和结束时次云图推算得到的预测时次预估云图;其中,双向近似 中间光流包括预测时次到起始时次的中间光流和预测时次到结束时次的中间 光流,这两个中间光流为分别向起始时次和结束时次形成双向的近似的中间光 流。光流翘曲的推算过程表示为:
其中,表示生成的近似中间时次云图;α0表示控制预估云图的贡献参数, 且α0∈[0,1];*表示矩阵对应元素相乘;g(·)表示光流翘曲;表示 由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次 预估云图,即由起始时次云图和预测时次到起始时次预估光流推算得到的预测 时次预估云图,表示由预测时次到结束时次的近似中间光流和结束 时次云图推算得到的预测时次预估云图,即由结束时次云图和预测时次到结束 时次预估光流推算得到的预测时次预估云图;I0表示起始时次云图,I1表示结 束时次云图;表示预测时次到结束时次的近似中间光流;表示预测时 次到起始时次的近似中间光流。
需要说明的是,由于步骤S5中基于深度学习的SuperSlomo模型会得到预 测中间光流误差并对预测光流进行修正,因此,只需要将两个光流翘曲的结果 即和作为SuperSlomo模型的输入,不需要后向光流翘曲 公式的输出结果
步骤S5、将所述由预测时次到起始时次的近似中间光流和起始时次云图 推算得到的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和 结束时次云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时 次云图以及所述双向近似中间光流输入至基于深度学习的SuperSlomo模型中, 输出预测像素阻塞映射和预测中间光流误差。
一般情况下,卫星云图中云的运动是非线性的,例如云的边界和云的旋转 等情况,并不是规则的线性运动。而单纯的光流法更适合于线性运动的内插, 并不适合进行云图内插。因此,本发明采用基于深度学习的SuperSlomo网络 模型进行云图内插。这里的云图内插就是本发明最终的目标,即预测起始时次 云图和结束时次云图两张云图之间的中间时次的云图,也可以理解为视频内插, 预测中间帧。通过云图内插可以缩短云图之间的时间间隔,例如,通过云图内 插的方式***多张中间云图,可将时间间隔为十分钟的两张云图内插为一分钟 时间间隔的云图。因此,云图内插具体指的是预测两张云图之间的中间时次的 云图,所***的就是这两个时次之间的中间时次云图,使云图之间保持时间连 续性。
SuperSlomo网络是在光流法插值的基础上,利用深度神经网络对预测光 流进行训练,本发明所使用的神经网络是U-Net全卷积神经网络。如图6所示, SuperSlomo网络包括流计算部分和任意时次流插值部分,在流计算部分的输 入为两张待插值的输入图片,即起始时次云图I0和结束时次云图I1,得到中间 帧的近似中间光流和在任意时次流插值部分中,通过起始时次云图 I0和结束时次云图I1以及基于近似中间光流的后向光流翘曲得到的预测时次预 估云图和输出为预测像素阻塞映射Vt←0和Vt←1以及预测 中间光流误差ΔFt→0和ΔFt→1以及起始时次云图I0、结束时次云图I1,最终通过 中间光流误差计算得到最终中间光流,再将得到的数据带入到步骤S8中的归 一化后的云图预测公式中得到最终预测的内插中间云图。
本发明中的SuperSlomo网络的作用包括:(1)通过SuperSlomo模型训 练的过程输出更加详细、具体的预测像素阻塞映射,预测像素阻塞映射为可见 性映射,从而提升在在卫星云图的云边界和非线性运动部分的内插效果;(2) 通过SuperSlomo模型输出预测中间光流误差,对双向近似中间光流进行中间 光流误差校正,从而能够有效提高所预测的中间云图的清晰度。
U-Net全卷积神经网络的结构如图7所示,所述U-Net全卷积神经网络包 括一个编码器和一个解码器。编码器为图7左侧部分,解码器为图7右侧部分。 其中,所述编码器为6层网络结构,每一层网络结构包括两个卷积层 (conv+LeakyReLu)和一个平均池化层(averagingpooling),平均池化层可以使 输入数据的形状变小,目的是将有效特征提取出来,即编码器的工作;每个卷 积层包括一个LeakyReLu激活函数。所述解码器为五层网络结构,每一层网 络结构包括两个卷积层(conv+LeakyReLu)和一个双线上采样层(bilinearupsampling),双线性上采样层可以让输入数据的形状变大,目的是将 输入数据的形状恢复为最开始输入的状态,即解码器的工作;每个卷积层也包 括一个LeakyReLu激活函数。图7中各层网络结构下的32到512的数字表示 卷积层中的卷积核,卷积核越大则输出的矩阵形状越小。并且,所述解码器的 每一层输入都是由上一层输出和所述编码器中与其同层的输出混合后组成的, 这就是跳跃链接(skip connection),通过所述跳跃链接的方式以保留所述编 码器的部分特征。
步骤S5具体包括:
以所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到 的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次 云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以 及所述双向近似中间光流为所述SuperSlomo模型的输入,所述SuperSlomo模 型在光流法插值的基础上利用U-Net全卷积神经网络实现预测光流的训练,并 输出所述预测像素阻塞映射和所述预测中间光流误差。
步骤S6、根据所述预测中间光流误差和所述双向近似中间光流进行中间 光流误差校正,得到校正后的中间时次光流。具体包括:
将所述预测中间光流误差和所述双向近似中间光流代入至校正公式中计 算得到所述校正后的中间时次光流,表示为:
其中,F’t→0表示预测时次到起始时次的校正后的中间时次光流,F’t→1表 示预测时次到结束时次的校正后的中间时次光流;表示预测时次到结束时 次的近似中间光流,表示预测时次到起始时次的近似中间光流;ΔFt→0表 示预测时次到起始时次的预测中间光流误差,ΔFt→1表示预测时次到结束时次 的预测中间光流误差。
本发明通过SuperSlomo模型输出预测中间光流误差,然后利用预测中间 光流误差对双向近似中间光流进行中间光流误差校正,得到校正后的中间时次 光流,从而实现了对中间光流的误差校正,提升了中间光流的准确性,进而能 够有效提高最终预测出的中间云图的清晰度。
步骤S7、根据所述校正后的中间时次光流、所述起始时次云图和所述结 束时次云图进行后向光流翘曲计算,分别得到预测时次到起始时次的校正云图 以及预测时次到结束时次的校正云图。具体包括:
将所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图代 入到后向光流翘曲公式中,计算得到所述预测时次到起始时次的校正云图和所 述预测时次到结束时次的校正云图,表示为:
I’t=α0*g(I0,F’t→0)+(1-α0)*g(I1,F’t→1);
其中,I’t表示误差校正后生成的近似中间时次云图;α0表示控制预估云图 的贡献参数,且α0∈[0,1];*表示矩阵对应元素相乘;g(·)表示光流翘曲, g(I0,F’t→0)表示预测时次到起始时次的校正云图,g(I1,F’t→1)表示预测时次到 结束时次的校正云图;I0表示起始时次云图,I1表示结束时次云图;F’t→0表示 预测时次到起始时次的校正后的中间时次光流,F’t→1表示预测时次到结束时 次的校正后的中间时次光流。
步骤S8、根据所述预测时次到起始时次的校正云图、所述预测时次到结 束时次的校正云图和所述预测像素阻塞映射进行云图预测,生成最终预测的中 间云图。
由于视频插值具有以下重要特性:如果一个像素点p在T=t处可见,那么 它最有可能至少在其中一个输入图像I0或I1中可见。也就是说,中间帧的像 素不会从无到有自动生成,必然来自于两张输入图像中的某个像素。但是会有 像素在初始帧I0中却不在结束帧I1中。例如,有一片云在T=0这个时次的云 图中,但是在T=1时这一片云却消散了,那在进行它们的中间时次内插时需 要有一个参数使得这片云对应的像素点逐渐消失,这种情况就是像素阻塞 (Pixel Occlusion),这个参数就是阻塞参数(Occlusion Param),也就是本发明所说的利用SuperSlomo模型预测出的像素阻塞映射,即预测像素阻塞映 射。将这种像素阻塞情况合并到后向光流翘曲公式中,即可得到步骤S8使用 的云图预测公式。本发明采用深度学习的SuperSlomo模型预测像素阻塞映射, 通过像素阻塞映射对云图中每个像素的数值进行再次修正,从而减少了图片失 真的情况的发生,在云边界以及台风眼等位置的预测仍具有有很好的效果。
步骤S8具体包括:
将所述预测像素阻塞映射加入到所述后向光流翘曲公式中得到云图预测 公式,并将所述预测时次到起始时次的校正云图、所述预测时次到结束时次的 校正云图代入到所述云图预测公式中,生成所述最终预测的中间云图;所述云 图预测公式表示为:
I”t=(1-t)Vt←0*g(I0,F’t→0)+tVt←1*g(I1,F’t→1);
其中,I”t表示预测生成的中间云图;Vt←0和Vt←1分别表示预测像素阻塞映 射;*表示矩阵对应元素相乘;g(I0,F’t→0)表示预测时次到起始时次的校正云 图,g(I1,F’t→1)表示预测时次到结束时次的校正云图。所述云图预测公式实际 上就是在所述后向光流翘曲公式的基础上加上预测像素阻塞映射得到的。
Vt←0和Vt←1为可见性映射,以Vt←0为例,Vt←0(p)∈[0,1],Vt←0(p)是每个 像素点的阻塞参数,当Vt←0(p)的值为1时,表示与原像素相同,即预测的中 间云图对应的像素值为起始时次云图或结束时次云图对应的像素值乘以1;当 Vt←0(p)的值为0时,则表示预测的中间云图对应的像素值为起始时次云图或 结束时次云图对应的像素值乘以0,即该像素完全遮挡。此时,t可以为0或1, t∈[0,1]是准备内插的中间时次,为按照起始时次与结束时次得到的归一化时 次,表示的是待内插的时次在整个时间段所在位置的比例,所内插时次越靠近 I0,则由I0生成的待内插的中间图片It贡献越大,反之则对I1生成的It贡献更 大,因此,t的作用等同于后向光流翘曲公式中的贡献参数α0。
除此之外,还需要对生成的近似内插中间帧做归一化处理,即对所述云图 预测公式归一化处理,表示为:
其中,It表示最终预测的中间云图,(1-t)Vt←0+tVt←1表示标准化因子, I”t表示预测生成的中间云图,该中间云图未经归一化处理,因此不是最终的 预测中间云图的结果。
本发明中SuperSlomo模型在处理帧插值时,将需要预测的中间时次t归 一化为0到1的小数,即t∈[0,1],从而可以使得该SuperSlomo模型以输出可 见性的预测像素阻塞映射的方式,达到能够预测在起始时次到结束时次这一时 间段中的任意时间点、任意个数的中间时次云图的目的,生成足够多的中间时 次云图后,从而使卫星云图间的时间间隔更短、更均匀,进而保证了相邻时次 云图间的时间连续性,降低甚至消除卫星云图合成视频后的顿挫感,使得卫星 云图视频的整体连续性更强,更加流畅。同时,利用输出的预测中间光流误差 对中间光流进行误差校正,使最终生成的中间云图的清晰度更高。因此,本发 明通过SuperSlomo模型用于云图内插,不仅能够实现内插多帧图像,还保证 了内插帧的质量,保证内插云图的清晰度,尤其是在云边界、晨昏线以及台风 眼部分都能具有较高的清晰度。
为了测试本发明SuperSlomo模型性能的好坏,下面采用模型评估方法对 其进行定量评价:
为了验证本发明采用的SuperSlomo模型在卫星云图上的性能,本实施例 结合了基础阶段法(Phase-Based)、分割卷积法(SepConv)两种模型,分别 对FY4A-AGRI的0.65μm可见光通道、10.4μm红外通道数据;H8-AHI仪器 11.2μm红外通道数据以及GeoColor数据共4种数据进行实验。同时,采用峰 值信噪比(Peak Signal-to-Noise Ratio,PSNR)、结构相似性指数(Structural Similarity Index,SSIM)以及内插误差(Interpolation Error,IE)三种误差评 估方法对模型性能进行评价。
其中,峰值信噪比经常用于图像压缩和重建等领域的测量方法,表示信号 最大可能功率和破坏性噪声功率的比值,对峰值信噪比的定义为:
其中,MSE表示均方误差,I和K分别表示两个m×n的图像,MAXI表示图 像点颜色的最大数值,本实施例取值为255;i∈[0,m)和j∈[0,n)分别表示m× n的图像中每个像素的横坐标和纵坐标。SSIM是一种衡量两幅图像相似度的 指标,而如果两幅图像是压缩前和压缩后的图像,那么SSIM就可以用来评估 压缩后的图像质量,SSIM公式如下:
其中,uX和uY分别表示图像X和Y的均值,和分别表示图像X和Y的方 差,σXY表示图像X和Y的协方差,C1和C2为常数,为了避免分母为0的情况。 内插误差IE被定义为真实图像与插值图像之间的均方根(RMS)差值,可以直 接计算真实图像和预测的插值图像之间的差距。
为了形象的说明这三种评价指标对相似图片评价的大致数值范围,本实施 例提供基础阶段法(Phase-Based)、分割卷积法(SepConv)和本发明的 SuperSlomo模型三个方法模型在标准视频内插数据集SlowFlow上的结果如下 表所示:
表1 SlowFlow数据集的结果
方法 | PSNR | SSIM | IE |
基础阶段法 | 31.05 | 0.858 | 8.21 |
分割卷积法 | 32.69 | 0.893 | 6.79 |
本发明 | 34.19 | 0.924 | 6.14 |
PSNR表示信噪比,表示的是正常信号和噪音(和真实值相差过大的像素) 占比的多少,该数值越大,说明信号的占比越大,一般PSNR的值在30以上 基本可以说明预测图片效果较好。SSIM表示的是预测内插图片和实际图片间 结构相似性,SSIM∈[0,1],当SSIM值约接近于1时,说明两张图片越相似。 IE则表示内插预测图片的像素值和实际像素值的均方根插值,IE数值越小表 示误差越小。另外由于云图中很多像素都很接近,所以表1中得到的IE值要 比正常图片的IE值要低。
本实施例在实验时,对FY4A-AGRI的0.65μm可见光通道、10.4μm红外 通道数据,H8-AHI仪器的11.2μm通道数据和GeoColor数据进行试验。这4 种数据分别选取20个时次的云图作为云图内插模型输入的起始时次图片,以 这些图片的相邻时次云图作为内插输出的真实值对比,用真实值的下一个时次 作为模型输入的结束时次图片。最终用模型预测的内插图片和真实值相比较并 取平均值得到一下实验结果:
其中,FY4A-AGRI的0.65μm通道数据是AGRI的全圆盘可见光数据,并 截取全圆盘图片中的一处台风进行实验。选取时次为2020年9月6日0点0 分到2020年9月6日7点15分,实验统计结果如下:
表2 FY4A-AGRI卫星云图0.65μm通道数据实验结果
方法 | PSNR | SSIM | IE |
基础阶段法 | 15.12 | 0.51 | 23.07 |
分割卷积法 | 25.94 | 0.62 | 0.60 |
本发明 | 26.70 | 0.64 | 0.34 |
如表2所示,AGRI的0.65μm通道数据实验中本发明的SuperSlomo模型 的PSNR、SSIM和IE三项指标都优于其他两种方法模型。图8中示出了2020 年9月6日0点15分的云图内插实验结果对比图,图中显示出了该时次的真 实云图与基础阶段法、分割卷积法和本发明三种模型的内插结果。根据对比可 知基础阶段法的图片颜色失真,大多数像素点比真实像素点要更亮,所以其IE 值也会大很多;而分割卷积法输出的云图中台风风眼有点模糊;本发明的 SuperSlomo模型的输出相比于分割卷积法,台风眼更加清晰一些。
另外,FY4A-AGRI的10.4μm通道数据是AGRI的半圆盘红外通过数据。 本实施例选取的时次为2021年1月14日10点00分到2021年1月14日8 点40分,实验统计结果如表3所示:
表3 FY4A-AGRI卫星云图10.4μm红外通道数据实验结果
方法 | PSNR | SSIM | IE |
基础阶段法 | 20.83 | 0.87 | 6.57 |
分割卷积法 | 33.03 | 0.95 | 0.80 |
本发明 | 36.66 | 0.96 | 1.79 |
如表3所示,本发明的SuperSlomo模型对AGRI红外通道的数据仍然有 比较好的效果,表3中SuperSlomo模型的信噪比和结构相似性都优于其他两 个模型,只有内插误差相比于SepConv略有不足。图9中示出了云图时次为 2021年1月14日10点10分的实验结果对比图,其中,基础阶段法输出结果 仍有失真现象,而本发明的SuperSlomo模型与分割卷积法的图片相似。
而H8-AHI卫星云图11.2μm通道数据是H8-AHI中国区红外通道数据, 经纬度范围为60°N-60°S,80°E-160°W,时间范围为2020年9月20日1点10 分到2020年9月21日19点50分,实验结果如表4所示:
表4 H8-AHI卫星云图11.2μm红外通道数据实验结果
方法 | PSNR | SSIM | IE |
基础阶段法 | 33.29 | 0.94 | 1.59 |
分割卷积法 | 33.97 | 0.94 | 0.69 |
本发明 | 36.75 | 0.96 | 0.11 |
如图10所示,本发明的SuperSlomo模型在H8-AHI卫星云图11.2μm通 道数据实验中具有很好的效果,相对于其他方法云图的清晰度更佳。
H8-AHI卫星云图GeoColor数据是H8-AHI的中国区地理彩色云图,相比 于之前的单通道灰度图,晨昏线上的预测将是很大的考验。经纬度范围与H8 红外通道中国区数据相同。数据时间范围为2020年9月20日0点20分到2020 年9月21日2点50分,实验结果如表5所示:
表5 H8-AHI卫星云图GeoColor数据实验结果
方法 | PSNR | SSIM | IE |
基础阶段法 | 30.01 | 0.92 | 0.15 |
分割卷积法 | 30.49 | 0.91 | 0.72 |
本发明 | 27.68 | 0.94 | 1.32 |
如图11所示,基础阶段法模拟的晨昏线接近一条直线,与真实图片相差 最远。而本发明的SuperSlomo模型晨昏线最为清晰,也与真实图片最为接近。 表5中的PSNR值相对于SlowFlow数据集中的标准值较低,这是因为模型对 晨昏线附近的预测存在难度,会造成附近有一部分的扭曲,增加噪音像素。
通过本实施例对不同类型的卫星云图的实验,可以证明本发明采用的SuperSlomo模型更适合于卫星云图的视频内插任务。相比于其他方法的模型, 本发明采用的SuperSlomo模型的内插效果没有图片失真等问题,分界线模糊 问题也较少,对于台风眼等不易预测的部分也较为清晰。在数值方面, SuperSlomo模型对未剪切的单通道数据的预测中PSNR、SSIM、IE三项指标 都很好,且基本高于普通数据集的指标,因此,本发明采用的基于深度学习的 SuperSlomo模型能够很好的适用于未剪切的单通道卫星云图。
实施例2
如图12所示,本实施例提供了一种基于深度学习的云图内插预测***, 该***包括:
起始时次云图和结束时次云图获取模块M1,用于获取起始时次云图和结 束时次云图;
双向光流生成模块M2,用于采用光流法,根据所述起始时次云图和所述 结束时次云图生成双向光流;
中间光流预测模块M3,用于根据所述双向光流,对中间光流进行预测, 得到双向近似中间光流;
预估云图获取模块M4,用于根据所述双向近似中间光流、所述起始时次 云图和所述结束时次云图进行后向光流翘曲计算,分别得到由预测时次到起始 时次的近似中间光流和起始时次云图推算得到的预测时次预估云图以及由预 测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估 云图;
像素阻塞映射和中间光流误差输出模块M5,用于将所述由预测时次到起 始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图、所述由 预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预 估云图、所述起始时次云图、所述结束时次云图以及所述双向近似中间光流输 入至基于深度学习的SuperSlomo模型中,输出预测像素阻塞映射和预测中间 光流误差;
中间光流误差校正模块M6,用于根据所述预测中间光流误差和所述双向 近似中间光流进行中间光流误差校正,得到校正后的中间时次光流;
校正云图获取模块M7,用于根据所述校正后的中间时次光流、所述起始 时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到预测时次到起 始时次的校正云图以及预测时次到结束时次的校正云图;
中间云图预测和生成模块M8,用于根据所述预测时次到起始时次的校正 云图、所述预测时次到结束时次的校正云图和所述预测像素阻塞映射进行云图 预测,生成最终预测的中间云图。
除非另有定义,这里使用的所有术语(包括技术和科学术语)具有与本发 明所属领域的普通技术人员共同理解的相同含义。还应当理解,诸如在通常字 典里定义的那些术语应当被解释为具有与它们在相关技术的上下文中的含义 相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地 这样定义。
上面是对本发明的说明,而不应被认为是对其的限制。尽管描述了本发明 的若干示例性实施例,但本领域技术人员将容易地理解,在不背离本发明的新 颖教学和优点的前提下可以对示例性实施例进行许多修改。因此,所有这些修 改都意图包含在权利要求书所限定的本发明范围内。应当理解,上面是对本发 明的说明,而不应被认为是限于所公开的特定实施例,并且对所公开的实施例 以及其他实施例的修改意图包含在所附权利要求书的范围内。本发明由权利要 求书及其等效物限定。
Claims (10)
1.一种基于深度学习的云图内插预测方法,其特征在于,包括:
获取起始时次云图和结束时次云图;
采用光流法,根据所述起始时次云图和所述结束时次云图生成双向光流;
根据所述双向光流,对中间光流进行预测,得到双向近似中间光流;
根据所述双向近似中间光流、所述起始时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图以及由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图;
将所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以及所述双向近似中间光流输入至基于深度学习的SuperSlomo模型中,输出预测像素阻塞映射和预测中间光流误差;
根据所述预测中间光流误差和所述双向近似中间光流进行中间光流误差校正,得到校正后的中间时次光流;
根据所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到预测时次到起始时次的校正云图以及预测时次到结束时次的校正云图;
根据所述预测时次到起始时次的校正云图、所述预测时次到结束时次的校正云图和所述预测像素阻塞映射进行云图预测,生成最终预测的中间云图。
2.根据权利要求1所述的云图内插预测方法,其特征在于,所述采用光流法,根据所述起始时次云图和所述结束时次云图生成双向光流,具体包括:
根据所述起始时次云图和所述结束时次云图,采用光流法分别生成由起始时次到所述结束时次云图的光流数组以及由结束时次到所述起始时次云图的光流数组,两种所述光流数组构成所述双向光流。
3.根据权利要求1所述的云图内插预测方法,其特征在于,所述根据所述双向光流,对中间光流进行预测,得到双向近似中间光流,具体包括:
将所述双向光流代入到光流预测公式中,对中间光流进行预测计算,分别得到预测时次到结束时次的近似中间光流和预测时次到起始时次的近似中间光流;两种所述近似中间光流构成所述双向近似中间光流;
其中,所述预测时次到结束时次的近似中间光流的光流预测公式为:
所述预测时次到起始时次的近似中间光流的光流预测公式为:
4.根据权利要求1所述的云图内插预测方法,其特征在于,所述根据所述双向近似中间光流、所述起始时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图以及由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图,具体包括:
将所述双向近似中间光流、所述起始时次云图和所述结束时次云图代入到后向光流翘曲公式中,计算得到所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图和所述由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图,表示为:
5.根据权利要求1所述的云图内插预测方法,其特征在于,所述将所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以及所述双向近似中间光流输入至基于深度学习的SuperSlomo模型中,输出预测像素阻塞映射和预测中间光流误差,具体包括:
以所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以及所述双向近似中间光流为所述SuperSlomo模型的输入,所述SuperSlomo模型在光流法插值的基础上利用U-Net全卷积神经网络实现预测光流的训练,并输出所述预测像素阻塞映射和所述预测中间光流误差。
6.根据权利要求5所述的云图内插预测方法,其特征在于,所述U-Net全卷积神经网络包括一个编码器和一个解码器,其中,所述编码器为6层网络结构,每一层所述网络结构包括两个卷积层和一个平均池化层;每个所述卷积层包括一个LeakyReLu激活函数;所述解码器为五层网络结构,每一层所述网络结构包括两个卷积层和一个双线上采样层,每个所述卷积层也包括一个LeakyReLu激活函数;
所述解码器的每一层输入是由上一层输出和所述编码器中与其同层的输出混合后组成的,实现跳跃链接,通过所述跳跃链接的方式以保留所述编码器的特征。
8.根据权利要求1所述的云图内插预测方法,其特征在于,所述根据所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到预测时次到起始时次的校正云图以及预测时次到结束时次的校正云图,具体包括:
将所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图代入到后向光流翘曲公式中,计算得到所述预测时次到起始时次的校正云图和所述预测时次到结束时次的校正云图,表示为:
I’t=α0*g(I0,F’t→0)+(1-α0)*g(I1,F’t→1);
其中,I’t表示误差校正后生成的近似中间时次云图;α0表示控制预估云图的贡献参数,且α0∈[0,1];*表示矩阵对应元素相乘;g(·)表示光流翘曲,g(I0,F’t→0)表示预测时次到起始时次的校正云图,g(I1,F’t→1)表示预测时次到结束时次的校正云图;I0表示起始时次云图,I1表示结束时次云图;F’t→0表示预测时次到起始时次的校正后的中间时次光流,F’t→1表示预测时次到结束时次的校正后的中间时次光流。
9.根据权利要求8所述的云图内插预测方法,其特征在于,所述根据所述预测时次到起始时次的校正云图、所述预测时次到结束时次的校正云图和所述预测像素阻塞映射进行云图预测,生成最终预测的中间云图,具体包括:
将所述预测像素阻塞映射加入到所述后向光流翘曲公式中得到云图预测公式,并将所述预测时次到起始时次的校正云图、所述预测时次到结束时次的校正云图代入到所述云图预测公式中,生成所述最终预测的中间云图;所述云图预测公式表示为:
I″t=(1-t)Vt←0*g(I0,F’t→0)+tVt←1*g(I1,F’t→1);
其中,I”t表示预测生成的中间云图;Vt←0和Vt←1分别表示预测像素阻塞映射;*表示矩阵对应元素相乘;g(I0,F’t→0)表示预测时次到起始时次的校正云图,g(I1,F’t→1)表示预测时次到结束时次的校正云图;
对所述云图预测公式归一化处理,表示为:
其中,It表示最终预测的中间云图,(1-t)Vt←0+tVt←1表示标准化因子。
10.一种基于深度学习的云图内插预测***,其特征在于,包括:
起始时次云图和结束时次云图获取模块,用于获取起始时次云图和结束时次云图;
双向光流生成模块,用于采用光流法,根据所述起始时次云图和所述结束时次云图生成双向光流;
中间光流预测模块,用于根据所述双向光流,对中间光流进行预测,得到双向近似中间光流;
预估云图获取模块,用于根据所述双向近似中间光流、所述起始时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图以及由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图;
像素阻塞映射和中间光流误差输出模块,用于将所述由预测时次到起始时次的近似中间光流和起始时次云图推算得到的预测时次预估云图、所述由预测时次到结束时次的近似中间光流和结束时次云图推算得到的预测时次预估云图、所述起始时次云图、所述结束时次云图以及所述双向近似中间光流输入至基于深度学习的SuperSlomo模型中,输出预测像素阻塞映射和预测中间光流误差:
中间光流误差校正模块,用于根据所述预测中间光流误差和所述双向近似中间光流进行中间光流误差校正,得到校正后的中间时次光流;
校正云图获取模块,用于根据所述校正后的中间时次光流、所述起始时次云图和所述结束时次云图进行后向光流翘曲计算,分别得到预测时次到起始时次的校正云图以及预测时次到结束时次的校正云图;
中间云图预测和生成模块,用于根据所述预测时次到起始时次的校正云图、所述预测时次到结束时次的校正云图和所述预测像素阻塞映射进行云图预测,生成最终预测的中间云图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111234379.9A CN113935537A (zh) | 2021-10-22 | 2021-10-22 | 一种基于深度学习的云图内插预测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111234379.9A CN113935537A (zh) | 2021-10-22 | 2021-10-22 | 一种基于深度学习的云图内插预测方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113935537A true CN113935537A (zh) | 2022-01-14 |
Family
ID=79283866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111234379.9A Pending CN113935537A (zh) | 2021-10-22 | 2021-10-22 | 一种基于深度学习的云图内插预测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113935537A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110191299A (zh) * | 2019-04-15 | 2019-08-30 | 浙江大学 | 一种基于卷积神经网络的多重帧插值方法 |
CN110428373A (zh) * | 2019-07-12 | 2019-11-08 | 深圳市优乐学科技有限公司 | 一种用于视频插帧的训练样本处理方法和*** |
CN112104830A (zh) * | 2020-08-13 | 2020-12-18 | 北京迈格威科技有限公司 | 视频插帧方法、模型训练方法及对应装置 |
-
2021
- 2021-10-22 CN CN202111234379.9A patent/CN113935537A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110191299A (zh) * | 2019-04-15 | 2019-08-30 | 浙江大学 | 一种基于卷积神经网络的多重帧插值方法 |
CN110428373A (zh) * | 2019-07-12 | 2019-11-08 | 深圳市优乐学科技有限公司 | 一种用于视频插帧的训练样本处理方法和*** |
CN112104830A (zh) * | 2020-08-13 | 2020-12-18 | 北京迈格威科技有限公司 | 视频插帧方法、模型训练方法及对应装置 |
Non-Patent Citations (3)
Title |
---|
HUAIZU JIANG等: "Super slomo High quality estimation of multiple intermediate frames for video interpolation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
HUAIZU JIANG等: "Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
深山里的小白羊: "一文搞懂光流 光流的生成,可视化以及映射", 《HTTPS://BLOG.CSDN.NET/QQ_33757398/ARTICLE/DETAILS/106332814》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xu et al. | Spatial and temporal image fusion via regularized spatial unmixing | |
Tian et al. | A multi-order derivative feature-based quality assessment model for light field image | |
US11687773B2 (en) | Learning method and recording medium | |
CN102136144B (zh) | 图像配准可靠性模型和超分辨率图像的重构方法 | |
CN100432697C (zh) | 基于统计约束模型的线阵扫描图像非均匀性校正方法 | |
Er et al. | Calibration of colour gradient bias in shear measurement using HST/CANDELS data | |
CN113222825A (zh) | 基于可见光图像训练的红外图像超分辨率重构方法及应用 | |
CN112819697B (zh) | 一种遥感影像时空融合方法及*** | |
Luo et al. | Galaxy–Galaxy Weak-lensing Measurements from SDSS. I. Image Processing and Lensing Signals | |
JP7032913B2 (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
US10572976B2 (en) | Enhancing observation resolution using continuous learning | |
CN111932453A (zh) | 高分辨率图像生成方法及集成该方法的高速相机 | |
CN113744134B (zh) | 基于光谱解混卷积神经网络的高光谱图像超分辨方法 | |
Fu et al. | Raw image based over-exposure correction using channel-guidance strategy | |
Ignatov et al. | JPSS VIIRS level 3 uncollated sea surface temperature product at NOAA | |
CN113935537A (zh) | 一种基于深度学习的云图内插预测方法及*** | |
Azevedo et al. | Multi-feature 360 video quality estimation | |
Yu et al. | A hybrid model-based and data-driven approach for cloud removal in satellite imagery using multi-scale distortion-aware networks | |
Jarolim et al. | Instrument-To-Instrument translation: Instrumental advances drive restoration of solar observation series via deep learning | |
Regis et al. | Video quality assessment based on the effect of the estimation of the spatial perceptual information | |
Lévêque et al. | Subjective quality assessment of ground-based camera images | |
US20210398293A1 (en) | Motion vector generation apparatus, projection image generation apparatus, motion vector generation method, and program | |
CN115063332B (zh) | 一种构建高空间分辨率时序遥感数据的方法 | |
KR20200099923A (ko) | 영상 왜곡 측정 방법, 영상 왜곡 측정 방법에 의해 측정된 영상 왜곡을 사용한 인지적 화질 평가 방법, 및 상기 방법을 수행하는 장치 | |
Macwan et al. | A survey on various techniques of super resolution imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220114 |