CN114187179A - 一种基于视频监控的遥感图像模拟生成方法及*** - Google Patents
一种基于视频监控的遥感图像模拟生成方法及*** Download PDFInfo
- Publication number
- CN114187179A CN114187179A CN202111525188.8A CN202111525188A CN114187179A CN 114187179 A CN114187179 A CN 114187179A CN 202111525188 A CN202111525188 A CN 202111525188A CN 114187179 A CN114187179 A CN 114187179A
- Authority
- CN
- China
- Prior art keywords
- image
- monitoring camera
- remote sensing
- target
- included angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 257
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000004088 simulation Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 79
- 238000013507 mapping Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims description 27
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000011478 gradient descent method Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及一种基于视频监控的遥感图像模拟生成方法及***,所述方法包括根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;提取遥感图像的背景图像;对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。本发明利用监控的实时性,模拟生成遥感图像,实现了实时的遥感动态。
Description
技术领域
本发明涉及遥感信息处理与应用技术领域,特别是涉及一种基于视频监控的遥感图像模拟生成方法及***。
背景技术
卫星遥感在社会公益***方面提供了不可或缺的重要技术支持,从卫星遥感应用数据量上看,国土、气象、海洋、环境、农业领域是我国卫星遥感数据应用规模最大的五个领域。在卫星遥感领域,未来我国将重点发展陆地观测、海洋观测、大气观测三个系列。
卫星遥感观测的信息宏观、综合,此外,它可以长期连续观测,形成时序信息,但是对于获取某一区域的遥感图像所需的周期长,难以实现实时连续观测。
发明内容
为了克服现有技术的不足,本发明的目的是提供一种基于视频监控的遥感图像模拟生成方法及***。
为实现上述目的,本发明提供了如下方案:
一种基于视频监控的遥感图像模拟生成方法,包括:
根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;
提取遥感图像的背景图像;
对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;
根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;
将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。
优选地,所述根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系,包括:
获取所述预设监控摄像头参数;所述预设监控摄像头参数包括监控摄像头距离水平面的高度、监控摄像头中心线与垂直线的夹角、监控摄像头中心线在水平面上的投影和地理真北方向的夹角、监控摄像头水平视场角、监控摄像头垂直视场角和监控摄像头图像分辨率参数信息;
标定监控摄像头所在的位置在水平面上的垂直投影位置;
基于半正矢公式,计算所述垂直投影位置距监控摄像头可视范围内的水平面上的任意位置的直线水平距离和经度水平距离;
根据所述直线水平距离和所述经度水平距离计算所述垂直投影位置和所述任意位置的连线与地理真北方向的夹角,记为第一夹角;
根据所述直线水平距离和所述监控摄像头距离水平面的高度计算所述监控摄像头所在的位置和所述任意位置的连线与垂直线的夹角,记为第二夹角;
根据所述监控摄像头中心线与垂直线的夹角、所述监控摄像头中心线在水平面上的投影和地理真北方向的夹角、所述监控摄像头水平视场角、所述监控摄像头垂直视场角和所述监控摄像头图像分辨率参数信息计算所述任意位置在监控摄像头画面坐标的转换关系;
根据监控摄像头画面中多个画面坐标建立监控摄像头画面坐标集合;
根据所述监控摄像头画面坐标集合和所述转换关系得到变换矩阵;
根据所述变换矩阵确定所述监控摄像头画面坐标和遥感经纬度坐标的映射关系。
优选地,所述提取遥感图像的背景图像,包括:
基于图像目标检测算法提取遥感图像中所有目标的识别框信息集合;
根据所述识别框信息集合,将所述遥感图像中的目标进行去除;
将去除目标的遥感图像输入至训练好的生成对抗网络模型中,得到修复后的所述背景图像。
优选地,所述对监控摄像头中的每帧图像进行目标检测,得到检测目标信息,包括:
利用训练好的目标检测模型对所述监控摄像头进行目标检测,得到所述检测目标信息;所述检测目标信息包括:目标的识别框、目标的类型和目标的视觉特征。
优选地,所述根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像,包括:
基于训练好的卷积神经网络,根据所述目标的类型和所述目标的视觉特征生成遥感视野下的目标图像;
根据所述映射关系将所述目标的识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,以在遥感图像中得到与监控图像中的所述识别框相对应的矩形区域;
利用双线性插值算法将所述遥感视野下的目标图像进行拉伸,得到与所述目标的识别框相同大小的拉伸图像;
将所述拉伸图像与所述矩形区域进行叠加,得到所述遥感图像的目标图像。
一种基于视频监控的遥感图像模拟生成***,包括:
映射关系确定模块,用于根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;
提取模块,用于提取遥感图像的背景图像;
目标检测模块,用于对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;
图像处理模块,用于根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;
叠加模块,用于将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。
优选地,所述映射关系确定模块具体包括:
信息获取单元,用于获取所述预设监控摄像头参数;所述预设监控摄像头参数包括监控摄像头距离水平面的高度、监控摄像头中心线与垂直线的夹角、监控摄像头中心线在水平面上的投影和地理真北方向的夹角、监控摄像头水平视场角、监控摄像头垂直视场角和监控摄像头图像分辨率参数信息;
标定单元,用于标定监控摄像头所在的位置在水平面上的垂直投影位置;
第一计算单元,用于基于半正矢公式,计算所述垂直投影位置距监控摄像头可视范围内的水平面上的任意位置的直线水平距离和经度水平距离;
第二计算单元,用于根据所述直线水平距离和所述经度水平距离计算所述垂直投影位置和所述任意位置的连线与地理真北方向的夹角,记为第一夹角;
第三计算单元,用于根据所述直线水平距离和所述监控摄像头距离水平面的高度计算所述监控摄像头所在的位置和所述任意位置的连线与垂直线的夹角,记为第二夹角;
第四计算单元,用于根据所述监控摄像头中心线与垂直线的夹角、所述监控摄像头中心线在水平面上的投影和地理真北方向的夹角、所述监控摄像头水平视场角、所述监控摄像头垂直视场角和所述监控摄像头图像分辨率参数信息计算所述任意位置在监控摄像头画面坐标的转换关系;
集合构建单元,用于根据监控摄像头画面中多个画面坐标建立监控摄像头画面坐标集合;
矩阵确定单元,用于根据所述监控摄像头画面坐标集合和所述转换关系得到变换矩阵;
映射关系确定单元,用于根据所述变换矩阵确定所述监控摄像头画面坐标和遥感经纬度坐标的映射关系。
优选地,所述提取模块具体包括:
信息集合提取单元,用于基于图像目标检测算法提取遥感图像中所有目标的识别框信息集合;
目标剔除单元,用于根据所述识别框信息集合,将所述遥感图像中的目标进行去除;
修复单元,用于将去除目标的遥感图像输入至训练好的生成对抗网络模型中,得到修复后的所述背景图像。
优选地,所述目标检测模块具体包括:
目标检测单元,用于利用训练好的目标检测模型对所述监控摄像头进行目标检测,得到所述检测目标信息;所述检测目标信息包括:目标的识别框、目标的类型和目标的视觉特征。
优选地,所述图像处理模块具体包括:
图像生成单元,用于基于训练好的卷积神经网络,根据所述目标的类型和所述目标的视觉特征生成遥感视野下的目标图像;
转换单元,用于根据所述映射关系将所述目标的识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,以在遥感图像中得到与监控图像中的所述识别框相对应的矩形区域;
拉伸单元,用于利用双线性插值算法将所述遥感视野下的目标图像进行拉伸,得到与所述目标的识别框相同大小的拉伸图像;
叠加单元,用于将所述拉伸图像与所述矩形区域进行叠加,得到所述遥感图像的目标图像。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种基于视频监控的遥感图像模拟生成方法及***,所述方法包括根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;提取遥感图像的背景图像;对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。本发明利用监控的实时性,模拟生成遥感图像,实现了实时的遥感动态。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的实施例中的模拟生成方法的流程图;
图2为本发明提供的实施例中的视频监控到遥感的反演流程图;
图3为本发明提供的实施例中的监控摄像头画面坐标和经纬度坐标的映射关系计算方法的第一示意图;
图4为本发明提供的实施例中的监控摄像头画面坐标和经纬度坐标的映射关系计算方法的第二示意图;
图5为本发明提供的实施例中的待检测的目标在画面中的位置示意图;
图6为本发明提供的实施例中的优化***的模块连接图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤、过程、方法等没有限定于已列出的步骤,而是可选地还包括没有列出的步骤,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤元。
本发明的目的是提供一种基于视频监控的遥感图像模拟生成方法及***,能够利用监控的实时性,模拟生成遥感图像,实现了实时的遥感动态。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1和图2分别为为本发明提供的实施例中的模拟生成方法的流程图和视频监控到遥感的反演流程图,如图1和图2所示,本发明提供了一种基于视频监控的遥感图像模拟生成方法,包括:
步骤100:根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;
步骤200:提取遥感图像的背景图像;
步骤300:对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;
步骤400:根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;
步骤500:将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。
优选地,所述根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系,包括:
获取所述预设监控摄像头参数;所述预设监控摄像头参数包括监控摄像头距离水平面的高度、监控摄像头中心线与垂直线的夹角、监控摄像头中心线在水平面上的投影和地理真北方向的夹角、监控摄像头水平视场角、监控摄像头垂直视场角和监控摄像头图像分辨率参数信息;
标定监控摄像头所在的位置在水平面上的垂直投影位置;
基于半正矢公式,计算所述垂直投影位置距监控摄像头可视范围内的水平面上的任意位置的直线水平距离和经度水平距离;
根据所述直线水平距离和所述经度水平距离计算所述垂直投影位置和所述任意位置的连线与地理真北方向的夹角,记为第一夹角;
根据所述直线水平距离和所述监控摄像头距离水平面的高度计算所述监控摄像头所在的位置和所述任意位置的连线与垂直线的夹角,记为第二夹角;
根据所述监控摄像头中心线与垂直线的夹角、所述监控摄像头中心线在水平面上的投影和地理真北方向的夹角、所述监控摄像头水平视场角、所述监控摄像头垂直视场角和所述监控摄像头图像分辨率参数信息计算所述任意位置在监控摄像头画面坐标的转换关系;
根据监控摄像头画面中多个画面坐标建立监控摄像头画面坐标集合;
根据所述监控摄像头画面坐标集合和所述转换关系得到变换矩阵;
根据所述变换矩阵确定所述监控摄像头画面坐标和遥感经纬度坐标的映射关系。
本实施例中的第一个步骤为建立监控摄像头画面坐标和遥感经纬度坐标的映射关系,实现监控图像和遥感图像的对齐。
可选地,其中监控摄像头画面坐标和遥感经纬度坐标的映射关系的建立过程具体如下:
步骤1.1:参数获取准备:
如图3至图5所示,图4中N示意地理真北方向,测定监控摄像头距离水平面的高度为H、监控摄像头中心线与垂直线的夹角为θ、监控摄像头中心线在水平面上的投影和地理真北方向的夹角为β、监控摄像头水平视场角为ωx、监控摄像头垂直视场角为ωy、获取监控摄像头图像分辨率参数信息为X×Y(X为图像的像素宽度,Y为像素高度);
假定:监控摄像头画面中心的坐标定为(0,0),监控摄像头所在的位置O在水平面上的垂直投影位置为O′,其经纬度为(λ0,ψ0),针对监控摄像头可视范围内的水平面上任意位置Ai的经纬度坐标(λi,ψi)可按如下方式转换为监控摄像头画面坐标(xi,yi);
步骤1.2:根据Haversine(半正矢公式)公式,计算监控摄像头所在的位置在水平面上的垂直投影位置O′和监控摄像头可视范围内的水平面上任意位置Ai的直线水平距离di,单位为m,O′和Ai的经度水平距离si,单位为m:
其中:a、b均为中间变量值,O′(λ0,ψ0)为监控摄像头所在的位置在水平面上的垂直投影位置,Ai(λi,ψi)为监控摄像头可视范围内的水平面上任意位置,r为地球半径,单位为m;
步骤1.3:由步骤1.2,计算O′和Ai的连线和地理真北方向的夹角βi:
步骤1.4:由步骤1.2,计算O和Ai的连线和垂直线的夹角θi:
其中,H为监控摄像头距离水平面的高度,单位为m;
步骤1.5:计算Ai在监控摄像头画面坐标(xi,yi):
其中,X为图像的像素宽度,Y为像素高度,根据监控摄像头图像分辨率为X×Y,可得X和Y的参数值;
θ为监控摄像头中心线与垂直线的夹角,β为监控摄像头中心线在水平面上的投影和地理真北方向的夹角,ωx为监控摄像头水平视场角,ωy为监控摄像头垂直视场角。
步骤1.6:在监控摄像头画面中随机选取多个画面坐标,得到监控摄像头画面坐标集合,从监控摄像头画面坐标集合中每次选取三组坐标,通过所述监控摄像头画面坐标和经纬度坐标的映射关系,将选取的所述监控摄像头画面坐标转换为经纬度坐标,根据监控摄像头画面坐标和转换后的经纬度坐标计算得到变换矩阵H,具体过程如下:
通过逆矩阵计算得到多个变换矩阵Hi:
其中(xi1,yi1)、(xi2,yi2)、(xi3,yi3)是监控摄像头画面中的三组坐标,(loni1,lati1)、(loni2,lati2)、(loni3,lati3)是由三组监控摄像头画面坐标转换的经纬度坐标。
取多个变换矩阵Hi的平均值:
得到监控摄像头画面坐标和遥感经纬度坐标的转换关系如下:
其中,(x,y)是监控摄像头画面坐标,(lon,lat)是遥感经纬度坐标。
优选地,所述提取遥感图像的背景图像,包括:
基于图像目标检测算法提取遥感图像中所有目标的识别框信息集合;
根据所述识别框信息集合,将所述遥感图像中的目标进行去除;
将去除目标的遥感图像输入至训练好的生成对抗网络模型中,得到修复后的所述背景图像。
本实施例的第二个步骤为提取遥感图像的背景图。
具体的,获取遥感图像的背景图,需要将遥感图像上的所有目标去除,并对去除的区域进行图像修补,具体过程如下:
步骤2.1:提取遥感图像中所有目标的识别框。
对遥感图像采用YOLO V3目标检测模型进行目标检测,并在COCO公开数据集上进行预训练,在可选方案中也可替换成其他的目标检测模型,例如SSD、Faster R-CNN等。
通过图像目标检测算法,可得到遥感图像中所有目标的识别框信息集合Ω={<loni,lati,ai,bi>},其中(loni,lati)为第i个目标的识别框的左上经纬度坐标,(ai,bi)为第i个目标的识别框的右下经纬度坐标。
步骤2.2:以识别框的大小为准,将目标从遥感图像中去除。
根据步骤2.1中得到的识别框,利用抠图技术,将识别框所在区域的图像块进行抠图处理,其中背景图和目标一起去除,得到去除了所有目标的遥感图像。
步骤2.3:利用金字塔上下文编码器网络(PEN-Net)对步骤2.2中去除的区域进行填充,实现图像的修复。
金字塔上下文编码器网络包括金字塔上下文编码器、多尺度解码器和判别器。金字塔上下文编码器和多尺度解码器构成了一个生成器,Patch-GAN作为判别器。
在模型训练中,使用随机梯度下降法分别训练生成模型与判别模型。(1)固定判别模型不进行训练,使用随机梯度下降方法训练生成模型,当任意两相邻循环结束时的生成模型的损失值小于阈值s1时,停止训练生成模型。(2)固定生成模型不进行训练,使用随机梯度下降方法训练判别模型,当任意两相邻循环结束时的判别模型的损失值小于阈值s2时,停止训练判别模型。重复上述步骤(1)和(2),直至模型总损失值小于阈值s3。
以步骤2.2中去除目标的遥感图像作为输入,经过步骤2.3训练好的生成对抗网络模型,得到修复后的遥感图像,该遥感图像为去除了所有目标后只有背景的遥感图像。
优选地,所述对监控摄像头中的每帧图像进行目标检测,得到检测目标信息,包括:
利用训练好的目标检测模型对所述监控摄像头进行目标检测,得到所述检测目标信息;所述检测目标信息包括:目标的识别框、目标的类型和目标的视觉特征。
优选地,所述根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像,包括:
基于训练好的卷积神经网络,根据所述目标的类型和所述目标的视觉特征生成遥感视野下的目标图像;
根据所述映射关系将所述目标的识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,以在遥感图像中得到与监控图像中的所述识别框相对应的矩形区域;
利用双线性插值算法将所述遥感视野下的目标图像进行拉伸,得到与所述目标的识别框相同大小的拉伸图像;
将所述拉伸图像与所述矩形区域进行叠加,得到所述遥感图像的目标图像。
本实施例的第三个步骤是对监控视频中的每帧图像,进行遥感图像的模拟生成。
进一步地,将监控图像中的目标图像通过深度网络,从而得到遥感视野中的目标图像,实现了遥感图像的模拟生成,具体过程如下:
步骤3.1:在监控图像中进行目标检测,获取目标的位置大小、类型和视觉特征。
利用图片标注工具对监控图像中的所有目标进行标注;将已标注完成的监控图像输入到YOLO V3算法中,进行算法的训练,在训练过程中,损失函数计算预测结果和真实结果之间的损失值,通过梯度下降法,反向逐层更新权值,反复迭代,不断更新权值,训练出YOLO模型并保存。
通过训练好的YOLO模型,对监控图像进行目标检测,从而获取目标的位置大小、类型和视觉特征,其中目标的位置大小为该目标的识别框。
步骤3.2:根据目标的视觉特征和类型,通过U-net神经网络生成遥感视野中的目标图像。
建立U-net卷积神经网络,该网络包含28个卷积层,4个池化层,4个上采样层。其中,前27个卷积层采用3×3的卷积核进行特征提取,后接Relu激活函数进行非线性处理;最后1个卷积层采用1×1的卷积核进行特征提取,再加上sigmoid激活函数进行分类;池化层选择最大池化的方式,其窗口选择为3×3的窗口;上采样层的窗口选择为2×2的窗口,采取交叉熵代价函数用于计算输出分类与真实标签之间的误差,并通过AdamOptimizer算法进行梯度下降,进行网络参数的更新。为避免网络中多个神经元学习相同的内容,提升训练效果,在进行网络训练之前,对所有网络参数采用服从正态分布、标准差为0.1的随机初始化。为了避免出现过拟合的现象,在每个卷积层后面都加了一层BN层,并在网络中间参数较多处加了相应的Dropout层。
对遥感图像进行目标识别检测,以每个目标的识别框为大小进行图像切块,得到n张经图像切块后的遥感图像样本,选择其中的70%张遥感图像样本作为训练数据,30%张遥感图像样本作为验证数据。
在训练的过程中,使用多重交叉验证的方法,对U-net卷积神经网络模型训练过程中的误差值进行记录,当验证集的误差不再下降的时候,停止训练,保存当前的权重值作为训练好的U-net卷积神经网络模型的参数,之后使用测试集对U-net卷积神经网络模型进行性能测试,如果训练集上的性能差异大于阈值,则调整学习率直到找到泛化满足要求的模型参数。
根据步骤3.1得到的目标信息,以目标的视觉特征和类型作为模型的输入,通过训练好的U-net卷积神经网络,生成遥感视野下的目标图像。其中生成的目标图像不包含背景。
步骤3.3:根据监控图像中提取的目标位置及大小,通过步骤1建立的监控摄像头画面坐标和遥感经纬度坐标的映射关系,计算在遥感视野下目标的位置及大小,得到矩形区域。
根据步骤3.1的图像目标检测,可以获取到目标的识别框,识别框的左上和右下两个坐标点已知,即得到了目标的位置;通过步骤1建立的监控摄像头画面坐标和遥感经纬度坐标的映射关系,可将识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,从而在遥感图像中得到与监控图像中的识别框相对应的矩形区域。
步骤3.4:将步骤3.2中生成的图像进行拉伸,并叠加到步骤3.3中的矩形区域。
以步骤3.2中生成的图像作为输入图像,目标图像尺寸大小为步骤3.3中的矩形区域。
获取输入图像尺寸为a×b,目标图像尺寸为m×n;输入图像与目标图像在行、列方向上的缩放因子分别为yf表示输入图像与目标图像在行方向上的缩放因子,xf表示输入图像与目标图像在列方向上的缩放因子;对输入图像与目标图像在行、列方向上的缩放因子yf和xf进行向下取整,得到取整后的行、列方向上的缩放因子y′f和x′f,其中令Δyf=yf-y′f,Δxf=xf-x′f。
将双线性插值算法应用于图像缩放中的具体计算过程如下:
(1)目标图像中像素点坐标(i,j)位置上的像素值计算需要由其当前像素位置进行反推,1≤i≤m,1≤j≤n;经过分析像素点(i,j)对应于输入图像中像素点坐标为的位置,像素点坐标位置可能在输入图像中没有相应的像素值对应,即是输入图像中的虚像素位置。
在输入图像中找到附近的四个像素点位置,分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4),以四个像素点位置的像素值A、B、C、D作为目标图像中像素点坐标(i,j)位置上的参考像素值进行双线性插值,得到基于基本的双线性插值算法的目标图像中像素点坐标(i,j)位置对应输入图像中虚像素点的像素值M;基本的双线性插值算法为:
M=(1-Δxf)(1-Δyf)A+Δxf(1-Δyf)C+Δyf(1-Δxf)B+ΔxfΔyfD
由上述基础的双线性插值算法的公式可以看出,计算一个插值点的像素值需要8个乘法运算,为了简化上述公式,对上述公式进行因式分解。
将双线性插值算法拆分为垂直方向上的插值计算与水平方向上的插值算法,垂直方向上先利用A、C经过插值计算出:
再利用b、d经过插值计算出:
其中,2≤i+1≤m
令i=1,2,…,m,j=1,2,…,n遍历目标图像中的m×n个像素点坐标,依次进行双线性插值计算,进而得到目标图像中像素点坐标(1,1)位置对应输入图像中虚像素点的像素值至目标图像中像素点坐标(m,n)位置对应输入图像中虚像素点的像素值最终完成整幅目标图像的缩放处理。
具体的,根据上述图像缩放的方法,将步骤3.2中生成的图像进行拉伸变换,直至与步骤3.1中检测到的对应目标的识别框大小一致,并叠加到步骤3.3中的矩形区域中。
作为一种可选的实施方式,通过不断的循环步骤3,可以实现遥感图像的模拟生成,从而得到实时的遥感动态。
图6为本发明提供的实施例中的优化***的模块连接图,如图6所示,本发明还提供了一种基于视频监控的遥感图像模拟生成***,包括:
映射关系确定模块,用于根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;
提取模块,用于提取遥感图像的背景图像;
目标检测模块,用于对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;
图像处理模块,用于根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;
叠加模块,用于将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。
优选地,所述映射关系确定模块具体包括:
信息获取单元,用于获取所述预设监控摄像头参数;所述预设监控摄像头参数包括监控摄像头距离水平面的高度、监控摄像头中心线与垂直线的夹角、监控摄像头中心线在水平面上的投影和地理真北方向的夹角、监控摄像头水平视场角、监控摄像头垂直视场角和监控摄像头图像分辨率参数信息;
标定单元,用于标定监控摄像头所在的位置在水平面上的垂直投影位置;
第一计算单元,用于基于半正矢公式,计算所述垂直投影位置距监控摄像头可视范围内的水平面上的任意位置的直线水平距离和经度水平距离;
第二计算单元,用于根据所述直线水平距离和所述经度水平距离计算所述垂直投影位置和所述任意位置的连线与地理真北方向的夹角,记为第一夹角;
第三计算单元,用于根据所述直线水平距离和所述监控摄像头距离水平面的高度计算所述监控摄像头所在的位置和所述任意位置的连线与垂直线的夹角,记为第二夹角;
第四计算单元,用于根据所述监控摄像头中心线与垂直线的夹角、所述监控摄像头中心线在水平面上的投影和地理真北方向的夹角、所述监控摄像头水平视场角、所述监控摄像头垂直视场角和所述监控摄像头图像分辨率参数信息计算所述任意位置在监控摄像头画面坐标的转换关系;
集合构建单元,用于根据监控摄像头画面中多个画面坐标建立监控摄像头画面坐标集合;
矩阵确定单元,用于根据所述监控摄像头画面坐标集合和所述转换关系得到变换矩阵;
映射关系确定单元,用于根据所述变换矩阵确定所述监控摄像头画面坐标和遥感经纬度坐标的映射关系。
优选地,所述提取模块具体包括:
信息集合提取单元,用于基于图像目标检测算法提取遥感图像中所有目标的识别框信息集合;
目标剔除单元,用于根据所述识别框信息集合,将所述遥感图像中的目标进行去除;
修复单元,用于将去除目标的遥感图像输入至训练好的生成对抗网络模型中,得到修复后的所述背景图像。
优选地,所述目标检测模块具体包括:
目标检测单元,用于利用训练好的目标检测模型对所述监控摄像头进行目标检测,得到所述检测目标信息;所述检测目标信息包括:目标的识别框、目标的类型和目标的视觉特征。
优选地,所述图像处理模块具体包括:
图像生成单元,用于基于训练好的卷积神经网络,根据所述目标的类型和所述目标的视觉特征生成遥感视野下的目标图像;
转换单元,用于根据所述映射关系将所述目标的识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,以在遥感图像中得到与监控图像中的所述识别框相对应的矩形区域;
拉伸单元,用于利用双线性插值算法将所述遥感视野下的目标图像进行拉伸,得到与所述目标的识别框相同大小的拉伸图像;
叠加单元,用于将所述拉伸图像与所述矩形区域进行叠加,得到所述遥感图像的目标图像。
本发明的有益效果如下:
(1)本发明利用基于视频监控的遥感图像模拟生成方法,根据监控的实时性和视频监控的数据信息,模拟生成遥感图像,从而得到实时的遥感动态。进而提高了获取遥感动态的实时性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于视频监控的遥感图像模拟生成方法,其特征在于,包括:
根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;
提取遥感图像的背景图像;
对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;
根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;
将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。
2.根据权利要求1所述的基于视频监控的遥感图像模拟生成方法,其特征在于,所述根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系,包括:
获取所述预设监控摄像头参数;所述预设监控摄像头参数包括监控摄像头距离水平面的高度、监控摄像头中心线与垂直线的夹角、监控摄像头中心线在水平面上的投影和地理真北方向的夹角、监控摄像头水平视场角、监控摄像头垂直视场角和监控摄像头图像分辨率参数信息;
标定监控摄像头所在的位置在水平面上的垂直投影位置;
基于半正矢公式,计算所述垂直投影位置距监控摄像头可视范围内的水平面上的任意位置的直线水平距离和经度水平距离;
根据所述直线水平距离和所述经度水平距离计算所述垂直投影位置和所述任意位置的连线与地理真北方向的夹角,记为第一夹角;
根据所述直线水平距离和所述监控摄像头距离水平面的高度计算所述监控摄像头所在的位置和所述任意位置的连线与垂直线的夹角,记为第二夹角;
根据所述监控摄像头中心线与垂直线的夹角、所述监控摄像头中心线在水平面上的投影和地理真北方向的夹角、所述监控摄像头水平视场角、所述监控摄像头垂直视场角和所述监控摄像头图像分辨率参数信息计算所述任意位置在监控摄像头画面坐标的转换关系;
根据监控摄像头画面中多个画面坐标建立监控摄像头画面坐标集合;
根据所述监控摄像头画面坐标集合和所述转换关系得到变换矩阵;
根据所述变换矩阵确定所述监控摄像头画面坐标和遥感经纬度坐标的映射关系。
3.根据权利要求1所述的基于视频监控的遥感图像模拟生成方法,其特征在于,所述提取遥感图像的背景图像,包括:
基于图像目标检测算法提取遥感图像中所有目标的识别框信息集合;
根据所述识别框信息集合,将所述遥感图像中的目标进行去除;
将去除目标的遥感图像输入至训练好的生成对抗网络模型中,得到修复后的所述背景图像。
4.根据权利要求1所述的基于视频监控的遥感图像模拟生成方法,其特征在于,所述对监控摄像头中的每帧图像进行目标检测,得到检测目标信息,包括:
利用训练好的目标检测模型对所述监控摄像头进行目标检测,得到所述检测目标信息;所述检测目标信息包括:目标的识别框、目标的类型和目标的视觉特征。
5.根据权利要求4所述的基于视频监控的遥感图像模拟生成方法,其特征在于,所述根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像,包括:
基于训练好的卷积神经网络,根据所述目标的类型和所述目标的视觉特征生成遥感视野下的目标图像;
根据所述映射关系将所述目标的识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,以在遥感图像中得到与监控图像中的所述识别框相对应的矩形区域;
利用双线性插值算法将所述遥感视野下的目标图像进行拉伸,得到与所述目标的识别框相同大小的拉伸图像;
将所述拉伸图像与所述矩形区域进行叠加,得到所述遥感图像的目标图像。
6.一种基于视频监控的遥感图像模拟生成***,其特征在于,包括:
映射关系确定模块,用于根据预设监控摄像头参数建立监控摄像头画面坐标和遥感经纬度坐标的映射关系;
提取模块,用于提取遥感图像的背景图像;
目标检测模块,用于对监控摄像头中的每帧图像进行目标检测,得到检测目标信息;
图像处理模块,用于根据所述检测目标信息、所述映射关系进行模拟图像处理,得到遥感图像的目标图像;
叠加模块,用于将所述背景图像和所述目标图像进行图像叠加,得到实时的遥感动态图。
7.根据权利要求6所述的基于视频监控的遥感图像模拟生成***,其特征在于,所述映射关系确定模块具体包括:
信息获取单元,用于获取所述预设监控摄像头参数;所述预设监控摄像头参数包括监控摄像头距离水平面的高度、监控摄像头中心线与垂直线的夹角、监控摄像头中心线在水平面上的投影和地理真北方向的夹角、监控摄像头水平视场角、监控摄像头垂直视场角和监控摄像头图像分辨率参数信息;
标定单元,用于标定监控摄像头所在的位置在水平面上的垂直投影位置;
第一计算单元,用于基于半正矢公式,计算所述垂直投影位置距监控摄像头可视范围内的水平面上的任意位置的直线水平距离和经度水平距离;
第二计算单元,用于根据所述直线水平距离和所述经度水平距离计算所述垂直投影位置和所述任意位置的连线与地理真北方向的夹角,记为第一夹角;
第三计算单元,用于根据所述直线水平距离和所述监控摄像头距离水平面的高度计算所述监控摄像头所在的位置和所述任意位置的连线与垂直线的夹角,记为第二夹角;
第四计算单元,用于根据所述监控摄像头中心线与垂直线的夹角、所述监控摄像头中心线在水平面上的投影和地理真北方向的夹角、所述监控摄像头水平视场角、所述监控摄像头垂直视场角和所述监控摄像头图像分辨率参数信息计算所述任意位置在监控摄像头画面坐标的转换关系;
集合构建单元,用于根据监控摄像头画面中多个画面坐标建立监控摄像头画面坐标集合;
矩阵确定单元,用于根据所述监控摄像头画面坐标集合和所述转换关系得到变换矩阵;
映射关系确定单元,用于根据所述变换矩阵确定所述监控摄像头画面坐标和遥感经纬度坐标的映射关系。
8.根据权利要求6所述的基于视频监控的遥感图像模拟生成***,其特征在于,所述提取模块具体包括:
信息集合提取单元,用于基于图像目标检测算法提取遥感图像中所有目标的识别框信息集合;
目标剔除单元,用于根据所述识别框信息集合,将所述遥感图像中的目标进行去除;
修复单元,用于将去除目标的遥感图像输入至训练好的生成对抗网络模型中,得到修复后的所述背景图像。
9.根据权利要求6所述的基于视频监控的遥感图像模拟生成***,其特征在于,所述目标检测模块具体包括:
目标检测单元,用于利用训练好的目标检测模型对所述监控摄像头进行目标检测,得到所述检测目标信息;所述检测目标信息包括:目标的识别框、目标的类型和目标的视觉特征。
10.根据权利要求9所述的基于视频监控的遥感图像模拟生成单元,其特征在于,所述图像处理模块具体包括:
图像生成单元,用于基于训练好的卷积神经网络,根据所述目标的类型和所述目标的视觉特征生成遥感视野下的目标图像;
转换单元,用于根据所述映射关系将所述目标的识别框在监控摄像头画面中的坐标转换为遥感经纬度坐标,以在遥感图像中得到与监控图像中的所述识别框相对应的矩形区域;
拉伸单元,用于利用双线性插值算法将所述遥感视野下的目标图像进行拉伸,得到与所述目标的识别框相同大小的拉伸图像;
叠加单元,用于将所述拉伸图像与所述矩形区域进行叠加,得到所述遥感图像的目标图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111525188.8A CN114187179B (zh) | 2021-12-14 | 2021-12-14 | 一种基于视频监控的遥感图像模拟生成方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111525188.8A CN114187179B (zh) | 2021-12-14 | 2021-12-14 | 一种基于视频监控的遥感图像模拟生成方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114187179A true CN114187179A (zh) | 2022-03-15 |
CN114187179B CN114187179B (zh) | 2023-02-03 |
Family
ID=80543686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111525188.8A Active CN114187179B (zh) | 2021-12-14 | 2021-12-14 | 一种基于视频监控的遥感图像模拟生成方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114187179B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630825A (zh) * | 2023-06-09 | 2023-08-22 | 北京佳格天地科技有限公司 | 一种卫星遥感数据与监控视频融合方法及*** |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103743488A (zh) * | 2013-12-28 | 2014-04-23 | 华中科技大学 | 遥感卫星地球临边背景特性的红外成像仿真方法 |
US9245201B1 (en) * | 2013-03-15 | 2016-01-26 | Excelis Inc. | Method and system for automatic registration of images |
CN108596055A (zh) * | 2018-04-10 | 2018-09-28 | 西北工业大学 | 一种复杂背景下高分辨遥感图像的机场目标检测方法 |
CN109035188A (zh) * | 2018-07-16 | 2018-12-18 | 西北工业大学 | 一种基于目标特征驱动的智能图像融合方法 |
US20190026532A1 (en) * | 2016-01-28 | 2019-01-24 | Israel Aerospace Industries Ltd. | Systems and methods for detecting imaged clouds |
CN109634507A (zh) * | 2018-12-03 | 2019-04-16 | 广东国图勘测地理信息有限公司 | 一种可触控的电子地图控制方法及装置 |
CN109903352A (zh) * | 2018-12-24 | 2019-06-18 | 中国科学院遥感与数字地球研究所 | 一种卫星遥感影像大区域无缝正射影像制作方法 |
CN110992262A (zh) * | 2019-11-26 | 2020-04-10 | 南阳理工学院 | 一种基于生成对抗网络的遥感图像超分辨重建方法 |
CN112507122A (zh) * | 2020-12-01 | 2021-03-16 | 浙江易智信息技术有限公司 | 一种基于知识图谱的高分多源遥感数据融合方法 |
CN113378686A (zh) * | 2021-06-07 | 2021-09-10 | 武汉大学 | 一种基于目标中心点估计的两阶段遥感目标检测方法 |
-
2021
- 2021-12-14 CN CN202111525188.8A patent/CN114187179B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9245201B1 (en) * | 2013-03-15 | 2016-01-26 | Excelis Inc. | Method and system for automatic registration of images |
CN103743488A (zh) * | 2013-12-28 | 2014-04-23 | 华中科技大学 | 遥感卫星地球临边背景特性的红外成像仿真方法 |
US20190026532A1 (en) * | 2016-01-28 | 2019-01-24 | Israel Aerospace Industries Ltd. | Systems and methods for detecting imaged clouds |
CN108596055A (zh) * | 2018-04-10 | 2018-09-28 | 西北工业大学 | 一种复杂背景下高分辨遥感图像的机场目标检测方法 |
CN109035188A (zh) * | 2018-07-16 | 2018-12-18 | 西北工业大学 | 一种基于目标特征驱动的智能图像融合方法 |
CN109634507A (zh) * | 2018-12-03 | 2019-04-16 | 广东国图勘测地理信息有限公司 | 一种可触控的电子地图控制方法及装置 |
CN109903352A (zh) * | 2018-12-24 | 2019-06-18 | 中国科学院遥感与数字地球研究所 | 一种卫星遥感影像大区域无缝正射影像制作方法 |
CN110992262A (zh) * | 2019-11-26 | 2020-04-10 | 南阳理工学院 | 一种基于生成对抗网络的遥感图像超分辨重建方法 |
CN112507122A (zh) * | 2020-12-01 | 2021-03-16 | 浙江易智信息技术有限公司 | 一种基于知识图谱的高分多源遥感数据融合方法 |
CN113378686A (zh) * | 2021-06-07 | 2021-09-10 | 武汉大学 | 一种基于目标中心点估计的两阶段遥感目标检测方法 |
Non-Patent Citations (3)
Title |
---|
INDRANIL MISRA 等: "An approach for generation of multi temporal co-registered optical remote sensing images from Resourcesat-2/2A sensors", 《JOURNAL OF GEOMATICS》 * |
XIAOWEI LI 等: "A comparison of forest fire indices for predicting fire risk in contrasting climates in China", 《NAT HAZARDS (2014) 》 * |
陆菲菲 等: "利用几何精校正进行多尺度数字栅格地图配准", 《计算机应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630825A (zh) * | 2023-06-09 | 2023-08-22 | 北京佳格天地科技有限公司 | 一种卫星遥感数据与监控视频融合方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN114187179B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136170B (zh) | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 | |
CN110276269B (zh) | 一种基于注意力机制的遥感图像目标检测方法 | |
CN108052881A (zh) | 一种实时检测施工现场图像中多类实体对象的方法及设备 | |
CN111723732A (zh) | 一种光学遥感图像变化检测方法、存储介质及计算设备 | |
CN106570893A (zh) | 一种基于相关滤波的快速稳健视觉跟踪方法 | |
CN106023148B (zh) | 一种序列聚焦观测模式下恒星像点位置提取方法 | |
CN106991147A (zh) | 一种植物识别***及识别方法 | |
CN109035327B (zh) | 基于深度学习的全景相机姿态估计方法 | |
CN109002752A (zh) | 一种基于深度学习的复杂公共场景快速行人检测方法 | |
CN112257741B (zh) | 一种基于复数神经网络的生成性对抗虚假图片的检测方法 | |
CN107491793B (zh) | 一种基于稀疏散射全卷积的极化sar图像分类方法 | |
CN113822982A (zh) | 一种人体三维模型构建方法、装置、电子设备及存储介质 | |
CN109447897B (zh) | 一种真实场景图像合成方法及*** | |
JP2017033197A (ja) | 変化領域検出装置、方法、及びプログラム | |
CN105488541A (zh) | 增强现实***中基于机器学习的自然特征点识别方法 | |
CN114399533B (zh) | 一种基于多层次注意力机制的单目标追踪方法 | |
CN114187179B (zh) | 一种基于视频监控的遥感图像模拟生成方法及*** | |
KR20190061538A (ko) | 멀티 인식모델의 결합에 의한 행동패턴 인식방법 및 장치 | |
CN117079132A (zh) | 基于高斯距离损失的遥感图像目标检测方法 | |
CN111683221B (zh) | 嵌入矢量红线数据的自然资源实时视频监测方法及*** | |
CN117422619A (zh) | 图像重建模型的训练方法、图像重建方法、装置及设备 | |
CN112766381B (zh) | 有限样本下属性引导的sar图像生成方法 | |
CN109829951B (zh) | 平行等位检测方法、装置与自动驾驶*** | |
CN107330432A (zh) | 一种基于加权霍夫投票的多视角车辆检测方法 | |
CN114445726B (zh) | 一种基于深度学习的样本库建立方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |