CN116188968B - 一种基于神经网络的遥感图像厚云区域检测方法 - Google Patents
一种基于神经网络的遥感图像厚云区域检测方法 Download PDFInfo
- Publication number
- CN116188968B CN116188968B CN202211545313.6A CN202211545313A CN116188968B CN 116188968 B CN116188968 B CN 116188968B CN 202211545313 A CN202211545313 A CN 202211545313A CN 116188968 B CN116188968 B CN 116188968B
- Authority
- CN
- China
- Prior art keywords
- representing
- module
- feature
- remote sensing
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 27
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims description 65
- 230000006835 compression Effects 0.000 claims description 44
- 238000007906 compression Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 34
- 230000004927 fusion Effects 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及图像数据处理技术领域,公开了一种基于神经网络的遥感图像厚云区域检测方法,包括:获取带云遥感图像,根据位置确定分支得到位置特征,根据边缘完善分支得到边缘特征,融合所述位置特征和所述边缘特征得到融合特征,将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。本发明利用并行U型卷积神经网络,采用位置确定分支和边缘完善分支分别进行厚云区域整体检测和云区边缘精细,且将两个分支提取到的特征进行合并融合,从而获得检测准确且边缘细化完整的遥感图像厚云区域检测结果。
Description
技术领域
本发明涉及图像数据处理领域,尤其涉及一种基于神经网络的遥感图像厚云区域检测方法。
背景技术
光学遥感图像可以提供对地物信息的丰富观测,然而,云层会对地面信息进行广泛地大面积的遮挡,从而影响对地面信息的估计和观测。因此,对光学遥感图像中的厚云区域覆盖的检测是进一步分析和利用遥感图像信息的基础和关键。
传统的遥感图像厚云区域检测方法主要基于光谱阈值策略,该策略通过对遥感图像的不同光谱设置阈值,从而实现了对于厚云的自动检测。该策略无需对遥感图像进行像素级的标签标记,也无需进行复杂的模型训练。然而,基于光谱阈值的方法往往泛化性能较差,对于复杂遥感场景的厚云检测精度较差,对于不同类别场景的遥感图像的检测鲁棒性也不足。近年来,卷积神经网络在各种计算机视觉和遥感图像处理任务中都表现出了突出的效果,这也启发了基于卷积神经网络的遥感图像厚云区域检测方法。如中国发明专利“一种基于DeepLabV3+的遥感卫星云检测方法”(CN202010241130.X)公开了一种基于DeepLabV3+的遥感卫星云检测方法,将带有云覆盖的遥感图像输入至语义分割网络DeepLabV3+中,得到对应的云区检测结果图。在该方法中,引入了空洞卷积和金字塔结构,增大了卷积的感受野,提高了云区检测的精度。再如中国发明专利“基于多尺度卷积神经网络的遥感图像云检测方法”(CN202111108889.1)公开了一种基于多尺度卷积神经网络的遥感图像云检测方法,该方法利用多尺度的卷积与池化操作,提高了对于不同尺寸的云的检测通用性。然而,为了提高遥感图像中厚云区域检测精度,如何在准确确定厚云区域大***置的同时对云区边缘进行精细,仍然是一个极具困难的问题。
目前关于遥感图像厚云区域检测的研究比较多,但是现有的研究一般采用具有单个分支的卷积神经网络进行遥感图像厚云区域检测,未见利用具有多个分支的网络模型分别进行整体厚云检测和云区边缘精细的方法。
发明内容
本发明的目的在于克服上述一种或多种现有的技术问题,提供一种基于神经网络的遥感图像厚云区域检测方法。
为实现上述目的,本发明提供的一种基于神经网络的遥感图像厚云区域检测方法,包括:
获取带云遥感图像;
根据位置确定分支得到位置特征;
根据边缘完善分支得到边缘特征;
融合所述位置特征和所述边缘特征得到融合特征;
将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
根据本发明的一个方面,所述根据位置确定分支得到位置特征的方法为:
根据本发明的一个方面,所述根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至所述边缘完善分支,将输入至所述边缘完善分支的带云遥感图像标记为,所述位置确定分支包含九个特征提取模块,所述特征提取模块的特征相同,9个所述特征提取模块的所述扩张卷积单元的扩张率不同,将/>依次通过所述依次通过前五个所述特征提取模块,得到/>和/>,通过前五个所述提取模块的公式为,
根据本发明的一个方面,融合所述位置特征和所述边缘特征得到所述融合特征,根据所述融合特征得到所述U型卷积神经网络,得到所述融合特征的计算公式为,
根据本发明的一个方面,使用二元交叉熵损失函数训练对所述U型卷积神经网络进行训练,使用所述二元交叉熵损失函数的计算公式为:
为实现上述目的,本发明提供一种基于神经网络的遥感图像厚云区域检测***,包括:
图像获取模块:获取带云遥感图像;
位置特征获取模块:根据位置确定分支得到位置特征;
边缘特征获取模块:根据边缘完善分支得到边缘特征;
融合特征获取模块:融合所述位置特征和所述边缘特征得到融合特征;
厚云区域检测模块:将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
为实现上述目的,本发明提供一种电子设备,包括处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现上述针对一种基于神经网络的遥感图像厚云区域检测方法。
为实现上述目的,本发明提供一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现上述针对一种基于神经网络的遥感图像厚云区域检测方法。
基于此,本发明的有益效果在于:
本发明利用并行U型卷积神经网络,采用两个分支分别进行厚云区域整体检测和云区边缘精细,且将两个分支提取到的特征进行合并融合,从而获得检测准确且边缘细化完整的遥感图像厚云区域检测结果。
附图说明
图1示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测方法的流程图;
图2示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测方法的U型卷积神经网络图;
图3示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测***的流程图。
具体实施方式
现在将参照示例性实施例来论述本发明的内容,应当理解,论述的实施例仅是为了使得本领域普通技术人员能够更好地理解且因此实现本发明的内容,而不是暗示对本发明的范围的任何限制。
如本文中所使用的,术语“包括”及其变体要被解读为意味着“包括但不限于”的开放式术语。术语“基于”要被解读为“至少部分地基于”,术语“一个实施例”和“一种实施例”要被解读为“至少一个实施例”。
图1示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测方法的流程图,如图1所示,本发明的一种基于神经网络的遥感图像厚云区域检测方法,包括:
获取带云遥感图像;
根据位置确定分支得到位置特征;
根据边缘完善分支得到边缘特征;
融合位置特征和边缘特征得到融合特征;
将融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
根据本发明的一个实施方式,根据位置确定分支得到位置特征的方法为:
根据本发明的一个实施方式,根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至边缘完善分支,将输入至边缘完善分支的带云遥感图像标记为,位置确定分支包含九个特征提取模块,特征提取模块的特征相同,9个特征提取模块的扩张卷积单元的扩张率不同,将/>依次通过依次通过前五个特征提取模块,得到/>和,通过前五个提取模块的公式为,
根据本发明的一个实施方式,融合位置特征和边缘特征得到融合特征,根据融合特征得到U型卷积神经网络,得到融合特征的计算公式为,
根据本发明的一个实施方式,使用二元交叉熵损失函数训练对U型卷积神经网络进行训练,使用二元交叉熵损失函数的计算公式为:
根据本发明的一个实施例,图2示意性表示根据本发明的一种基于U型卷积神经网络的遥感图像厚云区域检测方法的U型卷积神经网络图,如图2所示,位置确定分支包含四个压缩模块、一个特征精细模块和四个重建模块,压缩模块包含两个3×3的卷积、两个泄漏整流线性激活单元和一个最大池化层,特征精细模块包含两个3×3的卷积和两个泄漏整流线性激活单元,重建模块包含一个上采样操作单元、两个3×3的卷积和两个泄漏整流线性激活单元,特征提取模块包含一个扩张卷积单元和一个泄漏整流线性激活单元。
不仅如此,为实现上述发明目的,本发明还提供一种基于神经网络的遥感图像厚云区域检测***,图3示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测***的流程图,如图3所示,根据本发明的一种基于神经网络的遥感图像厚云区域检测***,该***包括:
图像获取模块:获取带云遥感图像;
位置特征获取模块:根据位置确定分支得到位置特征;
边缘特征获取模块:根据边缘完善分支得到边缘特征;
融合特征获取模块:融合位置特征和边缘特征得到融合特征;
厚云区域检测模块:将融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
根据本发明的一个实施方式,根据位置确定分支得到位置特征的方法为:
根据本发明的一个实施方式,根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至边缘完善分支,将输入至边缘完善分支的带云遥感图像标记为,位置确定分支包含九个特征提取模块,特征提取模块的特征相同,9个特征提取模块的扩张卷积单元的扩张率不同,将/>依次通过依次通过前五个特征提取模块,得到/>和,通过前五个提取模块的公式为,
根据本发明的一个实施方式,融合位置特征和边缘特征得到融合特征,根据融合特征得到U型卷积神经网络,得到融合特征的计算公式为,
根据本发明的一个实施方式,使用二元交叉熵损失函数训练对U型卷积神经网络进行训练,使用二元交叉熵损失函数的计算公式为:
根据本发明的一个实施例,图2示意性表示根据本发明的一种基于U型卷积神经网络的遥感图像厚云区域检测方法的U型卷积神经网络图,如图2所示,位置确定分支包含四个压缩模块、一个特征精细模块和四个重建模块,压缩模块包含两个3×3的卷积、两个泄漏整流线性激活单元和一个最大池化层,特征精细模块包含两个3×3的卷积和两个泄漏整流线性激活单元,重建模块包含一个上采样操作单元、两个3×3的卷积和两个泄漏整流线性激活单元,特征提取模块包含一个扩张卷积单元和一个泄漏整流线性激活单元。
为实现上述发明目的,本发明还提供一种电子设备,该电子设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,计算机程序被处理器执行时实现上述一种基于神经网络的遥感图像厚云区域检测方法。
为实现上述发明目的,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现上述一种基于神经网络的遥感图像厚云区域检测方法。
基于此,本发明的有益效果在于,本发明利用并行U型卷积神经网络,采用两个分支分别进行厚云区域整体检测和云区边缘精细,且将两个分支提取到的特征进行合并融合,从而获得检测准确且边缘细化完整的遥感图像厚云区域检测结果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明实施例方案的目的。
另外,在本发明实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例节能信号发送/接收的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
应理解,本发明的发明内容及实施例中各步骤的序号的大小并不绝对意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
Claims (7)
1.一种基于神经网络的遥感图像厚云区域检测方法,其特征在于,包括:
获取带云遥感图像;
根据位置确定分支得到位置特征;
所述根据位置确定分支得到位置特征的方法为:
融合所述位置特征和所述边缘特征得到融合特征;
将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
2.根据权利要求1所述的一种基于神经网络的遥感图像厚云区域检测方法,其特征在于,所述根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至所述边缘完善分支,将输入至所述边缘完善分支的带云遥感图像标记为,所述边缘完善分支包含九个特征提取模块,所述特征提取模块的特征相同,9个所述特征提取模块的扩张卷积单元的扩张率不同,将/>依次通过所述依次通过前五个所述特征提取模块,得到/>和/>,通过前五个所述提取模块的公式为,
5.一种基于神经网络的遥感图像厚云区域检测***,其特征在于,包括:
图像获取模块:获取带云遥感图像;
位置特征获取模块:根据位置确定分支得到位置特征;
所述根据位置确定分支得到位置特征的方法为:
融合特征获取模块:融合所述位置特征和所述边缘特征得到融合特征;
厚云区域检测模块:将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
6.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4中任一项所述的一种基于神经网络的遥感图像厚云区域检测方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的一种基于神经网络的遥感图像厚云区域检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211545313.6A CN116188968B (zh) | 2022-12-05 | 2022-12-05 | 一种基于神经网络的遥感图像厚云区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211545313.6A CN116188968B (zh) | 2022-12-05 | 2022-12-05 | 一种基于神经网络的遥感图像厚云区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116188968A CN116188968A (zh) | 2023-05-30 |
CN116188968B true CN116188968B (zh) | 2023-07-14 |
Family
ID=86451280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211545313.6A Active CN116188968B (zh) | 2022-12-05 | 2022-12-05 | 一种基于神经网络的遥感图像厚云区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116188968B (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493347B (zh) * | 2017-09-12 | 2021-03-23 | 深圳科亚医疗科技有限公司 | 在图像中对稀疏分布的对象进行分割的方法和*** |
CN112084872A (zh) * | 2020-08-10 | 2020-12-15 | 浙江工业大学 | 一种融合语义分割与边缘的高分遥感目标精准检测方法 |
CN113239830B (zh) * | 2021-05-20 | 2023-01-17 | 北京航空航天大学 | 一种基于全尺度特征融合的遥感图像云检测方法 |
-
2022
- 2022-12-05 CN CN202211545313.6A patent/CN116188968B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN116188968A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022257408A1 (zh) | 一种基于u型网络的医学图像分割方法 | |
CN107862698B (zh) | 基于k均值聚类的光场前景分割方法及装置 | |
CN109344701A (zh) | 一种基于Kinect的动态手势识别方法 | |
CN109255324A (zh) | 手势处理方法、交互控制方法及设备 | |
CN108319972A (zh) | 一种针对图像语义分割的端到端差异网络学习方法 | |
CN104200461B (zh) | 基于互信息图像选块和sift特征的遥感图像配准方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
Yue et al. | A novel attention fully convolutional network method for synthetic aperture radar image segmentation | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN105718552A (zh) | 基于服装手绘草图的服装图像检索方法 | |
CN110245600B (zh) | 自适应起始快速笔画宽度无人机道路检测方法 | |
CN110298227A (zh) | 一种基于深度学习的无人机航拍图像中的车辆检测方法 | |
US11042986B2 (en) | Method for thinning and connection in linear object extraction from an image | |
CN104851089A (zh) | 一种基于三维光场的静态场景前景分割方法和装置 | |
CN109063630B (zh) | 一种基于可分离卷积技术和帧差补偿策略的快速车辆检测方法 | |
CN111415373A (zh) | 基于孪生卷积网络的目标跟踪与分割方法、***及介质 | |
CN108876810A (zh) | 视频摘要中利用图割算法进行运动目标检测的方法 | |
Wang et al. | Enhanced spinning parallelogram operator combining color constraint and histogram integration for robust light field depth estimation | |
CN115457277A (zh) | 一种智能化路面病害识别检测方法及*** | |
CN108573238A (zh) | 一种基于双网络结构的车辆检测方法 | |
CN116188968B (zh) | 一种基于神经网络的遥感图像厚云区域检测方法 | |
CN106023184A (zh) | 一种基于各向异性中心环绕差异的深度显著性检测方法 | |
CN109784145A (zh) | 基于深度图的目标检测方法及存储介质 | |
CN117541652A (zh) | 一种基于深度lk光流法与d-prosac采样策略的动态slam方法 | |
CN112070035A (zh) | 基于视频流的目标跟踪方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |