CN113689439A - 一种基于强化学习图像处理技术的无人机图像捕捉方法 - Google Patents

一种基于强化学习图像处理技术的无人机图像捕捉方法 Download PDF

Info

Publication number
CN113689439A
CN113689439A CN202110965752.1A CN202110965752A CN113689439A CN 113689439 A CN113689439 A CN 113689439A CN 202110965752 A CN202110965752 A CN 202110965752A CN 113689439 A CN113689439 A CN 113689439A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
data
image
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110965752.1A
Other languages
English (en)
Inventor
王晓跃
高丽娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Xifeng Intelligent Technology Co ltd
Original Assignee
Jiangsu Xifeng Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Xifeng Intelligent Technology Co ltd filed Critical Jiangsu Xifeng Intelligent Technology Co ltd
Priority to CN202110965752.1A priority Critical patent/CN113689439A/zh
Publication of CN113689439A publication Critical patent/CN113689439A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于强化学习图像处理技术的无人机图像捕捉方法,属于图像捕捉技术领域,该捕捉方法具体步骤如下:(1)收集环境信息,并判断能否进行图像收集;(2)对所在位置进行定位并开始启动无人机;(3)开始对对应区域图像进行捕捉并构建数据网络;(4)进行图像数据拼接并开始搭建地理环境模型;(5)优化数据网络,同时调整图像捕捉角度;本发明能够自行生成飞行线路,无需工作人员进行线路绘制,减轻用户工作量,提高用户工作积极性,提高用户工作效率,能够对区域模型进行纠错调整,提高绘图准确率,提高无人机图像捕捉质量,节省用户时间。

Description

一种基于强化学习图像处理技术的无人机图像捕捉方法
技术领域
本发明涉及图像捕捉技术领域,尤其涉及一种基于强化学习图像处理技术的无人机图像捕捉方法。
背景技术
无人机测绘得到的数据首先是影像,获取影像的方法有很多,目前无人机主要是两种,分别是正射和倾斜摄影,无人机可以通过遥感软件对数据进行聚类分析等处理,能快速有效的提取所需要的信息,利用软件对影像进行栅格矢量化,可以快速得出该地区矢量图,利用信息提取,辅助高分辨影像和丰富纹理特征,能够快速计算出该地区准确的耕地面积,能够节省大量的人力和时间;因此,发明出一种基于强化学习图像处理技术的无人机图像捕捉方法变得尤为重要;
经检索,中国专利号CN105225241A公开了无人机深度图像的获取方法及无人机,该发明虽然能够准确地获取深度图像,具有适用范围广、成本低、易于实现的优点,但是需要用户自行设计飞行路线,降低用户工作效率,增加用户工作量,降低其工作积极性;此外,现有的基于强化学习图像处理技术的无人机图像捕捉方法无法对构建的模型进行纠错调整,降低绘图准确率,降低无人机图像捕捉质量,需要用户花费时间去修改调整;为此,我们提出一种基于强化学习图像处理技术的无人机图像捕捉方法。
发明内容
本发明的目的是为了解决现有技术中存在的缺陷,而提出的一种基于强化学习图像处理技术的无人机图像捕捉方法。
为了实现上述目的,本发明采用了如下技术方案:
一种基于强化学习图像处理技术的无人机图像捕捉方法,该捕捉方法具体步骤如下:
(1)收集环境信息,并判断能否进行图像收集:无人机进行定点飞行测试,同时生成测试数据,并收集飞行地区的环境信息,并依据测试数据以及环境信息进行分析判断;
(2)对所在位置进行定位并开始启动无人机:无人机通过GPS模块对自身所在位置进行定位,并接收GPS卫星图片,同时构建地理模型,并依据环境模块规划飞行路线,同时对其进行选择更新;
(3)开始对对应区域图像进行捕捉并构建数据网络:无人机通过机载摄像头对相关区域进行图像捕捉,并将其处理生成图像数据,同时构建卷积神经网络,并通过卷积神经网络对图像数据进行特征点提取;
(4)进行图像数据拼接并开始搭建地理环境模型:将图像数据进行数据拼接,并依据拼接完成的图像数据构建区域模型,并检测区域模型是否存在异常区域,同时卷积神经网络对区域模型异常区域进行模型调整,同时生成调整数据,并将调整完成的区域模型反馈给用户;
(5)优化数据网络,同时调整图像捕捉角度:将调整数据导入卷积神经网络,卷积神经网络依据调整数据进行优化更新,同时对无人机摄像头捕捉角度进行调整。
进一步地,步骤(1)中所述分析判断具体步骤如下:
步骤一:终端控制模块接收测试数据,并判断无人机是否可以进行正常水平飞行;
步骤二:若无人机无法水平飞行,终端控制模块开始控制无人机返航,若无人机可以进行水平飞行,终端控制模块对环境信息进行分类判断,其分类判断具体步骤如下:
第一步:终端控制模块将环境信息按照地形、风速进行分类,并进行判断;
第二步:若地面平整干燥、纹理比较清晰且风速不大于五级,则判断该区域符合无人机飞行条件,并再次判断无人机飞行区域是否开阔无遮挡且远离建筑、山体、人群和敏感设备,若符合上述条件,则判断无人机可以飞行,若不符合上述条件,则判断无人机无法飞行;
第三步:若地面并不平整干燥、纹理比较模糊且风速大于五级,则判断该区域不符合无人机飞行条件,并反馈用户“请重新选择飞行区域”。
进一步地,步骤(2)中所述选择更新具体步骤如下:
S1:用户上传采集区域信息,同时无人机的线路规划模块将地理模型进行模型分割,并将其处理生成地理块;
S2:依据采集区域信息将对应地理块进行提取,并依据各组地理块进行飞行路线规划;
S3:将生成的各组飞行路线反馈给用户,用户通过智能设备对飞行路线进行查看选择。
进一步地,步骤(3)中所述特征点提取具体步骤如下:
SS1:将采集的图像数据通过约束公式进行前景与背景分离,其中,具体约束公式如下:
|i(t)-i(t-1)|<T (1)
|i(t)-i(t-1)|≥T (2)
其中,i(t)、i(t-1)分别为t、t-1时刻对应像素点的像素值,T为阈值,(1)为背景约束公式,(2)为前景约束公式;
SS2:对分离的图像数据进行图像分割处理,并对分割的图像数据进行隐含节点提取,同时对隐含节点中的特殊点进行提取,并通过数据整合处理生成特征数据。
进一步地,步骤(4)中所述数据拼接具体步骤如下:
P1:对各个特征数据进行数据对比,并将相似的特征数据进行分组处理;
P2:提取各个特征数据对应的图像数据,并将具有相似特征数据的图像数据进行数据拼接。
进一步地,步骤(4)中所述模型调整具体步骤如下:
PP1:将区域模型中存在的异常区域进行分割提取,并生成异常记录表;
PP2:对异常区域存在的异常原因进行分析,并开始对其进行修复,同时将异常原因以及修复数据录入异常记录表中;
PP3:对修复完成的区域模型进行重复检测,并将拼接过程中重复模型数据删除。
进一步地,步骤(5)中所述优化更新具体步骤如下:
M1:对卷积神经网络的网络层次结构以及权重参数进行确认,并将调整数据依次导入卷积层、池化层、全连接层中;
M2:卷积神经网络通过卷积层开始进行网络连接,同时开始通过池化层对卷积得到的结果采用BP反向传播算法计算,其具体计算公式如下:
δl=(Wl+1)Tδl+1·f′(u′) (3)
其中,δl代表第l层的灵敏度,W代表网络层的维数;
M3:统计计算完成,卷积神经网络依据接收的调整数据对计算出的权值进行实时更新调整,其具体更新公式如下:
ΔWl=-ηxl-1l-1)T (4)
其中,δl-1代表代表第l-1层的灵敏度,Wl代表第l网络层的维数,η为网络参数,xl-1代表代表第l-1层的网络系数;
M4:更新完成,卷积神经网络依据更新数据进行优化处理,同时将优化方案反馈给用户。
相比于现有技术,本发明的有益效果在于:
1、该基于强化学***飞行,并对摄像头收集到的环境信息进行起飞判断,当定点测试结束,用户上传采集区域信息,同时无人机的线路规划模块将地理模型进行模型分割,依据采集区域信息将对应地理模型进行提取,并依据各组地理模型进行飞行路线规划,将生成的各组飞行路线反馈给用户,能够自行生成飞行线路,无需工作人员进行线路绘制,减轻用户工作量,提高用户工作积极性,提高用户工作效率;
2、该基于强化学习图像处理技术的无人机图像捕捉方法,通过卷积神经网络将图像数据进行背景与前景分离处理,并对其进行隐含节点提取,同时对隐含节点中的特殊点进行提取,并通过数据整合处理生成特征数据,依据特征数据将图像数据进行数据拼接,并依据拼接完成的图像数据构建区域模型,并检测区域模型是否存在异常区域,将区域模型中存在的异常区域进行分割提取,并生成异常记录表,对异常区域存在的异常原因进行分析,并开始对其进行修复,同时卷积神经网络依据调整数据开始进行优化更新处理,能够对区域模型进行纠错调整,提高绘图准确率,提高无人机图像捕捉质量,节省用户时间。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提出的一种基于强化学习图像处理技术的无人机图像捕捉方法的流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例1
参照图1,一种基于强化学习图像处理技术的无人机图像捕捉方法,本实施例主要公开了飞行路线规划具体实施方法:
收集环境信息,并判断能否进行图像收集:无人机进行定点飞行测试,同时生成测试数据,并收集飞行地区的环境信息,并依据测试数据以及环境信息进行分析判断。
具体的,首先无人机在定点飞行测试时,终端控制模块接收测试数据,并判断无人机是否可以进行正常水平飞行,若无人机无法水平飞行,终端控制模块开始控制无人机返航,若无人机可以进行水平飞行,终端控制模块对环境信息进行分类判断。
其中,需要进一步说明的是,终端控制模块将环境信息按照地形、风速进行分类,并进行判断,若地面平整干燥、纹理比较清晰且风速不大于五级,则判断该区域符合无人机飞行条件,并再次判断无人机飞行区域是否开阔无遮挡且远离建筑、山体、人群和敏感设备,若符合上述条件,则判断无人机可以飞行,若不符合上述条件,则判断无人机无法飞行,若地面并不平整干燥、纹理比较模糊且风速大于五级,则判断该区域不符合无人机飞行条件,并反馈用户“请重新选择飞行区域”。
对所在位置进行定位并开始启动无人机:无人机通过GPS模块对自身所在位置进行定位,并接收GPS卫星图片,同时构建地理模型,并依据环境模块规划飞行路线,同时对其进行选择更新。
具体的,用户上传采集区域信息,同时无人机的线路规划模块将地理模型进行模型分割,并将其处理生成地理块,依据采集区域信息将对应地理块进行提取,并依据各组地理块进行飞行路线规划,将生成的各组飞行路线反馈给用户,用户通过智能设备对飞行路线进行查看选择;
本实施例中无人机在定点飞行测试时,终端控制模块接收测试数据,并判断无人机是否可以进行正常水平飞行,并对摄像头收集到的环境信息进行起飞判断,当定点测试结束,用户上传采集区域信息,同时无人机的线路规划模块将地理模型进行模型分割,依据采集区域信息将对应地理模型进行提取,并依据各组地理模型进行飞行路线规划,将生成的各组飞行路线反馈给用户,能够自行生成飞行线路,无需工作人员进行线路绘制,减轻用户工作量,提高用户工作积极性,提高用户工作效率。
实施例2
参照图1,一种基于强化学习图像处理技术的无人机图像捕捉方法,除与上述实施例相同的结构外,本实施例主要公开了模型调整具体实施方法:
开始对对应区域图像进行捕捉并构建数据网络:无人机通过机载摄像头对相关区域进行图像捕捉,并将其处理生成图像数据,同时构建卷积神经网络,并通过卷积神经网络对图像数据进行特征点提取。
具体的,卷积神经网络将采集的图像数据通过约束公式进行前景与背景分离,对分离的图像数据进行图像分割处理,并对分割的图像数据进行隐含节点提取,同时对隐含节点中的特殊点进行提取,并通过数据整合处理生成特征数据。
其中,需要进一步说明的是具体约束公式如下:
|i(t)-i(t-1)|<T (1)
|i(t)-i(t-1)|≥T (2)
其中,i(t)、i(t-1)分别为t、t-1时刻对应像素点的像素值,T为阈值,(1)为背景约束公式,(2)为前景约束公式。
进行图像数据拼接并开始搭建地理环境模型:将图像数据进行数据拼接,并依据拼接完成的图像数据构建区域模型,并检测区域模型是否存在异常区域,同时卷积神经网络对区域模型异常区域进行模型调整,同时生成调整数据,并将调整完成的区域模型反馈给用户。
具体的,首先神经网络对各个特征数据进行数据对比,并将相似的特征数据进行分组处理,提取各个特征数据对应的图像数据,并将具有相似特征数据的图像数据进行数据拼接。
具体的,将区域模型中存在的异常区域进行分割提取,并生成异常记录表,对异常区域存在的异常原因进行分析,并开始对其进行修复,同时将异常原因以及修复数据录入异常记录表中,对修复完成的区域模型进行重复检测,并将拼接过程中重复模型数据删除。
优化数据网络,同时调整图像捕捉角度:将调整数据导入卷积神经网络,卷积神经网络依据调整数据进行优化更新,同时对无人机摄像头捕捉角度进行调整。
具体的,对卷积神经网络的网络层次结构以及权重参数进行确认,并将调整数据依次导入卷积层、池化层、全连接层中,卷积神经网络通过卷积层开始进行网络连接,同时开始通过池化层对卷积得到的结果采用BP反向传播算法计算,统计计算完成,卷积神经网络依据接收的调整数据对计算出的权值进行实时更新调整,更新完成,卷积神经网络依据更新数据进行优化处理,同时将优化方案反馈给用户。
其中,需要进一步说明的是具体计算公式如下:
δl=(Wl+1)Tδl+1·f′(u′) (3)
其中,δl代表第l层的灵敏度,W代表网络层的维数。
具体更新公式如下:
ΔWl=-ηxl-1l-1)T (4)
其中,δl-1代表代表第l-1层的灵敏度,Wl代表第l网络层的维数,η为网络参数,xl-1代表代表第l-1层的网络系数;
本实施例中通过卷积神经网络将图像数据进行背景与前景分离处理,并对其进行隐含节点提取,同时对隐含节点中的特殊点进行提取,并通过数据整合处理生成特征数据,依据特征数据将图像数据进行数据拼接,并依据拼接完成的图像数据构建区域模型,并检测区域模型是否存在异常区域,将区域模型中存在的异常区域进行分割提取,并生成异常记录表,对异常区域存在的异常原因进行分析,并开始对其进行修复,同时卷积神经网络依据调整数据开始进行优化更新处理,能够对区域模型进行纠错调整,提高绘图准确率,提高无人机图像捕捉质量,节省用户时间。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (7)

1.一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,该捕捉方法具体步骤如下:
(1)收集环境信息,并判断能否进行图像收集:无人机进行定点飞行测试,同时生成测试数据,并收集飞行地区的环境信息,并依据测试数据以及环境信息进行分析判断;
(2)对所在位置进行定位并开始启动无人机:无人机通过GPS模块对自身所在位置进行定位,并接收GPS卫星图片,同时构建地理模型,并依据环境模块规划飞行路线,同时对其进行选择更新;
(3)开始对对应区域图像进行捕捉并构建数据网络:无人机通过机载摄像头对相关区域进行图像捕捉,并将其处理生成图像数据,同时构建卷积神经网络,并通过卷积神经网络对图像数据进行特征点提取;
(4)进行图像数据拼接并开始搭建地理环境模型:将图像数据进行数据拼接,并依据拼接完成的图像数据构建区域模型,并检测区域模型是否存在异常区域,同时卷积神经网络对区域模型异常区域进行模型调整,同时生成调整数据,并将调整完成的区域模型反馈给用户;
(5)优化数据网络,同时调整图像捕捉角度:将调整数据导入卷积神经网络,卷积神经网络依据调整数据进行优化更新,同时对无人机摄像头捕捉角度进行调整。
2.根据权利要求1所述的一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,步骤(1)中所述分析判断具体步骤如下:
步骤一:终端控制模块接收测试数据,并判断无人机是否可以进行正常水平飞行;
步骤二:若无人机无法水平飞行,终端控制模块开始控制无人机返航,若无人机可以进行水平飞行,终端控制模块对环境信息进行分类判断,其分类判断具体步骤如下:
第一步:终端控制模块将环境信息按照地形、风速进行分类,并进行判断;
第二步:若地面平整干燥、纹理比较清晰且风速不大于五级,则判断该区域符合无人机飞行条件,并再次判断无人机飞行区域是否开阔无遮挡且远离建筑、山体、人群和敏感设备,若符合上述条件,则判断无人机可以飞行,若不符合上述条件,则判断无人机无法飞行;
第三步:若地面并不平整干燥、纹理比较模糊且风速大于五级,则判断该区域不符合无人机飞行条件,并反馈用户“请重新选择飞行区域”。
3.根据权利要求1所述的一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,步骤(2)中所述选择更新具体步骤如下:
S1:用户上传采集区域信息,同时无人机的线路规划模块将地理模型进行模型分割,并将其处理生成地理块;
S2:依据采集区域信息将对应地理块进行提取,并依据各组地理块进行飞行路线规划;
S3:将生成的各组飞行路线反馈给用户,用户通过智能设备对飞行路线进行查看选择。
4.根据权利要求1所述的一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,步骤(3)中所述特征点提取具体步骤如下:
SS1:将采集的图像数据通过约束公式进行前景与背景分离,其中,具体约束公式如下:
|i(t)-i(t-1)|<T (1)
|i(t)-i(t-1)|≥T (2)
其中,i(t)、i(t-1)分别为t、t-1时刻对应像素点的像素值,T为阈值,(1)为背景约束公式,(2)为前景约束公式;
SS2:对分离的图像数据进行图像分割处理,并对分割的图像数据进行隐含节点提取,同时对隐含节点中的特殊点进行提取,并通过数据整合处理生成特征数据。
5.根据权利要求4所述的一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,步骤(4)中所述数据拼接具体步骤如下:
P1:对各个特征数据进行数据对比,并将相似的特征数据进行分组处理;
P2:提取各个特征数据对应的图像数据,并将具有相似特征数据的图像数据进行数据拼接。
6.根据权利要求1所述的一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,步骤(4)中所述模型调整具体步骤如下:
PP1:将区域模型中存在的异常区域进行分割提取,并生成异常记录表;
PP2:对异常区域存在的异常原因进行分析,并开始对其进行修复,同时将异常原因以及修复数据录入异常记录表中;
PP3:对修复完成的区域模型进行重复检测,并将拼接过程中重复模型数据删除。
7.根据权利要求1所述的一种基于强化学习图像处理技术的无人机图像捕捉方法,其特征在于,步骤(5)中所述优化更新具体步骤如下:
M1:对卷积神经网络的网络层次结构以及权重参数进行确认,并将调整数据依次导入卷积层、池化层、全连接层中;
M2:卷积神经网络通过卷积层开始进行网络连接,同时开始通过池化层对卷积得到的结果采用BP反向传播算法计算,其具体计算公式如下:
δl=(Wl+1)Tδl+1·f′(u′) (3)
其中,δl代表第l层的灵敏度,W代表网络层的维数;
M3:统计计算完成,卷积神经网络依据接收的调整数据对计算出的权值进行实时更新调整,其具体更新公式如下:
ΔWl=-ηxl-1l-1)T (4)
M4:更新完成,卷积神经网络依据更新数据进行优化处理,同时将优化方案反馈给用户。
CN202110965752.1A 2021-08-23 2021-08-23 一种基于强化学习图像处理技术的无人机图像捕捉方法 Withdrawn CN113689439A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110965752.1A CN113689439A (zh) 2021-08-23 2021-08-23 一种基于强化学习图像处理技术的无人机图像捕捉方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110965752.1A CN113689439A (zh) 2021-08-23 2021-08-23 一种基于强化学习图像处理技术的无人机图像捕捉方法

Publications (1)

Publication Number Publication Date
CN113689439A true CN113689439A (zh) 2021-11-23

Family

ID=78581380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110965752.1A Withdrawn CN113689439A (zh) 2021-08-23 2021-08-23 一种基于强化学习图像处理技术的无人机图像捕捉方法

Country Status (1)

Country Link
CN (1) CN113689439A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115657706A (zh) * 2022-09-22 2023-01-31 中铁八局集团第一工程有限公司 基于无人机的地貌测量方法及***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115657706A (zh) * 2022-09-22 2023-01-31 中铁八局集团第一工程有限公司 基于无人机的地貌测量方法及***

Similar Documents

Publication Publication Date Title
CN111353413B (zh) 一种输电设备低漏报率缺陷识别方法
CN110873565B (zh) 用于城市场景重建的无人机实时路径规划方法
CN111553236B (zh) 基于道路前景图像的路面病害目标检测与实例分割方法
CN110163213B (zh) 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN110533103B (zh) 一种轻量级小物体目标检测方法及***
CN111127520B (zh) 一种基于视频分析的车辆跟踪方法和***
CN111247564A (zh) 一种数字地表模型的构建方法及处理设备、***
CN113689439A (zh) 一种基于强化学习图像处理技术的无人机图像捕捉方法
CN114037895A (zh) 一种无人机杆塔巡检图像识别方法
CN106780323B (zh) 一种基于智能手机的农情采集与实时更新方法及***
CN109902607B (zh) 一种基于倾斜相机的城市自动优化建模***
CN109919990B (zh) 利用深度感知网络和视差遥感影像进行森林高度预测方法
CN116229001A (zh) 一种基于空间熵的城市三维数字地图生成方法及***
CN113450321B (zh) 基于边缘检测的单阶段目标检测方法
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其***
CN116028660A (zh) 一种基于权重值的图像数据筛选方法、***及介质
CN115661637A (zh) 一种基于元学习的遥感场景小样本目标检测方法及装置
CN115690610A (zh) 一种基于图像匹配的无人机导航方法
CN114758237A (zh) 一种输水隧洞缺陷自动识别模型的构建方法、检测方法、构建装置、计算机及存储介质
CN113920407A (zh) 一种基于多波段遥感图像融合的船舶目标识别方法及***
CN112241694A (zh) 基于CenterNet实现的未佩戴安全带识别方法
CN112396699A (zh) 一种基于无人机影像进行地块自动勾画的方法
CN114972991B (zh) 一种崩岗的自动识别方法及***
CN115131357B (zh) 一种输电通道挂空悬浮物检测方法
CN112184703B (zh) 基于时空回溯的玉米穗期无人机图像对齐方法与***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20211123