CN114967731A - 一种基于无人机的野外人员自动搜寻方法 - Google Patents

一种基于无人机的野外人员自动搜寻方法 Download PDF

Info

Publication number
CN114967731A
CN114967731A CN202210383003.2A CN202210383003A CN114967731A CN 114967731 A CN114967731 A CN 114967731A CN 202210383003 A CN202210383003 A CN 202210383003A CN 114967731 A CN114967731 A CN 114967731A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
pixel
personnel
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210383003.2A
Other languages
English (en)
Inventor
李易平
郑恩辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202210383003.2A priority Critical patent/CN114967731A/zh
Publication of CN114967731A publication Critical patent/CN114967731A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于无人机的野外人员自动搜寻方法。无人机接收手持终端设备发送来的航线飞行指令,在搜寻区域进行航线飞行;无人机在航线飞行过程中通过摄像头获取搜寻区域的红外图像,对红外图像进行图像处理,通过热成像阈值分析和被困人员运动分析,识别所述图像中是否存在人员的结果;根据图像识别结果控制无人机飞行姿态对人员进行跟踪抓拍,并获取人员的位置信息、环境信息并发送到手持终端设和云服务器。本发明能够在野外遮挡物较多的情况下准确识别野外被困人员,通过全自动的进行人员识别,并获取周边的环境信息,对被困人员进行准确营救,不仅降低了成本,而且减少了人力资源。

Description

一种基于无人机的野外人员自动搜寻方法
技术领域
本发明涉及无人机搜救技术研究领域中的一种无人机应用方法,特别涉及一种基于无人机的野外人员自动搜寻方法。
背景技术
近年来,在野外探险、旅游被困、突发自然灾害被困等方面的人员失踪失踪事件时有发生,传统的人力搜救暴露出的成本高、搜索速度慢等问题,尤其对于一些地形复杂、交通工具和搜寻器械无法进入的的野外,促进了无人机智能搜救***在野外救援方面的应用,但现阶段无人机野外人员搜寻仅仅依靠人力操控,进行地毯式搜寻依然需要基站上的搜救人员通过无人机回传的图像肉眼判断,耗费了大量的人力物力,而且普通摄像头不能准确分辨背景和野外被困人员。
发明内容
为了解决背景技术中的问题,本发明的目的是提供一种基于无人机的野外人员自动搜寻方法,能够实现在野外遮挡物较多的情况下准确识别野外被困人员,通过全自动的进行人员识别,并获取周边的环境信息,对被困人员进行准确营救,不仅降低了成本,而且减少了人力物力。
本发明采用的技术方案如下:
无人机接收手持终端设备发送来的航线飞行指令,在搜寻区域进行航线飞行;
无人机在航线飞行过程中通过自身的摄像头获取所述搜寻区域的红外图像,对所述红外图像进行图像处理,通过热成像阈值分析和被困人员运动分析,识别所述图像中是否存在人员的结果;
在确定所述图像中存在人员时,根据图像识别结果控制无人机飞行姿态对人员进行跟踪抓拍,并获取人员的位置信息、环境信息并发送到手持终端设备;
手持终端设备通过5G网络将所述位置信息、环境信息发送至远端监控中心的云服务器。
所述航线飞行指令是标定搜寻区域的GPS坐标后生成的航线飞行指令,手持终端设备通过数据传输模块将航线飞行指令发送给无人机。
优选的,所述航线飞行指令是通过开发一款安装在手持终端上的APP来自定义标定搜寻区域的GPS坐标生成航线飞行指令,其中标定的航点在高德地图上显示,然后无人机的数据传输模块将航线飞行指令发送给无人机,无人机开始执行航线任务并获取红外图像。
对无人机获取所述搜寻区域的红外图像视频进行抽帧处理,对抽帧后的视频进行H.246格式转码操作,将转码后的视频重新生成文件名并保存。
对搜寻区域的红外图像实时进行直方图均衡化、背景去噪处理,然后分别进行热成像阈值分析和人员运动分析获得可能出现的人员ROI像素点区域,其中:
经热成像阈值分析获得的人员ROI像素点区域记为Rt区域;
经被困人员运动分析获得的人员ROI像素点区域记为Rm区域;
融合Rt区域和Rm区域获得并集区域,再对并集区域进行去噪,提取并集区域的目标轮廓,并绘制出最小实线矩形框;
对最小实线矩形框输入预先训练好的人员识别模型中,输出识别结果。
所述的人员识别模型具体可以卷积神经网络模型,识别结果是指最小实线矩形框中是否有人员的结果。
所述热成像阈值分析是通过预设的阈值对红外图像进行二值分割,对二值化的红外图像分别进行开操作和闭操作后进行连通域运算获得各个连通域,
仅保留面积大于以下公式计算的参考面积S的连通域作为连通域像素ROI区域,且设定连通域像素ROI区域为Rt区域,其中:
S=0.0025×r×c
其中,r为最大面积的连通域的宽,c为最大面积的连通域的高。
所述被困人员运动分析是通过对比红外图像每个同一位置像素点在前后两帧的像素值之间的差值,将差值Q大于预设像素差阈值的像素点作为热点像素,预设像素差阈值设置为16,其中:
|I1-I2|>Q
其中,I1为同一位置像素点的当前帧的像素值,I2为同一位置像素点的前一帧的像素值;
由众多热点像素按照连通域连贯相通组成多个热点像素ROI区域,再计算热成像阈值分析中获得的所有连通域像素ROI区域中所有像素点的平均像素值M,并进行以下判断:
当热点像素ROI区域的像素个数大于热成像阈值分析中获得的所有连通域像素ROI区域中的像素个数的5%,且热点像素ROI区域的平均像素值大于平均像素值M时,将热点像素ROI区域作为Rm区域。
在确定所述图像中存在人员时,实时提取最小实线矩形框的中心点像素坐标位置作为人员中心点(x1,y1),获取红外图像的中心点像素坐标位置作为图像中心点(x0,y0),即红外摄像头在终端设备显示图像界面上中心点像素坐标位置;
根据人员中心点(x1,y1)和图像中心点(x0,y0)的两点在红外图像的纵坐标方向上的位置偏差值,计算无人机跟踪时摄像头的俯仰角偏差θy,其中:
Figure BDA0003592590030000031
式中,β为无人机摄像头的额定俯仰角;
然后按照以下公式跟踪算法获得在无人机水平偏航方向的修正的偏航角δ(t);
Figure BDA0003592590030000032
式中,δ(t)表示t时刻的修正的偏航角,θx(t)为t时刻无人机的偏航角偏差,偏航角偏差θx(t)的计算方式和俯仰角偏差θy的计算方式相同,λ为调节参数,d(t)为t时刻的预瞄距离偏差,v(t)为无人机的当前速度;
所述预瞄距离偏差d(t)按照以下公式计算获得:
Figure BDA0003592590030000033
式中,amax为无人机最大制动速度,v(t)为无人机当前速度,Ke为无人机遇到异常反应情况行驶距离参数,具体实施中Ke设置为0.1,Rmin为无人机的最小转弯半径值;
通过俯仰角偏差θy和修正的偏航角δ(t),实时输入到无人机的俯仰控制通道和偏航控制通道中,相加到原有的俯仰控制量和偏航控制量上,进而实现准确的跟踪抓拍控制。
上述处理中,通过预瞄距离偏差d(t)的调整使无人机配合避障模块进行跟踪更加平稳避障,目标人员在终端设备显示图像界面上准确被锁定。
在无人机与地面安全高度、无人机与目标人员的水平安全距离下,无人机实时对目标野外人员的跟踪抓拍后,实时显示红外光与可见光监控画面,实时控制无人机油门和飞行姿态使无人机悬停在目标野外人员的正上方且摄像头垂直向下,此时再通过摄像头进行拍照并记录目标人员的GPS坐标,完成后回到航线任务继续搜寻。
所述的无人机为大疆御2行业版无人机,搭载双光摄像头,双光摄像头分别为红外摄像头和可见光摄像头,无人机从锁定目标野外人员开始,实时将多次抓拍到的环境红外照片、可见光照片、人员所在的GPS坐标传输到手持终端设备。
所述手持终端设备通过5G网络将抓拍到的环境红外照片、可见光照片、人员所在的GPS坐标发送至远端监控中心的云服务器,进行实时地监控。
本发明能够在野外遮挡物较多的情况下准确识别野外被困人员,通过全自动的进行人员识别,并获取周边的环境信息,对被困人员进行准确营救,不仅降低了成本,而且减少了人力资源。
相对于现有技术而言,本发明实施例提供的基于无人机的野外人员搜寻方法具有以下有益效果:
本发明能够在手持终端上自定义设置航线任务,并且在野外发现可能存在人员的区域进行反复的搜寻。
本发明通过搭载的双光摄像头对能够在野外遮挡物较多的情况下准确、全自动识别野外被困人员,并对野外人员进行实时跟踪定位并获取周边的环境信息,对被困人员进行准确营救,不仅降低了成本,而且减少了人力物力。
本发明的手持终端设备将野外人员的信息通过5G网络上传到远程监控中心数据库,远程监控人员可以进一步确认野外人员,并采取有效的下一步营救方案。
附图说明
图1为本发明方法的流程图;
图2为本发明具体***的结构框图;
图3为本发明方法的控制流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,以便对本发明的实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图2所示,本发明具体实施的***结构包括:无人机、遥控器、手持终端设备、监控中心的云服务器。
上述方案的工作原理是:所述无人机通过遥控器接收手持终端设备发送来的航线飞行指令,在搜寻区域控制飞机进行航线飞行;无人机获取所述搜寻区域的红外图像,通过遥控器的数据传输模块发送给手持终端设备,对所述红外图像进行图像处理,识别所述图像中是否存在人员;在确定所述图像中存在人员时,遥控器控制无人机飞行姿态,对人员所处环境进行跟踪抓拍,无人机获取人员的位置信息、环境信息通过遥控器的数据传输模块发送给手持终端设备;手持终端设备通过5G网络将所述位置信息、环境信息发送至远端监控中心的云服务器,监控中心的人员远程监控。
下面参考图1至图3来描述本发明实施例及其实施过程:
如图1所示,一种基于无人机的野外人员自动搜寻方法包括:
S1:所述无人机接收手持终端设备发送来的航线飞行指令,在搜寻区域进行航线飞行;
S2:获取所述搜寻区域的红外图像,对所述红外图像进行图像处理,通过热成像阈值分析和被困人员运动分析,识别所述图像中是否存在人员;
S3:在确定所述图像中存在人员时,控制无人机飞行姿态,对人员进行跟踪抓拍,并获取人员的位置信息、环境信息;
S4:手持终端设备通过5G网络将所述位置信息、环境信息发送至远端监控中心的云服务器。
如图2所示,一种基于无人机的野外人员自动搜寻***的结构包括:无人机、遥控器、手持终端设备、监控中心的云服务器。
上述方案的工作原理是:所述无人机通过遥控器接收手持终端设备发送来的航线飞行指令,在搜寻区域控制飞机进行航线飞行;无人机获取所述搜寻区域的红外图像,通过遥控器的数据传输模块发送给手持终端设备,对所述红外图像进行图像处理,识别所述图像中是否存在人员;在确定所述图像中存在人员时,遥控器控制无人机飞行姿态,对人员所处环境进行跟踪抓拍,无人机获取人员的位置信息、环境信息通过遥控器的数据传输模块发送给手持终端设备;手持终端设备通过5G网络将所述位置信息、环境信息发送至远端监控中心的云服务器,监控中心的人员远程监控。
如图3所示,一种基于无人机的野外人员自动搜寻***的软件流程具体如下:
优选的,所述航线飞行指令是通过开发一款安装在手持终端上的APP来自定义标定搜寻区域的GPS坐标生成航线飞行指令,其中标定的航点在高德地图上显示,然后无人机的数据传输模块将航线飞行指令发送给无人机,无人机开始执行航线任务并获取红外图像。
对无人机获取所述搜寻区域的红外图像视频进行抽帧处理,对抽帧后的视频进行H.246格式转码操作,将转码后的视频重新生成文件名并保存,然后进行直方图均衡化、背景去噪等常规图像预处理,进一步的进行热成像阈值分割分析和被困人员运动分析分别对比出可能出现的人员ROI像素点区域,其中:
热成像阈值分析的人员ROI像素点区域记为Rt区域;
被困人员运动分析的人员ROI像素点区域记为Rm区域;
融合Rt区域和Rm区域的并集区域,再进行去噪,提取Rf区域的目标轮廓,并实时对该区域画出最小实线矩形框;
对所述待识别实线矩形框Rf区域输入预先训练好的人员识别模型中,输出识别结果。
所述热成像阈值分析是通过阈值对图像进行二值分割,对二值化的图像分别进行开操作和闭操作后进行连通域运算,计算后仅保留连通域像素ROI区域为面积大于S的区域,然后设定该ROI区域为Rt区域,其中:
S=0.0025×r×c
所述被困人员运动分析是通过对比红外图像每个同一位置像素点在前后两帧的像素值之间的差值,将差值Q大于预设像素差阈值的像素点作为热点像素,预设像素差阈值设置为16,其中:
|I1-I2|>Q
其中,I1为同一位置像素点的当前帧阈值,I2为同一位置像素点的前一帧阈值;
计算热成像阈值分析保留的连通域像素ROI区域中所有像素点的平均像素值M,当热点像素ROI区域的像素个数大于保留的连通域像素ROI区域中的像素个数的5%,且热点像素ROI区域的平均像素值大于平均像素值M时,将热点像素ROI区域作为Rm区域。
在确定所述图像中存在人员时,中断航线任务,实时计算实线矩形框得中心点像素坐标位置,记为(x1,y1),获取红外图像的中心点像素坐标位置作为图像中心点(x0,y0),即红外摄像头在终端设备显示图像界面上中心点像素坐标位置;
根据人员中心点(x1,y1)和图像中心点(x0,y0)的两点在红外图像的纵坐标方向上的位置偏差值,计算无人机跟踪时摄像头的俯仰角偏差θy,其中:
Figure BDA0003592590030000061
式中,β为无人机摄像头云台的额定俯仰角;
然后按照以下公式跟踪算法获得在无人机水平偏航方向的修正的偏航角δ(t);
Figure BDA0003592590030000071
式中,δ(t)表示t时刻的修正的偏航角,θx(t)为t时刻无人机的偏航角偏差,偏航角偏差θx(t)的计算方式和俯仰角偏差θy的计算方式相同,λ为调节参数,d(t)为t时刻的预瞄距离偏差,v(t)为无人机的当前速度;
所述预瞄距离偏差d(t)按照以下公式计算获得:
Figure BDA0003592590030000072
式中,amax为无人机最大制动速度,v(t)为无人机当前速度,Ke为无人机遇到异常反应情况行驶距离参数,具体实施中Ke设置为0.1,Rmin为无人机的最小转弯半径值;
通过俯仰角偏差θy和修正的偏航角δ(t)实时输入到无人机的俯仰控制通道和偏航控制通道中,相加到原有的俯仰控制量和偏航控制量上,进而实现准确的跟踪抓拍控制。
上述处理中,通过预瞄距离偏差d(t)的调整使无人机配合避障模块进行跟踪更加平稳避障,目标人员在终端设备显示图像界面上准确被锁定。
在无人机与地面安全高度、无人机与目标人员的水平安全距离下,无人机实时对目标野外人员的跟踪抓拍后,实时显示红外光与可见光监控画面,实时控制无人机油门和飞行姿态使无人机悬停在目标野外人员的正上方且摄像头垂直向下,此时再通过摄像头进行拍照并记录目标人员的GPS坐标,完成后回到航线任务继续搜寻。
所使用的无人机为大疆御2行业版无人机,搭载双光摄像头,双光摄像头分别为红外摄像头和可见光摄像头,无人机从锁定目标野外人员开始,实时将多次抓拍到的环境红外照片、可见光照片、人员所在的GPS坐标传输到手持终端设备。
所述手持终端设备通过5G网络将抓拍到的环境红外照片、可见光照片、人员所在的GPS坐标发送至远端监控中心的云服务器,进行实时地监控。
进一步的,无人机完成上述操作后,回到航线任务继续执行剩余的航点,并对目标区域继续进行识别,最后判断整个航线任务是否完成,若完成则结束;
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,熟悉该本领域的技术人员应该明白本发明包括但不限于上面具体实施方式中描述的内容。任何不偏离本发明的功能和结构原理的修改都将包括在权利要求书的范围中。

Claims (7)

1.一种基于无人机的野外人员自动搜寻方法,其特征在于,方法包括:
无人机接收手持终端设备发送来的航线飞行指令,在搜寻区域进行航线飞行;
无人机在航线飞行过程中通过自身的摄像头获取所述搜寻区域的红外图像,对所述红外图像进行图像处理,通过热成像阈值分析和被困人员运动分析,识别所述图像中是否存在人员的结果;
在确定所述图像中存在人员时,根据图像识别结果控制无人机飞行姿态对人员进行跟踪抓拍,并获取人员的位置信息、环境信息并发送到手持终端设备;
手持终端设备通过5G网络将所述位置信息、环境信息发送至远端监控中心的云服务器。
2.根据权利要求1所述的基于无人机的野外人员自动搜寻方法,其特征在于:所述航线飞行指令是标定搜寻区域的GPS坐标后生成的航线飞行指令。
3.根据权利要求1所述的基于无人机的野外人员自动搜寻方法,其特征在于:对搜寻区域的红外图像实时进行直方图均衡化、背景去噪处理,然后分别进行热成像阈值分析和人员运动分析获得人员ROI像素点区域,其中:
经热成像阈值分析获得的人员ROI像素点区域记为Rt区域;
经被困人员运动分析获得的人员ROI像素点区域记为Rm区域;
融合Rt区域和Rm区域获得并集区域,再对并集区域进行去噪,提取并集区域的目标轮廓,并绘制出最小实线矩形框;
对最小实线矩形框输入预先训练好的人员识别模型中,输出识别结果。
4.根据权利要求3所述的基于无人机的野外人员自动搜寻方法,其特征在于:所述热成像阈值分析是通过预设的阈值对红外图像进行二值分割,对二值化的红外图像分别进行开操作和闭操作后进行连通域运算获得各个连通域,
仅保留面积大于以下公式计算的参考面积S的连通域作为连通域像素ROI区域,且设定连通域像素ROI区域为Rt区域,其中:
S=0.0025×r×c
其中,r为最大面积的连通域的宽,c为最大面积的连通域的高。
5.根据权利要求4所述的基于无人机的野外人员自动搜寻方法,其特征在于:所述被困人员运动分析是通过对比红外图像每个同一位置像素点在前后两帧的像素值之间的差值,将差值Q大于预设像素差阈值的像素点作为热点像素,其中:
|I1-I2|>Q
其中,I1为同一位置像素点的当前帧的像素值,I2为同一位置像素点的前一帧的像素值;
由众多热点像素按照连通域连贯相通组成多个热点像素ROI区域,再计算热成像阈值分析中获得的所有连通域像素ROI区域中所有像素点的平均像素值M,并进行以下判断:当热点像素ROI区域的像素个数大于热成像阈值分析中获得的所有连通域像素ROI区域中的像素个数的5%,且热点像素ROI区域的平均像素值大于平均像素值M时,将热点像素ROI区域作为Rm区域。
6.根据权利要求1所述的基于无人机的野外人员自动搜寻方法,其特征在于:在确定所述图像中存在人员时,实时提取最小实线矩形框的中心点像素坐标位置作为人员中心点(x1,y1),获取红外图像的中心点像素坐标位置作为图像中心点(x0,y0);
根据人员中心点(x1,y1)和图像中心点(x0,y0)的两点在红外图像的纵坐标方向上的位置偏差值,计算无人机跟踪时摄像头的俯仰角偏差θy,其中:
Figure FDA0003592590020000021
式中,β为无人机摄像头的额定俯仰角;
然后按照以下公式跟踪算法获得在无人机水平偏航方向的修正的偏航角δ(t);
Figure FDA0003592590020000022
式中,δ(t)表示t时刻的修正的偏航角,θx(t)为t时刻无人机的偏航角偏差,偏航角偏差θx(t)的计算方式和俯仰角偏差θy的计算方式相同,λ为调节参数,d(t)为t时刻的预瞄距离偏差,v(t)为无人机的当前速度;
所述预瞄距离偏差d(t)按照以下公式计算获得:
Figure FDA0003592590020000023
式中,amax为无人机最大制动速度,v(t)为无人机当前速度,Ke为无人机遇到异常反应情况行驶距离参数,Rmin为无人机的最小转弯半径值;
通过俯仰角偏差θy和修正的偏航角δ(t),实时输入到无人机的俯仰控制通道和偏航控制通道中,相加到原有的俯仰控制量和偏航控制量上。
7.根据权利要求1所述的基于无人机的野外人员自动搜寻方法,其特征在于:所述手持终端设备通过5G网络将抓拍到的环境红外照片、可见光照片、人员所在的GPS坐标发送至远端监控中心的云服务器,进行实时地监控。
CN202210383003.2A 2022-04-12 2022-04-12 一种基于无人机的野外人员自动搜寻方法 Pending CN114967731A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210383003.2A CN114967731A (zh) 2022-04-12 2022-04-12 一种基于无人机的野外人员自动搜寻方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210383003.2A CN114967731A (zh) 2022-04-12 2022-04-12 一种基于无人机的野外人员自动搜寻方法

Publications (1)

Publication Number Publication Date
CN114967731A true CN114967731A (zh) 2022-08-30

Family

ID=82978106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210383003.2A Pending CN114967731A (zh) 2022-04-12 2022-04-12 一种基于无人机的野外人员自动搜寻方法

Country Status (1)

Country Link
CN (1) CN114967731A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612494A (zh) * 2023-05-05 2023-08-18 交通运输部水运科学研究所 一种基于深度学习的视频监控中行人目标检测方法及装置
CN116698044A (zh) * 2023-08-01 2023-09-05 北京共创晶桔科技服务股份有限公司 一种无人机导航方法及***
CN117079397A (zh) * 2023-09-27 2023-11-17 青海民族大学 一种基于视频监控的野外***安全预警方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612494A (zh) * 2023-05-05 2023-08-18 交通运输部水运科学研究所 一种基于深度学习的视频监控中行人目标检测方法及装置
CN116698044A (zh) * 2023-08-01 2023-09-05 北京共创晶桔科技服务股份有限公司 一种无人机导航方法及***
CN116698044B (zh) * 2023-08-01 2023-12-08 内蒙古科比特航空科技有限公司 一种无人机导航方法及***
CN117079397A (zh) * 2023-09-27 2023-11-17 青海民族大学 一种基于视频监控的野外***安全预警方法
CN117079397B (zh) * 2023-09-27 2024-03-26 青海民族大学 一种基于视频监控的野外***安全预警方法

Similar Documents

Publication Publication Date Title
CN111932588B (zh) 一种基于深度学习的机载无人机多目标跟踪***的跟踪方法
CN109765930B (zh) 一种无人机视觉导航***
CN106874854B (zh) 基于嵌入式平台的无人机车辆跟踪方法
CN114967731A (zh) 一种基于无人机的野外人员自动搜寻方法
CN111527463B (zh) 用于多目标跟踪的方法和***
McGee et al. Obstacle detection for small autonomous aircraft using sky segmentation
CN115439424B (zh) 一种无人机航拍视频图像智能检测方法
CN111679695B (zh) 一种基于深度学习技术的无人机巡航及追踪***和方法
CN110619276B (zh) 基于无人机移动监控的异常及暴力检测***和方法
Lebedev et al. Accurate autonomous uav landing using vision-based detection of aruco-marker
WO2021083151A1 (zh) 目标检测方法、装置、存储介质及无人机
CN112162565B (zh) 一种基于多机协同作业的不间断自主杆塔巡检方法
CN106295695B (zh) 一种飞机起降过程自动追踪拍摄方法及装置
Savva et al. ICARUS: Automatic autonomous power infrastructure inspection with UAVs
CN111461013B (zh) 一种基于无人机的实时火场态势感知方法
CN112800918A (zh) 一种非法运动目标的身份识别方法及装置
CN114689030A (zh) 一种基于机载视觉的无人机辅助定位方法及***
Martínez-de Dios et al. Experimental results of automatic fire detection and monitoring with UAVs
Ranjbar et al. Addressing practical challenge of using autopilot drone for asphalt surface monitoring: Road detection, segmentation, and following
Raj et al. Vision based accident vehicle identification and scene investigation
CN114037895A (zh) 一种无人机杆塔巡检图像识别方法
de Frías et al. Intelligent cooperative system for traffic monitoring in smart cities
CN115144879A (zh) 一种多机多目标动态定位***及方法
CN117897737A (zh) 一种无人机监控方法、装置、无人机及监控设备
CN116027798B (zh) 基于图像修正的无人机电力巡检***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination