CN115515077B - 一种基于uav的wsn数据采集轨迹动态生成方法及*** - Google Patents

一种基于uav的wsn数据采集轨迹动态生成方法及*** Download PDF

Info

Publication number
CN115515077B
CN115515077B CN202211465106.XA CN202211465106A CN115515077B CN 115515077 B CN115515077 B CN 115515077B CN 202211465106 A CN202211465106 A CN 202211465106A CN 115515077 B CN115515077 B CN 115515077B
Authority
CN
China
Prior art keywords
area
monitored
data
monitoring
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211465106.XA
Other languages
English (en)
Other versions
CN115515077A (zh
Inventor
王骥
陈宇歌
杨玉强
谢再秘
莫春梅
李依潼
刘雯景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Ocean University
Original Assignee
Guangdong Ocean University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Ocean University filed Critical Guangdong Ocean University
Priority to CN202211465106.XA priority Critical patent/CN115515077B/zh
Publication of CN115515077A publication Critical patent/CN115515077A/zh
Application granted granted Critical
Publication of CN115515077B publication Critical patent/CN115515077B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

本发明公开了一种基于UAV的WSN数据采集轨迹动态生成方法及***,通过在无人机载具上设置多种监测设备,对区域盲点的待监测区域进行无人机识别,并构建建筑物信息、安防信息和环境数据;克服传统智能小区应用中通过在现场安装监测设备无法对整个区域实现无死角监控的难题,利用无人机进行全区域的数据采集并进行动态监测展示,可以对整个目标区域进行全方位、无死角的智能监控,实现目标区域的实时数据动态展示,为目标区域工作人员提供全方位、无死角的实时监测数据,进一步为智能小区、智慧家庭提供解决方案。

Description

一种基于UAV的WSN数据采集轨迹动态生成方法及***
技术领域
本发明涉及大数据处理技术领域,尤其涉及一种基于UAV的WSN数据采集轨迹动态生成方法及***。
背景技术
UAV,即无人驾驶飞机,简称“无人机”。利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,或者由车载计算机完全地或间歇地自主地操作。与有人驾驶飞机相比,无人机往往更适合那些太“愚钝,肮脏或危险”的任务。无人机按应用领域,可分为军用与民用。军用方面,无人机分为侦察机和靶机;民用方面,无人机+行业应用,是无人机真正的刚需;在航拍、农业、植保、微型自拍、快递运输、灾难救援、观察野生动物、监控传染病、测绘、新闻报道、电力巡检、救灾、影视拍摄、制造浪漫等等领域的应用,大大的拓展了无人机本身的用途,发达国家也在积极扩展行业应用与发展无人机技术。
WSN,即无线传感器网络(Wireless Sensor Networks)是一种分布式传感网络,它的末梢是可以感知和检查外部世界的传感器。WSN中的传感器通过无线方式通信,因此网络设置灵活,设备位置可以随时更改,还可以跟互联网进行有线或无线方式的连接;通过无线通信方式形成的一个多跳自组织网络。
随着技术的发展,WSN技术的应用越来越广泛;特别在智能小区、智慧家庭等人工智能领域,通过在小区内设置摄像头、红外传感器、雷达传感器、以及其他各种环境监测传感器,用于安防、环境监测和应用;从而实现一系列功能***,形成无线传感器网络。但是在实际应用中,由于传感器设置的位置、数据传输的有效距离、数据采集受物体视觉影响等因素,目前在智能小区的WSN应用领域具有较大的局限性,只能对局部区域形成无线传感器网络,无法对整个区域实现全方位、无死角的智能监控。
近年来,随着无人机UAV技术的发展,无人机在各个领域被广泛应用,未来有望打破上述困局。本申请在无人机UAV技术的基础上,探讨无人机在智能小区、智慧家庭的实际应用,研发出一种基于UAV的WSN数据采集轨迹动态生成策略,可以对整个目标区域进行全方位、无死角的智能监控,实现目标区域的实时数据动态展示,为目标区域工作人员提供全方位、无死角的实时监测数据,进一步为智能小区、智慧家庭提供解决方案。
发明内容
本发明提供了一种基于UAV的WSN数据采集轨迹动态生成方法及***,可以对整个目标区域进行全方位、无死角的智能监控,实现目标区域的实时数据动态展示,为目标区域工作人员提供全方位、无死角的实时监测数据,进一步为智能小区、智慧家庭提供解决方案。
为了解决上述技术问题,本发明实施例提供了一种基于UAV的WSN数据采集轨迹动态生成方法,应用于无人机载具,所述无人机载具上设置有多种监测设备,所述监测设备包括摄像头、红外传感器、雷达传感器和环境监测传感器;所述方法包括:
获取目标区域上的整体布局图,对所述整体布局图进行网格化处理,得到网格布局图;其中,所述整体布局图上标记有现场设置监测设备的地方及其对应的监测范围;
根据现场设置监测设备的地方及其对应的监测范围,在所述网格布局图中划分已监测区域和待监测区域;其中,已监测区域是指现场设置监测设备所对应的监测范围区域,待监测区域是指通过无人机载具进行监测的区域;
接收无人机载具在所述待监测区域的监测数据,包括由摄像头采集的图像数据、由红外传感器采集的红外数据、由雷达传感器采集的雷达数据,以及由环境监测传感器采集的环境数据;
根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息;
根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息;
根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息。
作为优选方案,所述根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息的步骤,具体包括:
对所述图像数据中的建筑物特征进行识别,得到待监测区域中的建筑物平面信息;
对所述建筑物特征中对应的雷达数据进行提取,得到每个建筑物特征所对应的建筑物空间信息;
在所述待监测区域中构建空间坐标系,并根据所述建筑物平面信息和所述建筑物空间信息,生成待监测区域中建筑物特征的三维信息;
根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整,得到待监测区域的建筑物信息,作为第一维度信息。
作为优选方案,所述根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整的步骤,具体包括:
根据所述已监测区域中设置的监测设备所对应的监测范围区域,确定已监测区域与待监测区域之间的区域边界;
在所述图像数据中对所述区域边界进行识别,并根据预设规则确定所述区域边界上的监测盲点;
计算所述监测盲点与待监测区域中多个建筑物特征所对应的三维信息的数据比例,作为第一数据关系值;
在所述已监测区域中选择多个基准点,并确定所述监测盲点与所述基准点所对应的三维信息的数据比例,作为第二数据关系值;
根据所述第一数据关系值和所述第二数据关系值之间的比例,对所述待监测区域中建筑物特征的三维信息进行相应的调整。
作为优选方案,所述根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息的步骤,具体包括:
通过红外数据对待监测区域中的生物移动情况进行实时判断,当确定同一生物所对应的红外数据在连续两个时间单位上发生变化时,根据连续两个时间单位上变化的红外数据计算出当前移动的生物在网格布局图中的目标位置;
获取所述目标位置提取当前时间上的图像数据,并对提取的图像数据进行特征识别,确定当前移动的生物所对应的生物类型和行为类型;
根据所述生物类型和行为类型,生成安防风险值并根据所述安防风险值生成对应的安防预警级别;
根据所述生物类型、行为类型和安防预警级别,在所述网格布局图的目标位置中进行相关联,生成安防信息,作为第二维度信息。
作为优选方案,所述根据所述生物类型和行为类型,生成安防风险值的步骤,具体包括:
根据当前移动的生物的行为类型,对当前移动的生物的下一个执行动作进行预测,得到预测行为;
根据提取的图像数据的特征识别结果,确定当前移动的生物的视觉方向,根据所述视觉方向和所述预测行为确定当前移动的生物的目标对象;
根据所述目标对象在网格布局图中的位置,计算所述目标对象与当前移动的生物之间的距离值;
根据所述距离值、所述预测行为和所述生物类型,判断当前移动的生物在下一个执行动作中对目标对象带来的风险情况,并生成安防风险值。
作为优选方案,所述生成安防风险值的计算公式为:
Figure DEST_PATH_IMAGE002AAAA
其中,
Figure DEST_PATH_IMAGE004A
为安防风险值;
Figure DEST_PATH_IMAGE006A
为根据不同的生物类型定义不同的常数值,
Figure DEST_PATH_IMAGE006AA
中的j为 生物类型;
Figure DEST_PATH_IMAGE008A
为根据不同的预测行为定义不同的常数值,
Figure DEST_PATH_IMAGE008AA
中的i为预测行为;
Figure DEST_PATH_IMAGE010A
为根据 预设规则定义不同的预测行为对目标对象造成影响的最小距离,
Figure DEST_PATH_IMAGE012A
为根据预设规则定义 不同的预测行为对目标对象造成影响的最大距离;
Figure DEST_PATH_IMAGE014A
Figure DEST_PATH_IMAGE016A
分别为预设权重值,均为常数;
Figure DEST_PATH_IMAGE018A
为距离值。
作为优选方案,所述根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息的步骤,具体包括:
建立三维立体模型,将所述第一维度信息作为底层数据在所述三维立体模型中构建建筑物框架;
在所述网格布局图上的待监测区域选取多个网格点,根据所述网格点在所述三维立体模型中的实际位置,对所述建筑物框架进行调整位置,使得网格布局图上的位置与实际位置保持一致;
根据所述第二维度信息在所述建筑物框架中的位置,将所述第二维度信息关联到所述建筑物框架的对应节点上,并对所述第二维度信息与对应的第一维度信息进行相关联;
根据所述环境数据所对应的位置,将所述环境数据关联到所述建筑物框架的对应节点上,并对所述环境数据与对应的第一维度信息进行相关联;
根据用户输入的位置指令,在所述三维立体模型中确定所述位置指令对应的第一维度信息,并对所述第一维度信息所关联的环境数据和第二维度信息进行动态展示。
作为优选方案,所述环境监测传感器包括:温度传感器、空气温湿度传感器、蒸发传感器、雨量传感器、光照传感器和风速风向传感器。
相应地,本发明另一实施例还提供了一种基于UAV的WSN数据采集轨迹动态生成***,应用于无人机载具,所述无人机载具上设置有多种监测设备,所述监测设备包括摄像头、红外传感器、雷达传感器和环境监测传感器;所述***包括:网格处理模块、区域划分模块、数据采集模块、第一维度模块、第二维度模块和动态监测模块;
所述网格处理模块,用于获取目标区域上的整体布局图,对所述整体布局图进行网格化处理,得到网格布局图;其中,所述整体布局图上标记有现场设置监测设备的地方及其对应的监测范围;
所述区域划分模块,用于根据现场设置监测设备的地方及其对应的监测范围,在所述网格布局图中划分已监测区域和待监测区域;其中,已监测区域是指现场设置监测设备所对应的监测范围区域,待监测区域是指通过无人机载具进行监测的区域;
所述数据采集模块,用于接收无人机载具在所述待监测区域的监测数据,包括由摄像头采集的图像数据、由红外传感器采集的红外数据、由雷达传感器采集的雷达数据,以及由环境监测传感器采集的环境数据;
所述第一维度模块,用于根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息;
所述第二维度模块,用于根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息;
所述动态监测模块,用于根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息。
作为优选方案,所述第一维度模块具体用于:对所述图像数据中的建筑物特征进行识别,得到待监测区域中的建筑物平面信息;对所述建筑物特征中对应的雷达数据进行提取,得到每个建筑物特征所对应的建筑物空间信息;在所述待监测区域中构建空间坐标系,并根据所述建筑物平面信息和所述建筑物空间信息,生成待监测区域中建筑物特征的三维信息;根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整,得到待监测区域的建筑物信息,作为第一维度信息。
作为优选方案,所述第一维度模块用于根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整的步骤,具体包括:根据所述已监测区域中设置的监测设备所对应的监测范围区域,确定已监测区域与待监测区域之间的区域边界;在所述图像数据中对所述区域边界进行识别,并根据预设规则确定所述区域边界上的监测盲点;计算所述监测盲点与待监测区域中多个建筑物特征所对应的三维信息的数据比例,作为第一数据关系值;在所述已监测区域中选择多个基准点,并确定所述监测盲点与所述基准点所对应的三维信息的数据比例,作为第二数据关系值;根据所述第一数据关系值和所述第二数据关系值之间的比例,对所述待监测区域中建筑物特征的三维信息进行相应的调整。
作为优选方案,所述第二维度模块具体用于:通过红外数据对待监测区域中的生物移动情况进行实时判断,当确定同一生物所对应的红外数据在连续两个时间单位上发生变化时,根据连续两个时间单位上变化的红外数据计算出当前移动的生物在网格布局图中的目标位置;获取所述目标位置提取当前时间上的图像数据,并对提取的图像数据进行特征识别,确定当前移动的生物所对应的生物类型和行为类型;根据所述生物类型和行为类型,生成安防风险值并根据所述安防风险值生成对应的安防预警级别;根据所述生物类型、行为类型和安防预警级别,在所述网格布局图的目标位置中进行相关联,生成安防信息,作为第二维度信息。
作为优选方案,所述第二维度模块用于根据所述生物类型和行为类型,生成安防风险值的步骤,具体包括:根据当前移动的生物的行为类型,对当前移动的生物的下一个执行动作进行预测,得到预测行为;根据提取的图像数据的特征识别结果,确定当前移动的生物的视觉方向,根据所述视觉方向和所述预测行为确定当前移动的生物的目标对象;根据所述目标对象在网格布局图中的位置,计算所述目标对象与当前移动的生物之间的距离值;根据所述距离值、所述预测行为和所述生物类型,判断当前移动的生物在下一个执行动作中对目标对象带来的风险情况,并生成安防风险值。
作为优选方案,所述生成安防风险值的计算公式为:
Figure DEST_PATH_IMAGE019
其中,
Figure DEST_PATH_IMAGE004AA
为安防风险值;
Figure DEST_PATH_IMAGE006AAA
为根据不同的生物类型定义不同的常数值,
Figure DEST_PATH_IMAGE006AAAA
中的j为 生物类型;
Figure DEST_PATH_IMAGE008AAA
为根据不同的预测行为定义不同的常数值,
Figure DEST_PATH_IMAGE008AAAA
中的i为预测行为;
Figure DEST_PATH_IMAGE010AA
为根据 预设规则定义不同的预测行为对目标对象造成影响的最小距离,
Figure DEST_PATH_IMAGE012AA
为根据预设规则定义 不同的预测行为对目标对象造成影响的最大距离;
Figure DEST_PATH_IMAGE014AA
Figure DEST_PATH_IMAGE016AA
分别为预设权重值,均为常数;
Figure DEST_PATH_IMAGE018AA
为距离值。
作为优选方案,所述动态监测模块具体用于:建立三维立体模型,将所述第一维度信息作为底层数据在所述三维立体模型中构建建筑物框架;在所述网格布局图上的待监测区域选取多个网格点,根据所述网格点在所述三维立体模型中的实际位置,对所述建筑物框架进行调整位置,使得网格布局图上的位置与实际位置保持一致;根据所述第二维度信息在所述建筑物框架中的位置,将所述第二维度信息关联到所述建筑物框架的对应节点上,并对所述第二维度信息与对应的第一维度信息进行相关联;根据所述环境数据所对应的位置,将所述环境数据关联到所述建筑物框架的对应节点上,并对所述环境数据与对应的第一维度信息进行相关联;根据用户输入的位置指令,在所述三维立体模型中确定所述位置指令对应的第一维度信息,并对所述第一维度信息所关联的环境数据和第二维度信息进行动态展示。
作为优选方案,所述环境监测传感器包括:温度传感器、空气温湿度传感器、蒸发传感器、雨量传感器、光照传感器和风速风向传感器。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行如上述任一项所述的基于UAV的WSN数据采集轨迹动态生成方法。
本发明实施例还提供了一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如上述任一项所述的基于UAV的WSN数据采集轨迹动态生成方法。
相比于现有技术,本发明实施例具有如下有益效果:
本发明技术方案通过在无人机载具上设置多种监测设备,对区域盲点的待监测区域进行无人机识别,并构建建筑物信息、安防信息和环境数据;克服传统智能小区应用中通过在现场安装监测设备无法对整个区域实现无死角监控的难题,利用无人机进行全区域的数据采集并进行动态监测展示,可以对整个目标区域进行全方位、无死角的智能监控,实现目标区域的实时数据动态展示,为目标区域工作人员提供全方位、无死角的实时监测数据,进一步为智能小区、智慧家庭提供解决方案。
附图说明
图1 :为本发明实施例提供的一种基于UAV的WSN数据采集轨迹动态生成方法的步骤流程图;
图2 :为本发明实施例提供的一种基于UAV的WSN数据采集轨迹动态生成***的结构示意图;
图3 :为本发明实施例提供的终端设备的一种实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参照图1,为本发明实施例提供的一种基于UAV的WSN数据采集轨迹动态生成方法的步骤流程图。本方法应用于无人机载具,所述无人机载具上设置有多种监测设备,所述监测设备包括摄像头、红外传感器、雷达传感器和环境监测传感器;在本实施例中,所述环境监测传感器包括:温度传感器、空气温湿度传感器、蒸发传感器、雨量传感器、光照传感器和风速风向传感器。
所述方法包括步骤101至步骤106,各步骤具体如下:
步骤101,获取目标区域上的整体布局图,对所述整体布局图进行网格化处理,得到网格布局图;其中,所述整体布局图上标记有现场设置监测设备的地方及其对应的监测范围。
具体地,通过住宅小区建设规划图等方式可以获取到智慧小区(目标区域)上的整体布局图。可以理解的是,该整体布局图是指目标区域中整体的布局情况,并非指建筑物细节等情况,可以通过规划图或遥感图像等方式获得,本步骤不作限定。通过对整体布局图进行网格化处理,使后续步骤可以更好的划分区域,并根据不同的特征在网格中标记对应的节点,完成位置标记。
步骤102,根据现场设置监测设备的地方及其对应的监测范围,在所述网格布局图中划分已监测区域和待监测区域;其中,已监测区域是指现场设置监测设备所对应的监测范围区域,待监测区域是指通过无人机载具进行监测的区域。
具体地,我们将智慧小区划分为两个类型的区域,一个是可以现场安装监测设备,例如,摄像头、传感器之类的。在现场可以利用线下的设备进行数据采集的已监测区域。在已监测区域的判别过程中,根据各个监测设备的功能和设备型号,可以判断出其监测的覆盖范围,从而确定已监测区域所对应的监测范围区域。另一个区域则是无法通过现场安装监测设备进行数据采集的待监测区域。上述提及的待监测区域实际上就是本研究中需要通过无人机UAV进行对盲区的数据采集的区域。通常这类型的待监测区域常见于特殊建筑、不适合安装设备的地形、由环境因素影响而无法适应设备的阴暗空间等等。在本研究中,利用无人机对上述盲区进行数据采集,可以克服现场无法安装设备的难题。
步骤103,接收无人机载具在所述待监测区域的监测数据,包括由摄像头采集的图像数据、由红外传感器采集的红外数据、由雷达传感器采集的雷达数据,以及由环境监测传感器采集的环境数据。
具体地,为了实现智慧小区的多数据展示,通常情况下我们必须具备上述几个数据,包括摄像头对周边环境的图像数据、红外传感器对生物体的红外感应数据、雷达传感器对建筑物等形状物体进行探测的雷达信号,以及多种环境监测传感器对周边环境因素进行探测的环境数据。
步骤104,根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息。
在本实施例中,所述步骤104具体包括:步骤1041,对所述图像数据中的建筑物特征进行识别,得到待监测区域中的建筑物平面信息;步骤1042,对所述建筑物特征中对应的雷达数据进行提取,得到每个建筑物特征所对应的建筑物空间信息;步骤1043,在所述待监测区域中构建空间坐标系,并根据所述建筑物平面信息和所述建筑物空间信息,生成待监测区域中建筑物特征的三维信息;步骤1044,根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整,得到待监测区域的建筑物信息,作为第一维度信息。
其中,所述步骤1044具体包括:根据所述已监测区域中设置的监测设备所对应的监测范围区域,确定已监测区域与待监测区域之间的区域边界;在所述图像数据中对所述区域边界进行识别,并根据预设规则确定所述区域边界上的监测盲点;计算所述监测盲点与待监测区域中多个建筑物特征所对应的三维信息的数据比例,作为第一数据关系值;在所述已监测区域中选择多个基准点,并确定所述监测盲点与所述基准点所对应的三维信息的数据比例,作为第二数据关系值;根据所述第一数据关系值和所述第二数据关系值之间的比例,对所述待监测区域中建筑物特征的三维信息进行相应的调整。
具体地,我们在研究中,为了克服待监测区域的盲区问题,利用无人机采集的图像数据和雷达数据共同计算出盲区中的建筑物信息。首先利用图像数据对待监测区域中的建筑物进行初识别(即步骤1041),也就是建筑物的框架信息,即平面信息。下一步,就要对这个建筑物进行更细的维度数据识别,这个时候通过图像很难分辨出来。但雷达数据通过雷达信号在物体上的反射,由雷达发射电磁波对目标进行照射并接收其回波,由此获得目标至电磁波发射点的距离、距离变化率(径向速度)、方位、高度等信息;从而发现目标并测定它们的空间位置。在得到盲区中建筑物的位置后,我们还需要对两个区域(已监测区域和待监测区域)进行空间坐标的统一。此时,研究中利用已监测区域与待监测区域之间的区域边界,采用三个类型的数据:1、已监测区域中的基准点;2、区域边界上的基准点;3、待监测区域中的基准点。通过这三个不同区域类型的基准点,分别以比例的关系进行位置的调整,实现已监测区域与待监测区域之间的空间坐标的统一。
步骤105,根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息。
在本实施例中,所述步骤105具体包括:步骤1051,通过红外数据对待监测区域中的生物移动情况进行实时判断,当确定同一生物所对应的红外数据在连续两个时间单位上发生变化时,根据连续两个时间单位上变化的红外数据计算出当前移动的生物在网格布局图中的目标位置;步骤1052,获取所述目标位置提取当前时间上的图像数据,并对提取的图像数据进行特征识别,确定当前移动的生物所对应的生物类型和行为类型;步骤1053,根据所述生物类型和行为类型,生成安防风险值并根据所述安防风险值生成对应的安防预警级别;步骤1054,根据所述生物类型、行为类型和安防预警级别,在所述网格布局图的目标位置中进行相关联,生成安防信息,作为第二维度信息。
在本实施例中,所述步骤1053具体包括:根据当前移动的生物的行为类型,对当前移动的生物的下一个执行动作进行预测,得到预测行为;根据提取的图像数据的特征识别结果,确定当前移动的生物的视觉方向,根据所述视觉方向和所述预测行为确定当前移动的生物的目标对象;根据所述目标对象在网格布局图中的位置,计算所述目标对象与当前移动的生物之间的距离值;根据所述距离值、所述预测行为和所述生物类型,判断当前移动的生物在下一个执行动作中对目标对象带来的风险情况,并生成安防风险值。其中,所述生成安防风险值的计算公式为:
Figure DEST_PATH_IMAGE020
其中,
Figure DEST_PATH_IMAGE004AAA
为安防风险值;
Figure DEST_PATH_IMAGE006_5A
为根据不同的生物类型定义不同的常数值,
Figure DEST_PATH_IMAGE006_6A
中的j为 生物类型;
Figure DEST_PATH_IMAGE008_5A
为根据不同的预测行为定义不同的常数值,
Figure DEST_PATH_IMAGE008_6A
中的i为预测行为;
Figure DEST_PATH_IMAGE010AAA
为根据 预设规则定义不同的预测行为对目标对象造成影响的最小距离,
Figure DEST_PATH_IMAGE012AAA
为根据预设规则定义 不同的预测行为对目标对象造成影响的最大距离;
Figure DEST_PATH_IMAGE014AAA
Figure DEST_PATH_IMAGE016AAA
分别为预设权重值,均为常数;
Figure DEST_PATH_IMAGE018AAA
为距离值。
具体地,我们在研究中,为了克服待监测区域的盲区问题,利用无人机采集的图像数据和红外数据共同计算出盲区中的安防信息。首先,利用红外数据可以预判出当前待监测区域中可能出现生物体的风险情况(即步骤1051);利用红外线的物理性质来进行测量的传感器。红外线又称红外光,它具有反射、折射、散射、干涉、吸收等性质。任何物质,只要它本身具有一定的温度(高于绝对零度),都能辐射红外线。红外线传感器测量时不与被测物体直接接触,因而不存在摩擦,并且有灵敏度高,反应快等优点。利用红外传感器可以快速、准确地识别到监测区域内的生物体,并结合其移动情况将其作为红外的捕捉点,通过计算两个时间单位上变化的红外数据(红外信号在图像中的位置关系)即可确定其目标位置。接着,通过图像数据进行特征识别,可以准确地知道该生物体是哪一类生物,以及其正在进行的行为类型。例如人拿着刀、狗在吼叫。再根据不同的类型生成对应的风险值,并进行关联。通过实验对比,我们研究最后发现了准确的算法模型用于计算安防风险值,见上公式所示。
步骤106,根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息。
在本实施例中,所述步骤106具体包括:步骤1061,建立三维立体模型,将所述第一维度信息作为底层数据在所述三维立体模型中构建建筑物框架;步骤1062,在所述网格布局图上的待监测区域选取多个网格点,根据所述网格点在所述三维立体模型中的实际位置,对所述建筑物框架进行调整位置,使得网格布局图上的位置与实际位置保持一致;步骤1063,根据所述第二维度信息在所述建筑物框架中的位置,将所述第二维度信息关联到所述建筑物框架的对应节点上,并对所述第二维度信息与对应的第一维度信息进行相关联;步骤1064,根据所述环境数据所对应的位置,将所述环境数据关联到所述建筑物框架的对应节点上,并对所述环境数据与对应的第一维度信息进行相关联;步骤1065,根据用户输入的位置指令,在所述三维立体模型中确定所述位置指令对应的第一维度信息,并对所述第一维度信息所关联的环境数据和第二维度信息进行动态展示。
具体地,为了实现监测数据的多维度动态展示,我们通过上述步骤获得环境数据、第一维度信息和第二维度信息之后,需要对这些数据进行多维显示。在进行多维显示的步骤中,我们利用构建建筑物框架的形式进行搭建数据;但是还要克服一个问题,就是数据与数据之间的对齐。对此,我们研究后决定,通过网格点的位置对齐的方式实现多维的数据对齐动作;可以使得不同维度的数据在同一个立体空间模型上保持一致,实现真正的动态监测展示。
本发明技术方案通过在无人机载具上设置多种监测设备,对区域盲点的待监测区域进行无人机识别,并构建建筑物信息、安防信息和环境数据;克服传统智能小区应用中通过在现场安装监测设备无法对整个区域实现无死角监控的难题,利用无人机进行全区域的数据采集并进行动态监测展示,可以对整个目标区域进行全方位、无死角的智能监控,实现目标区域的实时数据动态展示,为目标区域工作人员提供全方位、无死角的实时监测数据,进一步为智能小区、智慧家庭提供解决方案。
实施例二
请参照图2,为本发明另一实施例提供的一种基于UAV的WSN数据采集轨迹动态生成***的结构示意图。本***应用于无人机载具,所述无人机载具上设置有多种监测设备,所述监测设备包括摄像头、红外传感器、雷达传感器和环境监测传感器;在本实施例中,所述环境监测传感器包括:温度传感器、空气温湿度传感器、蒸发传感器、雨量传感器、光照传感器和风速风向传感器。
所述***包括:网格处理模块、区域划分模块、数据采集模块、第一维度模块、第二维度模块和动态监测模块。
所述网格处理模块,用于获取目标区域上的整体布局图,对所述整体布局图进行网格化处理,得到网格布局图;其中,所述整体布局图上标记有现场设置监测设备的地方及其对应的监测范围。
所述区域划分模块,用于根据现场设置监测设备的地方及其对应的监测范围,在所述网格布局图中划分已监测区域和待监测区域;其中,已监测区域是指现场设置监测设备所对应的监测范围区域,待监测区域是指通过无人机载具进行监测的区域。
所述数据采集模块,用于接收无人机载具在所述待监测区域的监测数据,包括由摄像头采集的图像数据、由红外传感器采集的红外数据、由雷达传感器采集的雷达数据,以及由环境监测传感器采集的环境数据。
所述第一维度模块,用于根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息。
在本实施例中,所述第一维度模块具体用于:对所述图像数据中的建筑物特征进行识别,得到待监测区域中的建筑物平面信息;对所述建筑物特征中对应的雷达数据进行提取,得到每个建筑物特征所对应的建筑物空间信息;在所述待监测区域中构建空间坐标系,并根据所述建筑物平面信息和所述建筑物空间信息,生成待监测区域中建筑物特征的三维信息;根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整,得到待监测区域的建筑物信息,作为第一维度信息。
在本实施例中,所述第一维度模块用于根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整的步骤,具体包括:根据所述已监测区域中设置的监测设备所对应的监测范围区域,确定已监测区域与待监测区域之间的区域边界;在所述图像数据中对所述区域边界进行识别,并根据预设规则确定所述区域边界上的监测盲点;计算所述监测盲点与待监测区域中多个建筑物特征所对应的三维信息的数据比例,作为第一数据关系值;在所述已监测区域中选择多个基准点,并确定所述监测盲点与所述基准点所对应的三维信息的数据比例,作为第二数据关系值;根据所述第一数据关系值和所述第二数据关系值之间的比例,对所述待监测区域中建筑物特征的三维信息进行相应的调整。
所述第二维度模块,用于根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息。
在本实施例中,所述第二维度模块具体用于:通过红外数据对待监测区域中的生物移动情况进行实时判断,当确定同一生物所对应的红外数据在连续两个时间单位上发生变化时,根据连续两个时间单位上变化的红外数据计算出当前移动的生物在网格布局图中的目标位置;获取所述目标位置提取当前时间上的图像数据,并对提取的图像数据进行特征识别,确定当前移动的生物所对应的生物类型和行为类型;根据所述生物类型和行为类型,生成安防风险值并根据所述安防风险值生成对应的安防预警级别;根据所述生物类型、行为类型和安防预警级别,在所述网格布局图的目标位置中进行相关联,生成安防信息,作为第二维度信息。
在本实施例中,所述第二维度模块用于根据所述生物类型和行为类型,生成安防风险值的步骤,具体包括:根据当前移动的生物的行为类型,对当前移动的生物的下一个执行动作进行预测,得到预测行为;根据提取的图像数据的特征识别结果,确定当前移动的生物的视觉方向,根据所述视觉方向和所述预测行为确定当前移动的生物的目标对象;根据所述目标对象在网格布局图中的位置,计算所述目标对象与当前移动的生物之间的距离值;根据所述距离值、所述预测行为和所述生物类型,判断当前移动的生物在下一个执行动作中对目标对象带来的风险情况,并生成安防风险值。其中,所述生成安防风险值的计算公式为:
Figure DEST_PATH_IMAGE021
其中,
Figure DEST_PATH_IMAGE004AAAA
为安防风险值;
Figure DEST_PATH_IMAGE006_7A
为根据不同的生物类型定义不同的常数值,
Figure DEST_PATH_IMAGE006_8A
中的j为 生物类型;
Figure DEST_PATH_IMAGE008_7A
为根据不同的预测行为定义不同的常数值,
Figure DEST_PATH_IMAGE008_8A
中的i为预测行为;
Figure DEST_PATH_IMAGE010AAAA
为根据 预设规则定义不同的预测行为对目标对象造成影响的最小距离,
Figure DEST_PATH_IMAGE012AAAA
为根据预设规则定义 不同的预测行为对目标对象造成影响的最大距离;
Figure DEST_PATH_IMAGE014AAAA
Figure DEST_PATH_IMAGE016AAAA
分别为预设权重值,均为常数;
Figure DEST_PATH_IMAGE018AAAA
为距离值。
所述动态监测模块,用于根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息。
在本实施例中,所述动态监测模块具体用于:建立三维立体模型,将所述第一维度信息作为底层数据在所述三维立体模型中构建建筑物框架;在所述网格布局图上的待监测区域选取多个网格点,根据所述网格点在所述三维立体模型中的实际位置,对所述建筑物框架进行调整位置,使得网格布局图上的位置与实际位置保持一致;根据所述第二维度信息在所述建筑物框架中的位置,将所述第二维度信息关联到所述建筑物框架的对应节点上,并对所述第二维度信息与对应的第一维度信息进行相关联;根据所述环境数据所对应的位置,将所述环境数据关联到所述建筑物框架的对应节点上,并对所述环境数据与对应的第一维度信息进行相关联;根据用户输入的位置指令,在所述三维立体模型中确定所述位置指令对应的第一维度信息,并对所述第一维度信息所关联的环境数据和第二维度信息进行动态展示。
实施例三
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行上述任一实施例所述的基于UAV的WSN数据采集轨迹动态生成方法。
实施例四
请参照图3,是本发明实施例提供的终端设备的一种实施例的结构示意图,所述终端设备包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现上述任一实施例所述的基于UAV的WSN数据采集轨迹动态生成方法。
优选地,所述计算机程序可以被分割成一个或多个模块/单元(如计算机程序、计算机程序),所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述终端设备中的执行过程。
所述处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,通用处理器可以是微处理器,或者所述处理器也可以是任何常规的处理器,所述处理器是所述终端设备的控制中心,利用各种接口和线路连接所述终端设备的各个部分。
所述存储器主要包括程序存储区和数据存储区,其中,程序存储区可存储操作***、至少一个功能所需的应用程序等,数据存储区可存储相关数据等。此外,所述存储器可以是高速随机存取存储器,还可以是非易失性存储器,例如插接式硬盘,智能存储卡(SmartMedia Card,SMC)、安全数字(Secure Digital,SD)卡和闪存卡(Flash Card)等,或所述存储器也可以是其他易失性固态存储器件。
需要说明的是,上述终端设备可包括,但不仅限于,处理器、存储器,本领域技术人员可以理解,上述终端设备仅仅是示例,并不构成对终端设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,应用于无人机载具,所述无人机载具上设置有多种监测设备,所述监测设备包括摄像头、红外传感器、雷达传感器和环境监测传感器;所述方法包括:
获取目标区域上的整体布局图,对所述整体布局图进行网格化处理,得到网格布局图;其中,所述整体布局图上标记有现场设置监测设备的地方及其对应的监测范围;
根据现场设置监测设备的地方及其对应的监测范围,在所述网格布局图中划分已监测区域和待监测区域;其中,已监测区域是指现场设置监测设备所对应的监测范围区域,待监测区域是指通过无人机载具进行监测的区域;
接收无人机载具在所述待监测区域的监测数据,包括由摄像头采集的图像数据、由红外传感器采集的红外数据、由雷达传感器采集的雷达数据,以及由环境监测传感器采集的环境数据;
根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息;
根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息;
根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息。
2.如权利要求1所述的基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,所述根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息的步骤,具体包括:
对所述图像数据中的建筑物特征进行识别,得到待监测区域中的建筑物平面信息;
对所述建筑物特征中对应的雷达数据进行提取,得到每个建筑物特征所对应的建筑物空间信息;
在所述待监测区域中构建空间坐标系,并根据所述建筑物平面信息和所述建筑物空间信息,生成待监测区域中建筑物特征的三维信息;
根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整,得到待监测区域的建筑物信息,作为第一维度信息。
3.如权利要求2所述的基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,所述根据所述网格布局图中划分的已监测区域和待监测区域,以所述已监测区域为基准,对所述待监测区域中建筑物特征的三维信息进行调整的步骤,具体包括:
根据所述已监测区域中设置的监测设备所对应的监测范围区域,确定已监测区域与待监测区域之间的区域边界;
在所述图像数据中对所述区域边界进行识别,并根据预设规则确定所述区域边界上的监测盲点;
计算所述监测盲点与待监测区域中多个建筑物特征所对应的三维信息的数据比例,作为第一数据关系值;
在所述已监测区域中选择多个基准点,并确定所述监测盲点与所述基准点所对应的三维信息的数据比例,作为第二数据关系值;
根据所述第一数据关系值和所述第二数据关系值之间的比例,对所述待监测区域中建筑物特征的三维信息进行相应的调整。
4.如权利要求1所述的基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,所述根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息的步骤,具体包括:
通过红外数据对待监测区域中的生物移动情况进行实时判断,当确定同一生物所对应的红外数据在连续两个时间单位上发生变化时,根据连续两个时间单位上变化的红外数据计算出当前移动的生物在网格布局图中的目标位置;
获取所述目标位置提取当前时间上的图像数据,并对提取的图像数据进行特征识别,确定当前移动的生物所对应的生物类型和行为类型;
根据所述生物类型和行为类型,生成安防风险值并根据所述安防风险值生成对应的安防预警级别;
根据所述生物类型、行为类型和安防预警级别,在所述网格布局图的目标位置中进行相关联,生成安防信息,作为第二维度信息。
5.如权利要求4所述的基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,所述根据所述生物类型和行为类型,生成安防风险值的步骤,具体包括:
根据当前移动的生物的行为类型,对当前移动的生物的下一个执行动作进行预测,得到预测行为;
根据提取的图像数据的特征识别结果,确定当前移动的生物的视觉方向,根据所述视觉方向和所述预测行为确定当前移动的生物的目标对象;
根据所述目标对象在网格布局图中的位置,计算所述目标对象与当前移动的生物之间的距离值;
根据所述距离值、所述预测行为和所述生物类型,判断当前移动的生物在下一个执行动作中对目标对象带来的风险情况,并生成安防风险值。
6.如权利要求1所述的基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,所述根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息的步骤,具体包括:
建立三维立体模型,将所述第一维度信息作为底层数据在所述三维立体模型中构建建筑物框架;
在所述网格布局图上的待监测区域选取多个网格点,根据所述网格点在所述三维立体模型中的实际位置,对所述建筑物框架进行调整位置,使得网格布局图上的位置与实际位置保持一致;
根据所述第二维度信息在所述建筑物框架中的位置,将所述第二维度信息关联到所述建筑物框架的对应节点上,并对所述第二维度信息与对应的第一维度信息进行相关联;
根据所述环境数据所对应的位置,将所述环境数据关联到所述建筑物框架的对应节点上,并对所述环境数据与对应的第一维度信息进行相关联;
根据用户输入的位置指令,在所述三维立体模型中确定所述位置指令对应的第一维度信息,并对所述第一维度信息所关联的环境数据和第二维度信息进行动态展示。
7.如权利要求1所述的基于UAV的WSN数据采集轨迹动态生成方法,其特征在于,所述环境监测传感器包括:温度传感器、空气温湿度传感器、蒸发传感器、雨量传感器、光照传感器和风速风向传感器。
8.一种基于UAV的WSN数据采集轨迹动态生成***,其特征在于,应用于无人机载具,所述无人机载具上设置有多种监测设备,所述监测设备包括摄像头、红外传感器、雷达传感器和环境监测传感器;所述***包括:网格处理模块、区域划分模块、数据采集模块、第一维度模块、第二维度模块和动态监测模块;
所述网格处理模块,用于获取目标区域上的整体布局图,对所述整体布局图进行网格化处理,得到网格布局图;其中,所述整体布局图上标记有现场设置监测设备的地方及其对应的监测范围;
所述区域划分模块,用于根据现场设置监测设备的地方及其对应的监测范围,在所述网格布局图中划分已监测区域和待监测区域;其中,已监测区域是指现场设置监测设备所对应的监测范围区域,待监测区域是指通过无人机载具进行监测的区域;
所述数据采集模块,用于接收无人机载具在所述待监测区域的监测数据,包括由摄像头采集的图像数据、由红外传感器采集的红外数据、由雷达传感器采集的雷达数据,以及由环境监测传感器采集的环境数据;
所述第一维度模块,用于根据所述图像数据和所述雷达数据,生成待监测区域的建筑物信息,作为第一维度信息;
所述第二维度模块,用于根据所述红外数据和所述图像数据,生成待监测区域的安防信息,作为第二维度信息;
所述动态监测模块,用于根据所述环境数据、所述第一维度信息和所述第二维度信息,实时生成所述待监测区域的动态监测信息。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行如权利要求1-7中任一项所述的基于UAV的WSN数据采集轨迹动态生成方法。
10.一种终端设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如权利要求1-7中任一项所述的基于UAV的WSN数据采集轨迹动态生成方法。
CN202211465106.XA 2022-11-22 2022-11-22 一种基于uav的wsn数据采集轨迹动态生成方法及*** Active CN115515077B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211465106.XA CN115515077B (zh) 2022-11-22 2022-11-22 一种基于uav的wsn数据采集轨迹动态生成方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211465106.XA CN115515077B (zh) 2022-11-22 2022-11-22 一种基于uav的wsn数据采集轨迹动态生成方法及***

Publications (2)

Publication Number Publication Date
CN115515077A CN115515077A (zh) 2022-12-23
CN115515077B true CN115515077B (zh) 2023-02-14

Family

ID=84513621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211465106.XA Active CN115515077B (zh) 2022-11-22 2022-11-22 一种基于uav的wsn数据采集轨迹动态生成方法及***

Country Status (1)

Country Link
CN (1) CN115515077B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012368B (zh) * 2023-02-16 2023-06-13 江西惜能照明有限公司 基于智慧灯杆的安防监测方法、***、存储介质及计算机
CN116881386B (zh) * 2023-09-08 2023-12-05 北京国星创图科技有限公司 一种空间环境时空基准模型的构建方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110049448A (zh) * 2019-04-22 2019-07-23 福州大学 一种基于无人机群的无线传感网数据收集方法
CN114637326A (zh) * 2022-03-15 2022-06-17 平安国际智慧城市科技股份有限公司 区域策略制定方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110049448A (zh) * 2019-04-22 2019-07-23 福州大学 一种基于无人机群的无线传感网数据收集方法
CN114637326A (zh) * 2022-03-15 2022-06-17 平安国际智慧城市科技股份有限公司 区域策略制定方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
可充电无人机辅助数据采集***的飞行路线与通信调度优化;李茜雯等;《物联网学报》;20220728;全文 *

Also Published As

Publication number Publication date
CN115515077A (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
CN115515077B (zh) 一种基于uav的wsn数据采集轨迹动态生成方法及***
Dong et al. UAV-based real-time survivor detection system in post-disaster search and rescue operations
KR101948569B1 (ko) 라이다 센서 및 팬틸트줌 카메라를 활용한 비행체 식별 시스템 및 그 제어 방법
CN111339826B (zh) 一种滑坡无人机线性传感器网络框架检测***
Aswini et al. UAV and obstacle sensing techniques–a perspective
Siewert et al. Drone net architecture for UAS traffic management multi-modal sensor networking experiments
Zhahir et al. Current development of UAV sense and avoid system
CN115272493A (zh) 一种基于连续时序点云叠加的异常目标检测方法及装置
Avola et al. Automatic estimation of optimal UAV flight parameters for real-time wide areas monitoring
Pal et al. A Comprehensive Review of AI-enabled Unmanned Aerial Vehicle: Trends, Vision, and Challenges
Baeck et al. Drone based near real-time human detection with geographic localization
Kristiani et al. Flame and smoke recognition on smart edge using deep learning
Suciu et al. Sensors fusion approach using UAVs and body sensors
Śniatała et al. Drone as a sensors’ platform
Pi et al. Deep neural networks for drone view localization and mapping in GPS-denied environments
Rizk et al. Proposition of online UAV-based pollutant detector and tracker for narrow-basin rivers: A case study on Litani river
Gubanov et al. Algorithms and software for evaluation of plant height in vertical farm using uavs
CN113836975A (zh) 基于yolov3的双目视觉无人机避障方法
Singh et al. UAV-Based Terrain-Following Mapping Using LiDAR in High Undulating Catastrophic Areas
Deng et al. Survey of important issues in multi unmanned aerial vehicles imaging system
Xu et al. Assistance of UAVs in the intelligent management of urban space: A survey
EP3792719A1 (en) Deduction system, deduction device, deduction method, and computer program
Kurdi et al. Efficient navigation system of mobile robot with thermography image processing system and mapping of quadcopter
Wang et al. Real-Time Evaluation Method and Implementation of Multi-sensor Dynamic Ranging Capability for UAV
Kanjalkar et al. Intelligent Surveillance Tower for Detection of the Drone from the Other Aerial Objects Using Deep Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant