CN116627155A - 一种用于温室大棚的多旋翼无人机避障***和方法 - Google Patents
一种用于温室大棚的多旋翼无人机避障***和方法 Download PDFInfo
- Publication number
- CN116627155A CN116627155A CN202310788698.7A CN202310788698A CN116627155A CN 116627155 A CN116627155 A CN 116627155A CN 202310788698 A CN202310788698 A CN 202310788698A CN 116627155 A CN116627155 A CN 116627155A
- Authority
- CN
- China
- Prior art keywords
- distance
- unmanned aerial
- aerial vehicle
- obstacle
- ultrasonic sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 29
- 238000005259 measurement Methods 0.000 claims description 59
- 238000001514 detection method Methods 0.000 claims description 30
- 230000004927 fusion Effects 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 6
- 230000008901 benefit Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 9
- 230000004888 barrier function Effects 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 238000007689 inspection Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000003337 fertilizer Substances 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008635 plant growth Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
- Y02A40/25—Greenhouse technology, e.g. cooling systems therefor
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种用于温室大棚的多旋翼无人机避障***,包括无人机、板载飞控模块以及与板载飞控模块相连接的深度相机、板载飞控模块和超声波传感器,所述超声波传感器包括第一子超声波传感器和第二子超声波传感器,所述板载飞控模块固定在无人机上,所述深度相机固定在无人机的前端,所述第一子超声波传感器固定在无人机顶部,用于获取无人机与室内顶部的距离;所述第二子超声波传感器的数量为多个,所述第二子超声波传感器均匀分布在无人机下端的四周,用于获取无人机与四周障碍物的距离。与现有技术相比,本发明具有无人机避障方法简单、适用范围大等优点。
Description
技术领域
本发明涉及无人机技术领域,尤其是涉及一种用于温室大棚的多旋翼无人机避障***和方法。
背景技术
温室大棚是现代农业常用的生产设施,目前大棚内的植物肥料,农药依赖于人工喷洒,人力成本较高,自动化程度较低。
无人机相比于传统人工喷洒,最大的优点在于高度自动化。在现代农业生产中,无人机已经被广泛应用于农作物的植保、巡检、虫害监测等方面,具有高效、省力、环保等优点。目前,农用无人机作业可以分为手工操控飞行和自主飞行两种模式,在手工操控飞行模式下,无人机可以由操作员在地面站进行控制,以完成各种任务。但是这种模式仍然需要人工对无人机进行干预,飞行自主性低,并且对飞手的操作水平要求较高。而在自主飞行模式下,无人机可以根据预设的任务和环境条件,自主规划路径,执行任务。
目前无人机通常应用于室外环境,通过卫星导航进行定位,选取合适的传感器[1]-[10]实现悬停、避障、路径规划等功能。在室内环境下,无人机应用的主要技术有:同步定位和建图(Simultaneous Localization and Mapping),光流检测法等。
光流法根据目标与图像拍摄设备的相对运动产生的前后两帧图像灰度变化来估计图像中目标运动的特征。许多学者基于不同假设条件和理论基础提出了多种光流算法,如微分法、能量法、相位法、匹配法,其中以LK(Lucas Kanade)局部平滑法、HS(Horn Shunk)全局平滑法和SIFT(Scale-Invariant Feature Transform)[11]算法应用最为广泛。Sun[12]在HS算法的基础上,通过中值滤波对光流进行去噪,引入非对称金字塔特征,提高了算法对于大位移运动的图像光流的适用性。光流法可以实现对相机视场内潜在的各类障碍物目标进行检测,但容易受到环境噪声的影响,尤其是在无纹理环境中难以提取到特征点,从而使算法失效。
SLAM被广泛用于机器人***、自动驾驶汽车、无人机***等。有不少学者基于SLAM的方法开发了无人机的自主避障***。Mono-SLAM方法[13]利用连续的图像序列估计相机的运动并构建地图,为了进一步提升***的实时性,有学者[14]提出了基于关键帧技术的单目视觉SLAM***。由于视觉SLAM随着***持续运行,会存储大量特征信息和相机位姿,计算量呈线性增长,所以早期研究一直采用滤波的方式设计视觉SLAM***。近年来,研究者发现了视觉SLAM中BA(Bundle Adjustment)问题的稀疏性,同时随着计算性能提高,基于图优化框架的视觉SLAM[15]成为主流并成功应用于无人机的障碍物检测。Mueller等[16]在四轴飞行器上安装双目相机,通过双目SLAM完成定位与建图,成功实现了四旋翼无人机在未知环境下的自主避障。中国香港科技大学的Fast-Planner[17]通过SLAM构建地图,通过一个精心设计的路径规划器给出航迹指令包含位置、速度、加速度以及Yaw角发送给飞控进行避障。视觉SLAM方法对计算性能和内存要求较高,因为它需要同时存储无人机的姿态信息和地图信息。此外,光流和视觉SLAM方法都需要适当的参数设置才能根据情况发挥有效性能,泛化性能不佳。
这些方法通过激光雷达,深度相机等传感器获取信息进行预先建模。然而,目前这些技术并不适用于温室大棚。主要原因有:
1.在温室大棚内,为了确保作物生长,往往采用透光率较高的材料进行保温,如薄膜,玻璃等,这些材料纹理信息较少,透光率高,在光照较强的条件下,视觉传感器可能会产生反射和光斑等问题,同样会影响障碍物的识别和跟踪。对于激光雷达来说,光照也会对其性能产生影响。在强光照射下,激光雷达可能会受到反射干扰,导致测量误差增加。除此之外,室外使用的激光雷达等传感器价格昂贵,难以在农业设施中推广应用。温室大棚内的障碍物分布不一,无人机需要具备检测不同距离障碍物的能力。
2.温室大棚内充满了各种大小、形状不一的动态或静态障碍物,例如喷头、支架、水管等。传统的避障方法往往需要预先建模,且对障碍物形状的准确度要求较高,不适用于温室大棚这种充满复杂障碍物的环境。
因此,需要开发一种完整的无人机避障方案,该方案应该能够使用多种传感器来获取环境信息,并能够适应各种复杂情况,例如光照强烈、透光率高等。最终,这种无人机避障方案能够自动控制无人机在温室大棚内完成植保巡检等任务,并能够避免与大棚环境或者设施内其他物体碰撞。这样,就可以提高植物生长效率和品质,并减少人工巡检的工作量和成本。
发明内容
本发明的目的就是为了克服上述现有技术存在采用视觉传感器和激光雷达进行障碍物检测时,受到温室大棚的环境影响较大,导致测量误差增大,同时成本较高,且现有避障方法流程复杂不适用于环境障碍复杂的温室大棚避障的缺陷而提供一种用于温室大棚的多旋翼无人机避障***和方法。
本发明的目的可以通过以下技术方案来实现:
一种用于温室大棚的多旋翼无人机避障***,包括无人机、板载飞控模块以及与板载飞控模块相连接的深度相机、板载飞控模块和超声波传感器,所述超声波传感器包括第一子超声波传感器和第二子超声波传感器,所述板载飞控模块固定在无人机上,所述深度相机固定在无人机的前端,所述第一子超声波传感器固定在无人机顶部,用于获取无人机与室内顶部的距离;所述第二子超声波传感器的数量为多个,所述第二子超声波传感器均匀分布在无人机下端的四周,用于获取无人机与四周障碍物的距离。
进一步的,所述无人机还包括固定板和U型紧固件,所述固定板的一端设有U型槽,所述第二子超声波传感器位于U型槽内,所述第二子超声波传感器通过U型紧固件固定在固定板上,所述固定板的另一端连接无人机。
本方案还提供一种用于温室大棚的多旋翼无人机避障方法,包括以下步骤:
获取无人机的飞行路径或飞行方向的数据;
获取超声波传感器和深度相机的数据,并将获取的数据进行融合和同步;
根据融合后的数据信息,判断无人机的周围的是否存在障碍物,若不存在障碍物,则保持原飞行路径继续飞行;若存在障碍物,则对无人机进行避障路径规划;
根据融合后的数据信息,判断无人机是否安全避开障碍物,并将判断结果传输到板载飞控模块,若能够避开障碍物,则根据规划的避障路径航行;若不能避开障碍物,则板载飞控模块控制无人机航行。
进一步的,通过深度相机获取无人机所在环境的深度图,以得到障碍物与无人机的距离,通过超声波传感器获取深度相机难以拍摄的障碍物与无人机的距离,并对深度相机获取的障碍物距离进行修订,得到融合后的障碍物距离信息。
进一步的,将深度相机获取的障碍物的距离信息与超声波传感器获取的障碍物距离信息进行融合的具体步骤包括:通过卡尔曼滤波器对深度相机和超声波传感器采集的障碍物距离信息分别进行滤波处理,将滤波处理后的障碍物距离信息通过模糊逻辑算法进行融合,得到融合后的障碍物距离信息。
进一步的,通过模糊逻辑算法进行障碍物距离信息融合的具体步骤包括:
获取超声波传感器和深度相机的测量数据,测量数据即为输入的模糊变量;
对于每个模糊变量,定义一个隶属函数,所述隶属函数用于将模糊变量转换为一个模糊集合,所述模糊集合中的元素表示变量与元素的对应程度;
所述超声波传感器的测量数据表示为第一模糊集合,所述深度相机的测量数据表示为第二模糊集合;
根据第一模糊集合、第二模糊集合和预设的模糊规则,通过模糊推理算法得到障碍物距离的模糊集合。
进一步的,将超声波传感器和深度相机的探测范围划分为远、中和近三个区间,预设的模糊规则具体为:
当超声波传感器测量距离为远且深度相机测量距离为远,则障碍物距离为远;
当超声波传感器测量距离为中且深度相机测量距离为远,则障碍物距离为中;
当超声波传感器测量距离为近且深度相机测量距离为远,则障碍物距离为近;
当超声波传感器测量距离为远且深度相机测量距离为中,则障碍物距离为中;
当超声波传感器测量距离为中且深度相机测量距离为中,则障碍物距离为中;
当超声波传感器测量距离为近且深度相机测量距离为中,则障碍物距离为近;
当超声波传感器测量距离为远且深度相机测量距离为近,则障碍物距离为中;
当超声波传感器测量距离为中且深度相机测量距离为近,则障碍物距离为近;
当超声波传感器测量距离为近且深度相机测量距离为近,则障碍物距离为近。
进一步的,隶属函数的表达式为:
其中,Dus(d1)表示超声波传感器测量距离的第一模糊集合,d1表示超声波传感器测量距离,Ddc(d2)表示深度相机测量距离的第二模糊集合,d2表示深度相机测量距离,dshort表示传感器根据探测范围划分的近区间的边界值,dmid表示传感器根据探测范围划分的中区间的边界值,dlong表示传感器根据探测范围划分的远区间的边界值,dw表示深度相机根据信任权重动态调整的参数。
进一步的,障碍物距离的模糊集合的函数表示为:
其中,Dfs(d)表示障碍物的模糊距离值,Di表示第i个传感器估计的距离值,wi为第i个传感器的权重。
进一步的,无人机判断存在障碍物后的避障路径规划具体过程为:
无人机检测到存在障碍物后,进行悬停状态;
无人机改变航向角,在四周360度的方向上进行障碍物检测,通过超声波传感器和深度相机获取的障碍物距离的数据,沿着与原始航向偏离最小且满足所设避障距离的方向航行预设距离;
无人机对当前航行方向的左右45度的区域进行检测,确定无人机的前进方向。与现有技术相比,本发明具有以下优点:
(1)本方案通过在无人机上设置深度相机,同时在无人机的下端四周以及顶部设置超声波传感器,对一些受到环境作用后,影响深度相机检测结果的障碍物,包括温室大棚内的薄膜和玻璃,能够通过超声波传感器进行障碍物检测,避免了在强光的环境条件下摄像检测不到的情况,而且顶部的超声波传感器可以保证无人机与温室顶部保持在安全距离,保证无人机在温室内部的全方位避障,以及航行的安全性。
(2)本方案中通过深度相机和超声波传感器的结合,并对深度相机和超声波传感器获取的障碍物的距离数据,通过模糊处理对传感器的检测数据进行融合,得到位置信息更加精确的障碍物距离数据,避免了传统避障方式中需要建模以及对障碍物形状要求高的问题,使无人机具备探测不同距离障碍物的能力,既能检测远距离障碍物,对障碍物有效跟踪,又能保障无人机在安全距离内稳定飞行。
附图说明
图1为本发明提供的无人机避障***的结构示意图;
图2为本发明提供的无人机避障方法的流程图;
图3为本发明提供的超声传感器的安装结构示意图;
图中:1、无人机,2、板载飞控模块,3、深度相机,4、第一子超声波传感器,5、第二子超声波传感器,6、固定板,7、U型紧固件。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
此外,术语“水平”、“竖直”等术语并不表示要求部件绝对水平或悬垂,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
实施例1
本实施例提供了一种用于温室大棚的多旋翼无人机避障***,如图1所示,包括无人机1、板载飞控模块3以及与板载飞控模块3相连接的深度相机2、板载飞控模块3和超声波传感器,超声波传感器包括第一子超声波传感器4和第二子超声波传感器5,板载飞控模块3固定在无人机1上,深度相机2固定在无人机1的前端,第一子超声波传感器4固定在无人机顶部,用于获取无人机与室内顶部的距离;第二子超声波传感器5的数量为多个,第二子超声波传感器5均匀分布在无人机下端的四周,用于获取无人机与四周障碍物的距离。
通过在无人机上设置深度相机,同时在无人机的下端四周以及顶部设置超声波传感器,对一些受到环境作用后,影响深度相机检测结果的障碍物,包括温室大棚内的薄膜和玻璃,能够通过超声波传感器进行障碍物检测,避免了在强光的环境条件下摄像检测不到的情况,而且顶部的超声波传感器可以保证无人机与温室顶部保持在安全距离,保证无人机在温室内部的全方位避障,以及航行的安全性。
作为一种优选的实施方式,如图3所示,无人机1还包括固定板6和U型紧固件7,固定板6的一端设有U型槽,第二子超声波传感器5位于U型槽内,第二子超声波传感器5通过U型紧固件7固定在固定板6上,固定板6的另一端连接无人机1。能够将超声波传感器稳定的固定在无人机上,方便对无人机所在环境进行障碍物的检测。
本实施例还提供了一种用于温室大棚的多旋翼无人机避障方法,如图2所示,包括以下步骤:
获取无人机的飞行路径或飞行方向的数据;
获取超声波传感器和深度相机的数据,并将获取的数据进行融合和同步;
根据融合后的数据信息,判断无人机的周围的是否存在障碍物,若不存在障碍物,则保持原飞行路径继续飞行;若存在障碍物,则对无人机进行避障路径规划;
根据融合后的数据信息,判断无人机是否安全避开障碍物,并将判断结果传输到板载飞控模块,若能够避开障碍物,则根据规划的避障路径航行;若不能避开障碍物,则板载飞控模块控制无人机航行。
通过深度相机和超声波传感器的结合,并对深度相机和超声波传感器获取的障碍物的距离数据,通过模糊处理对传感器的检测数据进行融合,得到位置信息更加精确的障碍物距离数据,避免了传统避障方式中需要建模以及对障碍物形状要求高的问题,使无人机具备探测不同距离障碍物的能力,既能检测远距离障碍物,对障碍物有效跟踪,又能保障无人机在安全距离内稳定飞行。
具体的,通过深度相机获取无人机所在环境的深度图,以得到障碍物与无人机的距离,通过超声波传感器获取深度相机难以拍摄的障碍物与无人机的距离,并对深度相机获取的障碍物距离进行修订,得到融合后的障碍物距离信息。
将深度相机获取的障碍物的距离信息与超声波传感器获取的障碍物距离信息进行融合的具体步骤包括:通过卡尔曼滤波器对深度相机和超声波传感器采集的障碍物距离信息分别进行滤波处理,将滤波处理后的障碍物距离信息通过模糊逻辑算法进行融合,得到融合后的障碍物距离信息。
其中,通过模糊逻辑算法进行障碍物距离信息融合的具体步骤包括:
获取超声波传感器和深度相机的测量数据,测量数据即为输入的模糊变量;
对于每个模糊变量,定义一个隶属函数,所述隶属函数用于将模糊变量转换为一个模糊集合,所述模糊集合中的元素表示变量与元素的对应程度;
所述超声波传感器的测量数据表示为第一模糊集合,所述深度相机的测量数据表示为第二模糊集合;
根据第一模糊集合、第二模糊集合和预设的模糊规则,通过模糊推理算法得到障碍物距离的模糊集合。
具体的,将超声波传感器和深度相机的探测范围划分为远、中和近三个区间,预设的模糊规则具体为:
当超声波传感器测量距离为远且深度相机测量距离为远,则障碍物距离为远;
当超声波传感器测量距离为中且深度相机测量距离为远,则障碍物距离为中;
当超声波传感器测量距离为近且深度相机测量距离为远,则障碍物距离为近;
当超声波传感器测量距离为远且深度相机测量距离为中,则障碍物距离为中;
当超声波传感器测量距离为中且深度相机测量距离为中,则障碍物距离为中;
当超声波传感器测量距离为近且深度相机测量距离为中,则障碍物距离为近;
当超声波传感器测量距离为远且深度相机测量距离为近,则障碍物距离为中;
当超声波传感器测量距离为中且深度相机测量距离为近,则障碍物距离为近;
当超声波传感器测量距离为近且深度相机测量距离为近,则障碍物距离为近。
隶属函数的表达式为:
其中,Dus(d1)表示超声波传感器测量距离的第一模糊集合,d1表示超声波传感器测量距离,Ddc(d2)表示深度相机测量距离的第二模糊集合,d2表示深度相机测量距离,dshort表示传感器根据探测范围划分的近区间的边界值,dmid表示传感器根据探测范围划分的中区间的边界值,dlong表示传感器根据探测范围划分的远区间的边界值,dw表示深度相机根据信任权重动态调整的参数,
障碍物距离的模糊集合的函数表示为:
其中,Dfs(d)表示障碍物的模糊距离值,Di表示第i个传感器估计的距离值,wi为第i个传感器的权重。
无人机判断存在障碍物后的避障路径规划具体过程为:
无人机检测到存在障碍物后,进行悬停状态;
无人机改变航向角,在四周360度的方向上进行障碍物检测,通过超声波传感器和深度相机获取的障碍物距离的数据,沿着与原始航向偏离最小且满足所设避障距离的方向航行预设距离;
无人机对当前航行方向的左右45度的区域进行检测,确定无人机的前进方向。
结合上述内容,本实施例还提供了一种更具体的实施方式,具体为:
一种用于温室大棚内的多旋翼无人机避障***,如图1所示,具体包括无人机机体、旋翼、板载飞控***、深度相机与超声波传感器。
如图1所示,针对温室大棚内的多旋翼无人机避障***,发明了一种传感器布局方法,具体来说,本发明在无人机前向安装深度相机,针对视觉相机对温室大棚内的薄膜,玻璃结构不敏感的问题,本发明在无人机水平方向安装了多个超声波传感器,覆盖360度,保障无人机在安全距离内可靠飞行。将前向超声波传感器与深度相机数据融合,有效检测障碍物,并利用其数据进行路径规划。除此之外,为了保障无人机在温室大棚内稳定可靠飞行,避免与温室大棚顶部碰撞,本发明在无人机上方加装了一个超声波模块,有效检测温室大棚上方的结构。
具体的,板载飞控***包括板载计算机和飞行控制器,采用Jetson Orin Nano作为板载计算机,它算力强大,体积小,同时集成了ROS(Robot Operating System),Python等开发环境。飞行控制器采用CUAV V6+,该飞行控制器能够灵活地对无人机进行控制,计算性能高。针对传感器的选择,考虑到温室大棚内环境恶劣,在进行植保任务时,无人机旋翼高速旋转产生下旋风场,会带动大量水汽,并扬起尘埃,这对设备的防水防尘性能提出了一定的要求。考虑到上述问题,实施时采用KS114作为超声波传感器,该传感器拥有IP67级防水,盲区小,检测范围大,精度高,对于温室大棚内的薄膜等障碍物有很好的检测效果。深度相机采用StereoLab公司的ZED2i相机作为前向的视觉模块,该深度相机拥有IP67级别的防水防尘性能,内置偏光技术,减少了温室大棚内强光对相机的影响,检测范围大,最长可达20m,使无人机有足够的反应时间对障碍物进行避让,有效保障了无人机在温室大棚内安全植保与巡检作业。
一种用于温室大棚的无人机避障方法,具体包括以下步骤,如图2所示:
步骤1.输入飞行路径或飞行方向。
步骤2.获取超声波传感器与深度相机数据,并将传感器数据进行融合与同步。
步骤3.无人机在温室大棚内飞行过程中,实时获取传感器的数据检测并判断无人机的周围是否存在障碍物,不存在,则继续飞行。如果存在,则使用规划算法进行避障。
步骤4.判断航点是否可达,如果不能则返回给上层控制***进行处理,并根据控制***给出的控制指令进行飞行。能够完成避障则控制无人机按照规划好的避障航迹飞行。
对于步骤1,根据温室大棚的作物布局,在手动模式下可以根据遥控器的输入生成飞行方向等,在自主飞行模式下,可输入由航点生成的飞行路径。
对于步骤2,通过深度相机获取深度图,得到精细的距离信息,超声波传感器获取近距离的障碍物信息,包括薄膜,玻璃等深度相机难以获取的信息。
本发明利用深度相机与超声波传感器进行避障,深度相机能够检测远距离的障碍物,同时也对近距离的障碍物进行检测。超声波传感器检测近距离障碍物以及深度相机难以检测的障碍物,并对深度相机检测的距离进行修正。
前向的多个传感器数据融合,用于精准规划航线。水平方向的多个传感器实时检测障碍物,保障无人机能在安全距离内稳定飞行。加装在无人机上方的超声波传感器实时检测无人机与温室大棚环境的距离,当无人机高度与温室大棚顶端距离小于某一阈值时,则控制无人机降低一定高度。
对于飞行方向上的超声波传感器及视觉传感器,使用多传感器信息融合方法以获得更加准确的距离信息,用于规划精细航线。传感器数据融合可采用贝叶斯网络,模糊控制,卡尔曼滤波等。例如可以采用卡尔曼滤波器对传感器距离信息进行滤波,再使用模糊逻辑将传感器数据融合,相比于融合前,融合后的数据方差大大减小,更为可靠。
对于步骤3,无人机在飞行过程中,实时获取传感器数据,并判断是否有障碍物。如果航线中不存在障碍物,则继续原有飞行路径飞行。如果存在障碍物则使用路径规划算法。
当无人机检测到某一方向上有障碍物时,首先会进行悬停,进入第一阶段。首先改变航向角,在360度的方向上进行搜索,根据前向的深度相机和超声波传感器的数据选取一个与原始航向偏离最小且满足所设避障距离的方向航行预设距离,之后进入第二阶段的算法,对当前航向及左右45度方向进行搜索,确认最终的航向并前进。
对于步骤4,通过算法判断无人机是否能够避开障碍物并且继续航点任务,并返回一个结果给上层控制***。如果不能避开障碍物(如航点在某一个不可到达的坐标),则通过上层控制***控制无人机运动。如果能够避开障碍物,则控制无人机根据规划好的避障航迹进行飞行。对于避障的距离可以通过经验人为地设置,小于该距离则进行避障,大于该距离的障碍物将被忽略。
对于无人机避障方法,具体实施方法如下:
1.对于自主飞行,通过Mavlink协议读取当前坐标的经纬度作为起飞点,将航向角,飞行距离等信息输入,换算成航点的经纬度,并生成航线。对于手动飞行,根据遥控器的输入生成估计的飞行路径或飞行方向。
2.使用Python的smbus2库读取超声波传感器的数据,通过ZED2i的sdk,Opencv读取深度相机的数据,并进行数据融合与同步,将数据发送给板载飞控***进行处理。
3.根据已有路径执行航点任务,如果有障碍物则执行之前所述的避障算法,如果不存在障碍物则继续原有飞行路径。
4.判断航点是否可达(如某一航点与当前航点没有路径可达),如果不可达,可以将结果返回给上层控制***控制无人机降落或者返回起飞点。如果可达,则使用路径规划算法生成航线,完成避障任务。
对于第2步中的数据融合,本发明可以采用的一种方法是:使用模糊逻辑对前向的超声波传感器与深度相机进行数据融合。
对于超声波和深度相机的距离测量数据,可以将它们分别表示为两个模糊集合,具体的:
超声波测量距离的模糊集合为Dus(d),其中d表示距离,Dus(d)表示距离为d的障碍物的模糊程度;
深度相机测量距离的模糊集合为Ddc(d),其中d表示距离,Ddc(d)表示距离为d的障碍物的模糊程度。
然后定义模糊规则,例如对于超声波和深度相机的距离数据进行融合,可以设计如下的模糊规则:
首先根据超声波传感器与深度相机的探测范围,将其划分为远,中,近三个区间,然后根据区间设计模糊规则。
如果超声波距离为远且深度相机距离为远,则障碍物距离为远。如果超声波距离为中且深度相机距离为远,则障碍物距离为中等。如果超声波距离为近且深度相机距离为远,则障碍物距离为近。如果超声波距离为远且深度相机距离为中,则障碍物距离为中等。如果超声波距离为中且深度相机距离为中,则障碍物距离为中等。如果超声波距离为近且深度相机距离为中,则障碍物距离为近。如果超声波距离为远且深度相机距离为近,则障碍物距离为中等。如果超声波距离为中且深度相机距离为近,则障碍物距离为近。如果超声波距离为近且深度相机距离为近,则障碍物距离为近。
之后设计隶属函数:对于每个模糊变量,定义一个隶属函数。隶属函数的作用是将输入的模糊变量转换为一个模糊集合,其中每个元素表示该变量对应于该元素的程度。对于距离这个变量,本发明将探测范围划分为三个区间,例如,超声波传感器探测范围为0.3-5.2m,0.3-2.5m为近距离区间,2.5m-4m为中距离区间,大于4m为远距离区间。深度相机探测范围为0.2-20m,将0.2-2.5m归为近距离区间,2.5m-4m为中距离区间,大于4m为远距离区间。针对以上传感器及区间,设计如下的隶属函数:
根据模糊规则和两个模糊集合,可以使用模糊推理方法计算障碍物距离的模糊集合Dfs(d),即融合后的数据。
以无人机与障碍物之间的距离为例,可以使用重心法得到具体的距离值。重心法是将输出变量的模糊集合进行加权平均,其中每个模糊量的权重由其隶属度决定。具体来说,对于障碍物距离的三个模糊量(近、中、远),分别计算其隶属度和对应的权重,然后将三个权重加权平均得到最终的输出结果。
其中Dfs(d)为最终的模糊距离值,Di为第i个传感器估计的距离值,wi为第i个传感器的权重。具体来说,当障碍物距离处于远距离时,主要依据深度相机数据作为信息来源,当障碍物距离为近或者中时,将两个传感器数据进行融合,得到更加可靠的数据。通过上述方法可以对模糊集合进行解模糊,得到一个准确的距离值,并发送给板载飞控***执行避障流程。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种用于温室大棚的多旋翼无人机避障***,包括无人机(1),其特征在于,还包括板载飞控模块(3)以及与板载飞控模块(3)相连接的深度相机(2)、板载飞控模块(3)和超声波传感器,所述超声波传感器包括第一子超声波传感器(4)和第二子超声波传感器(5),所述板载飞控模块(3)固定在无人机(1)上,所述深度相机(2)固定在无人机(1)的前端,所述第一子超声波传感器(4)固定在无人机顶部,用于获取无人机与室内顶部的距离;所述第二子超声波传感器(5)的数量为多个,所述第二子超声波传感器(5)均匀分布在无人机下端的四周,用于获取无人机与四周障碍物的距离。
2.根据权利要求1所述的一种用于温室大棚的多旋翼无人机避障***,其特征在于,所述无人机(1)还包括固定板(6)和U型紧固件(7),所述固定板(6)的一端设有U型槽,所述第二子超声波传感器(5)位于U型槽内,所述第二子超声波传感器(5)通过U型紧固件(7)固定在固定板(6)上,所述固定板(6)的另一端连接无人机(1)。
3.一种基于权利要求1-2任一所述的一种用于温室大棚的多旋翼无人机避障***的方法,其特征在于,包括以下步骤:
获取无人机的飞行路径或飞行方向的数据;
获取超声波传感器和深度相机的数据,并将获取的数据进行融合和同步;
根据融合后的数据信息,判断无人机的周围的是否存在障碍物,若不存在障碍物,则保持原飞行路径继续飞行;若存在障碍物,则对无人机进行避障路径规划;
根据融合后的数据信息,判断无人机是否安全避开障碍物,并将判断结果传输到板载飞控模块,若能够避开障碍物,则根据规划的避障路径航行;若不能避开障碍物,则板载飞控模块控制无人机航行。
4.根据权利要求3所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,通过深度相机获取无人机所在环境的深度图,以得到障碍物与无人机的距离,通过超声波传感器获取深度相机难以拍摄的障碍物与无人机的距离,并对深度相机获取的障碍物距离进行修订,得到融合后的障碍物距离信息。
5.根据权利要求4所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,将深度相机获取的障碍物的距离信息与超声波传感器获取的障碍物距离信息进行融合的具体步骤包括:通过卡尔曼滤波器对深度相机和超声波传感器采集的障碍物距离信息分别进行滤波处理,将滤波处理后的障碍物距离信息通过模糊逻辑算法进行融合,得到融合后的障碍物距离信息。
6.根据权利要求5所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,通过模糊逻辑算法进行障碍物距离信息融合的具体步骤包括:
获取超声波传感器和深度相机的测量数据,测量数据即为输入的模糊变量;
对于每个模糊变量,定义一个隶属函数,所述隶属函数用于将模糊变量转换为一个模糊集合,所述模糊集合中的元素表示变量与元素的对应程度;
所述超声波传感器的测量数据表示为第一模糊集合,所述深度相机的测量数据表示为第二模糊集合;
根据第一模糊集合、第二模糊集合和预设的模糊规则,通过模糊推理算法得到障碍物距离的模糊集合。
7.根据权利要求6所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,将超声波传感器和深度相机的探测范围划分为远、中和近三个区间,预设的模糊规则具体为:
当超声波传感器测量距离为远且深度相机测量距离为远,则障碍物距离为远;
当超声波传感器测量距离为中且深度相机测量距离为远,则障碍物距离为中;
当超声波传感器测量距离为近且深度相机测量距离为远,则障碍物距离为近;
当超声波传感器测量距离为远且深度相机测量距离为中,则障碍物距离为中;
当超声波传感器测量距离为中且深度相机测量距离为中,则障碍物距离为中;
当超声波传感器测量距离为近且深度相机测量距离为中,则障碍物距离为近;
当超声波传感器测量距离为远且深度相机测量距离为近,则障碍物距离为中;
当超声波传感器测量距离为中且深度相机测量距离为近,则障碍物距离为近;
当超声波传感器测量距离为近且深度相机测量距离为近,则障碍物距离为近。
8.根据权利要求6所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,隶属函数的表达式为:
其中,Dus(d1)表示超声波传感器测量距离的第一模糊集合,d1表示超声波传感器测量距离,Ddc(d2)表示深度相机测量距离的第二模糊集合,d2表示深度相机测量距离,dshort表示传感器根据探测范围划分的近区间的边界值,dmid表示传感器根据探测范围划分的中区间的边界值dlong表示传感器根据探测范围划分的远区间的边界值,dw表示深度相机根据信任权重动态调整的参数。
9.根据权利要求6所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,障碍物距离的模糊集合的函数表示为:
其中,Dfs(d)表示障碍物的模糊距离值,Di表示第i个传感器估计的距离值,wi为第i个传感器的权重。
10.根据权利要求3所述的一种用于温室大棚的多旋翼无人机避障方法,其特征在于,无人机判断存在障碍物后的避障路径规划具体过程为:
无人机检测到存在障碍物后,进行悬停状态;
无人机改变航向角,在四周360度的方向上进行障碍物检测,通过超声波传感器和深度相机获取的障碍物距离的数据,沿着与原始航向偏离最小且满足所设避障距离的方向航行预设距离;
无人机对当前航行方向的左右45度的区域进行检测,确定无人机的前进方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310788698.7A CN116627155A (zh) | 2023-06-30 | 2023-06-30 | 一种用于温室大棚的多旋翼无人机避障***和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310788698.7A CN116627155A (zh) | 2023-06-30 | 2023-06-30 | 一种用于温室大棚的多旋翼无人机避障***和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116627155A true CN116627155A (zh) | 2023-08-22 |
Family
ID=87610048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310788698.7A Pending CN116627155A (zh) | 2023-06-30 | 2023-06-30 | 一种用于温室大棚的多旋翼无人机避障***和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116627155A (zh) |
-
2023
- 2023-06-30 CN CN202310788698.7A patent/CN116627155A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210064024A1 (en) | Scanning environments and tracking unmanned aerial vehicles | |
CN108827306B (zh) | 一种基于多传感器融合的无人机slam导航方法及*** | |
Lee et al. | Deep learning-based monocular obstacle avoidance for unmanned aerial vehicle navigation in tree plantations: Faster region-based convolutional neural network approach | |
Schäfer et al. | Multicopter unmanned aerial vehicle for automated inspection of wind turbines | |
CN110174903B (zh) | 用于在环境内控制可移动物体的***和方法 | |
CN105652891B (zh) | 一种旋翼无人机移动目标自主跟踪装置及其控制方法 | |
WO2018086133A1 (en) | Methods and systems for selective sensor fusion | |
Caballero et al. | Vision-based odometry and SLAM for medium and high altitude flying UAVs | |
WO2017177533A1 (zh) | 基于激光雷达的微型无人机操控方法及*** | |
Chambers et al. | Perception for a river mapping robot | |
JP2015006874A (ja) | 3次元証拠グリッドを使用する自律着陸のためのシステムおよび方法 | |
KR20220129218A (ko) | 장애물에 관한 비행 상황을 인지하여 무인 이동체의 속도 제어 방법 및 무인 이동체 | |
Singh et al. | Comparative analysis of range sensors for the robust autonomous navigation–a review | |
CN115933754A (zh) | 基于毫米波雷达和双目视觉的电力巡检无人机避障方法 | |
Liu et al. | A survey of computer vision applied in aerial robotic vehicles | |
Chow et al. | Toward underground localization: Lidar inertial odometry enabled aerial robot navigation | |
Pritzl et al. | Cooperative navigation and guidance of a micro-scale aerial vehicle by an accompanying UAV using 3D LiDAR relative localization | |
Kamat et al. | A survey on autonomous navigation techniques | |
Lee et al. | See and avoidance behaviors for autonomous navigation | |
Marlow et al. | Local terrain mapping for obstacle avoidance using monocular vision | |
Rydell et al. | Autonomous UAV-based forest mapping below the canopy | |
Yu et al. | Indoor Localization Based on Fusion of AprilTag and Adaptive Monte Carlo | |
CN116627155A (zh) | 一种用于温室大棚的多旋翼无人机避障***和方法 | |
CN114003041A (zh) | 一种多无人车协同探测*** | |
Emmanuel et al. | Review of agricultural unmanned aerial vehicles (UAV) obstacle avoidance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |