CN112113568A - 一种畜禽养殖场巡检机器人的位姿校正方法 - Google Patents

一种畜禽养殖场巡检机器人的位姿校正方法 Download PDF

Info

Publication number
CN112113568A
CN112113568A CN202010846937.6A CN202010846937A CN112113568A CN 112113568 A CN112113568 A CN 112113568A CN 202010846937 A CN202010846937 A CN 202010846937A CN 112113568 A CN112113568 A CN 112113568A
Authority
CN
China
Prior art keywords
inspection robot
deviation
livestock
distance
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010846937.6A
Other languages
English (en)
Inventor
张铁民
卢锦枫
方成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN202010846937.6A priority Critical patent/CN112113568A/zh
Publication of CN112113568A publication Critical patent/CN112113568A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种畜禽养殖场巡检机器人的位姿校正方法,该方法包括:最优路径规划:在预先构建的路径规划表中,结合巡检机器人在畜禽养殖场待行走的起点和终点的QR二维码规划出巡检机器人的最优路径;参数采集:检测巡检机器人的当前单位采样时间运动参数,包括前方障碍物的距离,移动距离、航向角度及其偏差、横向距离偏差、运动速度;神经网络训练:将当前单位采样时间的运动参数输入BP神经网络中进行训练,获取高精度的导航参数;位姿校正:根据导航参数对运动过程中的巡检机器人的位姿进行校正。本发明提供的一种基于BP神经网络的畜禽养殖场巡检机器人导航参数获取方法,相比于当前现有的导航参数获取方法,能实时获取高精度的导航参数,并对运动过程中的巡检机器人的位姿进行校正,实现精准、稳定导航的目的。

Description

一种畜禽养殖场巡检机器人的位姿校正方法
技术领域
本发明涉及机器人导航技术领域,特别是一种涉及畜禽养殖场巡检机器人的位姿校正方法。
背景技术
随着畜禽养殖业的迅速发展,规模越来越大,越来越多的智能养殖工具应运而生,其可极大减少人工劳动力的投入,降低养殖成本,提高养殖作业的效率。而良好的养殖环境能够提升畜禽养殖的质量,增加养殖户的收益。智能化的畜禽养殖场巡检机器人具有高精度运动到每个设定位置,检测该位置的温湿度、风速、有害气体浓度以及监视该位置的环境状况等的特点,能及时对养殖环境做出预警。为保证巡检机器人能高精度运动到每个设定位置,需要对运动中的巡检机器人的位姿进行实时的检测和校正。而高精度的导航参数是畜禽养殖场巡检机器人位姿进行校正的重要条件,为提高巡检机器人导航的精确性,必须充分获取和利用已知的导航信息。然而,当前现有的器人导航参数获取采用基于直线路径模型的导航机理,这会严重影响巡检机器人导航的可靠性以及精度。因此如何准确高效地获取导航参数以保证巡检机器人的位姿能校正精确已经成为了导航技术领域所关注的重点问题。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,公开一种基于BP 神经网络的畜禽养殖场巡检机器人导航参数获取方法,该方法能够获取高精度的导航参数,并在运动的过程中校正巡检机器人的位姿,实现精准、稳定导航的目的。
一种畜禽养殖场巡检机器人的位姿校正方法,包括:
最优路径规划:在预先构建的路径规划表中,结合巡检机器人在畜禽养殖场待行走的起点和终点的QR二维码规划出巡检机器人的最优路径;
参数采集:检测巡检机器人的当前采样时刻运动参数,包括前方障碍物的距离、巡检机器人的移动距离、航向角度及其偏差、横向距离偏差、运动速度;
神经网络训练:将当前采样时刻运动参数输入BP神经网络中进行训练,获取高精度的导航参数;
位姿校正:根据导航参数对运动过程中的巡检机器人的位姿进行校正。
优选地,预先构建路径规划表包括:在畜禽养殖场的地面人工铺设标识路径,并在标识路径上以相同的间隔距离的位置上设置QR二维码,QR 二维码中存有ID号信息和对应的动作指令;根据所述有的ID号以及实际道路状况采用A*算法,构建完整的路径规划表;路径规划表中包括畜禽养殖场所有的从起点到终点的路径及其对应的路径信息,对应的路径信息包括起点,中间所有经过的点、终点,以及每个点位置的动作指令。
优选地,最优路径规划还包括:根据待行走的起点、终点的ID号,在预先构建的路径规划表中进行查询,将查询结果作为巡检机器人的最优路径;最优路径包括待行走起始点以及中间所经过的所有位置点的QR二维码ID号以及该位置的动作指令。
优选地,参数采集还包括:当前采样时间,前方障碍物的距离,巡检机器人的移动距离、航向角度及其偏差、横向距离偏差、运动速度。其中航向角度偏差有两个:IMU模块获取的航向角度偏差以及从采集图像中路径算出来的航向角度偏差。
优选地,置于巡检机器人本体上的IMU模块检测机器人本体的航向角度偏差包括:IMU模块检测巡检机器人的当前采样时刻的航向角,将当前采样时刻的航向角与上一采样时刻的航向角相减得到航向角偏差,其中偏差为正时机器向左偏,偏差为负时机器人向右偏,其中IMU模块水平固定在巡检机器人内部。
优选地,与左右驱动轮电机各自同轴的二个霍尔传感器分别检测当前采样时刻机器人左右二个驱动轮脉冲数测出转速,有该左右轮转速推算出巡检机器人当前的运动速度。
优选地,
与左右驱动轮电机各自同轴的二个编码器分别检测左右电机驱动轮的输出脉冲数,计算出电机驱动轮运动角度及转速,进而计算出采样时刻巡检机器人在航向上的航向角以及该角度方向上的移动距离,以此确定巡检机器人移动的里程和方向角。
优选地,安装在巡检机器人前方的图像采集与处理模块获取巡检机器人运行的路径航向角度偏差以及横向距离偏差包括:CCD摄像头拍摄铺设在地面上的标识路径图像,其中图像采集与处理模块中的CCD摄像头以俯角45度安装在巡检机器人的前方;图像采集与处理模块中的工控机调用OpenCV库函数,对拍摄的标识路径图像进行处理,并计算出其航向角度偏差及横向距离偏差;
其中,工控机调用OpenCV库函数,对拍摄的标识路径图像进行处理,并计算出其航向角度偏差及横向距离偏差的具体步骤为:
将标识路径图像分辨率裁剪为480*640;
将标识路径图像的第19行至459行,第239列至399列设置为感兴趣区域;通过阈值分割将感兴趣区域标识路径分割出来;
遍历感兴趣区域中的每一行,寻找出该行最左边与最右边的白色像素点,并计算其中点;
对于所有的中点,每隔2°画出一条直线,每个中点画出180条直线,计算出所有直线的角度和距离,其中直线使用如下的参数方程表示:
ρ=x.cosθ+ysinθ (1)
其中ρ代表直线到原点的垂直距离,θ代表x轴到直线垂线的角度,取值范围为±90°;利用公式(1)对参数空间离散化,设置累加器并形成累加器阵列,对可能通过空间位置(x,y)的直线相对应的所有累加器进行累加求和;
统计直线中具有相同角度和距离的条数;
找出统计出的条数最多的直线对应的角度和距离,将找出的角度和距离作为巡检机器人的运动角度与横向偏差。
优选地,固定在巡检机器人正前方的深度摄像头检测前方障碍物的距离包括:深度摄像头拍摄巡检机器人前方区域的原始图片,将原始图片分辨率裁剪为240*320,并将原始图片中的第0行至239行,第119列至199 列提取为感兴趣区域,将感兴趣区域的深度图转换为真实点云图,以点云图中的深度信息为阈值分割出感兴趣区域中的障碍物,计算巡检机器人和障碍物之间的距离。
优选地,神经网络有4层,分别是输入层、隐含层1、隐含层2、输出层,其中输入层有8个节点,隐含层1及隐含层2均有10个节点,输出层是两个导航参数节点,分别是巡检机器人左右电机的PWM控制值;
神经网络训练包括:将当前运动参数d1,Δθ1in,d2,vlin、vrin,d3,Δθ2分别赋值给输入层,神经元(输入层)的输出:x1,x2,x3…x8;d1为深度摄像头检测到的障碍物与巡检机器人的距离,Δθ1为IMU模块检测到的巡检机器人航向角度偏差,θin、d2分别为编码器检测到的巡检机器人的运行角度及运行距离,vlin、vrin分别为霍尔传感器检测到的当前巡检机器人的左右电机运动速度,d3、Δθ2分别为图像采集与处理模块检测的巡检机器人的横向偏差与角度偏差;
隐含层1各神经元的输入为:
Figure BDA0002643370340000051
其中Wij为隐含层1神经元j与输入层神经元i的连接权值,λj为隐含层1各神经元的阈值;隐含层1神经元的激活函数为Sigmoid函数,隐含层1神经元的输出为:
Figure BDA0002643370340000052
隐含层2各神经元输入为:
Figure BDA0002643370340000053
其中Wjk为隐含层2神经元k与隐含层1输出j的连接权值,
Figure BDA0002643370340000054
为隐含层2各神经元的阈值;2神经元的激活函数为Sigmoid函数,隐含层2 神经元的输出为:
Figure BDA0002643370340000061
输出层神经元的输出为:
Figure BDA0002643370340000062
其中Wkz为输出层神经元z与隐含层2输出k的连接权值,y1,y2,y3分别赋值给θout、vlout与vrout。θout、vlout、与vrout分别为巡检机器人下一单位采样时间的航向角度、左电机运动速度及右电机运动速度,,也是最终的三个导航参数。
与现有技术相比,本发明的有益效果在于:
本发明提供的一种基于BP神经网络的畜禽养殖场巡检机器人导航参数获取方法,相比于当前现有的导航参数获取方法,能实时获取高精度的导航参数,并对运动过程中的巡检机器人的位姿进行校正,实现精准、稳定导航的目的。
附图说明
图1为本发明一种畜禽养殖场巡检机器人的位姿校正方法的示意性流程图。
图2为本发明一种畜禽养殖场巡检机器人的位姿校正方法的BP网络示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例
如图1所示,本发明提出一种畜禽养殖场巡检机器人的位姿校正方法,相比于当前现有的导航参数获取方法,从而获取高精度的导航参数,能实时对运动过程中的巡检机器人的位姿进行校正,实现精准、稳定导航的目的,包括以下步骤:
最优路径规划:在预先构建的路径规划表中,结合巡检机器人在畜禽养殖场待行走的起点和终点的QR二维码规划出巡检机器人的最优路径;其中,预先构建路径规划表包括:在畜禽养殖场的地面人工铺设标识路径,并在标识路径上以相同的间隔距离的位置上设置QR二维码,QR二维码中存有ID号信息和对应的动作指令;根据所述有的ID号以及实际道路状况采用A*算法,构建完整的路径规划表;路径规划表中包括畜禽养殖场所有的从起点到终点的路径及其对应的路径信息,对应的路径信息包括起点,中间所有经过的点、终点,以及每个点位置的动作指令。也就是说,路径规划表保存所有采用A*算法计算出所有的从起点到终点的路径。在实际运用时,输入起点和终点,就会调用路径规划表里边的路径,这个路径包括了起点,中间所有经过的点、终点,以及每个点位置的动作指令,例如向左、向右,调头、直行。
最优路径规划还包括:根据待行走的起点、终点的ID号,在预先构建的路径规划表中进行查询,将查询结果作为巡检机器人的最优路径;最优路径包括待行走起始点以及中间所经过的所有位置点的QR二维码ID号以及该位置的动作指令。
数据采集模块:当前采样时间时刻,固定在巡检机器人正前方的深度摄像头检测前方障碍物的距离,置于机器人本体上的IMU模块检测机器人本体的航向角度偏差,与左右驱动轮同轴的电机自带霍尔传感器获取当前采样时刻机器人的运动速度,与左右驱动轮同轴编码器获取机器人的航向角度以及行驶里程,安装在巡检机器人前方的图像采集与处理模块获取巡检机器人运行的路径航向角度偏差以及横向偏差。
具体地,深度摄像头获取的原始图片分辨率裁剪为240*320,并将图像中的第0行至239行,第119列至199列提取为感兴趣区域。将感兴趣区域的深度图转换为真实点云图,单位为毫米。以点云图中的深度信息为阈值分割出感兴趣区域中的障碍物。
具体地,记录下IMU模块在初始运动时的航向角度值,在运动过程中,记录当前时刻的航向角度值,并与前一时刻的航向角度值相减得到航向角度偏差值。
具体地,巡检机器人的左右驱动轮电机末端均装有霍尔传感器和编码器,且将左右电机设置为转速大小一样,直线运动时方向一样,转弯运动时方向相反。
具体地,通过左右驱动轮的霍尔传感器获取的左右轮转速,计算出巡检机器人当前采样时刻的运动速度。
具体地,通过获取左右编码器的输出脉冲数,计算出电机的角速度及转速,进而计算出巡检机器人当前采样时刻的航向角度以及移动里程。
在本实施例,图像采集与处理模块为CCD普通摄像头与工控机。通过图像处理获取巡检机器人当前的路径航向角度偏差以及横向距离偏差,具体步骤如下:
S1:CCD普通摄像头获取原始图片(标识路径图像),并将图片分辨率裁剪为480*640;
S2:将图片的第19行至459行,第239列至399列设置为感兴趣区域;
S3:通过阈值分割将感兴趣区域标识路径分割出来;
S4:遍历感兴趣区域中的每一行,寻找出该行最左边与最右边的白色像素点,并计算其中点;
S5:对于所有的中点,每隔2°画出一条直线,每个中点就可以画出180条直线,计算出所有直线的的角度和距离,其中直线是使用如下的参数方程表示:
ρ=xcosθ+ysinθ
其中ρ代表直线到原点的垂直距离,θ代表x轴到直线垂线的角度,取值范围为±90°。利用该公式对参数空间离散化,设置累加器并形成累加器阵列,对可能通过空间位置(x,y)的直线相对应的所有累加器进行累加求和。
S6:统计直线中具有相同角度和距离的条数;
S7:找出统计出的条数最多的直线对应的角度和距离,将找出的角度和距离作为巡检机器人的运动角度与横向偏差。
神经网络训练:将各个传感器获取的参数输入BP神经网络中进行训练,获取高精度的导航参数,具体如图2所示。
其中,BP神经网络包含一个含有8个节点的输入层,一个包含10个节点的隐含层1,一个包含10个节点的隐含层2和一个包含两个节点的输出层。如图2所示,神经网络训练包括:
将当前运动参数d1,Δθ1in,d2,vlin、vrin,d3,Δθ2分别赋值给输入层,神经元(输入层)的输出:x1,x2,x3…x8。d1为深度摄像头检测到的障碍物与巡检机器人的距离,Δθ1为IMU模块检测到的巡检机器人航向角度偏差,θin、d2分别为编码器检测到的巡检机器人的运行角度及运行距离,vlin、vrin分别为霍尔传感器检测到的当前巡检机器人的左右电机运动速度,d3、Δθ2分别为图像采集与处理模块检测的巡检机器人的横向距离偏差与航向角度偏差。
隐含层1各神经元的输入为:
Figure BDA0002643370340000101
其中Wij为隐含层1神经元j与输入层神经元i的连接权值,λj为隐含层1各神经元的阈值。隐含层1神经元的激活函数为Sigmoid函数,隐含层1神经元的输出为:
Figure BDA0002643370340000102
隐含层2各神经元输入为:
Figure BDA0002643370340000103
其中Wjk为隐含层2神经元k与隐含层1输出j的连接权值,
Figure BDA0002643370340000105
为隐含层2各神经元的阈值。隐含层2神经元的激活函数为Sigmoid函数,隐含层2神经元的输出为:
Figure BDA0002643370340000104
输出层神经元的输出为:
Figure BDA0002643370340000111
其中Wkz为输出层神经元z与隐含层2输出k的连接权值,y1,y2,y3分别赋值给θout、vlout与vrout。θout、vlout、与vrout分别为巡检机器人下一采样时刻预测的航向角度、左电机运动速度及右电机运动速度,,也是最终的三个导航参数。
隐含层2中的连接权值更新与隐含层1的算法是一样的。向量W为隐含层1神经元与输入层神经元的连接权值Wij,ΔW为W的修正值,tz为评价期望值。
BP神经网络的偏差函数如下:
Figure BDA0002643370340000112
根据偏差函数计算W的修正值,其中η为学习率:
Figure BDA0002643370340000113
修正后的W值:
W=W+ΔW
评价期望值的初始值tz设定为0,学习率η为0.015,训练次数为5000 次。
综上,本发明提供的一种基于BP神经网络的畜禽养殖场巡检机器人导航参数获取方法,相比于当前现有的导航参数获取方法,能实时对运动过程中的巡检机器人的位姿进行校正,从而获取高精度的导航参数,实现精准、稳定导航的目的。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种畜禽养殖场巡检机器人的位姿校正方法,其特征在于,包括:
最优路径规划:在预先构建的路径规划表中,结合巡检机器人在畜禽养殖场待行走的起点和终点的QR二维码规划出巡检机器人的最优路径;
参数采集:检测巡检机器人的当前采样时刻运动参数,包括前方障碍物的距离、移动距离、航向角度及其偏差、横向距离偏差、运动速度、;
神经网络训练:将当前采样时刻运动参数输入BP神经网络中进行训练,获取高精度的导航参数;
位姿校正:根据导航参数对运动过程中的巡检机器人的位姿进行校正。
2.根据权利要求1所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,预先构建路径规划表包括:
在畜禽养殖场的地面人工铺设标识路径,并在标识路径上以相同的间隔距离的位置上设置QR二维码,QR二维码中存有ID号信息和对应的动作指令;
根据所述有的ID号以及实际道路状况采用A*算法,构建完整的路径规划表;路径规划表中包括畜禽养殖场所有的从起点到终点的路径及其对应的路径信息,对应的路径信息包括起点,中间所有经过的点、终点,以及每个点位置的动作指令。
3.根据权利要求2所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,最优路径规划还包括:根据待行走的起点、终点的ID号,在预先构建的路径规划表中进行查询,将查询结果作为巡检机器人的最优路径;最优路径包括待行走起始点以及中间所经过的所有位置点的QR二维码ID号以及该位置的动作指令。
4.根据权利要求1所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,参数采集还包括:
当前采样时刻前方障碍物的距离,巡检机器人的移动距离、航向角度及其偏差、横向距离偏差、运动速度。其中航向角度偏差有两个:置于移动机器人本体上的IMU模块获取的航向角度偏差以及从采集图像中路径算出来的航向角度偏差。
5.根据权利要求4所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,IMU模块检测机器人的航向角度偏差包括:
IMU模块检测巡检机器人的当前采样时刻的航向角,将当前单位采样时刻的航向角与上一单位采样时刻的航向角相减得到航向角偏差,其中偏差为正时机器向左偏,偏差为负时机器人向右偏,其中IMU模块水平固定在巡检机器人内部。
6.根据权利要求4所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,与左右驱动轮电机各自同轴的二个霍尔传感器分别检测当前采样时刻机器人左右二个驱动轮脉冲数测出转速,有该左右轮转速推算出巡检机器人当前的运动速度。
7.根据权利要求4所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,与左右驱动轮电机各自同轴的二个编码器分别检测左右电机驱动轮的输出脉冲数,计算出电机驱动轮运动角度及转速,进而计算出采样时刻巡检机器人在航向上的航向角以及该角度方向上的移动距离,以此确定巡检机器人移动的里程和方向角。
8.根据权利要求4所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,安装在巡检机器人前方的图像采集与处理模块获取巡检机器人运行的路径航向角度偏差以及横向距离偏差包括:
CCD摄像头拍摄铺设在地面上的标识路径图像,其中图像采集与处理模块中的CCD摄像头以俯角45度安装在巡检机器人的前方;
图像采集与处理模块中的工控机调用OpenCV库函数,对拍摄的标识路径图像进行处理,并计算出其航向角度偏差及横向距离偏差;
其中,工控机调用OpenCV库函数,对拍摄的标识路径图像进行处理,并计算出其航向角度偏差及横向距离偏差的具体步骤为:
将标识路径图像分辨率裁剪为480*640;
将标识路径图像的第19行至459行,第239列至399列设置为感兴趣区域;通过阈值分割将感兴趣区域标识路径分割出来;
遍历感兴趣区域中的每一行,寻找出该行最左边与最右边的白色像素点,并计算其中点;
对于所有的中点,每隔2°画出一条直线,每个中点画出180条直线,计算出所有直线的角度和距离,其中直线使用如下的参数方程表示:
ρ=xcosθ+ysinθ (1)
其中ρ代表直线到原点的垂直距离,θ代表x轴到直线垂线的角度,取值范围为±90°;利用公式(1)对参数空间离散化,设置累加器并形成累加器阵列,对可能通过空间位置(x,y)的直线相对应的所有累加器进行累加求和;
统计直线中具有相同角度和距离的条数;
找出统计出的条数最多的直线对应的角度和距离,将找出的角度和距离作为巡检机器人的运动角度与横向偏差。
9.根据权利要求4所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,固定在巡检机器人正前方的深度摄像头检测前方障碍物的距离包括:
深度摄像头拍摄巡检机器人前方区域的原始图片,将原始图片分辨率裁剪为240*320,并将原始图片中的第0行至239行,第119列至199列提取为感兴趣区域,将感兴趣区域的深度图转换为真实点云图,以点云图中的深度信息为阈值分割出感兴趣区域中的障碍物,计算巡检机器人和障碍物之间的距离。
10.根据权利要求1所述的畜禽养殖场巡检机器人的位姿校正方法,其特征在于,神经网络有4层,分别是输入层、隐含层1、隐含层2、输出层,其中输入层有8个节点,隐含层1及隐含层2均有10个节点,输出层是两个导航参数节点,分别是巡检机器人左右电机的PWM控制值;
神经网络训练包括:
将当前运动参数d1,Δθ1in,d2,vlin、vrin,d3,Δθ2分别赋值给输入层,神经元的输出:x1,x2,x3…x8;d1为深度摄像头检测到的障碍物与巡检机器人的距离,Δθ1为IMU模块检测到的巡检机器人航向角度偏差,θin、d2分别为编码器检测到的当前采样时刻巡检机器人的航向角度及移动距离,vlin、vrin分别为霍尔传感器检测到的当前巡检机器人的左右电机运动速度,d3、Δθ2分别为图像采集与处理模块检测的巡检机器人的横向距离偏差与航向角度偏差;
隐含层1各神经元的输入为:
Figure FDA0002643370330000041
其中Wij为隐含层1神经元j与输入层神经元i的连接权值,λj为隐含层1各神经元的阈值;隐含层1神经元的激活函数为Sigmoid函数,隐含层1神经元的输出为:
Figure FDA0002643370330000051
隐含层2各神经元输入为:
Figure FDA0002643370330000052
其中Wjk为隐含层2神经元k与隐含层1输出j的连接权值,
Figure FDA0002643370330000055
为隐含层2各神经元的阈值;隐含层2神经元的激活函数为Sigmoid函数,隐含层2神经元的输出为:
Figure FDA0002643370330000053
输出层神经元的输出为:
Figure FDA0002643370330000054
其中Wkz为输出层神经元z与隐含层2输出k的连接权值,y1,y2,y3分别赋值给θout、vlout、与vrout;θout、vlout、与vrout分别为巡检机器人下一采样时刻的航向角度、左电机运动速度及右电机运动速度,也是最终的三个导航参数。
CN202010846937.6A 2020-08-21 2020-08-21 一种畜禽养殖场巡检机器人的位姿校正方法 Pending CN112113568A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010846937.6A CN112113568A (zh) 2020-08-21 2020-08-21 一种畜禽养殖场巡检机器人的位姿校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010846937.6A CN112113568A (zh) 2020-08-21 2020-08-21 一种畜禽养殖场巡检机器人的位姿校正方法

Publications (1)

Publication Number Publication Date
CN112113568A true CN112113568A (zh) 2020-12-22

Family

ID=73804276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010846937.6A Pending CN112113568A (zh) 2020-08-21 2020-08-21 一种畜禽养殖场巡检机器人的位姿校正方法

Country Status (1)

Country Link
CN (1) CN112113568A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113203419A (zh) * 2021-04-25 2021-08-03 重庆大学 基于神经网络的室内巡检机器人校正定位方法
CN114115242A (zh) * 2021-11-05 2022-03-01 江苏昱博自动化设备有限公司 一种仓储搬运机器人的自学定位控制方法
CN114639163A (zh) * 2022-02-25 2022-06-17 纯米科技(上海)股份有限公司 行走程序的打分方法、***、电子装置及存储介质
CN115328135A (zh) * 2022-08-16 2022-11-11 上海联适导航技术股份有限公司 划线机器人校准及划线方法、装置、电子设备及划线机器人
CN116476099A (zh) * 2023-06-21 2023-07-25 中数智科(杭州)科技有限公司 一种列车巡检机器人控制***
CN116700297A (zh) * 2023-07-31 2023-09-05 北京市农林科学院智能装备技术研究中心 基于畜舍作业机器人的自主导航控制***和控制方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101078935A (zh) * 2007-06-28 2007-11-28 华南农业大学 基于神经网络的农业机械路径跟踪控制方法
CN104067781A (zh) * 2014-06-16 2014-10-01 华南农业大学 基于虚拟机器人与真实机器人集成的采摘***及方法
CN108592906A (zh) * 2018-03-30 2018-09-28 合肥工业大学 基于二维码和惯性传感器的agv复合导航方法
CN109202885A (zh) * 2017-06-30 2019-01-15 沈阳新松机器人自动化股份有限公司 一种物料搬运移动复合机器人
CN109460029A (zh) * 2018-11-29 2019-03-12 华南农业大学 畜禽养殖场所巡检移动平台及其控制方法
CN109919026A (zh) * 2019-01-30 2019-06-21 华南理工大学 一种水面无人艇局部路径规划方法
CN109977813A (zh) * 2019-03-13 2019-07-05 山东沐点智能科技有限公司 一种基于深度学习框架的巡检机器人目标定位方法
CN110703777A (zh) * 2019-09-25 2020-01-17 江苏大学 一种基于北斗和视觉的联合收获机组合导航方法及导航***
CN111381604A (zh) * 2020-04-30 2020-07-07 北京无线电计量测试研究所 用于拦截自主飞行低慢小目标的欺骗轨迹生成方法及***
CN111522339A (zh) * 2020-04-20 2020-08-11 北京农业信息技术研究中心 畜禽舍巡检机器人自动路径规划与定位方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101078935A (zh) * 2007-06-28 2007-11-28 华南农业大学 基于神经网络的农业机械路径跟踪控制方法
CN104067781A (zh) * 2014-06-16 2014-10-01 华南农业大学 基于虚拟机器人与真实机器人集成的采摘***及方法
CN109202885A (zh) * 2017-06-30 2019-01-15 沈阳新松机器人自动化股份有限公司 一种物料搬运移动复合机器人
CN108592906A (zh) * 2018-03-30 2018-09-28 合肥工业大学 基于二维码和惯性传感器的agv复合导航方法
CN109460029A (zh) * 2018-11-29 2019-03-12 华南农业大学 畜禽养殖场所巡检移动平台及其控制方法
CN109919026A (zh) * 2019-01-30 2019-06-21 华南理工大学 一种水面无人艇局部路径规划方法
CN109977813A (zh) * 2019-03-13 2019-07-05 山东沐点智能科技有限公司 一种基于深度学习框架的巡检机器人目标定位方法
CN110703777A (zh) * 2019-09-25 2020-01-17 江苏大学 一种基于北斗和视觉的联合收获机组合导航方法及导航***
CN111522339A (zh) * 2020-04-20 2020-08-11 北京农业信息技术研究中心 畜禽舍巡检机器人自动路径规划与定位方法及装置
CN111381604A (zh) * 2020-04-30 2020-07-07 北京无线电计量测试研究所 用于拦截自主飞行低慢小目标的欺骗轨迹生成方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李慧民,等: "《特种筒仓结构施工关键技术及安全控制》" *
金立生,等: "智能车辆自主导航神经网络控制器设计", 《农业机械学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113203419A (zh) * 2021-04-25 2021-08-03 重庆大学 基于神经网络的室内巡检机器人校正定位方法
CN113203419B (zh) * 2021-04-25 2023-11-10 重庆大学 基于神经网络的室内巡检机器人校正定位方法
CN114115242A (zh) * 2021-11-05 2022-03-01 江苏昱博自动化设备有限公司 一种仓储搬运机器人的自学定位控制方法
CN114115242B (zh) * 2021-11-05 2023-06-20 江苏昱博自动化设备有限公司 一种仓储搬运机器人的自学定位控制方法
CN114639163A (zh) * 2022-02-25 2022-06-17 纯米科技(上海)股份有限公司 行走程序的打分方法、***、电子装置及存储介质
CN114639163B (zh) * 2022-02-25 2024-06-07 纯米科技(上海)股份有限公司 行走程序的打分方法、***、电子装置及存储介质
CN115328135A (zh) * 2022-08-16 2022-11-11 上海联适导航技术股份有限公司 划线机器人校准及划线方法、装置、电子设备及划线机器人
CN116476099A (zh) * 2023-06-21 2023-07-25 中数智科(杭州)科技有限公司 一种列车巡检机器人控制***
CN116476099B (zh) * 2023-06-21 2023-08-29 中数智科(杭州)科技有限公司 一种列车巡检机器人控制***
CN116700297A (zh) * 2023-07-31 2023-09-05 北京市农林科学院智能装备技术研究中心 基于畜舍作业机器人的自主导航控制***和控制方法
CN116700297B (zh) * 2023-07-31 2023-10-27 北京市农林科学院智能装备技术研究中心 基于畜舍作业机器人的自主导航控制***和控制方法

Similar Documents

Publication Publication Date Title
CN112113568A (zh) 一种畜禽养殖场巡检机器人的位姿校正方法
CN108536149B (zh) 一种基于Dubins路径的无人驾驶车辆避障控制方法
US10859684B1 (en) Method and system for camera-lidar calibration
CN107246876B (zh) 一种无人驾驶汽车自主定位与地图构建的方法及***
CN114384920A (zh) 一种基于局部栅格地图实时构建的动态避障方法
CN105116902A (zh) 一种移动机器人避障导航的方法和***
CN110263607B (zh) 一种用于无人驾驶的道路级全局环境地图生成方法
CN110243380A (zh) 一种基于多传感器数据与角度特征识别的地图匹配方法
CN113942524B (zh) 一种车辆行驶控制方法、***及计算机可读存储介质
Agnihotri et al. A convolutional neural network approach towards self-driving cars
CN112347205B (zh) 一种车辆误差状态的更新方法和装置
US11189049B1 (en) Vehicle neural network perception and localization
Kellner et al. Road curb detection based on different elevation mapping techniques
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
CN115690338A (zh) 地图构建方法、装置、设备及存储介质
CN114353807B (zh) 一种机器人的定位方法及定位装置
CN113252051A (zh) 一种地图构建方法及装置
Kellner et al. Multi-cue, model-based detection and mapping of road curb features using stereo vision
CN112967316B (zh) 一种面向3d多目标追踪的运动补偿优化方法及***
US11467592B2 (en) Route determination method
CN208061025U (zh) 一种基于Dubins路径的无人驾驶车辆避障控制装置
CN114279452B (zh) 无人集卡挂车姿态检测方法及检测***
CN115755888A (zh) 多传感器数据融合的agv障碍物检测***及避障方法
US11887317B2 (en) Object trajectory forecasting
Ju et al. Learning scene adaptive covariance error model of LiDAR scan matching for fusion based localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201222

RJ01 Rejection of invention patent application after publication