CN103885449B - 基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法 - Google Patents
基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法 Download PDFInfo
- Publication number
- CN103885449B CN103885449B CN201410136228.3A CN201410136228A CN103885449B CN 103885449 B CN103885449 B CN 103885449B CN 201410136228 A CN201410136228 A CN 201410136228A CN 103885449 B CN103885449 B CN 103885449B
- Authority
- CN
- China
- Prior art keywords
- robot body
- control terminal
- control
- adapter
- wheel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
基于多传感器的智能视觉跟踪轮式机器人及其控制方法,包括机器人本体和机器人控制台;机器人本体包括四轮驱动车底盘、摄像头、车灯、通信模块、控制模块、传感器模块和动力模块;传感器模块包括温度传感器、烟雾传感器、光线传感器和测距传感器;动力模块包括直流马达、双自由度舵机云台和前轮转向舵机;通信模块包括机身Wi-Fi适配器和机身ZigBee适配器;机器人控制台包括内置有Wi-Fi适配器的控制终端和控制终端ZigBee适配器;控制终端的Wi-Fi适配器与机身Wi-Fi适配器建立无线通信,控制终端ZigBee适配器与机身ZigBee适配器建立无线通信。本发明实现对动态目标的动态跟踪,实现多传感器智能视觉跟踪,同时采用Wi-Fi信道与ZigBee信道,使视频数据传输与命令通信分开。
Description
技术领域
本发明涉及人工智能机器人视觉领域,具体涉及一种基于多传感器的智能视觉跟踪轮式机器人及其控制方法。
背景技术
机器人下位机的由ArduinoRomeoV2控制板实现对接收到的指令进行转化处理,并对动力***与传感器进行控制,机器人上位机利用CamShift跟踪算法对视觉窗口中选定的目标进行跟踪,CamShift跟踪算法利用目标的颜色直方图模型将图像转换为颜色概率分布图,初始化一个搜索窗的大小和位置,并根据上一帧得到的结果自适应调整搜索窗口的位置和大小,从而定位出当前图像中目标的中心位置,算法共分为三个部分:1)色彩投影图(反向投影),将RGB颜色空间对光照亮度变化较为敏感,为了减少此变化对跟踪效果的影响,首先将图像从RGB空间转换到HSV空间;然后对其中的H分量作直方图,在直方图中代表了不同H分量值出现的概率或者像素个数,就是说可以查找出H分量大小为h的概率或者像素个数,即得到了颜色概率查找表;将图像中每个像素的值用其颜色出现的概率对替换,就得到了颜色概率分布图。这个过程就叫反向投影,颜色概率分布图是一个灰度图像;2)MeanShift算法是一种密度函数梯度估计的非参数方法,通过迭代寻优找到概率分布的极值来定位目标;3)将MeanShift算法扩展到连续图像序列,就是CamShift算法,它将视频中的所有帧进行MeanShift运算,并将上一帧的结果,即搜索窗的大小和中心,作为下一帧MeanShift算法搜索窗的初始值,如此迭代下去,就可以实现对目标的跟踪,CamShift算法虽然解决了图像上目标跟踪的问题,但是在智能跟踪机器人的视线内并不能准确判断跟踪目标的远近,因而在实际跟踪过程中跟踪效果不好。
发明内容
针对现有技术存在的问题,本发明提供一种基于多传感器的智能视觉跟踪轮式机器人及其控制方法。
本发明的技术方案是:
一种基于多传感器的智能视觉跟踪轮式机器人,包括机器人本体和机器人控制台;
所述机器人本体包括四轮驱动车底盘、摄像头、车灯、通信模块、控制模块、传感器模块和动力模块;所述车灯、通信模块、控制模块、传感器模块和动力模块均设置在四轮驱动车底盘上;
所述传感器模块包括温度传感器、烟雾传感器、光线传感器和测距传感器;温度传感器的输出端、烟雾传感器的输出端、光线传感器的输出端分别连接控制模块的不同模拟信号接口;测距传感器的输出端连接控制模块的数字信号接口;
所述动力模块包括直流马达、双自由度舵机云台和前轮转向舵机;双自由度舵机云台顶端安装摄像头,直流马达、双自由度舵机云台和前轮转向舵机的信号输入端连接控制模块的数字信号接口,前轮转向舵机连接四轮驱动车底盘的前轮;
所述通信模块包括机身Wi-Fi适配器和机身ZigBee适配器;机身Wi-Fi适配器和机身ZigBee适配器分别与控制模块连接,机身Wi-Fi适配器还与摄像头的输出端连接;
所述机器人控制台包括内置有Wi-Fi适配器的控制终端和控制终端ZigBee适配器;所述控制终端ZigBee适配器与控制终端相连,控制终端的Wi-Fi适配器与机身Wi-Fi适配器建立无线通信,控制终端ZigBee适配器与机身ZigBee适配器建立无线通信。
所述控制模块与直流马达之间连接有马达电子调速器。
所述的基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法,包括以下步骤,
步骤1:摄像头采集的视频数据经机身Wi-Fi适配器发送到内置有Wi-Fi适配器的控制终端,视频数据实时显示到控制终端的显示器上;
步骤2:温度传感器、烟雾传感器、光线传感器和距离传感器分别实时采集温度信息、气体浓度信息、环境亮度信息及目标距离信息;
步骤3:控制终端ZigBee适配器与机身ZigBee适配器进行点对点无线通信,传送采集到的温度信息、气体浓度信息、环境亮度信息及目标距离信息;
步骤4:通过控制终端选定跟踪目标和视觉跟踪区域,利用CamShift算法提取当前帧图像中的目标特征,并记录目标特征、当前帧图像的中心在视觉跟踪区域的位置坐标以及测距传感器采集的当前跟踪目标与机器人本体间的距离信息;
步骤5:控制双自由度舵机云台向上或向下运动以将跟踪目标调整至视觉跟踪区域的中心位置;
步骤6:机器人本体运动过程中对跟踪目标进行距离跟踪和视觉跟踪:控制终端根据距离跟踪向机器人本体发送前进、后退或停止指令;控制终端根据视觉跟踪向机器人本体发送左转、右转或转正指令;
机器人本体运动过程中对机器人本体进行距离跟踪的步骤如下:
1)记录选定跟踪目标时刻机器人本体与跟踪目标的距离D0,并设定最小移动距离,即跟踪目标至少最小移动距离S,机器人本体才进行跟踪;
2)记录当前时刻机器人本体与跟踪目标的距离Dn,若Dn>D0+S,则控制终端向机器人本体发送前进指令,控制模块接收该指令并下发至直流马达控制机器人本体前进,若Dn<D0-S,则控制终端向机器人本体发送后退指令,控制模块接收该指令并下发至直流马达控制机器人本体后退,否则,停止运动;
机器人本体运动过程中对机器人本体进行视觉跟踪的步骤如下:
1)利用前一帧图像的目标特征与摄像头采集的当前帧图像进行匹配,确定跟踪目标在当前帧图像中的位置,并重新确定视觉跟踪区域;
2)将视觉跟踪区域分为左转、转正、右转三个区域,控制终端根据跟踪目标所处区域及运动状态发出控制命令;
当跟踪目标位置处于左转区域且机器人本体处于前进状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于左转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
当跟踪目标位置处于左转区域且机器人本体处于停止状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于转正区域且机器人本体处于前进、后退或停止状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送转正命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮转正;
当跟踪目标位置处于右转区域且机器人本体处于前进状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
当跟踪目标位置处于右转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于右转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
步骤7:控制台是否发出停止对跟踪目标的视觉跟踪及距离跟踪的指令,如果是,结束跟踪,否则重复执行步骤4至步骤6。
本发明的有益效果:本发明实现对动态目标的动态跟踪,并结合目标距离和视频信息实现多传感器智能视觉跟踪,使跟踪更加灵敏、准确;同时采用Wi-Fi信道与ZigBee信道,使视频数据传输与命令通信分开,既利用了Wi-Fi信道数据传输速率高、ZigBee信道数据传输距离远的优点又避免了Wi-Fi使用的Socket通信同一时间只能单向传输、ZigBee传输速率低,无法传输图像数据的缺点;并且解决了传统轮式机器人只能以轮速差原地转向的问题,通过前驱转向舵机实现行进中自由转向功能;本发明实现了视觉实时传输、遥控行进、动态目标跟踪、环境监测和环境拍照等高难度功能,是智能交通实现智能跟踪、驾驶必不可少的组成部分,应用前景较为广泛。
附图说明
图1是本发明具体实施方式的基于多传感器的智能视觉跟踪轮式机器人结构框图;
图2是本发明具体实施方式的TTL与MicroUSB端口连接示意图;
图3是本发明具体实施方式的USB转TTL电路原理图;
图4是本发明具体实施方式的控制模块控制直流马达信号转换示意图;
图5是本发明具体实施方式的基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法流程图;
图6是本发明具体实施方式的机器人本体运动过程中对机器人本体进行距离跟踪的流程图;
图7是本发明具体实施方式的跟踪区域划分示意图;
图8是本发明具体实施方式的控制模块及其***电路连接示意图;
图9是本发明具体实施方式的多线程处理示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做详细说明。
基于多传感器的智能视觉跟踪轮式机器人,包括机器人本体和机器人控制台。
如图1所示,机器人本体包括四轮驱动车底盘、摄像头、车灯、通信模块、控制模块、传感器模块和动力模块;车灯采用LED灯,摄像头选用天敏S607,控制模块选用ArduinoRomeoV2,芯片型号为ARMEGA32U4,该控制芯片及其***电路连接如图8所示;车灯、通信模块、控制模块、传感器模块和动力模块均设置在四轮驱动车底盘上。
传感器模块包括温度传感器、烟雾传感器、光线传感器和测距传感器;温度传感器的型号为LM35,烟雾传感器采用型号为MQ2的烟雾传感器,光线传感器采用光敏电阻,测距传感器型号为ArduinoURM37V3.2。温度传感器的输出端、烟雾传感器的输出端、光线传感器的输出端分别连接控制模块的不同模拟信号接口;测距传感器的输出端连接控制模块的数字信号接口。
动力模块包括直流马达、双自由度舵机云台和前轮转向舵机;直流马达选用型号为RC380的高速直流马达,前轮转向舵机型号为MG995,双自由度舵机云台的舵机采用MG995舵机;双自由度舵机云台顶端安装摄像头,前轮转向舵机连接四轮驱动车底盘的前轮。控制模块与直流马达之间连接马达电子调速器,马达电子调速器的信号接收引脚与控制模块的数字信号输出引脚相连接,利用控制模块的数字信号模拟出PWM脉冲信号发送给电子调速器来控制向直流马达发出的电流大小,以此来控制直流马达转速,原理如图4所示。
双自由度舵机云台为摄像头提供了广阔的视角范围,左右可在180度范围内自由调节,上下仰俯角的自由度也能达到135度,所以摄像头的视角范围可以完全覆盖前方180度半球范围;前驱转向舵机是智能跟踪机器人转向动力***,通过主控板的控制下其左右最大转向角度为45度,可以像真实的机动车一样在行进的过程中自由、灵活地转向。
通信模块包括机身Wi-Fi适配器和机身ZigBee适配器;机身Wi-Fi适配器由TP-LINKTL-WR703N改装:将TTL与MicroUSB端口连接,使TP-LINKTL-WR703N路由器能通过MicroUSB端口收发TTL数据,原理如图2所示,USB转TTL电路原理如图3所示。机身Wi-Fi适配器和机身ZigBee适配器分别与控制模块连接,机身Wi-Fi适配器还与摄像头的输出端连接。
机器人控制台包括内置有Wi-Fi适配器的控制终端和控制终端ZigBee适配器;所述控制终端ZigBee适配器与控制终端相连,控制终端的Wi-Fi适配器与机身Wi-Fi适配器建立无线通信,控制终端ZigBee适配器与机身ZigBee适配器建立无线通信。
基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法,如图5所示,包括以下步骤,
步骤1:摄像头以每秒20帧采集像素为640*480的视频数据,经机身Wi-Fi适配器发送到内置有Wi-Fi适配器的控制终端,视频数据实时显示到控制终端的显示器上;
步骤2:温度传感器、烟雾传感器、光线传感器和距离传感器分别实时采集温度信息、气体浓度信息、环境亮度信息及目标距离信息;
步骤3:控制终端ZigBee适配器与机身ZigBee适配器进行点对点无线通信,传送采集到的温度信息、气体信息、环境亮度信息及目标距离信息;
数字/模拟传感器通过导线连接控制模块的数字/模拟接口,控制模块将传感器发回来的数字/模拟信号转化成TTL信号通过机身ZigBee模块发送给控制终端ZigBee模块,控制终端通过解析数据获取传感器信息。
步骤4:控制终端根据采集到气体浓度信息实时判断环境中的易燃气体,当检测到易燃气体时控制终端在其显示器上进行报警显示;根据采集到的实时环境亮度信息判断是否打开车灯,当环境亮度低于最低设定亮度值时,车灯打开;
易燃气体的浓度如下:
将探测到的气体浓度信号转化为数字信号(0~1023),当数字信号大于100时就报警,显示发现有毒气体。
光敏电阻应用照度范围1~6000LUX转化成(0~1023)的数字信号,当门限信号大于500时,开启灯光照射。
步骤5:通过控制终端选定跟踪目标和视觉跟踪区域:利用CamShift算法提取当前帧图像中的目标特征,并记录目标特征、当前帧图像的中心在视觉跟踪区域的位置坐标以及测距传感器采集的当前跟踪目标与机器人本体间的距离信息;
步骤5.1:利用反向投影方法对当前帧图像进行预处理,得到当前帧图像的颜色概率分布图;
步骤5.1.1:将当前帧图像从RGB空间转换到HSV空间;
RGB颜色空间对光照亮度变化较为敏感,为了减少此变化对跟踪效果的影响,需要将图像从RGB空间转换到HSV空间;
步骤5.1.2:对HSV空间的H分量作直方图,直方图代表不同H分量值出现的概率或者像素个数,直方图即颜色概率查找表;
步骤5.1.3:将当前帧图像中每个像素的值用其颜色出现的概率进行替换,得到颜色概率分布图,完成反向投影过程,颜色概率分布图即目标特征;
颜色概率分布图是一个灰度图像;
步骤5.2:根据反向投影得到的颜色概率分布图,算出当前帧图像中的每一个像素点属于跟踪目标的概率值,然后将这些概率值作为权值,利用MeanShift算法进行加权求解,确定视觉跟踪区域;
步骤5.2.1:在颜色概率分布图I(x,y)中,设定初始的搜索点(x0,y0)、窗口半径h以及精度;
步骤5.2.2:对每个以搜索点为中心的搜索窗口,计算该搜索窗口内的颜色概率分布图的一阶矩M10、M01和零阶矩M00;
公式如下:
步骤5.2.3:根据颜色概率分布图的一阶矩M10、M01和零阶矩M00计算搜索窗口的质心坐标(xc,yc)
步骤5.2.4:调整搜索窗口大小,搜索窗的宽度长度为1.2s;
步骤5.2.5:移动搜索窗口的中心到质心,如果搜索窗口的中心与质心间的移动距离大于预设的固定阈值ε=0.1,则重复步骤5.2.2-5.2.4,直到搜索窗口的中心与质心间的移动距离小于预设的固定阈值ε,或者循环运算的次数达到最大次数(10次),则停止计算,此时的搜索窗口即视觉跟踪区域;
步骤5.3:对视频数据中的所有帧图像执行步骤5.2,将前一帧的搜索窗口的大小和中心作为下一帧的搜索窗口的初始值,实现对目标的跟踪;
将MeanShift算法扩展到连续图像序列,就是CamShift算法实现步骤。即CamShift能有效解决目标变形和遮挡的问题,对***资源要求不高,时间复杂度低,在简单背景下能够取得良好的跟踪效果。
步骤6:控制双自由度舵机云台向上或向下运动以将跟踪目标调整至视觉跟踪区域的中心位置;
表1控制指令与收发信号之间的对应关系
命令 | 发送信号类型 | 发送信号内容 | 接收信号器件 |
前进 | PWM | 占空比正向增加 | 电子调速器 |
后退 | PWM | 占空比逆向增加 | 电子调速器 |
左转 | PWM | 占空比正向增加 | 转向舵机 |
右转 | PWM | 占空比逆向增加 | 转向舵机 |
上看 | PWM | 占空比正向增加 | 云台舵机(控制上下) |
下看 | PWM | 占空比逆向增加 | 云台舵机(控制上下) |
左看 | PWM | 占空比正向增加 | 云台舵机(控制左右) |
右看 | PWM | 占空比逆向增加 | 云台舵机(控制左右) |
步骤7:机器人本体运动过程中对跟踪目标进行距离跟踪和视觉跟踪:控制终端根据距离跟踪向机器人本体发送前进、后退或停止指令;控制终端根据视觉跟踪向机器人本体发送左转、右转或转正指令;
机器人本体运动过程中对机器人本体进行距离跟踪的过程如图6所示,具体如下:
1)记录选定跟踪目标时刻机器人本体与跟踪目标的距离D0,并设定最小移动距离,即跟踪目标至少最小移动距离S,机器人本体才进行跟踪;
2)记录当前时刻机器人本体与跟踪目标的距离Dn,若Dn>D0+S,则控制终端向机器人本体发送前进指令,控制模块接收该指令并下发至直流马达控制机器人本体前进,若Dn<D0-S,则控制终端向机器人本体发送后退指令,控制模块接收该指令并下发至直流马达控制机器人本体后退,否则,停止运动;
机器人本体运动过程中对机器人本体进行视觉跟踪,具体如下:
1)利用前一帧图像的目标特征与摄像头采集的当前帧图像进行匹配,确定跟踪目标在当前帧图像中的位置,并重新确定视觉跟踪区域;
2)将视觉跟踪区域分为左转、转正、右转三个区域,如图7所示,其中L为左转区域,M为转正区域,R为右转区域,控制终端根据跟踪目标所处区域及运动状态发出控制命令;
设当前帧图像中的视觉跟踪区域的中心位置可能会落在L、M、R某一区域内,机器人可能的运动状态有三种:F(前进)、B(后退)、P(停止),根据跟踪目标在图像中的不同位置与机器人不同的行进状态,控制终端以表2的方式向机器人发送转弯命令:
表2转弯命令表
当跟踪目标位置处于左转区域且机器人本体处于前进状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于左转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
当跟踪目标位置处于左转区域且机器人本体处于停止状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于转正区域且机器人本体处于前进、后退或停止状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送转正命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮转正;
当跟踪目标位置处于右转区域且机器人本体处于前进状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
当跟踪目标位置处于右转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于右转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
步骤8:控制台是否发出停止对跟踪目标的视觉跟踪及距离跟踪的指令,如果是,结束跟踪,否则重复执行步骤5至步骤7。
环境光线传感器可识别环境光线的强弱,在光线暗时智能跟踪机器人将会自动亮起车灯;
如果环境中含有有毒气体,智能机器人控制台则会显示有毒气体的警告;控制台可以对视觉影像进行拍照,照片可存储在控制台的硬盘内;
如图4所示线程1通过WiFi无线通信获取图像数据,线程2通过ZigBee无线通信获取空间距离信息。
本方法采用图像传感器与距离传感器协同处理,利用计算机多线程技术对多源传感器采集数据信息进行并行处理,如图9所示,线程1通过WiFi无线通信获取图像数据,线程2通过ZigBee无线通信获取空间距离信息,以达到对目标多角度多信息源跟踪的目的。
本发明实现了视觉实时传输、遥控行进、动态目标跟踪、环境监测和环境拍照等高难度功能,是智能交通实现智能跟踪、驾驶必不可少的组成部分,其应用前景较为广泛,例如军事目标侦查、跟踪,对危险车辆跟踪监控,智能跟踪无人驾驶等领域。
Claims (1)
1.一种基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法,所述基于多传感器的智能视觉跟踪轮式机器人,包括机器人本体和机器人控制台;
所述机器人本体包括四轮驱动车底盘、摄像头、车灯、通信模块、控制模块、传感器模块和动力模块;所述车灯、通信模块、控制模块、传感器模块和动力模块均设置在四轮驱动车底盘上;
所述传感器模块包括温度传感器、烟雾传感器、光线传感器和测距传感器;温度传感器的输出端、烟雾传感器的输出端、光线传感器的输出端分别连接控制模块的不同模拟信号接口;测距传感器的输出端连接控制模块的数字信号接口;
所述动力模块包括直流马达、双自由度舵机云台和前轮转向舵机;双自由度舵机云台顶端安装摄像头,直流马达、双自由度舵机云台和前轮转向舵机的信号输入端连接控制模块的数字信号接口,前轮转向舵机连接四轮驱动车底盘的前轮;
所述通信模块包括机身Wi-Fi适配器和机身ZigBee适配器;机身Wi-Fi适配器和机身ZigBee适配器分别与控制模块连接,机身Wi-Fi适配器还与摄像头的输出端连接;
所述机器人控制台包括内置有Wi-Fi适配器的控制终端和控制终端ZigBee适配器;所述控制终端ZigBee适配器与控制终端相连,控制终端的Wi-Fi适配器与机身Wi-Fi适配器建立无线通信,控制终端ZigBee适配器与机身ZigBee适配器建立无线通信;
其特征在于:该控制方法包括以下步骤,
步骤1:摄像头采集的视频数据经机身Wi-Fi适配器发送到内置有Wi-Fi适配器的控制终端,视频数据实时显示到控制终端的显示器上;
步骤2:温度传感器、烟雾传感器、光线传感器和距离传感器分别实时采集温度信息、气体浓度信息、环境亮度信息及目标距离信息;
步骤3:控制终端ZigBee适配器与机身ZigBee适配器进行点对点无线通信,传送采集到的温度信息、气体浓度信息、环境亮度信息及目标距离信息;
步骤4:控制终端根据采集到气体浓度信息实时判断环境中的易燃气体,当检测到易燃气体时控制终端在其显示器上进行报警显示;根据采集到的实时环境亮度信息判断是否打开车灯,当环境亮度低于最低设定亮度值时,车灯打开;
步骤5:通过控制终端选定跟踪目标和视觉跟踪区域,利用CamShift算法提取当前帧图像中的目标特征,并记录目标特征、当前帧图像的中心在视觉跟踪区域的位置坐标以及测距传感器采集的当前跟踪目标与机器人本体间的距离信息;
步骤6:控制双自由度舵机云台向上或向下运动以将跟踪目标调整至视觉跟踪区域的中心位置;
步骤7:机器人本体运动过程中对跟踪目标进行距离跟踪和视觉跟踪:控制终端根据距离跟踪向机器人本体发送前进、后退或停止指令;控制终端根据视觉跟踪向机器人本体发送左转、右转或转正指令;
机器人本体运动过程中对机器人本体进行距离跟踪的步骤如下:
1)记录选定跟踪目标时刻机器人本体与跟踪目标的距离D0,并设定最小移动距离,即跟踪目标的最小移动距离S,机器人本体才进行跟踪;
2)记录当前时刻机器人本体与跟踪目标的距离Dn,若Dn>D0+S,则控制终端向机器人本体发送前进指令,控制模块接收该指令并下发至直流马达控制机器人本体前进,若Dn<D0-S,则控制终端向机器人本体发送后退指令,控制模块接收该指令并下发至直流马达控制机器人本体后退,否则,停止运动;
机器人本体运动过程中对机器人本体进行视觉跟踪的步骤如下:
1)利用前一帧图像的目标特征与摄像头采集的当前帧图像进行匹配,确定跟踪目标在当前帧图像中的位置,并重新确定视觉跟踪区域;
2)将视觉跟踪区域分为左转、转正、右转三个区域,控制终端根据跟踪目标所处区域及运动状态发出控制命令;
当跟踪目标位置处于左转区域且机器人本体处于前进状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于左转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
当跟踪目标位置处于左转区域且机器人本体处于停止状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于转正区域且机器人本体处于前进、后退或停止状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送转正命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮转正;
当跟踪目标位置处于右转区域且机器人本体处于前进状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
当跟踪目标位置处于右转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送左转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向左转向;
当跟踪目标位置处于右转区域且机器人本体处于后退状态时,控制终端通过控制终端ZigBee适配器向机器人本体发送右转命令,机器人本体的控制模块接收该命令并下发至前轮转向舵机控制四轮驱动车底盘上的前轮向右转向;
步骤8:控制台是否发出停止对跟踪目标的视觉跟踪及距离跟踪的指令,如果是,结束跟踪,否则重复执行步骤5至步骤7。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410136228.3A CN103885449B (zh) | 2014-04-04 | 2014-04-04 | 基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410136228.3A CN103885449B (zh) | 2014-04-04 | 2014-04-04 | 基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103885449A CN103885449A (zh) | 2014-06-25 |
CN103885449B true CN103885449B (zh) | 2016-03-23 |
Family
ID=50954397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410136228.3A Active CN103885449B (zh) | 2014-04-04 | 2014-04-04 | 基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103885449B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104089629A (zh) * | 2014-06-30 | 2014-10-08 | 西北农林科技大学 | 一种视觉导航电动车试验平台 |
CN104270563B (zh) * | 2014-08-18 | 2018-02-02 | 吴建民 | 旋翼机辅助手机/平板电脑进行拍照/录像的***和方法 |
CN104869312B (zh) * | 2015-05-22 | 2017-09-29 | 北京橙鑫数据科技有限公司 | 智能跟踪拍摄装置 |
CN104881884B (zh) * | 2015-06-29 | 2017-07-11 | 辽宁工程技术大学 | 一种基于视觉量子的目标跟踪方法 |
CN105511474A (zh) * | 2016-01-18 | 2016-04-20 | 安徽工程大学 | 一种独立式车辆跟踪控制*** |
CN105843229B (zh) * | 2016-05-17 | 2018-12-18 | 中外合资沃得重工(中国)有限公司 | 无人驾驶智能小车及控制方法 |
CN106054894B (zh) * | 2016-07-05 | 2019-04-09 | 北京九星智元科技有限公司 | 一种机器人伴随***、伴随方法及机器人小车 |
CN106383515A (zh) * | 2016-09-21 | 2017-02-08 | 哈尔滨理工大学 | 一种基于多传感器信息融合的轮式移动机器人避障控制*** |
CN106647815A (zh) * | 2017-01-23 | 2017-05-10 | 昆山市工研院智能制造技术有限公司 | 一种基于多传感器信息融合的智能跟随机器人及控制方法 |
CN107065693A (zh) * | 2017-05-27 | 2017-08-18 | 安徽沪宁智能科技有限公司 | 一种基于ZigBee的远程控制智能消防机器人*** |
CN107610097A (zh) * | 2017-08-16 | 2018-01-19 | 深圳市天益智网科技有限公司 | 仪表定位方法、装置和终端设备 |
CN108381554B (zh) * | 2018-05-22 | 2020-03-17 | 中国矿业大学 | 基于wifi辅助定位的视觉跟踪移动机器人及控制方法 |
CN108931979B (zh) * | 2018-06-22 | 2020-12-15 | 中国矿业大学 | 基于超声波辅助定位的视觉跟踪移动机器人及控制方法 |
CN109240297A (zh) * | 2018-09-26 | 2019-01-18 | 深算科技(上海)有限公司 | 一种基于视觉跟随的自主导航机器人 |
CN109500817B (zh) * | 2018-12-07 | 2024-05-10 | 深圳市众智创新科技有限责任公司 | 多足机器人的360度视觉追踪控制***及控制方法 |
CN110682303A (zh) * | 2019-10-15 | 2020-01-14 | 江苏艾什顿科技有限公司 | 一种智能机器人实训装置、控制***及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100008439A (ko) * | 2008-07-16 | 2010-01-26 | 주식회사 쏠리테크 | 모바일 영상 로봇 단말기 |
CN101786272A (zh) * | 2010-01-05 | 2010-07-28 | 深圳先进技术研究院 | 一种用于家庭智能监控服务的多感知机器人 |
CN201638053U (zh) * | 2009-12-31 | 2010-11-17 | 重庆工商职业学院 | 巡检机器人 |
CN102253673A (zh) * | 2011-07-08 | 2011-11-23 | 上海合时智能科技有限公司 | 基于目标识别技术的家用移动安保机器人 |
CN202075626U (zh) * | 2011-04-14 | 2011-12-14 | 山东大学 | 智能空间与护士机器人多传感器*** |
CN102340894A (zh) * | 2011-08-26 | 2012-02-01 | 东北大学 | 基于无线传感器网络的遥控救援机器人***及控制方法 |
CN203012510U (zh) * | 2013-01-07 | 2013-06-19 | 西北农林科技大学 | 一种基于多传感器信息融合的山地农业机器人避障*** |
-
2014
- 2014-04-04 CN CN201410136228.3A patent/CN103885449B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100008439A (ko) * | 2008-07-16 | 2010-01-26 | 주식회사 쏠리테크 | 모바일 영상 로봇 단말기 |
CN201638053U (zh) * | 2009-12-31 | 2010-11-17 | 重庆工商职业学院 | 巡检机器人 |
CN101786272A (zh) * | 2010-01-05 | 2010-07-28 | 深圳先进技术研究院 | 一种用于家庭智能监控服务的多感知机器人 |
CN202075626U (zh) * | 2011-04-14 | 2011-12-14 | 山东大学 | 智能空间与护士机器人多传感器*** |
CN102253673A (zh) * | 2011-07-08 | 2011-11-23 | 上海合时智能科技有限公司 | 基于目标识别技术的家用移动安保机器人 |
CN102340894A (zh) * | 2011-08-26 | 2012-02-01 | 东北大学 | 基于无线传感器网络的遥控救援机器人***及控制方法 |
CN203012510U (zh) * | 2013-01-07 | 2013-06-19 | 西北农林科技大学 | 一种基于多传感器信息融合的山地农业机器人避障*** |
Also Published As
Publication number | Publication date |
---|---|
CN103885449A (zh) | 2014-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103885449B (zh) | 基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法 | |
CN106774436B (zh) | 基于视觉的旋翼无人机稳定跟踪目标的控制***及方法 | |
CN110082781B (zh) | 基于slam技术与图像识别的火源定位方法及*** | |
CN101976079B (zh) | 智能导航控制***及方法 | |
CN109737981B (zh) | 基于多传感器的无人车目标搜索装置及方法 | |
CN105629970A (zh) | 一种基于超声波的机器人定位避障方法 | |
CN106256606A (zh) | 一种基于车载双目相机的车道偏离预警方法 | |
CN108563236B (zh) | 一种基于同心圆特征的纳型无人机目标跟踪方法 | |
CN106384353A (zh) | 一种基于rgbd的目标定位方法 | |
CN103455822A (zh) | 复杂工业环境中的巡检机器人***及多人脸动态跟踪方法 | |
CN103454919A (zh) | 智能空间中移动机器人的运动控制***及方法 | |
CN113085896B (zh) | 一种现代有轨清洁车辅助自动驾驶***及方法 | |
CN109352654A (zh) | 一种基于ros的智能机器人跟随***及方法 | |
CA3139421A1 (en) | Automatic annotation of object trajectories in multiple dimensions | |
CN104820435A (zh) | 基于智能手机与双目视觉的四旋翼运动目标追踪***和方法 | |
Juang et al. | Real-time indoor surveillance based on smartphone and mobile robot | |
CN113822251B (zh) | 基于双目视觉的地面侦察机器人手势控制***及控制方法 | |
CN212781778U (zh) | 一种基于视觉slam的智能车 | |
CN105701789A (zh) | 飞机近场飞行轨迹跟踪方法 | |
Mutz et al. | Following the leader using a tracking system based on pre-trained deep neural networks | |
CN104238558A (zh) | 一种基于单摄像头的循迹机器人直角转弯检测方法及装置 | |
CN110850884A (zh) | 一种基于二元控制***的智能农机 | |
Abate et al. | Multi-camera visual-inertial simultaneous localization and mapping for autonomous valet parking | |
CN106598065A (zh) | 一种无人机的双目-超声波融合避障控制方法 | |
CN115330871A (zh) | 一种无人机单目相机避障方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 123000 Zhonghua Road, Liaoning, Fuxin, China, No. 47 Applicant after: Liaoning Technical University Address before: 110043 Zhonghua Road, Liaoning, Fuxin, China, No. 47 Applicant before: Liaoning Technical University |
|
COR | Change of bibliographic data | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |