CN109333506A - 一种人形智能机器人*** - Google Patents
一种人形智能机器人*** Download PDFInfo
- Publication number
- CN109333506A CN109333506A CN201811238323.9A CN201811238323A CN109333506A CN 109333506 A CN109333506 A CN 109333506A CN 201811238323 A CN201811238323 A CN 201811238323A CN 109333506 A CN109333506 A CN 109333506A
- Authority
- CN
- China
- Prior art keywords
- robot
- steering engine
- joint
- leg
- barrier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005021 gait Effects 0.000 claims abstract description 36
- 230000033001 locomotion Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 8
- 210000002414 leg Anatomy 0.000 claims description 113
- 230000004888 barrier function Effects 0.000 claims description 74
- 210000004394 hip joint Anatomy 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 16
- 230000005484 gravity Effects 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 11
- 210000000629 knee joint Anatomy 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 210000001503 joint Anatomy 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 8
- 210000000245 forearm Anatomy 0.000 claims description 7
- 238000013461 design Methods 0.000 claims description 6
- 210000001699 lower leg Anatomy 0.000 claims description 6
- 238000013178 mathematical model Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 210000000707 wrist Anatomy 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 230000003068 static effect Effects 0.000 claims description 4
- 241001269238 Data Species 0.000 claims description 3
- 230000037396 body weight Effects 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000006641 stabilisation Effects 0.000 claims description 3
- 238000011105 stabilization Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 1
- 230000004069 differentiation Effects 0.000 claims 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 17
- 210000002683 foot Anatomy 0.000 description 11
- 210000000544 articulatio talocruralis Anatomy 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 208000008037 Arthrogryposis Diseases 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009123 feedback regulation Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1638—Programme controls characterised by the control loop compensation for arm bending/inertia, pay load weight/inertia
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种人形智能机器人***,其特征在于,包括机器人主体以及控制***;所述的控制***包括:视觉图像获取模块、中央处理模块、驱动模块和传感模块,并在中央处理模块内建立预规划的实时步态控制算法和基于双目视觉的避障算法以控制机器人的运动。本发明采用两种算法结合使用,能够对人形机器人的步态进行精确控制,从而使人形机器人更好地实现避障和步态调整的功能,提高了人形机器人对路面的适应能力。
Description
技术领域
本发明涉及人形机器人技术领域,具体涉及一种人形智能机器人***。
背景技术
人形机器是一种具有高度智能信息化的机器人,具有很高的工业、商业、军事价值。随着世界工业化进程的发展,单纯的工业机器人已经不能满足市场的需求,人形机器人也受到世界上各个国家科研机构的关注和重视。人形机器人的研究已经有三十多年,期间人形机器人的硬件***架构、软件上层设计和物理结构都取得了很大的突破。目前,人形机器人的关键技术主要掌握在日本、美国、德国和英国等发达国家中,国内而言,虽然研究起步较晚,但发展迅速,也取得了很大的突破。但目前人形机器人的研究大多集中在高校和一些科研所,研究出的样机大多控制***复杂、造价昂贵、可裁剪性低、驱动器复杂、人形机器人笨重,不利于企业投入市场。
因此,如何提供一种解决上述问题的人形智能机器人***是本领域技术人员目前需要解决的问题。
发明内容
本发明的目的是提供一种人形智能机器人***,将实时步态与避障控制结合起来,使机器人能够智能行走。
为了实现上述任务,本发明采用以下技术方案:
一种人形智能机器人***,包括机器人主体以及控制***;所述的控制***包括:
视觉图像获取模块,用于获取机器人周围的环境图像信息,将图像进行去噪处理后,传递给中央处理模块;
中央处理模块,用于根据视觉图像获取模块提供的去噪后的图像,采用预规划的实时步态控制算法和基于双目视觉的避障算法,对图像中的障碍物进行判断,并进行步态规划,得到机器人的行走步态,并利用副控制器控制驱动模块进行机器人行走;
驱动模块,包括安装在机器人各个关节处的舵机,用于根据副控制器传递来的控制信息,驱动机器人的关节运动,从而实现机器人的行走;
传感模块,用于实时获取机器人的姿态角度信息,并将数据传输到中央处理模块,以实现机器人运动过程中的精确控制;
其中,所述的预规划的实时步态控制算法包括:
先建立双足机器人运动学坐标系模型,然后进行机器人的姿态规划和平稳性判断,最终完成步态行走,实时规划下一步的姿态;
所述的基于双目视觉的避障算法包括:
机器人检测到前方物体并判定为障碍物时,立即站立停止,在静止状态下时获取障碍物的尺寸参数和方位信息;根据障碍物尺寸参数、方位信息控制机器人绕过障碍。
进一步地,所述的机器人检测到前方物体并判定为障碍物时,立即站立停止,在静止状态下时获取障碍物的尺寸参数和方位信息;根据障碍物尺寸参数、方位信息控制机器人绕过障碍,包括:
步骤1,根据机器人要到达的目的地进行路径的规划,对双目摄像头的左右两个摄像头分别进行标定,分别计算地面在左、右摄像头坐标系下的平面方程;
步骤2,通过双目摄像头采集机器人前方图像,并进行去噪处理;
步骤3,对左右摄像头采集的两幅图像进行畸变和极线校正,消去失真,将匹配点约束在一条直线上,最终匹配得到一张视差图;
步骤4,计算视差图中匹配点在左摄像头坐标系下的三维坐标(x,y,z),获取其高度与水平距离,并与设定阈值比较,判断障碍物是否存在;使用OpenCV视觉库中的cvFindCon—tours轮廓检测函数检测物体的轮廓,并用其外接矩形框标记;
对障碍物的判别算法:首先随机提取视差图中外接矩形框内物体上若干个白色像素点,计算其位于左摄像机坐标系下的三维坐标(x,y,z),其中x和z分别表示物体相对于左摄像头的高度距离与水平距离,y则表示物体相对于左摄像头光心的左右偏移距离,然后根据设定的阈值判断矩形框内的物体是否为障碍物;
步骤5,如判断前方无障碍物,则使机器人按照规划的路径行进;如判断前方有障碍物,则令机器人停止动作,并获取障碍物的参数信息,具体如下:
步骤5.1,将障碍物的外接矩形框的宽度作为障碍物的宽度,记为Q,外接矩形框的中心作为障碍物中心点,记为O;
步骤5.2,通过深度检测获取中心点O的三维坐标di(x,y,z),其中y表示中心点相对于左摄像头光心的偏移距离Li;获取外界矩形框中最左侧的一个白色像素点在左摄像头坐标系下的坐标(xL,yL,zL);
步骤5.3,根据障碍物的宽度计算出障碍物中心点O的纵坐标,即O点相对于左摄像头光心的偏移距离Lo:
步骤5.4,由于双目摄像头安装在机器人的中轴线上,因此障碍物中心点O相对于机器人中轴线的偏距d为:
其中d>0表示偏右,d<0表示偏左,d=0表示居中;
步骤6,进行避障路径规划
步骤6.1,设定障碍物的长度为W;
在障碍物检测过程中,已经能够比较精确地获得障碍物的宽度尺寸及其相对于机器人的方位信息,但是较难得到障碍的长度尺寸,一般假设其长度为W;
步骤6.2,当障碍物相对于机器人偏左时,机器人右转角度θ并沿平行安全距离直行一段距离X,机器人中心与障碍物中心的连线与规划路径垂直时,左转角度2θ并直行距离X,使其回归规划路径;
对于机器人的避障过程,有:
上式中,L为机器人的身宽;θ和2θ为机器人的旋转角度;D为障碍物相对机器人的距离;yL为障碍物左侧边界相对于机器人中心的偏移距离;d为考虑存在的误差和安全问题所增加的补偿距离。
进一步地,所述的对障碍物的判别算法,具体包括:
步骤4.1,随机提取视差图中外接矩形框内若干白色像素点i=1,2,3,…,计算其三维坐标di(xi,yi,zi),并按照水平距离zi(即三维坐标中的zi值)的大小排序;
步骤4.2,因为提取和计算过程中存在误差,所以可能存在异常数据,因此取所有白色像素点水平距离zi的中位数z0,并设定阈值φ,对于所述的白色像素点,如白色像素点i的水平距离zi满足|zi-z0|>φ,则将白色像素点i作为异常点剔除,剩余白色像素点构成集合I;
步骤4.3,计算集合I中白色像素点水平距离zi的平均值作为外接矩形框内障碍物距离机器人的水平距离;取集合I中白色像素点三维坐标中xi的最大值xmax作为所述障碍物的高度;
步骤4.4,设定高度阈值xd和水平距离阈值zd,当满足xmax>xd,且时,则判定外接矩形框内的物体为障碍物。
进一步地,所述的预规划的实时步态控制算法,包括:
步骤1’,建立双足机器人运动学坐标系模型
步骤1.1’,对机器人的各个关节进行编号,对于关节i,确定该关节的原点;
步骤1.2’,确立关节i处坐标系的各个坐标轴Xi、Yi、Zi;
步骤1.3’,根据在各个关节处建立的坐标系,相邻的两个坐标系Oi与Oi-1相比,获得相邻两个坐标系的差距,即变换矩阵;
通过上面的变换矩阵得到相邻的两个坐标系之间的运动学关系,记双足机器人的左脚膝关节的坐标系O0-X0Y0Z0为参考坐标系,可得到其他关节坐标系与参考坐标系之间的运动学关系;将每个关节处的坐标系与参考坐标系之间的变换矩阵作为该关节与参考坐标系所在关节之间的数学模型,所有数学模型构成双足机器人运动学坐标系模型;
步骤2’,对双足机器人的姿态进行规划
步骤2.1’,设计双足机器人行走步态流程
通过摆动腿前摆改变重心的,在摆动腿前摆时,身体重心从双腿中心移到支撑腿上,因此身体先要向支撑腿一侧扭动来移动重心,即通过髋关节的侧向关节来调整重心;为了防止在侧扭时抬腿而造成身体向摆动腿一侧倾倒、步态设计中将侧扭和抬腿分步设计;
步骤2.2’,规划机器人行走时各个关节的姿态
先假设髋关节的侧向不发生变化,则求解行走轨迹步骤如下,以髋关节与踝关节为例:
(1)绘制出髋关节与裸关节随时间改变而变化的曲线图,由此获得髋关节、裸关节的运动学轨迹;
(2)与人类行走轨迹进行对比,按照人类行走过程的受力情况明确机器人髋关节、裸关节运动受力的关键点,然后通过三次样条插值的方式,对所有关键点进行插值处理;
(3)分别将髋关节、裸关节处理后的关键点与步骤(1)中髋关节、裸关节运动学轨迹中的多项式进行拟合,获得髋关节与裸关节的平滑轨迹;则该轨迹即为髋关节与裸关节每一步行走后形成的轨迹。
按照相同的方法,可获得机器人双腿上其他关节在行走时形成的轨迹;将双足机器人一次行走过程中所涉及的关节的轨迹作为规划姿态,则获得规划的姿态后,通过关节处的舵机驱动机器人按照规划的姿态进行行走。
进一步地,所述的预规划的实时步态控制算法,还包括:
步骤3’,进行姿态规划平稳性判断
根据步骤2’中的规划姿态,在机器人每次准备落脚时进行平稳性计算,判断当前机器人是否满足平稳性要求,判断依据为机器人的平稳点是否在设定的范围内,如在设定的范围内,则不干预,使机器人按照规划姿态进行行走,否则暂停行走,通过机器人的控制器调整机器人腿部的关节的姿态后,重新计算平稳性,直至平稳性满足要求,其中所述的平稳点计算方法为:
计算机器人的质心位置:
其中,n表示机器人全身关节的数量,mi表示第i个关节的质量,表示第i个关节的质心位置;COMi为第i次采样时机器人的质心位置;即当前为第i次采样;
计算平稳点W:
W=-a+COM
其中,
上式中,ts为采样时间,COMi,COMi-1,COMi-2分别为第i次、第i-1次和第i-2次采样时机器人的质心位置,COM为机器人站立不动时的质心位置;
判断平稳点W的位置,若W在设定的范围内,则认为机器人此步行走稳定,否则不稳定。
进一步地,所述的机器人主体包括:
头部单元、主体单元、腿部单元以及设置在主体单元两侧的臂部单元;其中臂部单元包括左臂和右臂,腿部单元包括左腿和右腿。
进一步地,所述的头部单元通过第19号舵机与主体单元连接,第19号舵机用于驱动头部单元向上或向下旋转0°~45°;头部单元包括LED状态显示单元、第20号舵机以及双目摄像头;所述的LED状态显示单元包括一组8个的蓝色LED灯和1个可变色LED灯,蓝色LED灯连接至副控制器上,作为通电指示灯和眼部指示灯,即通电点亮,断电熄灭;所述的可变色LED灯连接到副控制器上,作为机器人状态指示灯,其显示绿色常亮表示机器人状态正常,显示橙色常亮表示机器人状态存在异常;所述双目摄像头包括左右两个单目摄像头;所述单目摄像头连接到主控制器上,负责收集机器人本体周围的环境图像信息;所述的第20号舵机用于驱动双目摄像头向左或向右旋转0°~45°。
进一步地,所述的臂部单元中的左臂通过第1号舵机与主体单元连接,左臂包括第3号舵机和第5号舵机,其中第1号舵机用于驱动左臂向上或向下转动0°~90°,第3号舵机安装在左臂的肘部位置,用于驱动左小臂向上抬起0°~90°;第5号舵机安装在左臂的手腕部位,用于驱动左手向上或向下旋转0°~45°;
所述的臂部单元中的右臂通过第2号舵机与主体单元连接,右臂包括第4号舵机和第6号舵机,其中第2号舵机用于驱动右臂向上或向下转动0°~90°,第4号舵机安装在右臂的肘部位置,用于驱动右小臂向上抬起0°~90°;第6号舵机安装在右臂的手腕部位,用于驱动右手向上或向下旋转0°~45°。
进一步地,所述的腿部单元中的左腿通过第7号舵机与主体单元连接,包括第9号舵机、第11号舵机、第13号舵机、第15号舵机和第17号舵机,其中第7号舵机可以转动,用于驱动左腿向左或向右水平旋转0°~45°,第9号舵机用于驱动左腿向左或向右摆动0°~45°,第11号舵机用于驱动左腿向前或向后摆动0°~45°;第13号舵机安装在左腿的膝关节位置,用于驱动左小腿弯曲0°~90°;第15号舵机、第17号舵机分别用于驱动左脚向左或向右摆动0°~45°、向前或向后摆动0°~45°;
所述的腿部单元中的右腿通过第8号舵机与主体单元连接,包括第10号舵机、第12号舵机、第14号舵机、第16号舵机和第18号舵机,其中第8号舵机可以转动,用于驱动右腿向右或向右水平旋转0°~45°,第10号舵机用于驱动右腿向右或向右摆动0°~45°,第12号舵机用于驱动右腿向前或向后摆动0°~45°;第14号舵机安装在右腿的膝关节位置,用于驱动右小腿弯曲0°~90°;第16号舵机、第18号舵机分别用于驱动右脚向右或向右摆动0°~45°、向前或向后摆动0°~45°。
进一步地,所述的主体单元包括主控制器、副控制器、按键模块、蜂鸣器模块、电源供电模块、第1号舵机、第2号舵机、第7号舵机、第8号舵机和第19号舵机;所述主控制器通过USB连接副控制器和双目摄像头,负责机器人控制算法以及指导副控制器工作;所述的主控制器上设置有外接接口,外接接口包括2个USB接口和1个Lan接口,可外接PC端或外接显示器、鼠标、键盘设备对机器人***进行调试或操控;所述副控制器通过总线方式连接第1-20号舵机,通过数据传输线连接位于头部单元的LED状态显示单元以及位于主体单元的按键模块、蜂鸣器模块;所述的总线方式包括五条总线,其中第1、3、5号舵机处于第一总线、第2、4、6号舵机处于第二总线、第7、9、11、13、15、17号舵机处于第三总线、第8、10、12、14、16、18号舵机处于第四总线、第19、20号舵机处于第五总线;所述副控制器上安装有陀螺仪和加速器,用于检测机器人所处的位置信息。
本发明具有以下技术特点:
1.本发明人形智能机器人***采用了预规划的实时步态控制算法和基于双目识别的避障算法,两种方法结合使用,能够对人形机器人的步态进行精确控制,从而使人形机器人更好地实现避障和步态调整的功能,提高了人形机器人对路面的适应能力。
2.本发明方案采用双控制器结构,分工明确,工作效率高,电路结构简单,设计新颖合理,实现方便,使用效果好,便于推广使用。
附图说明
图1为本发明的人形智能机器人***的构架示意图;
图2为本发明的头部单元结构示意图;
图3为本发明主体单元后背部分的结构示意图;
图4为本发明各个单元的位置结构示意图;
图5为本发明中基于双目视觉的避障算法流程示意图;
图6为基于双目视觉的避障算法中障碍物轮廓检测示意图;
图7为基于双目视觉的避障算法的避障路径规划示意图;
图8为预规划的实时步态控制算法的流程示意图;
图9的(a)和(b)分别为本发明的人形智能机器人实物外形结构示意图,以及机器人上舵机安装位置示意图;
图10为预规划的实时步态控制算法中在关节处建立坐标系的示意图;
图11为关节部分的结构示意图;
图12为机器人向前行走时不同步态的示意图;
图13为机器人腿部在行走时偏转角度示意图;
图14为机器人脚部受力示意图。
图中标号代表:1—20分别表示第1号舵机至第20号舵机,21主控制器,22副控制器,23/25蓝色LED灯,24/26单目摄像头,27可变色LED灯,28头部单元,29/30USB接口,31电池放置口,32总开关,33电源插口,34模式选择按键,35确认按键,36复位按键,37/38散热风扇,39LED状态显示灯,40Lan接口,41主体单元,42左臂,43右臂,44左腿,45右腿。
具体实施方式
本发明公开了一种人形智能机器人***,如图1、图4所示,包括机器人主体以及控制***:
其中机器人主体从上至下依次包括:头部单元、主体单元、腿部单元以及设置在主体单元两侧的臂部单元;其中臂部单元包括左臂和右臂,腿部单元包括左腿和右腿。
其中,所述的头部单元通过第19号舵机与主体单元连接,如图1、图2所示,第19号舵机用于驱动头部单元向上或向下旋转0°~45°;头部单元包括LED状态显示单元、第20号舵机以及双目摄像头;所述的LED状态显示单元包括一组8个的蓝色LED灯和1个可变色LED灯,蓝色LED灯连接至副控制器上,作为通电指示灯和眼部指示灯,即通电点亮,断电熄灭;所述的可变色LED灯连接到副控制器上,作为机器人状态指示灯,其显示绿色常亮表示机器人状态正常,显示橙色常亮表示机器人状态存在异常;所述双目摄像头包括左右两个单目摄像头;所述单目摄像头连接到主控制器上,负责收集机器人本体周围的环境图像信息;所述的第20号舵机用于驱动双目摄像头向左或向右旋转0°~45°。
所述的臂部单元中的左臂通过第1号舵机与主体单元连接,左臂包括第3号舵机和第5号舵机,其中第1号舵机用于驱动左臂向上或向下转动0°~90°,第3号舵机安装在左臂的肘部位置,用于驱动左小臂向上抬起0°~90°;第5号舵机安装在左臂的手腕部位,用于驱动左手向上或向下旋转0°~45°;
所述的臂部单元中的右臂通过第2号舵机与主体单元连接,右臂包括第4号舵机和第6号舵机,其中第2号舵机用于驱动右臂向上或向下转动0°~90°,第4号舵机安装在右臂的肘部位置,用于驱动右小臂向上抬起0°~90°;第6号舵机安装在右臂的手腕部位,用于驱动右手向上或向下旋转0°~45°。
所述的腿部单元中的左腿通过第7号舵机与主体单元连接,包括第9号舵机、第11号舵机、第13号舵机、第15号舵机和第17号舵机,其中第7号舵机可以转动,用于驱动左腿向左或向右水平旋转0°~45°,第9号舵机用于驱动左腿向左或向右摆动0°~45°,第11号舵机用于驱动左腿向前或向后摆动0°~45°;第13号舵机安装在左腿的膝关节位置,用于驱动左小腿弯曲0°~90°;第15号舵机安装于左腿裸关节处,用于驱动左脚向左或向右摆动0°~45°;第17号舵机安装于左腿裸关节处,用于驱动左脚向前或向后摆动0°~45°;
所述的腿部单元中的右腿通过第8号舵机与主体单元连接,包括第10号舵机、第12号舵机、第14号舵机、第16号舵机和第18号舵机,其中第8号舵机可以转动,用于驱动右腿向右或向右水平旋转0°~45°,第10号舵机用于驱动右腿向右或向右摆动0°~45°,第12号舵机用于驱动右腿向前或向后摆动0°~45°;第14号舵机安装在右腿的膝关节位置,用于驱动右小腿弯曲0°~90°;第16号舵机安装于右腿裸关节处,用于驱动右脚向右或向右摆动0°~45°;第18号舵机安装于右腿裸关节处,用于驱动右脚向前或向后摆动0°~45°;
如图3所示,所述主体单元包括主控制器、副控制器、按键模块、蜂鸣器模块、电源供电模块、第1号舵机、第2号舵机、第7号舵机、第8号舵机和第19号舵机;所述主控制器通过USB连接副控制器和双目摄像头,负责机器人控制算法以及指导副控制器工作;所述的主控制器上设置有外接接口,外接接口包括2个USB接口和1个Lan接口,可外接PC端或外接显示器、鼠标、键盘设备对机器人***进行调试或操控;所述副控制器通过总线方式连接第1-20号舵机,通过数据传输线连接位于头部单元的LED状态显示单元以及位于主体单元的按键模块、蜂鸣器模块;所述的总线连接方式包括五条总线,其中第1、3、5号舵机处于第一总线、第2、4、6号舵机处于第二总线、第7、9、11、13、15、17号舵机处于第三总线、第8、10、12、14、16、18号舵机处于第四总线、第19、20号舵机处于第五总线;所述副控制器上安装有陀螺仪和加速器,用于检测机器人所处的位置信息;
所述电源供电模块包括充电电池放置口、有线电源连接口和电源总开关;所述电池放置口用于放置充电电池;所述有线电源连接口用于连接12V DC的有线电源;所述的电源总开关用于控制机器人***总电源的连接与断开。
打开开关时整个机器人为上电状态,位于头部单元28的蓝色LED 23/25立即亮起,***自动启动并自动检测各接口连接状态,若检测各接口连接无误,则位于头部单元的可变色LED灯显示绿色常亮,机器人***可正常工作,若检测各接口连接有误,则位于头部单元的可变色LED灯显示橙色常亮;断开开关时则整个机器人***为无电状态;
所述的按键模块包括模式选择按键、确认按键和复位键;所述的模式选择按键可以选择机器人不同的工作模式,操作模式选择按键时***会通过蜂鸣器模块提示当前选择模式,工作模式可以根据用户的需求进行定制;所述的确认按键用于确认所选择的工作模式;所述复位键用于返回默认工作模式,按下复位键即可返回默认工作模式,无需进行确认;所述默认工作模式可由用户进行制定;所述的主体单元还包括散热模块,其由散热风扇组成;所述散热风扇直接连接到电源供电模块,打开电源即能够进行散热工作。
本实施例中,所述主控制器为PC104嵌入式控制板;所述的控制板中搭载Linux***和ROS次级***;所述电源供电模块包括12.6V的Li-PO充电电池和220V-12V充电器,所述的舵机和主控制器采用12V供电;所述的蜂鸣器模块采用LM7805芯片转换成5V供电;所述的副控制器采用EX1117-3.3V芯片转换成3.3V供电;所述双目摄像头为200W像素广角摄像头;所述的双目摄像头与主控制板通过USB接口连接、所述的主控制器、副控制器间通过USB接口连接;所述第1-20号舵机均采用的Dynamixel系列MX-28T舵机。
本发明的控制***包括以下模块:
视觉图像获取模块,用于获取机器人周围的环境图像信息,将图像进行去噪处理后,传递给中央处理模块,其中视觉图像获取模块采用所述的双目摄像头。
中央处理模块,包括所述的主控制器,搭载Linux***和ROS次级操作***,用于根据视觉图像获取模块提供的去噪后的图像,采用预规划的实时步态控制算法和基于双目视觉的避障算法,对图像中的障碍物进行判断,并进行步态规划,得到机器人的行走步态,并将控制舵机转动的代码数据传递给副控制器,利用副控制器(STM32)控制驱动模块进行机器人行走。
驱动模块,用于根据副控制器传递来的控制信息,驱动机器人的关节运动,其中驱动模块采用安装在机器人各个关节处的舵机;本实施例中在机器人各关节处共安装了20个相同型号的舵机,其内部具有一个微处理器,用来接收和反馈控制器的数据包。
传感模块,用于实时获取机器人的姿态角度信息,并将数据传输到中央处理模块,以实现机器人运动过程中的精确控制;本发明采用LIS331DLH陀螺仪和L3G4200D加速度计来测量人形机器人姿态信息,其直接安装于副控制器STM32上并通过主控制器、副控制器的通讯直接传输到中央处理模块。
除了上述模块之外,还包括:
串口通信模块,用于主控制器、副控制器、与舵机的连接,由于MX-28T舵机是使用TTL电平进行通信,因此本发明中加入了74HC126缓冲芯片,并利用芯片特性把全双工的变为半双工,实现单线实现接收和发送数据功能;而根据PC104的USB接口多的特点,本发明选择FT232芯片作为USB转串口芯片,实现主控制器、副控制器之间使用USB进行通信。
本发明中的机器人控制算法采用预规划的实时步态控制算法和算法基于双目视觉的避障算法,其中基于双目视觉的避障算法,其基本原理是机器人检测到前方物体并判定为障碍物时,立即站立停止,在静止状态下时获取障碍物的尺寸参数和方位信息;根据障碍物尺寸参数、方位信息控制机器人绕过障碍,回归导航路径如图5所示,具体包括以下步骤:
步骤1,根据机器人要到达的目的地进行路径的规划,对双目摄像头的左右两个摄像头分别进行标定,分别计算地面在左、右摄像头坐标系下的平面方程;
步骤2,通过双目摄像头采集机器人前方图像,并进行去噪处理;
步骤3,对左右摄像头采集的两幅图像(左右摄像头同时分别采集一张图像)进行畸变和极线校正,消去失真,将匹配点约束在一条直线上,减少误匹配并大大缩短匹配时间,最终匹配得到一张视差图;
步骤4,计算视差图中匹配点在左摄像头坐标系下的三维坐标(x,y,z),获取其高度与水平距离,并与设定阈值比较,判断障碍物是否存在;
此处使用OpenCV视觉库中的cvFindCon—tours轮廓检测函数检测物体的轮廓,并用其外接矩形框标记,如图6所示。根据其中的白色像素点,利用双目视觉测距原理计算出物体相对左摄像头坐标系下的三维坐标。
对障碍物的判别算法:首先随机提取视差图中外接矩形框内物体上若干个白色像素点,计算其位于左摄像机坐标系下的三维坐标(x,y,z),其中x和z分别表示物体相对于左摄像头的高度距离与水平距离,y则表示物体相对于左摄像头光心的左右偏移距离,然后根据设定的阈值判断矩形框内的物体是否为障碍物。具体步骤如下:
步骤4.1,随机提取视差图中外接矩形框内若干白色像素点i=1,2,3,…,计算其三维坐标di(xi,yi,zi),并按照水平距离zi(即三维坐标中的zi值)的大小排序;
步骤4.2,因为提取和计算过程中存在误差,所以可能存在异常数据,因此取所有白色像素点水平距离zi的中位数z0,并设定阈值φ,对于所述的白色像素点,如白色像素点i的水平距离zi满足|zi-z0|>φ,则将白色像素点i作为异常点剔除,剩余白色像素点构成集合I;
步骤4.3,计算集合I中白色像素点水平距离zi的平均值作为外接矩形框内障碍物距离机器人的水平距离;取集合I中白色像素点三维坐标中xi的最大值xmax作为所述障碍物的高度;
步骤4.4,设定高度阈值xd和水平距离阈值zd,当满足xmax>xd,且时,则判定外接矩形框内的物体为障碍物。
步骤5,如判断前方无障碍物,则使机器人按照规划的路径行进;如判断前方有障碍物,则令机器人停止动作,并获取障碍物的参数信息,具体如下:
步骤5.1,将障碍物的外接矩形框的宽度作为障碍物的宽度,记为Q,外接矩形框的中心作为障碍物中心点,记为O;
步骤5.2,通过深度检测获取(即通过双目摄像头检测)O的三维坐标di(x,y,z),其中y表示中心点相对于左摄像头光心的偏移距离Li;获取外界矩形框中最左侧的一个白色像素点在左摄像头坐标系下的坐标(xL,yL,zL);
步骤5.3,根据障碍物的宽度计算出障碍物中心点O的纵坐标,即O点相对于左摄像头光心的偏移距离Lo:
步骤5.4,由于双目摄像头安装在机器人的中轴线上,因此障碍物中心点O相对于机器人中轴线的偏距d为:
其中d>0表示偏右,d<0表示偏左,d=0表示居中。
步骤6,进行避障路径规划
步骤6.1,设定障碍物的长度为W;
在障碍物检测过程中,已经能够比较精确地获得障碍物的宽度尺寸及其相对于机器人的方位信息,但是较难得到障碍的长度尺寸,一般假设其长度为W;
步骤6.2,当障碍物相对于机器人偏左时,为了能更快绕过障碍物,根据障碍物的位置及实验室环境的不同,设置一个恒定的安全距离,机器人右转角度θ并沿平行安全距离直行一段距离X,机器人中心与障碍物中心的连线与规划路径垂直时,左转角度2θ并直行距离X,使其回归规划路径;障碍物偏右和居中时同理,障碍物偏右时机器人左转,障碍物居中时随机选择左转或右转,不再赘述;示意图如图7所示:在图中,L为机器人的身宽;θ和2θ为机器人的旋转角度;D为障碍物相对机器人的距离;yL为障碍物左侧边界相对于机器人中心的偏移距离;d为考虑存在的误差和安全问题所增加的补偿距离(一般取d=yL)。
对于机器人的避障过程,有:
至此则可完成基于双目视觉的障碍检测和避障路径规划。
本发明中,预规划的实时步态控制算法如图8所示,步骤如下:
步骤1’,建立双足机器人运动学坐标系模型
如图9的(a)和(b)所示,本实施例中的双足机器人全身共有20个舵机,其中在机器人腿部分布有多处关节,使每条腿部具有6个自由度,即:裸关节具有向前和侧向两个自由度,分别称为踝关节的前向关节和侧向关节(图9中对应的舵机为15、17和16、18);膝关节一个前向自由度(图9中对应的舵机为13、14),称为膝关节的前向关节;髋关节具有三个自由度,包括前向、侧向及转弯自由度,分别称为髋关节的前向关节、侧向关节和转弯关节(图9中中对应的舵机为7、9、11和8、10、12)。机器人上半身中,肘关节具有一个自由度(图9中对应的舵机为5、6);肩关节有两个自由度(图9中中对应的舵机为1、3和2、4),颈关节一个自由度(图9中对应的舵机为19),头部一个自由度(图9中中对应的舵机为20)。
双足机器人的关键是由活动式连接的杆件构成的,相邻的两个杆件连接处称为一个关节,如图11所示。所述的杆件是指机器人躯干上的部分,例如手肘处作为一个关节,其小臂、大臂分别视为一个杆件;在双足机器人身上,相邻的杆件之间活动式连接,使相邻的杆件之间可以发生角度变化,例如相邻的杆件连接处构成转轴式结构。所述的舵机安装在每个关节处,用于驱动关节旋转,具体请参见前文。
该步骤的思路是,在机器人的每个关节处构件坐标系,通过坐标系的变换来实现关节处的两个杆件上坐标的变换;对于本方案的多关节机器人,每个关节由两个杆件组成,则机器人可看作是多杆件***,则多次利用坐标变换,就可以建立坐标系之间的关系,从而构成运动学坐标系模型,具体步骤如下:
步骤1.1’,对机器人的各个关节进行编号,对于关节i,确定该关节的原点,原点确定的原则为:
当关节i的轴线(关节的旋转轴线)与关节i+1的轴线相交时,取交点作为关节i的原点,当关节i的轴线与关节i+1的轴线异面时,取两条轴线公垂线与关节i+1轴线的交点作为关节i的原点;当关节i的轴线与关节i+1的轴线平行时,取关节i+1轴线与关节i+2轴线的公垂线与关节i+1轴线交点作为关节i的原点,记为Oi。
步骤1.2’,确立关节i处坐标系的各个坐标轴Xi、Yi、Zi,确定原则为:
Zi坐标轴与关节i+1的轴线重合,Xi坐标轴沿i关节轴线、i+1关节轴线的公垂线并指向i+1关节,Yi坐标轴按右手法则确定。
如图10所示,本方案中将双足机器人的左脚膝关节的坐标系O0-X0Y0Z0为参考坐标系,左脚踝关节坐标系为O6-X6Y6Z6,右脚膝关节的坐标系为O12-X12Y12Z12。后两者为虚拟坐标系,仅为计算结果提供辅助和参考。
按照上述方法,在机器人各个关节处建立了坐标系。
步骤1.3’,根据在各个关节处建立的坐标系,相邻的两个坐标系Oi与Oi-1(即关节i处的坐标系和关节i-1处的坐标系)相比,存在的差距为则相邻的坐标系Oi与Oi-1之间的变换矩阵为:
上式中,s表示坐标系Oi-1到坐标系Oi的距离,c表示坐标系Oi-1到坐标系Oi的角度,ai-1表示Xi到Xi+1的距离,di表示Xi到坐标系Oi的测量距离,θi表示从Xi到Xi-1转动的角度。由于一个关节i对应一个杆件,因此通过上述矩阵可求得相邻杆件之间的运动学关系。
通过上面的变换矩阵得到相邻的两个坐标系之间的运动学关系,由此得到左脚踝关节坐标系O6-X6Y6Z6与参考坐标系O0-X0Y0Z0之间的运动学关系,同理可得到其他关节坐标系与参考坐标系之间的运动学关系。
本方案中,将每个关节处的坐标系与参考坐标系之间的变换矩阵作为该关节与参考坐标系所在关节之间的数学模型,所有数学模型构成双足机器人运动学坐标系模型。
步骤2’,对双足机器人的姿态进行规划
在本方案中,人形机器人的姿态规划则是建立在所建立的机器人运动学坐标系模型上的,即是以各关节在步骤1所建立的运动学坐标系模型中的坐标来表示,具体实施步骤如下:
步骤2.1’,设计双足机器人行走步态流程
为使规划易于进行,将前向行走步态设计分为重心右移(先是右腿支撑)、左腿抬起、重心移到双腿中间、重心左移、右腿抬起、右腿放下、重心移到双腿间八个阶段,示意图如图12所示。
本方案的步态规划是通过摆动腿(抬起的腿)前摆改变重心的,在摆动腿前摆时,身体重心从双腿中心移到支撑腿上,因此身体先要向支撑腿(与地面接触的腿)一侧扭动来移动重心,即通过髋关节的侧向关节来调整重心;为了防止在侧扭时抬腿而造成身体向摆动腿一侧倾倒、步态设计中将侧扭和抬腿分步设计。以先抬起左脚为例,机器人一次行走时的关节步态规划如下:
先通过右腿的髋关节、裸关节的侧向关节进行右侧扭来调整重心,侧扭到位后保持、然后抬起左腿,具体为:左腿的裸关节、膝关节和髋关节的前向关节弯曲,以实现左腿抬起;左腿放下为相反动作,即先通过右腿的髋关节、裸关节左侧扭,然后左腿的裸关节、膝关节和髋关节的前向关节弯曲(弯曲方向与抬起时相反),此时左脚落地;右腿抬起、落地同理。
步骤2.2’,规划机器人行走时各个关节的姿态
前向运动即是机器人腿部向前或先后摆动,侧向运动即是机器人腿部向左或向右摆动,对前向与侧向运动进行分别建模,完成机器人的前向行走规划。
前向运动由四个侧向关节和六个前向关节(左右裸关节、髋关节的侧向关节,左右裸关节、膝关节、髋关节的前向关节)的协调运动来实现,通过侧向关节的运动来移动机构的重心,双腿的前向关节的协调运动使机器人向前行走,具体实现如下:
对机器人双腿的关节旋转角度进行定义,θ1代表的是左腿从下到上的偏转角度;θ2代表的是左腿从上到下的偏转角度;θ3代表的是右腿从下到上的偏转角度;θ4代表的左腿从上到下的偏转角度,示意图见图13;则在前向运动中,由θ1、θ2、θ3、θ4运动实现。
先假设髋关节的侧向不发生变化,也就是四个关节(即左右腿的髋关节的两个转弯关节和侧向关节)的侧向偏转角度均为0,则求解行走轨迹步骤如下,以髋关节与踝关节为例:
(1)绘制出髋关节与裸关节随时间改变而变化的曲线图(即建立在步骤1坐标系上的二维曲线图),由此获得髋关节、裸关节的运动学轨迹;
(2)与人类行走轨迹进行对比,按照人类行走过程的受力情况明确机器人髋关节、裸关节运动受力的关键点,然后通过三次样条插值的方式,对所有关键点进行插值处理;
(3)分别将髋关节、裸关节处理后的关键点与步骤(1)中髋关节、裸关节运动学轨迹中的多项式进行拟合,获得髋关节与裸关节的平滑轨迹;则该轨迹即为髋关节与裸关节每一步行走后形成的轨迹。
按照相同的方法,可获得机器人双腿上其他关节在行走时形成的轨迹;将双足机器人一次行走(左脚从抬起到放下为一次行走)过程中所涉及的关节的轨迹作为规划姿态,则获得规划的姿态后,通过关节处的舵机驱动机器人按照规划的姿态进行行走。
在机器人每次落脚时会处于一定的不稳定状态,因此还需要进行稳定性判断,根据稳定性判断的结果,对机器人的落脚点进行反馈调节。
步骤3’,进行姿态规划平稳性判断
地面反作用力对脚部的影响是复杂的,本方案中将其简化成有任意一点P,而地面的反作用力对脚部的贡献可以等价为一个力R与力矩M。而零力矩点的定义就是在地面上存在一点P,使得与地面平行轴方向的、由惯性力(F=ma)与重力(G=mg)所产生的净力矩为零的点。图14给出了机器人脚部所受作用力分布的例子,沿足底分布的负载具有相同的方向,他们等效于一个合力N,合力N所通过的在足底上的这个作用点被称为平稳点。该点可以理解为重力和惯性力的合力在地面上的投影,而且在这一点上合力的力矩在水平方向为零。
根据步骤2’中的规划姿态,在机器人每次准备落脚时进行平稳性计算,判断当前机器人是否满足平稳性要求,判断依据为机器人的平稳点是否在设定的范围内,如在设定的范围内,则不干预,使机器人按照规划姿态进行行走,否则暂停行走,通过机器人的控制器调整机器人腿部的关节(髋关节、膝关节、裸关节)的姿态后,重新计算平稳性,直至平稳性满足要求,其中所述的平稳点计算方法为:
计算机器人的质心位置:
其中,n表示机器人全身关节的数量,本实施例中n=20;mi表示第i个关节的质量,表示第i个关节的质心位置(在步骤1建立的坐标系中的位置);COMi为第i次采样时机器人的质心位置;即当前为第i次采样;
计算平稳点W:
W=-a+COM
其中,
上式中,ts为采样时间,COMi,COMi-1,COMi-2分别为第i次、第i-1次和第i-2次采样时机器人的质心位置,COM为机器人站立不动时的质心位置。
判断平稳点W的位置,若W在设定的范围内,则认为机器人此步行走稳定,否则不稳定。本实施例中,所述的设定范围为机器人抬脚后脚中心在地面投影点前后-5~5cm范围。
综上所述,本方案通过对人体步行轨迹的模仿来预先设计双足机器人的步态规划,按照先姿态规划后稳定性判断,预先规划出机器人完整的姿态,实现实时步态控制。
实际应用时,首先根据机器人要到达的目的地进行路径的规划,机器人行走过程中,利用预规划的实时步态控制算法控制机器人的行走,行走的同时通过基于双目视觉的避障算法进行障碍物的检测和避障;两种方法结合使用,能够对人形机器人的步态进行精确控制,从而使人形机器人更好地实现避障和步态调整的功能,提高了人形机器人对路面的适应能力。
Claims (10)
1.一种人形智能机器人***,其特征在于,包括机器人主体以及控制***;所述的控制***包括:
视觉图像获取模块,用于获取机器人周围的环境图像信息,将图像进行去噪处理后,传递给中央处理模块;
中央处理模块,用于根据视觉图像获取模块提供的去噪后的图像,采用预规划的实时步态控制算法和基于双目视觉的避障算法,对图像中的障碍物进行判断,并进行步态规划,得到机器人的行走步态,并利用副控制器控制驱动模块进行机器人行走;
驱动模块,包括安装在机器人各个关节处的舵机,用于根据副控制器传递来的控制信息,驱动机器人的关节运动,从而实现机器人的行走;
传感模块,用于实时获取机器人的姿态角度信息,并将数据传输到中央处理模块,以实现机器人运动过程中的精确控制;
其中,所述的预规划的实时步态控制算法包括:
先建立双足机器人运动学坐标系模型,然后进行机器人的姿态规划和平稳性判断,最终完成步态行走,实时规划下一步的姿态;
所述的基于双目视觉的避障算法包括:
机器人检测到前方物体并判定为障碍物时,立即站立停止,在静止状态下时获取障碍物的尺寸参数和方位信息;根据障碍物尺寸参数、方位信息控制机器人绕过障碍。
2.如权利要求1所述的人形智能机器人***,其特征在于,所述的机器人检测到前方物体并判定为障碍物时,立即站立停止,在静止状态下时获取障碍物的尺寸参数和方位信息;根据障碍物尺寸参数、方位信息控制机器人绕过障碍,包括:
步骤1,根据机器人要到达的目的地进行路径的规划,对双目摄像头的左右两个摄像头分别进行标定,分别计算地面在左、右摄像头坐标系下的平面方程;
步骤2,通过双目摄像头采集机器人前方图像,并进行去噪处理;
步骤3,对左右摄像头采集的两幅图像进行畸变和极线校正,消去失真,将匹配点约束在一条直线上,最终匹配得到一张视差图;
步骤4,计算视差图中匹配点在左摄像头坐标系下的三维坐标(x,y,z),获取其高度与水平距离,并与设定阈值比较,判断障碍物是否存在;使用OpenCV视觉库中的cvFindCon—tours轮廓检测函数检测物体的轮廓,并用其外接矩形框标记;
对障碍物的判别算法:首先随机提取视差图中外接矩形框内物体上若干个白色像素点,计算其位于左摄像机坐标系下的三维坐标(x,y,z),其中x和z分别表示物体相对于左摄像头的高度距离与水平距离,y则表示物体相对于左摄像头光心的左右偏移距离,然后根据设定的阈值判断矩形框内的物体是否为障碍物;
步骤5,如判断前方无障碍物,则使机器人按照规划的路径行进;如判断前方有障碍物,则令机器人停止动作,并获取障碍物的参数信息,具体如下:
步骤5.1,将障碍物的外接矩形框的宽度作为障碍物的宽度,记为Q,外接矩形框的中心作为障碍物中心点,记为O;
步骤5.2,通过深度检测获取中心点O的三维坐标di(x,y,z),其中y表示中心点相对于左摄像头光心的偏移距离Li;获取外界矩形框中最左侧的一个白色像素点在左摄像头坐标系下的坐标(xL,yL,zL);
步骤5.3,根据障碍物的宽度计算出障碍物中心点O的纵坐标,即O点相对于左摄像头光心的偏移距离Lo:
步骤5.4,由于双目摄像头安装在机器人的中轴线上,因此障碍物中心点O相对于机器人中轴线的偏距d为:
其中d>0表示偏右,d<0表示偏左,d=0表示居中;
步骤6,进行避障路径规划
步骤6.1,设定障碍物的长度为W;
步骤6.2,当障碍物相对于机器人偏左时,机器人右转角度θ并沿平行安全距离直行一段距离X,机器人中心与障碍物中心的连线与规划路径垂直时,左转角度2θ并直行距离X,使其回归规划路径;
对于机器人的避障过程,有:
上式中,L为机器人的身宽;θ和2θ为机器人的旋转角度;D为障碍物相对机器人的距离;yL为障碍物左侧边界相对于机器人中心的偏移距离;d为考虑存在的误差和安全问题所增加的补偿距离。
3.如权利要求2所述的人形智能机器人***,其特征在于,所述的对障碍物的判别算法,具体包括:
步骤4.1,随机提取视差图中外接矩形框内若干白色像素点i=1,2,3,…,计算其三维坐标di(xi,yi,zi),并按照水平距离zi(即三维坐标中的zi值)的大小排序;
步骤4.2,因为提取和计算过程中存在误差,所以可能存在异常数据,因此取所有白色像素点水平距离zi的中位数z0,并设定阈值φ,对于所述的白色像素点,如白色像素点i的水平距离zi满足|zi-z0|>φ,则将白色像素点i作为异常点剔除,剩余白色像素点构成集合I;
步骤4.3,计算集合I中白色像素点水平距离zi的平均值作为外接矩形框内障碍物距离机器人的水平距离;取集合I中白色像素点三维坐标中xi的最大值xmax作为所述障碍物的高度;
步骤4.4,设定高度阈值xd和水平距离阈值zd,当满足xmax>xd,且时,则判定外接矩形框内的物体为障碍物。
4.如权利要求1所述的人形智能机器人***,其特征在于,所述的预规划的实时步态控制算法,包括:
步骤1’,建立双足机器人运动学坐标系模型
步骤1.1’,对机器人的各个关节进行编号,对于关节i,确定该关节的原点;
步骤1.2’,确立关节i处坐标系的各个坐标轴Xi、Yi、Zi,以在各个关节处建立坐标系;
步骤1.3’,根据在各个关节处建立的坐标系,相邻的两个坐标系Oi与Oi-1相比,获得相邻两个坐标系的差距,即变换矩阵;
通过上面的变换矩阵得到相邻的两个坐标系之间的运动学关系,记双足机器人的左脚膝关节的坐标系为参考坐标系,可得到其他关节坐标系与参考坐标系之间的运动学关系;将每个关节处的坐标系与参考坐标系之间的变换矩阵作为该关节与参考坐标系所在关节之间的数学模型,所有数学模型构成双足机器人运动学坐标系模型;
步骤2’,对双足机器人的姿态进行规划
步骤2.1’,设计双足机器人行走步态流程
机器人通过摆动腿前摆改变重心,在摆动腿前摆时,身体重心从双腿中心移到支撑腿上,因此身体先要向支撑腿一侧扭动来移动重心,即通过髋关节的侧向关节来调整重心;为了防止在侧扭时抬腿而造成身体向摆动腿一侧倾倒、步态设计中将侧扭和抬腿分步设计;
步骤2.2’,规划机器人行走时各个关节的姿态
先假设髋关节的侧向不发生变化,则求解行走轨迹步骤如下:
(1)绘制出髋关节与裸关节随时间改变而变化的曲线图,由此获得髋关节、裸关节的运动学轨迹;
(2)与人类行走轨迹进行对比,按照人类行走过程的受力情况明确机器人髋关节、裸关节运动受力的关键点,然后通过三次样条插值的方式,对所有关键点进行插值处理;
(3)分别将髋关节、裸关节处理后的关键点与步骤(1)中髋关节、裸关节运动学轨迹中的多项式进行拟合,获得髋关节与裸关节的平滑轨迹;则该轨迹即为髋关节与裸关节每一步行走后形成的轨迹。
按照相同的方法,可获得机器人双腿上其他关节在行走时形成的轨迹;将双足机器人一次行走过程中所涉及的关节的轨迹作为规划姿态,则获得规划的姿态后,通过关节处的舵机驱动机器人按照规划的姿态进行行走。
5.如权利要求4所述的人形智能机器人***,其特征在于,所述的预规划的实时步态控制算法,还包括:
步骤3’,进行姿态规划平稳性判断
根据步骤2’中的规划姿态,在机器人每次准备落脚时进行平稳性计算,判断当前机器人是否满足平稳性要求,判断依据为机器人的平稳点是否在设定的范围内,如在设定的范围内,则不干预,使机器人按照规划姿态进行行走,否则暂停行走,通过机器人的控制器调整机器人腿部的关节的姿态后,重新计算平稳性,直至平稳性满足要求,其中所述的平稳点计算方法为:
计算机器人的质心位置:
其中,n表示机器人全身关节的数量,mi表示第i个关节的质量,表示第i个关节的质心位置;COMi为第i次采样时机器人的质心位置;即当前为第i次采样;
计算平稳点W:
W=-a+COM
其中,
上式中,ts为采样时间,COMi,COMi-1,COMi-2分别为第i次、第i-1次和第i-2次采样时机器人的质心位置,COM为机器人站立不动时的质心位置;
判断平稳点W的位置,若W在设定的范围内,则认为机器人此步行走稳定,否则不稳定。
6.如权利要求1所述的人形智能机器人***,其特征在于,所述的机器人主体包括:
头部单元、主体单元、腿部单元以及设置在主体单元两侧的臂部单元;其中臂部单元包括左臂和右臂,腿部单元包括左腿和右腿。
7.如权利要求1所述的人形智能机器人***,其特征在于,所述的头部单元通过第19号舵机与主体单元连接,第19号舵机用于驱动头部单元向上或向下旋转0°~45°;头部单元包括LED状态显示单元、第20号舵机以及双目摄像头;所述的LED状态显示单元包括一组8个的蓝色LED灯和1个可变色LED灯,蓝色LED灯连接至副控制器上,作为通电指示灯和眼部指示灯,即通电点亮,断电熄灭;所述的可变色LED灯连接到副控制器上,作为机器人状态指示灯,其显示绿色常亮表示机器人状态正常,显示橙色常亮表示机器人状态存在异常;所述双目摄像头包括左右两个单目摄像头;所述单目摄像头连接到主控制器上,负责收集机器人本体周围的环境图像信息;所述的第20号舵机用于驱动双目摄像头向左或向右旋转0°~45°。
8.如权利要求1所述的人形智能机器人***,其特征在于,所述的臂部单元中的左臂通过第1号舵机与主体单元连接,左臂包括第3号舵机和第5号舵机,其中第1号舵机用于驱动左臂向上或向下转动0°~90°,第3号舵机安装在左臂的肘部位置,用于驱动左小臂向上抬起0°~90°;第5号舵机安装在左臂的手腕部位,用于驱动左手向上或向下旋转0°~45°;
所述的臂部单元中的右臂通过第2号舵机与主体单元连接,右臂包括第4号舵机和第6号舵机,其中第2号舵机用于驱动右臂向上或向下转动0°~90°,第4号舵机安装在右臂的肘部位置,用于驱动右小臂向上抬起0°~90°;第6号舵机安装在右臂的手腕部位,用于驱动右手向上或向下旋转0°~45°。
9.如权利要求1所述的人形智能机器人***,其特征在于,所述的腿部单元中的左腿通过第7号舵机与主体单元连接,包括第9号舵机、第11号舵机、第13号舵机、第15号舵机和第17号舵机,其中第7号舵机可以转动,用于驱动左腿向左或向右水平旋转0°~45°,第9号舵机用于驱动左腿向左或向右摆动0°~45°,第11号舵机用于驱动左腿向前或向后摆动0°~45°;第13号舵机安装在左腿的膝关节位置,用于驱动左小腿弯曲0°~90°;第15号舵机、第17号舵机分别用于驱动左脚向左或向右摆动0°~45°、向前或向后摆动0°~45°;
所述的腿部单元中的右腿通过第8号舵机与主体单元连接,包括第10号舵机、第12号舵机、第14号舵机、第16号舵机和第18号舵机,其中第8号舵机可以转动,用于驱动右腿向右或向右水平旋转0°~45°,第10号舵机用于驱动右腿向右或向右摆动0°~45°,第12号舵机用于驱动右腿向前或向后摆动0°~45°;第14号舵机安装在右腿的膝关节位置,用于驱动右小腿弯曲0°~90°;第16号舵机、第18号舵机分别用于驱动右脚向右或向右摆动0°~45°、向前或向后摆动0°~45°。
10.如权利要求1所述的人形智能机器人***,其特征在于,所述的主体单元包括主控制器、副控制器、按键模块、蜂鸣器模块、电源供电模块、第1号舵机、第2号舵机、第7号舵机、第8号舵机和第19号舵机;所述主控制器通过USB连接副控制器和双目摄像头,负责机器人控制算法以及指导副控制器工作;所述的主控制器上设置有外接接口,外接接口包括2个USB接口和1个Lan接口,可外接PC端或外接显示器、鼠标、键盘设备对机器人***进行调试或操控;所述副控制器通过总线方式连接第1-20号舵机,通过数据传输线连接位于头部单元的LED状态显示单元以及位于主体单元的按键模块、蜂鸣器模块;所述的总线方式包括五条总线,其中第1、3、5号舵机处于第一总线、第2、4、6号舵机处于第二总线、第7、9、11、13、15、17号舵机处于第三总线、第8、10、12、14、16、18号舵机处于第四总线、第19、20号舵机处于第五总线;所述副控制器上安装有陀螺仪和加速器,用于检测机器人所处的位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811238323.9A CN109333506B (zh) | 2018-10-23 | 2018-10-23 | 一种人形智能机器人*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811238323.9A CN109333506B (zh) | 2018-10-23 | 2018-10-23 | 一种人形智能机器人*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109333506A true CN109333506A (zh) | 2019-02-15 |
CN109333506B CN109333506B (zh) | 2021-12-17 |
Family
ID=65311392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811238323.9A Expired - Fee Related CN109333506B (zh) | 2018-10-23 | 2018-10-23 | 一种人形智能机器人*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109333506B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032192A (zh) * | 2019-04-28 | 2019-07-19 | 中北大学 | 一种仿人型快速行走循迹避障机器人 |
CN110038666A (zh) * | 2019-05-13 | 2019-07-23 | 闽江师范高等专科学校 | 智能压碎机及工作方法 |
CN110103257A (zh) * | 2019-05-10 | 2019-08-09 | 东方电子股份有限公司 | 一种基于双一线激光雷达自主导航机器人 |
CN110378915A (zh) * | 2019-07-24 | 2019-10-25 | 西南石油大学 | 一种基于双目视觉的爬壁机器人障碍物检测方法 |
CN110539303A (zh) * | 2019-08-01 | 2019-12-06 | 北京鲲鹏神通科技有限公司 | 一种仿人行走机器人 |
CN110623799A (zh) * | 2019-09-20 | 2019-12-31 | 北京理工大学 | 一种智能轮椅的控制方法及装置 |
CN112057866A (zh) * | 2020-09-14 | 2020-12-11 | 深圳市小元元科技有限公司 | 一种符合人体关节作用力模拟方法 |
CN112179565A (zh) * | 2020-08-28 | 2021-01-05 | 南京昱晟机器人科技有限公司 | 一种两足机器人步行平衡检测***及方法 |
CN113050616A (zh) * | 2019-12-27 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 一种双足机器人行走的控制方法及双足机器人 |
CN113787528A (zh) * | 2021-09-18 | 2021-12-14 | 上海电机学院 | 一种仿生企鹅机器人 |
CN114384865A (zh) * | 2020-10-19 | 2022-04-22 | 北京极智嘉科技股份有限公司 | 业务移交***及方法 |
CN114661057A (zh) * | 2022-05-23 | 2022-06-24 | 武汉跨克信息技术有限公司 | 一种智能仿生双足巡检机器人 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1290590A (zh) * | 1999-09-20 | 2001-04-11 | 索尼公司 | 机器人的步行控制装置和步行控制方法 |
CN1606488A (zh) * | 2001-12-19 | 2005-04-13 | 独立行政法人科学技术振兴机构 | 双足步行式移动装置、其步行控制器及步行控制方法 |
JP3662996B2 (ja) * | 1996-01-25 | 2005-06-22 | 本田技研工業株式会社 | 脚式移動ロボットの歩行制御装置 |
US20050240308A1 (en) * | 2002-05-07 | 2005-10-27 | Nat Institute Of Advance Indust Science & Tech. | Method and device for controlling walking of legged robot |
US7127326B2 (en) * | 2002-11-15 | 2006-10-24 | Iguana Robotics, Inc. | Certain principles of biomorphic robots including foot placement selection using non-geometric visual properties |
JP2006315095A (ja) * | 2005-05-10 | 2006-11-24 | Toyota Motor Corp | ロボットとその制御方法 |
US20110178637A1 (en) * | 2010-01-18 | 2011-07-21 | Samsung Electronics Co., Ltd. | Walking control apparatus of robot and method of controlling the same |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航***及方法 |
CN104252173A (zh) * | 2013-06-27 | 2014-12-31 | 广州中国科学院先进技术研究所 | 双足步行机器人的步行控制方法 |
CN105437232A (zh) * | 2016-01-11 | 2016-03-30 | 湖南拓视觉信息技术有限公司 | 一种控制多关节移动机器人避障的方法及装置 |
CN105608309A (zh) * | 2015-12-11 | 2016-05-25 | 杭州南江机器人股份有限公司 | 一种双足机器人步行规划和控制方法 |
CN106176149A (zh) * | 2016-09-08 | 2016-12-07 | 电子科技大学 | 一种基于多传感融合的外骨骼步态分析***及方法 |
CN107598897A (zh) * | 2017-10-19 | 2018-01-19 | 北京工业大学 | 一种基于人体示教的仿人机器人步态规划的方法 |
-
2018
- 2018-10-23 CN CN201811238323.9A patent/CN109333506B/zh not_active Expired - Fee Related
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3662996B2 (ja) * | 1996-01-25 | 2005-06-22 | 本田技研工業株式会社 | 脚式移動ロボットの歩行制御装置 |
CN1290590A (zh) * | 1999-09-20 | 2001-04-11 | 索尼公司 | 机器人的步行控制装置和步行控制方法 |
CN1606488A (zh) * | 2001-12-19 | 2005-04-13 | 独立行政法人科学技术振兴机构 | 双足步行式移动装置、其步行控制器及步行控制方法 |
US20050240308A1 (en) * | 2002-05-07 | 2005-10-27 | Nat Institute Of Advance Indust Science & Tech. | Method and device for controlling walking of legged robot |
US7127326B2 (en) * | 2002-11-15 | 2006-10-24 | Iguana Robotics, Inc. | Certain principles of biomorphic robots including foot placement selection using non-geometric visual properties |
JP2006315095A (ja) * | 2005-05-10 | 2006-11-24 | Toyota Motor Corp | ロボットとその制御方法 |
US20110178637A1 (en) * | 2010-01-18 | 2011-07-21 | Samsung Electronics Co., Ltd. | Walking control apparatus of robot and method of controlling the same |
CN104252173A (zh) * | 2013-06-27 | 2014-12-31 | 广州中国科学院先进技术研究所 | 双足步行机器人的步行控制方法 |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航***及方法 |
CN105608309A (zh) * | 2015-12-11 | 2016-05-25 | 杭州南江机器人股份有限公司 | 一种双足机器人步行规划和控制方法 |
CN105437232A (zh) * | 2016-01-11 | 2016-03-30 | 湖南拓视觉信息技术有限公司 | 一种控制多关节移动机器人避障的方法及装置 |
CN106176149A (zh) * | 2016-09-08 | 2016-12-07 | 电子科技大学 | 一种基于多传感融合的外骨骼步态分析***及方法 |
CN107598897A (zh) * | 2017-10-19 | 2018-01-19 | 北京工业大学 | 一种基于人体示教的仿人机器人步态规划的方法 |
Non-Patent Citations (3)
Title |
---|
付根平: "仿人机器人的步态规划和步行控制研究", 《中国博士学位论文全文数据库信息科技辑》 * |
王铮等: "《基于双目视觉的AGV障碍物检测与避障》", 《计算机集成制造***》 * |
田阳: "小型双足仿人机器人的设计与研发", 《中国硕士学位论文全文数据库信息科技辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032192A (zh) * | 2019-04-28 | 2019-07-19 | 中北大学 | 一种仿人型快速行走循迹避障机器人 |
CN110103257A (zh) * | 2019-05-10 | 2019-08-09 | 东方电子股份有限公司 | 一种基于双一线激光雷达自主导航机器人 |
CN110038666A (zh) * | 2019-05-13 | 2019-07-23 | 闽江师范高等专科学校 | 智能压碎机及工作方法 |
CN110038666B (zh) * | 2019-05-13 | 2024-03-29 | 闽江师范高等专科学校 | 智能压碎机 |
CN110378915A (zh) * | 2019-07-24 | 2019-10-25 | 西南石油大学 | 一种基于双目视觉的爬壁机器人障碍物检测方法 |
CN110539303A (zh) * | 2019-08-01 | 2019-12-06 | 北京鲲鹏神通科技有限公司 | 一种仿人行走机器人 |
CN110623799B (zh) * | 2019-09-20 | 2020-07-10 | 北京理工大学 | 一种智能轮椅的控制方法及装置 |
CN110623799A (zh) * | 2019-09-20 | 2019-12-31 | 北京理工大学 | 一种智能轮椅的控制方法及装置 |
CN113050616A (zh) * | 2019-12-27 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 一种双足机器人行走的控制方法及双足机器人 |
CN112179565A (zh) * | 2020-08-28 | 2021-01-05 | 南京昱晟机器人科技有限公司 | 一种两足机器人步行平衡检测***及方法 |
CN112057866A (zh) * | 2020-09-14 | 2020-12-11 | 深圳市小元元科技有限公司 | 一种符合人体关节作用力模拟方法 |
CN114384865A (zh) * | 2020-10-19 | 2022-04-22 | 北京极智嘉科技股份有限公司 | 业务移交***及方法 |
CN113787528A (zh) * | 2021-09-18 | 2021-12-14 | 上海电机学院 | 一种仿生企鹅机器人 |
CN114661057A (zh) * | 2022-05-23 | 2022-06-24 | 武汉跨克信息技术有限公司 | 一种智能仿生双足巡检机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN109333506B (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109333506A (zh) | 一种人形智能机器人*** | |
CN106078752B (zh) | 一种基于Kinect的仿人机器人人体行为模仿方法 | |
Almetwally et al. | Real-time tele-operation and tele-walking of humanoid Robot Nao using Kinect Depth Camera | |
CN109333534B (zh) | 预规划的实时步态控制算法 | |
CN103170973B (zh) | 人机协作装置及实现人机协作的方法 | |
CN105291138B (zh) | 一种增强虚拟现实浸入感的视觉反馈平台 | |
CN106313049A (zh) | 一种仿人机械臂体感控制***及控制方法 | |
CN106695748A (zh) | 一种双机械臂带电作业机器人 | |
CN106354161A (zh) | 机器人运动路径规划方法 | |
CN109983510A (zh) | 机器人控制***、机械控制***、机器人控制方法、机械控制方法和记录介质 | |
Wang et al. | A real-time human imitation system | |
CN111571582B (zh) | 一种艾灸机器人人机安全监控***及监控方法 | |
CN109531566A (zh) | 一种基于虚拟现实***的机器人带电作业控制方法 | |
CN109079799A (zh) | 一种基于仿生的机器人感知控制***及控制方法 | |
CN107953331A (zh) | 一种应用于人形机器人动作模仿的人体姿态映射方法 | |
CN107030693A (zh) | 一种基于双目视觉的带电作业机器人目标跟踪方法 | |
CN109529274B (zh) | 基于冗余机械臂上肢关节主动康复***及其训练方法 | |
Behnke et al. | See, walk, and kick: Humanoid robots start to play soccer | |
CN109079794A (zh) | 一种基于人体姿态跟随的机器人控制与示教方法 | |
CN108582031A (zh) | 一种基于力反馈主从控制的带电作业机器人支接引线搭接方法 | |
CN107291094A (zh) | 无人机机器人协同操作*** | |
Corsini et al. | Nonlinear model predictive control for human-robot handover with application to the aerial case | |
CN108527305A (zh) | 一种基于虚拟现实技术的带电作业机器人力反馈主从控制方法及*** | |
Rigotti et al. | Modeling and driving a reduced human mannequin through motion captured data: A neural network approach | |
CN207937787U (zh) | 扩增实境仿真*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211217 |
|
CF01 | Termination of patent right due to non-payment of annual fee |