CN102895092A - 一种基于多传感器融合的助行机器人三维环境识别*** - Google Patents
一种基于多传感器融合的助行机器人三维环境识别*** Download PDFInfo
- Publication number
- CN102895092A CN102895092A CN2011104139109A CN201110413910A CN102895092A CN 102895092 A CN102895092 A CN 102895092A CN 2011104139109 A CN2011104139109 A CN 2011104139109A CN 201110413910 A CN201110413910 A CN 201110413910A CN 102895092 A CN102895092 A CN 102895092A
- Authority
- CN
- China
- Prior art keywords
- information
- industrial computer
- motion
- module
- assistant robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明公开一种基于多传感器融合的助行机器人三维环境识别***及方法,包括:ARM信息处理模块、工控机模块、下位机运动控制模块;ARM信息处理模块对采集的数据进行处理后,建立三维场景重建及目标跟踪信息,发送至工控机模块;工控机模块接收用户的指令,利用GPS生成导航地图,将三维场景重建及目标跟踪信息与导航地图相结合生成运动路径规划信息,发送至下位机运动控制模块;下位机控制模块根据该信息驱动控制助行机器人产生相应动作,同时反馈运动信息至工控机模块。本发明将多个传感器融合,为助行机器人建立真实的三维环境,生成较优的运动路径实现助行机器人的安全、平稳、可靠行走,实现对目标有效跟踪,提高了助行机器人智能化。
Description
技术领域
本发明涉及信息工程技术领域,尤其涉及一种基于多传感器融合的助行机器人三维环境识别***及方法。
背景技术
助行机器人主要针对老年人或行动不便的残疾人如盲人等的安全、自主行动,对提高老年人和残疾人的生活质量,减轻家庭社会负担具有极其重要的意义。实现助行机器人对三维复杂环境的识别则是助行机器人关键技术之一,其有效性、可靠性直接决定了助行机器人技术能否实际应用的成败。
传统的助行机器人技术一般是利用诸如GPS进行地图导航,或利用图像处理设备、超声波等传感器对盲道进行检测,这种技术重视的是对助行机器人的行走路径的识别、导航,而忽略了对助行机器人所处环境的识别。
助行机器人的使用者不仅仅是希望借助助行机器人从一个地方到达另一个地方,还希望助行机器人帮助他们对其所处的环境进行识别、对其感兴趣的人或物进行跟踪。而对于弱视者来说,他们从一个地方到另一个地方,GPS建立的导航数据仅可以为他们提供一个粗的路径信息,至于路况、障碍物等信息还需要通过图像或超声波传感器来完成。但是,当他们到达目的地时或在其活动场所进行活动时,助行机器人不仅需要产生活动路径,还要对其所处的环境进行识别和跟踪,例如弱视者或老年人也希望像正常人一样和家人一起在独立的散步或逛商场而不是由家人推着他们散步或逛商场,要实现这一功能,就需要实现对助行机器人三维环境的识别和目标的跟踪,但是由于GPS不能提供三维信息,再加上其精度的影响,仅靠GPS不能满足此要求,通过图像传感器尽管能提供周围环境的信息,但是提供的二维信息,也不能满足三维环境识别和目标跟踪的要求,所以传统的技术通过采用GPS定位和地图创建实现导航功能,通过采用图像处理技术和超声波技术仅能实现在小环境下的路径规划和避障功能。这些技术没有涉及到为使用者提供目标选择、目标识别、目标跟踪,不能为使用者提供好的、人性化的用户体验,这种不足有待必改进和提高。
现有技术中公开了“一种智能导盲车”(中国发明专利申请号200610088153.1),该车通过超声波测障探头,实现盲道的探测,然而该***仅能用于有盲道的地方,实现盲道的探测和导引,而没有GPS全局地图导航,更没有基于三维环境的识别和目标跟踪。
现有技术中还公开了“盲人就医导盲***”(中国发明专利申请号200610117532.9),该***采用红外发射和接收装置实现盲人就医导盲,采用该***盲人可有效找到就医科室,但是该***不能实现避障,也没路径规划和三维环境的识别。
发明内容
本发明的目的在于克服现有技术的不足,为老年人或弱视者提供一种基于多传感器融合的助行机器人三维环境识别***及方法。
为达到上述目的,本发明是通过以下技术方案来实现的:
本发明公开了一种基于多传感器融合的助行机器人三维环境识别***,该***包括:ARM信息处理模块、工控机模块、下位机运动控制模块;其中,ARM信息处理模块采集数据,并对数据进行处理以建立三维场景重建及目标跟踪信息,并将该信息发送至工控机模块;工控机模块接收用户的指令,利用其自身的GPS生成导航地图,将接收的三维场景重建及目标跟踪信息与导航地图相结合生成运动路径规划信息,并发送至下位机运动控制模块;下位机控制模块根据运动路径规划信息驱动控制助行机器人产生相应动作,同时反馈运动信息至工控机模块。
进一步,所述的ARM信息处理模块还包括:ARM处理器***、全维摄像头、局部摄像头、激光传感器和倾角传感器;全维摄像头实时采集全局图像信息送至ARM处理器***,ARM处理器***根据全局图像对跟踪目标进行粗定位;局部摄像头将其采集的局部图像实时送至ARM处理器***,ARM处理器***根据局部图像对目标进行精定位,激光传感器和倾角传感器均将其采集到的数据实时传给ARM处理器***,ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据,ARM处理器***通过多传感器信息融合,进行三维场景重建及目标跟踪信息,并将这些信息送至工控机模块。
进一步,所述的工控机模块还包括:工控机、脉搏传感器、血压传感器、体温传感器、GPS、触摸屏、受话器和GPRS,工控机实时读取脉搏传感器、血压传感器、体温传感器,生成健康信息,工控机根据受话器或触摸屏接收到的命令,读取GPS生成导航地图,读取ARM信息处理模块送过来的三维场景重建及目标跟踪信息,根据其接收到的命令,利用导航地图和三维场景重建及目标跟踪信息生成运动路径规划信息,并将生成的运动路径规划信息送至下位机运动控制模块;工控机模块产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
进一步,所述的下位机运动控制模块还包括:运动控制卡、电机驱动器、伺服电机、升降机构、行走机构、姿态保持机构,上位机运动控制模块中的运动控制卡接受工控机送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号,运动控制卡将其产生的运动控制信号送至各电机驱动器,由各电机驱动器分别对各伺服电机进行驱动,伺服电机驱动升降机构可产生升降运动,伺服电机驱动行走机构可使助行机器人行走,伺服电机驱动姿态保持机构,可使助行机器人运动过程中姿态保持平稳。
本发明还公开了一种基于多传感器信息融合的助行机器人三维环境识别方法,用于如权利要求1所述的***中,该方法包括如下步骤:
S1.ARM信息处理模块采集数据,对该采集数据进行加工处理以建立三维场景重建及目标跟踪信息,并将所述信息送至工控机模块;
S2.工控机模块读取ARM信息处理器模块传送的信息,利用其自身的GPS生成导航地图,根据接收到的命令产生运动路径规划信息,并将该运动路径规划信息送至下位机运动控制模块;
S3.下位机控制模块根据运动路径规划信息驱动控制各部分机构产生相应的动作,同时反馈运动信息至工控机模块。
进一步,所述步骤S1中,所述ARM信息处理模块还包括:ARM处理器***、全维摄像头、局部摄像头、激光传感器和倾角传感器;其中,全维摄像头实时采集全局图像信息送至ARM处理器***,ARM处理器***根据全局图像对跟踪目标进行粗定位;局部摄像头将其采集的局部图像实时送至ARM处理器***,ARM处理器***根据局部图像对目标进行精定位,激光传感器和倾角传感器均将其采集到的数据实时传给ARM处理器***,ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据,ARM处理器***通过多传感器信息融合,进行三维场景重建及目标跟踪信息,并将这些信息送至工控机模块。
进一步,所述步骤S2中,所述的工控机模块还包括:工控机、脉搏传感器、血压传感器、体温传感器、GPS、触摸屏、受话器和GPRS,其中,工控机实时读取脉搏传感器、血压传感器、体温传感器,生成健康信息,工控机根据受话器或触摸屏接收到的命令,读取GPS生成导航地图,读取ARM信息处理模块送过来的三维场景重建及目标跟踪信息,根据其接收到的命令,利用导航地图和三维场景重建及目标跟踪信息生成运动路径规划信息,并将生成的运动路径规划信息送至下位机运动控制模块;工控机产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
进一步,所述步骤S3中,所述的下位机运动控制模块还包括:运动控制卡、电机驱动器、伺服电机、升降机构、行走机构、姿态保持机构,其中,上位机运动控制模块中的运动控制卡接受工控机送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号,运动控制卡将其产生的运动控制信号送至各电机驱动器,由各电机驱动器分别对各伺服电机进行驱动,伺服电机驱动升降机构可产生升降运动,伺服电机驱动行走机构可使助行机器人行走,伺服电机驱动姿态保持机构,可使助行机器人运动过程中姿态保持平稳。
本发明还公开了一种基于多传感器信息融合的助行机器人三维环境识别方法,包括如下步骤:
S1.ARM处理器***根据全局摄像头、局部摄像头采集的图像进行粗定位和精定位;ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据;ARM处理器将三维数据、粗定位信息和精定位信息进行融合,生成助行机器人的三维环境识别及目标跟踪信息,并将这些信息送至工控机模块;
S2.工控机模块根据受话器或触摸屏接收到的命令,读取GPS生成导航地图;结合ARM处理器送来的三维场景重建及目标跟踪信息,生成运动路径规划信息,传送至下位机运动控制模块;
S3.下位机运动控制模块接收工控机模块送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号;并将运动控制信号送至各电机驱动器,由各电机驱动器分别驱动各伺服电机使助行机器人分别产生升降、行走、姿态保持;并将各机构运动信息反馈至工控机模块。
进一步,该方法还包括如下步骤:
S4.工控机模块产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
本发明的有益效果:采用本发明将多个传感器融合,为助行机器人建立真实的三维环境,可生成较优的运动路径从而实现助行机器人的安全、平稳、可靠的行走,可实现对目标的有效跟踪,从而提高了助行机器人的智能化程序。
附图说明
下面根据附图和实施例对本发明作进一步详细说明。
图1为本发明基于多传感器融合的助行机器人三维环境识别***结构框图;
图2为本发明基于多传感器信息融合的助行机器人三维环境识别方法流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
图1为本发明基于多传感器融合的助行机器人三维环境识别******结构框图,如图1所示,本发明的***包括工控机模块、ARM信息处理模块和下位机运动控制模块。ARM信息处理模块通过socket通讯与工控机模块相连;工控机模块通过串口与下位机模块相连;工控机模块还通过GPRS与Web服务器相连,实现与Web数据的交换,其他用户可以通过Internet查询助行机器人使用者的信息。
ARM处理器模块包括:全维摄像头、局部摄像头、激光传感器和倾角传感器、以及ARM处理器***。全维摄像头将采集的图像送至ARM处理器***,ARM处理器***对全局图像进行边缘检测,然后进行区域合并,再进行区域的特征提取,根据区域特征,实现对环境目标的粗定位;局部摄像头将局部图像传送至ARM处理器***,ARM处理器***对局部图像先进行边缘检测、然后再进行区域合并,再对合并后的区域进行模板匹配,根据匹配的结果,实现对具体目标的精定位;激光传感器和倾角传感器将数据传送至ARM处理器***,由ARM处理器***通过三维数据合成算法得到三维数据;ARM处理器***利用三维重建及目标跟踪算法对粗定位信息、精定位信息和三维数据进行多传感器融合,从而实现对助行机器人周围环境的三维重建及目标的跟踪;并将这些信息传送至工控机处理***。
ARM(Advanced RISC Machines)处理器是微处理器的通称,是一个32位元精简指令集(RISC)处理器架构,其广泛地使用在许多嵌入式***设计。
工控机模块包括:工控机、脉搏传感器、血压传感器、体温传感器、GPS、触摸屏、受话器和GPRS。用户的命令可能过受话器输入也可通过触摸屏输入,通过受话器输入时,工控机通过其内部的命令语音识别模块来识别命令;工控机根据GPS传来的数据及用户命令生成导航路径,同时,结合ARM信息处理模块得到的三维环境识别信息,生成运动路径规划;工控机将生成的运动路径规划信息传送至下位机运动控制模块;同时,触摸屏实时显示助行机器人的运动参数和使用者的健康状况信息,并进行语音提示;工控机还将助行机器人的运动参数和使用者的健康状况信息通过GPRS模块经Internet送至服务器计算机,其他用户可通过网络对助行机器人的信息进行查询和处理。
下位机运动控制模块包括:运动控制卡、电机驱动器、驱动电机以及升降机构、行走机构、姿态保持机构。运动控制卡接受工控机规划的路径数据,根据这些数据进行插补,并对各电机驱动器发送驱动信号,电机驱动器根据运动控制卡给定的信号,驱动电机运动。运动控制卡还将各机构的位置传送至工控机,从而实现工控机对助行机器人运动状态的信息的获取。
图2为本发明基于多传感器信息融合的助行机器人三维环境识别方法流程图,如图2所示,本发明包括如下步骤:
S1.ARM信息处理模块采集数据,对该采集数据进行加工处理以建立三维场景重建及目标跟踪信息,并将所述信息送至工控机模块;
所述步骤S1中,所述ARM信息处理模块还包括:ARM处理器***、全维摄像头、局部摄像头、激光传感器和倾角传感器;其中,全维摄像头实时采集全局图像信息送至ARM处理器***,ARM处理器***根据全局图像对跟踪目标进行粗定位;局部摄像头将其采集的局部图像实时送至ARM处理器***,ARM处理器***根据局部图像对目标进行精定位,激光传感器和倾角传感器均将其采集到的数据实时传给ARM处理器***,ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据,ARM处理器***通过多传感器信息融合,进行三维场景重建及目标跟踪信息,并将这些信息送至工控机模块。
S2.工控机模块读取ARM信息处理器模块传送的信息,利用其自身的GPS生成导航地图,根据接收到的命令产生运动路径规划信息,并将该运动路径规划信息送至下位机运动控制模块;
所述步骤S2中,所述的工控机模块还包括:工控机、脉搏传感器、血压传感器、体温传感器、GPS、触摸屏、受话器和GPRS,其中,工控机实时读取脉搏传感器、血压传感器、体温传感器,生成健康信息,工控机根据受话器或触摸屏接收到的命令,读取GPS生成导航地图,读取ARM信息处理模块送过来的三维场景重建及目标跟踪信息,根据其接收到的命令,利用导航地图和三维场景重建及目标跟踪信息生成运动路径规划信息,并将生成的运动路径规划信息送至下位机运动控制模块;工控机产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
S3.下位机控制模块驱动控制各部分机构产生相应的动作,并将其运动信息反馈至工控机模块;
所述步骤S3中,所述的下位机运动控制模块还包括:运动控制卡、电机驱动器、伺服电机、升降机构、行走机构、姿态保持机构,其中,上位机运动控制模块中的运动控制卡接受工控机送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号,运动控制卡将其产生的运动控制信号送至各电机驱动器,由各电机驱动器分别对各伺服电机进行驱动,伺服电机驱动升降机构可产生升降运动,伺服电机驱动行走机构可使助行机器人行走,伺服电机驱动姿态保持机构,可使助行机器人运动过程中姿态保持平稳。
另外,本发明的具体实施方式还可以包括如下步骤:
S1.ARM处理器***根据全局摄像头、局部摄像头采集的图像进行粗定位和精定位;ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据;ARM处理器将三维数据、粗定位信息和精定位信息进行融合,生成助行机器人的三维环境识别及目标跟踪信息,并将这些信息送至工控机模块;
S2.工控机模块根据受话器或触摸屏接收到的命令,读取GPS生成导航地图;结合ARM处理器送来的三维场景重建及目标跟踪信息,生成运动路径规划信息,传送至下位机运动控制模块;
S3.下位机运动控制模块接收工控机模块送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号;并将运动控制信号送至各电机驱动器,由各电机驱动器分别驱动各伺服使助行机器人分别产生升降、行走、姿态保持;并将各机构运动信息反馈至工控机模块;
S4.工控机模块产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
本发明的有益效果:采用本发明将多个传感器融合,为助行机器人建立真实的三维环境,可生成较优的运动路径从而实现助行机器人的安全、平稳、可靠的行走,可实现对目标的有效跟踪,从而提高了助行机器人的智能化程序。
上述仅为本发明的较佳实施例及所运用技术原理,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围的内。
Claims (10)
1.一种基于多传感器融合的助行机器人三维环境识别***,其特征在于,该***包括:ARM信息处理模块、工控机模块、下位机运动控制模块;其中,ARM信息处理模块对采集的数据进行处理后,建立三维场景重建及目标跟踪信息,并将该信息发送至工控机模块;工控机模块接收用户的指令,利用其自身的GPS生成导航地图,将接收的三维场景重建及目标跟踪信息与导航地图相结合生成运动路径规划信息,发送至下位机运动控制模块;下位机控制模块根据运动路径规划信息驱动控制助行机器人产生相应动作,同时反馈运动信息至工控机模块。
2.如权利要求1所述的基于多传感器融合的助行机器人三维环境识别***,其特征在于,所述的ARM信息处理模块还包括:ARM处理器***、全维摄像头、局部摄像头、激光传感器和倾角传感器;全维摄像头实时采集全局图像信息送至ARM处理器***,ARM处理器***根据全局图像对跟踪目标进行粗定位;局部摄像头将其采集的局部图像实时送至ARM处理器***,ARM处理器***根据局部图像对目标进行精定位,激光传感器和倾角传感器均将其采集到的数据实时传给ARM处理器***,ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据,ARM处理器***通过多传感器信息融合,进行三维场景重建及目标跟踪信息,并将这些信息送至工控机模块。
3.如权利要求1所述的基于多传感器融合的助行机器人三维环境识别***,其特征在于,所述的工控机模块还包括:工控机、脉搏传感器、血压传感器、体温传感器、GPS、触摸屏、受话器和GPRS,工控机实时读取脉搏传感器、血压传感器、体温传感器,生成健康信息,工控机根据受话器或触摸屏接收到的命令,读取GPS生成导航地图,读取ARM信息处理模块送过来的三维场景重建及目标跟踪信息,根据其接收到的命令,利用导航地图和三维场景重建及目标跟踪信息生成运动路径规划信息,并将生成的运动路径规划信息送至下位机运动控制模块;工控机模块产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
4.如权利要求1所述的基于多传感器融合的助行机器人三维环境识别***,其特征在于,所述的下位机运动控制模块还包括:运动控制卡、电机驱动器、伺服电机、升降机构、行走机构、姿态保持机构,上位机运动控制模块中的运动控制卡接受工控机送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号,运动控制卡将其产生的运动控制信号送至各电机驱动器,由各电机驱动器分别对各伺服电机进行驱动,伺服电机驱动升降机构可产生升降运动,伺服电机驱动行走机构可使助行机器人行走,伺服电机驱动姿态保持机构,可使助行机器人运动过程中姿态保持平稳。
5.一种基于多传感器信息融合的助行机器人三维环境识别方法,用于如权利要求1所述的***中,其特征在于,该方法包括如下步骤:
S1.ARM信息处理模块采集数据,对该采集数据进行处理以建立三维场景重建及目标跟踪信息,并将该信息送至工控机模块;
S2.工控机模块读取ARM信息处理器模块传送的信息,利用其自身的GPS生成导航地图,根据接收到的命令产生运动路径规划信息,并将该运动路径规划信息送至下位机运动控制模块;
S3.下位机控制模块根据运动路径规划信息驱动控制助行机器人产生相应的动作,同时反馈运动信息至工控机模块。
6.如权利要求5所述的基于多传感器信息融合的助行机器人三维环境识别方法,其特征在于,所述步骤S1中,所述ARM信息处理模块还包括:ARM处理器***、全维摄像头、局部摄像头、激光传感器和倾角传感器;其中,全维摄像头实时采集全局图像信息送至ARM处理器***,ARM处理器***根据全局图像对跟踪目标进行粗定位;局部摄像头将其采集的局部图像实时送至ARM处理器***,ARM处理器***根据局部图像对目标进行精定位,激光传感器和倾角传感器均将其采集到的数据实时传给ARM处理器***,ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据,ARM处理器***通过多传感器信息融合,进行三维场景重建及目标跟踪信息,并将这些信息送至工控机模块。
7.如权利要求5所述的基于多传感器信息融合的助行机器人三维环境识别方法,其特征在于,所述步骤S2中,所述的工控机模块还包括:工控机、脉搏传感器、血压传感器、体温传感器、GPS、触摸屏、受话器和GPRS,其中,工控机实时读取脉搏传感器、血压传感器、体温传感器,生成健康信息,工控机根据受话器或触摸屏接收到的命令,读取GPS生成导航地图,读取ARM信息处理模块送过来的三维场景重建及目标跟踪信息,根据其接收到的命令,利用导航地图和三维场景重建及目标跟踪信息生成运动路径规划信息,并将生成的运动路径规划信息送至下位机运动控制模块;工控机产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
8.如权利要求5所述的基于多传感器信息融合的助行机器人三维环境识别方法,其特征在于,所述步骤S3中,所述的下位机运动控制模块还包括:运动控制卡、电机驱动器、伺服电机、升降机构、行走机构、姿态保持机构,其中,上位机运动控制模块中的运动控制卡接受工控机送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号,运动控制卡将其产生的运动控制信号送至各电机驱动器,由各电机驱动器分别对各伺服电机进行驱动,伺服电机驱动升降机构可产生升降运动,伺服电机驱动行走机构可使助行机器人行走,伺服电机驱动姿态保持机构,可使助行机器人运动过程中姿态保持平稳。
9.一种基于多传感器信息融合的助行机器人三维环境识别方法,其特征在于,包括如下步骤:
S1.ARM处理器***根据全局摄像头、局部摄像头采集的图像进行粗定位和精定位;ARM处理器***将激光传感器数据和倾角传感器数据结合生成三维数据;ARM处理器将三维数据、粗定位信息和精定位信息进行融合,生成助行机器人的三维环境识别及目标跟踪信息,并将这些信息送至工控机模块;
S2.工控机模块根据受话器或触摸屏接收到的命令,读取GPS生成导航地图;结合ARM处理器送来的三维场景重建及目标跟踪信息,生成运动路径规划信息,传送至下位机运动控制模块;
S3.下位机运动控制模块接收工控机模块送来的运动路径规划信息,对运动路径进行插补,产生运动控制信号;并将运动控制信号送至各电机驱动器,由各电机驱动器分别驱动各伺服电机使助行机器人分别产生升降、行走、姿态保持;同时反馈运动信息至工控机模块。
10.如权利要求9所述的基于多传感器信息融合的助行机器人三维环境识别方法,其特征在于,还包括如下步骤:
S4.工控机模块产生的助行机器人运动参数及用户的健康信息,或送至触摸屏实时显示,或送至音箱输出,或利用GPRS通过internet传到服务器计算机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011104139109A CN102895092A (zh) | 2011-12-13 | 2011-12-13 | 一种基于多传感器融合的助行机器人三维环境识别*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011104139109A CN102895092A (zh) | 2011-12-13 | 2011-12-13 | 一种基于多传感器融合的助行机器人三维环境识别*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102895092A true CN102895092A (zh) | 2013-01-30 |
Family
ID=47567788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011104139109A Pending CN102895092A (zh) | 2011-12-13 | 2011-12-13 | 一种基于多传感器融合的助行机器人三维环境识别*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102895092A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103655123A (zh) * | 2013-11-20 | 2014-03-26 | 南通康盛医疗器械有限公司 | 一种安全助行器 |
CN103759734A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 协助过马路服务机器人 |
CN103984407A (zh) * | 2013-02-08 | 2014-08-13 | 英属维京群岛商速位互动股份有限公司 | 使用运动传感器融合来进行运动识别的方法及装置 |
CN105425795A (zh) * | 2015-11-26 | 2016-03-23 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法及装置 |
CN106020201A (zh) * | 2016-07-13 | 2016-10-12 | 广东奥讯智能设备技术有限公司 | 移动机器人3d导航定位***及导航定位方法 |
CN106155062A (zh) * | 2016-09-08 | 2016-11-23 | 肇庆市小凡人科技有限公司 | 一种移动机器人控制*** |
CN106679661A (zh) * | 2017-03-24 | 2017-05-17 | 山东大学 | 搜救机器人手臂辅助同时定位及构建环境地图***及方法 |
CN106726208A (zh) * | 2015-11-20 | 2017-05-31 | 沈阳新松机器人自动化股份有限公司 | 一种智能轮椅控制*** |
CN107307852A (zh) * | 2016-04-27 | 2017-11-03 | 王方明 | 智能机器人*** |
CN107684493A (zh) * | 2017-10-17 | 2018-02-13 | 苏州诚满信息技术有限公司 | 一种用于轮椅的云模拟智能避障*** |
CN107831675A (zh) * | 2016-09-16 | 2018-03-23 | 天津思博科科技发展有限公司 | 基于智能学习技术的在线机器人控制装置 |
CN108181336A (zh) * | 2017-11-10 | 2018-06-19 | 浙江泰克松德能源科技有限公司 | 一种手持式x荧光光谱仪全自动定标数据采集台及其实施方法 |
CN108711163A (zh) * | 2018-02-24 | 2018-10-26 | 中国人民解放***箭军工程大学 | 一种基于多传感器的机器人未知环境目标跟踪方法 |
CN109106563A (zh) * | 2018-06-28 | 2019-01-01 | 清华大学天津高端装备研究院 | 一种基于深度学习算法的自动化导盲装置 |
CN109375614A (zh) * | 2018-08-29 | 2019-02-22 | 上海常仁信息科技有限公司 | 一种基于机器人的定位跟踪*** |
CN110338993A (zh) * | 2019-07-12 | 2019-10-18 | 扬州大学 | 一种电动轮椅及电动轮椅自动跟随人员的方法 |
CN111230858A (zh) * | 2019-03-06 | 2020-06-05 | 南昌工程学院 | 基于增强学习的视觉机器人运动控制方法 |
CN111267081A (zh) * | 2020-02-18 | 2020-06-12 | 上海柴孚机器人有限公司 | 一种用于定向工业机器人的方法 |
CN111267080A (zh) * | 2020-02-18 | 2020-06-12 | 上海柴孚机器人有限公司 | 一种工业机器人路径自动修正的方法 |
CN111300409A (zh) * | 2020-02-16 | 2020-06-19 | 上海柴孚机器人有限公司 | 一种工业机器人路径规划方法 |
CN112587378A (zh) * | 2020-12-11 | 2021-04-02 | 中国科学院深圳先进技术研究院 | 基于视觉的外骨骼机器人足迹规划***、方法及存储介质 |
CN112656402A (zh) * | 2020-11-30 | 2021-04-16 | 重庆优乃特医疗器械有限责任公司 | 应用于3d体态检测分析的采集机器人联动控制*** |
CN114627664A (zh) * | 2016-08-26 | 2022-06-14 | 松下电器(美国)知识产权公司 | 三维信息处理方法以及三维信息处理装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007139710A (ja) * | 2005-11-22 | 2007-06-07 | Advanced Telecommunication Research Institute International | 歩行補助ロボット |
CN101530368A (zh) * | 2009-04-02 | 2009-09-16 | 上海交通大学 | 助行机器人智能控制器 |
CN101540948A (zh) * | 2009-04-09 | 2009-09-23 | 上海交通大学 | 面向助行机器人的Web监控*** |
CN101549498A (zh) * | 2009-04-23 | 2009-10-07 | 上海交通大学 | 智能帮扶式助行机器人的自主跟踪与导航*** |
-
2011
- 2011-12-13 CN CN2011104139109A patent/CN102895092A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007139710A (ja) * | 2005-11-22 | 2007-06-07 | Advanced Telecommunication Research Institute International | 歩行補助ロボット |
CN101530368A (zh) * | 2009-04-02 | 2009-09-16 | 上海交通大学 | 助行机器人智能控制器 |
CN101540948A (zh) * | 2009-04-09 | 2009-09-23 | 上海交通大学 | 面向助行机器人的Web监控*** |
CN101549498A (zh) * | 2009-04-23 | 2009-10-07 | 上海交通大学 | 智能帮扶式助行机器人的自主跟踪与导航*** |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984407A (zh) * | 2013-02-08 | 2014-08-13 | 英属维京群岛商速位互动股份有限公司 | 使用运动传感器融合来进行运动识别的方法及装置 |
CN103984407B (zh) * | 2013-02-08 | 2018-04-24 | 曦恩体感科技股份有限公司 | 使用运动传感器融合来进行运动识别的方法及装置 |
CN103655123A (zh) * | 2013-11-20 | 2014-03-26 | 南通康盛医疗器械有限公司 | 一种安全助行器 |
CN103759734A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 协助过马路服务机器人 |
CN106726208A (zh) * | 2015-11-20 | 2017-05-31 | 沈阳新松机器人自动化股份有限公司 | 一种智能轮椅控制*** |
WO2017088720A1 (zh) * | 2015-11-26 | 2017-06-01 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法、装置及计算机存储介质 |
CN105425795A (zh) * | 2015-11-26 | 2016-03-23 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法及装置 |
CN107307852A (zh) * | 2016-04-27 | 2017-11-03 | 王方明 | 智能机器人*** |
CN106020201A (zh) * | 2016-07-13 | 2016-10-12 | 广东奥讯智能设备技术有限公司 | 移动机器人3d导航定位***及导航定位方法 |
CN114627664A (zh) * | 2016-08-26 | 2022-06-14 | 松下电器(美国)知识产权公司 | 三维信息处理方法以及三维信息处理装置 |
CN106155062A (zh) * | 2016-09-08 | 2016-11-23 | 肇庆市小凡人科技有限公司 | 一种移动机器人控制*** |
CN107831675A (zh) * | 2016-09-16 | 2018-03-23 | 天津思博科科技发展有限公司 | 基于智能学习技术的在线机器人控制装置 |
CN106679661A (zh) * | 2017-03-24 | 2017-05-17 | 山东大学 | 搜救机器人手臂辅助同时定位及构建环境地图***及方法 |
CN106679661B (zh) * | 2017-03-24 | 2023-08-22 | 山东大学 | 搜救机器人手臂辅助同时定位及构建环境地图***及方法 |
CN107684493B (zh) * | 2017-10-17 | 2020-05-19 | 冀晓静 | 一种用于轮椅的云模拟智能避障*** |
CN107684493A (zh) * | 2017-10-17 | 2018-02-13 | 苏州诚满信息技术有限公司 | 一种用于轮椅的云模拟智能避障*** |
CN108181336A (zh) * | 2017-11-10 | 2018-06-19 | 浙江泰克松德能源科技有限公司 | 一种手持式x荧光光谱仪全自动定标数据采集台及其实施方法 |
CN108711163A (zh) * | 2018-02-24 | 2018-10-26 | 中国人民解放***箭军工程大学 | 一种基于多传感器的机器人未知环境目标跟踪方法 |
CN109106563A (zh) * | 2018-06-28 | 2019-01-01 | 清华大学天津高端装备研究院 | 一种基于深度学习算法的自动化导盲装置 |
CN109375614A (zh) * | 2018-08-29 | 2019-02-22 | 上海常仁信息科技有限公司 | 一种基于机器人的定位跟踪*** |
CN111230858A (zh) * | 2019-03-06 | 2020-06-05 | 南昌工程学院 | 基于增强学习的视觉机器人运动控制方法 |
CN111230858B (zh) * | 2019-03-06 | 2022-11-22 | 南昌工程学院 | 基于增强学习的视觉机器人运动控制方法 |
CN110338993A (zh) * | 2019-07-12 | 2019-10-18 | 扬州大学 | 一种电动轮椅及电动轮椅自动跟随人员的方法 |
CN111300409A (zh) * | 2020-02-16 | 2020-06-19 | 上海柴孚机器人有限公司 | 一种工业机器人路径规划方法 |
CN111267081A (zh) * | 2020-02-18 | 2020-06-12 | 上海柴孚机器人有限公司 | 一种用于定向工业机器人的方法 |
CN111267080A (zh) * | 2020-02-18 | 2020-06-12 | 上海柴孚机器人有限公司 | 一种工业机器人路径自动修正的方法 |
CN112656402A (zh) * | 2020-11-30 | 2021-04-16 | 重庆优乃特医疗器械有限责任公司 | 应用于3d体态检测分析的采集机器人联动控制*** |
CN112587378A (zh) * | 2020-12-11 | 2021-04-02 | 中国科学院深圳先进技术研究院 | 基于视觉的外骨骼机器人足迹规划***、方法及存储介质 |
CN112587378B (zh) * | 2020-12-11 | 2022-06-07 | 中国科学院深圳先进技术研究院 | 基于视觉的外骨骼机器人足迹规划***、方法及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102895092A (zh) | 一种基于多传感器融合的助行机器人三维环境识别*** | |
Demeester et al. | User-adapted plan recognition and user-adapted shared control: A Bayesian approach to semi-autonomous wheelchair driving | |
Lin et al. | Deep learning based wearable assistive system for visually impaired people | |
EP3510986B1 (en) | Mobility device and mobility system | |
CN101549498B (zh) | 智能帮扶式助行机器人的自主跟踪与导航*** | |
CN102411371A (zh) | 一种基于多传感器服务机器人跟随***和方法 | |
CN106726209A (zh) | 一种基于脑机接口与人工智能的智能轮椅控制方法 | |
CN102895093A (zh) | 一种基于rgb-d传感器的助行机器人跟踪***及方法 | |
Pradeep et al. | A wearable system for the visually impaired | |
CN102499638A (zh) | 一种基于视听嗅触的活体探测*** | |
CN115416047B (zh) | 一种基于多传感器四足机器人的助盲***和方法 | |
CN115399950A (zh) | 具有定位导航与多模态人机交互功能的智能轮椅及控制方法 | |
Jayakody et al. | Smart wheelchair to facilitate disabled individuals | |
Alibhai et al. | A Human-Computer Interface for smart wheelchair control using forearm EMG signals | |
Kalpana et al. | An intelligent voice-recognition wheelchair system for disabled persons | |
Lidoris et al. | The autonomous city explorer project: Aims and system overview | |
Wahyufitriyani et al. | Review of intelligent wheelchair technology control development in the last 12 years | |
Mazo et al. | Integral system for assisted mobility | |
García et al. | Human-machine interfaces and sensory systems for an autonomous wheelchair | |
Aziz et al. | Smart Wheelchairs: A Review on Control Methods | |
Ajay et al. | Smart wheelchair | |
CN115698631A (zh) | 助行机器人导航方法、助行机器人及计算机可读存储介质 | |
Wang et al. | An improved localization and navigation method for intelligent wheelchair in narrow and crowded environments | |
Mandel et al. | Smart-wheelchairs | |
Escobedo et al. | Context-based face control of a robotic wheelchair |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
DD01 | Delivery of document by public notice |
Addressee: Li Baoshun Document name: the First Notification of an Office Action |
|
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130130 |
|
WD01 | Invention patent application deemed withdrawn after publication |