CN202075626U - 智能空间与护士机器人多传感器*** - Google Patents

智能空间与护士机器人多传感器*** Download PDF

Info

Publication number
CN202075626U
CN202075626U CN2011201088863U CN201120108886U CN202075626U CN 202075626 U CN202075626 U CN 202075626U CN 2011201088863 U CN2011201088863 U CN 2011201088863U CN 201120108886 U CN201120108886 U CN 201120108886U CN 202075626 U CN202075626 U CN 202075626U
Authority
CN
China
Prior art keywords
sensor
robot
information
intelligent space
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2011201088863U
Other languages
English (en)
Inventor
周风余
田国会
薛英花
尹建芹
张凯
王广奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN2011201088863U priority Critical patent/CN202075626U/zh
Application granted granted Critical
Publication of CN202075626U publication Critical patent/CN202075626U/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

本实用新型公开了智能空间和护士机器人多传感器***,它包括机载PC,机载PC分别与用户计算机和下位机控制器双向连接,机载PC还分别与避障传感器,定位传感器和视觉传感器双向连接。本实用新型建立了基于分布式数据融合树的多模式信息获取机制,并针对信息获取的不同层次,设计了与之相适应的数据融合算法,实现了对智能空间分布式传感器数据的多级别、多层次处理,使服务机器人和智能空间具备了多模式的信息获取能力,实现了更加丰富的信息服务和共享。

Description

智能空间与护士机器人多传感器***
技术领域
本实用新型涉及一种智能空间与护士机器人多传感器***。 
背景技术
智能空间中存在大量的分布式传感器,它们为智能空间提供了丰富的异构信息。为了充分利用智能空间中无所不在的服务和资源,必须建立与之相适应的信息模型表示方法。这种模型使智能空间和服务机器人***能够具备多模式的信息获取能力,实现更加丰富的信息服务和共享。而在传统模式下,服务机器人与传感设备是一对一和直接占有的关系,且机器人和计算环境是固定的,这种模式限制了信息的互通和共享,难以满足智能空间的需求。 
智能空间的信息服务不仅局限于原始信号的层面,而是通过对多传感器的数据融合能够给出多层次的信息。多传感器信息融合是多模式信息获取的基础,它把分布在机器人和智能空间中的多个同构或异构传感器所提供的不完整、不确定的信息加以融合,从而获取更准确、更完备的环境信息。一个完整的信息融合***包含信息融合的功能模型、融合层次、融合的拓扑结构、适当的融合方法等多个方面,而当前对于该课题的研究主要集中在不同的融合算法及其改进上,如何为智能空间设计合理的信息融合模型,选择高效的信息融合算法和***学习算法,并为智能空间提供多模式的信息获取机制尚少有研究。 
实用新型内容
为弥补传统信息获取技术的不足,本实用新型提供一种用于智能空间和护士机器人多传感器***。 
为实现上述目的,本实用新型采用如下技术方案: 
智能空间与护士机器人多传感器***,它包括机载PC,机载PC分别与用户计算机和下位机控制器双向连接,机载PC还分别与避障传感器,定位传感器和视觉传感器双向连接。 
所述避障传感器包括红外传感器、超声波传感器和激光传感器;其中,红外传感器和超声波传感器为底层避障传感器; 
红外传感器为NPN常开型传感器,检测前方一定距离内的障碍物有无; 
超声波传感器:支持2个声纳环,每个环有8个超声波换能器,用于障碍物检测、距离检测和自动避障,环境建模,定位和导航;每个声纳环位置固定:两侧各有一个,另外6个 以20°间隔分布在侧边; 
激光传感器:具有方向性好,分辨率高,探测距离远的优势;且由于激光不会发生漫反射,传感器获得的数据准确可靠,能对机器人前方的环境进行精确的描述,便于建立分辨率高的栅格地图; 
红外、超声和激光结合相互补充,构成冗余传感器***,实现机器人前方远、中、近全距离覆盖,保障机器人运行的安全可靠,实现服务机器人的无障碍行走。 
所述定位传感器包括光学编码器,惯性导航模块;其中:光学编码器:机器人的每个电机上均装有光学编码器,用于机器人定位、速度测量;惯性导航模块:主要有两个任务:精确测量机器人的运动状态和姿态;提供错误诊断能力。 
所述视觉传感器为CCD摄像机,用于目标物品的识别定位和机器人的避障、导航。 
有益效果:智能空间改变了传统模式下机器人与设备间一对一的占有方式,使得计算资源和各种设备趋向公用和共享化。为了充分利用这些无所不在的服务和资源,本实用新型利用改进的JDL模型,构建了智能空间下的多模式信息表示模型。该模型将QR Code、RFID等不同种类、不同形式的异构信息用统一的规范表示出来,实现了信息的互通和共用。智能空间的计算能力使得信息的服务不仅局限于原始信号的层面,而是通过对多模式信号的数据融合能够给出更深层的信息。本实用新型建立了基于分布式数据融合树的多模式信息获取机制,并针对信息获取的不同层次,设计了与之相适应的数据融合算法,实现了对智能空间分布式传感器数据的多级别、多层次处理,使服务机器人和智能空间具备了多模式的信息获取能力,实现了更加丰富的信息服务和共享。 
附图说明
图1护士机器人传感器***; 
图2基于改进的JDL模型的智能空间信息表示; 
图3基于数据融合树的多模式信息获取模型; 
图4为服务机器人智能空间任务规划及质量评估流程图; 
图5为护士机器人病房巡视流程图; 
图6为传统信息获取模式的机器人定位效果图; 
图7分别和多信息获取模式下的机器人定位效果图; 
图8为输液瓶定位误差比较图; 
图9为不同模式下坠床报警的成功率示意图。 
具体实施方式
下面结合附图和实施例对本实用新型作进一步说明: 
在智能空间模式下,存在着大量的传感设备和计算资源,且这些信息和计算资源都趋于公用和共享化。智能空间和服务机器人中的多传感器信息可分为: 
(1)环境因子信息,包括温度、湿度和光照强度等环境参数。 
(2)地图信息,含静态地图信息,如楼宇格局、室内布局、大型家具的静态位置等;动态地图信息包括人和可移动的物品的动态位置。 
(3)服务机器人定位导航信息。包括里程计、惯导模块、人工地标(StarGazer)和分布式摄像机等提供的机器人位姿信息;以及激光、超声、摄像机等提供的障碍物信息; 
(4)监控目标信息。主要包含摄像机、惯导模块、人工标签等提供的病员行为、伤口状态和治疗设备的状态信息,本体摄像机提供的面部表情信息等。 
护士机器人是智能空间中重要的执行机构,而传感器***作为服务机器人必不可少的部分,主要实现避障、导航和检测其他信息等功能。由图1可知,护士机器人具有丰富的传感器配置。 
按照传感器的功能不同,可将护士机器人的传感器***分为以下几类: 
1.避障传感器 
包括红外传感器、超声波传感器和激光传感器等。其中,红外传感器和超声波传感器为底层避障传感器。 
(1)红外传感器 
机器人配置的红外传感器的型号为E18-D80NK。该传感器为NPN常开型传感器,可以检测前方一定距离内的障碍物有无,量程在3-80cm可调。 
(2)超声波传感器 
护士机器人可以支持2个声纳环,每个环有8个超声波换能器,用于障碍物检测、环境建模、机器人定位和导航。每个声纳环的位置是固定的:两侧各有一个,另外6个以20°间隔分布在侧边。这种声纳阵的布置可以为机器人提供360°无缝检测。声纳环采用查询方式进行信息读取,即每个环在同一时刻只有一个换能器处于激活状态。声纳的工作速度可调,默认设置为25Hz,测量距离为15cm至10m。声纳传感器选用了SENSCOMP生产的6500系列端面型传感器。 
(3)激光传感器 
与红外和超声传感器相比,激光传感器具有方向性好,分辨率高,探测距离远等优势。 且由于激光不会发生漫反射,传感器获得的数据准确可靠,能对机器人前方的环境进行精确的描述,便于建立分辨率高的环境地图。激光传感器型号为URG-04LX-UG01,最大探测距离为0~5600mm,有效探测距离为0~4000mm,探测范围0~180度,角分辨率为0.35度/条。 
红外、超声和激光相互补充,构成冗余传感器***,可实现机器人前方的全范围覆盖,保障机器人运行的安全可靠,实现服务机器人的无障碍行走。 
2.定位传感器 
(1)光学编码器 
服务机器人的每个电机上装有高分辨率的光学编码器,用于机器人定位、速度测量以及更先进的计算。 
(2)惯性导航模块 
惯性测量单元的加入主要有两个任务:精确测量机器人的运动状态和姿态;提供错误诊断能力。 
惯性导航模块采用ARM为主控制器,配置加速度传感器、陀螺仪和指南针,嵌入μC/OS-II嵌入式实时操作***,采集三轴MEMS陀螺仪信号,采用Quaternion(四元数姿态表达式),积分求得陀螺仪姿态角。同时采集三轴MEMS加速度计和三轴磁强计信号,利用大地磁场和重力磁场在地理坐标系和机体坐标系之间的方向余弦转换进行绝对角度解算,得到绝对姿态角。然后根据信号的变化频率实时改变滤波参数,随后对两次得到的姿态角进行EKF(扩展式卡尔曼滤波),最终得到服务机器人的实际姿态角。 
3、视觉传感器 
视觉传感器是护士机器人最重要的传感器之一。视觉提供的丰富信息,既可用于目标物品的识别定位,又可用于机器人的避障、导航。 
图像传感器需要完成图像的识别和传输,因此,选用了SONY的EVI-D100P1/4英尺彩色CCD摄像机,该摄像机输出PAL彩色制式的CCIR标准的视频信号,有效像素440,000个,最小拍摄距离100mm(广角端)/600mm(望远端),快门速度1/3至1/10,000秒(VISCA控制),视频信噪比50dB。考虑到图像处理的复杂性,该摄像机连接到DSP开发板进行相关的机器人视觉处理工作,DSP开发板通过网络接口与工控机连接,实现命令、图像的传输。 
智能空间中存在大量的异构信息,如:人工地标的信息以QR Code编码表示、分布式视觉***的信息以视频形式存在。为满足异构信息的互通、描述内容的重用及实现信息的上下文互联,本实用新型专利借鉴了JDL模型并进行改进,制定了智能空间信息表示模型规范,实现了对智能空间信息网络的有效补充。 
信息融合***的JDL(Joint Directors of Laboratories)功能模型,主要由信息预处理、一级处理即目标位置/身份估计、二级处理即态势评估、三级处理即威胁估计、四级处理即过程优化、数据库管理***等功能组成。该模型目前主要用于军事C3I领域,通用性不强。针对智能空间的特点,我们对该模型的功能层次划分和功能层次定义进行了重新修正,建立了改进的JDL功能模型,如图2所示。由图2可知,改进的JDL功能模型主要包含预处理层,数据层,特征层和决策层等。 
预处理层直接从分布在智能空间中的各传感器采集数据,完成信号校验和信息变换,并转换为统一的信息表示方式。如将从温湿度传感器、RFID标签、QR Code、摄像头等节点中获取的温湿度、物品信息、视频信息等进行格式转换,统一存储在智能空间的数据库中。 
数据层处理将预处理后的大量冗余、互补的数据进行低层融合,从中提取有用的特征信息。以视频信息为例,利用图像采集层上的信息,采用统计学习、人体模型进行匹配等检测方法实现运动人体的检测,创建基于位置、速度、形状、纹理、色彩等有关特征的对应匹配实现运动人体的跟踪。 
特征层处理,将数据层获取的针对目标的不同特征信息进行融合,以进一步确定目标的状态。如根据数据层获取的各种人体特征,进行人的动作识别,分辨出人的走、坐、躺等。该层的主要优点是能够提供其它层次融合所不具有的细节信息;主要缺点是要处理的信息量很大,处理代价较高。 
决策层处理主要结合历史数据库记录和当前场景进行推理判断,给出当前目标的态势估计,做出相关决策,并对决策执行的效果进行估计,以优化决策过程。如特征层输出的人的状态为躺,若当前的位置为床,则可推断人处于休息状态;若当前的位置为地板,则可推断人处于异常状态,需要采取相应的措施,如报警等。 
智能空间的信息服务不仅仅局限于原始信号的层面,而是通过对多传感器的数据融合能够给出多层次的信息。如监控***只需要直接提供目标区域的监控画面,即原始的数据;目标跟踪***则需要对视频进行处理,获取目标的位置等特征以实现对特定目标的跟踪;主动服务***则必须判断目标的各种动作并进行理解,进而判断目标的意图,并为之提供主动服务。因此,必须在多传感器数据融合的基础上建立多模式的信息获取机制。我们将分布式融合引入到数据融合树中,建立了基于分布式数据融合树的多模式信息获取模型。 
数据融合树将融合***描述为由处理节点组成的网络。输入融合***的数据根据需要被分成不同的组,每组数据及其处理方法形成一个解决某一融合问题的数据融合(Data Fusion,DF)节点,当融合过程分为多个处理节点时,那么该过程就可由多个节点按一定顺序连接而成的 融合树来表示。融合树中每个融合节点主要由3个基本功能组成,分别为数据校准、数据互联、状态估计及预测,它们是各类融合***的融合节点在解决各融合问题时具有的共同的处理功能,但不同融合节点内的数据流及控制流是互不相同的。 
图3为基于数据融合树的智能空间多模式信息获取模型。该模型采用分布式数据融合结构,分为局部融合和全局融合两大部分。局部融合主要在机器人本体上完成,主要处理本体传感器获取的数据,涉及到数据层和特征层。全局融合在智能空间服务器上完成,综合处理分布在智能空间中的多传感器数据和局部融合后的数据,涉及到数据层、特征层和决策层。在多模式信息获取模型的支持下,智能空间可以获取不同层次的信息,满足巡护***中不同服务的需求。 
由图3可知,多模式信息获取与传统的信息获取方式有着本质的不同,主要区别在于:(1)获取层次不同。多模式信息获取涉及到数据层、特征层和决策层等多层数据,而传统的信息获取方式通常只涉及到其中某一层的信息。(2)融合方式不同。多模式信息获取包含局部融合和全局融合,是一种分布式融合;而传统的信息融合多属于集中式融合。(3)数据来源不同。多模式信息获取不仅包含来自机器人本体的数据,也包括大量分布在智能空间中的各类传感器数据;而传统的融合通常只包括机器人本体传感器的数据。(4)融合算法不同。多模式信息获取涉及到不同层次上的信息融合,因此应针对不同层次的数据特点,采用多种信息融合算法;而在单模式信息获取机制下,融合算法相对单一。 
不同的服务需要智能空间提供不同层次的信息。因此,为了获取不同层次的信息,应针对不同层次的特点采用与之相匹配的算法。在局部融合中,主要通过各种融合算法进行数据层和特征层的信息融合。在全局融合中,主要采用决策级融合算法对局部融合进一步进行处理,做出控制决策。 
局部信息融合算法主要涉及到数据层和特征层的融合。局部信息融合***的信息来自许多不同的传感器和信息源,包括了实时和非实时的数据;它们可能是不完整、不精确甚至是矛盾的,并会受到各种各样的干扰。因此,针对局部信息融合的特点,本实用新型专利面向不同的传感器和信息源,采用了不同的信息融合算法。 
a)粒子滤波(Pa rticle Filter) 
粒子滤波是基于序贯重要性采样(Sequential Importance Sampling,SIS)思想,通过寻找一组在状态空间传播的随机样本对概率密度函数进行近似,以样本均值代替积分运算,从而获得状态最小方差估计的过程,是一种通过非参数化的Monte Carlo模拟方法实现递推贝叶斯估计的算法。粒子滤波能较好地处理测量断续、群目标跟踪等传统难题,因此在目标定位跟 踪领域得到了广泛的应用。本实用新型专利充分发挥粒子滤波处理非线性、非高斯信号能力强的优势,将其用于病房外机器人定位和多目标跟踪中。 
b)扩展卡尔曼滤波(EKF) 
扩展kalman滤波实质上是一种在线线性化算法,即按名义轨线进行线性化处理,再利用Kalman滤波公式进行计算。扩展kalman滤波在机器人定位中得到了广泛应用。这是因为无论是里程计定位还是采用人工地标定位,都存在这不可控的非***误差的影响,如里程计定位中轮子的突然打滑,人工地标定位中标签交接过程中带来的定位数据跳变等,而利用扩展卡尔曼滤波的方法对上述定位信息进行融合,可以有效降低非***误差带来的影响。本课题中主要利用kalman滤波实现病房内里程计与红外标签的数据融合。 
c)概率占有图 
概率占有图是对环境中每个单元的占有状态进行统计估计而建立的一个多维随机场模型,涉及到概率论、最优估计、随机场模型和决策理论等。目前主要用于未知环境下的机器人实时地图创建、导航和基于多摄像机的多目标跟踪。概率占有图可以实现多层次数据的融合,即使在目标遮挡严重和光照变化显著的情况下,该融合方法仍能可靠地实现对多目标的准确跟踪。本课题中主要采用概率占有图进行多摄像机下的多目标跟踪。 
全局融合算法主要用于决策层。为了更好地实现高层次上的信息融合处理能力,可以采用人工智能技术对多传感器***进行研究。研究表明,人工智能中的黑板结构特别适合于多传感器的信息融合***。本实用新型在分析了黑板模型的基础上,结合信息融合技术的控制结构,提出了基于黑板的分布式智能融合结构。该结构既适用于静态形式,又适用于动态形式,组合方便灵活,可根据需要将***分成不同层次和不同方式的融合;分布式融合方式提高了融合速度,而黑板结构则提供一个融合框架,具有模块结构,组织灵活,适用范围广,尤其适用于不完善的结构问题。将黑板结构与分布式结合,可发挥两者的优势,使各传感器在黑板结构的统一框架下,实现快速有效的融合。 
a)黑板式智能融合结构 
黑板结构一般由知识源、黑板和控制结构三部分组成。知识源描述某个独立领域的知识和知识处理方法,每个知识源独立完成某些特定的任务,知识源之间的通信和交互只能通过黑板进行。黑板是共享的问题求解空间,一般以层次结构的方式组织,是用来存储数据、传递信息和处理方法的动态数据库,求解过程中,知识源不断更新黑板。监控机制指根据黑板上的问题求解状态和各知识源的求解技能,依据某种控制策略,动态地选择和激活合适的知识源,使知识源能适时地响应黑板的变化。 
由于多传感器信息融合需要多方面的专家知识,以对各类传感器的数据进行处理,因此需要一种互相协作的多专家***。而黑板模型就提供了这样一个框架。黑板相当于综合数据库,知识源的集合当于知识库;控制模块相当于推理机。 
b)DSmT理论 
DSmT的发展来源于D-S理论固有的内在局限性,主要体现在以下三个方面:(1)Shafer模型鉴别框包含n个穷举和相互排斥的焦元;(2)去除中间原理(即任何属于幂集2Θ元素或命题的补集仍属于幂集2Θ);(3)Dempster归一化组合规则。DSmT否定了去除中间原理和Shafer模型,这是因为很大一部分融合问题,假设的命题具有模糊和不精确的本质属性,如果想精确的细化是完全不可能的。DSmT存在经典模型(DSmC)和混合模型(DSmH),对于经典模型它表示为Mf(Θ)或者DSmC,即假设鉴别框Θ包含n个穷举元素(命题),元素之间可以相互重叠,由于不存在外在约束,因此称为经典模型。混合模型表示为Mh(Θ)或者DSmH,在实际应用中,随着技术和知识水平的不断提高,可以明确某些元素之间的排斥关系,仅考虑融合问题的本质属性,在实际应用中自由模型可能会丢失信息,尤其是在动态融合过程中,鉴别框有可能随着时间的变化而也发生变化,当这些约束强加给自由模型,为了能够更适应实际融合情况,因此构造动态的混合模型。对于Shafer模型,实际上相当于混合模型Mh(Θ)在所有的排斥约束存在时的一种特殊情况。 
在服务机器人智能空间中,服务环境和可执行的服务都是变化的,完成同一任务可能有多种方案可供选择。如何自动适应空间环境变化,根据用户需求提供最优的服务非常重要。在服务任务规划和执行过程中,还必须考虑到服务调用失败,网络中断,传感器失效,服务发现失败,服务执行失败等问题,并能及时处理。 
服务任务规划及执行的效果,由服务机器人智能空间服务质量(QoS)评估机制来保证。***应该能够根据不同工作状况动态调整质量系数的权值,选择最优服务,并时时监控服务执行效果,以最大程度的满足用户的需要。 
图4为服务机器人智能空间任务规划及质量评估流程,主要包含如下三个方面的内容: 
(1)根据用户命令将任务分解成机器人可以执行的子任务,根据知识库可供选择的服务,完成服务计划抽象构造,根据当前服务质量参数,对可用服务进行排序,并从构造的计划列表中选取最佳服务。 
(2)由于环境变动,计划执行结果和预期结果会有一定误差。记录计划执行结果,根据 执行结果生成服务有效概率,作为服务质量参数之一,为后面的服务规划提供依据,并在***运行中不断修正概率。 
(3)当智能空间监测到机器人服务失败时,***能根据合成算法采用新服务取代失败的服务。 
实验及分析 
以医院智能空间中护士机器人病房巡视为例来说明智能空间下多模式信息获取模型的有效性。该实例涉及到机器人定位、仪器查找、异常行为检测和报警决策等诸多方面,需要获取数据层、特征层和决策层等多模式的信息。 
图5为护士机器人病房巡视流程图。局部信息融合包括机器人定位,仪器查找等。机器人定位主要涉及到数据层和特征层的融合,分别采用Kalman滤波和模糊逻辑来实现。仪器查找借助于RFID和本体视觉的融合来完成,分别采用贝叶斯规则和神经网络来实现。上述经过局部融合后的信息通过无线传感网络传输到智能空间服务器上,并在服务器上进行全局融合,最后发出决策指令。下面分别从机器人定位精度、仪器定位精度、病员坠床检测成功率和巡视效率等四个方面进行评估。 
(1)机器人定位 
在传统的信息获取方式下,机器人只能依靠本体传感器(如里程计、视觉等)获取定位信息,这些信息都是局部的,不完整的;而在智能空间多模式信息获取方式下,机器人不仅可以获取本体传感器的信息,还可以获取分布式传感器(StarGazer、人工地标等)提供的全局信息,实现更加精确的自定位。 
图6和图7分别为传统信息获取模式和多信息获取模式下的机器人定位效果图。其中,灰色曲线代表规划好的路径,黑色曲线表示实际的机器人跟踪轨迹。可以看出:在多模式信息获取方式下,机器人定位精度远远高于传统模式。 
(2)仪器定位 
在机器人病房巡视中,要求机器人能准确找到输液瓶、心电仪等医疗设备并拍摄最佳图片传回到护士站。以输液瓶为例,因为输液瓶本身是透明的,并无明显的颜色、形状特征,这给机器人视觉识别带来了很大的难度。传统的单模式信息获取很难解决输液瓶识别的问题,必须依赖智能空间中多传感器的信息融合以获取多模式的信息。 
本文利用RFID技术与视觉的融合来解决输液瓶的识别定位问题。将RFID读写器和天线集成到机器人本体上,并在输液瓶的附近粘贴被动式RFID标签。图8为输液瓶定位误差比较图。由图8可知:单模式信息获取下,机器人仅依靠视觉进行定位,当机器人与输液瓶间距 大于1.2米时,基本无法识别;且即使机器人能识别出目标,其定位误差波动也较大。而在多模式信息获取下,机器人依靠智能空间的分布式RFID标签,可先粗略定位目标并获取目标的颜色尺寸等先验信息,有助于提高视觉定位的精度。 
(3)病员坠床检测 
病员坠床检测首先要准确定位病员和床。单模式信息获取方式下,仅依靠单目视觉很难准确定位床和病员,因此也导致病员坠床报警的成功率不高。多模式下,机器人通过融合人工标志可以更准确地定位自身,通过环境中的分布式地标能准确定位床,然后就可以利用视觉进行肤色分割,确定病员是否在床上。若目标不再床上,则进行坠床报警,大大提高了坠床报警的准确率。图9为不同模式下坠床报警的成功率示意图。由图9可知:在多模式信息获取下,病员坠床报警的成功率比单模式高20%以上。 
(4)巡视效率 
病房外(包含护士站和走廊)机器人直行速度为0.5m/s,病房内机器人直行速度为0.3m/s。以二级护理病员巡视为例,表1列出了在不同模式下巡护机器人对单个病房的巡视时间对比表。由表1可知:在单模式下,机器人最快可在3.5分钟内完成对一个病房的巡视(3张病床),而在多模式信息获取模式下,机器人完成同样的任务仅需要2分钟。因此,在多模式信息获取下,机器人的巡视效率大大提高。 
表1:不同模式下巡视时间比较(二级护理) 
Figure DEST_PATH_GDA0000084984160000101
上述实验证明:在机器人病房巡视中利用本文建立的多模式信息获取模型能够顺利完成预定任务,且成功率和效率都比传统信息获取模式(即只依靠本体传感器)要高。 

Claims (4)

1.智能空间与护士机器人多传感器***,其特征是,它包括机载PC,机载PC分别与用户计算机和下位机控制器双向连接,机载PC还分别与避障传感器,定位传感器和视觉传感器双向连接。
2.如权利要求1所述的智能空间与护士机器人多传感器***,其特征是,所述避障传感器包括红外传感器、超声波传感器和激光传感器;其中,红外传感器和超声波传感器为底层避障传感器;
红外传感器为NPN常开型传感器,检测前方一定距离内的障碍物有无;
超声波传感器:支持2个声纳环,每个环有8个超声波换能器,用于障碍物检测、距离检测和自动避障,环境建模,定位和导航;每个声纳环位置固定:两侧各有一个,另外6个以20°间隔分布在侧边。
3.如权利要求1所述的智能空间与护士机器人多传感器***,其特征是,所述定位传感器包括光学编码器,惯性导航模块;其中:
光学编码器:机器人的每个电机上均装有光学编码器,用于机器人定位、速度测量;
惯性导航模块:主要有两个任务:精确测量机器人的运动状态和姿态;提供错误诊断能力。
4.如权利要求1所述的智能空间与护士机器人多传感器***,其特征是,所述视觉传感器为CCD摄像机,用于目标物品的识别定位和机器人的避障、导航。
CN2011201088863U 2011-04-14 2011-04-14 智能空间与护士机器人多传感器*** Expired - Fee Related CN202075626U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011201088863U CN202075626U (zh) 2011-04-14 2011-04-14 智能空间与护士机器人多传感器***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011201088863U CN202075626U (zh) 2011-04-14 2011-04-14 智能空间与护士机器人多传感器***

Publications (1)

Publication Number Publication Date
CN202075626U true CN202075626U (zh) 2011-12-14

Family

ID=45113721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011201088863U Expired - Fee Related CN202075626U (zh) 2011-04-14 2011-04-14 智能空间与护士机器人多传感器***

Country Status (1)

Country Link
CN (1) CN202075626U (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156476A (zh) * 2011-04-14 2011-08-17 山东大学 智能空间与护士机器人多传感器***及其信息融合方法
CN103324197A (zh) * 2013-06-26 2013-09-25 西安电子科技大学 一种语音控制多用途智能服务机器人
CN103885449A (zh) * 2014-04-04 2014-06-25 辽宁工程技术大学 基于多传感器的智能视觉跟踪轮式机器人及其控制方法
CN104331078A (zh) * 2014-10-31 2015-02-04 东北大学 一种基于位置映射算法的多机器人协作定位方法
CN107831765A (zh) * 2017-10-23 2018-03-23 广州视源电子科技股份有限公司 定位方法、装置、设备及存储介质
CN108919806A (zh) * 2018-07-13 2018-11-30 杭州国辰机器人科技有限公司 一种基于多传感器数据融合的室外自主避障方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156476A (zh) * 2011-04-14 2011-08-17 山东大学 智能空间与护士机器人多传感器***及其信息融合方法
CN103324197A (zh) * 2013-06-26 2013-09-25 西安电子科技大学 一种语音控制多用途智能服务机器人
CN103885449A (zh) * 2014-04-04 2014-06-25 辽宁工程技术大学 基于多传感器的智能视觉跟踪轮式机器人及其控制方法
CN103885449B (zh) * 2014-04-04 2016-03-23 辽宁工程技术大学 基于多传感器协同处理的智能视觉跟踪轮式机器人的控制方法
CN104331078A (zh) * 2014-10-31 2015-02-04 东北大学 一种基于位置映射算法的多机器人协作定位方法
CN107831765A (zh) * 2017-10-23 2018-03-23 广州视源电子科技股份有限公司 定位方法、装置、设备及存储介质
CN108919806A (zh) * 2018-07-13 2018-11-30 杭州国辰机器人科技有限公司 一种基于多传感器数据融合的室外自主避障方法

Similar Documents

Publication Publication Date Title
CN102156476B (zh) 智能空间与护士机器人多传感器***及其信息融合方法
CN202075626U (zh) 智能空间与护士机器人多传感器***
Lee et al. Controlling mobile robots in distributed intelligent sensor network
Kam et al. Sensor fusion for mobile robot navigation
CN108369419A (zh) 使用移动机器人的对象观测来生成时空对象清单并且使用该清单来确定用于移动机器人的监测参数
CN106647738A (zh) 一种无人搬运车的对接路径确定方法及***及无人搬运车
Zhao et al. Survey on robot multi-sensor information fusion technology
Ye et al. Robot indoor positioning and navigation based on improved wifi location fingerprint positioning algorithm
Ziebinski et al. Challenges associated with sensors and data fusion for AGV-driven smart manufacturing
CN118020038A (zh) 两轮自平衡机器人
Cicirelli et al. RFID tag localization by using adaptive neuro‐fuzzy inference for mobile robot applications
Dai Research on robot positioning and navigation algorithm based on SLAM
Jia et al. Autonomous vehicles navigation with visual target tracking: Technical approaches
Zhang et al. An autonomous robotic system for intralogistics assisted by distributed smart camera network for navigation
Arndt et al. Optimized mobile indoor robot navigation through probabilistic tracking of people in a wireless sensor network
Lu et al. The structure and application of intelligent space system oriented to home service robot
Lu et al. Intelligent space system oriented to the home service robot
Zhao et al. On the treatment and disposal of clinical waste based on bluetooth and LoRa wireless IoT: a case study
Tian et al. Using a wireless visual sensor network to harmonically navigate multiple low-cost wheelchairs in an indoor environment
Guan et al. Intelligent obstacle avoidance algorithm for mobile robots in uncertain environment
Hughes et al. Colony of robots for exploration based on multi-agent system
Jiang et al. A mosaic of eyes
Zhou et al. Robot wards inspection system based on multi-pattern information acquisition in intelligent space
Lafuente-Arroyo et al. Multisensory integration for topological indoor localization of mobile robots in complex symmetrical environments
Ning et al. The Control of intelligent building robot patrol technology based on Raspberry Pi

Legal Events

Date Code Title Description
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111214

Termination date: 20140414