CN110605724A - 一种智能养老陪伴机器人 - Google Patents
一种智能养老陪伴机器人 Download PDFInfo
- Publication number
- CN110605724A CN110605724A CN201910583271.7A CN201910583271A CN110605724A CN 110605724 A CN110605724 A CN 110605724A CN 201910583271 A CN201910583271 A CN 201910583271A CN 110605724 A CN110605724 A CN 110605724A
- Authority
- CN
- China
- Prior art keywords
- robot
- interface
- head
- old
- communication connection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/009—Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Nursing (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及居家服务设备制造技术领域,涉及一种养老辅助机械设备,特别是一种智能养老陪伴机器人。机器人头顶部设置有用以语音输入6麦克环形阵列,头部和背部设置有获取简单的图像信息、视频通话和拍照的摄像头,机器人肩部设置有获取空间中的深度图像的双目相机,机器人腰部左右侧设置有方便传声的立体声双扬声器,机器人腰部前部设置有用以提供部分图像的深度信息,在机器人腿部处设置有用以探测空间内存在的物体、建立空间的二维地图的激光雷达;机器人底部设置有提供移动动力的轮毂电机;触摸感应器设置于包括机器人头部、肩部、手部和双耳在内的部位,其主体结构设计巧妙,智能化和集成化程度高,应用环境友好,市场前景广阔。
Description
技术领域:
本发明涉及居家服务设备制造技术领域,涉及一种养老辅助机械设备,特别是一种智能养老陪伴机器人。
背景技术:
随着我国人口老龄化形式日趋严峻,空巢老人越来越多,人口老龄化已成为世界上许多国家正在面临或即将面临的一个突出的社会问题。我国是世界上人口最多的国家,由于社会、经济、文化科学的发展,计划生育工作的推进,老年人在总人口中的数量和比例不断增加。老年人对经济供养、医疗保障、生活照料和精神文明等方面需求的日益增长,如何为老年人及时提供有效的生活帮助和关怀,在老年人发生突发事件或者身体不适的时候,能及时提供紧急救援服务和通知老年人家属,保障老年人的日常生活,是现在面临的一个重大的问题;而传统的养老模式已经不能适应社会的发展。就目前中国的现状来说,智慧养老具有相当大的发展前景,但又同时充满着挑战。
为解决上述问题,现有技术针对养老陪伴机器人做了大量研究,但是目前市面上的养老陪伴机器人产品功能比较单一,仅在某一个方面上的功能比较突出,比如有的甚至只是语音交流,有的有多种功能但针对性较差,尤其是针对老人的养老陪伴机器人针对性较差。针对上述情况,因此寻求设计一种智能养老陪伴机器人。一个更加立体化、智能化、多层次的养老***,实现对老人的周到且智能的照料,满足社会需求。
发明内容:
本发明的目的在于提供一种智能养老陪伴机器人,集成了视觉、语音、运动以及机械臂模块,实现人机交互,机器人感知等功能,以及专门针对老人的异常行为识别,身体状况监控等功能。以解决上述背景技术中提出的问题。
为了实现上述目的,本发明涉及的一种智能养老陪伴机器人通过如下技术方案实现:
机器人头顶部设置有用以语音输入6麦克环形阵列,能够消除噪音和回声,机器人头部和背部设置有获取简单的图像信息、视频通话和拍照的摄像头,机器人面部采用LED结构,能够使机器人更人性化,机器人肩部设置有获取空间中的深度图像的双目相机,能够用来建立工作空间的三维地图;机器人胸部设置有用以进行人机交互的触摸显示屏,触摸显示屏能够提供友好的交互界面,方便进行人机交互;机器人腰部左右侧设置有方便传声的立体声双扬声器,能够使令机器人的声音在任何位置都能听清,且在聊天、看视频时具有立体声的效果;机器人腰部前部设置有用以提供部分图像的深度信息、实现物品检测和自动跟随的RGB-D摄像头;在机器人腿部处设置有用以探测空间内存在的物体、建立空间的二维地图的激光雷达;在机器人底部靠前处设置有用以超声波测距的超声波模块,能够防止机器人移动时碰到障碍物,机器人底部的前侧还设置有用以防止机器人撞到障碍物红外传感器,其中红外传感器设置于超声波模块的下部;机器人底部设置有提供移动动力的轮毂电机,轮毂电机平稳安静减少机器人移动时的噪音;触摸感应器设置于包括机器人头部、肩部、手部和双耳在内的部位,在用户抚摸机器人的时候,机器人能够做出合适的反应,提高用户对于机器人的交互体验;用以充电的充电口设置于机器人后侧靠下处,在机器人后颈处设置有用以紧急停止运行的急停开关;
本发明涉及的一种智能养老陪伴机器人的内部架构按照如下方式实现:其整体采用x86架构以及ARM架构的处理器,采用ROS(Robot Operating System)操作***,该***基于Linux开发的操作***;架构主要包括有硬件层部分、输入层部分、驱动层部分、输出层部分、信息处理层部分,其中信息处理层部分主要包括有进行信息处理的 MCU(微控制单元),MCU包括有触摸感应控制单元、语音控制单元和机器人手臂控制单元,其中6麦克环形阵列通过麦克风接口与语音控制单元通信连接,并向其输送语音信息,触摸感应单元中的触摸感应器通过触摸IC芯片接口与触摸感应控制单元通信连接,并向其输送感应信息,超声波感应器、红外线传感器、IMU(惯性测量单元)、双目相机、激光雷达、RGB-D摄像头通过USB接口与MCU通信连接,并向其传输获得的信息,由MUC进行信息处理,MCU通过接收上述传感器部件获取的信息实现包括手势控制、3D目标检测、表情识别、路径规划、机器人动作反馈、自主避障在内的功能,MCU通过I2S接口与扬声器通信连接,用以输出音频信息,MUC通过PWM(脉冲宽度调制)舵机接口与舵机通信连接,用以将电机转速、角度信息输入至舵机,其中舵机设置于机器人头部处,以控制头部俯仰和转动,MUC 通过电机接口与轮毂电机通信连接,以控制轮毂电机的双轮转速和方向,MUC通过PWM(脉冲宽度调制)伺服电机接口与伺服电机通信连接,并向其输送机器人手臂运动信息,以控制机器人手臂运动,本发明中MUC还连接有通信模块,通信模块能通过WIFI、USB和蓝牙的方式进行内部以及与外接设备进行通信。
本发明能够实现自主跟随老人,使得老人一直在机器人的监控范围内,会实时判断老人当前的状态,是“走”“站”还是“坐”,当老人发生异常行为时,比如“跌倒”,本发明会立即发出报警,向附近的人寻求帮助,以实现异常行为识别;
本发明通过摄像头时刻监控老人当前状态,记录老人的身体姿态,如老人是处于立、卧、坐、静止状态等;监控老人的运动姿态,如老人在监控画面中是处于行走状态还是处于跌倒状态等;这些数据会通过物联网的形式上传到云端;然后云端***将这些数据进行处理,判断出此时老人是否处于危险状态中,最终决定采取相应的措施来处理;
本发明通过获取目标的外观特征和姿态特征来建模表示老人的行为变化,具体实现方式如下:
1)目标外观特征的获取实现方式如下:
对视频流中的大小为W×H×3帧图像统一缩放为固定尺寸大小的图像输入RPN(Region Proposal Net)网络获取候选框,首先该网络结构具有5个卷积层和两个池化层的卷积神经网络,网络结构如下:
网络层数 | 滤波核大小 | 滤波核数量 | Padding | 步长 |
卷积层 | 7*7 | 96 | 3 | 2 |
池化层 | 3*3 | - | - | 2 |
卷积层 | 5*5 | 256 | 2 | 2 |
池化层 | 3*3 | - | - | 1 |
卷积层 | 3*3 | 384 | 1 | 1 |
卷积层 | 3*3 | 384 | 1 | 1 |
卷积层 | 3*3 | 256 | 1 | 1 |
卷积层 | 3*3 | 256 | 1 | 1 |
经RPN网络最后一层卷积层采用的滤波核大小为3*3处理后得到的特征图为了生成候选区域框,需要在特征图上卷积一个n*n的滑动窗口,对于一个滑动窗口,我们可以同时预测多个候选框,假定有kan个尺寸比例大小不同的参考候选框anchor,其中某一种参考候选框 anchor的尺寸是固定的;滑动窗口的中心位置对应参考候选框 anchor的中心点,对于一幅大小为w和h的特征图,对应总数为 w×h×kan个参考候选框anchor;全部的参考候选框anchor用来训练数量太多,因此需要选择合适的anchors进行训练,参与训练的正样本和负样本选择的标准是:
若某大小的anchor与目标区域的IOU>0.7,则该区域标记为正样本;若IOU<0.3则判定为背景,标记为负样本;其他得到的候选框既不属于正样本也不属于负样本,不用于最终的训练,其中,IOU代表网络预测的目标框与实际目标框的交并比;
若原图像的大小为W×H,原图像中的目标区域框的大小为Wrp×Hrp,经RPN卷积网络操作后得到的特征图大小为目标块的大小为其中S为之前所有卷积层中的步长乘积,因此图像大小为w×h特征图上的点乘以S即为原图中anchor 的原点位置,得到所有框的原点位置以及大小就可以得到原图的 anchors区域,需要将大小为wrp×hrp的目标块池化为k×k的大小,因此需要将目标块平均分割成k×k个单元,每个单元尺寸的大小为若目标块的采样点数为4,对每个单元平分四个小区域,取每四个小区域的中心的位置,采用双线性插值的方法计算四个点的像素值,取最大值作为单元的像素值,得到固定尺寸大小为k×k的特征图;
接下来通过1*1的卷积输出分为两个分支,其中一个分支输出 2kan的分数来估计候选框是目标和非目标的概率,另一个分支输出 4kan来编码kan个候选框的坐标,四个参数为(x,y,wrp,hrp),其中目标框的中心坐标为(x,y),宽wrp高hrp;
反向传播公式如下:
其中xi代表池化前特征图上的像素点;yrj代表池化后的第r个候选区域的第j个点;i*(r,j)代表yrj像素值的来源,即最大池化的选出的最大像素值所在点的坐标;只有当池化后某一点的像素值在池化过程中采用了当前点xi的像素值,即满足i=i*(r,j),才在xi处回传梯度,d(.)表示两点之间的距离,Δh和Δw表示xi与xi *(r,j)横纵坐标的插值, xi *(r,j)是一个浮点数的坐标位置,前向传播时计算出来的采样点;
(训练RPN网络的)代价函数为:
其中i是每个小批量训练样本中的anchor的序号,pi是第i个anchor 是目标的概率;是标签,含有目标没有目标ti是预测框的4个参数,是标定目标框的4个参数;Lcls是分类损失函数; Lreg是回归损失函数;表示回归只对正样本进行,负样本的损失函数由两部分Ncls和Nreg组成,其中Ncls取256,小批量训练的候选框数量;损失函数两部分进行规范化,并采用一个平衡参数λ进行加权,取λ=10;对得到的目标特征图输入LSTM网络中进行特征编码, 2)姿态特征获取的实现方法:
姿态特征的提取基于两步法框架分别进行,首先检测图像中目标的边框,然后估计边框中的动作;图像目标检测的边框实现过程:
采用目标外观特征的获取方法得到图像中目标的候选框,由于目标候选框的获取存在一定的误差,需要在空间变化网络(STN)中进一步处理,将图片中目标的候选框区域变换到另一个坐标系中,进行微小的变换和修剪来调整目标候选框的准确性,以便很好地自动选取感兴趣区域(ROI),获取一个高质量的人体区域框,数学形式如下,执行二维的放射变换:
其中,θ1,θ2,,θ3是二维向量,分别表示转换之前和之后的坐标,在新的坐标系中采用单人姿态估计网络(SPPE),获取候选框中的目标的姿态,在单人姿态估计(SPPE)网络结构上添加对称空间变换网络(SSTN),能够在检测到不精准的目标区域框的基础上提取到高质量的人体区域框,然后通过与其对应的空间解变换网络(SDTN)反变换,将SPEE的结果映射回原始图片的人体区域框中,将得到的姿态线绘制到对应的人体区域框中,空间解变换网络(SDTN) 将估计得到的人体姿态反映射回原图坐标中,因此原图尺寸的图像中便会出现人体姿态线,基于参数γ,空间解变换网络(SDTN)中需要为反向转换和生成网络计算γ:
SDTN与STN结构的反向结构,二者存在如下关系:
[γ1 γ2]=[θ1 θ2]-1
γ3=-1×[γ1 γ2]θ3
在SDTN中进行反向传播的公式为:
由参数之间的关系转化可得:
得到了高质量的人体检测框后,采用单人姿态估计(SPPE)算法进行精确的姿态估计,在训练的过程中,添加一个并行的单人姿态估计(SPPE)算法分支,同STN并行处理,单人姿态估计(SPPE)网络的输出直接和人体姿态标签的真实值进行对比,冻结并行SPPE分支的所有层的所有权重来增强STN提取单人目标的姿态区域;分支的权重是固定的,目的是将姿态定位后产生的误差反向传播到STN模块,若STN提取的姿态不是中心位置,并行SPPE分支会返回一个较大的误差,该方式可以帮助STN聚焦在正确的中心位置并提取出高质量的区域位置,并行SPPE网络只在训练阶段使用;
在检测的过程中不可避免的会产生的冗余检测,同时产生冗余的姿态估计,参数姿态非最大抑制方法可以消除冗余;
拥有m个关节的人体姿态Pi,表示为其中和表示第j个关节的位置和置信度得分,选取置信度最大的姿态作为参考,与其相近的姿态通过位姿消除准则消除掉,直到多余的姿态被消除掉,留下唯一的姿态被确定;
位姿消除准则定义了位姿距离度量d(Pi,Pj|Λ)来表示姿态的相似性,阈值作为消除准则,Λ为距离d(·)的参数集合,位姿消除准则表示为:
f(Pi,Pj|Λ,η)=1
如果d(·)的数值小于阈值,函数f(·)的输出结果为1,由于参考位姿的冗余Pj,Pi应该被消除掉;位姿距离函数dpose(Pi,Pj),若姿态Pi的边界框为Bi,定义了一个软匹配函数:
是在中的边框中心,的每一个维度是原始边界框Bi的 tanh的操作滤除掉低置信度得分的姿态,当两个相关的关节有较高的置信度得分,输出结果接近于1;这个距离可以计算姿态之间匹配的关节数量,各关节间的空间距离计算如下:
最终距离函数公式可以写作:
d(Pi,Pj|Λ)=KSim(Pi,Pj|σ1)+λHSim(Pi,Pj|σ2)
其中λ是平衡两个距离的权重,Λ={σ1,σ2,λ};
3)将获取的外观特征和姿态特征作为长短时期记忆单元(LSTM)网络的输入进行特征编码,将不等长的特征转化为一个固定长度的向量;LSTM的门结构具有去除或者增加信息到细胞状态的能力,门结构包含一个sigmoid神经网络层和一个按位的乘法操作,Sigmoid函数输出0~1之间的数值,描述每个部分有多少量可以通过,0代表不许任何量通过,1指允许任意量通过,LSTM的三个门结构用来保护和控制细胞的状态;首先,忘记门层的结构决定从细胞状态中丢弃什么信息,函数表达式为:
ft=σ(Wf·[ht-1,xt]+bf)
由上式子可以看出,在t时刻,ft由输入xt和ht-1得到,用来控制Ct-1中的信息的遗忘程度,ft中的每个值都是在0~1中的数值,0代表完全遗忘,1代表完全不变,其中Wf和bf代表参数;
其次输入门层结构的作用就是往状态信息中添加新东西,函数表达式为:
it=σ(Wi·[ht-1,xt]+bi)
it用以控制新状态信息的更新程度,由输入的xt和ht-1得到;新状态同样是通过xt和ht-1计算得到;
最后,输出门的结构层作用用来控制哪些信息需要作为输出状态进行输出,函数表达式为:
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot*tanh(Ct)
将训练得到的人体行为特征经过LSTM进行特征编码后,输出可以理解的行为文本信息。
本发明还能够实现身体状况监控,老人可以通过佩戴智能手环,实时监控老人的血压,心率等体征,将数据传回机器人,机器人与云端的数据进行比对,对老人的身体状况进行提前预警,当老人的身体状况出现异常时,能够及时地报警,防止意外的发生。
生命体征异常分析是对配备有信息采集设备的老人,首先根据老人佩戴的具有唯一ID编号的手环和室内定位基站确定老人的位置和身份信息,手环对应到每一位老人,综合老人的健康档案、动态体征数据、运动状态等多种信息,结合专业的医疗知识,采用数据分析和自学习算法,自主长期学习老人的动态数据,分析老人是否存在体征异常,并提供该老人体征异常的置信度,置信度在85%以上为该体征异常准确可信,体征异常下反馈异常数据结果和依据。
本发明在使用时,能够通过如下方法实现:
S1、语音交互
由于老人上了年纪可能视觉上,行动上都有所不便,所以此时语音上的交互便是最好的方式,老人直接通过语音向机器人发出命令,进而控制机器人,语音信号通过语音采集输入设备传输到声源定位模块,之后通过算法定位声源方位并将相关位置信息发送给机器人上位机的运动控制模块,进而根据接收的声源的定位信息计算出相应的运动指令,通过串口发送给下位机,最终实现机器人自主的精准转向运动,此外,机器人可根据用户下达的语音指令实现前进、转弯以及漫游巡逻等动作和声控拍照等非运动指令,使得用户几乎不需要前期培训学***以及用户的使用体验;
S2、手势交互
老人在和机器人进行语音交互的同时,也可以进行手势上的互动,比如向前伸出手臂机器人前进,向后收回手臂机器人后退,手臂画圈机器人转圈等,手势交互可以增加与机器人互动的乐趣,使得老人在无聊之时进行简单的交互,令机器人看起来更加智能化;
S3、机器动作反馈
上了年纪的老人和机器人在语音交互时可能会对机器人的语音回答听不清楚,比如机器人未听清楚指令时,可以语音回答“未听清指令,请您再说一遍”边做摇头动作,当机器人成功接收到命令时,机器人可以边语音回答,边点头,这样即便老人听不清,也可以通过机器人的动作反馈知晓机器人是否成功接收到命令;
S4、异常行为识别
机器人会自主跟随老人,使得老人一直在机器人的监控范围内,机器人会实时判断老人当前的状态,是“走”“站”还是“坐”,当老人发生异常行为时,比如“跌倒”,机器人会立即发出报警,向附近的人寻求帮助;
S5、身体状况监控
老人可以通过佩戴智能手环,实时监控老人的血压,心率等体征,将数据传回机器人,机器人与云端的数据进行比对,对老人的身体状况进行提前预警,当老人的身体状况出现异常时,能够及时地报警,防止意外的发生;
S6、好感度***
普通的机器人只会单一的语音,单一的执行命令,本发明涉及的智能养老陪伴机器人可以通过摄像头识别出家庭中的每一个人,对不同的家庭成员分别计算好感度,和机器人交流的越多,使用它的功能越多,那么便可以增加机器人对他/她的好感度,好感度增加之后可以解锁一些特殊的语音对话,或者跳舞姿势等,这样可以促进老人及家人对机器人的了解,使得老人不再那么抗拒学习机器人复杂的命令,同时也增加了与机器人互动的乐趣,对机器人的训练方式则采用现有的机器训练方式进行训练。
本发明与现有技术相比,取得的有益效果如下:能够进行多种人机交互,包括能够听清楚并理解说活人所讲内容,做出正确的反应;可以通过识别人的手势动作来实现简单的功能,比如前进、后退等;机器人能够识别人面部表情,进而判断此时人的心情状态,如高兴、悲伤;在语音对话时,老人可能因为听不清机器人的语音反馈而不清楚机器人是否听清了老人的语音指令,所以加入点头摇头等动作反馈;在语音对话时,老人可能因为听不清机器人的语音反馈而不清楚机器人是否听清了老人的语音指令,所以加入点头摇头等动作反馈。
智能化程度高,能够实现多种自主行动包括:在路径规划之前,需要机器人的定位及室内全局地图的构建,有了全局地图之后,输入目的地,便可以进行路径规划,然后以此路径到达目标点;在机器人运动过程中可能会碰到各种障碍物,或是静态的,或是动态的,机器人需要及时做出反应,并避开障碍物;启用自动跟随功能后,机器人可以自动检测目标,并且跟随移动目标,不受其他移动目标的干扰;
能够进行多种多样的智能交互,可以通过摄像头及屏幕实现与家人的视频通话,可以语音控制,直接拨打视频通话;可以设定闹钟,或者设置事件提醒,比如提醒老人吃药;可以实时远程监控家里的情况,比如家里老人,孩子的情况,或者家里是否有外人进入;
同时感知能力强,机器人可以通过双目相机检测出当前目标物体的名称,距离等信息;可以识别出家庭成员中具体的人员;见到除家庭成员外的人时,能够及时通知,确认是否是朋友来访等情况;能够准确地识别出每个物体是什么,并且能够准确地说出他的位置在哪里,并通过语音准确的表述出来;监控老人的身体状况,心跳血压等,防止身体意外情况发生时,身边没有人,机器人能够及时寻求医护人员帮助。
其主体结构设计巧妙,智能化和集成化程度高,能够作为老人重要的辅助和监测、陪伴方式,应用环境友好,市场前景广阔。
附图说明:
图1为本发明涉及的机器人正面硬件位置及结构原理示意图。
图2为本发明涉及的机器人背面硬件位置及结构原理示意图。
图3为本发明涉及的语音交互过程原理示意图。
图4为本发明涉及的语音控制原理流程图。
图5为本发明涉及的内部架构原理示意图。
具体实施方式:
下面通过实施例并结合附图对本发明进一步说明。
实施例1:
本实施例涉及的一种智能养老陪伴机器人通过如下技术方案实现:机器人头顶部设置有用以语音输入6麦克环形阵列,能够消除噪音和回声,机器人头部和背部设置有获取简单的图像信息、视频通话和拍照的摄像头,在机器人头部的眼睛和嘴巴处设置有用以表达机器人情感的LCD眼睛和LCD嘴巴,能够使机器人更人性化,机器人肩部设置有获取空间中的深度图像的双目相机,能够用来建立工作空间的三维地图;机器人胸部设置有用以进行人机交互的触摸显示屏,触摸显示屏能够提供友好的交互界面,方便进行人机交互;机器人腰部左右侧设置有方便传声的立体声双扬声器,能够使令机器人的声音在任何位置都能听清,且在聊天、看视频时具有立体声的效果;机器人腰部前部设置有用以提供部分图像的深度信息、实现物品检测和自动跟随的RGB-D摄像头;在机器人腿部处设置有用以探测空间内存在的物体、建立空间的二维地图的激光雷达;在机器人底部靠前处设置有用以超声波测距的超声波模块,能够防止机器人移动时碰到障碍物,机器人底部的前侧还设置有用以防止机器人撞到障碍物红外传感器,其中红外传感器设置于超声波模块的下部;机器人底部设置有提供移动动力的轮毂电机,轮毂电机平稳安静减少机器人移动时的噪音;触摸感应器设置于包括机器人头部、肩部、手部和双耳在内的部位,在用户抚摸机器人的时候,机器人能够做出合适的反应,提高用户对于机器人的交互体验;用以充电的充电口设置于机器人后侧靠下处,在机器人后颈处设置有用以紧急停止运行的急停开关;
本实施例涉及的一种智能养老陪伴机器人的内部架构按照如下方式实现:其整体采用x86架构以及ARM架构的处理器,采用 ROS(Robot Operating System)操作***,该***基于Linux开发的操作***;架构主要包括有硬件层部分、输入层部分、驱动层部分、输出层部分、信息处理层部分,其中信息处理层部分主要包括有进行信息处理的MCU(微控制单元),MCU包括有触摸感应控制单元、语音控制单元和机器人手臂控制单元,其中6麦克环形阵列通过麦克风接口与语音控制单元通信连接,并向其输送语音信息,触摸感应单元中的触摸感应器通过触摸IC芯片接口与触摸感应控制单元通信连接,并向其输送感应信息,超声波感应器、红外线传感器、IMU(惯性测量单元)、双目相机、激光雷达、RGB-D摄像头通过USB接口与 MCU通信连接,并向其传输获得的信息,由MUC进行信息处理,MCU 通过接收上述传感器部件获取的信息实现包括手势控制、3D目标检测、表情识别、路径规划、机器人动作反馈、自主避障在内的功能,MCU通过I2S接口与扬声器通信连接,用以输出音频信息,MUC通过 PWM(脉冲宽度调制)舵机接口与舵机通信连接,用以将电机转速、角度信息输入至舵机,其中舵机设置于机器人头部处,以控制头部俯仰和转动,MUC通过电机接口与轮毂电机通信连接,以控制轮毂电机的双轮转速和方向,MUC通过PWM(脉冲宽度调制)伺服电机接口与伺服电机通信连接,并向其输送机器人手臂运动信息,以控制机器人手臂运动,本实施例中MUC还连接有通信模块,通信模块能通过WIFI、 USB和蓝牙的方式进行内部以及与外接设备进行通信。
本实施例在使用时,能够通过如下方法实现:
S1、语音交互
由于老人上了年纪可能视觉上,行动上都有所不便,所以此时语音上的交互便是最好的方式,老人直接通过语音向机器人发出命令,进而控制机器人,其处理过程可简单的用图1表示,语音信号通过语音采集输入设备传输到声源定位模块,之后通过算法定位声源方位并将相关位置信息发送给机器人上位机的运动控制模块,进而根据接收的声源的定位信息计算出相应的运动指令,通过串口发送给下位机,最终实现机器人自主的精准转向运动,此外,机器人可根据用户下达的语音指令实现前进、转弯以及漫游巡逻等动作和声控拍照等非运动指令,使得用户几乎不需要前期培训学***以及用户的使用体验,语音控制流程图如图2所示;
S2、手势交互
老人在和机器人进行语音交互的同时,也可以进行手势上的互动,比如向前伸出手臂机器人前进,向后收回手臂机器人后退,手臂画圈机器人转圈等,手势交互可以增加与机器人互动的乐趣,使得老人在无聊之时进行简单的交互,令机器人看起来更加智能化;
S3、机器动作反馈
上了年纪的老人和机器人在语音交互时可能会对机器人的语音回答听不清楚,比如机器人未听清楚指令时,可以语音回答“未听清指令,请您再说一遍”边做摇头动作,当机器人成功接收到命令时,机器人可以边语音回答,边点头,这样即便老人听不清,也可以通过机器人的动作反馈知晓机器人是否成功接收到命令;
S4、异常行为识别
机器人会自主跟随老人,使得老人一直在机器人的监控范围内,机器人会实时判断老人当前的状态,是“走”“站”还是“坐”,当老人发生异常行为时,比如“跌倒”,机器人会立即发出报警,向附近的人寻求帮助;
S5、身体状况监控
老人可以通过佩戴智能手环,实时监控老人的血压,心率等体征,将数据传回机器人,机器人与云端的数据进行比对,对老人的身体状况进行提前预警,当老人的身体状况出现异常时,能够及时地报警,防止意外的发生;
S6、好感度***
普通的机器人只会单一的语音,单一的执行命令,本实施例涉及的智能养老陪伴机器人可以通过摄像头识别出家庭中的每一个人,对不同的家庭成员分别计算好感度,和机器人交流的越多,使用它的功能越多,那么便可以增加机器人对他/她的好感度,好感度增加之后可以解锁一些特殊的语音对话,或者跳舞姿势等,这样可以促进老人及家人对机器人的了解,使得老人不再那么抗拒学习机器人复杂的命令,同时也增加了与机器人互动的乐趣,对机器人的训练方式则采用现有的机器训练方式进行训练。
Claims (3)
1.一种智能养老陪伴机器人,其特征在于其通过如下技术方案实现:
机器人头顶部设置有用以语音输入6麦克环形阵列,能够消除噪音和回声,机器人头部和背部设置有获取简单的图像信息、视频通话和拍照的摄像头,机器人面部采用LED结构,能够使机器人更人性化,机器人肩部设置有获取空间中的深度图像的双目相机,能够用来建立工作空间的三维地图;机器人胸部设置有用以进行人机交互的触摸显示屏,触摸显示屏能够提供友好的交互界面,方便进行人机交互;机器人腰部左右侧设置有方便传声的立体声双扬声器,能够使令机器人的声音在任何位置都能听清,且在聊天、看视频时具有立体声的效果;机器人腰部前部设置有用以提供部分图像的深度信息、实现物品检测和自动跟随的RGB-D摄像头;在机器人腿部处设置有用以探测空间内存在的物体、建立空间的二维地图的激光雷达;在机器人底部靠前处设置有用以超声波测距的超声波模块,能够防止机器人移动时碰到障碍物,机器人底部的前侧还设置有用以防止机器人撞到障碍物红外传感器,其中红外传感器设置于超声波模块的下部;机器人底部设置有提供移动动力的轮毂电机,轮毂电机平稳安静减少机器人移动时的噪音;触摸感应器设置于包括机器人头部、肩部、手部和双耳在内的部位,在用户抚摸机器人的时候,机器人能够做出合适的反应,提高用户对于机器人的交互体验;用以充电的充电口设置于机器人后侧靠下处,在机器人后颈处设置有用以紧急停止运行的急停开关。
2.根据权利要求1所述的一种智能养老陪伴机器人,其特征在于其内部架构按照如下方式实现:其整体采用x86架构以及ARM架构的处理器,采用ROS操作***;架构主要包括有硬件层部分、输入层部分、驱动层部分、输出层部分、信息处理层部分,其中信息处理层部分主要包括有进行信息处理的MCU,MCU包括有触摸感应控制单元、语音控制单元和机器人手臂控制单元,其中6麦克环形阵列通过麦克风接口与语音控制单元通信连接,触摸感应单元中的触摸感应器通过触摸IC芯片接口与触摸感应控制单元通信连接,超声波感应器、红外线传感器、IMU、双目相机、激光雷达、RGB-D摄像头通过USB接口与MCU通信连接,MCU通过I2S接口与扬声器通信连接,MUC通过PWM舵机接口与舵机通信连接,其中舵机设置于机器人头部处,MUC通过电机接口与轮毂电机通信连接,MUC通过PWM伺服电机接口与伺服电机通信连接,本发明中MUC还连接有通信模块,通信模块通过WIFI、USB和蓝牙的方式进行内部以及与外接设备进行通信。
3.根据权利要求1-2中任一权利要求所述的一种智能养老陪伴机器人,其特征在于,在机器人后颈处设置有用以紧急停止运行的急停开关。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910583271.7A CN110605724B (zh) | 2019-07-01 | 2019-07-01 | 一种智能养老陪伴机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910583271.7A CN110605724B (zh) | 2019-07-01 | 2019-07-01 | 一种智能养老陪伴机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110605724A true CN110605724A (zh) | 2019-12-24 |
CN110605724B CN110605724B (zh) | 2022-09-23 |
Family
ID=68889692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910583271.7A Active CN110605724B (zh) | 2019-07-01 | 2019-07-01 | 一种智能养老陪伴机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110605724B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111152237A (zh) * | 2020-01-22 | 2020-05-15 | 深圳国信泰富科技有限公司 | 一种两侧设置激光雷达的机器人头部及其环境采样方法 |
CN111179549A (zh) * | 2020-01-13 | 2020-05-19 | 屈冲 | 一种老年人智能看护***及装置 |
CN111300429A (zh) * | 2020-03-25 | 2020-06-19 | 深圳市天博智科技有限公司 | 机器人控制***、方法及可读存储介质 |
CN111300426A (zh) * | 2020-03-19 | 2020-06-19 | 深圳国信泰富科技有限公司 | 一种高智能人型机器人感测头的控制*** |
CN111775183A (zh) * | 2020-07-29 | 2020-10-16 | 浙江树人学院(浙江树人大学) | 一种智能互动机器人及其互动方法 |
CN111948644A (zh) * | 2020-07-15 | 2020-11-17 | 武汉理工大学 | 基于毫米波雷达的机器人地形识别方法及雷达装置 |
CN112123346A (zh) * | 2020-09-01 | 2020-12-25 | 北京机械设备研究所 | 老人看护机器人 |
CN113359996A (zh) * | 2021-08-09 | 2021-09-07 | 季华实验室 | 生活辅助机器人控制***、方法、装置及电子设备 |
CN113397520A (zh) * | 2021-07-14 | 2021-09-17 | 北京清雷科技有限公司 | 室内对象的信息检测方法及装置、存储介质和处理器 |
CN114310938A (zh) * | 2021-12-17 | 2022-04-12 | 重庆特斯联智慧科技股份有限公司 | 一种景区游玩智能引导机器人 |
WO2023283834A1 (zh) * | 2021-07-14 | 2023-01-19 | 北京清雷科技有限公司 | 室内对象的信息检测方法及装置、存储介质和处理器 |
CN117352151A (zh) * | 2023-12-05 | 2024-01-05 | 吉林大学 | 智能陪护管理***及其方法 |
CN117457137A (zh) * | 2023-12-22 | 2024-01-26 | 江西拓世智能科技股份有限公司 | 针对患病老人的ai陪伴数字人的管理方法及管理装置 |
TWI840034B (zh) * | 2022-12-20 | 2024-04-21 | 建國科技大學 | 利用影像辨識並結合聊天機器人架構之智慧居家看護系統 |
CN117921639A (zh) * | 2024-03-21 | 2024-04-26 | 中国极地研究中心(中国极地研究所) | 一种用于无人艇的智能机械臂*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105078450A (zh) * | 2015-08-24 | 2015-11-25 | 华南理工大学 | 一种可实现脑电检测的健康服务机器人 |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
CN106625714A (zh) * | 2017-01-17 | 2017-05-10 | 五邑大学 | 一种用于老人身体健康状况检测的监护机器人 |
CN206383149U (zh) * | 2017-01-06 | 2017-08-08 | 天津哈士奇机器人科技有限公司 | 一种健康养老机器人 |
CN107153812A (zh) * | 2017-03-31 | 2017-09-12 | 深圳先进技术研究院 | 一种基于机器视觉的运动辅助方法及*** |
WO2018010091A1 (zh) * | 2016-07-12 | 2018-01-18 | 太仓光电技术研究所 | 一种老年服务机器人 |
CN109002783A (zh) * | 2018-07-02 | 2018-12-14 | 北京工业大学 | 救援环境中的人体检测以及姿态识别方法 |
CN109033179A (zh) * | 2018-02-27 | 2018-12-18 | 深圳狗尾草智能科技有限公司 | 基于机器人情绪状态的回复信息生成方法、装置 |
CN109903310A (zh) * | 2019-01-23 | 2019-06-18 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、计算机装置及计算机存储介质 |
-
2019
- 2019-07-01 CN CN201910583271.7A patent/CN110605724B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105078450A (zh) * | 2015-08-24 | 2015-11-25 | 华南理工大学 | 一种可实现脑电检测的健康服务机器人 |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
WO2018010091A1 (zh) * | 2016-07-12 | 2018-01-18 | 太仓光电技术研究所 | 一种老年服务机器人 |
CN206383149U (zh) * | 2017-01-06 | 2017-08-08 | 天津哈士奇机器人科技有限公司 | 一种健康养老机器人 |
CN106625714A (zh) * | 2017-01-17 | 2017-05-10 | 五邑大学 | 一种用于老人身体健康状况检测的监护机器人 |
CN107153812A (zh) * | 2017-03-31 | 2017-09-12 | 深圳先进技术研究院 | 一种基于机器视觉的运动辅助方法及*** |
CN109033179A (zh) * | 2018-02-27 | 2018-12-18 | 深圳狗尾草智能科技有限公司 | 基于机器人情绪状态的回复信息生成方法、装置 |
CN109002783A (zh) * | 2018-07-02 | 2018-12-14 | 北京工业大学 | 救援环境中的人体检测以及姿态识别方法 |
CN109903310A (zh) * | 2019-01-23 | 2019-06-18 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、计算机装置及计算机存储介质 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179549A (zh) * | 2020-01-13 | 2020-05-19 | 屈冲 | 一种老年人智能看护***及装置 |
CN111152237B (zh) * | 2020-01-22 | 2023-12-22 | 深圳国信泰富科技有限公司 | 一种两侧设置激光雷达的机器人头部及其环境采样方法 |
CN111152237A (zh) * | 2020-01-22 | 2020-05-15 | 深圳国信泰富科技有限公司 | 一种两侧设置激光雷达的机器人头部及其环境采样方法 |
CN111300426B (zh) * | 2020-03-19 | 2022-05-31 | 深圳国信泰富科技有限公司 | 一种高智能人型机器人感测头的控制*** |
CN111300426A (zh) * | 2020-03-19 | 2020-06-19 | 深圳国信泰富科技有限公司 | 一种高智能人型机器人感测头的控制*** |
CN111300429A (zh) * | 2020-03-25 | 2020-06-19 | 深圳市天博智科技有限公司 | 机器人控制***、方法及可读存储介质 |
CN111948644A (zh) * | 2020-07-15 | 2020-11-17 | 武汉理工大学 | 基于毫米波雷达的机器人地形识别方法及雷达装置 |
CN111775183A (zh) * | 2020-07-29 | 2020-10-16 | 浙江树人学院(浙江树人大学) | 一种智能互动机器人及其互动方法 |
CN112123346A (zh) * | 2020-09-01 | 2020-12-25 | 北京机械设备研究所 | 老人看护机器人 |
CN113397520A (zh) * | 2021-07-14 | 2021-09-17 | 北京清雷科技有限公司 | 室内对象的信息检测方法及装置、存储介质和处理器 |
WO2023283834A1 (zh) * | 2021-07-14 | 2023-01-19 | 北京清雷科技有限公司 | 室内对象的信息检测方法及装置、存储介质和处理器 |
CN113397520B (zh) * | 2021-07-14 | 2024-05-24 | 北京清雷科技有限公司 | 室内对象的信息检测方法及装置、存储介质和处理器 |
CN113359996A (zh) * | 2021-08-09 | 2021-09-07 | 季华实验室 | 生活辅助机器人控制***、方法、装置及电子设备 |
CN114310938A (zh) * | 2021-12-17 | 2022-04-12 | 重庆特斯联智慧科技股份有限公司 | 一种景区游玩智能引导机器人 |
TWI840034B (zh) * | 2022-12-20 | 2024-04-21 | 建國科技大學 | 利用影像辨識並結合聊天機器人架構之智慧居家看護系統 |
CN117352151B (zh) * | 2023-12-05 | 2024-03-01 | 吉林大学 | 智能陪护管理***及其方法 |
CN117352151A (zh) * | 2023-12-05 | 2024-01-05 | 吉林大学 | 智能陪护管理***及其方法 |
CN117457137A (zh) * | 2023-12-22 | 2024-01-26 | 江西拓世智能科技股份有限公司 | 针对患病老人的ai陪伴数字人的管理方法及管理装置 |
CN117457137B (zh) * | 2023-12-22 | 2024-05-31 | 江西拓世智能科技股份有限公司 | 针对患病老人的ai陪伴数字人的管理方法及管理装置 |
CN117921639A (zh) * | 2024-03-21 | 2024-04-26 | 中国极地研究中心(中国极地研究所) | 一种用于无人艇的智能机械臂*** |
CN117921639B (zh) * | 2024-03-21 | 2024-05-28 | 中国极地研究中心(中国极地研究所) | 一种用于无人艇的智能机械臂*** |
Also Published As
Publication number | Publication date |
---|---|
CN110605724B (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110605724B (zh) | 一种智能养老陪伴机器人 | |
US20230351795A1 (en) | Determining associations between objects and persons using machine learning models | |
Alam et al. | Vision-based human fall detection systems using deep learning: A review | |
Abobakr et al. | Rgb-d fall detection via deep residual convolutional lstm networks | |
KR20180072978A (ko) | 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치 | |
Chang et al. | A pose estimation-based fall detection methodology using artificial intelligence edge computing | |
Zhong et al. | Efficient environmental context prediction for lower limb prostheses | |
CN116945156A (zh) | 一种基于计算机视觉技术的老年人智能陪护*** | |
Mollaret et al. | Perceiving user's intention-for-interaction: A probabilistic multimodal data fusion scheme | |
Tsai et al. | Predicting canine posture with smart camera networks powered by the artificial intelligence of things | |
Montaño-Serrano et al. | Artificial vision algorithms for socially assistive Robot applications: A review of the literature | |
Taghvaei et al. | Autoregressive-moving-average hidden Markov model for vision-based fall prediction—An application for walker robot | |
Yuan et al. | Development of a human-friendly robot for socially aware human-robot interaction | |
Pasarica et al. | Remote control of a robotic platform based on hand gesture recognition | |
Weinrich et al. | Appearance-based 3D upper-body pose estimation and person re-identification on mobile robots | |
Zhang et al. | An egocentric vision based assistive co-robot | |
JP5418938B2 (ja) | グループ行動推定装置およびサービス提供システム | |
Kabir et al. | Secure Your Steps: A Class-Based Ensemble Framework for Real-Time Fall Detection Using Deep Neural Networks | |
Jin et al. | Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind | |
CN115120250A (zh) | 基于脑电信号和slam控制的智能脑控轮椅*** | |
Chin et al. | A lightweight neural-net with assistive mobile robot for human fall detection system | |
Song et al. | Multi-sensory visual-auditory fusion of wearable navigation assistance for people with impaired vision | |
Sanjeewa et al. | Understanding the hand gesture command to visual attention model for mobile robot navigation: service robots in domestic environment | |
Kibria et al. | Creation of a Cost-Efficient and Effective Personal Assistant Robot using Arduino & Machine Learning Algorithm | |
Nguyen et al. | Development of an assistive patient mobile system for hospital environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |