CN108161933A - 交互模式选择方法、***及接待机器人 - Google Patents

交互模式选择方法、***及接待机器人 Download PDF

Info

Publication number
CN108161933A
CN108161933A CN201711282942.3A CN201711282942A CN108161933A CN 108161933 A CN108161933 A CN 108161933A CN 201711282942 A CN201711282942 A CN 201711282942A CN 108161933 A CN108161933 A CN 108161933A
Authority
CN
China
Prior art keywords
user
age
range
information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711282942.3A
Other languages
English (en)
Inventor
刘雪楠
沈刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kngli Youlan Robot Technology Co Ltd
Original Assignee
Beijing Kngli Youlan Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kngli Youlan Robot Technology Co Ltd filed Critical Beijing Kngli Youlan Robot Technology Co Ltd
Priority to CN201711282942.3A priority Critical patent/CN108161933A/zh
Publication of CN108161933A publication Critical patent/CN108161933A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种接待机器人交互模式选择方法,包括:感测到用户接近;判断用户是否属于注册用户,如果是则根据用户注册信息选择语种和交互模式,如果否则创建并记录用户注册信息;判断是否接收到用户语音,如果是则根据用户语音选择语种,如果否则识别用户分类;根据用户分类选择语种;判断用户的年龄;根据用户的年龄选择交互模式。依照本发明的交互模式选择方法、***以及使用该方法和/或***的接待机器人以用户的面部特征为基准利用语音频谱和/或生理特征来修正用户年龄,根据用户年龄来选择不同的交互模式,从而提高了用户年龄预测的成功率,提高了用户体验。

Description

交互模式选择方法、***及接待机器人
技术领域
本发明涉及智能机器人领域,特别是涉及一种能自动判定用户年龄从而选择不同交互模式的方法、交互模式选择***以及使用该方法和/或***的接待机器人。
背景技术
随着机器人技术的发展,机器人被应用于各个领域,现有的机器人分为两类,即工业机器人和特种机器人。所谓工业机器人就是面向工业领域的多关节机械手或多自由度机器人。而特种机器人则是除工业机器人之外的、用于非制造业并服务于人类的各种先进机器人,包括:、水下机器人、娱乐机器人、军用机器人、农业机器人、机器人化机器等。而服务机器人常常用于在银行、商场、酒楼、售房部、酒店等场合迎宾接待、导游服务以及广告宣传等服务性行业,该种服务机器人可以设定迎宾、问询、送餐、结账、娱乐等工作模式,服务机器人具有智能替代人力的特点,此外,具有与人互动的功能,相比生活中的服务员,服务机器人能够更好地取悦和吸引顾客或者客户等,并且能给顾客或者客户带来全新的服务体验,同时服务机器人可以节省商家的人工成本;可以满足长时间工作的同时还能够保证优质服务,避免了人工服务由于长时间工作产生疲倦导致顾客或者客户的满意度下降的情况,大大提高了工作效率。
当前的服务机器人的应用场所如涉外酒店、机场免税店、对外机构、大型购物中心等多数都是采用纯中文操作***的服务或接待机器人。少数接待机器人采用中文、英文两个并行***,然后在两个***之间进行选择。但是由于技术障碍,双***选择需要进行重启机器人等操作,步骤繁琐,耗时极长,在实际使用过程中,给用户造成极大的不便。而且由于缺乏对于其他语种的支持,使更多的操不同语言的国际人士无从选择。
进一步的,机器人采用内置的***语音(通常为年轻女性或男性)与用户交互,例如问候用户、回答用户的咨询、提醒用户日程安排、担任场馆讲解等等。然而,现有的***语音语种单一例如仅为中文或英文,而且模式单一例如仅为青年语音,无法针对不同国籍、不同性别、不同年龄的用户进行针对***互。
一种可能的改进方式在于根据采集到用户的语音声线特征频谱来预判用户的年龄,然而这种单一判定方式容易受到干扰。例如当用户并未发声或者身边存在其他更大声源时,或者当用户因为身体健康原因发生声音突变时,又或者用户情绪波动或刻意变声时,通过用户声音频谱来判断用户年龄变得不可靠。
发明内容
因此,本发明的目的在于自动地判定用户年龄并根据用户年龄选择不同的交互模式,从而有效地提高用户体验。
本发明提供了一种接待机器人交互模式选择方法,包括:感测到用户接近;判断用户是否属于注册用户,如果是则根据用户注册信息选择语种和交互模式,如果否则创建并记录用户注册信息;判断是否接收到用户语音,如果是则根据用户语音选择语种,如果否则识别用户分类;根据用户分类选择语种;判断用户的年龄;根据用户的年龄选择交互模式。
其中识别用户分类的步骤进一步包括:根据生物信息对用户粗分类;根据辅助属性对用户细分类,其中,可选地,所述生物信息包括肤色信息、面部轮廓信息、身高、步伐、移动速度、肢体静止/行走姿态;任选地,辅助属性包括衣着风格、用户携带行李或衣物上的身份标识、用户便携式装置操作界面上的语言、用户便携式装置的设备名称的语言;任选地,粗分类包括黄种人、白种人、黑种人;可选地,用户注册信息包括用户的人脸识别信息、用户的身份信息、用户的语种信息、用户的年龄信息。
其中,判断用户的年龄之前进一步包括,接收用户反馈并修改用户注册信息。
其中,判断用户的年龄的步骤进一步包括:根据用户面部特征预测用户年龄的第一范围;根据用户语音频谱产生用户年龄的第二范围,和/或根据用户生理特征产生用户年龄的第三范围;可选地,根据用户辅助属性产生第四范围。
其中,如果第二范围与第一范围重叠或部分重叠,将重叠的范围作为用户年龄的最终范围;如果第二范围与第一范围不重叠、且第三范围与第一范围重叠或部分重叠,将第三范围与第一范围重叠的部分作为用户年龄的最终范围;如果第一、第二、第三范围两两不重叠或者均不重叠,将第四范围与第一、第二、第三范围的任一项重叠的部分作为用户年龄的最终范围。
其中,交互模式包括敬语模式、儿童模式、老年模式、默认模式。
其中,敬语模式与默认模式的音量、语速相同;任选地,儿童模式的音量和语速均低于默认模式;任选地,老年模式的音量高于默认模式,语速低于默认模式。
其中,默认模式中基于接待机器人所处环境的背景噪声的音量,根据用户与接待机器人之间的距离、用户的年龄而设置音量、语速。
本发明还提供了一种接待机器人交互模式切换***,用于执行根据以上任一项所述的方法,包括:用户接近感测模块,用于感测到用户接近;用户信息注册模块,用于记录用户注册信息;用户语音识别模块,用于接收用户语音;用户年龄识别模块,用于判断用户的年龄;处理器,用于:判断用户是否属于注册用户,如果是则根据用户注册信息选择语种和交互模式,如果否则在用户信息注册模块中创建并记录用户注册信息;判断是否接收到用户语音,如果是则根据用户语音选择语种,如果否则识别用户分类,并根据用户分类选择语种;以及根据用户的年龄选择交互模式。
本发明另外提供了一种接待机器人,采用根据前述任一项所述的方法选择接待用户所使用的语种以及交互模式。
依照本发明的交互模式选择方法、***以及使用该方法和/或***的接待机器人以用户的面部特征为基准利用语音频谱和/或生理特征来修正用户年龄,根据用户年龄来选择不同的交互模式,从而提高了用户年龄预测的成功率,提高了用户体验。
本发明所述目的,以及在此未列出的其他目的,在本申请独立权利要求的范围内得以满足。本发明的实施例限定在独立权利要求中,具体特征限定在其从属权利要求中。
附图说明
以下参照附图来详细说明本发明的技术方案,其中:
图1 显示了根据本发明实施例的接待机器人***的示意图;
图2 显示了根据本发明实施例的接待机器人交互模式选择方法的流程图;
图3 显示了根据本发明实施例的图2所示流程图中判断用户年龄的具体步骤的流程图;以及
图4 显示了根据本发明实施例的接待机器人交互模式选择***的方框图。
具体实施方式
以下参照附图并结合示意性的实施例来详细说明本发明技术方案的特征及其技术效果,公开了可有效提高用户体验的交互模式选择方法、***以及使用该方法和/或***的接待机器人。需要指出的是,类似的附图标记表示类似的结构,本申请中所用的术语“第一”、“第二”、“上”、“下”等等可用于修饰各种***部件或方法步骤。这些修饰除非特别说明并非暗示所修饰***部件或方法步骤的空间、次序或层级关系。
如图1所示,根据本发明实施例的接待机器人包括:位于头顶的高灵敏度麦克风1,用于采集或接收周围环境声音信息或人员语音信息;位于额部的高清摄像头2,用于采集或接收人员面部的拓扑结构信息(例如骨骼轮廓);位于眼部的精细传感器3A和3B,用于捕获人员的面部细节(例如虹膜,视网膜,眉毛或眼角的动态变化,嘴唇或牙齿反映的微笑程度,耳朵或鼻尖的轻微抽动)从而反映人员的生物信息或情绪信息;位于机器人各个部分触摸传感器,包括下巴触摸传感器4、腹部触摸传感器7、头顶触摸传感器10、左耳/右耳触摸传感器12A/12B、后脑触摸传感器13、左肩/右肩触摸传感器15A/15B、臀部触摸传感器17,这些触摸传感器用于识别与用户的触感互动,从而提高对于用户身份或情绪识别的精确度,并且提供与用户肢体接触的应力信息以反馈、修改机器人躯体的移动/转动参数;位于脖颈部的3D深度摄像头5,用于采集周围场景的景深信息;位于胸部的触摸显示屏6,用于显示心跳或肤色变化的拟生信息从而提高机器人的仿真度,或者增宽至横贯整个胸部(未示出)而向用户显示接待/查询信息或其他视频信息;位于下腹部的2D激光雷达8,用于测量用户或场景中其他移动物体与机器人的距离,辅助判定对象的高度、移动速度、肢体静止/行走姿态等;位于足部的全向移动轮9,用于驱动整个机器人沿预存或者实时判定选择的路径移动;位于耳部的扬声器11A/11B,用于向用户传递语音、音频信息;位于后背部的急停开关14,用于紧急停止机器人的移动或动作,便于提高安全性;位于后腰部的开机按钮16,用于人工启动接待机器人的操作***以提供接待、咨询服务;位于手部的手部生物传感器18,用于采集用户的指纹、测量用户的皮肤含水量(电阻率)或粗糙度、测量与用户握手的应力、测量用户脉搏或毛细血管的含氧量等;位于腿侧面的充电接口19,以及位于腿背面的电源开关。
图2显示了根据本发明实施例的接待机器人交互模式选择方法的流程图,图4则显示了该实施例所采用的接待机器人交互模式选择***的方框图。
首先,由用户接近感测模块来感测到用户接近。例如,通过高灵敏度麦克风1、高清摄像头2、3D深度摄像头5、或者2D激光雷达8或者其他临近传感器(未示出,例如包括生物电场传感器、磁场传感器、化学气体传感器、机械振动传感器)接收传感器信息,如果传感器信息大于预设的阈值(根据大批量试验数据获得并预存在选择***所包含的存储装置(未示出)中)则判定机器人附近一定距离或有效范围内(例如5米)存在向接待机器人移动的人员或用户。如果存在接近的用户,则唤醒接待机器人***特别是语言选择***。如果判定不存在,则接待机器人继续保持待机或休眠状态,如此可以节省电能,提高接待机器人的续航能力。
然后,由用户信息注册模块判断用户是否属于注册用户,如果是则根据用户注册信息选择接待所用的语种和交互模式,如果否则创建并记录用户注册信息并存储在接待机器人的存储器(未示出)中。
用户注册信息包括用户的人脸识别信息,主要包括面部骨骼轮廓(拓扑)结构、虹膜/视网膜特征信息、面部表层特征信息(例如眉毛分布、睫毛长度/弯曲度、色斑/痣的形状/位置等),这些人脸识别信息由接待机器人在首次识别到该用户的情况下创建并记录。用户注册信息还包括用户的身份信息,主要包含姓名、性别、身高、籍贯/国籍、职业等,这些用户身份信息由用户在后续反馈过程中主动提供或者根据在场馆、商场、酒店等所消费的记录而自动记录。用户注册信息进一步包括用户的语种信息,包含用户的母语、第一外语、第二外语、方言等,接待机器人首次识别到用户时根据用户的主动输入或者***自动识别而记录,并可以在后续反馈过程中修改、或者利用消费记录而自动修正。用户注册信息进一步包括用户的年龄信息,例如包括用户手动输入或者利用消费记录等录入的用户的准确年龄,或者接待机器人根据用户的面部特征、语音频谱、生理特征、以及其他辅助属性预测的用户的年龄范围。
用户交互模式包括:
1)敬语模式(针对日语、韩语、藏语等本身具有敬语格式的语种),接待机器人所采用的接待语音通常选用青年女性或男性,模拟设定的声音所属年龄段为20~25岁。因此,如果判定用户的语种为具有敬语格式的语种,并且用户的准确年龄或者预测的年龄范围超过20岁,则采用敬语格式,音量、语速与默认模式相同;如果否,则采用默认的交互模式;
2)儿童模式,如果判定用户的年龄低于接待机器人应用场所所在国家或地区对于儿童的法律定义,例如8岁、10岁、12岁、或14岁,在交互语言中采用儿童口头语、例如增用叠词或卡通人物拟声,并且优选青年女性的声音作为交互语音,同时降低音量、减缓语速以保护幼儿听力;
3)老年模式,如果判定用户的年龄高于接待机器人应用场所所在国家或地区对于老年的定义,例如60岁或65岁,提高音量、减缓语速以便于听力衰退的老人能够清楚、及时获取信息;
4)默认模式,基于接待机器人所处环境的背景噪声的音量,根据用户与接待机器人之间的距离(距离越大音量越大)、用户的年龄(默认20~60岁,年龄越大语速越慢)而设置默认的音量(例如高于背景噪声10~20dB)、语速(例如对应于新闻播报语速的70~120%)。
具体地,在本发明一个优选实施例中,由高清摄像头2、精细传感器3A/3B收集用户的面部信息,提供给***的处理器(未示出)进行人脸识别,与***存储器中用户信息注册模块所预先存储的用户注册信息中的人脸识别信息作比较。
在本发明的其他优选实施例中,由生物电场传感器、化学气体传感器、或者上述手部生物传感器18来识别用户的身份(特殊的生物电场,或者独特的气味,或者手部相关的上述其他生物特征),或者由射频标签读取器(未示出)识别携带了身份标签的用户的身份。
如果比较的结果确定用户属于已注册用户,则从***存储器中提取用户注册信息,根据用户注册信息中已经记录的用户使用语言信息来决定接待机器人针对该用户采用相应的语种、交互模式进行问候、咨询、接待。
如果比较的结果确定用户不属于已注册用户,则创建用户注册信息的记录,包括人脸识别信息、身份信息、语种信息、年龄信息。
接着,判断是否接收到用户语音信息,如果是(例如用户向接待机器人行走过程中在与周围人员交谈或者用手机与外界通话)则根据用户的语音来选择接待语言,如果否(例如用户在浏览手机或平板电脑的网页、观看视频、用耳机听乐曲等而并未主动发出声音)则进一步识别用户分类。具体地,由接待机器人头顶的高灵敏度麦克风1采集或接收接近机器人一定或预设范围内(例如2米,该范围小于判断用户接近所用的距离范围)的用户主动发出的语音信息,由用户语音识别模块根据语音信息识别分析用户所操语言,例如中文、日文、韩文、英语、法语、西班牙语、***语等等,并且接待机器人语音选择***将采用识别到的用户所操语言稍后与用户交互、向用户主动问询、答复咨询项目等等。
随后,用户没有主动发出声音的情况下,语音选择***利用机器人所采集的关于用户的非音频信息并结合大数据统计结果来预测用户的分类,并且根据用户分类来选择用户可能熟练使用的语言。
例如,对于旅行团等团队顾客,可以根据旅行团预定入住酒店或者游览的时间,并结合3D深度摄像头5、2D激光雷达8(以及任选的并未示出的热成像仪)所识别到的团队人数而判断团队对应于预定团队列表中的哪一个,并依据预定团队的信息来检索所属国家或地区从而选用该国家或地区的语言来问候。
例如,对于机场附近购物中心的游客,可以根据高清摄像头2、3D深度摄像头5所捕捉到游客行李箱包上的行李签,识别行李签的起飞地从而判断游客所属国家或地区从而预判该游客可能熟练使用的语言。
又例如,对于正在观看视频的用户,可以由高清摄像头2识别视频字幕或评论弹幕的语言(中文、英文等)而选用该字幕或弹幕对应的语言。
其中,在本发明一个优选实施例中,对于用户分类的步骤进一步包括,首先根据生物信息对用户进行粗分类,然后根据辅助属性对用户进行细分类。
在本发明一个实施例中,生物信息包括高清摄像头2进行人脸识别所得到的肤色信息(黄色,白色,黑色)、面部轮廓信息(脸部宽/窄,鼻头高/低,下颚方/尖,眼窝凹陷深度,颧骨突出高度等),2D激光雷达8所测量的身高、步伐、移动速度、肢体静止/行走姿态等。根据这些生物信息将接近接待机器人的用户大致分为黄种人(预判可能使用汉语、日语、韩语)、白种人(预判可能使用英语、法语、德语、西班牙语、葡萄牙语、***语)、黑种人(预判可能使用英语、法语、德语、西班牙语、葡萄牙语)三大类。
在本发明一个优选实施例中,基于几何特征进行人脸/姿势识别。
首先,对高清摄像头2采集的图像数据进行预处理。采用创新性的可变邻域平均法平滑原始图像以消除大部分噪声,具体的,对于高h个像素单位、宽w个像素单位的图像g(x,y)(0<=x<w,0<=y<h),以(i,j)点为中心取出一个n*n的窗口为邻域,经平均后输出中心像素的灰度值g*(x,y)。在现有技术中通常n简单地选择为一个固定的奇数,例如3、5等,对于大多数应用足以消除噪声。然而,对于光照条件有限或者大气能见度较低的场景,图像模糊程度会加剧。因此,在本发明优选实施例中,采用较小的n1(例如3)计算初始图像灰度值集合{g*(x,y)},然后比较(i,j)点对应的灰度值g*(x,y)与(i,j)点距离为m(例如1~4)的相邻点的初始灰度值g*(x,y)’,如果两者差异在阈值T之内则g*(x,y)作为(i,j)点的最终灰度值,如果差异大于等于T则采用较大的n2(例如5或7,小于等于n1+m的奇数)重新计算少数的灰度波动大特定点,如此可以以较小的计算量获得更好的平滑效果,克服在雾霾、阴暗环境下的光照、大气洁净度等问题。经过初步平滑处理之后,对于图像中仍然存在的少数孤立噪声,进一步采用二维中值滤波去噪。与之前类似的,二维窗口的维度n同样是可变的,也即先采用较小的n1进行初次计算,然后比较距离m内的各个点的灰度值,如果差值在阈值T2内则保持不变采用初次计算值,如果差值大于等于T2则采用较大的n2重新设定窗口计算灰度值。随后基于线性插值进行尺度变换,并考虑灰度平均值和方差进行灰度分布标注化,进一步优选基于Canny方法进行边缘检测和二值化处理最终得到待检测图形集合。
接着,基于检测几何特征点进行人脸识别或者姿势识别(骨骼支架的变化)。在本发明优选实施例中,基于几何特征的人脸识别面部特征有两眼的中心位置、鼻子的外测边缘位置、嘴角位置、构造的附加特征点,特别地,本发明还进一步采用眼宽度、眉线与鼻底线间距、耳廓长宽来细化同一人种之间的亚种区别(例如韩国人眼宽度小等)。检验人脸器官的位置时,首先确定两眼中心坐标,然后根据人脸的面部比例在两眼位置基础上抽取眉毛窗、眼睛窗、鼻子窗、嘴巴窗、耳廓窗等各个窗口进行独立计算,检测特征点,也即计算各个器官的位置和几何参数。类似的,姿势识别采用头部、肩部、髋部、足踝、肘部位置和宽度以及其变化来表征几何特征点。为了克服人脸/行走姿势的轻微变化对识别结果的影响,根据特征点构造具有尺寸、旋转和位移不变性的特征向量作为人脸识别的依据。具体的,(fix,fiy)为特征点fi的坐标,dij=√(fix-fjx)2+( fiy-fjy)2为两点间距,则特征向量集合为{d12/d7a,d34/d7a,d23/d7a,d14/d7a,d56/d7a,d1a/d7a,d1a/d7a,d2a/d7a,d3a/d7a,d4a/d7a,d5a/d7a,d6a/d7a,dba/d7a}。随后根据得到的所有训练样本的特征向量训练神经网络分类器,例如Bagging神经网络。
进一步,采用自适应加权多分类器,对于前述识别到的几何特征点提取子空间特征,得到两单分类器分类结构并采用加权系数估计输出最后的分类结果。并且进一步,基于人种分类结果、结合接待机器人历史数据(例如注册用户数据、接待过并且提供了反馈的用户的数据等等)来预判用户可能选用的语种。
辅助属性包括用户的衣着风格(例如中式唐装/旗袍、日式和服、***罩袍、苏格兰裙、少数民族特色服装等等)、用户携带行李或衣物上的身份标识(例如旅行团团旗、团服或箱包上的团名)、用户便携式装置(手机、笔记本电脑、平板电脑等)操作界面上的语言、或者用户便携式装置的蓝牙ID/设备名称对应的语言等等。辅助属性同样由高清摄像头2、精细传感器3A/3B、3D深度摄像头5联合获得。
接待语音选择***通过对于用户辅助属性的识别,与网络统计获得的大数据进行比对,预判在上述三大类用户粗分类中具备所识别的辅助属性的用户熟练使用各个语言的概率,选取用户最可能使用(概率最高)的语言作为接待机器人将与该用户交互所使用的语言。具体地,某用户被判定为白种人且身着***罩袍则选用***语,某用户被判定为黄种人且身着和服则选用日语,某用户为白种人且身穿苏格兰裙则选用英语,某用户为黑人且手机设备号带有法语字符则选用法语,某用户为白人且身着博卡青年队服则选用西班牙语,某用户为黄种人且旅行团名包含“四川”则选用四川方言,等等。
根据本发明的一个优选实施例,选择语种之后进一步包括接收用户反馈并修改用户注册信息。具体地,用户反馈模块接收用户反馈,例如通过精细传感器3A/3B获取用户面部细节所反映的情绪信息(例如惊讶或微笑)、通过高灵敏度麦克风1接收用户的直接音频反馈(例如称赞或惊呼)、通过触摸屏6获得用户的触摸反馈(例如勾选、划扫等)、通过头顶触摸传感器10或手部生物传感器18等触摸传感器获得用户的力反馈(例如握手、轻拍),并且将这些反馈信息传送至用户信息注册模块。当判定反馈信息为正面或积极时,将接待语音选择***当前所采用的语言记录在用户注册信息中所包含的用户语种信息中。
以上,通过用户语音或者非语音数据判定了用户语种并据此选择对应的语种作为接待机器人与用户交互所采用的语言。接着,如图3所述,本申请以用户的面部特征为基准利用语音频谱和/或生理特征来修正用户年龄,根据用户年龄来选择不同的交互模式。
首先,根据用户面部特征预测用户年龄的第一范围。例如,采用位于接待机器人额部的高清摄像头2,基于柔性模型(Flexible Models)、Snake 的主动轮廓线模型(ActiveContour Model,ACM)、主动形状模型(Active Shaper Model,ASM)、主动表观模型(AAM)等方法提取用户脸部的轮廓信息。这里可以利用二维Gabor小波进行图像多尺度分析,精确地提取图像局部区域内多个图像块方向特征进行整体特征提取,再利用柔性模型进行局部特征精准提取。接着,对于高清摄像头2获得的图像或视频进行肤色特征提取,从视频中获取一帧图像进行检测,可以定时获取图像或是已经检测到场景中有人物时定时获取单帖图像进行处理;图像预处理,因为肤色提取与人脸提取不一样,所以需要进行预处理分析,将不属于皮肤的区域去掉;肤色特征获取,通过肤色分割模型,将最接近人体的肤色特征进行识别。其方法有简单的颜色和位置聚类算法、颜色和位置聚类优先的Graph-Cut算法等,颜色和位置聚类优先的Graph-Cut算法效果较好。然后,采用位于眼部的精细传感器3A和3B,获取用户面部的细节特征,例如眼角、额头皱纹分布和数目,脸部皮肤光滑度/反光度,嘴角、眼睑下垂程度,颧骨附近皮肤松弛程度等等。
根据以上获得的用户脸部轮廓、皮肤色彩、面部细节为基准,与网络获取的大数据或者预存的数据库进行比对分析,预判用户年龄的第一范围。例如,用户为黄色人种且皮肤松弛程度/皱纹分布密度超过平均值的50%则判定年龄段为60岁以上,用户为白色人种且皮肤松弛程度/皱纹分布密度超过平均值30%则判定年龄段为60岁以上,用户为白色人种且皮肤松弛程度/皱纹分布密度低于平均值40%则判定年龄段为18岁以下,用户为黑色人种且皮肤松弛度/皱纹分布密度低于平均值30%判定年龄段18岁以下等等。
接着,根据用户语音频谱修正第一范围产生第二范围。如果图2所示的判断接待机器人是否接收到语音的步骤得到的结果为“是”,在根据用户语音选择语种的同时或者之后,接待机器人的处理器对于经由位于头顶的高灵敏度麦克风1所采集或接收的人员语音信息进行分析以获得频谱。具体地,对声音信号作短时傅里叶变换,得到它的功率谱图;从它的功率谱图中找出具有代表性的一些波峰所对应的频率,用这些特征频率值作成一个特征向量;用某个特定人声音也即参考声音(例如接待机器人交互用的预存的青年女性或男性的声音,或者新闻广播员的声音)的特征向量为标准向量F,定义待测声音的特征向量G与F之间的距离函数D,依照数据库预存的不同用户对应的D与其年龄之间的相关性设置多个(至少两个)阈值P1、P2、P3……PN。当D小于等于P1时,判定用户为儿童,例如小于12岁;当D大于P1且小于等于P2时,判定用户为少年,例如13至16岁;当D大于P2且小于等于P3时,判定用户为青年,例如17至25岁……当D大于PN-1且小于等于PN时,判定用户为老年,例如60~80岁;当D大于PN时,判定用户为高龄老人,例如超过80岁,等等。
在此过程中,如果根据音频判定的第二范围落入根据面部特征判定的第一范围内或者部分重叠,则将重叠的范围认定作为正确的年龄范围。如果第二范围与第一范围完全不重合,则将这两个范围预存在寄存器(未示出)中以待后续继续处理。
如果图2所示的判断接待机器人是否接收到语音的步骤得到的结果为“否”,也即接待机器人并未识别到附近有用户说话(包括用户并未发声,或者距离较远、声音较低而无法准确识别),则处理器根据用户生理特征修正用户年龄的第一范围。
具体地,接待机器人主动吸引用户触摸位于手部的手部生物传感器18,用于采集用户的指纹、测量用户的皮肤含水量(电阻率)或粗糙度、测量与用户握手的应力、测量用户脉搏或毛细血管的含氧量等等。吸引的方式可以是语音提示、显示屏字幕显示、互动舞蹈等等。生物传感器18优选是皮肤纹理检测器,用来检测使用者手部的皮肤纹理,以判断相对应的年龄区间。检测皮肤纹理的方式可藉由硅晶(固态)辨识器达成,其是利用微小的电容器来感测皮肤的纹理皱折;或是光学扫描器,例如使用许多电荷耦合元件(CCD)组成的阵列来采集皮肤的数位影像,也可利用发光二极管(LED)光源照射皮肤后反射的影像来分析皮肤纹理。目前的研究发现皮肤纹理,如粗糙程度、皱纹深度、皮丘(或皮脊,指皮肤表面的凸起部位)与皮沟(皮肤表面的凹陷部位)间的距离,可大致反映出不同的年龄层。因此,可根据皮肤粗糙程度、沟纹深度,即生理特征,判断使用者的年龄区间。
例如,如果用户的皮肤粗糙度低于第一阈值则判定用户为儿童例如小于12岁,皮肤粗糙度高于第一阈值但是低于第二阈值则判定为青少年例如13~25岁,皮肤粗糙度高于第二阈值且低于第三阈值则判定为中年例如26~40岁,皮肤粗糙度高于第三阈值且低于第四阈值则判定为中老年例如41~60岁,皮肤粗糙度高于第四阈值则判定为老年例如61~80岁等等。
【在本发明另一个优选实施例中,手部生物传感器18中还包括集成的蛋白质微传感器,用于检测皮肤上具有组织、细胞或亚细胞特异性的蛋白质以间接反映用户的年龄。例如,微传感器包括由氧化物半导体基底上相对两个石墨烯构成的检测电极,当特异性蛋白质穿过检测电极之间时由于蛋白质大分子不同的电极性和旋转对称性,电极之间亚阈值电流会发生相应的改变从而对应于不同蛋白质类型。该微传感器专用于检测水通道蛋白质,属于水-甘油通道蛋白亚族,除了对于水分子具有高透过性之外还对于甘油和尿素等中性小分子具有高透过性。水通道蛋白参与人体的多种生理、病理过程,与尿液的浓缩、气道表面的液体平衡均有密切关系。而这种水通道蛋白的缺失可导致皮肤干燥、角质层水合作用下降、皮肤弹性下降等,反映了皮肤衰老的过程。特别地,采用本申请的微蛋白质传感器检测用户皮肤组织中水通道蛋白质的表达量和mRNA表达水平,依照大批量测试集来选择不同阈值以反映不同年龄段,例如对于mRNA表达水平选择阈值Tm1为0.31、Tm2为0.55、Tm3为0.67、Tm4为0.74,对于水通道蛋白质表达量选择阈值Ta1为2.03、Ta2为1.95、Ta3为1.88、Ta4为1.21,儿童组(小于12岁)为Tm2~Tm3且小于Ta1,青少年组(13~25岁)为Tm3~Tm4且Ta1~Ta2,中年组(26~40岁)为大于Tm4且Ta2~Ta3,中老年组(41~60岁)为Tm2~Tm1且Ta3~Ta4,老年组(60岁以上)为小于Tm1且大于Ta4。
在本发明的又一优选实施例中,采用皮肤的端粒DNA来检测用户的年龄。与识别上述特异性蛋白类似的,采用集成微传感器中石墨烯配对电极来分析DNA大分子穿过电极之间引起的电流变化从而反应不同的属性,例如DNA片段长度(检测到电流脉冲宽度或半高宽)。一般的,DNA片段长度随着年龄的增加而逐渐缩短,并且在青少年时期缩短的速率较快而成年后缩短速率较慢。本申请的一个优选实施例中,根据预存数据集得到的用户年龄Y(岁)与皮肤端粒DNA片段长度值X(Kb)之间的关系为Y=7.89/X2+55.419/X+5.047,因此可以实时地根据接待机器人手部的微传感器测量反应的X值来推导得出用户的实际年龄。
在本发明其他优选实施例中,利用皮脂、水分、pH值等其他皮肤参数来表征用户的年龄。皮脂的测量是基于光度计原理,水分含量采用电容法,而pH值测量是基于H离子穿过半透膜引起的电压差。随着年龄的增加(在相同BMI值范围内),皮肤的缓冲能力逐渐下降,皮脂、水分含量逐渐下降,而pH值逐渐升高至接近中性,因此可以类似的根据对照组测得的各个参数与年龄之间的相关性设定不同阈值从而判定当前用户的年龄分布。
当根据用户生理特征判定的年龄范围(第三范围)与前述第一范围重叠或部分重叠时,将重叠的范围作为正确的年龄范围。如果不重叠,将第一范围与根据用户生理特征判定的年龄范围记录在寄存器中留待后续处理。
在本发明优选实施例中,任选地,接收到用户语音并根据语音频谱产生第二范围后,进一步采用上述步骤,也即根据用户生理特征产生第三范围,用于修正第二范围。
最后,根据用户辅助属性产生第四范围以修正第一/第二/第三范围。如前所述,辅助属性同样由高清摄像头2、精细传感器3A/3B、3D深度摄像头5、以及RFID读卡器(未示出)等联合获得。辅助属性包括用户的衣着风格(例如中式唐装/旗袍、日式和服、***罩袍、苏格兰裙、少数民族特色服装等等)、用户携带行李或衣物上的身份标识(例如旅行团团旗、团服或箱包上的团名)、用户便携式装置(手机、笔记本电脑、平板电脑等)操作界面上的语言、或者用户便携式装置的蓝牙ID/设备名称对应的语言等等。此外,用于修正第三范围的用户辅助属性还进一步包括,能反映用户年龄的配饰、妆容(例如耳环/耳钉/领带夹款式、唇彩流行色、携带的卡通人物形象,与数据库记录的用户年龄分布作比较),能反映用户收入/消费水平的物品标签(例如西服、风衣、鞋帽的品牌,与数据库记录的用户年龄-收入相关***叉比较)等等。如果根据用户辅助属性判定的用户年龄(第四范围)落入第三范围,则采用该用户年龄作为最终年龄范围。如果第一/第二/第三范围两两不重叠,则采用根据用户辅助属性判定的用户年龄与第一/第二/第三范围任一项重叠的部分(优选重叠数目最多的部分,例如与第一、第二均重叠,或与第一、第三均重叠)作为用户最终年龄范围。
如此,以上方案通过综合利用接待机器人的多类型传感器获取的视频、音频、触觉、RFID信息来综合判断用户的年龄范围,提高了年龄判定的成功率,并且依照用户的年龄来选用不同的交互模式,特别是针对日韩顾客采用专用的敬语格式、针对儿童/老人采用调制的音量/语速等等,提高了用户体验,有利于提高接待机器人的咨询性能。
依照本发明的交互模式选择方法、***以及使用该方法和/或***的接待机器人以用户的面部特征为基准利用语音频谱和/或生理特征来修正用户年龄,根据用户年龄来选择不同的交互模式,从而提高了用户年龄预测的成功率,提高了用户体验。
尽管已参照一个或多个示例性实施例说明本发明,本领域技术人员可以知晓无需脱离本发明范围而对***、方法做出各种合适的改变和等价方式。此外,由所公开的教导可做出许多可能适于特定情形或材料的修改而不脱离本发明范围。因此,本发明的目的不在于限定在作为用于实现本发明的最佳实施方式而公开的特定实施例,而所公开的***和方法将包括落入本发明范围内的所有实施例。

Claims (10)

1.一种接待机器人交互模式选择方法,包括:
感测到用户接近;
判断用户是否属于注册用户,如果是则根据用户注册信息选择语种和交互模式,如果否则创建并记录用户注册信息;
判断是否接收到用户语音,如果是则根据用户语音选择语种,如果否则识别用户分类;
根据用户分类选择语种;
判断用户的年龄;
根据用户的年龄选择交互模式。
2.根据权利要求1所述的方法,其中识别用户分类的步骤进一步包括:
根据生物信息对用户粗分类;
根据辅助属性对用户细分类,
其中,可选地,所述生物信息包括肤色信息、面部轮廓信息、身高、步伐、移动速度、肢体静止/行走姿态;任选地,辅助属性包括衣着风格、用户携带行李或衣物上的身份标识、用户便携式装置操作界面上的语言、用户便携式装置的设备名称的语言;任选地,粗分类包括黄种人、白种人、黑种人;
可选地,用户注册信息包括用户的人脸识别信息、用户的身份信息、用户的语种信息、用户的年龄信息。
3.根据权利要求1所述的方法,其中,判断用户的年龄之前进一步包括,接收用户反馈并修改用户注册信息。
4.根据权利要求1所述的方法,其中,判断用户的年龄的步骤进一步包括:
根据用户面部特征预测用户年龄的第一范围;
根据用户语音频谱产生用户年龄的第二范围,和/或根据用户生理特征产生用户年龄的第三范围;
可选地,根据用户辅助属性产生第四范围。
5.根据权利要求4所述的方法,其中,如果第二范围与第一范围重叠或部分重叠,将重叠的范围作为用户年龄的最终范围;如果第二范围与第一范围不重叠、且第三范围与第一范围重叠或部分重叠,将第三范围与第一范围重叠的部分作为用户年龄的最终范围;如果第一、第二、第三范围两两不重叠或者均不重叠,将第四范围与第一、第二、第三范围的任一项重叠的部分作为用户年龄的最终范围。
6.根据权利要求1所述的方法,其中,交互模式包括敬语模式、儿童模式、老年模式、默认模式。
7.根据权利要求6所述的方法,其中,敬语模式与默认模式的音量、语速相同;任选地,儿童模式的音量和语速均低于默认模式;任选地,老年模式的音量高于默认模式,语速低于默认模式。
8.根据权利要求6所述的方法,其中,默认模式中基于接待机器人所处环境的背景噪声的音量,根据用户与接待机器人之间的距离、用户的年龄而设置音量、语速。
9.一种接待机器人交互模式切换***,用于执行根据权利要求1至8任一项所述的方法,包括:
用户接近感测模块,用于感测到用户接近;
用户信息注册模块,用于记录用户注册信息;
用户语音识别模块,用于接收用户语音;
用户年龄识别模块,用于判断用户的年龄;
处理器,用于:
判断用户是否属于注册用户,如果是则根据用户注册信息选择语种和交互模式,如果否则在用户信息注册模块中创建并记录用户注册信息;
判断是否接收到用户语音,如果是则根据用户语音选择语种,如果否则识别用户分类,并根据用户分类选择语种;以及
根据用户的年龄选择交互模式。
10.一种接待机器人,采用根据权利要求1至8任一项所述的方法选择接待用户所使用的语种以及交互模式。
CN201711282942.3A 2017-12-07 2017-12-07 交互模式选择方法、***及接待机器人 Pending CN108161933A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711282942.3A CN108161933A (zh) 2017-12-07 2017-12-07 交互模式选择方法、***及接待机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711282942.3A CN108161933A (zh) 2017-12-07 2017-12-07 交互模式选择方法、***及接待机器人

Publications (1)

Publication Number Publication Date
CN108161933A true CN108161933A (zh) 2018-06-15

Family

ID=62524455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711282942.3A Pending CN108161933A (zh) 2017-12-07 2017-12-07 交互模式选择方法、***及接待机器人

Country Status (1)

Country Link
CN (1) CN108161933A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109093631A (zh) * 2018-09-10 2018-12-28 中国科学技术大学 一种服务机器人唤醒方法及装置
CN109741744A (zh) * 2019-01-14 2019-05-10 博拉网络股份有限公司 基于大数据搜索的ai机器人对话控制方法和***
CN109949795A (zh) * 2019-03-18 2019-06-28 北京猎户星空科技有限公司 一种控制智能设备交互的方法及装置
CN110148399A (zh) * 2019-05-06 2019-08-20 北京猎户星空科技有限公司 一种智能设备的控制方法、装置、设备及介质
CN110209957A (zh) * 2019-06-06 2019-09-06 北京猎户星空科技有限公司 基于智能机器人的讲解方法、装置、设备及存储介质
CN110427462A (zh) * 2019-08-06 2019-11-08 北京云迹科技有限公司 与用户互动的方法、装置、存储介质及服务机器人
CN110610703A (zh) * 2019-07-26 2019-12-24 深圳壹账通智能科技有限公司 基于机器人识别的语音输出方法、装置、机器人及介质
CN110913074A (zh) * 2019-11-28 2020-03-24 北京小米移动软件有限公司 视距调整方法及装置、移动设备、存储介质
CN111089581A (zh) * 2018-10-24 2020-05-01 上海博泰悦臻网络技术服务有限公司 交通引导方法、终端及机器人
CN111506377A (zh) * 2020-04-16 2020-08-07 上海茂声智能科技有限公司 一种语言切换方法、装置和语音服务终端
CN112929502A (zh) * 2021-02-05 2021-06-08 国家电网有限公司客户服务中心 一种基于电力客服的语音识别方法及***
CN114633267A (zh) * 2022-03-17 2022-06-17 上海擎朗智能科技有限公司 互动内容的确定方法、移动设备、装置及存储介质
CN115171284A (zh) * 2022-07-01 2022-10-11 国网汇通金财(北京)信息科技有限公司 一种老年人关怀方法及装置
CN116787469A (zh) * 2023-08-29 2023-09-22 四川数智宗医机器人有限公司 基于人工智能的数字中医机器人预问诊***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198831A (ja) * 2002-12-19 2004-07-15 Sony Corp 音声認識装置および方法、プログラム、並びに記録媒体
CN101618542A (zh) * 2009-07-24 2010-01-06 塔米智能科技(北京)有限公司 一种智能机器人迎宾***和方法
CN103533438A (zh) * 2013-03-19 2014-01-22 Tcl集团股份有限公司 一种基于智能电视的服饰推送方法及***
CN204723761U (zh) * 2015-01-04 2015-10-28 玉林师范学院 基于rfid的高校图书馆迎宾机器人
CN106504743A (zh) * 2016-11-14 2017-03-15 北京光年无限科技有限公司 一种用于智能机器人的语音交互输出方法及机器人
CN106649290A (zh) * 2016-12-21 2017-05-10 上海木爷机器人技术有限公司 语音翻译方法及***
CN106952648A (zh) * 2017-02-17 2017-07-14 北京光年无限科技有限公司 一种用于机器人的输出方法以及机器人
CN107316254A (zh) * 2017-08-01 2017-11-03 深圳市益廷科技有限公司 一种酒店服务方法
CN107358949A (zh) * 2017-05-27 2017-11-17 芜湖星途机器人科技有限公司 机器人发声自动调整***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198831A (ja) * 2002-12-19 2004-07-15 Sony Corp 音声認識装置および方法、プログラム、並びに記録媒体
CN101618542A (zh) * 2009-07-24 2010-01-06 塔米智能科技(北京)有限公司 一种智能机器人迎宾***和方法
CN103533438A (zh) * 2013-03-19 2014-01-22 Tcl集团股份有限公司 一种基于智能电视的服饰推送方法及***
CN204723761U (zh) * 2015-01-04 2015-10-28 玉林师范学院 基于rfid的高校图书馆迎宾机器人
CN106504743A (zh) * 2016-11-14 2017-03-15 北京光年无限科技有限公司 一种用于智能机器人的语音交互输出方法及机器人
CN106649290A (zh) * 2016-12-21 2017-05-10 上海木爷机器人技术有限公司 语音翻译方法及***
CN106952648A (zh) * 2017-02-17 2017-07-14 北京光年无限科技有限公司 一种用于机器人的输出方法以及机器人
CN107358949A (zh) * 2017-05-27 2017-11-17 芜湖星途机器人科技有限公司 机器人发声自动调整***
CN107316254A (zh) * 2017-08-01 2017-11-03 深圳市益廷科技有限公司 一种酒店服务方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109093631A (zh) * 2018-09-10 2018-12-28 中国科学技术大学 一种服务机器人唤醒方法及装置
CN111089581A (zh) * 2018-10-24 2020-05-01 上海博泰悦臻网络技术服务有限公司 交通引导方法、终端及机器人
CN109741744A (zh) * 2019-01-14 2019-05-10 博拉网络股份有限公司 基于大数据搜索的ai机器人对话控制方法和***
CN109741744B (zh) * 2019-01-14 2021-03-09 博拉网络股份有限公司 基于大数据搜索的ai机器人对话控制方法和***
CN109949795A (zh) * 2019-03-18 2019-06-28 北京猎户星空科技有限公司 一种控制智能设备交互的方法及装置
CN110148399A (zh) * 2019-05-06 2019-08-20 北京猎户星空科技有限公司 一种智能设备的控制方法、装置、设备及介质
CN110209957A (zh) * 2019-06-06 2019-09-06 北京猎户星空科技有限公司 基于智能机器人的讲解方法、装置、设备及存储介质
CN110610703A (zh) * 2019-07-26 2019-12-24 深圳壹账通智能科技有限公司 基于机器人识别的语音输出方法、装置、机器人及介质
CN110427462A (zh) * 2019-08-06 2019-11-08 北京云迹科技有限公司 与用户互动的方法、装置、存储介质及服务机器人
CN110913074A (zh) * 2019-11-28 2020-03-24 北京小米移动软件有限公司 视距调整方法及装置、移动设备、存储介质
CN111506377A (zh) * 2020-04-16 2020-08-07 上海茂声智能科技有限公司 一种语言切换方法、装置和语音服务终端
CN112929502A (zh) * 2021-02-05 2021-06-08 国家电网有限公司客户服务中心 一种基于电力客服的语音识别方法及***
CN114633267A (zh) * 2022-03-17 2022-06-17 上海擎朗智能科技有限公司 互动内容的确定方法、移动设备、装置及存储介质
CN115171284A (zh) * 2022-07-01 2022-10-11 国网汇通金财(北京)信息科技有限公司 一种老年人关怀方法及装置
CN115171284B (zh) * 2022-07-01 2023-12-26 国网汇通金财(北京)信息科技有限公司 一种老年人关怀方法及装置
CN116787469A (zh) * 2023-08-29 2023-09-22 四川数智宗医机器人有限公司 基于人工智能的数字中医机器人预问诊***

Similar Documents

Publication Publication Date Title
CN108161933A (zh) 交互模式选择方法、***及接待机器人
CN108153169A (zh) 导览模式切换方法、***和导览机器人
US11989340B2 (en) Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location in at least one of a virtual and augmented reality system
CN108182098A (zh) 接待语言选择方法、***及接待机器人
Zhang et al. RGB-D camera-based daily living activity recognition
JP6850723B2 (ja) 顔表情識別システム、顔表情識別方法及び顔表情識別プログラム
US11748980B2 (en) Makeup evaluation system and operating method thereof
CN114502061A (zh) 使用深度学习的基于图像的自动皮肤诊断
KR20160012902A (ko) 시청자 사이의 연관 정보에 근거하여 광고를 재생하기 위한 방법 및 장치
CN112784763B (zh) 基于局部与整体特征自适应融合的表情识别方法及***
Liu et al. Region based parallel hierarchy convolutional neural network for automatic facial nerve paralysis evaluation
CN101305913B (zh) 一种基于视频的人脸美丽评价方法
US20170352351A1 (en) Communication robot
EP3579176A1 (en) Makeup evaluation system and operation method thereof
Abobakr et al. Rgb-d fall detection via deep residual convolutional lstm networks
KR102316723B1 (ko) 인공지능을 이용한 신체 맞춤형 코디 시스템
JPWO2007043712A1 (ja) 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム
CN109670406B (zh) 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法
CN108198159A (zh) 一种图像处理方法、移动终端以及计算机可读存储介质
CN107316333A (zh) 一种自动生成日漫肖像的方法
CN106599785A (zh) 人体3d特征身份信息库的建立方法及设备
CN112101235B (zh) 一种基于老年人行为特征的老年人行为识别检测方法
CN114255508A (zh) 一种基于OpenPose的学生体态检测分析及效率评估方法
Dadiz et al. Detecting depression in videos using uniformed local binary pattern on facial features
Tham et al. Automatic identification of drinking activities at home using depth data from RGB-D camera

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180615