CN110363079A - 表情交互方法、装置、计算机装置及计算机可读存储介质 - Google Patents

表情交互方法、装置、计算机装置及计算机可读存储介质 Download PDF

Info

Publication number
CN110363079A
CN110363079A CN201910487847.XA CN201910487847A CN110363079A CN 110363079 A CN110363079 A CN 110363079A CN 201910487847 A CN201910487847 A CN 201910487847A CN 110363079 A CN110363079 A CN 110363079A
Authority
CN
China
Prior art keywords
expression
default
identified
human face
library
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910487847.XA
Other languages
English (en)
Inventor
郭玲玲
黄帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910487847.XA priority Critical patent/CN110363079A/zh
Priority to PCT/CN2019/103370 priority patent/WO2020244074A1/zh
Publication of CN110363079A publication Critical patent/CN110363079A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种表情交互方法、装置、计算机装置及计算机可读存储介质。所述表情交互方法包括:接收交互请求指令,并根据所述交互请求指令弹出检测框进行人脸检测;定位人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征;将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情;根据表情识别结果控制终端设备输出对应的互动内容;及获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制互动内容输出。本发明涉及人脸识别技术领域,可实现与终端设备交互更生动有趣,提高了用户使用体验。

Description

表情交互方法、装置、计算机装置及计算机可读存储介质
技术领域
本发明涉及电子通信技术领域,尤其涉及一种表情交互方法、装置、计算机装置及计算机可读存储介质。
背景技术
随着今科技的发展,手机、平板电脑等电子设备日益成为绝大多数人们生活中不可或缺的部分,不断的改变我们社交以及生活中方方面面。表情是人类用来表达情绪的一种基本方式,是非语言交流中的一种有效手段。现有的电子设备一般装载有虚拟机器人来实现人机互动,然而虚拟机器人一般只支持进行人机语音互动,不能够辨别用户的表情,无法根据用户的表情来实现人机互动。
发明内容
鉴于上述,本发明提供一种表情交互方法、装置、计算机装置及计算机可读存储介质,其可通过表情实现对终端设备进行控制,提高了用户使用体验。
本申请一实施方式提供一种表情交互方法,所述方法包括:
接收交互请求指令,并根据所述交互请求指令弹出一检测框进行人脸检测;
判断是否检测到人脸图像;
若检测到人脸图像,则定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征;
将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情;
根据所述待识别人脸表情的识别结果控制终端设备输出对应的互动内容;及
获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制所述终端设备的内容输出。
优选地,所述进行人脸检测的步骤包括:
根据预设多个人脸样本训练得到用于进行人脸检测的卷积神经网络模型;及
利用所述卷积神经网络模型进行人脸检测。
优选地,当所述预设表情库中的每一表情的表情特征为形状特征向量时,所述将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率的步骤包括:
获取所述待识别人脸表情的形状特征向量;
计算所述待识别人脸表情的形状特征向量和所述预设表情库中的每一表情的形状特征向量之间的距离值;及
根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。
优选地,当所述预设表情库中的每一表情的表情特征为纹理特征向量时,所述将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率的步骤包括:
获取所述待识别人脸表情的纹理特征向量;
计算所述待识别人脸表情的纹理特征向量和所述预设表情库中的每一表情的纹理特征向量之间的距离值;及
根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。
优选地,所述距离值通过以下公式计算得到:
dM(y,xj)=(y-xj)T*M*(y-xj)
其中,y为待识别人脸表情的形状特征向量/纹理特征向量,xj为预设表情库中的第j个表情的形状特征向量/纹理特征向量,M为预设目标度量矩阵,j为大于或者等于1的整数,dM(y,xj)为待识别人脸表情的形状特征向量/纹理特征向量和预设表情库中的第j个表情的形状特征向量/纹理特征向量之间的距离值,(y-xj)为待识别人脸表情的形状特征向量/纹理特征向量与预设表情库中的第j个表情的形状特征向量/纹理特征向量的差值,(y-xj)T为待识别人脸表情的形状特征向量/纹理特征向量与预设表情库中的第j个表情的形状特征向量/纹理特征向量的差值的转置;所述相似概率通过以下公式计算得到:
p={1+exp[D-b]}-1,其中,p为相似概率,D为距离值,b为预设偏置量。
优选地,所述反馈信息包括语音信息或者观看所述终端设备输出所述互动内容后的表情信息。
优选地,所述反馈信息为观看所述终端设备输出所述互动内容后的表情信息,所述根据所述反馈信息接续控制所述终端设备的内容输出的步骤包括:
判断观看所述终端设备输出所述互动内容前后的表情变化是否符合预设调整规则;
若符合所述预设调整规则,则调整所述终端设备输出的互动内容;及
若不符合所述预设调整规则,则不调整所述终端设备输出的互动内容。
本申请一实施方式提供一种表情交互装置,所述装置包括:
检测模块,用于接收交互请求指令,并根据所述交互请求指令弹出一检测框进行人脸检测;
判断模块,用于判断是否检测到人脸图像;
提取模块,用于在检测到人脸图像时,定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征;
比对模块,用于将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情;
输出模块,用于根据所述待识别人脸表情的识别结果控制终端设备输出对应的互动内容;及
控制模块,用于获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制所述终端设备的内容输出。
本申请一实施方式提供一种计算机装置,所述计算机装置包括处理器及存储器,所述存储器上存储有若干计算机程序,所述处理器用于执行存储器中存储的计算机程序时实现如前面所述的表情交互方法的步骤。
本申请一实施方式提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前面所述的表情交互方法的步骤。
上述表情交互方法、装置、计算机装置及计算机可读存储介质,可识别用户表情并根据表情识别结果控制计算机装置输出对应的互动内容,可实现舒缓用户紧张、焦虑、抚慰用户心情等功能,同时还可以对互动内容播放后的用户表情进行进一步分析,并根据分析结果接续控制计算机装置的互动内容输出,实现与计算机装置交互更生动有趣,提高了用户使用体验。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将对实施方式描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例中表情交互方法的步骤流程图。
图2为本发明一实施例中表情交互装置的功能模块图。
图3为本发明一实施例中计算机装置示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施方式及实施方式中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施方式仅仅是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在于限制本发明。
优选地,本发明的表情交互方法应用在一个或者多个计算机装置中。所述计算机装置是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机装置可以是桌上型计算机、笔记本电脑、平板电脑、服务器、手机等计算设备。所述计算机装置可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一:
图1是本发明表情交互方法较佳实施例的步骤流程图。根据不同的需求,所述流程图中步骤的顺序可以改变,某些步骤可以省略。
参阅图1所示,所述表情交互方法具体包括以下步骤。
步骤S11、接收交互请求指令,并根据所述交互请求指令弹出一检测框进行人脸检测。
在一实施方式中,当接收到用户发出交互请求指令时,计算机装置将会根据所述交互请求指令弹出一检测框,并通过该检测框来进行人脸检测。比如用户可以通过触控屏触输入交互请求指令、通过按键输入交互请求指令、或者通过语音输入交互请求指令。
在一实施方式中,可以通过建立并训练一卷积神经网络模型来实现人脸检测。具体地,可以通过以下方式来实现人脸检测:可以先构建人脸样本数据库并建立一用于进行人脸检测的卷积神经网络模型,所述人脸样本数据库包含多个人的人脸信息,每个人的人脸信息可以包括多种角度,每种角度的人脸信息可以有多张图片;将人脸样本数据库中的人脸图像输入至所述卷积神经网络模型,使用卷积神经网络模型的默认参数进行卷积神经网络训练;根据训练中间结果,对默认参数的初始权值、训练速率、迭代次数等进行不断调整,直到得到最优的卷积神经网络模型的网络参数,最后将具有最优网络参数的卷积神经网络模型作为最终的识别模型,训练完成后,即可利用该最终得到的卷积神经网络模型进行人脸检测。
步骤S12、判断是否检测到人脸图像。
在一实施方式中,可以根据所述卷积神经网络模型的输出来判断是否检测到人脸图像。若检测到人脸图像,则跳转至步骤S13。若未检测到人脸图像,则返回至步骤S11。
步骤S13,若检测到人脸图像,则定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征。
在一实施方式中,当在一预设时间内未检测到人脸图像时,可以输出一提示信息。当在所述预设时间检测到人脸图像时,定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征,由于不是对人脸图像的全部区域进行特征提取与运算,可以减少了运算量,提高人脸表情识别速度。所述人脸图像的关键特征区域可以包括眼睛、鼻子、嘴巴、眉毛等。
在一实施方式中,可以通过积分投影方式定位出人脸图像的眼睛、鼻子、嘴巴、眉毛等关键特征区域。由于眼睛是人脸当中比较突出的人脸特征,可以先对眼睛进行定位,则脸部其他器官,如:眼眉、嘴巴、鼻子等,可以由潜在的分布关系得出比较准确的定位。举例而言,关键特征区域定位通过对应于不同积分投影方式下产生的波峰或波谷进行,其中,积分投影分为垂直投影和水平投影,设f(x,y)表示图像(x,y)处的灰度值,在图像[y1,y2]和[x1,x2]区域的水平积分投影Mh(y)和垂直积分投影Mv(x)分别表示为: 其中,水平积分投影是将一行所有像素点的灰度值进行累加后再显示,而垂直积分投影是将一列所有像素点的灰度值进行累加后再显示。通过定位两个波谷点x1、x2从人脸图像中把横轴[x1,x2]区域的图像截取出来,即可实现人脸图像左右边界的定位。对左右边界定位后二值化待识别人脸图像,分别进行水平积分投影和垂直积分投影。
进一步的,利用对人脸图像的先验知识可知,眉毛和眼睛是人脸图像中较近的黑色区域,其对应着水平积分投影曲线上的前两个极小值点。第一个极小值点对应的是眉毛在纵轴上的位置,记做ybrow,第二个极小值点对应的是眼睛在纵轴上的位置,记做yeye,第三个极小值点对应的是鼻子在纵轴上的位置,记做ynose,第四个极小值点对应的是嘴巴在纵轴上的位置,记做ymonth。同样,人脸图像中心对称轴两侧出现两个极小值点,分别对应左右眼在横轴上的位置,记做xleft-eye、xright-eye,眉毛在横轴上的位置和眼睛相同,嘴巴和鼻子在横轴上的位置为(xleft-eye+xright-eye)/2,进而可以根据关键特征的坐标及预设规则确定眼睛区域、嘴唇区域、眉毛区域及鼻子区域,比如眼睛区域包括以左眼坐标为中心,向左15像素,向右15像素,向上10像素,向下10像素的区域及以右眼坐标为中心,向左15像素,向右15像素,向上10像素,向下10像素的区域。
在一实施方式中,人脸表情可以具有以下表现形式:高兴时的面部动作:嘴角翘起,面颊上抬起皱,眼睑收缩,眼睛尾部会形成“鱼尾纹”。伤心时的面部特征:眯眼,眉毛收紧,嘴角下拉,下巴抬起或收紧。害怕时的面部特征:嘴巴和眼睛张开,眉毛上扬,鼻孔张大。愤怒时的面部特征:眉毛下垂,前额紧皱,眼睑和嘴唇紧张。厌恶时的面部特征:嗤鼻,上嘴唇上抬,眉毛下垂,眯眼。惊讶时的面部特征:下颚下垂,嘴唇和嘴巴放松,眼睛张大,眼睑和眉毛微抬。轻蔑时的面部特征:嘴角一侧抬起,作讥笑或得意笑状等。当完成关键特征区域定位后,可以从关键特征区域中提取表征人脸表情的表情特征。比如可以采用基于差分能量图(DEI)法/中心化二值模式(CGBP)法来实现从关键特征区域中提取表征人脸表情的表情特征。
步骤S14、将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情。
在一实施方式中,所述预设表情库可以包括多种表情,比如包括:高兴、吃惊、悲伤、愤怒、厌恶、恐惧等表情,以及多种复合表情,如悲伤且恐惧、悲伤且吃惊、愤怒且恐惧等。所述待识别表情的表情特征可以是形状特征向量或纹理特征向量,当预设表情库中的每一表情的表情特征是以形状特征向量表征时,则获取所述待识别表情的形状特征向量,当预设表情库中的每个表情的表情特征是以纹理特征向量表征时,则获取所述待识别表情的纹理特征向量。
在一实施方式中,可以通过以下方式来确定提取得到的表情特征(形状特征向量或纹理特征向量)与所述预设表情库中的每个表情的相似概率:获取所述待识别表情的特征向量(形状特征向量或纹理特征向量)和预设表情库中的每个表情的特征向量之间的距离值;根据距离值确定所述待识别人脸表情与所述预设表情库中的每个表情的相似概率。比如,获取所述待识别人脸表情的形状特征向量,计算所述待识别人脸表情的形状特征向量和所述预设表情库中的每一表情的形状特征向量之间的距离值,及根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。再比如,获取所述待识别人脸表情的纹理特征向量,计算所述待识别人脸表情的纹理特征向量和所述预设表情库中的每一表情的纹理特征向量之间的距离值,及根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。
在一实施方式中,所述距离值可以为广义马氏距离。可以通过如下公式计算得到所述待识别表情的特征向量和预设表情库中的每个表情的特征向量之间的距离值:
dM(y,xj)=(y-xj)T*M*(y-xj)
其中,y为待识别人脸表情的形状特征向量(纹理特征向量),xj为预设表情库中的第j个表情的形状特征向量(纹理特征向量),M为预设目标度量矩阵,j为大于或者等于1的整数,dM(y,xj)为待识别人脸表情的形状特征向量(纹理特征向量)和预设表情库中的第j个表情的形状特征向量(纹理特征向量)之间的距离值,(y-xj)为待识别人脸表情的形状特征向量(纹理特征向量)与预设表情库中的第j个表情的形状特征向量(纹理特征向量)的差值,(y-xj)T为待识别人脸表情的形状特征向量(纹理特征向量)与预设表情库中的第j个表情的形状特征向量(纹理特征向量)的差值的转置;所述相似概率可以通过以下公式计算得到:
p={1+exp[D-b]}-1,其中,p为相似概率,D为距离值,b为预设偏置量。
在一实施方式中,当计算得到所述待识别人脸表情与所述预设表情库中的每个表情的相似概率后,可以将与预设表情库中的具有最大相似概率的表情作为所述待识别表情。
步骤S15、根据所述待识别人脸表情的识别结果控制计算机装置输出对应的互动内容。
在一实施方式中,可以预先建立多个表情与计算机装置输出的互动内容的映射关系表,并根据所述映射关系表来实现根据表情识别结果控制计算机装置。所述互动内容可以是计算机装置根据表情识别结果给出对应的动作、语音、图片、文字、视频等来与用户互动,以实现舒缓用户紧张、焦虑,愉悦用户心情。比如,当判定所述待识别人脸表情为紧张表情时,可以控制计算机装置输出舒缓的音乐缓解用户紧张情绪或者控制计算机装置输出如何缓解紧张方法的建议内容(比如建议内容为:尝试缓慢深呼吸来缓解紧张情绪)供用户参考;当判定所述待识别人脸表情为悲伤表情时,可以控制计算机装置输出缓解悲伤的文章、音乐、视频或者控制计算机装置输出如何缓解悲伤方法的建议内容供用户参考。
步骤S16、获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制所述计算机装置的内容输出。
在一实施方式中,所述反馈信息可以包括语音信息或者观看所述计算机装置输出所述互动内容后的表情信息。比如,控制计算机装置缓解用户当前的紧张表情,输出舒缓音乐来缓解用户紧张情绪,当该舒缓音乐播放完毕且接收到用户输入的“请重复播放或者请再次播放”的语音信息后,控制终端会再次播放前一刻播放的舒缓音乐;再比如,控制计算机装置为了缓解用户当前的紧张表情,输出舒缓音乐来缓解用户紧张情绪,当该舒缓音乐播放完毕且侦测到的用户表情仍然为紧张情绪时,可以控制终端播放另一首舒缓音乐或者不播放舒缓音乐,改为控制计算机装置输出如何缓解紧张方法的建议内容给用户。
在一实施方式中,当反馈信息是用户输入的语音信息时,可以直接根据语音信息要求调整所述计算机装置输出的互动内容,当反馈信息是用户观看所述计算机装置输出的互动内容后的表情信息时,还可以判断观看前的表情与观看互动内容后的表情之间的表情变化是否符合预设调整规则,若符合预设调整规则,则调整所述计算机装置输出的互动内容,若不符合预设调整规则,则不调整所述计算机装置输出的互动内容。比如,所述预设规则是表情从高兴转变悲伤的表情变化,若观看前识别得到的表情与观看互动内容后的表情之间的表情变化是从悲伤转变为高兴,则不符合所述预设调整规则,不进行调整。
上述表情交互方法,可识别用户表情并根据表情识别结果控制计算机装置输出对应的互动内容,可实现舒缓用户紧张、焦虑、抚慰用户心情等功能,同时还可以对互动内容播放后的用户表情进行进一步分析,并根据分析结果接续控制计算机装置的互动内容输出,实现与计算机装置交互更生动有趣,提高了用户使用体验。
实施例二:
图2为本发明表情交互装置较佳实施例的功能模块图。
参阅图2所示,所述表情交互装置10可以包括检测模块101、判断模块102、提取模块103、比对模块104、输出模块105及控制模块106。
所述检测模块101用于接收交互请求指令,并根据所述交互请求指令弹出一检测框进行人脸检测。
在一实施方式中,当接收到用户发出交互请求指令时,所述检测模块101将会根据所述交互请求指令弹出一检测框,并通过该检测框来进行人脸检测。比如用户可以通过触控屏触输入交互请求指令、通过按键输入交互请求指令、或者通过语音输入交互请求指令。
在一实施方式中,所述检测模块101可以预先通过建立并训练一卷积神经网络模型来实现人脸检测。具体地,所述检测模块101可以通过以下方式来实现人脸检测:可以先构建人脸样本数据库并建立一用于进行人脸检测的卷积神经网络模型,所述人脸样本数据库包含多个人的人脸信息,每个人的人脸信息可以包括多种角度,每种角度的人脸信息可以有多张图片;将人脸样本数据库中的人脸图像输入至所述卷积神经网络模型,使用卷积神经网络模型的默认参数进行卷积神经网络训练;根据训练中间结果,对默认参数的初始权值、训练速率、迭代次数等进行不断调整,直到得到最优的卷积神经网络模型的网络参数,最后将具有最优网络参数的卷积神经网络模型作为最终的识别模型,训练完成后,所述检测模块101即可利用该最终得到的卷积神经网络模型进行人脸检测。
所述判断模块102用于判断是否检测到人脸图像。
在一实施方式中,所述判断模块102可以根据所述卷积神经网络模型的输出来判断是否检测到人脸图像。
所述提取模块103用于在检测到人脸图像时,定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征。
在一实施方式中,当所述判断模块102在一预设时间内判断未检测到人脸图像时,可以输出一提示信息。当所述判断模块102在所述预设时间内判断检测到人脸图像时,所述提取模块103定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征,由于不是对人脸图像的全部区域进行特征提取与运算,可以减少了运算量,提高人脸表情识别速度。所述人脸图像的关键特征区域可以包括眼睛、鼻子、嘴巴、眉毛等。
在一实施方式中,所述提取模块103可以通过积分投影方式定位出人脸图像的眼睛、鼻子、嘴巴、眉毛等关键特征区域。由于眼睛是人脸当中比较突出的人脸特征,可以先对眼睛进行定位,则脸部其他器官,如:眼眉、嘴巴、鼻子等,可以由潜在的分布关系得出比较准确的定位。举例而言,关键特征区域定位通过对应于不同积分投影方式下产生的波峰或波谷进行,其中,积分投影分为垂直投影和水平投影,设f(x,y)表示图像(x,y)处的灰度值,在图像[y1,y2]和[x1,x2]区域的水平积分投影Mh(y)和垂直积分投影Mv(x)分别表示为:其中,水平积分投影是将一行所有像素点的灰度值进行累加后再显示,而垂直积分投影是将一列所有像素点的灰度值进行累加后再显示。通过定位两个波谷点x1、x2从人脸图像中把横轴[x1,x2]区域的图像截取出来,即可实现人脸图像左右边界的定位。对左右边界定位后二值化待识别人脸图像,分别进行水平积分投影和垂直积分投影。
进一步的,利用对人脸图像的先验知识可知,眉毛和眼睛是人脸图像中较近的黑色区域,其对应着水平积分投影曲线上的前两个极小值点。第一个极小值点对应的是眉毛在纵轴上的位置,记做ybrow,第二个极小值点对应的是眼睛在纵轴上的位置,记做yeye,第三个极小值点对应的是鼻子在纵轴上的位置,记做ynose,第四个极小值点对应的是嘴巴在纵轴上的位置,记做ymonth。同样,人脸图像中心对称轴两侧出现两个极小值点,分别对应左右眼在横轴上的位置,记做xleft-eye、xright-eye,眉毛在横轴上的位置和眼睛相同,嘴巴和鼻子在横轴上的位置为(xleft-eye+xright-eye)/2,进而可以根据关键特征的坐标及预设规则确定眼睛区域、嘴唇区域、眉毛区域及鼻子区域,比如眼睛区域包括以左眼坐标为中心,向左15像素,向右15像素,向上10像素,向下10像素的区域及以右眼坐标为中心,向左15像素,向右15像素,向上10像素,向下10像素的区域。
在一实施方式中,人脸表情可以具有以下表现形式:高兴时的面部动作:嘴角翘起,面颊上抬起皱,眼睑收缩,眼睛尾部会形成“鱼尾纹”。伤心时的面部特征:眯眼,眉毛收紧,嘴角下拉,下巴抬起或收紧。害怕时的面部特征:嘴巴和眼睛张开,眉毛上扬,鼻孔张大。愤怒时的面部特征:眉毛下垂,前额紧皱,眼睑和嘴唇紧张。厌恶时的面部特征:嗤鼻,上嘴唇上抬,眉毛下垂,眯眼。惊讶时的面部特征:下颚下垂,嘴唇和嘴巴放松,眼睛张大,眼睑和眉毛微抬。轻蔑时的面部特征:嘴角一侧抬起,作讥笑或得意笑状等。当完成关键特征区域定位后,可以从关键特征区域中提取表征人脸表情的表情特征。比如可以采用基于差分能量图(DEI)法/中心化二值模式(CGBP)法来实现从关键特征区域中提取表征人脸表情的表情特征。
所述比对模块104用于将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情。
在一实施方式中,所述预设表情库可以包括多种表情,比如包括:高兴、吃惊、悲伤、愤怒、厌恶、恐惧等表情,以及多种复合表情,如悲伤且恐惧、悲伤且吃惊、愤怒且恐惧等。所述待识别表情的表情特征可以是形状特征向量或纹理特征向量,当预设表情库中的每一表情的表情特征是以形状特征向量表征时,则获取所述待识别表情的形状特征向量,以进行比对,当预设表情库中的每个表情的表情特征是以纹理特征向量表征时,则获取所述待识别表情的纹理特征向量,以进行比对。
在一实施方式中,所述比对模块104可以通过以下方式来确定提取得到的表情特征(形状特征向量或纹理特征向量)与所述预设表情库中的每个表情的相似概率:获取所述待识别表情的特征向量(形状特征向量或纹理特征向量)和预设表情库中的每个表情的特征向量之间的距离值;根据距离值确定所述待识别人脸表情与所述预设表情库中的每个表情的相似概率。比如,所述比对模块104获取所述待识别人脸表情的形状特征向量,计算所述待识别人脸表情的形状特征向量和所述预设表情库中的每一表情的形状特征向量之间的距离值,及根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。再比如,所述比对模块104获取所述待识别人脸表情的纹理特征向量,计算所述待识别人脸表情的纹理特征向量和所述预设表情库中的每一表情的纹理特征向量之间的距离值,及根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。
在一实施方式中,所述距离值可以为广义马氏距离。所述比对模块104可以通过如下公式计算得到所述待识别表情的特征向量和预设表情库中的每个表情的特征向量之间的距离值:
dM(y,xj)=(y-xj)T*M*(y-xj)
其中,y为待识别人脸表情的形状特征向量(纹理特征向量),xj为预设表情库中的第j个表情的形状特征向量(纹理特征向量),M为预设目标度量矩阵,j为大于或者等于1的整数,dM(y,xj)为待识别人脸表情的形状特征向量(纹理特征向量)和预设表情库中的第j个表情的形状特征向量(纹理特征向量)之间的距离值,(y-xj)为待识别人脸表情的形状特征向量(纹理特征向量)与预设表情库中的第j个表情的形状特征向量(纹理特征向量)的差值,(y-xj)T为待识别人脸表情的形状特征向量(纹理特征向量)与预设表情库中的第j个表情的形状特征向量(纹理特征向量)的差值的转置;所述相似概率可以通过以下公式计算得到:
p={1+exp[D-b]}-1,其中,p为相似概率,D为距离值,b为预设偏置量。
在一实施方式中,当计算得到所述待识别人脸表情与所述预设表情库中的每个表情的相似概率后,所述比对模块104可以将与预设表情库中的具有最大相似概率的表情作为所述待识别表情。
所述输出模块105用于根据所述待识别人脸表情的识别结果控制计算机装置输出对应的互动内容。
在一实施方式中,可以预先建立多个表情与计算机装置输出的互动内容的映射关系表,并根据所述映射关系表来实现根据表情识别结果控制计算机装置。所述互动内容可以是计算机装置根据表情识别结果给出对应的动作、语音、图片、文字、视频等来与用户互动,以实现舒缓用户紧张、焦虑,愉悦用户心情。比如,当判定所述待识别人脸表情为紧张表情时,所述输出模块105可以控制计算机装置输出舒缓的音乐缓解用户紧张情绪或者控制计算机装置输出如何缓解紧张方法的建议内容(比如建议内容为:尝试缓慢深呼吸来缓解紧张情绪)供用户参考;当判定所述待识别人脸表情为悲伤表情时,所述输出模块105可以控制计算机装置输出缓解悲伤的文章、音乐、视频或者控制计算机装置输出如何缓解悲伤方法的建议内容供用户参考。
所述控制模块106用于获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制所述计算机装置的内容输出。
在一实施方式中,所述反馈信息可以包括语音信息或者观看所述计算机装置输出所述互动内容后的表情信息。比如,控制计算机装置缓解用户当前的紧张表情,输出舒缓音乐来缓解用户紧张情绪,当该舒缓音乐播放完毕且接收到用户输入的“请重复播放或者请再次播放”的语音信息后,所述控制模块106控制终端会再次播放前一刻播放的舒缓音乐;再比如,控制计算机装置为了缓解用户当前的紧张表情,输出舒缓音乐来缓解用户紧张情绪,当该舒缓音乐播放完毕且侦测到的用户表情仍然为紧张情绪时,所述控制模块106可以控制终端播放另一首舒缓音乐或者不播放舒缓音乐,改为控制计算机装置输出如何缓解紧张方法的建议内容给用户。
在一实施方式中,当反馈信息是用户输入的语音信息时,所述控制模块106可以直接根据语音信息要求调整所述计算机装置输出的互动内容,当反馈信息是用户观看所述计算机装置输出的互动内容后的表情信息时,所述控制模块106还可以判断观看前的表情与观看互动内容后的表情之间的表情变化是否符合预设调整规则,若符合预设调整规则,则所述控制模块106调整所述计算机装置输出的互动内容,若不符合预设调整规则,则不调整所述计算机装置输出的互动内容。比如,所述预设规则是表情从高兴转变悲伤的表情变化,若观看前识别得到的表情与观看互动内容后的表情之间的表情变化是从悲伤转变为高兴,则不符合所述预设调整规则,不进行调整。
上述表情交互装置,可识别用户表情并根据表情识别结果控制计算机装置输出对应的互动内容,可实现舒缓用户紧张、焦虑、抚慰用户心情等功能,同时还可以对互动内容播放后的用户表情进行进一步分析,并根据分析结果接续控制计算机装置的互动内容输出,实现与计算机装置交互更生动有趣,提高了用户使用体验。
图3为本发明计算机装置较佳实施例的示意图。
所述计算机装置1包括存储器20、处理器30以及存储在所述存储器20中并可在所述处理器30上运行的计算机程序40,例如表情交互程序。所述处理器30执行所述计算机程序40时实现上述表情交互方法实施例中的步骤,例如图1所示的步骤S11~S16。或者,所述处理器30执行所述计算机程序40时实现上述表情交互装置实施例中各模块的功能,例如图2中的模块101~106。
示例性的,所述计算机程序40可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器20中,并由所述处理器30执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,所述指令段用于描述所述计算机程序40在所述计算机装置1中的执行过程。例如,所述计算机程序40可以被分割成图2中的检测模块101、判断模块102、提取模块103、比对模块104、输出模块105及控制模块106。各模块具体功能参见实施例二。
所述计算机装置1可以是桌上型计算机、笔记本、掌上电脑、手机、平板电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图仅仅是计算机装置1的示例,并不构成对计算机装置1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机装置1还可以包括输入输出设备、网络接入设备、总线等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者所述处理器30也可以是任何常规的处理器等,所述处理器30是所述计算机装置1的控制中心,利用各种接口和线路连接整个计算机装置1的各个部分。
所述存储器20可用于存储所述计算机程序40和/或模块/单元,所述处理器30通过运行或执行存储在所述存储器20内的计算机程序和/或模块/单元,以及调用存储在存储器20内的数据,实现所述计算机装置1的各种功能。所述存储器20可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机装置1的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器20可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述计算机装置1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,所述计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的计算机装置和方法,可以通过其它的方式实现。例如,以上所描述的计算机装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。计算机装置权利要求中陈述的多个单元或计算机装置也可以由同一个单元或计算机装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种表情交互方法,其特征在于,所述方法包括:
接收交互请求指令,并根据所述交互请求指令弹出一检测框进行人脸检测;
判断是否检测到人脸图像;
若检测到人脸图像,则定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征;
将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情;
根据所述待识别人脸表情的识别结果控制终端设备输出对应的互动内容;及
获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制所述终端设备的内容输出。
2.如权利要求1所述的表情交互方法,其特征在于,所述进行人脸检测的步骤包括:
根据预设多个人脸样本训练得到用于进行人脸检测的卷积神经网络模型;及
利用所述卷积神经网络模型进行人脸检测。
3.如权利要求1所述的表情交互方法,其特征在于,当所述预设表情库中的每一表情的表情特征为形状特征向量时,所述将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率的步骤包括:
获取所述待识别人脸表情的形状特征向量;
计算所述待识别人脸表情的形状特征向量和所述预设表情库中的每一表情的形状特征向量之间的距离值;及
根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。
4.如权利要求1所述的表情交互方法,其特征在于,当所述预设表情库中的每一表情的表情特征为纹理特征向量时,所述将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率的步骤包括:
获取所述待识别人脸表情的纹理特征向量;
计算所述待识别人脸表情的纹理特征向量和所述预设表情库中的每一表情的纹理特征向量之间的距离值;及
根据计算得到的距离值确定所述待识别人脸表情与所述预设表情库中的每一表情的相似概率。
5.如权利要求3或4所述的表情交互方法,其特征在于,所述距离值通过以下公式计算得到:
dM(y,xj)=(y-xj)T*M*(y-xj)
其中,y为待识别人脸表情的形状特征向量/纹理特征向量,xj为预设表情库中的第j个表情的形状特征向量/纹理特征向量,M为预设目标度量矩阵,j为大于或者等于1的整数,dM(y,xj)为待识别人脸表情的形状特征向量/纹理特征向量和预设表情库中的第j个表情的形状特征向量/纹理特征向量之间的距离值,(y-xj)为待识别人脸表情的形状特征向量/纹理特征向量与预设表情库中的第j个表情的形状特征向量/纹理特征向量的差值,(y-xj)T为待识别人脸表情的形状特征向量/纹理特征向量与预设表情库中的第j个表情的形状特征向量/纹理特征向量的差值的转置;所述相似概率通过以下公式计算得到:
p={1+exp[D-b]}-1,其中,p为相似概率,D为距离值,b为预设偏置量。
6.如权利要求1-4任意一项所述的表情交互方法,其特征在于,所述反馈信息包括语音信息或者观看所述终端设备输出所述互动内容后的表情信息。
7.如权利要求1-4任意一项所述的表情交互方法,其特征在于,所述反馈信息为观看所述终端设备输出所述互动内容后的表情信息,所述根据所述反馈信息接续控制所述终端设备的内容输出的步骤包括:
判断观看所述终端设备输出所述互动内容前后的表情变化是否符合预设调整规则;
若符合所述预设调整规则,则调整所述终端设备输出的互动内容;及
若不符合所述预设调整规则,则不调整所述终端设备输出的互动内容。
8.一种表情交互装置,其特征在于,所述装置包括:
检测模块,用于接收交互请求指令,并根据所述交互请求指令弹出一检测框进行人脸检测;
判断模块,用于判断是否检测到人脸图像;
提取模块,用于在检测到人脸图像时,定位所述人脸图像的关键特征区域,并从所述关键特征区域中提取表征待识别人脸表情的表情特征;
比对模块,用于将提取得到的表情特征与预设表情库中的每一表情的表情特征进行比对,得到所述待识别人脸表情与所述预设表情库中的每一表情的相似概率,并将与所述预设表情库中的具有最大相似概率的表情作为所述待识别人脸表情;
输出模块,用于根据所述待识别人脸表情的识别结果控制终端设备输出对应的互动内容;及
控制模块,用于获取所述互动内容输出后的反馈信息,并根据所述反馈信息接续控制所述终端设备的内容输出。
9.一种计算机装置,所述计算机装置包括处理器及存储器,所述存储器上存储有若干计算机程序,其特征在于,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1-7中任意一项所述的表情交互方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任意一项所述的表情交互方法的步骤。
CN201910487847.XA 2019-06-05 2019-06-05 表情交互方法、装置、计算机装置及计算机可读存储介质 Pending CN110363079A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910487847.XA CN110363079A (zh) 2019-06-05 2019-06-05 表情交互方法、装置、计算机装置及计算机可读存储介质
PCT/CN2019/103370 WO2020244074A1 (zh) 2019-06-05 2019-08-29 表情交互方法、装置、计算机设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910487847.XA CN110363079A (zh) 2019-06-05 2019-06-05 表情交互方法、装置、计算机装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN110363079A true CN110363079A (zh) 2019-10-22

Family

ID=68215622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910487847.XA Pending CN110363079A (zh) 2019-06-05 2019-06-05 表情交互方法、装置、计算机装置及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN110363079A (zh)
WO (1) WO2020244074A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110764618A (zh) * 2019-10-25 2020-02-07 郑子龙 一种仿生交互***、方法及相应的生成***和方法
CN111507149A (zh) * 2020-01-03 2020-08-07 京东方科技集团股份有限公司 基于表情识别的交互方法、装置和设备
CN111638784A (zh) * 2020-05-26 2020-09-08 浙江商汤科技开发有限公司 人脸表情互动方法、互动装置以及计算机存储介质
CN112381019A (zh) * 2020-11-19 2021-02-19 平安科技(深圳)有限公司 复合表情识别方法、装置、终端设备及存储介质
CN112530543A (zh) * 2021-01-27 2021-03-19 张强 药品管理***

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269145B (zh) * 2021-06-22 2023-07-25 中国平安人寿保险股份有限公司 表情识别模型的训练方法、装置、设备及存储介质
CN113723299A (zh) * 2021-08-31 2021-11-30 上海明略人工智能(集团)有限公司 会议质量评分方法、***和计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446753A (zh) * 2015-08-06 2017-02-22 南京普爱医疗设备股份有限公司 一种消极表情识别鼓励***
KR20190008036A (ko) * 2017-07-14 2019-01-23 한국생산기술연구원 안드로이드 로봇의 얼굴 표정 생성 시스템 및 방법
CN109819100A (zh) * 2018-12-13 2019-05-28 平安科技(深圳)有限公司 手机控制方法、装置、计算机装置及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446753A (zh) * 2015-08-06 2017-02-22 南京普爱医疗设备股份有限公司 一种消极表情识别鼓励***
KR20190008036A (ko) * 2017-07-14 2019-01-23 한국생산기술연구원 안드로이드 로봇의 얼굴 표정 생성 시스템 및 방법
CN109819100A (zh) * 2018-12-13 2019-05-28 平安科技(深圳)有限公司 手机控制方法、装置、计算机装置及计算机可读存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110764618A (zh) * 2019-10-25 2020-02-07 郑子龙 一种仿生交互***、方法及相应的生成***和方法
CN111507149A (zh) * 2020-01-03 2020-08-07 京东方科技集团股份有限公司 基于表情识别的交互方法、装置和设备
CN111507149B (zh) * 2020-01-03 2023-10-27 京东方艺云(杭州)科技有限公司 基于表情识别的交互方法、装置和设备
CN111638784A (zh) * 2020-05-26 2020-09-08 浙江商汤科技开发有限公司 人脸表情互动方法、互动装置以及计算机存储介质
CN112381019A (zh) * 2020-11-19 2021-02-19 平安科技(深圳)有限公司 复合表情识别方法、装置、终端设备及存储介质
CN112381019B (zh) * 2020-11-19 2021-11-09 平安科技(深圳)有限公司 复合表情识别方法、装置、终端设备及存储介质
CN112530543A (zh) * 2021-01-27 2021-03-19 张强 药品管理***
CN112530543B (zh) * 2021-01-27 2021-11-02 张强 药品管理***

Also Published As

Publication number Publication date
WO2020244074A1 (zh) 2020-12-10

Similar Documents

Publication Publication Date Title
CN110363079A (zh) 表情交互方法、装置、计算机装置及计算机可读存储介质
US20180088677A1 (en) Performing operations based on gestures
WO2020078119A1 (zh) 模拟用户穿戴服装饰品的方法、装置和***
CN108958610A (zh) 基于人脸的特效生成方法、装置和电子设备
Varona et al. Hands-free vision-based interface for computer accessibility
CN109461167A (zh) 图像处理模型的训练方法、抠图方法、装置、介质及终端
CN107633203A (zh) 面部情绪识别方法、装置及存储介质
Szwoch et al. Facial emotion recognition using depth data
CN107995428A (zh) 图像处理方法、装置及存储介质和移动终端
CN110377201A (zh) 终端设备控制方法、装置、计算机装置及可读存储介质
US20190370532A1 (en) Directional assistance for centering a face in a camera field of view
CN101847268A (zh) 一种基于人脸图像的卡通人脸图形生成方法和装置
CN110109541B (zh) 一种多模态交互的方法
CN109003224A (zh) 基于人脸的形变图像生成方法和装置
KR20120005587A (ko) 컴퓨터 시스템에서 얼굴 애니메이션 생성 방법 및 장치
JP7278307B2 (ja) コンピュータプログラム、サーバ装置、端末装置及び表示方法
CN108846356B (zh) 一种基于实时手势识别的手心追踪定位的方法
CN109819100A (zh) 手机控制方法、装置、计算机装置及计算机可读存储介质
CN108052250A (zh) 基于多模态交互的虚拟偶像演绎数据处理方法及***
CN108681398A (zh) 基于虚拟人的视觉交互方法及***
CN108415561A (zh) 基于虚拟人的手势交互方法及***
CN107817799A (zh) 结合虚拟迷宫进行智能交互的方法及***
CN110598719A (zh) 一种依据视觉属性描述自动生成人脸图像的方法
CN112149599B (zh) 表情追踪方法、装置、存储介质和电子设备
CN109829965A (zh) 人脸模型的动作处理方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191022