CN107679449B - 嘴唇动作捕捉方法、装置及存储介质 - Google Patents
嘴唇动作捕捉方法、装置及存储介质 Download PDFInfo
- Publication number
- CN107679449B CN107679449B CN201710709114.7A CN201710709114A CN107679449B CN 107679449 B CN107679449 B CN 107679449B CN 201710709114 A CN201710709114 A CN 201710709114A CN 107679449 B CN107679449 B CN 107679449B
- Authority
- CN
- China
- Prior art keywords
- lip
- real
- face image
- point
- time face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种嘴唇动作捕捉方法、装置及存储介质,该方法包括:获取摄像装置拍摄到的实时图像,从该实时图像中提取一张实时脸部图像;将该实时脸部图像输入预先训练好的嘴唇平均模型,识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离。本发明根据嘴唇特征点的坐标计算实时脸部图像中嘴唇的运动信息,实现对嘴唇动作的实时捕捉。
Description
技术领域
本发明涉及计算机视觉处理技术领域,尤其涉及一种嘴唇动作捕捉方法、装置及计算机可读存储介质。
背景技术
嘴唇动作捕捉是基于人的脸部特征信息进行用户嘴唇动作识别的一种生物识别技术。目前,嘴唇动作捕捉的应用领域很广泛,在门禁考勤、身份识别等众多领域起到非常重要的作用,给人们的生活带来很大便利。嘴唇动作的捕捉,一般产品的做法是使用深度学习方法,通过深度学习训练出嘴唇特征的分类模型,然后使用分类模型来判断嘴唇的特征。
然而,使用深度学习的方法来训练嘴唇特征,嘴唇特征的多少完全取决于嘴唇样本的种类,比如判断张嘴,闭嘴,那么至少需要取张嘴,闭嘴的大量样本,如果再想判断撇嘴,就需要再取撇嘴的大量样本,然后重新训练。这样不仅耗时,还不能做到实时捕捉。
发明内容
本发明提供一种嘴唇动作捕捉方法、装置及计算机可读存储介质,其主要目的在于根据唇部特征点的坐标计算实时脸部图像中嘴唇的运动信息,实现对嘴唇动作的实时捕捉。
为实现上述目的,本发明提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括嘴唇动作捕捉程序,所述嘴唇动作捕捉程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄到的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;及
嘴唇运动判断步骤:根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离。
可选地,所述嘴唇平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角;及
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与嘴唇平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的t个嘴唇特征点匹配的t个嘴唇特征点。
可选地,所述嘴唇运动判断步骤包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
此外,为实现上述目的,本发明还提供一种嘴唇动作捕捉方法,该方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄到的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;及
嘴唇运动判断步骤:根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离。
可选地,所述嘴唇平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角;及
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与嘴唇平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的t个嘴唇特征点匹配的t个嘴唇特征点。
可选地,所述嘴唇运动判断步骤包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括嘴唇动作捕捉程序,所述嘴唇动作捕捉程序被处理器执行时,实现如上所述的嘴唇动作捕捉方法中的任意步骤。
本发明提出的嘴唇动作捕捉方法、装置及计算机可读存储介质,通过从实时脸部图像中识别出嘴唇特征点,根据嘴唇特征点的坐标计算得到该实时脸部图像中嘴唇的运动信息,不需要取嘴唇各种动作的样本进行深度学习,即可实现对嘴唇动作的实时捕捉。
附图说明
图1为本发明嘴唇动作捕捉方法较佳实施例的运行环境示意图;
图2为本发明嘴唇动作捕捉方法较佳实施例中嘴唇特征点的示意图;
图3为图1中嘴唇动作捕捉程序的功能模块图;
图4为本发明嘴唇动作捕捉方法较佳实施例的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种嘴唇动作捕捉方法。参照图1所示,为本发明嘴唇动作捕捉方法较佳实施例的运行环境示意图。
在本实施例中,嘴唇动作捕捉方法应用于一种电子装置1,该电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
该电子装置1包括:处理器12、存储器11、摄像装置13、网络接口14及通信总线15。其中,摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。通信总线15用于实现这些组件之间的连接通信。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的嘴唇动作捕捉程序10、人脸图像样本库及构建并训练好的嘴唇平均模型等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12,在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行嘴唇动作捕捉程序10等。
图1仅示出了具有组件11-15以及嘴唇动作捕捉程序10的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以适当的称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器用于显示在该电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括RF(Radio Frequency,射频)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可以包括操作***、以及嘴唇动作捕捉程序10;处理器12执行存储器11中存储的嘴唇动作捕捉程序10时实现如下步骤:
获取摄像装置13拍摄的实时图像,处理器12利用人脸识别算法从该实时图像中提取出实时脸部图像,从存储器11中调用眼部平均模型,并将该实时脸部图像输入所述嘴唇平均模型,识别出该实时脸部图像中代表嘴唇位置的嘴唇特征点,然后根据嘴唇特征点的坐标计算得到该实时脸部图像中嘴唇的动作信息。
在其他实施例中,嘴唇动作捕捉程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
参照图3所示,为图1中嘴唇动作捕捉程序10的功能该模块图。
所述嘴唇动作捕捉程序10可以被分割为:获取模块110、识别模块120及计算模块130。
获取模块110,用于获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接受到该实时图像后,所述获取模块110利用人脸识别算法提取出实时的脸部图像。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
识别模块120,用于将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点。
假设嘴唇平均模型中有20个嘴唇特征点,所述识别模块120从存储器11中调用训练好的嘴唇平均模型后,将实时脸部图像与嘴唇平均模型进行对齐,然后利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的20个嘴唇特征点匹配的20个嘴唇特征点。其中,所述人脸的嘴唇平均模型是预先构建并训练好的,具体实施方式将在下述嘴唇动作捕捉方法中进行说明。
假设所述识别模块120从该实时脸部图像中识别出的20个嘴唇特征点依然记为P1~P20,所述20个嘴唇特征点的坐标分别为:(x1、y1)、(x2、y2)、(x3、y3)、…、(x20、y20)。
其中,如图2所示,唇部的上、下嘴唇分别有8个特征点(分别记为P1~P8,P9~P16),左右唇角分别有2个特征点(分别记为P17~P18,P19~P20)。上嘴唇的8个特征点中,5个位于上嘴唇外轮廓线(P1~P5)、3个位于上嘴唇内轮廓线(P6~P8,P7为上嘴唇内侧中心特征点);下嘴唇的8个特征点中,5个位于下嘴唇外轮廓线(P9~P13)、3个位于下嘴唇内轮廓线(P14~P16,P15为下嘴唇内侧中心特征点)。左右唇角各自的2个特征点中,1个位于嘴唇外轮廓线(例如P18、P20,以下称作外唇角特征点),1个位于嘴唇外轮廓线(例如P17、P19,以下称作内唇角特征点)。
在本实施例中,该特征提取算法为SIFT(scale-invariant feature transform)算法。SIFT算法从人脸的嘴唇平均模型后提取每个嘴唇特征点的局部特征,选择一个嘴唇特征点为参考特征点,在实时脸部图像中查找与该参考特征点的局部特征相同或相似的特征点(例如,两个特征点的局部特征的差值在预设范围内),依此原理直到在实时脸部图像中查找出所有嘴唇特征点。在其他实施例中,该特征提取算法还可以为SURF(Speeded UpRobust Features)算法,LBP(Local Binary Patterns)算法,HOG(Histogram of OrientedGridients)算法等。
计算模块130,用于根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离。
具体地,所述计算模块130用于:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
在实时脸部图像中,上嘴唇内侧中心特征点P7的坐标为(x7、y7),下嘴唇内侧中心特征点P15的坐标为(x15、y15),那么,两点间的距离公式如下:
若d=0,则表示P7、P15两点重合,也就是说,嘴唇处于闭合状态;若d>0,则根据d的大小判断嘴唇的张开程度,d越大,则表示嘴唇张开程度越大。
左侧外唇角特征点P18的坐标为(x18、y18),与上、下嘴唇外轮廓线上离P18最近的特征点P1、P9的坐标分别为(x1、y1)、(x9、y9),将P18与P1、P9相连,分别形成向量计算向量之间的夹角α,计算公式如下:
其中,α表示向量之间的夹角,通过计算夹角大小,可判断嘴唇左撇的程度;夹角越小,表示嘴唇左撇程度越大。
同理,右侧外唇角特征点P20的坐标为(x20、y20),与上、下嘴唇外轮廓线上离P20最近的特征点P5、P13的坐标分别为(x5、y5)、(x13、y13),将P20与P5、P13相连,分别形成向量计算向量之间的夹角,计算公式如下:
其中,β表示向量之间的夹角,通过计算夹角大小,可判断嘴唇右撇的程度;夹角越小,表示嘴唇右撇程度越大。
本实施例提出的电子装置1,从实时图像中提取实时脸部图像,利用嘴唇平均模型识别出该实时脸部图像中的嘴唇特征点,根据嘴唇特征点的坐标计算得到该实时脸部图像中嘴唇的运动信息,实现对嘴唇动作的实时捕捉。
此外,本发明还提供一种嘴唇动作捕捉方法。参照图4所示,为本发明嘴唇动作捕捉方法较佳实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,嘴唇动作捕捉方法包括:
步骤S10,获取摄像装置拍摄到的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置拍摄到一张实时图像,摄像装置将这张实时图像发送到处理器,当处理器接受到该实时图像后,利用人脸识别算法提取出实时的脸部图像。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
步骤S20,将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点。
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位人工标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角。
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。所述人脸特征识别模型为Ensemble of Regression Tress(简称ERT)算法。ERT算法用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器。每个回归器由很多棵回归树(tree)组成,训练的目的就是得到这些回归树。
其中S(t)为当前模型的形状估计;每个回归器τt(·,·)根据输入图像I和S(t)来预测一个增量把这个增量加到当前的形状估计上来改进当前模型。其中每一级回归器都是根据特征点来进行预测。训练数据集为:(I1,S1),...,(In,Sn)其中I是输入的样本图像,S是样本图像中的特征点组成的形状特征向量。
在模型训练的过程中,样本库中人脸图像的数量为n,假设t=20,即每一张样本图片有20个特征点,取所有样本图片的部分特征点(例如在每个样本图片的20个特征点中随机取15个特征点)训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值(每个样本图片所取的15个特征点的加权平均值)的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的嘴唇平均模型,并将模型文件及样本库保存至存储器中。因为训练模型的样本图像标记了20个嘴唇特征点,则训练得到的人脸的嘴唇平均模型可用于从人脸图像中识别20个嘴唇特征点。
从存储器中调用训练好的嘴唇平均模型后,将实时脸部图像与嘴唇平均模型进行对齐,然后利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的20个嘴唇特征点匹配的20个嘴唇特征点。假设从该实时脸部图像中识别出的20个嘴唇特征点依然记为P1~P20,所述20个嘴唇特征点的坐标分别为:(x1、y1)、(x2、y2)、(x3、y3)、…、(x20、y20)。
其中,如图2所示,唇部的上、下嘴唇分别有8个特征点(分别记为P1~P8,P9~P16),左右唇角分别有2个特征点(分别记为P17~P18,P19~P20)。上嘴唇的8个特征点中,5个位于上嘴唇外轮廓线(P1~P5)、3个位于上嘴唇内轮廓线(P6~P8,P7为上嘴唇内侧中心特征点);下嘴唇的8个特征点中,5个位于下嘴唇外轮廓线(P9~P13)、3个位于下嘴唇内轮廓线(P14~P16,P15为下嘴唇内侧中心特征点)。左右唇角各自的2个特征点中,1个位于嘴唇外轮廓线(例如P18、P20,以下称作外唇角特征点),1个位于嘴唇外轮廓线(例如P17、P19,以下称作内唇角特征点)。
具体地,该特征提取算法还可以为SIFT算法,SURF算法,LBP算法,HOG算法等。
步骤S30,根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离。
在本实施例中,步骤S30包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
在实时脸部图像中,上嘴唇内侧中心特征点P7的坐标为(x7、y7),下嘴唇内侧中心特征点P15的坐标为(x15、y15),那么,两点间的距离公式如下:
若d=0,则表示P7、P15两点重合,也就是说,嘴唇处于闭合状态;若d>0,则根据d的大小判断嘴唇的张开程度,d越大,则表示嘴唇张开程度越大。
左侧外唇角特征点P18的坐标为(x18、y18),与上、下嘴唇外轮廓线上离P18最近的特征点P1、P9的坐标分别为(x1、y1)、(x9、y9),将P18与P1、P9相连,分别形成向量计算向量之间的夹角α,计算公式如下:
其中,α表示向量之间的夹角,通过计算夹角大小,可判断嘴唇左撇的程度;夹角越小,表示嘴唇左撇程度越大。
同理,右侧外唇角特征点P20的坐标为(x20、y20),与上、下嘴唇外轮廓线上离P20最近的特征点P5、P13的坐标分别为(x5、y5)、(x13、y13),将P20与P5、P13相连,分别形成向量计算向量之间的夹角,计算公式如下:
其中,β表示向量之间的夹角,通过计算夹角大小,可判断嘴唇右撇的程度;夹角越小,表示嘴唇右撇程度越大。
本实施例提出的嘴唇动作捕捉方法,利用嘴唇平均模型识别出该实时脸部图像中的嘴唇特征点,根据嘴唇特征点的坐标计算得到该实时脸部图像中嘴唇的运动信息,实现对嘴唇动作的实时捕捉。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括嘴唇动作捕捉程序,所述嘴唇动作捕捉程序被处理器执行时实现如下操作:
实时脸部图像获取步骤:获取摄像装置拍摄到的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;及
嘴唇运动判断步骤:根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离。
可选地,所述嘴唇平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角;及
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与嘴唇平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的t个嘴唇特征点匹配的t个嘴唇特征点。
可选地,所述嘴唇运动判断步骤包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
本发明之计算机可读存储介质的具体实施方式与上述嘴唇动作捕捉方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种电子装置,其特征在于,所述装置包括:存储器、处理器及摄像装置,所述存储器中包括嘴唇动作捕捉程序,所述嘴唇动作捕捉程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄到的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;及
嘴唇运动判断步骤:根据该实时脸部图像中t个嘴唇特征点的x、y坐标,计算得到该实时脸部图像中嘴唇的运动方向及运动距离,包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
2.根据权利要求1所述的电子装置,其特征在于,所述嘴唇平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角;及
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。
3.根据权利要求1所述的电子装置,其特征在于,所述特征点识别步骤还包括:
将实时脸部图像与嘴唇平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的t个嘴唇特征点匹配的t个嘴唇特征点。
4.一种嘴唇动作捕捉方法,其特征在于,所述方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄到的实时图像,利用人脸检测算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;及
嘴唇运动判断步骤:根据该实时脸部图像中t个嘴唇特征点的x、y坐标计算得到该实时脸部图像中嘴唇的运动方向及运动距离,包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
5.根据权利要求4所述的嘴唇动作捕捉方法,其特征在于,所述嘴唇平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角;及
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。
6.根据权利要求4所述的嘴唇动作捕捉方法,其特征在于,所述人脸识别算法包括:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法。
7.根据权利要求4所述的嘴唇动作捕捉方法,其特征在于,所述特征点识别步骤还包括:
将实时脸部图像与嘴唇平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的t个嘴唇特征点匹配的t个嘴唇特征点。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括嘴唇动作捕捉程序,所述嘴唇动作捕捉程序被处理器执行时,实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄到的实时图像,利用人脸检测算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将该实时脸部图像输入预先训练好的嘴唇平均模型,利用该嘴唇平均模型识别出该实时脸部图像中代表嘴唇位置的t个嘴唇特征点;及
嘴唇运动判断步骤:根据该实时脸部图像中t个嘴唇特征点的x、y坐标计算得到该实时脸部图像中嘴唇的运动方向及运动距离,包括:
计算实时脸部图像中上嘴唇内侧中心特征点与下嘴唇内侧中心特征点的距离,判断嘴唇的张开程度;
将左侧外唇角特征点与上、下嘴唇外轮廓线上离左侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇左撇的程度;及
将右侧外唇角特征点与上、下嘴唇外轮廓线上离右侧外唇角特征点最近的特征点分别相连形成向量计算向量之间的夹角,得到嘴唇右撇的程度。
9.根据权利要求8所述的计算机可读存储介质,其特征在于,所述嘴唇平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中的嘴唇部位标记t个特征点,所述t个特征点均匀分布于上、下嘴唇及左、右唇角;及
利用标记了嘴唇特征点的人脸图像对人脸特征识别模型进行训练,得到关于人脸的嘴唇平均模型。
10.根据权利要求8所述的计算机可读存储介质,其特征在于,所述特征点识别步骤还包括:
将实时脸部图像与嘴唇平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该嘴唇平均模型的t个嘴唇特征点匹配的t个嘴唇特征点。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710709114.7A CN107679449B (zh) | 2017-08-17 | 2017-08-17 | 嘴唇动作捕捉方法、装置及存储介质 |
PCT/CN2017/108747 WO2019033568A1 (zh) | 2017-08-17 | 2017-10-31 | 嘴唇动作捕捉方法、装置及存储介质 |
US16/337,934 US10489636B2 (en) | 2017-08-17 | 2017-10-31 | Lip movement capturing method and device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710709114.7A CN107679449B (zh) | 2017-08-17 | 2017-08-17 | 嘴唇动作捕捉方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107679449A CN107679449A (zh) | 2018-02-09 |
CN107679449B true CN107679449B (zh) | 2018-08-03 |
Family
ID=61135000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710709114.7A Active CN107679449B (zh) | 2017-08-17 | 2017-08-17 | 嘴唇动作捕捉方法、装置及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10489636B2 (zh) |
CN (1) | CN107679449B (zh) |
WO (1) | WO2019033568A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259711A (zh) * | 2018-12-03 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种识别唇动的方法和*** |
CN110119457B (zh) * | 2019-05-17 | 2021-08-10 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN110363124B (zh) * | 2019-07-03 | 2022-05-13 | 广州多益网络股份有限公司 | 基于人脸关键点与几何形变的快速表情识别及应用方法 |
CN111553300B (zh) * | 2020-05-08 | 2022-03-11 | 北京工商大学 | 一种面向三维点云视频的多时域分辨率唇语行为检测方法 |
CN112330713B (zh) * | 2020-11-26 | 2023-12-19 | 南京工程学院 | 基于唇语识别的重度听障患者言语理解度的改进方法 |
CN113256488B (zh) * | 2021-06-21 | 2021-09-24 | 四川大学 | 预测模型的生成方法、装置,侧貌预测方法及电子设备 |
US20240070251A1 (en) * | 2021-08-04 | 2024-02-29 | Q (Cue) Ltd. | Using facial skin micromovements to identify a user |
CN116935496B (zh) * | 2023-09-18 | 2023-11-17 | 深圳市希格莱特科技有限公司 | 一种电子烟烟雾视觉检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951730A (zh) * | 2014-03-26 | 2015-09-30 | 联想(北京)有限公司 | 一种唇动检测方法、装置及电子设备 |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
CN106295579A (zh) * | 2016-08-12 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸对齐方法及装置 |
CN106919891A (zh) * | 2015-12-26 | 2017-07-04 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6014625A (en) * | 1996-12-30 | 2000-01-11 | Daewoo Electronics Co., Ltd | Method and apparatus for producing lip-movement parameters in a three-dimensional-lip-model |
JP3112254B2 (ja) * | 1997-03-04 | 2000-11-27 | 富士ゼロックス株式会社 | 音声検出装置 |
US9171548B2 (en) * | 2011-08-19 | 2015-10-27 | The Boeing Company | Methods and systems for speaker identity verification |
US9159321B2 (en) * | 2012-02-27 | 2015-10-13 | Hong Kong Baptist University | Lip-password based speaker verification system |
JP5902632B2 (ja) | 2013-01-07 | 2016-04-13 | 日立マクセル株式会社 | 携帯端末装置及び情報処理システム |
CN105354527A (zh) * | 2014-08-20 | 2016-02-24 | 南京普爱射线影像设备有限公司 | 一种消极表情识别鼓励*** |
CN105389097A (zh) * | 2014-09-03 | 2016-03-09 | 中兴通讯股份有限公司 | 一种人机交互装置及方法 |
US9741342B2 (en) * | 2014-11-26 | 2017-08-22 | Panasonic Intellectual Property Corporation Of America | Method and apparatus for recognizing speech by lip reading |
CN104410911B (zh) * | 2014-12-31 | 2015-12-09 | 合一网络技术(北京)有限公司 | 基于视频情感标注辅助识别面部表情的方法 |
CN104616438B (zh) * | 2015-03-02 | 2016-09-07 | 重庆市科学技术研究院 | 一种用于疲劳驾驶检测的打哈欠动作检测方法 |
CN106295566B (zh) | 2016-08-10 | 2019-07-09 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
-
2017
- 2017-08-17 CN CN201710709114.7A patent/CN107679449B/zh active Active
- 2017-10-31 WO PCT/CN2017/108747 patent/WO2019033568A1/zh active Application Filing
- 2017-10-31 US US16/337,934 patent/US10489636B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951730A (zh) * | 2014-03-26 | 2015-09-30 | 联想(北京)有限公司 | 一种唇动检测方法、装置及电子设备 |
CN106919891A (zh) * | 2015-12-26 | 2017-07-04 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
CN106295579A (zh) * | 2016-08-12 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸对齐方法及装置 |
Non-Patent Citations (4)
Title |
---|
Lip-motion events analysis and lip segmentation using optical flow;Stefan M.Karlsson等;《2012 IEEE Computer Society Computer Vision and Pattern Recognition》;20120716;第4321-4328页 * |
人脸表情计算技术研究;侯婕;《中国优秀硕士学位论文全文数据库 信息科技辑》;20141015(第10期);论文第3.2.1-3.2.2节 * |
基于多任务特征选择和自适应模型的人脸特征点检测;谢郑楠;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第02期);论文正文第1.1.2-1.2.3节、2.4节、3.1节、3.3.2节、第4章 * |
基于机器视觉的驾驶员嘴唇特征点定位算法;盛敬;《交通运输工程学报》;20090831;第9卷(第4期);第118-121页 * |
Also Published As
Publication number | Publication date |
---|---|
US20190228209A1 (en) | 2019-07-25 |
WO2019033568A1 (zh) | 2019-02-21 |
US10489636B2 (en) | 2019-11-26 |
CN107679449A (zh) | 2018-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679449B (zh) | 嘴唇动作捕捉方法、装置及存储介质 | |
CN107679448B (zh) | 眼球动作分析方法、装置及存储介质 | |
CN107633204B (zh) | 人脸遮挡检测方法、装置及存储介质 | |
CN107633207B (zh) | Au特征识别方法、装置及存储介质 | |
CN107633205B (zh) | 嘴唇动作分析方法、装置及存储介质 | |
CN107633206B (zh) | 眼球动作捕捉方法、装置及存储介质 | |
CN109961009B (zh) | 基于深度学习的行人检测方法、***、装置及存储介质 | |
CN107862292B (zh) | 人物情绪分析方法、装置及存储介质 | |
CN110738101B (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN107679447A (zh) | 面部特征点检测方法、装置及存储介质 | |
CN107808120B (zh) | 眼镜定位方法、装置及存储介质 | |
WO2019041519A1 (zh) | 目标跟踪装置、方法及计算机可读存储介质 | |
CN107977633A (zh) | 人脸图像的年龄识别方法、装置及存储介质 | |
WO2019033573A1 (zh) | 面部情绪识别方法、装置及存储介质 | |
CN109389002A (zh) | 活体检测方法及装置 | |
CN109871751A (zh) | 基于人脸表情识别的服务态度评估方法、装置及存储介质 | |
CN115223239B (zh) | 一种手势识别方法、***、计算机设备以及可读存储介质 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN111857334A (zh) | 人体手势字母的识别方法、装置、计算机设备及存储介质 | |
CN114299546A (zh) | 识别宠物身份的方法、装置、存储介质及电子设备 | |
CN108898134B (zh) | 号码识别方法、装置、终端设备和存储介质 | |
CN111241990A (zh) | 图像处理方法及装置、计算机设备、计算机可读存储介质 | |
CN117152567B (zh) | 特征提取网络的训练方法、分类方法、装置及电子设备 | |
CN112149739B (zh) | 一种特殊服饰检测方法、终端设备及存储介质 | |
CN112381854B (zh) | 基于图像的运动检测方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246923 Country of ref document: HK |