CN107833263A - 面部跟踪方法及装置 - Google Patents
面部跟踪方法及装置 Download PDFInfo
- Publication number
- CN107833263A CN107833263A CN201711063566.9A CN201711063566A CN107833263A CN 107833263 A CN107833263 A CN 107833263A CN 201711063566 A CN201711063566 A CN 201711063566A CN 107833263 A CN107833263 A CN 107833263A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- facial characteristics
- distance value
- double vision
- characteristic coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供了一种面部跟踪方法及装置,涉及图像处理技术领域。方法包括:从采集的当前图像中确定出至少一个面部特征坐标;从至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,目标面部特征坐标为需要显示终端跟踪的目标用户的面部特征分布在当前图像中的坐标;根据目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的当前裸眼3D图像适配目标用户的当前观看位置。因此,实现了无论环境背景如何变化,显示终端均能够有效的对目标用户的面部进行跟踪,使得显示裸眼3D画面为实时适配用户的较佳3D效果。
Description
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种面部跟踪方法及装置。
背景技术
随着科学技术的不断发展进步,裸眼3D立体显示逐步得到了应用。
目前,为保证裸眼3D立体显示的显示效果,面部追踪技术被运用于裸眼3D立体显示技术中。以通过对用户面部位置的追踪来保证合成显示的裸眼3D画面与用户面部的位置适配,从而保证用户观看到较佳的立体效果。但若用户所在的环境复杂,例如,存在背景图案干扰或众人围观,则难以准确的追踪到需要追踪的用户,进而造成显示的裸眼3D画面不适配,甚至给用户带来眼花、眩晕等不适感。
发明内容
有鉴于此,本发明的目的在于提供一种面部跟踪方法及装置,以有效改善上述缺陷。
本发明的实施例通过如下方式实现:
第一方面,本发明实施例提供了一种面部跟踪方法,应用于一显示终端。所述方法包括:从采集的当前图像中确定出至少一个面部特征坐标;从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,所述目标面部特征坐标为需要所述显示终端跟踪的目标用户的面部特征分布在所述当前图像中的坐标;根据所述目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的所述当前裸眼3D图像适配目标用户的当前观看位置。
第二方面,本发明实施例提供了一种面部跟踪装置,应用于一显示终端。所述装置包括:采集模块,用于从采集的当前图像中确定出至少一个面部特征坐标。确定模块,用于从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,所述目标面部特征坐标为需要所述显示终端跟踪的目标用户的面部特征分布在所述当前图像中的坐标。生成模块,用于根据所述目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的所述当前裸眼3D图像适配目标用户的当前观看位置。
本发明实施例的有益效果是:
通过对采集的每一帧当前图像进行处理,从该当前图像中的至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标。由于,该目标面部特征坐标对应的是需要显示终端跟踪的目标用户,进而根据该目标面部特征坐标合成用于显示的当前裸眼3D图像后,显示的当前裸眼3D图像能够适配目标用户的当前观看位置。因此,实现了无论环境背景如何变化,显示终端均能够有效的对目标用户的面部进行跟踪,使得显示裸眼3D画面为实时适配用户的较佳3D效果。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的一种显示终端的结构框图;
图2示出了本发明第一实施例提供的一种面部跟踪方法的流程图;
图3示出了本发明第一实施例提供的一种面部跟踪方法中步骤S200的第一方法子流程图;
图4示出了本发明第一实施例提供的一种面部跟踪方法中步骤S200的第二方法子流程图;
图5示出了本发明第一实施例提供的一种面部跟踪方法中步骤S200的第三方法子流程图;
图6示出了本发明第一实施例提供的一种面部跟踪方法中步骤S200的第四方法子流程图;
图7示出了本发明第二实施例提供的面部跟踪装置的结构框图;
图8示出了本发明第二实施例提供的面部跟踪装置中采集模块的结构框图;
图9示出了本发明第二实施例提供的面部跟踪装置中确定模块的第一结构框图;
图10示出了本发明第二实施例提供的面部跟踪装置中确定模块的第二结构框图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参阅图1,图1是显示终端10的方框示意图。所述显示终端10包括:面部跟踪装置、存储器101、存储控制器102、处理器103、外设接口104、输入输出单元105、显示单元106、图像采集单元107和距离采集单元108。
所述存储器101、存储控制器102、处理器103、外设接口104、输入输出单元105、显示单元106、图像采集单元107和距离采集单元108,各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述面部跟踪装置包括至少一个可以软件或固件(firmware)的形式存储于所述存储器中或固化在所述显示终端10的Windows操作***中的软件功能模块。所述处理器103用于执行存储器101中存储的可执行模块,例如所述面部跟踪装置包括的软件功能模块或计算机程序。
其中,存储器101可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器101用于存储程序,所述处理器103在接收到执行指令后,执行所述程序,后续本发明实施例任一实施例揭示的过程定义的显示终端10所执行的方法可以应用于处理器103中,或者由处理器103实现。
处理器103可以是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(NetworkProcessor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器103可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述外设接口104将各种输入输出单元105耦合至处理器103以及存储器101。在一些实施例中,外设接口,处理器以及存储控制器可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
输入输出单元105用于提供给用户输入数据实现用户与数据采集终端的交互。所述输入输出单元可以是,但不限于,鼠标和键盘等。
显示单元106在所述移动终端与用户之间提供一个交互界面,例如用户操作界面,或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。此外,显示单元106还可用于显示裸眼3D画面。
图像采集单元107可安装在显示单元106上方,所述图像采集单元107可以为常规型号的可见光摄像头或红外摄像头等。图像采集单元107可用于将采集的位于显示单元106前方一定视场角度内的每一帧图像输出至处理器103进行处理。
距离采集单元108也可安装在显示单元106上方,所述距离采集单元108可以为常规型号距离传感器。所述距离采集单元108可用于将采集的位于显示单元106前方一定视场角度内目标物的距离输出至处理器103进行处理。
第一实施例
请参阅图1,本发明第一实施例提供了一种面部跟踪方法,该面部跟踪方法应用于显示终端,该面部跟踪方法包括:步骤S100、步骤S200和步骤S300。
步骤S100:从采集的当前图像中确定出至少一个面部特征坐标。
显示终端上设有的图像采集单元为常规的摄像头,故其使得显示终端能够按照一定的采样速率,例如60帧每秒,持续的采集多帧图像。其中,所采集的每一帧图像均可以为位于显示终端的显示单元前方一定视场角度内的图像。
当显示终端在持续的采集每一帧图像时,显示终端可对所采集的每一帧当前图像进行处理,以通过处理而提取出当前图像中的至少一个面部,并获得每个面部在该当前图像中的面部特征坐标,以获得至少一个面部特征坐标。本实施例中,显示终端可采用常规的图像识别提取算法对当前图像进行处理,从而判断出当前图像中到底有几个面部。例如,两个用户在采集某一当前图像的时刻面朝显示终端观看显示终端所显示的裸眼3D画面,则显示终端判断该当前图像中存在两个面部。之后,显示终端也可通过常规的图像识别提取算法,从每个面部中提取出对应的面部特征坐标,且该面部特征坐标可以为面部的双瞳之间中点的坐标。进一步的,显示终端在当前图像中便能够获得至少一个面部特征坐标。
具体的,在显示终端提取出一面部时,显示终端根据图像识别提取算法可去提取面部中各五官的坐标。例如,显示终端可获得:上嘴唇的坐标、鼻尖的坐标、左耳朵的坐标、右耳朵的坐标、左瞳孔的坐标和右瞳孔的坐标等。进一步的,显示终端可根据五官的坐标去获得该面部中的面部特征坐标。例如,显示终端可将上嘴唇的坐标或鼻尖的坐标作为面部特征坐标,或显示终端可将上嘴唇的坐标或鼻尖的坐标上移来获得面部特征坐标,或显示终端也可根据左耳朵的坐标和右耳朵的坐标确定出左耳朵的坐标和右耳朵的坐标之间的中点坐标作为面部特征坐标,或显示终端还根据左瞳孔的坐标和右瞳孔的坐标确定出左瞳孔的坐标和右瞳孔的坐标之间的中点坐标作为面部特征坐标等。其面部特征坐标的具体选择方式可根据具体实施进行调整,本实施例不做具体限定。
但在本实施例中,可选的,为便于后续的裸眼3D显示效果,显示终端可根据左瞳孔的坐标和右瞳孔的坐标来确定出面部特征坐标。具体的,显示终端根据当前图像,获得当前图像中每个面部图像的左瞳孔的坐标和右瞳孔的坐标之间的双瞳距离值,从而获得至少一个面部对应的至少一个双瞳距离值。进而也根据每个面部图像的左瞳孔的坐标和右瞳孔的坐标,显示终端可获得每个双瞳距离值对应的面部特征坐标。每个面部特征坐标均为对应的左瞳孔的坐标和右瞳孔的坐标之间的中点坐标。故显示终端可获得至少一个面部对应的至少一个面部特征坐标。
需要说明的是,所获得的至少一个双瞳距离值为便于后续流程中某实施方式的执行。若实际选择的实施方式不同,至少一个双瞳距离值可选择性获得,即其也可不获得。
步骤S200:从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,所述目标面部特征坐标为需要所述显示终端跟踪的目标用户的面部特征分布在所述当前图像中的坐标。
在从当前图像中获得至少一个面部特征坐标后,显示终端可进一步对该至少一个面部特征坐标进行处理。在本实施例中,显示终端中预先设定有一需要满足的预设标准,其中,满足预设标准可以为获得多个数据中的最大值或最小值,或满足预设标准也可以为获得多个数据位于范围值以内的某一数据。显示终端通过将至少一个面部特征坐标进行相互之间的比较,获将其与某一值比较,从而能够从至少一个面部特征坐标中获得到一满足预设标准的目标面部特征坐标。可以理解到,该目标面部特征坐标所以对应的用户即为显示终端需要实时跟踪的目标用户,而目标面部特征坐标也为需要显示终端跟踪的目标用户的面部特征分布在当前图像中的坐标。
步骤S300:根据所述目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的所述当前裸眼3D图像适配目标用户的当前观看位置。
当显示终端在当前图像中确定出目标面部特征坐标后,显示终端对该目标面部特征坐标做进一步的处理。本实施例中,显示终端中预设设置了一裸眼3D图像合成算法,该裸眼3D图像合成算法能够基于目标面部特征坐标,分别算出左眼需要观看到视频画面的偏移以及右眼需要观看到视频画面的偏移。进而显示终端根据裸眼3D图像合成算法得到偏移后的左眼视频画面和偏移后的右眼视频画面,并将偏移后的左眼视频画面和偏移后的右眼视频画面合成为用于显示的当前裸眼3D图像。
可以理解到,在显示终端显示当前裸眼3D图像时,偏移后的左眼视频画面能够适配目标用户在当前观看位置时该目标用户的左眼视差,且偏移后的右眼视频画面也能够适配目标用户在当前观看位置时该目标用户的右眼视差。进而通过根据目标面部特征坐标来合成用于显示的当前裸眼3D图像,使得就算目标用户所在环境复杂或该目标用户在不断运动,目标用户也能够观看到显示终端显示的较佳的裸眼3D效果,且还不会引起眼花、眩晕等不适感。
请参阅图3,在本发明实施例提供了一种面部跟踪方法中,步骤S200的方法子流程的第一实施方式包括:步骤S210和步骤S220。
步骤S210:获得所述至少一个面部特征坐标中的每个面部特征坐标与所述当前图像中的中心线之间的距离值,获得至少一个距离值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
在本实施方式中,显示终端可通中心线法则去确定出目标面部特征坐标。显示终端中预先设有一中心线的值,该中心线可适用到每一帧当前图像中,即通过该中心线可将当前图像平分为面积相同的左半部分和右半部分。
在获得至少一个面部特征坐标后,显示终端可以去计算至少一个面部特征坐标中的每个面部特征坐标与当前图像中的中心线之间的距离值。每个距离值均可以为该距离值对应的面部特征坐标点与中心线之间被垂直于中心线的一线段连接,该线段的长度值即为对应的一距离值。之后,显示终端便能够获得对应至少一个面部特征坐标的至少一个距离值。
步骤S220:从所述至少一个距离值中确定出数值最小的距离值作为所述满足预设标准的目标距离值,并将所述目标距离值对应的面部特征坐标作为所述目标面部特征坐标。
显示终端获得至少一个距离值后,显示终端根据至少一个距离值的进行运算,即将至少一个距离值中的每个距离值均与至少一个距离值中除该距离值之外的其它每个距离值比较,从而显示终端通过相互的比较,能够获得在至少一个距离值中数值最小的一个距离值。可以理解到,所满足的预设标准即为该距离值的数值是至少一个距离值中数值最小的距离值。进而显示终端将该数值最小的距离值作为目标距离值,并也将该目标距离值所对应线段所连接的一面部特征坐标作为目标面部特征坐标。因此,显示终端便通过距离值的比较,便从至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标。
需要说明的是,通过相互比较的方式确定出目标距离值仅其一种实施方式,不应当作为对本实施例的限定。其也可通过,例如,直接从至少一个距离值中选择出最小值。
可以理解到,通过中心线法则所确定出的目标部特征坐标所对应的目标用户应当是较为靠近显示单元的中间部分的用户,位于显示单元边缘部分的环境物体或者用户则被排除。
请参阅图4,在本发明实施例提供了一种面部跟踪方法中,步骤S200的方法子流程的第二实施方式包括:步骤S230和步骤S240。
步骤S230:获得所述至少一个面部特征坐标中的每个面部特征坐标与前一帧图像中对应的前面部特征坐标之间的坐标差值,获得至少一个坐标差值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
在本实施方式中,显示终端可通过最小变动法则去确定出目标面部特征坐标。显示终端中预先设有前一帧图像中确定出的前面部特征坐标。在获得至少一个面部特征坐标后,显示终端可将每个面部特征坐标均与前一帧图像中确定出的前面部特征坐标进行运算,即计算出每个面部特征坐标与前面部特征坐标之间的目标坐标差值。从而显示终端可获得对应至少一个面部特征坐标的数量的至少一个坐标差值。
步骤S240:从所述至少一个坐标差值中确定出数值最小的坐标差值作为所述满足预设标准的目标坐标差值,并将所述目标坐标差值对应的面部特征坐标作为所述目标面部特征坐标。
显示终端获得至少一个坐标差值后,显示终端根据至少一个坐标差值的进行运算,即将至少一个坐标差值中的每个坐标差值均与至少一个坐标差值中除该坐标差值之外的其它每个坐标差值比较,从而显示终端通过相互的比较,能够获得在至少一个坐标差值中数值最小的一个坐标差值。可以理解到,所满足的预设标准即为该坐标差值的数值是至少一个坐标差值中数值最小的坐标差值。进而显示终端也将该数值最小的坐标差值作为目标坐标差值,并也将该目标坐标差值所对应的一面部特征坐标作为目标面部特征坐标。因此,显示终端便通过坐标差值的比较,便从至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标。
需要说明的是,通过相互比较的方式确定出目标坐标差值仅其一种实施方式,不应当作为对本实施例的限定。其也可通过,例如,直接从至少一个坐标差值中选择出最小值。
可以理解到,通过最小变动法则所确定出的目标部特征坐标所对应的目标用户应当在观看过程中保持体态较为稳定的用户,在背景中快速运动环境物体或者突然移入移出的用户则被排除。
请参阅图5,在本发明实施例提供了一种面部跟踪方法中,步骤S200的方法子流程的第三实施方式包括:步骤S250和步骤S260。
步骤S250:从所述至少一个双瞳距离值中确定出数值最大的双瞳距离值作为所述满足预设标准的目标双瞳距离值。
在本实施方式中,显示终端可通过第一最近法则去确定出目标面部特征坐标。
在步骤S100的执行过程中,显示终端可获得到至少一个双瞳距离值。显示终端可认为作为目标用户,其在观看显示终端显示的裸眼3D画面时,其可以为最靠近显示终端的用户。
进一步的,显示终端根据至少一个双瞳距离值的进行运算,即将至少一个双瞳距离值中的每个坐标差值均与至少一个双瞳距离值中除该双瞳距离值之外的其它每个双瞳距离值比较,从而显示终端通过相互的比较,能够获得在至少一个双瞳距离值中数值最大的一个双瞳距离值。可以理解到,所满足的预设标准即为该双瞳距离值的数值是至少一个双瞳距离值中数值最大的双瞳距离值。进而显示终端也将该数值最大的双瞳距离值作为目标双瞳距离值。
需要说明的是,通过相互比较的方式确定出目标双瞳距离值仅其一种实施方式,不应当作为对本实施例的限定。其也可通过,例如,直接从至少一个双瞳距离值中选择出最大值。
步骤S260:将所述目标双瞳距离值对应的所述面部特征坐标作为的所述目标面部特征坐标,以从所述至少一个面部特征坐标中确定出所述目标面部特征坐标。
在确定出数值为最大值的目标双瞳距离值后,显示终端也根据该目标双瞳距离值去获得该目标双瞳距离值对应的面部特征坐标,并也将该面部特征坐标作为目标面部特征坐标。因此,也实现了从至少一个面部特征坐标中确定出目标面部特征坐标。
可以理解到,通过第一最近法则所确定出的目标部特征坐标所对应的目标用户应当在观看过程中最靠近显示终端的用户,在背景环境物体或围观的用户则被排除。
请参阅图6,在本发明实施例提供了一种面部跟踪方法中,步骤S200的方法子流程的第四实施方式包括:步骤S270、步骤S280和步骤S290。
步骤S270:获得所述目标用户的面部与所述显示终端之间的当前距离数据,并根据所述当前距离数据获得一对应的阈值范围。
显示终端上设有距离采集单元,在显示终端的图像采集单元持续的采集每一帧图像时,距离采集单元也对应的在采集每一帧图像的时刻去获得当前距离数据。进而使得显示终端也可在处理每一帧图像时,相应的获得该帧图像对应的当前距离数据。其中,该当前距离数据为距离采集单元所采的位于显示终端前方的目标用户的面部与显示终端之间的距离。此时,显示终端获得当前距离数据后,显示终端根据预设的算法,根据该当前距离数据可获得一个对应该当前距离数据的阈值范围。
步骤S280:从所述至少一个双瞳距离值确定出数值位于所述阈值范围以内的双瞳距离值作为所述满足预设标准的目标双瞳距离值。
获得阈值范围后,显示终端可将至少一个双瞳距离值中每个双瞳距离值均与该阈值范围匹配。由于该阈值范围是由距离检测对应目标用户而获得的,则通过匹配则可确定出至少一个双瞳距离值中的某一双瞳距离值的数值位于该阈值范围以内。进而通过匹配,显示终端则将该位于阈值范围以内的双瞳距离值作为目标双瞳距离值。
步骤S290:将所述目标双瞳距离值对应的所述面部特征坐标作为的所述目标面部特征坐标,以从所述至少一个面部特征坐标中确定出所述目标面部特征坐标。
在确定出数值匹配的目标双瞳距离值后,显示终端也根据该目标双瞳距离值去获得该目标双瞳距离值对应的面部特征坐标,并也将该面部特征坐标作为目标面部特征坐标。因此,也实现了从至少一个面部特征坐标中确定出目标面部特征坐标。
可以理解到,通过第二最近法则所确定出的目标部特征坐标所对应的目标用户应当为在当前观看时刻中最靠近显示终端的用户,在背景中出现大幅头像海报或围观的用户则被排除。
需要说明的是,在实际实施中,还可通过将上述的中心线法则、最小变动法、第一最近法则和第二最近法则中的至少任意两种结合来确定出目标面部特征坐标。例如,将中心线法则、最小变动法则、第一最近法则均结合,并通过线性加权、投票机制、布尔运算或分时触发来确定出目标面部特征坐标。
又例如,若采用线性加权时,再分别求得:通过中心线法则获得各距离值的倒数、通过最小变动法则获得各坐标差值的倒数、通过第一最近法则获得各双瞳距离值。之后,将相互对应的一坐标差值的倒数、一距离值的倒数和一各双瞳距离值分到一组,从而获得至少一组。之后,针对每组将每组内:坐标差值的倒数*系数1+距离值的倒数*系数2+双瞳距离值*系数3,且系数1+系数2+系数3为1,从而可获得每组对应的结果。此时在从至少一个结果中确定出数值最大的结果作为目标结果,而目标结果获得该坐标差值、距离值和双瞳距离值所对应的一面部特征坐标则可作为目标面部特征坐标。可以理解到,通过上述的混合方式能够有效的提高目标面部特征坐标确定的准确性。
又例如,若采用投票机制时,当通过中心线法则确定出的目标面部特征坐标为A,通过最小变动法则确定出的目标面部特征坐标为A,而通过第一最近法则确定出的目标面部特征坐标为B。则通过投票机制的2比1,确定目标面部特征坐标为A为最终的目标面部特征坐标。可以理解到,通过上述的混合方式也能够有效的提高目标面部特征坐标确定的准确性。
此外,在本实施例中,用户还可通过自己的需求手动控制显示终端,以实现手动切换显示终端确定目标面部特征的各法则。例如,若用户觉得不满采用中心线法,则操作显示终端将中心线法切换为采用最小变动法则、第一最近法则和第二最近法则中的任意一种。
再者,通过对显示终端执行大量的行为模式的学习训练,显示终端可根据场景自动切换所采用的法则。例如当检测到场景中面部的分布状况,在较多时间内呈现为目标用户在前、多人簇拥时,则显示终端自动切换为第一最近法则获第二最近法则,当目标用户较多时间处于正面注视观看,偶尔会转头时,则显示终端自动切换为中心线法则。
第二实施例
请参阅图7,本发明第二实施例提供了一种面部跟踪装置100,该面部跟踪装置100应用于一显示终端,该面部跟踪装置100包括:
采集模块110,用于从采集的当前图像中确定出至少一个面部特征坐标。
确定模块120,用于从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,所述目标面部特征坐标为需要所述显示终端跟踪的目标用户的面部特征分布在所述当前图像中的坐标.
生成模块130,用于根据所述目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的所述当前裸眼3D图像适配目标用户的当前观看位置。
请参阅图8,在本发明第二实施例提供的一种面部跟踪装置100中,采集模块110包括:
瞳距获取单元111,用于从所述当前图像中获得每个面部图像中的双瞳距离值,共至少一个双瞳距离值。
坐标采集单元112,用于获得所述至少一个双瞳距离值中每个双瞳距离值对应的面部特征坐标,共至少一个面部特征坐标,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
请参阅图9,在本发明第二实施例提供的一种面部跟踪装置100中,确定模块120包括:
第一获得单元121,用于获得所述至少一个面部特征坐标中的每个面部特征坐标与所述当前图像中的中心线之间的距离值,获得至少一个距离值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
第一确定单元122,用于从所述至少一个距离值中确定出数值最小的距离值作为所述满足预设标准的目标距离值,并将所述目标距离值对应的面部特征坐标作为所述目标面部特征坐标。
请参阅图10,在本发明第二实施例提供的一种面部跟踪装置100中,确定模块120还包括:
第二获得单元123,用于获得所述至少一个面部特征坐标中的每个面部特征坐标与前一帧图像中对应的前面部特征坐标之间的坐标差值,获得至少一个坐标差值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
第二确定单元124,用于从所述至少一个坐标差值中确定出数值最小的坐标差值作为所述满足预设标准的目标坐标差值,并将所述目标坐标差值对应的面部特征坐标作为所述目标面部特征坐标。
需要说明的是,由于所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、***和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例所提供的进行处理器可执行的非易失的程序代码的计算机可读存储介质的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、***和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、***和方法,可以通过其它的方式实现。以上所描述的***实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,***或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
综上所述,本发明实施例提供了一种面部跟踪方法及装置,面部跟踪方法应用于一显示终端。方法包括:从采集的当前图像中确定出至少一个面部特征坐标;从至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,目标面部特征坐标为需要显示终端跟踪的目标用户的面部特征分布在当前图像中的坐标;根据目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的当前裸眼3D图像适配目标用户的当前观看位置。
通过对采集的每一帧当前图像进行处理,从该当前图像中的至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标。由于,该目标面部特征坐标对应的是需要显示终端跟踪的目标用户,进而根据该目标面部特征坐标合成用于显示的当前裸眼3D图像后,显示的当前裸眼3D图像能够适配目标用户的当前观看位置。因此,实现了无论环境背景如何变化,显示终端均能够有效的对目标用户的面部进行跟踪,使得显示裸眼3D画面为实时适配用户的较佳3D效果。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种面部跟踪方法,其特征在于,应用于一显示终端,所述方法包括:
从采集的当前图像中确定出至少一个面部特征坐标;
从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,所述目标面部特征坐标为需要所述显示终端跟踪的目标用户的面部特征分布在所述当前图像中的坐标;
根据所述目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的所述当前裸眼3D图像适配目标用户的当前观看位置。
2.根据权利要求1所述的面部跟踪方法,其特征在于,所述从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,包括:
获得所述至少一个面部特征坐标中的每个面部特征坐标与所述当前图像中的中心线之间的距离值,获得至少一个距离值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标;
从所述至少一个距离值中确定出数值最小的距离值作为所述满足预设标准的目标距离值,并将所述目标距离值对应的面部特征坐标作为所述目标面部特征坐标。
3.根据权利要求1所述的面部跟踪方法,其特征在于,所述从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,包括:
获得所述至少一个面部特征坐标中的每个面部特征坐标与前一帧图像中对应的前面部特征坐标之间的坐标差值,获得至少一个坐标差值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标;
从所述至少一个坐标差值中确定出数值最小的坐标差值作为所述满足预设标准的目标坐标差值,并将所述目标坐标差值对应的面部特征坐标作为所述目标面部特征坐标。
4.根据权利要求1所述的面部跟踪方法,其特征在于,所述从采集的当前图像中确定出至少一个面部特征坐标,包括:
从所述当前图像中获得每个面部图像中的双瞳距离值,共至少一个双瞳距离值;
获得所述至少一个双瞳距离值中每个双瞳距离值对应的面部特征坐标,共至少一个面部特征坐标,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
5.根据权利要求4所述的面部跟踪方法,其特征在于,所述从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,包括:
获得所述目标用户的面部与所述显示终端之间的当前距离数据,并根据所述当前距离数据获得一对应的阈值范围;
从所述至少一个双瞳距离值确定出数值位于所述阈值范围以内的双瞳距离值作为所述满足预设标准的目标双瞳距离值;
将所述目标双瞳距离值对应的所述面部特征坐标作为的所述目标面部特征坐标,以从所述至少一个面部特征坐标中确定出所述目标面部特征坐标。
6.根据权利要求4所述的面部跟踪方法,其特征在于,所述从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,包括:
从所述至少一个双瞳距离值中确定出数值最大的双瞳距离值作为所述满足预设标准的目标双瞳距离值;
将所述目标双瞳距离值对应的所述面部特征坐标作为的所述目标面部特征坐标,以从所述至少一个面部特征坐标中确定出所述目标面部特征坐标。
7.一种面部跟踪装置,其特征在于,应用于一显示终端,所述装置包括:
采集模块,用于从采集的当前图像中确定出至少一个面部特征坐标;
确定模块,用于从所述至少一个面部特征坐标中确定出满足预设标准的目标面部特征坐标,其中,所述目标面部特征坐标为需要所述显示终端跟踪的目标用户的面部特征分布在所述当前图像中的坐标;
生成模块,用于根据所述目标面部特征坐标合成用于显示的当前裸眼3D图像,以使显示的所述当前裸眼3D图像适配目标用户的当前观看位置。
8.根据权利要求7所述的面部跟踪装置,其特征在于,所述确定模块包括:
第一获得单元,用于获得所述至少一个面部特征坐标中的每个面部特征坐标与所述当前图像中的中心线之间的距离值,获得至少一个距离值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标;
第一确定单元,用于从所述至少一个距离值中确定出数值最小的距离值作为所述满足预设标准的目标距离值,并将所述目标距离值对应的面部特征坐标作为所述目标面部特征坐标。
9.根据权利要求7所述的面部跟踪装置,其特征在于,所述确定模块包括:
第二获得单元,用于获得所述至少一个面部特征坐标中的每个面部特征坐标与前一帧图像中对应的前面部特征坐标之间的坐标差值,获得至少一个坐标差值,其中,所述每个面部特征坐标均为双瞳之间中点的坐标;
第二确定单元,用于从所述至少一个坐标差值中确定出数值最小的坐标差值作为所述满足预设标准的目标坐标差值,并将所述目标坐标差值对应的面部特征坐标作为所述目标面部特征坐标。
10.根据权利要求7所述的面部跟踪装置,其特征在于,所述采集模块包括:
瞳距获取单元,用于从所述当前图像中获得每个面部图像中的双瞳距离值,共至少一个双瞳距离值;
坐标采集单元,用于获得所述至少一个双瞳距离值中每个双瞳距离值对应的面部特征坐标,共至少一个面部特征坐标,其中,所述每个面部特征坐标均为双瞳之间中点的坐标。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711063566.9A CN107833263A (zh) | 2017-11-01 | 2017-11-01 | 面部跟踪方法及装置 |
PCT/CN2018/092634 WO2019085519A1 (zh) | 2017-11-01 | 2018-06-25 | 面部跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711063566.9A CN107833263A (zh) | 2017-11-01 | 2017-11-01 | 面部跟踪方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107833263A true CN107833263A (zh) | 2018-03-23 |
Family
ID=61651574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711063566.9A Pending CN107833263A (zh) | 2017-11-01 | 2017-11-01 | 面部跟踪方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN107833263A (zh) |
WO (1) | WO2019085519A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019085519A1 (zh) * | 2017-11-01 | 2019-05-09 | 宁波视睿迪光电有限公司 | 面部跟踪方法及装置 |
CN111246196A (zh) * | 2020-01-19 | 2020-06-05 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置、电子设备及计算机可读存储介质 |
CN114173109A (zh) * | 2022-01-12 | 2022-03-11 | 纵深视觉科技(南京)有限责任公司 | 一种观看用户跟踪方法、装置、电子设备及存储介质 |
CN114356088A (zh) * | 2021-12-30 | 2022-04-15 | 纵深视觉科技(南京)有限责任公司 | 一种观看者跟踪方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2486444A1 (fr) * | 2009-10-05 | 2012-08-15 | Interactif Visuel System (I V S) | Procede et equipement de mesures pour la personnalisation et le montage de lentilles ophtalmiques correctrices |
CN103402106A (zh) * | 2013-07-25 | 2013-11-20 | 青岛海信电器股份有限公司 | 三维图像显示方法及装置 |
CN104683786A (zh) * | 2015-02-28 | 2015-06-03 | 上海玮舟微电子科技有限公司 | 裸眼3d设备的人眼跟踪方法及装置 |
CN105072431A (zh) * | 2015-07-28 | 2015-11-18 | 上海玮舟微电子科技有限公司 | 一种基于人眼跟踪的裸眼3d播放方法及*** |
CN106218409A (zh) * | 2016-07-20 | 2016-12-14 | 长安大学 | 一种可人眼跟踪的裸眼3d汽车仪表显示方法及装置 |
CN106709303A (zh) * | 2016-11-18 | 2017-05-24 | 深圳超多维科技有限公司 | 一种显示方法、装置及智能终端 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102830793B (zh) * | 2011-06-16 | 2017-04-05 | 北京三星通信技术研究有限公司 | 视线跟踪方法和设备 |
TWI509463B (zh) * | 2013-06-03 | 2015-11-21 | Utechzone Co Ltd | 一種使螢幕中的游標移至可按物件的方法及用於實現該方法的電腦系統與電腦程式產品 |
KR101745140B1 (ko) * | 2015-09-21 | 2017-06-08 | 현대자동차주식회사 | 시선 추적 장치 및 방법 |
CN106843821A (zh) * | 2015-12-07 | 2017-06-13 | 百度在线网络技术(北京)有限公司 | 自动调整屏幕的方法和装置 |
CN105955465A (zh) * | 2016-04-25 | 2016-09-21 | 华南师范大学 | 一种桌面便携式视线跟踪方法及装置 |
CN107833263A (zh) * | 2017-11-01 | 2018-03-23 | 宁波视睿迪光电有限公司 | 面部跟踪方法及装置 |
-
2017
- 2017-11-01 CN CN201711063566.9A patent/CN107833263A/zh active Pending
-
2018
- 2018-06-25 WO PCT/CN2018/092634 patent/WO2019085519A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2486444A1 (fr) * | 2009-10-05 | 2012-08-15 | Interactif Visuel System (I V S) | Procede et equipement de mesures pour la personnalisation et le montage de lentilles ophtalmiques correctrices |
CN103402106A (zh) * | 2013-07-25 | 2013-11-20 | 青岛海信电器股份有限公司 | 三维图像显示方法及装置 |
CN104683786A (zh) * | 2015-02-28 | 2015-06-03 | 上海玮舟微电子科技有限公司 | 裸眼3d设备的人眼跟踪方法及装置 |
CN105072431A (zh) * | 2015-07-28 | 2015-11-18 | 上海玮舟微电子科技有限公司 | 一种基于人眼跟踪的裸眼3d播放方法及*** |
CN106218409A (zh) * | 2016-07-20 | 2016-12-14 | 长安大学 | 一种可人眼跟踪的裸眼3d汽车仪表显示方法及装置 |
CN106709303A (zh) * | 2016-11-18 | 2017-05-24 | 深圳超多维科技有限公司 | 一种显示方法、装置及智能终端 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019085519A1 (zh) * | 2017-11-01 | 2019-05-09 | 宁波视睿迪光电有限公司 | 面部跟踪方法及装置 |
CN111246196A (zh) * | 2020-01-19 | 2020-06-05 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置、电子设备及计算机可读存储介质 |
CN114356088A (zh) * | 2021-12-30 | 2022-04-15 | 纵深视觉科技(南京)有限责任公司 | 一种观看者跟踪方法、装置、电子设备及存储介质 |
CN114356088B (zh) * | 2021-12-30 | 2024-03-01 | 纵深视觉科技(南京)有限责任公司 | 一种观看者跟踪方法、装置、电子设备及存储介质 |
CN114173109A (zh) * | 2022-01-12 | 2022-03-11 | 纵深视觉科技(南京)有限责任公司 | 一种观看用户跟踪方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019085519A1 (zh) | 2019-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238568B2 (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
CN110363867B (zh) | 虚拟装扮***、方法、设备及介质 | |
US10665022B2 (en) | Augmented reality display system for overlaying apparel and fitness information | |
US9842246B2 (en) | Fitting glasses frames to a user | |
CN107833263A (zh) | 面部跟踪方法及装置 | |
Harezlak et al. | Towards accurate eye tracker calibration–methods and procedures | |
CN109343700B (zh) | 眼动控制校准数据获取方法和装置 | |
US20200005521A1 (en) | Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity | |
KR20200079170A (ko) | 시선 추정 방법 및 시선 추정 장치 | |
CN110780742B (zh) | 眼球追踪处理方法及相关装置 | |
Sun et al. | Real-time gaze estimation with online calibration | |
CN107422844B (zh) | 一种信息处理方法及电子设备 | |
CN110503068A (zh) | 视线估计方法、终端及存储介质 | |
Shi et al. | SalientGaze: Saliency-based gaze correction in virtual reality | |
Blignaut | Idiosyncratic feature-based gaze mapping | |
CN105590015A (zh) | 信息图热点采集方法、处理方法和装置及热点*** | |
US10345595B2 (en) | Head mounted device with eye tracking and control method thereof | |
CN114895789A (zh) | 一种人机交互方法、装置、电子设备和存储介质 | |
Pourazar et al. | A comprehensive framework for evaluation of stereo correspondence solutions in immersive augmented and virtual realities | |
CN114881741A (zh) | 一种基于虚拟现实直播场景的商品推荐*** | |
CN114926324A (zh) | 基于真实人物图像的虚拟试衣模型训练方法、虚拟试衣方法、装置及设备 | |
CN113132642A (zh) | 图像显示的方法及装置、电子设备 | |
Hassoumi et al. | Uncertainty visualization of gaze estimation to support operator-controlled calibration | |
CN110162187A (zh) | 基于人工智能的眼球移动识别方法及装置 | |
CN117750126A (zh) | 视频处理方法及装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180323 |