CN109147024A - 基于三维模型的表情更换方法和装置 - Google Patents

基于三维模型的表情更换方法和装置 Download PDF

Info

Publication number
CN109147024A
CN109147024A CN201810934577.8A CN201810934577A CN109147024A CN 109147024 A CN109147024 A CN 109147024A CN 201810934577 A CN201810934577 A CN 201810934577A CN 109147024 A CN109147024 A CN 109147024A
Authority
CN
China
Prior art keywords
expression
coordinate information
key
target
human face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810934577.8A
Other languages
English (en)
Inventor
杜成鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201810934577.8A priority Critical patent/CN109147024A/zh
Publication of CN109147024A publication Critical patent/CN109147024A/zh
Priority to EP19191508.1A priority patent/EP3621038A3/en
Priority to PCT/CN2019/100601 priority patent/WO2020035001A1/en
Priority to US16/542,025 priority patent/US11069151B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种基于三维模型的表情更换方法和装置,其中方法包括:获取当前建立的人脸三维模型中第一关键点的坐标信息,根据第一关键点的坐标信息确定人脸三维模型的当前表情;获取第一关键点的坐标信息与待更换的目标表情对应匹配的第二关键点的坐标信息之间的坐标差;根据坐标差对第一关键点的坐标信息进行相应调整,生成包含第二关键点的坐标信息与目标表情对应的人脸三维模型。由此,提高了基于表情变化的人脸三维模型的构建效率。

Description

基于三维模型的表情更换方法和装置
技术领域
本申请涉及人像处理技术领域,尤其涉及一种基于三维模型的表情更换方法和装置。
背景技术
随着计算机技术的进步,基于人脸的图像处理技术已经从二维转向了三维,由于基于三维的图像处理的真实感更强而得到广泛的关注。
相关技术中,在构建完成基于人脸的三维模型后,如果用户对构建的模型不够满意,则需要重新构建,从而导致三维模型的计算量较大,构建效率较低。
申请内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
本申请第一方面实施例提出了一种基于三维模型的表情更换方法,包括以下步骤:获取当前建立的人脸三维模型参考关键点展现的当前表情;根据预设的待更换的目标表情对应的目标关键点,在所述人脸三维模型中确定与所述目标关键点对应匹配部位的参考关键点;获取所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差;根据所述坐标差对所述参考关键点的坐标信息进行相应调整,生成与所述目标表情对应的人脸三维模型。
本申请第二方面实施例提出了一种基于三维模型的表情更换装置,包括:获取模块,用于获取当前建立的人脸三维模型参考关键点展现的当前表情;确定模块,用于根据预设的待更换的目标表情对应的目标关键点,在所述人脸三维模型中确定与所述目标关键点对应匹配部位的参考关键点;所述获取模块,用于获取所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差;生成模块,用于根据所述坐标差对所述参考关键点的坐标信息进行相应调整,生成与所述目标表情对应的人脸三维模型。
本申请第三方面实施例提出了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如前述第一方面实施例所述的基于三维模型的表情更换方法。
本申请第四方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前述第一方面实施例所述的基于三维模型的表情更换方法。
本申请提供的技术方案,至少包括如下有益效果:
获取当前建立的人脸三维模型参考关键点展现的当前表情,根据预设的待更换的目标表情对应的目标关键点,在人脸三维模型中确定与目标关键点对应匹配部位的参考关键点,获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差,进而,根据坐标差对参考关键点的坐标信息进行相应调整,生成与目标表情对应的人脸三维模型。由此,提高了基于表情更换的三维建模速度,有助于三维建模技术的应用推广。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本申请第一个实施例的基于三维模型的表情更换方法的流程图;
图2是根据本申请第二个实施例的基于三维模型的表情更换方法的流程图;
图3是根据本申请第三个实施例的基于三维模型的表情更换方法的流程图;
图4是根据本申请第四个实施例的基于三维模型的表情更换方法的流程图;
图5是根据本申请一个实施例的基于三维模型的表情更换方法的应用场景示意图;
图6是根据本申请第五个实施例的基于三维模型的表情更换方法的流程图;
图7是根据本申请一个实施例的基于三维模型的表情更换装置的结构示意图;
图8是根据本申请另一个实施例的基于三维模型的表情更换装置的结构示意图;
图9是根据本申请又一个实施例的基于三维模型的表情更换装置的结构示意图;
图10本申请实施例所提供的电子设备的结构示意图;
图11为一个实施例中图像处理电路的示意图;
图12为作为一种可能的实现方式的图像处理电路的示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
针对现有技术中,当用户对构建的三维模型不满意而重新构建导致的构建效率较低的技术问题,本申请提出了一种基于三维模型的渲染方法,在本申请中,寻找用户满意的三维模型和当前构建的三维模型的差异性,基于该差异性在原有的三维模型上进行调整,从而,提高了三维模型的重建效率。
在本申请的实施例中,基于表情更换时,针对更换后的目标表情重建三维模型的场景进行描述。
下面参考附图描述本申请实施例的基于三维模型的表情更换方法和装置。本申请实施例的基于三维模型的表情更换可以应用于具有深度信息和彩色信息获取装置的计算机设备,其中,具有深度信息和彩色信息(二维信息)获取装置功能的装置可以是双摄***等,该计算机设备可以为手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作***、触摸屏和/或显示屏的硬件设备。
图1是根据本申请第一个实施例的基于三维模型的表情更换方法的流程图,如图1所示,该方法包括以下步骤:
步骤101,获取当前建立的人脸三维模型参考关键点展现的当前表情。
应当理解的是,人脸三维模型实际上是由关键点以及关键点连接形成的三角网络搭建的,其中,对整个三维模型的模型形状具有主要影响的部位对应的关键点可以理解为本申请实施例中的参考关键点,该参考关键点可以区分出不同的表情,因而,可以对应于人脸表情差异化体现的嘴巴、眼睛等关键部位所包括的关键点。
需要说明的是,根据应用场景的不同,获取当前建立的人脸三维模型参考关键点展现的当前表情的参考方式不同,作为一种可能的实现方式,如图2所示,该获取当前表情的方式包括:
步骤201,确定当前建立的人脸三维模型中的多个关键部位的特征点。
步骤202,根据多个关键部位特征点的坐标信息以及多个关键部位之间的距离,提取多个关键部位的特征向量。
步骤203,通过预先训练的神经网络对多个关键部位的特征向量进行分析,确定人脸三维模型的当前表情。
可以理解,在本示例中,预先根据大量实验数据训练神经网络模型,该神经网络的输入为多个关键部位特征点的坐标信息以及多个关键部位之间的距离对应的多个关键部位的特征向量,输出为表情。
在本示例中,确定当前建立的人脸三维模型中的多个关键部位的特征点,比如通过图像识别技术等确定嘴巴等关键部位的特征点,进而,根据多个关键部位特征点的坐标信息以及多个关键部位之间的距离,提取多个关键部位的特征向量,通过预先训练的神经网络对多个关键部位的特征向量进行分析,确定人脸三维模型的当前表情。
步骤102,根据预设的待更换的目标表情对应的目标关键点,在人脸三维模型中确定与目标关键点对应匹配部位的参考关键点。
其中,预设的待更换的目标表情和当前表情可基本涵盖用户的表情变化需求,比如,包括开心、难过、忧伤、哀愁这四种常用的表情等。
为了准确定位出预设的待更换的目标表情,定位出与目标表情对应的目标关键点,该目标关键点包括指示目标表情的眼睛、嘴巴等部位对应的关键点,进而,在人脸三维模型中确定与目标关键点对应匹配部位的参考关键点,由此,通过参考关键点定位给出从当前表情切换至目标表情时需要变化的参考关键点。
步骤103,获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差。
步骤104,根据坐标差对参考关键点的坐标信息进行相应调整,生成与目标表情对应的人脸三维模型。
正如以上分析的,人脸三维模型实际上是由关键点搭建而成的,因而通过人脸模型的变化和搭建实际上是由关键点的坐标值的变化来实现的,因而,在本申请的实施例中,为了实现对目标表情对应的三维模型的构建,需要获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差,以根据坐标差对参考关键点的坐标信息进行相应调整,生成与目标表情对应的人脸三维模型。
需要说明的是,根据应用场景的不同,获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差的方式不同,示例说明如下:
第一种示例:
在本示例中,如图3所示,获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差,包括:
步骤301,查询预设的参考表情定位信息,获取与当前表情对应的参考关键点坐标信息,以及与目标表情对应的目标关键点的坐标信息。
步骤302,计算参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差。
预设的参考表情定位信息包括与每个表情对应的关键点的坐标等,在本示例中,查询预设的参考表情定位信息,获取与当前表情对应的参考关键点坐标信息,以及与目标表情对应的目标关键点的坐标信息,进而,计算参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差。
第二种示例:
在本示例中,预先计算针对每个待切换的表情与当前表情的坐标差,并存储切换为每个待切换表情对应的关键点的坐标差与待切换表情的对应关系,从而,在获取到目标表情后,查询该对应关系,获取到对应的与当前目标表情对应的坐标差。
在实际执行过程中,考虑到预设的待切换的目标表情的有限性,可能有些时候难以与用户得个性化需求相适配,因而,在本申请的一个实施例中,在生成与目标表情对应的人脸三维模型后,还为用户提供可调的空间。
具体而言,如图4所示,在上述步骤104之后,该方法还包括:
步骤401,生成与每个关键部位对应的调整控件,其中,调整控件用于将每个关键部位在相应预设范围内进行调整。
需要强调的是,为了满足当前表情到目标表情的切换的前提,上述调整控件的调整力度是在因素而后范围内的,以保证调整后的表情仍然和目标表情属于同一个类别,比如都是忧伤的表情等,其中,根据人脸三维模型的不同,该预设范围不同。
具体地,生成与每个关键部位对应的调整控件,在本实施例中,根据应用场景的不同,调整控件的实现方式不同,作为一种可能的实现方式,调整控件为调整进度条,从而,如图5所示,生成与每个关键部位对应的调整进度条,检测用户对关键部位对应的调整进度条进行的移动操作,其中,进度条的不同进度位置可对应于对关键部位向某一个方向的调整角度等,比如,对于眼睛部位,进度条的不同进度位置可对应于眼睛的不同弯曲程度。
步骤402,获取用户对调整控件的操作信息,根据操作信息获取所需调整的部位标识和调整角度。
其中,部位标识可以为关键部位的名称等。
步骤403,根据调整角度调整与部位标识对应的关键部位。
具体地,获取用户对调整控件的操作信息,根据操作信息获取所需调整的部位标识和调整角度,比如,当调整控件为进度条时,获取用户拖动的进度条对应的关键部位和对应的拖动距离(该拖动距离对应于调整角度),进而根据该调整角度调整与部位标识对应的关键部位。
从而,在本实施例中,在保证了建立与目标表情对应的人脸三维模型之后,还可在保证该目标表情的基础上,进行符合用户个人喜好的微调,满足了用户的个性化需求。
在本申请的一个实施例中,为了进一步使得生成的与目标表情对应的人脸三维模型能够更加满足用户的个性化需求,还可基于用户的个人喜好对与所述目标表情对应的人脸三维模型进一步调整。
具体而言,如图6所示,在上述步骤104之后,该方法还包括:
步骤501,获取用户预设的与目标表情对应的关键部位的状态特征。
可以理解的是,与目标表情对应的关键部位可以为适配于目标表情的相关部位,比如,当目标表情是微笑时,则对应的关键部位可以包括嘴巴、脸颊、眉毛等,与关键部位对应的状态特征包括相关的相关部位的状态,比如,关键部位为眼睛时,则对应的状态特征可以包括眼睛的睁闭等。该关键部位的关键特征可以是由用户根据个人喜好预先设置的。
步骤502,根据状态特征调整人脸三维模型中相应关键部位的状态。
具体地,根据状态特征调整人脸三维模型中相应关键部位的状态,以使得调整后的人脸三维模型更加符合用户的个人喜好,其中,需要强调的是,本实施例中的关键部位的状态特征,能够渲染出与当前目标表情相一致的感情效果而不是改变了目标表情所表达的感情。
比如,当目标表情为大笑时,获取到用户的预设的与目标表情对应的关键部位的状态特征为脸颊位置酒窝位置的凹陷等,从而,根据状态特征调整人脸三维模型中脸颊位置酒窝位置,营造出酒窝的效果,使得大笑所渲染的开心的情绪更加突出。
又比如,当目标表情为微笑时,获取到用户的预设的与目标表情对应的关键部位的状态特征为右眼微眯等,从而,根据状态特征调整人脸三维模型中右眼的位置微闭,营造出眨眼的效果,使得微笑所渲染的可爱的情绪更加突出。
综上,本申请实施例的基于三维模型的表情更换方法,获取当前建立的人脸三维模型参考关键点展现的当前表情,根据预设的待更换的目标表情对应的目标关键点,在人脸三维模型中确定与目标关键点对应匹配部位的参考关键点,获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差,进而,根据坐标差对参考关键点的坐标信息进行相应调整,生成与目标表情对应的人脸三维模型。由此,提高了基于表情更换的三维建模速度,有助于三维建模技术的应用推广。
为了实现上述实施例,本申请还提出一种基于三维模型的表情更换装置,图7是根据本申请一个实施例的基于三维模型的表情更换装置的结构示意图,如图7所示,该装置包括:获取模块10、确定模块20和生成模块30。
其中,获取模块10,用于获取当前建立的人脸三维模型参考关键点展现的当前表情。
确定模块20,用于根据预设的待更换的目标表情对应的目标关键点,在人脸三维模型中确定与目标关键点对应匹配部位的参考关键点。
获取模块10,用于获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差;
生成模块30,用于根据坐标差对参考关键点的坐标信息进行相应调整,生成与目标表情对应的人脸三维模型。
在本申请的一个实施例中,如图8所示,在如图7所示的基础上,获取模块10包括第一确定单元11、提取单元12和第二确定单元13。
其中,第一确定单元11,用于确定当前建立的人脸三维模型中的多个关键部位的特征点。
提取单元12,用于根据多个关键部位特征点的坐标信息以及多个关键部位之间的距离,提取多个关键部位的特征向量。
第二确定单元13,用于通过预先训练的神经网络对多个关键部位的特征向量进行分析,确定人脸三维模型的当前表情。
在本申请的一个实施例中,如图9所示,在如图7所示的基础上,获取模块10包括获取单元14和计算单元15,其中,
获取单元14,用于查询预设的参考表情定位信息,获取与当前表情对应的参考关键点坐标信息,以及与目标表情对应的目标关键点的坐标信息。
计算单元15,用于计算参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差。
需要说明的是,前述对基于三维模型的表情更换方法实施例的解释说明也适用于该实施例的基于三维模型的表情更换装置,此处不再赘述。
综上,本申请实施例的基于三维模型的表情更换装置,获取当前建立的人脸三维模型参考关键点展现的当前表情,根据预设的待更换的目标表情对应的目标关键点,在人脸三维模型中确定与目标关键点对应匹配部位的参考关键点,获取参考关键点的坐标信息与目标关键点的坐标信息之间的坐标差,进而,根据坐标差对参考关键点的坐标信息进行相应调整,生成与目标表情对应的人脸三维模型。由此,提高了基于表情更换的三维建模速度,有助于三维建模技术的应用推广。
为了实现上述实施例,本申请还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被移动终端的处理器执行时实现如前述实施例中所述的基于三维模型的表情更换方法。
为了实现上述实施例,本申请还提出一种电子设备。
图10为一个实施例中电子设备200的内部结构示意图。该电子设备200包括通过***总线210连接的处理器220、存储器230、显示器240和输入装置250。其中,电子设备200的存储器230存储有操作***和计算机可读指令。该计算机可读指令可被处理器220执行,以实现本申请实施方式的基于三维模型的表情更换方法。该处理器220用于提供计算和控制能力,支撑整个电子设备200的运行。电子设备200的显示器240可以是液晶显示屏或者电子墨水显示屏等,输入装置250可以是显示器240上覆盖的触摸层,也可以是电子设备200外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该电子设备200可以是手机、平板电脑、笔记本电脑、个人数字助理或穿戴式设备(例如智能手环、智能手表、智能头盔、智能眼镜)等。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的示意图,并不构成对本申请方案所应用于其上的电子设备200的限定,具体的电子设备200可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
基于以上实施例,本申请的实施例中,当前建立的人脸三维模型可以是由终端设备中的图像处理电路实现的,为了使得本领域的技术人员对人脸三维模型的建立过程更加清楚,下面结合一种可能的图像处理电路进行说明。
如图11所示,该图像处理电路包括图像单元310、深度信息单元320和处理单元330。其中,
图像单元310,用于输出用户当前的原始二维人脸图像。
深度信息单元320,用于输出与原始二维人脸图像对应的深度信息。
处理单元330,分别与图像单元和深度信息单元电性连接,用于根据深度信息和原始二维人脸图像进行三维重构,获取展现当前表情的人脸三维模型。
本申请实施例中,图像单元310具体可以包括:电性连接的图像传感器311和图像信号处理(Image Signal Processing,简称ISP)处理器312。其中,
图像传感器311,用于输出原始图像数据。
ISP处理器312,用于根据所述原始图像数据,输出所述原始二维人脸图像。
本申请实施例中,图像传感器311捕捉的原始图像数据首先由ISP处理器312处理,ISP处理器312对原始图像数据进行分析以捕捉可用于确定图像传感器311的一个或多个控制参数的图像统计信息,包括YUV格式或者RGB格式的人脸图像。其中,图像传感器311可包括色彩滤镜阵列(如Bayer滤镜),以及对应的感光单元,图像传感器311可获取每个感光单元捕捉的光强度和波长信息,并提供可由ISP处理器312处理的一组原始图像数据。ISP处理器312对原始图像数据进行处理后,得到YUV格式或者RGB格式的人脸图像,并发送至处理单元330。
其中,ISP处理器312在对原始图像数据进行处理时,可以按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器312可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
作为一种可能的实现方式,深度信息单元320,包括电性连接的结构光传感器321和深度图生成芯片322。其中,
结构光传感器321,用于生成红外散斑图。
深度图生成芯片322,用于根据红外散斑图,输出与原始二维人脸图像对应的深度信息。
本申请实施例中,结构光传感器321向被摄物投射散斑结构光,并获取被摄物反射的结构光,根据反射的结构光成像,得到红外散斑图。结构光传感器321将该红外散斑图发送至深度图生成芯片322,以便深度图生成芯片322根据红外散斑图确定结构光的形态变化情况,进而据此确定被摄物的深度,得到深度图(Depth Map),该深度图指示了红外散斑图中各像素点的深度。深度图生成芯片322将深度图发送至处理单元330。
作为一种可能的实现方式,处理单元330,包括:电性连接的CPU331和GPU(Graphics Processing Unit,图形处理器)332。其中,
CPU331,用于根据标定数据,对齐人脸图像与深度图,根据对齐后的人脸图像与深度图,输出人脸三维模型。
GPU332,用于根据所述坐标差对所述参考关键点的坐标信息进行相应调整,生成与所述目标表情对应的人脸三维模型。
本申请实施例中,CPU331从ISP处理器312获取到人脸图像,从深度图生成芯片322获取到深度图,结合预先得到的标定数据,可以将人脸图像与深度图对齐,从而确定出人脸图像中各像素点对应的深度信息。进而,CPU331根据深度信息和人脸图像,进行三维重构,得到人脸三维模型。
CPU331将人脸三维模型发送至GPU332,以便GPU332根据人脸三维模型执行如前述实施例中描述的基于三维模型的表情更换方法。进一步地,图像处理电路还可以包括:第一显示单元341。
第一显示单元341,与所述处理单元330电性连接,用于显示对待调整的关键部位的调整控件等。
进一步地,图像处理电路还可以包括:第二显示单元342。
第二显示单元342,与所述处理单元340电性连接,用于显示调整后的人脸三维模型。
可选地,图像处理电路还可以包括:编码器350和存储器360。
本申请实施例中,GPU332处理得到的美化后的人脸图,还可以由编码器350编码后存储至存储器360,其中,编码器350可由协处理器实现。
在一个实施例中,存储器360可以为多个,或者划分为多个存储空间,存储GPU312处理后的图像数据可存储至专用存储器,或者专用存储空间,并可包括DMA(Direct MemoryAccess,直接直接存储器存取)特征。存储器360可被配置为实现一个或多个帧缓冲器。
下面结合图12,对上述过程进行详细说明。
需要说明的是,图12为作为一种可能的实现方式的图像处理电路的示意图。为便于说明,仅示出与本申请实施例相关的各个方面。
如图12所示,图像传感器311捕捉的原始图像数据首先由ISP处理器312处理,ISP处理器312对原始图像数据进行分析以捕捉可用于确定图像传感器311的一个或多个控制参数的图像统计信息,包括YUV格式或者RGB格式的人脸图像。其中,图像传感器311可包括色彩滤镜阵列(如Bayer滤镜),以及对应的感光单元,图像传感器311可获取每个感光单元捕捉的光强度和波长信息,并提供可由ISP处理器312处理的一组原始图像数据。ISP处理器312对原始图像数据进行处理后得到YUV格式或者RGB格式的人脸图像,并发送至CPU331。
其中,ISP处理器312在对原始图像数据进行处理时,可以按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器312可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
如图12所示,结构光传感器321向被摄物投射散斑结构光,并获取被摄物反射的结构光,根据反射的结构光成像,得到红外散斑图。结构光传感器321将该红外散斑图发送至深度图生成芯片322,以便深度图生成芯片322根据红外散斑图确定结构光的形态变化情况,进而据此确定被摄物的深度,得到深度图(Depth Map),该深度图指示了红外散斑图中各像素点的深度。深度图生成芯片322将深度图发送至CPU331。
CPU331从ISP处理器312获取到人脸图像,从深度图生成芯片322获取到深度图,结合预先得到的标定数据,可以将人脸图像与深度图对齐,从而确定出人脸图像中各像素点对应的深度信息。进而,CPU331根据深度信息和人脸图像,进行三维重构,得到人脸三维模型。
CPU331将人脸三维模型发送至GPU332,以便GPU332根据人脸三维模型执行如前述实施例中描述的方法,实现与所述目标表情对应的人脸三维模型的生成。GPU332处理得到的与所述目标表情对应的人脸三维模型,可以由显示器340(包括上述第一显示单元341和第二显示单元351)显示,和/或,由编码器350编码后存储至存储器360,其中,编码器350可由协处理器实现。
在一个实施例中,存储器360可以为多个,或者划分为多个存储空间,存储GPU332处理后的图像数据可存储至专用存储器,或者专用存储空间,并可包括DMA(Direct MemoryAccess,直接直接存储器存取)特征。存储器360可被配置为实现一个或多个帧缓冲器。
例如,以下为运用图12中的处理器220或运用图12中的图像处理电路(具体为CPU331和GPU332)实现控制方法的步骤:
CPU331获取二维的人脸图像,以及所述人脸图像对应的深度信息;CPU331根据所述深度信息和所述人脸图像,进行三维重构,得到人脸三维模型;GPU332获取与所述用户对应的人脸三维模型整形参数,根据所述人脸三维模型整形参数对所述原始人脸三维模型上的关键点进行调整,得到与所述目标表情对应的人脸三维模型。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于三维模型的表情更换方法,其特征在于,包括以下步骤:
获取当前建立的人脸三维模型参考关键点展现的当前表情;
根据预设的待更换的目标表情对应的目标关键点,在所述人脸三维模型中确定与所述目标关键点对应匹配部位的参考关键点;
获取所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差;
根据所述坐标差对所述参考关键点的坐标信息进行相应调整,生成与所述目标表情对应的人脸三维模型。
2.如权利要求1所述的方法,其特征在于,所述获取当前建立的人脸三维模型展现的当前表情,包括:
确定当前建立的人脸三维模型中的多个关键部位的特征点;
根据所述多个关键部位特征点的坐标信息以及多个关键部位之间的距离,提取所述多个关键部位的特征向量;
通过预先训练的神经网络对所述多个关键部位的特征向量进行分析,确定所述人脸三维模型的当前表情。
3.如权利要求1所述的方法,其特征在于,所述获取所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差,包括:
查询预设的参考表情定位信息,获取与所述当前表情对应的所述参考关键点坐标信息,以及与所述目标表情对应的所述目标关键点的坐标信息;
计算所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差。
4.如权利要求1所述的方法,其特征在于,在所述生成与所述目标表情对应的人脸三维模型之后,还包括:
生成与每个关键部位对应的调整控件,其中,所述调整控件用于将每个关键部位在相应预设范围内进行调整;
获取用户对所述调整控件的操作信息,根据所述操作信息获取所需调整的部位标识和调整角度;
根据所述调整角度调整与所述部位标识对应的关键部位。
5.如权利要求1所述的方法,其特征在于,在所述生成与所述目标表情对应的人脸三维模型之后,还包括:
获取用户预设的与所述目标表情对应的关键部位的状态特征;
根据所述状态特征调整所述人脸三维模型中相应关键部位的状态。
6.一种基于三维模型的表情更换装置,其特征在于,包括:
获取模块,用于获取当前建立的人脸三维模型参考关键点展现的当前表情;
确定模块,用于根据预设的待更换的目标表情对应的目标关键点,在所述人脸三维模型中确定与所述目标关键点对应匹配部位的参考关键点;
所述获取模块,用于获取所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差;
生成模块,用于根据所述坐标差对所述参考关键点的坐标信息进行相应调整,生成与所述目标表情对应的人脸三维模型。
7.如权利要求6所述的装置,其特征在于,所述获取模块包括:
第一确定单元,用于确定当前建立的人脸三维模型中的多个关键部位的特征点;
提取单元,用于根据所述多个关键部位特征点的坐标信息以及多个关键部位之间的距离,提取所述多个关键部位的特征向量;
第二确定单元,用于通过预先训练的神经网络对所述多个关键部位的特征向量进行分析,确定所述人脸三维模型的当前表情。
8.如权利要求6所述的装置,其特征在于,所述获取模块,包括:
获取单元,用于查询预设的参考表情定位信息,获取与所述当前表情对应的所述参考关键点坐标信息,以及与所述目标表情对应的所述目标关键点的坐标信息;
计算单元,用于计算所述参考关键点的坐标信息与所述目标关键点的坐标信息之间的坐标差。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1-5中任一所述的基于三维模型的表情更换方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5中任一所述的基于三维模型的表情更换方法。
CN201810934577.8A 2018-08-16 2018-08-16 基于三维模型的表情更换方法和装置 Pending CN109147024A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810934577.8A CN109147024A (zh) 2018-08-16 2018-08-16 基于三维模型的表情更换方法和装置
EP19191508.1A EP3621038A3 (en) 2018-08-16 2019-08-13 Methods and devices for replacing expression, and computer readable storage media
PCT/CN2019/100601 WO2020035001A1 (en) 2018-08-16 2019-08-14 Methods and devices for replacing expression, and computer readable storage media
US16/542,025 US11069151B2 (en) 2018-08-16 2019-08-15 Methods and devices for replacing expression, and computer readable storage media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810934577.8A CN109147024A (zh) 2018-08-16 2018-08-16 基于三维模型的表情更换方法和装置

Publications (1)

Publication Number Publication Date
CN109147024A true CN109147024A (zh) 2019-01-04

Family

ID=64789719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810934577.8A Pending CN109147024A (zh) 2018-08-16 2018-08-16 基于三维模型的表情更换方法和装置

Country Status (4)

Country Link
US (1) US11069151B2 (zh)
EP (1) EP3621038A3 (zh)
CN (1) CN109147024A (zh)
WO (1) WO2020035001A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110609282A (zh) * 2019-09-19 2019-12-24 中国人民解放军军事科学院国防科技创新研究院 一种三维目标成像方法及装置
WO2020035001A1 (en) * 2018-08-16 2020-02-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods and devices for replacing expression, and computer readable storage media
CN110941332A (zh) * 2019-11-06 2020-03-31 北京百度网讯科技有限公司 表情驱动方法、装置、电子设备及存储介质
CN111447379A (zh) * 2019-01-17 2020-07-24 百度在线网络技术(北京)有限公司 生成信息的方法和装置
CN112927328A (zh) * 2020-12-28 2021-06-08 北京百度网讯科技有限公司 表情迁移方法、装置、电子设备及存储介质
CN113570634A (zh) * 2020-04-28 2021-10-29 北京达佳互联信息技术有限公司 对象三维重建方法、装置、电子设备及存储介质
CN113674385A (zh) * 2021-08-05 2021-11-19 北京奇艺世纪科技有限公司 一种虚拟表情生成方法、装置、电子设备及存储介质
CN113870401A (zh) * 2021-12-06 2021-12-31 腾讯科技(深圳)有限公司 表情生成方法、装置、设备、介质和计算机程序产品

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458121B (zh) * 2019-08-15 2023-03-14 京东方科技集团股份有限公司 一种人脸图像生成的方法及装置
CN113673287B (zh) * 2020-05-15 2023-09-12 深圳市光鉴科技有限公司 基于目标时间节点的深度重建方法、***、设备及介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009067560A1 (en) * 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for generating 3d head models and for using the same
US20140362091A1 (en) * 2013-06-07 2014-12-11 Ecole Polytechnique Federale De Lausanne Online modeling for real-time facial animation
CN104616347A (zh) * 2015-01-05 2015-05-13 掌赢信息科技(上海)有限公司 一种表情迁移方法、电子设备及***
EP2993614A1 (en) * 2014-09-05 2016-03-09 Samsung Electronics Co., Ltd Method and apparatus for facial recognition
CN106920277A (zh) * 2017-03-01 2017-07-04 浙江神造科技有限公司 模拟美容整形效果可视化在线自由面雕的方法及***
CN107123160A (zh) * 2017-05-02 2017-09-01 成都通甲优博科技有限责任公司 基于三维立体图像的模拟整容***、方法及移动终端
CN107479801A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 基于用户表情的终端显示方法、装置及终端
CN107481317A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 人脸3d模型的面部调整方法及其装置
CN108022206A (zh) * 2017-11-30 2018-05-11 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN108230252A (zh) * 2017-01-24 2018-06-29 深圳市商汤科技有限公司 图像处理方法、装置以及电子设备
CN108229239A (zh) * 2016-12-09 2018-06-29 武汉斗鱼网络科技有限公司 一种图像处理的方法及装置
US20180204052A1 (en) * 2015-08-28 2018-07-19 Baidu Online Network Technology (Beijing) Co., Ltd. A method and apparatus for human face image processing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8207971B1 (en) * 2008-12-31 2012-06-26 Lucasfilm Entertainment Company Ltd. Controlling animated character expressions
US8970656B2 (en) * 2012-12-20 2015-03-03 Verizon Patent And Licensing Inc. Static and dynamic video calling avatars
CN109147024A (zh) * 2018-08-16 2019-01-04 Oppo广东移动通信有限公司 基于三维模型的表情更换方法和装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009067560A1 (en) * 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for generating 3d head models and for using the same
US20140362091A1 (en) * 2013-06-07 2014-12-11 Ecole Polytechnique Federale De Lausanne Online modeling for real-time facial animation
EP2993614A1 (en) * 2014-09-05 2016-03-09 Samsung Electronics Co., Ltd Method and apparatus for facial recognition
CN104616347A (zh) * 2015-01-05 2015-05-13 掌赢信息科技(上海)有限公司 一种表情迁移方法、电子设备及***
US20180204052A1 (en) * 2015-08-28 2018-07-19 Baidu Online Network Technology (Beijing) Co., Ltd. A method and apparatus for human face image processing
CN108229239A (zh) * 2016-12-09 2018-06-29 武汉斗鱼网络科技有限公司 一种图像处理的方法及装置
CN108230252A (zh) * 2017-01-24 2018-06-29 深圳市商汤科技有限公司 图像处理方法、装置以及电子设备
CN106920277A (zh) * 2017-03-01 2017-07-04 浙江神造科技有限公司 模拟美容整形效果可视化在线自由面雕的方法及***
CN107123160A (zh) * 2017-05-02 2017-09-01 成都通甲优博科技有限责任公司 基于三维立体图像的模拟整容***、方法及移动终端
CN107479801A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 基于用户表情的终端显示方法、装置及终端
CN107481317A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 人脸3d模型的面部调整方法及其装置
CN108022206A (zh) * 2017-11-30 2018-05-11 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李俊华 等: "量子神经网络在表情识别中的应用", 《2007中国控制与决策学术年会论文集》 *
牛继强: "空间数据挖掘的方法", 《面向土地用途分区的空间数据挖掘理论与方法》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020035001A1 (en) * 2018-08-16 2020-02-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods and devices for replacing expression, and computer readable storage media
US11069151B2 (en) 2018-08-16 2021-07-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods and devices for replacing expression, and computer readable storage media
CN111447379A (zh) * 2019-01-17 2020-07-24 百度在线网络技术(北京)有限公司 生成信息的方法和装置
CN110609282A (zh) * 2019-09-19 2019-12-24 中国人民解放军军事科学院国防科技创新研究院 一种三维目标成像方法及装置
CN110941332A (zh) * 2019-11-06 2020-03-31 北京百度网讯科技有限公司 表情驱动方法、装置、电子设备及存储介质
CN113570634A (zh) * 2020-04-28 2021-10-29 北京达佳互联信息技术有限公司 对象三维重建方法、装置、电子设备及存储介质
CN112927328A (zh) * 2020-12-28 2021-06-08 北京百度网讯科技有限公司 表情迁移方法、装置、电子设备及存储介质
CN112927328B (zh) * 2020-12-28 2023-09-01 北京百度网讯科技有限公司 表情迁移方法、装置、电子设备及存储介质
CN113674385A (zh) * 2021-08-05 2021-11-19 北京奇艺世纪科技有限公司 一种虚拟表情生成方法、装置、电子设备及存储介质
CN113870401A (zh) * 2021-12-06 2021-12-31 腾讯科技(深圳)有限公司 表情生成方法、装置、设备、介质和计算机程序产品
CN113870401B (zh) * 2021-12-06 2022-02-25 腾讯科技(深圳)有限公司 表情生成方法、装置、设备、介质和计算机程序产品

Also Published As

Publication number Publication date
EP3621038A2 (en) 2020-03-11
US11069151B2 (en) 2021-07-20
US20200058171A1 (en) 2020-02-20
EP3621038A3 (en) 2020-06-24
WO2020035001A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
CN109147024A (zh) 基于三维模型的表情更换方法和装置
KR102045695B1 (ko) 안면 이미지 처리 방법 및 장치, 및 저장 매체
CN109376582A (zh) 一种基于生成对抗网络的交互式人脸卡通方法
WO2019228473A1 (zh) 人脸图像的美化方法和装置
CN108550185A (zh) 人脸美化处理方法和装置
CN109147037A (zh) 基于三维模型的特效处理方法、装置和电子设备
CN109952594A (zh) 图像处理方法、装置、终端及存储介质
KR20090098798A (ko) 비디오 이미지들의 시퀀스의 가상 시뮬레이션을 위한 방법 및 디바이스
CN105404392A (zh) 基于单目摄像头的虚拟穿戴方法及***
CN107730573A (zh) 一种基于特征提取的人物肖像漫画风格化生成方法
CN109102559A (zh) 三维模型处理方法和装置
CN101779218A (zh) 化妆模拟***、化妆模拟装置、化妆模拟方法以及化妆模拟程序
CN108876709A (zh) 人脸美化方法、装置、电子设备及可读存储介质
CN110688948A (zh) 视频中人脸性别变换方法、装置、电子设备和存储介质
CN108537126A (zh) 一种人脸图像处理***及方法
JP2024500896A (ja) 3d頭部変形モデルを生成するための方法、システム及び方法
CN109242760A (zh) 人脸图像的处理方法、装置和电子设备
CN109191393A (zh) 基于三维模型的美颜方法
US11587288B2 (en) Methods and systems for constructing facial position map
CN107551549A (zh) 游戏形象调整方法及其装置
CN107656611A (zh) 体感游戏实现方法及装置、终端设备
CN109285214A (zh) 三维模型的处理方法、装置、电子设备及可读存储介质
CN107469355A (zh) 游戏人物形象创建方法及装置、终端设备
KR20230085931A (ko) 얼굴 이미지에서 색상을 추출하기 위한 방법 및 시스템
Sheu et al. Automatic generation of facial expression using triangular geometric deformation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40002041

Country of ref document: HK

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190104