CN108764135A - 图像生成方法、装置,及电子设备 - Google Patents

图像生成方法、装置,及电子设备 Download PDF

Info

Publication number
CN108764135A
CN108764135A CN201810524938.1A CN201810524938A CN108764135A CN 108764135 A CN108764135 A CN 108764135A CN 201810524938 A CN201810524938 A CN 201810524938A CN 108764135 A CN108764135 A CN 108764135A
Authority
CN
China
Prior art keywords
model
image
target object
face
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810524938.1A
Other languages
English (en)
Other versions
CN108764135B (zh
Inventor
冯宇飞
游东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Microlive Vision Technology Co Ltd
Original Assignee
Beijing Microlive Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Microlive Vision Technology Co Ltd filed Critical Beijing Microlive Vision Technology Co Ltd
Priority to CN201810524938.1A priority Critical patent/CN108764135B/zh
Publication of CN108764135A publication Critical patent/CN108764135A/zh
Application granted granted Critical
Publication of CN108764135B publication Critical patent/CN108764135B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提出一种图像生成方法、装置,及电子设备,该方法包括获取目标对象的第一图像,以及从第一图像中识别出目标对象的姿态信息;根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型;根据第一模型和第二模型的深度信息,从目标模型中提取出第二模型上未被第一模型遮挡的目标区域;获取目标区域对应的第二图像;将第二图像融合到目标对象的第一图像中。通过本公开能够使添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。

Description

图像生成方法、装置,及电子设备
技术领域
本公开涉及图像处理技术领域,尤其涉及一种图像生成方法、装置,及电子设备。
背景技术
相关技术中生成头部的图像后为其添加眼镜的技术方案中,会直接将用户选中的眼镜所有部位添加用户人脸图像的相应位置。
这种方式下,眼镜被人脸遮挡的部位也出现在美化后的图像中,比如侧脸图片中眼镜的部分部位被遮挡,从而导致所呈现的人像上加眼镜的效果不够真实,用户的美化体验不理想。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本公开的一个目的在于提出一种图像生成方法,能够使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
本公开的另一个目的在于提出一种图像生成装置。
本公开的另一个目的在于提出一种非临时性计算机可读存储介质。
本公开的另一个目的在于提出一种计算机程序产品。
本公开的另一个目的在于提出一种电子设备。
为达到上述目的,本公开第一方面实施例提出的图像生成方法,包括:获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;获取所述目标区域对应的第二图像;将所述第二图像融合到所述目标对象的第一图像中。
本公开第一方面实施例提出的图像生成方法,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
为达到上述目的,本公开第二方面实施例提出的图像生成装置,包括:第一获取模块,用于获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;调整模块,用于根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;提取模块,用于根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;第二获取模块,用于获取所述目标区域对应的第二图像;融合模块,用于将所述第二图像融合到所述目标对象的第一图像中。
本公开第二方面实施例提出的图像生成装置,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
为达到上述目的,本公开第三方面实施例提出的非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器被执行时,使得移动终端能够执行一种图像生成方法,所述方法包括:获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;获取所述目标区域对应的第二图像;将所述第二图像融合到所述目标对象的第一图像中。
本公开第三方面实施例提出的非临时性计算机可读存储介质,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
为达到上述目的,本公开第四方面实施例提出的计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行一种图像生成方法,所述方法包括:获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;获取所述目标区域对应的第二图像;将所述第二图像融合到所述目标对象的第一图像中。
本公开第四方面实施例提出的计算机程序产品,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
本公开第五方面还提出一种电子设备,该电子设备包括壳体、处理器、存储器、电路板和电源电路,其中,所述电路板安置在所述壳体围成的空间内部,所述处理器和所述存储器设置在所述电路板上;所述电源电路,用于为所述电子设备的各个电路或器件供电;所述存储器用于存储可执行程序代码;所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于执行:获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;获取所述目标区域对应的第二图像;将所述第二图像融合到所述目标对象的第一图像中。
本公开第五方面实施例提出的电子设备,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
本公开附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本公开的实践了解到。
附图说明
本公开上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本公开一实施例提出的图像生成方法的流程示意图;
图2为本公开实施例中的一种第一图像示意图;
图3是本公开一实施例提出的图像生成方法的流程示意图;
图4为本公开实施例中另一种第一图像示意图;
图5为本公开实施例中第一模型与第二模型示意图;
图6为本公开实施例中第二图像和第三图像示意图;
图7是本公开另一实施例提出的图像生成方法的流程示意图;
图8为本公开实施例中多个候选第一模型示意图;
图9是本公开另一实施例提出的图像生成方法的流程示意图;
图10是本公开一实施例提出的图像生成装置的结构示意图;
图11是本公开另一实施例提出的图像生成装置的结构示意图;
图12是本公开另一实施例提出的图像生成装置的结构示意图;
图13是本公开一个实施例提出的电子设备的结构示意图。
具体实施方式
下面详细描述本公开的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本公开,而不能理解为对本公开的限制。相反,本公开的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1是本公开一实施例提出的图像生成方法的流程示意图。
本实施例以该图像生成方法被配置为图像生成装置中来举例说明。
本实施例中图像生成方法可以被配置在图像生成装置中,图像生成装置可以设置在服务器中,或者也可以设置在电子设备中,对此不作限制。
本实施例以图像生成方法被配置在电子设备中为例。
该电子设备中的图像生成类应用程序可以生成目标对象的图像。
其中的目标对象可以例如为人体指定部位,具体如,头部或者手腕部位,对此不作限制。
其中,电子设备例如智能手机、平板电脑、个人数字助理、电子书等具有各种操作***的硬件设备。图像生成类应用程序可以例如美图秀秀、美颜相机等应用程序。
需要说明的是,本申请实施例的执行主体,在硬件上可以例如为电子设备的中央处理器(Central Processing Unit,CPU),在软件上可以例如为电子设备中的图像生成类应用程序,对此不作限制。
参见图1,该方法包括:
S101:获取目标对象的第一图像,以及从第一图像中识别出目标对象的姿态信息。
其中的目标对象可以例如为人体指定部位,具体如,头部或者手腕部位,对此不作限制。
本公开实施例以目标对象为头部进行示例。
其中的第一图像为对目标对象进行拍照得到的二维,或者三维图像。
其中的姿态信息可以采用目标对象上各像素点的坐标值进行标识,姿态信息用于标识目标对象当前的姿态,例如,目标对象为头部,目标对象的姿态信息可以标识目标对象的仰视姿态、俯视姿态,或者侧视姿态等,即,姿态信息为能够标识呈现出上述姿态对应的各像素点的坐标值,对此不作限制。
参见图2,图2为本公开实施例中的一种第一图像示意图,其中包括三幅二维的第一图像,即,第一图像21、第一图像22,以及第三图像23,其中的每幅第一图像对应的姿态信息不同,不同的姿态信息可以通过第一图像上各像素点在世界坐标系中的实际空间位置的坐标来进行标识,第一图像21中的姿态信息为正视姿态,第一图像22中的姿态信息为呈现一定倾斜角度的侧视姿态,第一图像23中的姿态信息为呈现另一个倾斜角度的侧视姿态,上述仅为示例,目标对象的姿态信息可以为能够摆放出的任何一种的姿态信息。
可选地,一些实施例中,参见图3,还可以采用以下步骤,从第一图像中识别出目标对象的姿态信息,包括:
S301:从第一图像中识别目标对象的指定面部器官。
参见图4,图4为本公开实施例中另一种第一图像示意图,以将二维的第一图像放置在直角坐标系中进行示例,对此不作限制。其中包括:预设的基准位置41(例如为坐标原点)、指定面部器官42(例如为眼部)、指定面部器官的中心点43,直角坐标系44,第一图像中的每个像素点均对应于一个直角坐标系中的坐标值。
其中的指定面部器官可以例如为眼部、鼻部,或者嘴部,指定面部器官的数量可以为一个或者多个,对此不作限制。
例如,可以采用图像识别技术,从图4所示第一图像中识别出眼部、鼻部,或者嘴部。
S302:确定隶属于指定面部器官上的像素点,获取像素点在第一图像中的坐标信息。
针对上述的示例,在识别出如图4中的眼部、鼻部,或者嘴部之后,可以确定每个指定面部器官上的各个像素点,进而,依据图4中的直角坐标系,确定每个像素点的坐标值,并将该坐标值作为坐标信息。
S303:根据像素点的坐标信息,确定面部器官中心点在第一图像中的位置信息。
其中的中心点的位置信息,用于标识该中心点所隶属的指定面部器官在第一图像中的位置情况。
针对上述的示例,在确定出指定面部器官上的像素点的坐标信息之后,可以根据几何坐标算法,直接根据一个指定面部器官上各个像素点的坐标值,确定出该指定面部器官中心点的坐标值,而后,将该坐标值,在第一图像中的相对位置作为该位置信息,或者,也可以直接将中心点的坐标值作为该位置信息,对此不作限制。
S304:根据位置信息和预设的基准位置,确定目标对象的姿态信息。
其中的预设的基准位置是预先设定的,具体地,可以由用户根据实际使用需求进行动态调整,或者,也可以由电子设备的出厂程序预先设定,对此不作限制。
针对上述图4中的示例,可以根据预设的基准位置41和指定面部器官的中心点43确定出目标对象的姿态信息所标识的姿态,例如为,正视姿态。
通过图3实施例中的步骤,确定目标对象的姿态信息,能够实现仅仅遍历第一图像中的部分面部器官中的像素点来进行姿态信息的确定,避免遍历整个第一图像的像素点的位置信息,同时,由于所遍历的为所指定的面部器官,其具有较分明的特征,因此,能够保障所识别的姿态信息的精准度,且由于建立了坐标系,通过坐标系中的坐标值来确定姿态信息,使得姿态信息的确认符合面部结构的几何特征分布,算法上实现较为便捷。
S102:根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型。
第一模型和第二模型可以为三维模型。
可以理解的是,由于本公开实施例以目标对象为头部进行示例。因此,相对应地,第一模型可以例如为头部模型,第二模型为眼镜模型,或者第二模型也可以为耳饰模型,倘若以目标对象为手腕部位进行示例,那么相对应地,第一模型则可以例如为手腕模型,第二模型可以例如为手饰模型,对此不作限制。
其中的第一模型可以为与目标对象相适配的头部模型,具体地进行适配的方法可以参见下述实施例。
本公开实施例中,可以根据上述步骤中获得的第一图像中目标对象的姿态信息,调整第一模型与第二模型之间的相对位置,以使得第一模型和第二模型之间更加适配和吻合,例如,调整头部模型和眼镜模型的相对位置,使得调整后的头部模型和眼镜模型之间更符合实际人体佩戴眼镜的习惯。
参见图5,图5为本公开实施例中第一模型与第二模型示意图,其中,包括三维头部模型51和三维眼镜模型52。
本公开实施例在具体执行的过程中,还可以根据姿态信息,判断是否需要对第一模型的姿态进行调整;如果判断结果为是,按照目标对象的姿态信息,调整第一模型的姿态,使第一模型与目标对象的姿态一致;在对第一模型进行调整的过程中,生成第一模型的调整轨迹,根据调整轨迹,调整第一模型和第二模型之间的相对位置,得到目标模型。
例如,可以针对图5中所示的第一模型和第二模型,首先判断第一图像中目标对象的姿态信息是否和第一模型的姿态相一致,若不一致,则确定需要对其进行调整,则按照目标对象的姿态信息,调整第一模型的姿态,使第一模型与目标对象的姿态一致,并同时生成对第一模型进行调整过程中的调整轨迹,而后,可以直接眼观判断第一模型和第二模型之间的摆放位置是否符合实际人体佩戴眼镜的习惯,例如,眼镜腿部是否在人耳后,眼镜鼻托是否架设在鼻梁上等,并根据调整轨迹,调整第一模型和第二模型之间的相对位置,得到目标模型。
本公开实施例通过拟合一个目标模型,该目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型,通过调整第一模型和第二模型之间的相对位置,得到目标模型,使得调整后的头部模型和眼镜模型之间更符合实际人体佩戴眼镜的习惯,进而,采用该拟合好的目标模型作为参考依据,将被遮挡的目标区域从所生成的图像中剔除,使得所生成的图像更为契合实际视觉效果。
S103:根据第一模型和第二模型的深度信息,从目标模型中提取出第二模型上未被第一模型遮挡的目标区域。
本公开实施例在具体执行的过程中,可以在建立第一模型和第二模型的同时,采集每个第一模型和每个第二模型对应的深度信息,具体采集方法可以为分别向每个第一模型和每个第二模型投射结构光;拍摄经每个第一模型和每个第二模型调制的结构光图像,以及解调结构光图像中各个像素对应的相位信息;将相位信息转化为深度信息,得到每个第一模型和每个第二模型对应的深度信息,而后,可以将每个对应的深度信息与其所隶属模型的标识对应进行存储,在执行S103时,可以直接从预存储的存储位置直接根据标识读取对应的深度信息。
可以理解的是,根据实际的使用习惯,在将眼镜模型架设在头部模型上,并将其调整为符合实际人体佩戴眼镜的习惯后,眼镜腿部在人耳后,而眼镜鼻托架设在鼻梁上。
第二模型上被第一模型遮挡的区域即可以例如为在人耳后部的眼镜腿的部分,相对应地,第二模型上未被第一模型遮挡的目标区域即可以例如为除了在人耳后部的眼镜腿的部分之外的眼镜部分,该眼镜部分例如包括眼镜片,眼镜鼻托,眼镜上的部分眼镜腿,对此不作限制。
S104:获取目标区域对应的第二图像。
本公开实施例在具体执行的过程中,可以获取第二模型的第三图像,并从第三图像中,根据目标区域,截取目标区域的第二图像。
其中的第三图像可以为对第二模型进行拍照得到的二维,或者三维图像。
例如,对眼镜模型拍照得到的二维,或者三维图像,该拍照的过程可以在建立第二模型的过程中,将预先拍照得到的眼镜模型的二维,或者三维图像与其所隶属眼镜模型的标识对应进行存储,在执行S104时,可以直接从预存储的存储位置直接根据标识读取对应的眼镜模型的二维,或三维图像作为第三图像。
进一步地,在得到第三图像之后,根据上述S103中所确定的目标区域,从第三图像中,根据目标区域,截取目标区域的第二图像。
例如,可以将目标区域对应的像素点,一一映射至第三图像中,并将第三图像中,存在映射关系的部分,作为与目标区域对应的图像部分,并将该图像部分作为上述的第二图像,参见图6,图6为本公开实施例中第二图像和第三图像示意图,包括:第三图像61、第二图像62(图中方框框出的图像部分)。
相对于相关技术中生成头部的图像后为其添加眼镜的技术方案中,本公开实施例首先是确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得生成后的添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
S105:将第二图像融合到目标对象的第一图像中。
可以理解的是,本公开实施例中的图像生成方法,为了保障方法的实用性,在第一图像为对目标对象进行拍照得到的二维图像时,第二图像也为目标区域对应的二维图像,在第一图像为对目标对象进行拍照得到的三维图像时,第二图像也为目标区域对应的三维图像,如此,便保证了融合后图像的表达实用性。
例如,在获取到第一图像和第二图像之后,可以采用相关技术中的图像处理算法,将第二图像融合到目标对象的第一图像中,融合后的图像即为不包含遮挡部分的图像。
本实施例中,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
图7是本公开另一实施例提出的图像生成方法的流程示意图。
参见图7,图7示出了在上述根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型之前,还可以包括:
S701:根据目标对象的第一图像,从多个候选第一模型中,选取出第一模型。
参见图8,图8为本公开实施例中多个候选第一模型示意图,通过步骤S701,可以从多个候选第一模型中选取出与目标对象最为适配的第一模型,第一模型例如,如目标对象的脸型、或者面部特征等相似度最高的模型。
具体地,可以从第一图像中,识别目标对象的第一脸型;获取每个候选第一模型的第二脸型;计算第一脸型与每个第二脸型之间的相似度;从多个候选第一模型中,选取出与第一脸型相似度最高的候选第一模型,作为第一模型。
其中,目标对象的脸型可以被称为第一脸型,候选第一模型的脸型可以被称为第二脸型。
或者,也可以根据第一图像,获取出目标对象的第一面部特征;针对每个候选第一模型,获取候选第一模型的第二面部特征;根据第一面部特征和第二面部特征,从多个候选第一模型中,选取出第一模型。
其中,目标对象的面部特征可以被称为第一面部特征,候选第一模型的面部特征可以被称为第二面部特征。
面部特征可以例如为,面部器官和面部器官之间的特征。
进一步地,根据第一图像,获取出目标对象的第一面部特征,可以包括:从第一图像中,识别面部器官,获取面部器官和面部器官之间的特征,作为第一面部特征,其中,第一面部特征至少包括目标对象的第一眼间距、第一脸部长度,以及眼睛与鼻部之间的第一距离;获取候选第一模型的第二面部特征,包括:从候选第一模型中,识别面部器官,获取面部器官和面部器官之间的特征,作为第二面部特征,其中,第二面部特征至少包括候选第一模型的第二眼间距、第二脸部长度,以及眼睛与鼻部之间的第二距离。
可选地,可以获取第一眼间距与第一脸部长度的第一比例值,以及第一距离与第一脸部长度的第二比例值;获取第二眼间距与第二脸部长度的第三比例值,以及第二距离与第二脸部长度的第四比例值;根据第一比例值、第二比例值以及第三比例值、第四比例值,确定目标对象与每个候选第一模型之间的匹配度;筛选出匹配度最高的候选第一模型作为第一模型。
本实施例中,通过根据目标对象的第一图像,从多个候选第一模型中,选取出第一模型,可以使得方法适用于具备不同脸型和面部特征的目标对象,使得方法更具备适用性,且由于采用的是匹配度最高的候选第一模型作为上述的第一模型,使得所确定的遮挡区域更为精准,所融合得到的图像的吻合度更高。
图9是本公开另一实施例提出的图像生成方法的流程示意图。
参见图9,图9示出了在上述选取出第一模型之后,还包括:
S901:根据选取出的第一模型,从多个候选第二模型中,选取出与第一模型匹配的候选第二模型,作为第二模型。
其中,与第一模型匹配的候选第二模型,可以例如为大小、瞳距等,与第一模型最为匹配的第二模型。
本实施例中,通过根据选取出的第一模型,从多个候选第二模型中,选取出与第一模型匹配的候选第二模型,作为第二模型,可以使得方法适用于具备不同脸型和面部特征的目标对象,使得方法更具备适用性,且由于采用的是与第一模型匹配的候选第二模型作为上述的第二模型,使得所确定的遮挡区域更为精准,所融合得到的图像的吻合度更高。
针对上述图7和图9所示实施例,本公开还可以直接接收目标对象的第一选取指令,根据第一选取指令,从多个候选第一模型中,选取出第一模型;接收目标对象的第二选取指令,根据第二选取指令,从多个候选第二模型中,选取出第二模型,实现直接根据用户输入的选取指令选取对应的第一模型或者第二模型,保障方法功能的完备性,以及符合用户的实际使用需求。
针对上述图7和图9所示实施例,本公开还可以在得到第二模型之前,根据第二模型的属性信息,确定第二模型在第一模型上的位置,将第二模型调整至位置上。
例如,将眼镜模型调整至头部模型合适的位置上,或者将手饰模型调整至手部模型合适的位置上,进而,支撑后续可以根据姿态信息,调整第一模型与第二模型之间的相对位置,保障方法功能的完备性,以及符合用户的实际使用需求。
图10是本公开一实施例提出的图像生成装置的结构示意图。
参见图10,该装置10包括:第一获取模块101、调整模块102、提取模块103、第二获取模块104,以及融合模块105,其中,
第一获取模块101,用于获取目标对象的第一图像,以及从第一图像中识别出目标对象的姿态信息;
调整模块102,用于根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型;
提取模块103,用于根据第一模型和第二模型的深度信息,从目标模型中提取出第二模型上未被第一模型遮挡的目标区域;
第二获取模块104,用于获取目标区域对应的第二图像;
融合模块105,用于将第二图像融合到目标对象的第一图像中。
可选地,一些实施例中,参见图11,还包括:
第一选取模块106,用于根据目标对象的第一图像,从多个候选第一模型中,选取出第一模型。
可选地,一些实施例中,参见图11,第一选取模块106,包括:
识别子模块1061,用于从第一图像中,识别目标对象的第一脸型;
第一获取子模块1062,用于获取每个候选第一模型的第二脸型;
计算子模块1063,用于计算第一脸型与每个第二脸型之间的相似度;
第一选取子模块1064,用于从多个候选第一模型中,选取出与第一脸型相似度最高的候选第一模型,作为第一模型。
可选地,一些实施例中,参见图12,第一选取模块106,包括:
第二获取子模块1065,用于根据第一图像,获取出目标对象的第一面部特征;
第三获取子模块1066,用于针对每个候选第一模型,获取候选第一模型的第二面部特征;
第二选取子模块1067,用于根据第一面部特征和第二面部特征,从多个候选第一模型中,选取出第一模型。
可选地,一些实施例中,其中,
第二获取子模块1065,具体用于:
从第一图像中,识别面部器官,获取面部器官和面部器官之间的特征,作为第一面部特征,其中,第一面部特征至少包括目标对象的第一眼间距、第一脸部长度,以及眼睛与鼻部之间的第一距离;
第三获取子模块1066,具体用于:
从候选第一模型中,识别面部器官,获取面部器官和面部器官之间的特征,作为第二面部特征,其中,第二面部特征至少包括候选第一模型的第二眼间距、第二脸部长度,以及眼睛与鼻部之间的第二距离。
可选地,一些实施例中,第二选取子模块1067,具体用于:
获取第一眼间距与第一脸部长度的第一比例值,以及第一距离与第一脸部长度的第二比例值;
获取第二眼间距与第二脸部长度的第三比例值,以及第二距离与第二脸部长度的第四比例值;
根据第一比例值、第二比例值以及第三比例值、第四比例值,确定目标对象与每个候选第一模型之间的匹配度;
筛选出匹配度最高的候选第一模型作为第一模型。
可选地,一些实施例中,参见图11,还包括:
第二选取模块107,用于根据选取出的第一模型,从多个候选第二模型中,选取出与第一模型匹配的候选第二模型,作为第二模型。
可选地,一些实施例中,其中,
第一选取模块106,还用于接收目标对象的第一选取指令,根据第一选取指令,从多个候选第一模型中,选取出第一模型;
第二选取模块107,还用于接收目标对象的第二选取指令,根据第二选取指令,从多个候选第二模型中,选取出第二模型。
可选地,一些实施例中,其中,
调整模块102,还用于根据第二模型的属性信息,确定第二模型在第一模型上的位置,将第二模型调整至位置上。
可选地,一些实施例中,第一获取模块101,具体用于:
从第一图像中识别目标对象的指定面部器官;
确定隶属于指定面部器官上的像素点,获取像素点在第一图像中的坐标信息;
根据像素点的坐标信息,确定面部器官中心点在第一图像中的位置信息;
根据位置信息和预设的基准位置,确定目标对象的姿态信息。
可选地,一些实施例中,调整模块102,还用于:
根据姿态信息,判断是否需要对第一模型的姿态进行调整;
如果判断结果为是,按照目标对象的姿态信息,调整第一模型的姿态,使第一模型与目标对象的姿态一致;
在对第一模型进行调整的过程中,生成第一模型的调整轨迹;
根据调整轨迹,调整第一模型和第二模型之间的相对位置,得到目标模型。
可选地,一些实施例中,第二获取模块104,用于:
获取第二模型的第三图像,并从第三图像中,根据目标区域,截取目标区域的第二图像。
可选地,一些实施例中,第一模型为头部模型,第二模型为眼镜模型。
需要说明的是,前述图1-图9实施例中对图像生成方法实施例的解释说明也适用于该实施例的图像生成装置10,其实现原理类似,此处不再赘述。
本实施例中,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
图13是本公开一个实施例提出的电子设备的结构示意图。
该电子设备可以是手机、平板电脑等。
参见图13,本实施例的电子设备130包括:壳体1301、处理器1302、存储器1303、电路板1304、电源电路1305,电路板1304安置在壳体1301围成的空间内部,处理器1302、存储器1303设置在电路板1304上;电源电路1305,用于为电子设备130各个电路或器件供电;存储器1303用于存储可执行程序代码;其中,处理器1302通过读取存储器1303中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行:
获取目标对象的第一图像,以及从第一图像中识别出目标对象的姿态信息;
根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型;
根据第一模型和第二模型的深度信息,从目标模型中提取出第二模型上未被第一模型遮挡的目标区域;
获取目标区域对应的第二图像;
将第二图像融合到目标对象的第一图像中。
需要说明的是,前述图1-图9实施例中对图像生成方法实施例的解释说明也适用于该实施例的电子设备130,其实现原理类似,此处不再赘述。
本实施例中的电子设备,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
为了实现上述实施例,本公开还提出一种非临时性计算机可读存储介质,当存储介质中的指令由终端的处理器执行时,使得终端能够执行一种图像生成方法,方法包括:
获取目标对象的第一图像,以及从第一图像中识别出目标对象的姿态信息;
根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型;
根据第一模型和第二模型的深度信息,从目标模型中提取出第二模型上未被第一模型遮挡的目标区域;
获取目标区域对应的第二图像;
将第二图像融合到目标对象的第一图像中。
本实施例中的非临时性计算机可读存储介质,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
为了实现上述实施例,本公开还提出一种计算机程序产品,当计算机程序产品中的指令被处理器执行时,执行一种图像生成方法,方法包括:
获取目标对象的第一图像,以及从第一图像中识别出目标对象的姿态信息;
根据姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,目标模型是由调整后的第一模型与第二模型组合成的,第一模型为人体指定部位的通用模型,第二模型为配饰模型;
根据第一模型和第二模型的深度信息,从目标模型中提取出第二模型上未被第一模型遮挡的目标区域;
获取目标区域对应的第二图像;
将第二图像融合到目标对象的第一图像中。
本实施例中的计算机程序产品,通过确定出眼镜模型上未被头部模型遮挡的目标区域,而后,确定该未被遮挡的目标区域在眼镜模型对应的图像对应的图像部分,使得添加眼镜后的图像中不包含经过模型匹配所确定的遮挡部分,使得所生成的图像更为契合实际视觉效果,提升所生成图像的真实性和表达效果。
需要说明的是,在本公开的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本公开的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本公开的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本公开的实施例所属技术领域的技术人员所理解。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本公开各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本公开的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本公开的限制,本领域的普通技术人员在本公开的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (23)

1.一种图像生成方法,其特征在于,包括以下步骤:
获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;
根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;
根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;
获取所述目标区域对应的第二图像;
将所述第二图像融合到所述目标对象的第一图像中。
2.如权利要求1所述的图像生成方法,其特征在于,所述根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型之前,还包括:
根据所述目标对象的第一图像,从多个候选第一模型中,选取出所述第一模型。
3.如权利要求2所述的图像生成方法,其特征在于,所述根据所述目标对象的第一图像,从多个候选第一模型中,选取出所述第一模型,包括:
从所述第一图像中,识别所述目标对象的第一脸型;
获取每个候选第一模型的第二脸型;
计算所述第一脸型与每个第二脸型之间的相似度;
从多个候选第一模型中,选取出与所述第一脸型相似度最高的候选第一模型,作为所述第一模型。
4.如权利要求2所述的图像生成方法,其特征在于,所述根据所述目标对象的第一图像,从多个候选第一模型中选取出所述第一模型,包括:
根据所述第一图像,获取出所述目标对象的第一面部特征;
针对每个候选第一模型,获取所述候选第一模型的第二面部特征;
根据所述第一面部特征和所述第二面部特征,从多个候选第一模型中,选取出所述第一模型。
5.根据权利要求4所述的图像生成方法,其特征在于,所述根据所述第一图像,获取出所述目标对象的第一面部特征,包括:
从所述第一图像中,识别面部器官,获取面部器官和面部器官之间的特征,作为所述第一面部特征,其中,所述第一面部特征至少包括所述目标对象的第一眼间距、第一脸部长度,以及眼睛与鼻部之间的第一距离;
所述获取所述候选第一模型的第二面部特征,包括:
从所述候选第一模型中,识别面部器官,获取面部器官和面部器官之间的特征,作为所述第二面部特征,其中,所述第二面部特征至少包括所述候选第一模型的第二眼间距、第二脸部长度,以及眼睛与鼻部之间的第二距离。
6.根据权利要求5所述的图像生成方法,其特征在于,所述根据所述第一面部特征和所述第二面部特征,从多个候选第一模型中,选取出所述第一模型,包括:
获取所述第一眼间距与所述第一脸部长度的第一比例值,以及所述第一距离与所述第一脸部长度的第二比例值;
获取所述第二眼间距与所述第二脸部长度的第三比例值,以及所述第二距离与所述第二脸部长度的第四比例值;
根据所述第一比例值、第二比例值以及第三比例值、第四比例值,确定所述目标对象与每个所述候选第一模型之间的匹配度;
筛选出所述匹配度最高的候选第一模型作为所述第一模型。
7.根据权利要求2所述的图像生成方法,其特征在于,所述选取出所述第一模型之后,还包括:
根据选取出的所述第一模型,从多个候选第二模型中,选取出与所述第一模型匹配的候选第二模型,作为所述第二模型。
8.根据权利要求1所述的图像生成方法,其特征在于,所述根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型之前,还包括:
接收所述目标对象的第一选取指令,根据所述第一选取指令,从多个候选第一模型中,选取出所述第一模型;
接收所述目标对象的第二选取指令,根据所述第二选取指令,从多个候选第二模型中,选取出所述第二模型。
9.根据权利要求1所述的图像生成方法,其特征在于,所述从所述第一图像中识别出所述目标对象的姿态信息,包括:
从所述第一图像中识别所述目标对象的指定面部器官;
确定隶属于所述指定面部器官上的像素点,获取所述像素点在所述第一图像中的坐标信息;
根据所述像素点的坐标信息,确定所述面部器官中心点在所述第一图像中的位置信息;
根据所述位置信息和预设的基准位置,确定所述目标对象的姿态信息。
10.如权利要求1所述的图像生成方法,其特征在于,所述根据所述姿态信息,调整第一模型和第二模型之间的相对位置,得到目标模型,包括:
根据所述姿态信息,判断是否需要对所述第一模型的姿态进行调整;
如果判断结果为是,按照所述目标对象的姿态信息,调整所述第一模型的姿态,使所述第一模型与所述目标对象的姿态一致;
在对所述第一模型进行调整的过程中,生成所述第一模型的调整轨迹;
根据所述调整轨迹,调整所述第一模型和所述第二模型之间的相对位置,得到所述目标模型。
11.根据权利要求1所述的图像生成方法,其特征在于,所述获取所述目标区域对应的第二图像,包括:
获取所述第二模型的第三图像,并从所述第三图像中,根据所述目标区域,截取所述目标区域的所述第二图像。
12.一种图像生成装置,其特征在于,包括:
第一获取模块,用于获取目标对象的第一图像,以及从所述第一图像中识别出所述目标对象的姿态信息;
调整模块,用于根据所述姿态信息,调整第一模型与第二模型之间的相对位置,得到目标模型,其中,所述目标模型是由调整后的所述第一模型与所述第二模型组合成的,所述第一模型为人体指定部位的通用模型,所述第二模型为配饰模型;
提取模块,用于根据所述第一模型和所述第二模型的深度信息,从所述目标模型中提取出所述第二模型上未被所述第一模型遮挡的目标区域;
第二获取模块,用于获取所述目标区域对应的第二图像;
融合模块,用于将所述第二图像融合到所述目标对象的第一图像中。
13.如权利要求12所述的图像生成装置,其特征在于,还包括:
第一选取模块,用于根据所述目标对象的第一图像,从多个候选第一模型中,选取出所述第一模型。
14.如权利要求13所述的图像生成装置,其特征在于,所述第一选取模块,包括:
识别子模块,用于从所述第一图像中,识别所述目标对象的第一脸型;
第一获取子模块,用于获取每个候选第一模型的第二脸型;
计算子模块,用于计算所述第一脸型与每个第二脸型之间的相似度;
第一选取子模块,用于从多个候选第一模型中,选取出与所述第一脸型相似度最高的候选第一模型,作为所述第一模型。
15.如权利要求13所述的图像生成装置,其特征在于,所述第一选取模块,包括:
第二获取子模块,用于根据所述第一图像,获取出所述目标对象的第一面部特征;
第三获取子模块,用于针对每个候选第一模型,获取所述候选第一模型的第二面部特征;
第二选取子模块,用于根据所述第一面部特征和所述第二面部特征,从多个候选第一模型中,选取出所述第一模型。
16.根据权利要求15所述的图像生成装置,其特征在于,其中,
所述第二获取子模块,具体用于:
从所述第一图像中,识别面部器官,获取面部器官和面部器官之间的特征,作为所述第一面部特征,其中,所述第一面部特征至少包括所述目标对象的第一眼间距、第一脸部长度,以及眼睛与鼻部之间的第一距离;
所述第三获取子模块,具体用于:
从所述候选第一模型中,识别面部器官,获取面部器官和面部器官之间的特征,作为所述第二面部特征,其中,所述第二面部特征至少包括所述候选第一模型的第二眼间距、第二脸部长度,以及眼睛与鼻部之间的第二距离。
17.根据权利要求16所述的图像生成装置,其特征在于,所述第二选取子模块,具体用于:
获取所述第一眼间距与所述第一脸部长度的第一比例值,以及所述第一距离与所述第一脸部长度的第二比例值;
获取所述第二眼间距与所述第二脸部长度的第三比例值,以及所述第二距离与所述第二脸部长度的第四比例值;
根据所述第一比例值、第二比例值以及第三比例值、第四比例值,确定所述目标对象与每个所述候选第一模型之间的匹配度;
筛选出所述匹配度最高的候选第一模型作为所述第一模型。
18.根据权利要求13所述的图像生成装置,其特征在于,还包括:
第二选取模块,用于根据选取出的所述第一模型,从多个候选第二模型中,选取出与所述第一模型匹配的候选第二模型,作为所述第二模型。
19.根据权利要求18所述的图像生成装置,其特征在于,其中,
所述第一选取模块,还用于接收所述目标对象的第一选取指令,根据所述第一选取指令,从多个候选第一模型中,选取出所述第一模型;
所述第二选取模块,还用于接收所述目标对象的第二选取指令,根据所述第二选取指令,从多个候选第二模型中,选取出所述第二模型。
20.根据权利要求12所述的图像生成装置,其特征在于,所述第一获取模块,具体用于:
从所述第一图像中识别所述目标对象的指定面部器官;
确定隶属于所述指定面部器官上的像素点,获取所述像素点在所述第一图像中的坐标信息;
根据所述像素点的坐标信息,确定所述面部器官中心点在所述第一图像中的位置信息;
根据所述位置信息和预设的基准位置,确定所述目标对象的姿态信息。
21.如权利要求12所述的图像生成装置,其特征在于,所述调整模块,还用于:
根据所述姿态信息,判断是否需要对所述第一模型的姿态进行调整;
如果判断结果为是,按照所述目标对象的姿态信息,调整所述第一模型的姿态,使所述第一模型与所述目标对象的姿态一致;
在对所述第一模型进行调整的过程中,生成所述第一模型的调整轨迹;
根据所述调整轨迹,调整所述第一模型和所述第二模型之间的相对位置,得到所述目标模型。
22.根据权利要求12所述的图像生成装置,其特征在于,所述第二获取模块,用于:
获取所述第二模型的第三图像,并从所述第三图像中,根据所述目标区域,截取所述目标区域的所述第二图像。
23.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-11中任一项所述的图像生成方法。
CN201810524938.1A 2018-05-28 2018-05-28 图像生成方法、装置,及电子设备 Active CN108764135B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810524938.1A CN108764135B (zh) 2018-05-28 2018-05-28 图像生成方法、装置,及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810524938.1A CN108764135B (zh) 2018-05-28 2018-05-28 图像生成方法、装置,及电子设备

Publications (2)

Publication Number Publication Date
CN108764135A true CN108764135A (zh) 2018-11-06
CN108764135B CN108764135B (zh) 2022-02-08

Family

ID=64002894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810524938.1A Active CN108764135B (zh) 2018-05-28 2018-05-28 图像生成方法、装置,及电子设备

Country Status (1)

Country Link
CN (1) CN108764135B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109618097A (zh) * 2018-12-29 2019-04-12 维沃移动通信有限公司 辅助拍照方法及终端设备
CN110070481A (zh) * 2019-03-13 2019-07-30 北京达佳互联信息技术有限公司 用于面部的虚拟物品的图像生成方法、装置、终端及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021590A (zh) * 2013-02-28 2014-09-03 北京三星通信技术研究有限公司 虚拟试穿试戴***和虚拟试穿试戴方法
US20160035133A1 (en) * 2014-07-31 2016-02-04 Ulsee Inc. 2d image-based 3d glasses virtual try-on system
CN105869216A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置
WO2016135078A1 (en) * 2015-02-23 2016-09-01 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
US20160295198A1 (en) * 2015-01-08 2016-10-06 David G. Grossman Depth Sensor
CN106384388A (zh) * 2016-09-20 2017-02-08 福州大学 基于html5和增强现实技术的互联网眼镜实时试戴方法及***
CN106980840A (zh) * 2017-03-31 2017-07-25 北京小米移动软件有限公司 脸型匹配方法、装置及存储介质
CN107066095A (zh) * 2017-03-31 2017-08-18 联想(北京)有限公司 一种信息处理方法及电子设备
CN107341827A (zh) * 2017-07-27 2017-11-10 腾讯科技(深圳)有限公司 一种视频处理方法、装置和存储介质
CN107452034A (zh) * 2017-07-31 2017-12-08 广东欧珀移动通信有限公司 图像处理方法及其装置
CN107610171A (zh) * 2017-08-09 2018-01-19 广东欧珀移动通信有限公司 图像处理方法及其装置
CN107680069A (zh) * 2017-08-30 2018-02-09 歌尔股份有限公司 一种图像处理方法、装置和终端设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021590A (zh) * 2013-02-28 2014-09-03 北京三星通信技术研究有限公司 虚拟试穿试戴***和虚拟试穿试戴方法
US20160035133A1 (en) * 2014-07-31 2016-02-04 Ulsee Inc. 2d image-based 3d glasses virtual try-on system
US20160295198A1 (en) * 2015-01-08 2016-10-06 David G. Grossman Depth Sensor
WO2016135078A1 (en) * 2015-02-23 2016-09-01 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
CN105869216A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置
CN106384388A (zh) * 2016-09-20 2017-02-08 福州大学 基于html5和增强现实技术的互联网眼镜实时试戴方法及***
CN106980840A (zh) * 2017-03-31 2017-07-25 北京小米移动软件有限公司 脸型匹配方法、装置及存储介质
CN107066095A (zh) * 2017-03-31 2017-08-18 联想(北京)有限公司 一种信息处理方法及电子设备
CN107341827A (zh) * 2017-07-27 2017-11-10 腾讯科技(深圳)有限公司 一种视频处理方法、装置和存储介质
CN107452034A (zh) * 2017-07-31 2017-12-08 广东欧珀移动通信有限公司 图像处理方法及其装置
CN107610171A (zh) * 2017-08-09 2018-01-19 广东欧珀移动通信有限公司 图像处理方法及其装置
CN107680069A (zh) * 2017-08-30 2018-02-09 歌尔股份有限公司 一种图像处理方法、装置和终端设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DIFEI TANG ET AL: "MAKING 3D EYEGLASSES TRY-ON PRACTICAL", 《2014 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO WORKSHOPS (ICMEW)》 *
杜瑶等: "单幅图像真实感虚拟试戴技术", 《计算机***应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109618097A (zh) * 2018-12-29 2019-04-12 维沃移动通信有限公司 辅助拍照方法及终端设备
CN109618097B (zh) * 2018-12-29 2021-03-16 维沃移动通信有限公司 辅助拍照方法及终端设备
CN110070481A (zh) * 2019-03-13 2019-07-30 北京达佳互联信息技术有限公司 用于面部的虚拟物品的图像生成方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN108764135B (zh) 2022-02-08

Similar Documents

Publication Publication Date Title
CN106101689B (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
JP6095763B2 (ja) ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
CN105404392B (zh) 基于单目摄像头的虚拟穿戴方法及***
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6177872B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP6333801B2 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
US20120075496A1 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
CN109685906A (zh) 基于增强现实的场景融合方法和装置
CN114514744B (zh) 多维渲染
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
JP6250025B2 (ja) 入出力装置、入出力プログラム、および入出力方法
CN108764135A (zh) 图像生成方法、装置,及电子设备
JP7371623B2 (ja) 表示制御装置、プログラムおよび表示制御方法
CN113744411A (zh) 图像处理方法及装置、设备、存储介质
CN103400339B (zh) 3d地贴的制作方法
KR102031870B1 (ko) 가상 이미지 영상동기화를 위한 증강현실글래스
KR20140108900A (ko) 3차원 이미지 생성 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant