CN111723806A - 增强现实方法和装置 - Google Patents
增强现实方法和装置 Download PDFInfo
- Publication number
- CN111723806A CN111723806A CN201910207272.1A CN201910207272A CN111723806A CN 111723806 A CN111723806 A CN 111723806A CN 201910207272 A CN201910207272 A CN 201910207272A CN 111723806 A CN111723806 A CN 111723806A
- Authority
- CN
- China
- Prior art keywords
- image
- virtual content
- target object
- target
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000007781 pre-processing Methods 0.000 claims abstract description 21
- 230000011218 segmentation Effects 0.000 claims description 65
- 238000009499 grossing Methods 0.000 claims description 25
- 238000013135 deep learning Methods 0.000 claims description 14
- 239000003086 colorant Substances 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 238000007619 statistical method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 210000000282 nail Anatomy 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 210000004905 finger nail Anatomy 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了增强现实方法和装置。该方法的一具体实施方式包括:对实时采集的目标对象的原始图像进行预处理;从经过所述预处理后的目标对象的图像中确定出目标区域;确定与所述目标区域对应的虚拟内容;将所述虚拟内容应用到所述目标区域,生成添加了所述虚拟内容的目标对象的增强现实图像。该实施方式实现了终端设备实时对所采集到的目标对象的图像进行增强现实处理。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及图像处理技术领域,尤其涉及增强现实方法和装置。
背景技术
增强现实(Augmented Reality,AR)是一种实时计算摄像机位置和角度并在真实场景中叠加虚拟物体的技术,其通过附加虚拟的数字信息以提升用户与真实环境的交互体验。增强现实的大致过程为:首先在真实场景中定位摄像机位姿,然后采用计算机图形渲染技术将虚拟物体注册到真实场景中生成虚实融合的应用视图。
发明内容
本申请实施例提出了一种增强现实方法和装置。
第一方面,本申请实施例提供了一种增强现实方法,该方法包括:对实时采集的目标对象的原始图像进行预处理;从经过预处理后的目标对象的图像中确定出目标区域;确定与目标区域对应的虚拟内容;将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
在一些实施例中,从经过预处理后的目标对象的原始图像中确定出目标区域,包括:将经过预处理后的目标对象的图像输入到预先训练的语义分割模型,得到包括目标区域的分割结果,语义分割模型用于将所输入的图像分割成多个区域。
在一些实施例中,语义分割模型为轻量级深度学习网络。
在一些实施例中,确定与目标区域对应的虚拟内容,包括:基于目标对象的图像中除目标区域之外的其他区域的图像特征确定与图像特征匹配的虚拟内容。
在一些实施例中基于目标对象的图像中除目标区域之外的其他区域的图像特征确定包括与图像特征匹配的虚拟内容,包括:根据其他区域对应的像素的颜色特征,按照预设的特征值统计算法获得其他区域的主要颜色;查询预先配置的颜色映射关系,获得与主要颜色对应的对比颜色;配置虚拟内容的显示颜色为对比颜色。
在一些实施例中,在将虚拟内容应用到目标区域之前,方法还包括:对分割结果中的目标区域的轮廓进行平滑处理。
在一些实施例中,对目标区域的轮廓进行平滑处理,包括:使用包括预设高斯核的高斯平滑算法对目标区域的轮廓进行平滑处理。
在一些实施例中,将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像,包括:将应用了虚拟内容的目标区域替代目标对象的原始图像中的对应区域,生成添加了虚拟内容的目标对象的增强现实图像。
第二方面,本申请实施例提供了一种增强现实装置,该装置包括:预处理单元,被配置成对实时采集的目标对象的原始图像进行预处理;目标区域确定单元,被配置成从经过预处理后的目标对象的图像中确定出目标区域;虚拟内容确定单元,被配置成确定与目标区域对应的虚拟内容;生成单元,被配置成将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
在一些实施例中,目标区域确定单元进一步被配置成:将经过预处理后的目标对象的图像输入到预先训练的语义分割模型,得到包括目标区域的分割结果,语义分割模型用于将所输入的图像分割成多个区域。
在一些实施例中,语义分割模型为轻量级深度学习网络。
在一些实施例中,虚拟内容确定单元进一步被配置成:基于目标对象的图像中除目标区域之外的其他区域的图像特征确定包括与图像特征匹配的虚拟内容。
在一些实施例中,虚拟内容确定单元进一步被配置成:根据其他区域对应的像素的颜色特征,按照预设的特征值统计算法获得其他区域的主要颜色;查询预先配置的颜色映射关系,获得与主要颜色对应的对比颜色;配置虚拟内容的显示颜色为对比颜色。
在一些实施例中,该装置还包括轮廓处理单元,轮廓处理单元被配置成:在虚拟内容确定单元将虚拟内容应用到目标区域之前,对分割结果中的目标区域的轮廓进行平滑处理。
在一些实施例中,轮廓处理单元进一步被配置成:使用包括预设高斯核的高斯平滑算法对目标区域的轮廓进行平滑处理。
在一些实施例中,生成单元进一步被配置成:将应用了虚拟内容的目标区域替代目标对象的原始图像中的对应区域,生成添加了虚拟内容的目标对象的增强现实图像。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的增强现实方法和装置,通过对接收到的由图像采集装置实时采集的目标对象的原始图像进行预处理,而后从经过预处理后的目标对象的图像中确定出目标区域,接着确定与目标区域对应的虚拟内容,最后将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像,从而实现了终端设备实时对所采集到的目标对象的图像进行增强现实处理。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例的增强现实方法可以应用于其中的示例性***架构图;
图2是根据本申请的增强现实方法的一个实施例的流程图;
图3A~图3C是根据本申请的增强现实方法的一个应用场景的示意图;
图4是根据本申请的增强现实方法的又一个实施例的流程图;
图5是根据本申请的增强现实装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了本申请的一个实施例的增强现实方法可以应用于其中的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如接收终端设备101、102、103发送的增强现实图像,并进行保存的后台服务器。
需要说明的是,本申请实施例所提供的增强现实方法一般由终端设备101、102、103执行,相应地,增强现实装置一般设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的增强现实方法的一个实施例的流程200。该增强现实方法,包括以下步骤:
步骤201,对实时采集的目标对象的原始图像进行预处理。
在本实施例中,增强现实方法的执行主体(例如图1所示的终端设备)中可以设置图像采集装置,或者可以与图像采集装置通过有线连接方式或者无线连接方式实现通信连接。
图像采集装置可以实时采集目标对象的图像。由图像采集装置所采集的目标对象的图像可以视为目标对象的原始图像。
这里的目标对象例如可以为各种对象,人物、人物的某个身体部位(例如手、头部等)、动物等,上述目标对象还可以为物体,例如汽车、建筑物等。
上述执行主体可以实时接收由图像采集装置所采集的目标物体的原始图像。
上述执行主体可以对上述目标对象的原始图像进行预处理。这里的预处理可以包括图像进行几何变换、图像增强等。上图像几何变换例如可以包括对图像进行平移、转置、镜像、旋转、缩放等几何操作。
经过预处理后的目标对象的图像,目标对象所包括的像素大小、目标对象的图像所在位置以及角度等可以满足预设图像规则。
步骤202,从经过预处理后的目标对象的图像中确定出目标区域。
在本实施例中,基于步骤201中得到的经过预处理后的目标对象的图像,上述执行主体(例如图1所示的服务器)可以将经过预处理后的目标对象的图像经过各种分析处理,从而从上述图像中确定出目标区域。这里的目标区域可以是目标对象的图像中的局部区域。
在一些应用场景中,上述目标对象可以是人的手。这里的目标区域例如可以是从人手图像中提取出的指甲区域。在另外一些应用场景中,上述目标对象例如可以是人的头部,这里的目标区域例如可以是人的头部图像中提取出来的头发区域。在另外一些应用场景中,上述目标对象例如可以是人脸,这里的目标区域例如可以是从人脸图像中确定出的唇部区域。
实践中,可以事先确定待处理对象。这里的待处理对象可以为目标对象的局部组成部分。上述执行主体可以通过各种图像分割方法,对目标对象进行分割,然后从分割结果中选取出待处理对象的图像作为目标区域。
上述图像分割方法例如可以是基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法、基于聚类分析的图像分割方法、基于小波变换的分割方法、基于小波变换的分割方法、基于神经网络的分割方法等。
需要说明的是,上述各种图像分割方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤203,确定与目标区域对应的虚拟内容。
在本实施例中,在步骤202中得到目标区域之后,上述增强现实方法的执行主体上可以通过各种分析方法确定与目标区域对应的虚拟内容。
上述虚拟内容例如可以包括虚拟装饰物、虚拟内容区域的显示颜色等。
在一些应用场景中,在显示在上述执行主体的界面中可以提供多个虚拟内容选择项,例如虚拟装饰物选择项、多个显示颜色选择项等。用户可以从上述多个虚拟内容选择项中选取一个虚拟内容。上述执行主体可以将用户的选择操作所指示的虚拟内容确定为与目标区域对应的虚拟内容。
在本实施例的一些可选的实现方式中,上述步骤203可以包括:基于目标对象的图像中除目标区域之外的其他区域的图像特征确定与上述图像特征匹配的虚拟内容。这里的图像特征例如可以包括颜色特征、纹理特征、形状特征、空间关系特征等。
作为一个示意性说明,上述目标对象可以为人的头部,目标对象的原始图像为图像采集装置所实时拍摄的目标对象的头部图像。头部图像中包括脸部图像和头发图像。可以事先确定头发为待处理对象,可以根据脸部的纹理特征、形状特征来确定头发的虚拟发型。
作为另一个示意性说明,上述目标对象可以是人手。目标对象的原始图像可以为图像采集装置实时采集的人手图像。人手图像中包括人手和手上的指甲。可以事先确定指甲为待处理对象。上述执行主体可以提取人手图像中除去指甲之外的其他区域的纹理特征、颜色特征等来确定上述指甲区域所对应的虚拟内容。这里的虚拟内容例如可以包括显示颜色、虚拟装饰物等。
进一步地,上述基于所述目标对象的图像中除所述目标区域的其他区域的图像特征确定包括与所述图像特征匹配的虚拟内容,可以包括如下步骤:
首先,根据上述的其他区域对应的像素的颜色特征,按照预设的特征值统计算法获得所述其他区域的主要颜色。
特征值统计算法可以是统计图像RGB值的分布,取RGB值的平均值或中值为主要颜色。也可以是计算所有像素的灰度分布,以占有最多像素的灰度值为主要颜色的灰度值。
其次,查询预先配置的颜色映射关系,获得与上述主要颜色对应的对比颜色。
预先配置的颜色映射关系可以是存储了多种颜色以及与每一种颜色对应的对比颜色的列表,也可以是主要颜色与对比颜色的函数关系式。
最后,配置上述虚拟内容的显示颜色为上述对比颜色。
作为一个示意性说明,上述目标对象可以为人手。目标对象的原始图像可以是实时采集的人手图像。可以事先确定指甲为目标对象。上述执行主体可以提取手部除指甲之外的其他区域的主要颜色,并根据预先设置的颜色映射关系来选取与上述主要颜色对应的对比颜色。并将上述对比颜色确定为确定指甲区域对应的虚拟内容的显示颜色。
步骤204,将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
在本实施例中,上述执行主体可以通过各种方法将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
在一些应用场景中,在步骤202中从经过预处理后的目标对象的图像中确定出目标区域之后,可以生成二值遮罩图。上遮罩图中的目标区域为白色区域,其他区域为黑色区域。在这些应用场景中,可以将上述虚拟内容应用在上述遮罩图中白色区域中。然后将上述应用了虚拟内容的遮罩图与目标对象的原始图像进行混合,得到上述添加了虚拟内容的目标对象的增强现实图像。
在另外一些应用场景中,上述步骤204的将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像,可以包括:将应用了所述虚拟内容的目标区域替代所述目标对象的原始图像中的对应区域,生成添加了所述虚拟内容的目标对象的增强现实图像。实践中,可以在步骤202中从经过预处理后的目标对象的图像中确定出目标区域之后,可以生成二值遮罩图。上遮罩图中的目标区域为白色区域,其他区域为黑色区域。然后将上述二值遮罩图经过上述对目标对象的原始图像进行预处理的对应的反向图像处理方法,将二值遮罩图处理成与原始图像的像素大小相同的处理后二值遮罩图。在处理后二值遮罩图的白色区域内(目标区域)应用虚拟内容。并将应用了虚拟内容的目标区域替换目标对象的原始图像中的对应区域。
继续参见图3A~图3C,图3A~图3C是根据本申请的增强现实方法的一个应用场景的示意图。在该应用场景中,以人手为目标对象。以人手图像中的指甲区域为目标区域。终端设备可以实时接收由设置在其上的图像采集装置所采集的人手的原始图像。并对上述人手图像进行预处理得到图3A所示的经过预处理后的人手的图像。图3A中的指甲区域是目标区域301。终端设备可以从图3A所示的人手图像中确定出目标区域301,得到如图3B所示的显示目标区域的图像(图3B中的白色区域为目标区域)。终端设备可以确定与目标区域对应的虚拟内容。终端设备可以将虚拟内容应用到上述目标区域,生成如图3B所示的添加了虚拟内容的目标对象的增强现实图像。在上述增强现实图像中,显示了添加虚拟内容的指甲区域301’。
本申请的上述实施例提供的方法通过对实时采集的目标对象的原始图像进行预处理,然后从经过预处理后的目标对象的图像中确定出目标区域,接着确定与目标区域对应的虚拟内容,最后将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。实现了终端设备实时对所采集到的目标对象的图像进行增强现实处理,使得用户可以通过增强现实图像来观察将与虚拟内容对应的实体应用到目标对象的效果。
进一步参考图4,其示出了增强现实方法的又一个实施例的流程400。该增强现实方法的流程400,包括以下步骤:
步骤401,对实时采集的目标对象的原始图像进行预处理。
在本实施例中,步骤401与图2所示实施例的中的步骤201可以相同或相似,此处不赘述。
步骤402,将经过预处理后的目标对象的图像输入到预先训练的语义分割模型,得到包括目标区域的分割结果。
在本实施例中,增强现实方法的执行主体(例如图1所示的终端设备)中可以预先设置预先训练的语义分割模型。在步骤401中对图像采集装置采集的目标对象的原始图像进行预处理后,将经过预处理的目标对象的图像输入到上述预先训练的语义分割模型中,由上述语义分割模型生成对目标对象的图像的分割结果。这里的分割结果可以是语义分割模型对上述目标对象的图像进行分割得到的多个区域。
在一些应用场景中,可以事先指定目标对象的待处理对象。这里的待处理对象反映在图像中即为目标区域。
上述语义分割模型可以是各种现有的语义分割模型,例如:基于FCN网络的语义分割模型、基于SegNet网络的语义分割模型、基于空洞卷积网络的语义分割模型、基于RefineNet的语义分割模型等等。需要说明的是,上述各种语义分割模型是目前广泛研究和应用的公知技术,此处不赘述。
在本实施例的一些可选的实现方式中,上述语义分割模型可以是轻量级深度学习网络。这里的轻量级深度学习网络例如可以是现有的MobileNet V1网络、MobileNet V2网络等,以及将来开发的适用在移动端的深度学习网络。
上述轻量级深度学习网络主要用于移动端计算模型。轻量级深度学习模型将原本标准的卷积操作改为两层的卷积操作,在保证准确率的前提下,可以减少计算参数。轻量级深度学习网络的核心是将原本标准的卷积操作因式分解成一个深度卷积(Depthwiseconvolution)和一个1×1的逐点卷积(Pointwise convolution)操作。也就是将原来一个卷积层分成两个卷积层,其中前面一个卷积层的每个卷积核(Filter只跟输入的每个通道(Channel)进行卷积,然后后面一个卷积层则负责合并(Combining),即将上一层卷积的结果进行合并。从而减少了卷积核的冗余表达。在计算量和参数量上可以明显下降。从而上述轻量级神经网络可以用于移动设备中。
由于轻量级深度学习网络在计算量和参数量均有下降,当终端设备使用上述轻量级深度学习模型来对图像进行分割时,所占用的资源较少,因此使得移动设备可以顺畅的对图像进行实时分割以及进行分割之后的处理,可以改善用户体验。
需要说明的是,在使用上述各种语义分割模型对目标对象的图像进行语义分割时,需要对语义分割模型进行训练。对语义分割摸型进行训练可以包括如下步骤:首先,获取训练样本集。训练样本集包括多个添加了标注的目标对象的图像。上述标注可以包括对目标对象的各待区分的区域的轮廓。或者上述标注可以包括目标区域的轮廓。其次,对通过训练样本进行几何变换,并对几何变换后的目标对象的图像进行标注,将添加了标注的几何变换后的目标对象的图像添加至训练样本集,完成训练样本集的增广。再次,利用机器学习的方法,将增广后的训练样本集中的样本作为初始语义分割模型的输入,将目标对象的目标区域的轮廓作为初始语义分割模型的期望输出,训练得到训练后的语义分割模型。
在本实施例中,上述轻量级深度学习网络包括编码器部分和解码器部分。编码器部分可以是对MobilenetV2网络进行修改后的网络。具体地,可以将原MobilenetV2网络最后的全连接层替换为卷积层,从而可以实现像素级分割。使得上述轻量级深度学习网络可以应用于像素级分割领域。
解码器部分,该部分的层次结构与上述编码器部分的层次基本对应。每一层在进行反卷积运算后与特征提取部分相同尺寸的特征图(feature map)做通道融合,得到新的特征图后再运行一次卷积。最后一层通过双线性的方式进行固定参数形式的上采样。值得注意的是由于解码器部分的作用是对低分辨率的特征还原成高分辨率的特征,所以在每次卷积之后无需进行归一化和激活函数运算。
需要说明的是,上述轻量级深度学习网络MobileNet V1、MobileNet V2的结构和使用方法是目前广泛研究和应用的公知技术,此处不赘述。
步骤403,确定与目标区域对应的虚拟内容。
在本实施例中,步骤403可以与图2所示实施例中的步骤203相同或相似,此处不赘述。
步骤404,对分割结果中的目标区域的轮廓进行平滑处理。
在本实施例中,为了避免对目标区域直接适用虚拟内容(例如显示颜色)而出现的边缘锯齿现象,可以使用现有的各种平滑处理方法对在步骤402中分割得到的目标区域的轮廓进行平滑处理。
上述平滑处理算法例如可以包括:均值滤波算法、中值滤波算法、双边滤波算法等。上述平滑处理算法是目前广泛研究和应用的公知技术内容,此处不赘述。
在本实施例的一些可选的实现方式中,上述对分割结果中的目标区域的轮廓进行平滑处理,可以包括使用包括预设高斯核的高斯平滑算法对所分割的目标区域的轮廓进行平滑处理。具体地,对于每一个像素,可以对该像素进行邻域像素值采样,然后按照高斯核对领域像素值的采样值进行加权平均处理,得到该像素的颜色值。
在这些可选的实现方式中,上述预设高斯核的一种示例如下所示:
0.0751 | 0.1238 | 0.0751 |
0.1238 | 0.2042 | 0.1238 |
0.0751 | 0.1238 | 0.0751 |
上述执行主体可以将上述对目标区域的轮廓的平滑处理的任务分配给设置在执行主体中的图形处理器(Graphics Processing Unit,GPU)。从而减少执行主体中的中央处理器(CPU)的任务量。
经过上述高斯平滑处理,可以降低分割所得到的目标区域的轮廓的细节层次,从而可以改善在将虚拟内容应用到目标区域时,引起的锯齿现象。
步骤405,将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
在本实施例中,步骤405可以与图2所示实施例中的步骤204相同,此处不赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的增强现实方法的流程400突出了将经过预处理后的目标对象的图像输入到预先训练的语义分割模型得到包括目标区域的分割结果,可以减少从目标对象的图像中确定出目标区域的运算量,提高生成目标对象的增强现实图像的速度。在一些应用场景中,上述语义分割模型可以为轻量级语义分割网络模型,从而可以确保在移动端上实时生成目标对象的增强现实图像的流畅度。
此外,本实施例还突出了对分割结果中的目标区域的轮廓进行平滑处理的步骤,由此,本实施例描述的方案使得增强现实图像中的目标对象的图像与虚拟内容在视觉上达到融为一体的效果。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种增强现实装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的增强现实装置500包括:预处理单元501、目标区域确定单元502、虚拟内容确定单元503和生成单元504。其中,预处理单元501,被配置成对实时采集的目标对象的原始图像进行预处理;目标区域确定单元502,被配置成从经过预处理后的目标对象的图像中确定出目标区域;虚拟内容确定单元503,被配置成确定与目标区域对应的虚拟内容;生成单元504,被配置成将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
在本实施例中,增强现实装置500的预处理单元501、目标区域确定单元502、虚拟内容确定单元503和生成单元504的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,目标区域确定单元502进一步被配置成:将经过预处理后的目标对象的图像输入到预先训练的语义分割模型,得到包括目标区域的分割结果,语义分割模型用于将所输入的图像分割成多个区域。
在本实施例的一些可选的实现方式中,语义分割模型为轻量级深度学习网络。
在本实施例的一些可选的实现方式中,虚拟内容确定单元503进一步被配置成:基于目标对象的图像中除目标区域的其他区域的图像特征确定包括与图像特征匹配的虚拟内容。
在本实施例的一些可选的实现方式中,虚拟内容确定单元503进一步被配置成:根据上述其他区域对应的像素的颜色特征,按照预设的特征值统计算法获得其他区域的主要颜色;查询预先配置的颜色映射关系,获得与主要颜色对应的对比颜色;配置虚拟内容的显示颜色为对比颜色。
在本实施例的一些可选的实现方式中,增强现实装置500还包括轮廓处理单元(图中未示出)。轮廓处理单元被配置成:在虚拟内容确定单元将虚拟内容应用到目标区域之前,对分割结果中的目标区域的轮廓进行平滑处理。
在本实施例的一些可选的实现方式中,轮廓处理单元进一步被配置成:使用包括预设高斯核的高斯平滑算法对上述目标区域的轮廓进行平滑处理。
在本实施例的一些可选的实现方式中,生成单元504进一步被配置成:将应用了虚拟内容的目标区域替代目标对象的原始图像中的对应区域,生成添加了虚拟内容的目标对象的增强现实图像。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机***600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU,Central Processing Unit)601,其可以根据存储在只读存储器(ROM,Read Only Memory)602中的程序或者从存储部分608加载到随机访问存储器(RAM,Random Access Memory)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。上述计算机***600还可以包括图形处理器(GPU)612。CPU601、ROM 602、RAM 603以及GPU612通过总线604彼此相连。输入/输出(I/O,Input/Output)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT,Cathode Ray Tube)、液晶显示器(LCD,Liquid Crystal Display)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN(局域网,Local AreaNetwork)卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括预处理单元、目标区域确定单元、虚拟内容确定单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,预处理单元还可以被描述为“对实时采集的目标对象的原始图像进行预处理的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:对实时采集的目标对象的原始图像进行预处理;从经过预处理后的目标对象的图像中确定出目标区域;确定与目标区域对应的虚拟内容;将虚拟内容应用到目标区域,生成添加了虚拟内容的目标对象的增强现实图像。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种增强现实方法,包括:
对实时采集的目标对象的原始图像进行预处理;
从经过所述预处理后的目标对象的图像中确定出目标区域;
确定与所述目标区域对应的虚拟内容;
将所述虚拟内容应用到所述目标区域,生成添加了所述虚拟内容的目标对象的增强现实图像。
2.根据权利要求1所述的方法,其中,所述从经过所述预处理后的目标对象的原始图像中确定出目标区域,包括:
将经过预处理后的目标对象的图像输入到预先训练的语义分割模型,得到包括所述目标区域的分割结果,所述语义分割模型用于将所输入的图像分割成多个区域。
3.根据权利要求2所述的方法,其中,所述语义分割模型为轻量级深度学习网络。
4.根据权利要求1所述的方法,其中,所述确定与所述目标区域对应的虚拟内容,包括:
基于所述目标对象的图像中除所述目标区域之外的其他区域的图像特征确定与所述图像特征匹配的虚拟内容。
5.根据权利要求4所述的方法,其中,所述基于所述目标对象的图像中除所述目标区域之外的其他区域的图像特征确定包括与所述图像特征匹配的虚拟内容,包括:
根据所述其他区域对应的像素的颜色特征,按照预设的特征值统计算法获得所述其他区域的主要颜色;
查询预先配置的颜色映射关系,获得与所述主要颜色对应的对比颜色;
配置所述虚拟内容的显示颜色为所述对比颜色。
6.根据权利要求2所述的方法,其中,在将所述虚拟内容应用到所述目标区域之前,所述方法还包括:
对分割结果中的所述目标区域的轮廓进行平滑处理。
7.根据权利要求6所述的方法,其中,所述对所述目标区域的轮廓进行平滑处理,包括:
使用包括预设高斯核的高斯平滑算法对所述目标区域的轮廓进行平滑处理。
8.根据权利要求1所述的方法,其中,所述将所述虚拟内容应用到所述目标区域,生成添加了所述虚拟内容的目标对象的增强现实图像,包括:
将应用了所述虚拟内容的目标区域替代所述目标对象的原始图像中的对应区域,生成添加了所述虚拟内容的目标对象的增强现实图像。
9.一种增强现实装置,包括:
预处理单元,被配置成对实时采集的目标对象的原始图像进行预处理;
目标区域确定单元,被配置成从经过所述预处理后的目标对象的图像中确定出目标区域;
虚拟内容确定单元,被配置成确定与所述目标区域对应的虚拟内容;
生成单元,被配置成将所述虚拟内容应用到所述目标区域,生成添加了所述虚拟内容的目标对象的增强现实图像。
10.根据权利要求9所述的装置,其中,所述目标区域确定单元进一步被配置成:
将经过预处理后的目标对象的图像输入到预先训练的语义分割模型,得到包括所述目标区域的分割结果,所述语义分割模型用于将所输入的图像分割成多个区域。
11.根据权利要求10所述的装置,其中,所述语义分割模型为轻量级深度学习网络。
12.根据权利要求9所述的装置,其中,所述虚拟内容确定单元进一步被配置成:
基于所述目标对象的图像中除所述目标区域之外的其他区域的图像特征确定包括与所述图像特征匹配的虚拟内容。
13.根据权利要求12所述的装置,其中,所述虚拟内容确定单元进一步被配置成:
根据所述其他区域对应的像素的颜色特征,按照预设的特征值统计算法获得所述其他区域的主要颜色;
查询预先配置的颜色映射关系,获得与所述主要颜色对应的对比颜色;
配置所述虚拟内容的显示颜色为所述对比颜色。
14.根据权利要求10所述的装置,其中,所述装置还包括轮廓处理单元,所述轮廓处理单元被配置成:
在所述虚拟内容确定单元将所述虚拟内容应用到所述目标区域之前,对分割结果中的所述目标区域的轮廓进行平滑处理。
15.根据权利要求14所述的装置,其中,所述轮廓处理单元进一步被配置成:
使用包括预设高斯核的高斯平滑算法对所述目标区域的轮廓进行平滑处理。
16.根据权利要求9所述的装置,其中,所述生成单元进一步被配置成:
将应用了所述虚拟内容的目标区域替代所述目标对象的原始图像中的对应区域,生成添加了所述虚拟内容的目标对象的增强现实图像。
17.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910207272.1A CN111723806A (zh) | 2019-03-19 | 2019-03-19 | 增强现实方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910207272.1A CN111723806A (zh) | 2019-03-19 | 2019-03-19 | 增强现实方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111723806A true CN111723806A (zh) | 2020-09-29 |
Family
ID=72562344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910207272.1A Pending CN111723806A (zh) | 2019-03-19 | 2019-03-19 | 增强现实方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723806A (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110379A (zh) * | 2011-02-22 | 2011-06-29 | 黄振强 | 多媒体增强现实读物 |
US20140344762A1 (en) * | 2013-05-14 | 2014-11-20 | Qualcomm Incorporated | Augmented reality (ar) capture & play |
US8976191B1 (en) * | 2014-03-13 | 2015-03-10 | Qualcomm Incorporated | Creating a realistic color for a virtual object in an augmented reality environment |
CN106373197A (zh) * | 2016-09-06 | 2017-02-01 | 广州视源电子科技股份有限公司 | 一种增强现实的方法及增强现实装置 |
CN106445282A (zh) * | 2016-09-08 | 2017-02-22 | 掌阅科技股份有限公司 | 一种基于增强现实技术的交互方法 |
CN106845440A (zh) * | 2017-02-13 | 2017-06-13 | 山东万腾电子科技有限公司 | 一种增强现实图像处理方法及*** |
CN106897982A (zh) * | 2017-02-23 | 2017-06-27 | 淮阴工学院 | 基于图像无标记识别的现实增强方法 |
CN106961595A (zh) * | 2017-03-21 | 2017-07-18 | 深圳市科漫达智能管理科技有限公司 | 一种基于增强现实的视频监控方法及视频监控*** |
CN107067474A (zh) * | 2017-03-07 | 2017-08-18 | 深圳市吉美文化科技有限公司 | 一种增强现实处理方法及装置 |
CN107481327A (zh) * | 2017-09-08 | 2017-12-15 | 腾讯科技(深圳)有限公司 | 关于增强现实场景的处理方法、装置、终端设备及*** |
CN107945163A (zh) * | 2017-11-23 | 2018-04-20 | 广州酷狗计算机科技有限公司 | 图像增强方法及装置 |
US20180165888A1 (en) * | 2016-12-13 | 2018-06-14 | Alibaba Group Holding Limited | Allocating virtual objects based on augmented reality |
CN108711144A (zh) * | 2018-05-16 | 2018-10-26 | 上海白泽网络科技有限公司 | 增强现实方法及装置 |
CN109215037A (zh) * | 2018-09-18 | 2019-01-15 | Oppo广东移动通信有限公司 | 目标图像分割方法、装置及终端设备 |
-
2019
- 2019-03-19 CN CN201910207272.1A patent/CN111723806A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110379A (zh) * | 2011-02-22 | 2011-06-29 | 黄振强 | 多媒体增强现实读物 |
US20140344762A1 (en) * | 2013-05-14 | 2014-11-20 | Qualcomm Incorporated | Augmented reality (ar) capture & play |
US8976191B1 (en) * | 2014-03-13 | 2015-03-10 | Qualcomm Incorporated | Creating a realistic color for a virtual object in an augmented reality environment |
CN106373197A (zh) * | 2016-09-06 | 2017-02-01 | 广州视源电子科技股份有限公司 | 一种增强现实的方法及增强现实装置 |
CN106445282A (zh) * | 2016-09-08 | 2017-02-22 | 掌阅科技股份有限公司 | 一种基于增强现实技术的交互方法 |
US20180165888A1 (en) * | 2016-12-13 | 2018-06-14 | Alibaba Group Holding Limited | Allocating virtual objects based on augmented reality |
CN106845440A (zh) * | 2017-02-13 | 2017-06-13 | 山东万腾电子科技有限公司 | 一种增强现实图像处理方法及*** |
CN106897982A (zh) * | 2017-02-23 | 2017-06-27 | 淮阴工学院 | 基于图像无标记识别的现实增强方法 |
CN107067474A (zh) * | 2017-03-07 | 2017-08-18 | 深圳市吉美文化科技有限公司 | 一种增强现实处理方法及装置 |
CN106961595A (zh) * | 2017-03-21 | 2017-07-18 | 深圳市科漫达智能管理科技有限公司 | 一种基于增强现实的视频监控方法及视频监控*** |
CN107481327A (zh) * | 2017-09-08 | 2017-12-15 | 腾讯科技(深圳)有限公司 | 关于增强现实场景的处理方法、装置、终端设备及*** |
CN107945163A (zh) * | 2017-11-23 | 2018-04-20 | 广州酷狗计算机科技有限公司 | 图像增强方法及装置 |
CN108711144A (zh) * | 2018-05-16 | 2018-10-26 | 上海白泽网络科技有限公司 | 增强现实方法及装置 |
CN109215037A (zh) * | 2018-09-18 | 2019-01-15 | Oppo广东移动通信有限公司 | 目标图像分割方法、装置及终端设备 |
Non-Patent Citations (4)
Title |
---|
QIN YONG-XU ET.AL: "Campus Navigation System Based on Mobile Augmented Reality", 《 2013 6TH INTERNATIONAL CONFERENCE ON INTELLIGENT NETWORKS AND INTELLIGENT SYSTEMS (ICINIS)》, 24 July 2014 (2014-07-24), pages 139 - 142 * |
常明: "《计算机图形学算法与应用》", 30 October 2009, 武汉:华中科技大学出版社, pages: 325 - 329 * |
王一丁: "《工业图像处理》", 西安:西安电子科技大学出版社, pages: 39 - 41 * |
邢立国: "增强现实虚实遮挡技术研究现状分析", 《电脑知识与技术》, vol. 14, no. 27, 30 September 2018 (2018-09-30), pages 255 - 257 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614574B2 (en) | Generating image segmentation data using a multi-branch neural network | |
US11880977B2 (en) | Interactive image matting using neural networks | |
US11544905B2 (en) | Method and apparatus for providing virtual clothing wearing service based on deep-learning | |
CN107154063B (zh) | 图像展示区域的形状设置方法及装置 | |
CN111787242B (zh) | 用于虚拟试衣的方法和装置 | |
CN107622504B (zh) | 用于处理图片的方法和装置 | |
CN114187633B (zh) | 图像处理方法及装置、图像生成模型的训练方法及装置 | |
US8670615B2 (en) | Refinement of segmentation markup | |
CN113327278A (zh) | 三维人脸重建方法、装置、设备以及存储介质 | |
CN110378947B (zh) | 3d模型重建方法、装置及电子设备 | |
CN109272543B (zh) | 用于生成模型的方法和装置 | |
CN109118456B (zh) | 图像处理方法和装置 | |
CN106447756B (zh) | 用于生成用户定制的计算机生成动画的方法和*** | |
CN112330527A (zh) | 图像处理方法、装置、电子设备和介质 | |
Vergne et al. | Implicit Brushes for Stylized Line‐based Rendering | |
CN110827341A (zh) | 一种图片深度估计方法、装置和存储介质 | |
Xiao | Research on visual image texture rendering for artistic aided design | |
CN109241930B (zh) | 用于处理眉部图像的方法和装置 | |
CN114842120A (zh) | 一种图像渲染处理方法、装置、设备及介质 | |
CN116778015A (zh) | 模型描边的方法、装置、电子设备及存储介质 | |
CN115311403B (zh) | 深度学习网络的训练方法、虚拟形象生成方法及装置 | |
CN111107264A (zh) | 图像处理方法、装置、存储介质以及终端 | |
CN111723806A (zh) | 增强现实方法和装置 | |
CN114596203A (zh) | 用于生成图像和用于训练图像生成模型的方法和装置 | |
CN117011156A (zh) | 图像处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |