CN111192305B - 用于生成三维图像的方法和装置 - Google Patents
用于生成三维图像的方法和装置 Download PDFInfo
- Publication number
- CN111192305B CN111192305B CN201811359444.9A CN201811359444A CN111192305B CN 111192305 B CN111192305 B CN 111192305B CN 201811359444 A CN201811359444 A CN 201811359444A CN 111192305 B CN111192305 B CN 111192305B
- Authority
- CN
- China
- Prior art keywords
- depth
- image
- target
- training
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000010801 machine learning Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008485 antagonism Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000005337 ground glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于生成三维图像的方法和装置。该方法的一具体实施方式包括获取目标彩色图像;将目标彩色图像输入至预先训练的深度网络模型,得到目标彩色图像对应的目标深度图像,其中,深度网络模型用于生成深度图像;基于目标深度图像生成目标三维图像。该实施方式摆脱了对于三维相机的依赖,降低了实现成本,而且彩色图像的获取非常方便,从而可适用于各种不同的场景,具有广泛适用性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于生成三维图像的方法和装置。
背景技术
三维图像又叫做3D立体图。3D立体图视觉上层次分明色彩鲜艳,具有很强的视觉冲击力,让观看的人驻景时间长,留下深刻的印象。3D立体图给人以真实、栩栩如生,人物呼之欲出,有身临其境的感觉,有很高的艺术欣赏价值。
目前,通常采用3D相机来采集3D立体图。3D相机是可以用裸眼欣赏立体画像或动画的相机。3D相机的诞生,也就意味着人们可以不必使用专业眼镜、用肉眼就可以享受立体图像的效果。3D相机一般装配有2个镜头,以便可以再现立体影像,并且3D相机的价格通常都比较高。
发明内容
本申请实施例提出了用于生成三维图像的方法和装置。
第一方面,本申请实施例提供了一种用于生成三维图像的方法,包括:获取目标彩色图像;将目标彩色图像输入至预先训练的深度网络模型,得到目标彩色图像对应的目标深度图像,其中,深度网络模型用于生成深度图像;基于目标深度图像生成目标三维图像。
在一些实施例中,深度网络模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括样本彩色图像和对应的样本深度图像;利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型。
在一些实施例中,初始深度网络模型是生成式对抗网络,生成式对抗网络包括生成模型和判别模型;以及利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型,包括:对于训练样本集合中的训练样本,将该训练样本中的样本彩色图像输入生成模型,得到生成深度图像;将生成深度图像和该训练样本中的样本深度图像输入判别模型,得到判别结果,其中,判别结果用于表征生成深度图像和该训练样本中的样本深度图像是真实深度图像的概率;基于判别结果调整生成模型和判别模型的参数。
在一些实施例中,训练样本集合是利用Kinect设备或RGB-D相机采集的。
在一些实施例中,基于目标深度图像生成目标三维图像,包括:结合目标深度图像以及目标彩色图像生成目标三维图像。
第二方面,本申请实施例提供了一种用于生成三维图像的装置,包括:获取单元,被配置成获取目标彩色图像;输入单元,被配置成将目标彩色图像输入至预先训练的深度网络模型,得到目标彩色图像对应的目标深度图像,其中,深度网络模型用于生成深度图像;生成单元,被配置成基于目标深度图像生成目标三维图像。
在一些实施例中,深度网络模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括样本彩色图像和对应的样本深度图像;利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型。
在一些实施例中,初始深度网络模型是生成式对抗网络,生成式对抗网络包括生成模型和判别模型;以及利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型,包括:对于训练样本集合中的训练样本,将该训练样本中的样本彩色图像输入生成模型,得到生成深度图像;将生成深度图像和该训练样本中的样本深度图像输入判别模型,得到判别结果,其中,判别结果用于表征生成深度图像和该训练样本中的样本深度图像是真实深度图像的概率;基于判别结果调整生成模型和判别模型的参数。
在一些实施例中,训练样本集合是利用Kinect设备或RGB-D相机采集的。
在一些实施例中,生成单元进一步被配置成:结合目标深度图像以及目标彩色图像生成目标三维图像。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于生成三维图像的方法和装置,首先获取目标彩色图像,然后将目标彩色图像输入至预先训练的深度网络模型,以得到目标彩色图像对应的目标深度图像,进而基于目标深度图像生成目标三维图像,从而摆脱了对于三维相机的依赖,降低了实现成本,而且彩色图像的获取非常方便,从而可适用于各种不同的场景,具有广泛适用性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构;
图2是根据本申请的用于生成三维图像的方法的一个实施例的流程图;
图3是图2所提供的用于生成三维图像的方法的一个应用场景的示意图;
图4是根据本申请的用于训练深度网络模型的方法的一个实施例的流程图;
图5是根据本申请的用于生成三维图像的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于生成三维图像的方法或用于生成三维图像的装置的实施例的示例性***架构100。
如图1所示,***架构100中可以包括拍摄设备101、102、103,网络104和服务器105。网络104用以在拍摄设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
拍摄设备101、102、103可以通过网络104与服务器105交互,以接收或发送消息等。拍摄设备101、102、103可以是硬件,也可以是软件。当拍摄设备101、102、103为硬件时,可以是支持彩色图像拍摄功能的各种电子设备,包括但不限于摄像机、摄像头、照相机和智能手机等等。当拍摄设备101、102、103为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以提供各种服务,例如服务器105可以对从拍摄设备101、102、103获取到的目标彩色图像等数据进行分析等处理,生成处理结果(例如目标三维图像)。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于生成三维图像的方法一般由服务器105执行,相应地,用于生成三维图像的装置一般设置于服务器105中。
应该理解,图1中的拍摄设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的拍摄设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于生成三维图像的方法的一个实施例的流程200。该用于生成三维图像的方法,包括以下步骤:
步骤201,获取目标彩色图像。
在本实施例中,用于生成三维图像的方法的执行主体(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式从拍摄设备(例如图1所示的拍摄设备101、102、103)获取目标彩色图像。通常,拍摄设备支持彩色图像拍摄功能,可以对目标进行拍摄,从而得到目标彩色图像。其中,目标可以包括但不限于人体、动物、植物、物品等等。目标彩色图像又叫做目标RGB图像,它的每个像素点的像素值可以是所拍摄的目标表面的每个点的颜色值。通常,人类视力所能感知的所有颜色均是通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到的。
步骤202,将目标彩色图像输入至预先训练的深度网络模型,得到目标彩色图像对应的目标深度图像。
在本实施例中,上述执行主体可以将目标彩色图像输入至预先训练的深度网络模型,从而得到目标彩色图像对应的目标深度图像。其中,目标深度图像又叫做目标Depth图像,它的每个像素点的像素值可以是拍摄设备与所拍摄的目标表面的每个点之间的距离。通常,目标彩色图像和其对应的目标深度图像是配准的,因而目标彩色图像和目标深度图像的像素点之间具有一对一的对应关系。
在本实施例中,深度网络模型可以用于生成深度图像,表征目标彩色图像与目标深度图像之间的对应关系。
在本实施例的一些可选的实现方式中,深度网络模型可以是本领域技术人员对大量样本彩色图像以及对应的样本深度图像进行统计分析,而得到的存储有多个样本彩色图像与对应的样本深度图像的对应关系表。此时,上述执行主体可以计算目标彩色图像与该对应关系表中的各个样本彩色图像之间的相似度,并基于相似度结果从该对应关系表中得到目标彩色图像对应的目标深度图像。例如,上述执行主体可以从该对应关系表中查询出与目标彩色图像相似度最高的样本彩色图像对应的样本深度图像,作为目标深度图像。
在本实施例的一些可选的实现方式中,深度网络模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督或无监督训练而得到的。此时,上述执行主体可以将目标彩色图像输入至深度网络模型,经过向量转换、卷积计算等,从而输出目标彩色图像对应的目标深度图像。
步骤203,基于目标深度图像生成目标三维图像。
在本实施例中,上述执行主体可以基于目标深度图像生成目标三维图像。其中,目标三维图像又叫做目标3D图像,是利用人们两眼视觉差别和光学折射原理在一个平面内使人们直接看到一幅三维立体图,画中事物既可以凸出于画面之外,也可以深藏其中。
在本实施例的一些可选的实现方式中,上述执行主体可以结合目标深度图像以及目标彩色图像生成目标三维图像。由于目标深度图像的每个像素点的像素值可以是拍摄设备与所拍摄的目标表面的每个点之间的距离,目标彩色图像的每个像素点的像素值可以是所拍摄的目标表面的每个点的颜色值,而目标彩色图像与目标深度图像的像素点之间具有一对一的对应关系,因此通过两者的结合,可生成目标三维图像。
继续参见图3,图3是图2所提供的用于生成三维图像的方法的一个应用场景的示意图。在图3所示的应用场景中,若想要得到人体301的三维图像,可以首先利用手机302对人体301进行拍摄,得到人体301的彩色图像304,并发送至服务器303。然后,服务器303将人体301的彩色图像304输入至训练训练的深度网络模型305,得到人体301的彩色图像304对应的深度图像306。最后,服务器303结合人体的深度图像306以及人体的彩色图像304生成人体301的三维图像307,并发送至手机302进行展示。
本申请实施例提供的用于生成三维图像的方法,首先获取目标彩色图像,然后将目标彩色图像输入至预先训练的深度网络模型,以得到目标彩色图像对应的目标深度图像,进而基于目标深度图像生成目标三维图像,从而摆脱了对于三维相机的依赖,降低了实现成本,而且彩色图像的获取非常方便,从而可适用于各种不同的场景,具有广泛适用性。
进一步参考图4,其示出了根据本申请的用于训练深度网络模型的方法的一个实施例的流程400。该用于训练深度网络模型的方法,包括以下步骤:
步骤401,获取训练样本集合。
在本实施例中,用于训练深度网络模型的方法的执行主体(例如图1所示的服务器105)可以获取训练样本集合。其中,训练样本集合中的每个训练样本可以包括样本彩色图像和对应的样本深度图像。由于样本彩色图像和对应的样本深度图像通常是同时对样本进行拍摄所得到的,因此样本彩色图像和对应的样本深度图像是配准的,像素点之间具有一对一的对应关系。
在本实施例的一些可选的实现方式中,训练样本可以是利用Kinect设备或RGB-D相机采集的。通常,Kinect设备有三只“眼睛”,从左到右分别为:红外摄影机、彩色摄像头和红外摄像头,此外,还暗藏着四只“耳朵”,即L形布局的麦克风阵列,除了语音指令和体感操作指令外,Kinect设备没有其它形式的用户输入,其输入***的关键是由麦克风和摄像头组成的感应器***。其中,红外摄影机用于主动投射近红外光谱,照射到粗糙物体、或是穿透毛玻璃后,光谱发生扭曲,会形成随机的反射斑点,即散斑,进而能被红外摄像头读取。红外摄像头用于分析红外光谱,创建可视范围内的人体、物体的深度图像。彩色摄像头用于拍摄视角范围内的彩色图像。RGB-D相机又叫做深度相机,可以用于拍摄RGB-D图像。RGB-D图像可以包括彩色图像和深度图像。由于彩色图像与深度图像是同时获取的,其像素点之间具有一对一的对应关系。
步骤402,利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型。
在本实施例中,上述执行主体可以利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型。其中,初始深度网络模型可以是未经训练或未训练完成的深度网络模型。这里,对于未经训练的深度网络模型,其各个参数(例如,权值参数和偏置参数)用一些不同的小随机数进行初始化。“小随机数”用来保证模型不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证模型可以正常地学习。对于未训练完成的深度网络模型,其各个参数可以是被调整后参数,但是该深度网络模型的生成效果通常尚未满足预先设置的约束条件。
在本实施例的一些可选的实现方式中,深度网络模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型进行有监督训练而得到的。此时,上述执行主体可以将样本彩色图像作为输入,将对应的样本深度图像作为输出,对初始深度网络模型进行训练,从而得到深度网络模型。
在本实施例的一些可选的实现方式中,深度网络模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型进行无监督训练而得到的。通常,初始深度网络模型可以是生成式对抗网络(Generative Adversarial Networks,GAN)。GAN可以包括生成模型(Generative Model)和判别模型(Discriminative Model)。其中,生成模型主要用来学习真实图像分布从而让自身生成的图像更加真实,以骗过判别模型。判别模型则需要对接收到的图像进行真假判别。在整个过程中,生成模型努力地让生成的图像更加真实,而判别模型则努力地去识别出图像的真假,这个过程相当于一个二人博弈,随着时间的推移,生成模型和判别模型在不断地进行对抗,最终两个网络达到了一个动态均衡:生成模型生成的图像接近于真实图像分布,而判别模型识别不出真假图像。此时,对于训练样本集合中的每个训练样本,上述执行主体可以首先将该训练样本中的样本彩色图像输入生成模型,得到生成深度图像;然后将生成深度图像和该训练样本中的样本深度图像输入判别模型,得到判别结果;最后基于判别结果调整生成模型和判别模型的参数。其中,判别结果可以用于表征生成深度图像和该训练样本中的样本深度图像是真实深度图像的概率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于生成三维图像的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成三维图像的装置500可以包括:获取单元501、输入单元502和生成单元503。其中,获取单元501,被配置成获取目标彩色图像;输入单元502,被配置成将目标彩色图像输入至预先训练的深度网络模型,得到目标彩色图像对应的目标深度图像,其中,深度网络模型用于生成深度图像;生成单元503,被配置成基于目标深度图像生成目标三维图像。
在本实施例中,用于生成三维图像的装置500中:获取单元501、输入单元502和生成单元503的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202和步骤203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,深度网络模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括样本彩色图像和对应的样本深度图像;利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型。
在本实施例的一些可选的实现方式中,初始深度网络模型是生成式对抗网络,生成式对抗网络包括生成模型和判别模型;以及利用机器学习方法,基于训练样本集合对初始深度网络模型进行训练,得到深度网络模型,包括:对于训练样本集合中的训练样本,将该训练样本中的样本彩色图像输入生成模型,得到生成深度图像;将生成深度图像和该训练样本中的样本深度图像输入判别模型,得到判别结果,其中,判别结果用于表征生成深度图像和该训练样本中的样本深度图像是真实深度图像的概率;基于判别结果调整生成模型和判别模型的参数。
在本实施例的一些可选的实现方式中,训练样本集合是利用Kinect设备或RGB-D相机采集的。
在本实施例的一些可选的实现方式中,生成单元503进一步被配置成:结合目标深度图像以及目标彩色图像生成目标三维图像。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器105)的计算机***600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、输入单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标彩色图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标彩色图像;将目标彩色图像输入至预先训练的深度网络模型,得到目标彩色图像对应的目标深度图像,其中,深度网络模型用于生成深度图像;基于目标深度图像生成目标三维图像。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种用于生成三维图像的方法,包括:
获取目标彩色图像;
将所述目标彩色图像输入至预先训练的深度网络模型,得到所述目标彩色图像对应的目标深度图像,其中,所述深度网络模型用于生成深度图像,所述深度网络模型通过如下步骤训练得到:获取训练样本集合,所述训练样本集合中的训练样本包括样本彩色图像和对应的样本深度图像;利用机器学习方法,基于所述训练样本集合对初始深度网络模型进行训练,得到所述深度网络模型,所述初始深度网络模型的各个参数用一些不同的小随机数进行初始化,所述样本彩色图像和其对应的样本深度图像是配准的,像素点之间具有一对一的对应关系;
基于所述目标深度图像生成目标三维图像;
其中,所述初始深度网络模型是生成式对抗网络,所述生成式对抗网络包括生成模型和判别模型;以及
所述利用机器学习方法,基于所述训练样本集合对初始深度网络模型进行训练,得到所述深度网络模型,包括:
对于所述训练样本集合中的训练样本,将该训练样本中的样本彩色图像输入所述生成模型,得到生成深度图像;
将所述生成深度图像和该训练样本中的样本深度图像输入所述判别模型,得到判别结果,其中,所述判别结果用于表征所述生成深度图像和该训练样本中的样本深度图像是真实深度图像的概率;
基于所述判别结果调整所述生成模型和所述判别模型的参数。
2.根据权利要求1所述的方法,其中,所述训练样本集合是利用Kinect设备或RGB-D相机采集的。
3.根据权利要求1-2之一所述的方法,其中,所述基于所述目标深度图像生成目标三维图像,包括:
结合所述目标深度图像以及所述目标彩色图像生成所述目标三维图像。
4.一种用于生成三维图像的装置,包括:
获取单元,被配置成获取目标彩色图像;
输入单元,被配置成将所述目标彩色图像输入至预先训练的深度网络模型,得到所述目标彩色图像对应的目标深度图像,其中,所述深度网络模型用于生成深度图像,所述深度网络模型通过如下步骤训练得到:获取训练样本集合,所述训练样本集合中的训练样本包括样本彩色图像和对应的样本深度图像;利用机器学习方法,基于所述训练样本集合对初始深度网络模型进行训练,得到所述深度网络模型,所述初始深度网络模型的各个参数用一些不同的小随机数进行初始化,所述样本彩色图像和其对应的样本深度图像是配准的,像素点之间具有一对一的对应关系;
生成单元,被配置成基于所述目标深度图像生成目标三维图像;
其中,所述初始深度网络模型是生成式对抗网络,所述生成式对抗网络包括生成模型和判别模型;以及
所述利用机器学习方法,基于所述训练样本集合对初始深度网络模型进行训练,得到所述深度网络模型,包括:
对于所述训练样本集合中的训练样本,将该训练样本中的样本彩色图像输入所述生成模型,得到生成深度图像;
将所述生成深度图像和该训练样本中的样本深度图像输入所述判别模型,得到判别结果,其中,所述判别结果用于表征所述生成深度图像和该训练样本中的样本深度图像是真实深度图像的概率;
基于所述判别结果调整所述生成模型和所述判别模型的参数。
5.根据权利要求4所述的装置,其中,所述训练样本集合是利用Kinect设备或RGB-D相机采集的。
6.根据权利要求4-5之一所述的装置,其中,所述生成单元进一步被配置成:
结合所述目标深度图像以及所述目标彩色图像生成所述目标三维图像。
7.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-3中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-3中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811359444.9A CN111192305B (zh) | 2018-11-15 | 2018-11-15 | 用于生成三维图像的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811359444.9A CN111192305B (zh) | 2018-11-15 | 2018-11-15 | 用于生成三维图像的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111192305A CN111192305A (zh) | 2020-05-22 |
CN111192305B true CN111192305B (zh) | 2023-11-21 |
Family
ID=70709312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811359444.9A Active CN111192305B (zh) | 2018-11-15 | 2018-11-15 | 用于生成三维图像的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111192305B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801907B (zh) * | 2021-02-03 | 2024-04-16 | 北京字节跳动网络技术有限公司 | 深度图像的处理方法、装置、设备和存储介质 |
CN115908520A (zh) * | 2021-09-29 | 2023-04-04 | 华为技术有限公司 | 深度估计方法、深度估计模型的训练方法及其装置和*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171212A (zh) * | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 用于检测目标的方法和装置 |
CN108492364A (zh) * | 2018-03-27 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
CN108510454A (zh) * | 2018-03-21 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于生成深度图像的方法和装置 |
CN108564611A (zh) * | 2018-03-09 | 2018-09-21 | 天津大学 | 一种基于条件生成对抗网络的单目图像深度估计方法 |
CN108805978A (zh) * | 2018-06-12 | 2018-11-13 | 江西师范大学 | 一种基于深度学习三维模型的自动生成装置和方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8488868B2 (en) * | 2007-04-03 | 2013-07-16 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
US9066086B2 (en) * | 2010-12-08 | 2015-06-23 | Industrial Technology Research Institute | Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same |
US9626766B2 (en) * | 2014-02-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Depth sensing using an RGB camera |
US10165259B2 (en) * | 2017-02-15 | 2018-12-25 | Adobe Systems Incorporated | Generating novel views of a three-dimensional object based on a single two-dimensional image |
-
2018
- 2018-11-15 CN CN201811359444.9A patent/CN111192305B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171212A (zh) * | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 用于检测目标的方法和装置 |
CN108564611A (zh) * | 2018-03-09 | 2018-09-21 | 天津大学 | 一种基于条件生成对抗网络的单目图像深度估计方法 |
CN108510454A (zh) * | 2018-03-21 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于生成深度图像的方法和装置 |
CN108492364A (zh) * | 2018-03-27 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
CN108805978A (zh) * | 2018-06-12 | 2018-11-13 | 江西师范大学 | 一种基于深度学习三维模型的自动生成装置和方法 |
Non-Patent Citations (1)
Title |
---|
梁礼明.《优化方法导论》.2017,第194-199页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111192305A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764091B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
KR102120046B1 (ko) | 오브젝트를 표시하는 방법 | |
US10939034B2 (en) | Imaging system and method for producing images via gaze-based control | |
CN109997175B (zh) | 确定虚拟对象的大小 | |
CN113822977A (zh) | 图像渲染方法、装置、设备以及存储介质 | |
CN113228625A (zh) | 支持复合视频流的视频会议 | |
CN107798932A (zh) | 一种基于ar技术的早教训练*** | |
CN108363995A (zh) | 用于生成数据的方法和装置 | |
US11087140B2 (en) | Information generating method and apparatus applied to terminal device | |
CN111985281B (zh) | 图像生成模型的生成方法、装置及图像生成方法、装置 | |
CN107293236A (zh) | 自适应不同用户的智能显示装置 | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
US10955911B2 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
US11967018B2 (en) | Inferred shading | |
CN111192305B (zh) | 用于生成三维图像的方法和装置 | |
CN109285181A (zh) | 用于识别图像的方法和装置 | |
CN112562056A (zh) | 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备 | |
CN113989717A (zh) | 视频图像处理方法、装置、电子设备及存储介质 | |
CN117274383A (zh) | 视点预测方法及装置、电子设备和存储介质 | |
CN110096144B (zh) | 一种基于三维重建的交互全息投影方法及*** | |
CN111754622A (zh) | 脸部三维图像生成方法及相关设备 | |
CN114358112A (zh) | 视频融合方法、计算机程序产品、客户端及存储介质 | |
CN105893452B (zh) | 一种呈现多媒体信息的方法及装置 | |
CN116109974A (zh) | 体积视频展示方法以及相关设备 | |
CN109816791A (zh) | 用于生成信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |