CN110517352B - 一种物体的三维重建方法、存储介质、终端及*** - Google Patents
一种物体的三维重建方法、存储介质、终端及*** Download PDFInfo
- Publication number
- CN110517352B CN110517352B CN201910797141.3A CN201910797141A CN110517352B CN 110517352 B CN110517352 B CN 110517352B CN 201910797141 A CN201910797141 A CN 201910797141A CN 110517352 B CN110517352 B CN 110517352B
- Authority
- CN
- China
- Prior art keywords
- image
- fixed
- model
- layer
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种物体的三维重建方法、存储介质、终端及***,属于图片重建3D模型技术领域,方法包括:提取单张任意角度图片的高维特征,根据高维特征还原物体第一固定视角图像;根据第一固定视角图像生成形状遮罩进而生成物体的3D模型。***包括U型生成式对抗网络和3D条件生成式对抗网络。本发明通过提取单张图片的高维特征以还原物体固定视角即第一固定视角视图,能够降低信息扰动;根据固定视角视图生成形状遮罩,有利于提高三维重建的效率、准确度,适用于任意视角图片、效果逼真的特点,满足了任意视角的单张物体图片实时重建3D模型的需要。
Description
技术领域
本发明涉及单张图片重建3D模型技术领域,尤其涉及一种物体的三维重建方法、存储介质、终端及***。
背景技术
三维重建在计算机视觉和模型领域有着广泛的应用。在过去,研究人员通常是使用多张不同视角的图片来解决三维重建,而从单张图片实现三维重建是仍然是一件十分困难的事情,因为这需要很强大的模型理解能力来从一个低维的空间预测其形状信息。
最近,研究人员使用CNN进行体素预测3D重建方面获得了很大的进步。这类方法通常考虑使用一个固定视角或者少数几个视角的图片,这并不适用于实际的应用中,因为在实际的应用中物体通常能被任意角度观察,拍摄的图片也是任意角度的。但是使用任意角度的图片进行学习训练很难获得好的效果,因为不同视角图片带来的差异性会扰乱网络提取其形状特征,即信息扰动大。如何避免不同视角图片带来的差异性成为了当前利用单张任意视角图片进行物体3D模型重建亟待解决的问题。
发明内容
本发明的目的在于克服现有技术中无法根据单张任意视角的图片实现物体的三维重建的不足,提供一种物体的三维重建方法、存储介质、终端及***。
本发明的目的是通过以下技术方案来实现的,一种物体的三维重建方法,方法具体包括利用固定视角图像为提取单张任意角度图片的高维特征、并根据高维特征还原得到物体的第一固定视角图像,根据第一固定视角图像生成形状遮罩进而生成物体的3D模型。
具体地,第一固定视角图像生成形状遮罩具体包括:根据第一固定视角图像提取物体的形状轮廓二值图像特征进而生成3D空间内的形状遮罩,其计算公式具体为:
P_valid=P{v=1|mask=1}=1
P_invalid=P{v=1|mask=0}=0
其中,P代表在3D空间中模型与物体的形状轮廓二值图像对应位置有体素的期望,P_valid表示在3D空间中模型与物体的形状轮廓二值图像对应位置有体素的有效期望,P_invalid在3D空间中模型与物体的形状轮廓二值图像对应位置无体素的无效期望,mask代表形状轮廓二值图像中的某个像素值,v表示3D空间的三维像素值。
具体地,第一固定视角包括侧视视角、俯视视角、正视视角。
具体地,得到物体的第一固定视角图像为通过U型生成式对抗网络实现的;根据第一固定视角图像生成形状遮罩进而生成物体的3D模型是通过3D条件生成式对抗网络实现的。
具体地,3D条件生成式对抗网络中的判别器加入了能够与第一固定视角图像相映射的形状遮罩,该形状遮罩能够帮助判别器判断3D模型的真假进而反向影响生成器学习轮廓图片信息。
具体地,得到物体的第一固定视角图像步骤还包括训练生成式对抗网络:
预处理数据集,得到各物体各角度的若干张图片的训练数据集;
根据训练数据集交替训练生成式对抗网络模型中的生成器与鉴别器,调整生成器与鉴别器内部各层的权重,进而得到性能稳定的生成式对抗网络。
具体地,还原得到物体的第一固定视角图像步骤前还包括:将单张任意角度图片进行随机区域裁剪、反转和色彩正则化。
本发明还包括一种存储介质,其上存储有计算机指令,计算机指令运行时执行一种物体的三维重建方法的步骤。
本发明还包括一种终端,包括存储器和处理器,存储器上存储有可在处理器上运行的计算机指令,其特征在于,处理器运行计算机指令时执行一种物体的三维重建方法的步骤。
本发明还包括一种物体的三维重建***,***包括:用于提取单张任意角度图片的高维特征、并根据高维特征还原得到物体的第一固定视角图像的U型生成式对抗网络;用于根据第一固定视角图像生成物体的3D模型的3D条件生成式对抗网络。
与现有技术相比,本发明有益效果是:
(1)本发明通过提取单张图片的高维特征以还原物体固定视角(第一固定视角)视图,能够降低信息扰动,并根据还原得到的固定视角(第一固定视角)视图生成形状遮罩,有利于提高三维重建的效率、准确度,最后根据该形状遮罩完成物体的3D模型重建,具有鲁棒性高、适用于任意视角图片、效果逼真的特点,满足了任意视角的单张物体图片实时重建3D模型的需要。本发明可以通过用户的简单输入一张任意视角的物体图片生成对应的物体3D模型。一方面,建模人员可以通过简单的物体图片来快速的生成物体3D模型,大大减少了工作量,同时,也可以预测任意视角物体图片的各视角图形。另外,也可以应用于快速的场景演示,在一些模拟场景下,需要的3D模型精度并不高,需要快速的产生模型物体以及场景,来进行及时的演示。
(2)本发明中的U型生成式对抗网络用于处理不同视角物体图像产生的重建效果差异大的问题,其中受过训练的U型生成式对抗网络可以预测任意视角的物体图像的物体固定视角(第一固定视角)视图,来解决由于物体照射视角不同带来的信息干扰;3D条件生成式对抗网络使用由U型生成式对抗网络生成的固定视角(第一固定视角)视图为条件,生成对应的3D模型。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明,此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,在这些附图中使用相同的参考标号来表示相同或相似的部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。图中:
图1为本发明实施例1的方法流程图;
图2为通过单张图片生成的3D模型示意图;
图3为本发明方法的效果图;
图4为本发明实施例2***框架示意图;
图5为形状遮罩的3D条件生成式对抗网络结构示意图;
图6为本发明U型生成式对抗网络结构图。
具体实施方式
下面结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,属于“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方向或位置关系为基于附图方向或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,属于“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,属于“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
如图1所示,在实施例1中,一种物体的三维重建方法,具体包括以下步骤:
S01:训练网络模型;在本实施例生成式网络包括U型生成式对抗网络和3D条件生成式对抗网络,U型生成式对抗网络和3D条件生成式对抗网络都是基于生成式对抗网络,当不同于原始的生成式对抗网络。其中在U型生成式对抗网络中输入生成器G的并不是一个随机向量,而是一张任意视角的物体图片。在3D条件生成式对抗网络网络中输入生成器G的是对应物体的轮廓侧视图。
进一步地,训练整个网络具体包括以下子步骤:
S011:对数据集进行预处理;基于公开数据集ShapeNet提供的包含20类模型数据,在此数据集上,对每个物体随机设置照射角度,生成10张各种角度的图片,作为U型生成式对抗网络的训练数据集。由于数据集ShapeNet提供的模型为网格模式,对于网格模式的3D模型,我们需要将其转化为64*64*64空间大小的体素模型,作为3D条件生成式对抗网络的训练数据集。
S012:交替训练生成器G和鉴别器D,调整生成器与鉴别器内部各层的权重,进而得到性能稳定的生成网络;具体地,将预处理得到的数据集的图像输入生成器G进行预测得到输出图像G(X),并将这张图G(X)与原始真实图像X分别被送进鉴别器D判别真伪,由该结果指导训练生成器G与鉴别器D。更为具体地,在训练鉴别器D时,要求生成器G产生图像并将其输出到鉴别器D;根据输入/目标图像对(X,Y)和输入/输出图像对(X,G(X)),鉴别器D识别由生成器G给出的图像是真实图像的概率;鉴别器D根据输入/目标图像对和输入/输出图像对的分类误差调整鉴别器D内部各层的权重,具体公式为:
VCGAN(G,D)=E(X,Y)[logD(X,Y)]+
EX[log(1-D(X,G(X)))]
在训练生成器G时,根据鉴别器D的判别结果即分类误差、以及从下式中计算求得的输出图像与目标图像之间的差异来调整生成器G内部各层的权重:
更进一步地,使用批量大小为8的随机梯度下降,并采用Adam优化器,并使用Batch规范化。本实施例在生成器G的梯度更新和鉴别器D的梯度更新之间交替。当训练了80个迭代,网络性能稳定。
S02:数据预处理;具体地,将随机视角的物体目标图片裁剪成固定大小的图片,并去除背景区域颜色,用绿色填充,形成一整张待处理图像,作为处理任意视角的生成网络的输入。
S03:提取单张任意角度图片的高维特征,根据高维特征还原物体第一固定视角图像;其中,第一固定视角包括但不限于侧视视角,正视视角,俯视视角等,作为一选项,本实施例的第一固定视角具体为测试视角。
进一步地,提取预处理后单张任意角度图像的高维特征,根据高维特征还原任意视角物体图像的侧视图图图像,根据侧视图物体边界提取出形状轮廓二值图像。
更进一步地,处理任意视角图为固定视角图的U型生成式对抗网络包括生成器G和鉴别器D;其中生成器G由特征/真实图像对(X,Y)训练形成,其中X是某一物体的随机视角图片,Y是与X对应的物体的侧视图;受过训练的生成器G对输入的X进行变换,以获得对于的物体侧视图G(X);受过训练的鉴别器D用于判别未知图像是否是由生成器产生的图像G(X),未知图像包括来自数据集的真实目标图像Y或来自生成器G的输出图像G(X);
生成网络的目标函数为:
其中:
VCGAN(G,D)=E(X,Y)[logD(X,Y)]+
EX[log(1-D(X,G(X)))];
式中,D(X,Y)与D(X,G(X))均为鉴别器D对不同图像对的判别结果,代表判断为真的概率;而E(X,Y)表示对来自样本的所有特征/真实图像对(X,Y)的判别计算结果进行累加,并进一步使用概率分布的期望形式写出;EX则表示是对特征/生成图像对(X,G(X))进行上述相应处理;
在训练过程中,生成器G的目标就是尽量生成真实的图片去欺骗判别鉴别器D。而鉴别器D的目标就是尽量把生成器G生成的图片和真实的图片分别开来。这样,生成器G和鉴别器D构成了一个动态的minmax博弈,在最理想的状态下,生成器G可以生成足以“以假乱真”的图片G(X)。对于鉴别D来说,它难以判定生成器G生成的图片究竟是不是真实的,因此D(G(X))=0.5。
进一步地,U型生成式对抗网络处理单张任意视角图片为固定视角(侧视视角)图片的步骤中,为了给训练数据带来更多的可变性,对输入数据进行随机区域裁剪,翻转,色彩正则化。
S04:根据第一固定视角图像生成形状遮罩进而生成物体的3D模型。具体地,生成模型的3D对抗生成网络包括3D生成器G1和3D鉴别器D1;
进一步地,生成形状遮罩Mask信息的步骤如下:
S041:将输入到3D生成器G1的2D物体轮廓图为基础生成一个将该模型体素罩住的形状遮罩Mask。其计算公式为:
P_valid=P{v=1|mask=1}=1
P_invalid=P{v=1|mask=0}=0
其中,P代表在3D空间中模型与物体的形状轮廓二值图像对应位置有体素的期望,P_valid表示在3D空间中模型与物体的形状轮廓二值图像对应位置有体素的有效期望,P_invalid在3D空间中模型与物体的形状轮廓二值图像对应位置无体素的无效期望,mask代表形状轮廓二值图像中的某个像素值,v表示3D空间的三维像素值。2D物体轮廓图中,如果某一个位置的像素值为1,及pixel(x,y)=1,那么在3D体素空间中我们将设置voxels(从(x,y,0)到(x,y,63))为1。如图4所示,Mask(y)通过2D物体轮廓图为基础生成一个将该模型体素罩住的形状遮罩Mask。
S042:根据形状遮罩生成物体的3D模型;3D生成器G1由特征/真实图像对(X1,Y1)训练形成,其中X1是待处理物体的轮廓侧视图,其物体区域是黑色填充,轮廓***由白色填充,Y1是与X1对应的物体的3D体素模型,在三维空间中,物体覆盖区域由1填充,其余区域由0填充;受过训练的3D生成器G1对输入的的X1进行特征提取与3D模型生成,以获得重建的体素模型G(X1);受过训练的3D鉴别器D用于判别未知模型是否是由3D生成器产生的模型G(X1),未知模型包括来自数据集的真实目标模型Y1或来自3D生成器G1的输出模型G(X1)。
进一步地,3D对抗生成网络的目标函数为:
上式中,D(x|Mask(y))与D(G(z|y)|Mask(y))均为3D鉴别器D1对不同模型对的判别结果,代表判断为真的率;而Ex~Pdata与Ez~Pnoise表示分别对来真实自样本和生成的所有图像与模型对(X1,Y1)的判别计算结果进行累加,并进一步使用概率分布的期望形式写出。
S05:主题渲染;具体地,生成3D模型后,基于unreal渲染引擎,进行模型的渲染与展示。为了实现输出模型的建模渲染与展示,本实施例搭建了一个基于unreal渲染引擎的模型渲染器,在得到上一节后得到的体素模型,渲染引擎会根据体素模型的位置生成小的立方体,每一个立方体代表对应位置属于模型覆盖区域,以此建立3D体素模型。此外,建立光照关系,如图2所示,体素模型在渲染器中的渲染结果。
S7:终端应用通讯;客户端通过HTTP协议请求服务端处理,获得返回结果。为了实现更便捷的应用,应用分为了服务端与客户端。客户端通过HTTP协议请求服务端的服务。其中客户端主要负责处理用户交互响应,UI展示,3D模型渲染功能。服务端运行着主要的网络分别是U型对抗式生成网络和3D条件生成式对抗网络,负责处理核心计算功能,包括对客户端的响应,预处理原始图片,生成轮廓侧视图,生成物体模型,返回结果给客户端。
本实施例还提供了一种存储介质,其上存储有计算机指令,计算机指令运行时执行实施例1中一种物体的三维重建方法的步骤。
基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本实施例还提供一种终端,包括存储器和处理器,存储器上存储有可在处理器上运行的计算机指令,处理器运行计算机指令时执行实施例1中一种物体的三维重建方法的步骤。处理器可以是单核或者多核中央处理单元或者特定的集成电路,或者配置成实施本发明的一个或者多个集成电路。
在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
本实施例还包括一种设备,该设备用于接收上述一种物体的三维重建方法得到的3D模型,进行展示或者其他用途。
本发明通过提取单张图片的高维特征以还原物体固定视角(第一固定视角)视图,能够降低信息扰动,再根据固定视角(第一固定视角)视图生成形状遮罩,有利于提高三维重建的效率、准确度,且具有鲁棒性高、适用于任意视角图片、效果逼真的特点,满足了任意视角的单张物体图片实时重建3D模型的需要,如图3所示,图中第三横排的效果图是采用本方法生成的物体的3D模型,而第二横排是未采用本方法(未还原物体固定视角)生成的物体的3D模型图。本发明可以通过用户的简单输入一张任意视角的物体图片生成对应的物体3D模型。一方面,建模人员可以通过简单的物体图片来快速的生成物体3D模型,大大减少了工作量,同时,也可以预测任意视角物体图片的各视角图形。另外,也可以应用于快速的场景演示,在一些模拟场景下,需要的3D模型精度并不高,需要快速的产生模型物体以及场景,来进行及时的演示。
实施例2
本实施例与实施例1基于相同的发明构思,在实施例1的基础上提供了一种物体的三维重建***,如图4所示,该***具体包括U型生成式对抗网络和3D条件生成式对抗网络,U型生成式对抗网络提取单张任意角度图片的高位特征以还原物体第一固定视角图像并物体第一固定视角图像输入至3D条件生成式对抗网络;3D条件生成式对抗网络根据第一固定视角图像的形状轮廓二值图像特征生成形状遮罩进而生成物体的3D模型。U型生成式对抗网络和3D条件生成式对抗网络均包括生成器和鉴别器,图5为形状遮罩的3D条件生成式对抗网络结构示意图,图6为本发明U型生成式对抗网络结构图。
进一步地,生成器G的体系结构是编码器-解码器网络,其编码器部分由一系列完全卷积层(卷积大小为3×3)和分辨率降低组成,而解码器由一系列去卷积/上采样组成的。另外,在解码部分中,每层因此连接到较低分辨率的层并且附加的跳过连接将其连接到与其相同分辨率(U-net)的编码器层。这些附加连接允许通过将来自输入的低级信息直接传输到输出来绕过编码器-解码器的瓶颈。
进一步地,生成器G包括顺序连接的m层编码器和m层解码器,编码器的输入端输入图像X,解码器的输出端输出图像G(X);其中,每个编码器均包括顺序连接的卷积层、BatchNorm层和ReLU层,每个解码器包括反卷积/上采样层、Batch Norm层和ReLU层;并且第n层的卷积层的输出端与第m-n层的反卷积层的输入端跳跃连接,其中m为层数。
进一步地,编码器逐渐减少池化层的空间维度,解码器逐步修复物体的细节和空间维度。编码器和解码器之间通常存在快捷连接,因此能帮助解码器更好地修复目标的细节,提取图像的高维特征。因为网络中很多信息是在输入与输出间共享,则需要将编码器中的信息直接传递给解码器。为了实现信息贡献,网络中增加了第n层与第m-n层之间的跳跃连接。其中m为网络层数,即每个跳跃连接直接把第n层(编码器)信息传递给第m-n层(解码器)。
进一步地,鉴别器D包括顺序连接的多个卷积层,相邻卷积层之间包括Batch Norm层和ReLU层。
更进一步地,生成器G和鉴别器D中的每层网络中包含若干训练优化的参数权重,通过训练动态更新其值。
更进一步地,在本实施例中,某一物体的随机视角图片X大小为512×512×3,其中输入通道为3,表示输入图像为RGB三通道,512×512代表图像分辨率为512×512像素;输出图像G(X)大小为512×512×3,其中输入通道为3,表示输入图像为RGB三通道;其中也可以使用256×256×3分辨率图像。每一层编码器得到的图像大小分别为:256×256×64、128×128×128、64×64×256、32×32×512、16×16×512、8×8×512、4×4×512、2×2×512,编码器的输出端输出的图像特征大小为1×1×1024;每一层解码器得到的图像大小分别为2×2×512、4×4×512、8×8×512、16×16×512、32×32×512、64×64×256、128×128×128、256×256×64、512×512×3。
本实施例还包括一种设备,采用用于单张任意视角物体图片的三维重建***实现图片的三维重建,用于模型展示等用途。
本发明中的U型生成式对抗网络用于处理不同视角物体图像产生的重建效果差异大的问题,其中受过训练的U型生成式对抗网络可以预测任意视角的物体图像的物体固定视角(第一固定视角)视图,来解决由于物体照射视角不同带来的信息干扰;3D条件生成式对抗网络使用由U型生成式对抗网络生成的固定视角(第一固定视角)视图为条件,生成对应的3D模型。
以上具体实施方式是对本发明的详细说明,不能认定本发明的具体实施方式只局限于这些说明,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演和替代,都应当视为属于本发明的保护范围。
Claims (8)
1.一种物体的三维重建方法,其特征在于:所述方法包括:
利用固定视角图像为提取单张任意角度图片的高维特征、并根据所述高维特征还原得到物体的第一固定视角图像,根据所述第一固定视角图像生成形状遮罩进而生成物体的3D模型;
所述得到物体的第一固定视角图像为通过U型生成式对抗网络实现的;
根据所述第一固定视角图像生成形状遮罩进而生成物体的3D模型是通过3D条件生成式对抗网络实现的;
U型生成式对抗网络和3D条件生成式对抗网络均包括生成器和鉴别器;生成器G包括顺序连接的m层编码器和m层解码器,编码器的输入端输入图像X,解码器的输出端输出图像G(X);其中,每个编码器均包括顺序连接的卷积层、Batch Norm层和ReLU层,每个解码器包括反卷积/上采样层、Batch Norm层和ReLU层;并且第n层的卷积层的输出端与第m-n层的反卷积层的输入端跳跃连接,其中m为层数;
所述得到物体的第一固定视角图像步骤还包括训练生成式对抗网络:
预处理数据集,得到各物体各角度的若干张图片的训练数据集;
根据训练数据集交替训练所述生成式对抗网络模型中的生成器与鉴别器,调整生成器与鉴别器内部各层的权重,进而得到性能稳定的生成式对抗网络;
根据输入/目标图像对和输入/输出图像对的分类误差调整鉴别器内部各层的权重,具体公式为:
VCGAN(G,D)=E(X,Y)[log D(X,Y)]+EX[log(1-D(X,G(X)))]
其中,D表示鉴别器;X表示输入图像;Y表示目标图像;(X,Y)表示输入/目标图像对;(X,G(X))表示输入/输出图像对;G(X)表示生成器的输出图像;D(X,Y)与D(X,G(X))均为鉴别器D对不同图像对的判别结果;
在训练生成器时,根据鉴别器的判别结果即分类误差、以及从下式中计算求得的输出图像与目标图像之间的差异来调整生成器G内部各层的权重:
其中,E(X,Y)表示对来自样本的所有特征/真实图像对(X,Y)的判别计算结果进行累加,并使用概率分布的期望形式写出。
2.根据权利要求1所述的一种物体的三维重建方法,其特征在于:根据所述第一固定视角图像生成形状遮罩具体包括:根据所述第一固定视角图像提取物体的形状轮廓二值图像特征进而生成3D空间内的形状遮罩,形状遮罩计算公式具体为:
P_valid=P{v=1|mask=1}=1
P_invalid=P{v=1|mask=0}=0
其中,P代表在3D空间中模型与物体的形状轮廓二值图像对应位置有体素的期望,P_valid表示在3D空间中模型与物体的形状轮廓二值图像对应位置有体素的有效期望,P_invalid在3D空间中模型与物体的形状轮廓二值图像对应位置无体素的无效期望,mask代表形状轮廓二值图像中的某个像素值,v表示3D空间的三维像素值。
3.根据权利要求1所述的一种物体的三维重建方法,其特征在于:所述第一固定视角包括侧视视角、俯视视角、正视视角。
4.根据权利要求1所述的一种物体的三维重建方法,其特征在于:所述3D条件生成式对抗网络中的判别器加入了能够与所述第一固定视角图像相映射的形状遮罩。
5.根据权利要求1所述的一种物体的三维重建方法,其特征在于:所述还原得到物体的第一固定视角图像步骤前还包括:
将单张任意角度图片进行随机区域裁剪、反转和色彩正则化。
6.一种存储介质,其上存储有计算机指令,其特征在于:所述计算机指令运行时执行权利要求1-5任意一项所述的一种物体的三维重建方法的步骤。
7.一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,其特征在于,所述处理器运行所述计算机指令时执行权利要求1-5任意一项所述的一种物体的三维重建方法的步骤。
8.一种物体的三维重建***,其特征在于:所述***基于权利要求1-5任一项所述方法进行应用,包括:
用于提取单张任意角度图片的高维特征、并根据所述高维特征还原得到物体的第一固定视角图像的U型生成式对抗网络;
用于根据所述第一固定视角图像生成物体的3D模型的3D条件生成式对抗网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910797141.3A CN110517352B (zh) | 2019-08-27 | 2019-08-27 | 一种物体的三维重建方法、存储介质、终端及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910797141.3A CN110517352B (zh) | 2019-08-27 | 2019-08-27 | 一种物体的三维重建方法、存储介质、终端及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517352A CN110517352A (zh) | 2019-11-29 |
CN110517352B true CN110517352B (zh) | 2022-06-03 |
Family
ID=68628192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910797141.3A Active CN110517352B (zh) | 2019-08-27 | 2019-08-27 | 一种物体的三维重建方法、存储介质、终端及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110517352B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583398B (zh) * | 2020-05-15 | 2023-06-13 | 网易(杭州)网络有限公司 | 图像显示的方法、装置、电子设备及计算机可读存储介质 |
CN112070893B (zh) * | 2020-09-15 | 2024-04-02 | 大连理工大学 | 一种基于深度学习的动态海面三维建模方法及存储介质 |
CN112884669B (zh) * | 2021-02-25 | 2022-12-06 | 电子科技大学 | 基于多尺度内容注意力机制的图像修复方法、存储介质和终端 |
CN114255313B (zh) * | 2022-02-28 | 2022-05-24 | 深圳星坊科技有限公司 | 镜面物体三维重建方法、装置、计算机设备和存储介质 |
CN117456144B (zh) * | 2023-11-10 | 2024-05-07 | 中国人民解放军海军航空大学 | 基于可见光遥感图像的目标建筑物三维模型优化方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805977A (zh) * | 2018-06-06 | 2018-11-13 | 浙江大学 | 一种基于端到端卷积神经网络的人脸三维重建方法 |
CN109920054A (zh) * | 2019-03-29 | 2019-06-21 | 电子科技大学 | 一种基于三维边界框生成对抗网络的大小可调3d对象生成方法 |
CN109977922A (zh) * | 2019-04-11 | 2019-07-05 | 电子科技大学 | 一种基于生成对抗网络的行人掩模生成方法 |
CN109993825A (zh) * | 2019-03-11 | 2019-07-09 | 北京工业大学 | 一种基于深度学习的三维重建方法 |
CN110047128A (zh) * | 2018-01-15 | 2019-07-23 | 西门子保健有限责任公司 | 从几个x射线放射照片3d重建x射线ct体积和分割掩模的方法和*** |
CN110084845A (zh) * | 2019-04-30 | 2019-08-02 | 王智华 | 变形预测方法、装置及计算机可读存储介质 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017181332A1 (zh) * | 2016-04-19 | 2017-10-26 | 浙江大学 | 一种基于单幅图像的全自动三维头发建模方法 |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
-
2019
- 2019-08-27 CN CN201910797141.3A patent/CN110517352B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110047128A (zh) * | 2018-01-15 | 2019-07-23 | 西门子保健有限责任公司 | 从几个x射线放射照片3d重建x射线ct体积和分割掩模的方法和*** |
CN108805977A (zh) * | 2018-06-06 | 2018-11-13 | 浙江大学 | 一种基于端到端卷积神经网络的人脸三维重建方法 |
CN109993825A (zh) * | 2019-03-11 | 2019-07-09 | 北京工业大学 | 一种基于深度学习的三维重建方法 |
CN109920054A (zh) * | 2019-03-29 | 2019-06-21 | 电子科技大学 | 一种基于三维边界框生成对抗网络的大小可调3d对象生成方法 |
CN109977922A (zh) * | 2019-04-11 | 2019-07-05 | 电子科技大学 | 一种基于生成对抗网络的行人掩模生成方法 |
CN110084845A (zh) * | 2019-04-30 | 2019-08-02 | 王智华 | 变形预测方法、装置及计算机可读存储介质 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
Non-Patent Citations (4)
Title |
---|
"3D Bounding Box Generative Adversarial Nets";Ping Kuang等;《In Proceedings of the International Conference on Advances in Computer Technology, Information Science and Communications (CTISC 2019)》;20190315;第117-121页 * |
"3D Object Reconstruction from a Single Depth View with Adversarial Learning";Bo Yang等;《2017 IEEE International Conference on Computer Vision Workshops》;20171029;第679-688页 * |
"Masked 3D conditional generative adversarial network for rock mesh generation";Ping Kuang等;《Cluster Computing》;20180330(第22期);第S15471–S15481页 * |
"深度学习在基于单幅图像的物体三维重建中的应用";陈加等;《自动化学报》;20190430;第45卷(第4期);第657-668页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110517352A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517352B (zh) | 一种物体的三维重建方法、存储介质、终端及*** | |
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
CN111369681B (zh) | 三维模型的重构方法、装置、设备及存储介质 | |
CN110390638B (zh) | 一种高分辨率三维体素模型重建方法 | |
CN109215123B (zh) | 基于cGAN的无限地形生成方法、***、存储介质和终端 | |
CN113838176B (zh) | 模型的训练方法、三维人脸图像生成方法及设备 | |
CN109361934B (zh) | 图像处理方法、装置、设备及存储介质 | |
US8351654B2 (en) | Image processing using geodesic forests | |
CN105453139A (zh) | 用于3d表面重建的稀疏gpu体素化 | |
US11823349B2 (en) | Image generators with conditionally-independent pixel synthesis | |
CN111784821A (zh) | 三维模型生成方法、装置、计算机设备及存储介质 | |
CN114049420B (zh) | 一种模型训练方法、图像渲染方法、装置和电子设备 | |
CN109447897B (zh) | 一种真实场景图像合成方法及*** | |
CN117252984A (zh) | 三维模型生成方法、装置、设备、存储介质及程序产品 | |
CN116416376A (zh) | 一种三维头发的重建方法、***、电子设备及存储介质 | |
CN115953317A (zh) | 图像增强方法、装置、电子设备及存储介质 | |
CN109658508B (zh) | 一种多尺度细节融合的地形合成方法 | |
CN116912148B (zh) | 图像增强方法、装置、计算机设备及计算机可读存储介质 | |
Hara et al. | Enhancement of novel view synthesis using omnidirectional image completion | |
CN117173315A (zh) | 基于神经辐射场的无界场景实时渲染方法、***及设备 | |
CN110322548B (zh) | 一种基于几何图像参数化的三维网格模型生成方法 | |
CN115908712A (zh) | 基于图像的三维重建及模型训练方法、设备及存储介质 | |
CN112529975A (zh) | 图像生成的方法、装置以及计算机 | |
CN114819109B (zh) | 双目图像的超分辨率处理方法、装置、设备及介质 | |
RU2770132C1 (ru) | Генераторы изображений с условно независимым синтезом пикселей |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |