CN110060331A - 一种基于全卷积神经网络的单目相机室外三维重建方法 - Google Patents
一种基于全卷积神经网络的单目相机室外三维重建方法 Download PDFInfo
- Publication number
- CN110060331A CN110060331A CN201910193450.XA CN201910193450A CN110060331A CN 110060331 A CN110060331 A CN 110060331A CN 201910193450 A CN201910193450 A CN 201910193450A CN 110060331 A CN110060331 A CN 110060331A
- Authority
- CN
- China
- Prior art keywords
- picture
- plane
- pixel
- convolutional neural
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computer Graphics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于全卷积神经网络的单目相机室外三维重建方法。本发明包括以下步骤:步骤1、利用监督学习的方式训练全卷积神经网络;步骤2、用全卷积神经网络对每一张图片进行深度估计;用单目相机拍摄一系列室外场景的连续的图片,然后将每一张图片作为输入,用前面已经训练好的全卷积神经网络对图片进行深度估计,得到其的三维点云模型;步骤3、用ICP算法将每一张图片的三维模型融合成一个完整的三维模型。本发明解决了单目相机的三维重建问题,且通过本发明可以在普通PC机或工作站等硬件***上实现。
Description
技术领域
本发明属于计算机视觉、计算机图形学技术领域,特别地,本发明涉及一种基于全卷积神经网络的单目相机室外三维重建方法。
背景技术
三维重建是计算机视觉与计算机图像学领域中一个重要且基础的问题,它在农业、医疗、航天、军事、环境观测、地形勘探等领域有着非常广泛的应用。而其中的一个小分支——对城市场景进行室外三维重建则可在地图导航、城市规划等领域起到重要作用。在过河城市的三维地图后,人们可以通过各种电子设备很方便地查看城市任何一个角落的样子,谷歌地图在这方面就是一个很成功的例子。通过与虚拟现实和增强现实技术相结合,再集成生活资讯、电子商务、虚拟社区等功能与服务,可以带给人们更加沉浸式的体验。因此,室外三维重建的研究具有极高的科研和应用价值。
在计算机图形学领域,单目相机的三维重建一直是一个重要且具有挑战性的问题。虽然单目相机不能像双目相机和深度相机那样通过三角测距或者ToF、结构光原理直接获取每一个像素的深度信息,但是经过长期发展,单目相机的技术相对成熟,成本较低,结构简单,对计算资源的要求不高,更容易商业化,比如人手一只的智能手机标配的摄像头就是很好的单目相机。因此,本发明的方法利用经过监督学习的方式训练好的全卷积神经网络对单目相机获取的每一张图片进行深度估计,然后将其融合成一个完整的三维模型,从而完成三维重建。
发明内容
本发明旨在提供一种有用的解决方案。为此本发明的目的在于解决单目相机的三维重建问题,其输入为多张由单目相机拍摄的室外场景的图片,发明中的方法分别单独对每一张图片进行深度估计,最后融合成一个完整的三维模型。
本发明提实现的过程包括以下步骤:
步骤1、利用监督学习的方式训练全卷积神经网络;
步骤2、用全卷积神经网络对每一张图片进行深度估计;
用单目相机拍摄一系列室外场景的连续的图片,然后将每一张图片作为输入,用前面已经训练好的全卷积神经网络对图片进行深度估计,得到其的三维点云模型;
步骤3、用ICP算法将每一张图片的三维模型融合成一个完整的三维模型;
所述的步骤1具体实现如下:
1-1.准备大量训练图片用于训练网格参数;
每一组训练图片包括对某一角度的室外场景拍摄的一张普通的彩色图片、以及该彩色图片对应的深度图片和像素级的语义分割信息;通过SYNTHIA数据集中像素级的语义分割信息剔除冗余数据;
1-2.对图片数据进行数学建模;用表示数据集中的N组彩色图片和深度图片,并且已知相机内参矩阵K;对于彩色图片Ii中的任意一个像素点q,它的齐次坐标为[x,y,1]T,T表示转置;则它在三维空间中对应的点Q用一下公式计算得到:
Q=Di(q)·K-1 q 公式1
假设三维空间中的一个平面的法向量为表示1*3的实数向量;为了使每个平面的法向量都是唯一的,n计算方式如下:
表示平面的单位法向量,从原点出发指向平面;d表示平面离原点的距离;如果点Q处在某个平面上,则满足
假设彩色图片Ii中有M个平面,则对彩色图片构建一个像素概率矩阵Si;其中的Si(q)是一个(M+1)维的向量,它的第j个元素记为表示像素q落在第j个平面的概率,同时用j=0表示非平面;通过最小化下面的目标函数可以获得第i张图片的平面参数
其中,为正则项,为了防止网络生成不重要的结果即把所有像素点都归到非平面;α则是学***面的交点的深度为λ,像素q在空间上的三维坐标为λ·k-1q;所以
对于正则项用如下公式计算:
其中表示像素q落在平面上的概率,取值范围在[0,1];
将数据集中的语义信息分成两类:“保留”={建筑,马路,人行道,车道线}和“舍弃”={行人,汽车,天空,自行车};如果一个像素点属于“保留”类的话,则令z(q)=1;如果属于“舍弃”类的话,则令z(q)=0;于是将上面的正则项公式重写为:
全卷积神经网络分成两大部分:一个部分用来分割图片中的平面;另一部分则是用来生成图片的三维点云模型的;两个部分共享相同抽象的特征图。
步骤3所述的用ICP算法将每一张图片的三维模型融合成一个完整的三维模型,具体实现如下:
3-1.求解出两个点云的重叠部分;
首先使用SIFT算法提取和匹配两张图片的特征点,得到匹配点集Q和Q′;对于这两个点集之间的变换,求得其单应矩阵H,即Q′=H·Q;
然后计算配准图的四个顶点坐标,接着进行图像配准,进而得到两张图片中重叠区域的像素集合,再通过语义信息仅保留其中归属于“保留”类别的像素,最终得到像素集合N′={1,…,n′};
对于两个已知的点云,其重叠区域可分别表示成:
P={p1,...,pn′}P′={p′1,...,p′n′} 公式9
3-2.找到一个欧式变换的旋转矩阵R和平移矩阵t,将两个点云进行匹配,即:
应用ICP算法求解出R和t,通过使误差平方和达到极小求得R和t,即
首先计算旋转矩阵R,两组点云的质心位置;
然后计算每组点云中点的去质心坐标qi和q′i:
qi=pi-p,q′i=p′i-p 公式13
定义矩阵W为一个3×3矩阵,对W进行SVD分解,得:
W=U∑VT
则R为
R=UVT
然后计算平移矩阵t
t=p-Rp′;
3-3.得到平移、旋转变换后,用如下公式将P′中的点云变换到P坐标系下:
从而实现两个点云的融合对所有的点云都采取此操作,直至只留下一个三维点云模型,从而完成了整个室外场景的三维重建。
本发明的特点及有益效果:
本发明实现了一种基于全卷积神经网络的单目相机室外三维重建方法,对三维重建有较大意义。本发明利用监督学习的方式训练全卷积神经网络,可直接对彩色图片进行深度估计得到其三维点云模型,再对所有的点云模型进行融合,完成对室外场景的三维重建。
与双目相机和深度相机相比,单目相机经过长期发展,技术相对成熟,成本较低,结构简单,对计算资源的要求不像双目相机所需的三角测距那样高,更容易商业化。例如,现在几乎人手一只的智能手机上都标配的摄像头就是单目相机,而且相机的成像效果不错,可以直接拿来使用。
此技术可以在普通PC机或工作站等硬件***上实现。
附图说明
图1为本发明方法总体流程图。
图2为本发明所用到的全卷积神经网络的模型。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,一种基于全卷积神经网络的单目相机室外三维重建方法,包括以下步骤:
步骤1、利用监督学习的方式训练全卷积神经网络:
同其他的神经网络模型一样,首先需要准备大量的训练图片用于训练网格参数。每一组训练图片包括对某一角度的室外场景拍摄的一张普通的彩色图片、以及该彩色图片对应的深度图片和像素级的语义分割信息。由于数据集的人工收集与标记会花费大量的时间与精力,可以使用SYNTHIA数据集。虽然其中的数据全部来自于虚拟的城市,但电脑模拟出的效果与真实世界有一定的相似性。需要注意的是,这个数据集最初的目的是用于自动驾驶,其采集数据的方式是模拟一辆在真实交通状态下行驶的汽车,隔一定的时间从车上一固定位置与角度拍摄照片。所以数据集中会有很多组几乎相同的图片。可以通过车速来剔除冗余的数据,从而避免无谓的计算量。除此之外,还需要剔除图片中不需要的部分。图片中的行人、汽车等信息是不需要包括在重建好的三维模型中的,而道路、建筑表面等信息则必须保留。通过SYNTHIA数据集中像素级的语义分割信息可以完成这个步骤,具体过程将在下面的正则项中体现出来。
在介绍神经网络模型之前,需要对图片数据进行数学建模。用表示数据集中的N组彩色图片和深度图片,并且已知相机内参矩阵K。对于彩色图片Ii中的任意一个像素点q,它的齐次坐标为[x,y,1]T,T表示转置。则它在三维空间中对应的点Q用一下公式计算得到:
Q=Di(q)·K-1q 公式1
由于在三维重建的过程中几乎所有的数据都是关于平面信息的。假设三维空间中的一个平面的法向量为表示1*3的实数向量;为了使每个平面的法向量都是唯一的,通过如下方式计算n:
表示平面的单位法向量,从原点出发指向平面;d表示平面离原点的距离。如果点Q处在某个平面上,则满足nTQ=1。
假设彩色图片Ii中有M个平面,则对彩色图片构建一个像素概率矩阵Si。其中的Si(q)是一个(M+1)维的向量,它的第j个元素记为表示像素q落在第j个平面的概率,同时用j=0表示非平面。通过最小化下面的目标函数可以获得第i张图片的平面参数
其中,为正则项,为了防止网络生成不重要的结果即把所有像素点都归到非平面;α则是学***面的交点的深度为λ,像素q在空间上的三维坐标为λ·k-1q。所以
对于正则项可以用如下公式计算:
其中表示像素q落在平面(不管哪个平面)上的概率,取值范围在[0,1]。需要注意的是,在三维重建的时候,并不是所有的像素点都要参与这个过程。拥有不同语义信息的像素点在逻辑上是否需要被重建的概率是不一样的,比如马路、建筑外墙等语义信息的像素点就应该被囊括在重建好的三维点云模型中,而行人、汽车等语义信息的像素点就应该被剔除掉。因此,可以将数据集中的语义信息分成两类——“保留”={建筑,马路,人行道,车道线,等}和“舍弃”={行人,汽车,天空,自行车,等}。然后,如果一个像素点属于“保留”类的话,则令z(q)=1;如果属于“舍弃”类的话,则令z(q)=0。于是可以将上面的正则项公式重写为:
本发明中使用的全卷积神经网络模型是从完全公开的TensorFlow框架从头训练得到的,网络结构见图2。整个神经网络框架分成两大部分。一个部分用来分割图片中的平面,因为在整个三维重建的过程中,室外场景的平面占据了很大一部分的数据,所以要单独对其计算,以保证最后结果的准确性。其中除了预测层的激活函数用的是Softmax函数,其他所有层的都是ReLU函数。另一部分则是用来生成图片的三维点云模型的。这个部分和前面那个部分共享相同抽象的特征图。其包含两个stride-2的卷积层(3*3*512),然后紧跟着一个输出M个平面参数的1*1*3m的卷积层,然后使用一个全局平均池化。除了最后一层什么激活函数都不用,其他用的都是ReLU函数。在最终的参数设计上,α=0.1,平面数量M=5。训练模型的时候,可以采用Adam优化算法,β1=0.99,β2=0.9999,学习速率为0.0001,批尺寸为4。
步骤2、用全卷积神经网络对每一张图片进行深度估计。
用单目相机拍摄一系列室外场景的连续的图片,然后将每一张图片作为输入,用前面已经训练好的全卷积神经网络对其进行深度估计,得到其的三维点云模型。
步骤3、用ICP算法将每一张图片的三维模型融合成一个完整的三维模型。
在得到每一张图片的三维点云模型后,就需要将其融合成一个点云模型。迭代最近点(Iterative Closest Point,下简称ICP)算法是一种点云匹配算法,用来解决3D-3D的位姿估计问题。取拍摄时间相临近的两张图片的点云,由于其拍摄时间相近,则其差异不大,它们的三维点云重叠部分很大,更适合用来匹配与融合。
但是在应用ICP算法之前,需要求解出两个点云的重叠部分。由于点云模型是从彩色图片中估计得来,为了保证重叠像素集合计算的准确度,这里直接计算两张彩色图片的重叠区域。首先使用SIFT算法提取和匹配两张图片的特征点,得到匹配点集Q和Q′。对于这两个点集之间的变换,可以求得其单应矩阵H,即Q′=H·Q。然后计算配准图的四个顶点坐标,接着就可以进行图像配准,进而得到两张图片中重叠区域的像素集合,再通过语义信息仅保留其中归属于“保留”类别的像素,最终得到像素集合N′={1,…,n′}。
对于两个已知的点云,其中重叠区域可分别表示成:
P={p1,...,pn′}P′={p′1,...p′n′}
如果找到一个欧式变换的旋转矩阵R和平移矩阵t,则可以将两个点云匹配上,即:
应用ICP算法可以求解出R和t,本发明使用的是线性代数的求解方式,目的就是通过使误差平方和达到极小求得R和t,即
首先计算旋转矩阵R,两组点云的质心位置,然后计算每组点云中点的去质心坐标qi和q′i:
qi=pi-p,q′i=p′i-p
定义矩阵其为一个3×3矩阵,对W进行SVD分解,得:
W=U∑VT
则R为
R=UVT
然后可与计算平移矩阵t
t=p-Rp′
得到平移、旋转变换后,用如下公式将P′中的点云变换到P坐标系下:
这样就实现了两个点云的融合对所有的点云都采取此操作,直至只留下一个三维点云模型,从而完成了整个室外场景的三维重建。
Claims (2)
1.一种基于全卷积神经网络的单目相机室外三维重建方法,其特征在于包括以下步骤:
步骤1、利用监督学习的方式训练全卷积神经网络;
步骤2、用全卷积神经网络对每一张图片进行深度估计;
用单目相机拍摄一系列室外场景的连续的图片,然后将每一张图片作为输入,用前面已经训练好的全卷积神经网络对图片进行深度估计,得到其的三维点云模型;
步骤3、用ICP算法将每一张图片的三维模型融合成一个完整的三维模型;
所述的步骤1具体实现如下:
1-1.准备大量训练图片用于训练网格参数;
每一组训练图片包括对某一角度的室外场景拍摄的一张普通的彩色图片、以及该彩色图片对应的深度图片和像素级的语义分割信息;通过SYNTHIA数据集中像素级的语义分割信息剔除冗余数据;
1-2.对图片数据进行数学建模;用表示数据集中的N组彩色图片和深度图片,并且已知相机内参矩阵K;对于彩色图片Ii中的任意一个像素点q,它的齐次坐标为[x,y,1]T,T表示转置;则它在三维空间中对应的点Q用一下公式计算得到:
Q=Di(q)·K-1q 公式1
假设三维空间中的一个平面的法向量为 表示1*3的实数向量;为了使每个平面的法向量都是唯一的,n计算方式如下:
表示平面的单位法向量,从原点出发指向平面;d表示平面离原点的距离;如果点Q处在某个平面上,则满足nTQ=1;
假设彩色图片Ii中有M个平面,则对彩色图片构建一个像素概率矩阵Si;其中的Si(q)是一个(M+1)维的向量,它的第j个元素记为表示像素q落在第j个平面的概率,同时用j=0表示非平面;通过最小化下面的目标函数可以获得第i张图片的平面参数
其中,为正则项,为了防止网络生成不重要的结果 即把所有像素点都归到非平面;α则是学***面的交点的深度为λ,像素q在空间上的三维坐标为λ·k-1q;所以
对于正则项用如下公式计算:
其中表示像素q落在平面上的概率,取值范围在[0,1];
将数据集中的语义信息分成两类:“保留”={建筑,马路,人行道,车道线}和“舍弃”={行人,汽车,天空,自行车};如果一个像素点属于“保留”类的话,则令z(q)=1;如果属于“舍弃”类的话,则令z(q)=0;于是将上面的正则项公式重写为:
全卷积神经网络分成两大部分:一个部分用来分割图片中的平面;另一部分则是用来生成图片的三维点云模型的;两个部分共享相同抽象的特征图。
2.根据权利要求1所述的一种基于全卷积神经网络的单目相机室外三维重建方法,其特征在于步骤3所述的用ICP算法将每一张图片的三维模型融合成一个完整的三维模型,具体实现如下:
3-1.求解出两个点云的重叠部分;
首先使用SIFT算法提取和匹配两张图片的特征点,得到匹配点集Q和Q′;对于这两个点集之间的变换,求得其单应矩阵H,即Q′=H·Q;
然后计算配准图的四个顶点坐标,接着进行图像配准,进而得到两张图片中重叠区域的像素集合,再通过语义信息仅保留其中归属于“保留”类别的像素,最终得到像素集合N′={1,…,n′};
对于两个已知的点云,其重叠区域可分别表示成:
P={p1,...,pn′}P′={p′1,...,p′n′} 公式9
3-2.找到一个欧式变换的旋转矩阵R和平移矩阵t,将两个点云进行匹配,即:
应用ICP算法求解出R和t,通过使误差平方和达到极小求得R和t,即
首先计算旋转矩阵R,两组点云的质心位置;
然后计算每组点云中点的去质心坐标qi和q′i:
qi=pi-P,q′i=p′i-p 公式13
定义矩阵W为一个3×3矩阵,对W进行SVD分解,得:
W=U∑VT
则R为
R=UVT
然后计算平移矩阵t
t=p-Rp′;
3-3.得到平移、旋转变换后,用如下公式将P′中的点云变换到P坐标系下:
从而实现两个点云的融合对所有的点云都采取此操作,直至只留下一个三维点云模型,从而完成了整个室外场景的三维重建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910193450.XA CN110060331A (zh) | 2019-03-14 | 2019-03-14 | 一种基于全卷积神经网络的单目相机室外三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910193450.XA CN110060331A (zh) | 2019-03-14 | 2019-03-14 | 一种基于全卷积神经网络的单目相机室外三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110060331A true CN110060331A (zh) | 2019-07-26 |
Family
ID=67316063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910193450.XA Pending CN110060331A (zh) | 2019-03-14 | 2019-03-14 | 一种基于全卷积神经网络的单目相机室外三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110060331A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781937A (zh) * | 2019-10-16 | 2020-02-11 | 广州大学 | 一种基于全局视角的点云特征提取方法 |
CN111340864A (zh) * | 2020-02-26 | 2020-06-26 | 浙江大华技术股份有限公司 | 基于单目估计的三维场景融合方法及装置 |
CN111709976A (zh) * | 2020-08-24 | 2020-09-25 | 湖南国科智瞳科技有限公司 | 一种显微图像的快速配准方法、***及计算机设备 |
CN111918049A (zh) * | 2020-08-14 | 2020-11-10 | 广东申义实业投资有限公司 | 三维成像的方法、装置、电子设备及存储介质 |
CN112085801A (zh) * | 2020-09-08 | 2020-12-15 | 清华大学苏州汽车研究院(吴江) | 基于神经网络的三维点云和二维图像融合的校准方法 |
CN112381887A (zh) * | 2020-11-17 | 2021-02-19 | 广东电科院能源技术有限责任公司 | 一种多深度相机标定方法、装置、设备和介质 |
CN113180832A (zh) * | 2021-04-21 | 2021-07-30 | 上海盼研机器人科技有限公司 | 一种基于机械臂的半面短小手术牵引器定位*** |
CN113674421A (zh) * | 2021-08-25 | 2021-11-19 | 北京百度网讯科技有限公司 | 3d目标检测方法、模型训练方法、相关装置及电子设备 |
CN114937122A (zh) * | 2022-06-16 | 2022-08-23 | 黄冈强源电力设计有限公司 | 一种水泥纤维板房的快速三维模型重建方法 |
CN116012564A (zh) * | 2023-01-17 | 2023-04-25 | 宁波艾腾湃智能科技有限公司 | 一种三维模型与实景照片智能融合的设备与方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3349176A1 (en) * | 2017-01-17 | 2018-07-18 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two-dimensional images for consumption in virtual reality |
CN109461180A (zh) * | 2018-09-25 | 2019-03-12 | 北京理工大学 | 一种基于深度学习的三维场景重建方法 |
-
2019
- 2019-03-14 CN CN201910193450.XA patent/CN110060331A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3349176A1 (en) * | 2017-01-17 | 2018-07-18 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two-dimensional images for consumption in virtual reality |
CN109461180A (zh) * | 2018-09-25 | 2019-03-12 | 北京理工大学 | 一种基于深度学习的三维场景重建方法 |
Non-Patent Citations (2)
Title |
---|
FENGTING YANG ET AL: "Recovering 3D Planes from a Single Image via Convolutional Neural Networks", 《RECOVERING 3D PLANES FROM A SINGLE IMAGE VIA CONVOLUTIONAL NEURAL NETWORKS》 * |
陈英博: "Kinect点云数据与序列影像结合的三维重建技术", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781937A (zh) * | 2019-10-16 | 2020-02-11 | 广州大学 | 一种基于全局视角的点云特征提取方法 |
CN110781937B (zh) * | 2019-10-16 | 2022-05-17 | 广州大学 | 一种基于全局视角的点云特征提取方法 |
CN111340864B (zh) * | 2020-02-26 | 2023-12-12 | 浙江大华技术股份有限公司 | 基于单目估计的三维场景融合方法及装置 |
CN111340864A (zh) * | 2020-02-26 | 2020-06-26 | 浙江大华技术股份有限公司 | 基于单目估计的三维场景融合方法及装置 |
CN111918049A (zh) * | 2020-08-14 | 2020-11-10 | 广东申义实业投资有限公司 | 三维成像的方法、装置、电子设备及存储介质 |
CN111918049B (zh) * | 2020-08-14 | 2022-09-06 | 广东申义实业投资有限公司 | 三维成像的方法、装置、电子设备及存储介质 |
CN111709976A (zh) * | 2020-08-24 | 2020-09-25 | 湖南国科智瞳科技有限公司 | 一种显微图像的快速配准方法、***及计算机设备 |
CN112085801A (zh) * | 2020-09-08 | 2020-12-15 | 清华大学苏州汽车研究院(吴江) | 基于神经网络的三维点云和二维图像融合的校准方法 |
CN112085801B (zh) * | 2020-09-08 | 2024-03-19 | 清华大学苏州汽车研究院(吴江) | 基于神经网络的三维点云和二维图像融合的校准方法 |
CN112381887A (zh) * | 2020-11-17 | 2021-02-19 | 广东电科院能源技术有限责任公司 | 一种多深度相机标定方法、装置、设备和介质 |
CN112381887B (zh) * | 2020-11-17 | 2021-09-03 | 南方电网电力科技股份有限公司 | 一种多深度相机标定方法、装置、设备和介质 |
CN113180832A (zh) * | 2021-04-21 | 2021-07-30 | 上海盼研机器人科技有限公司 | 一种基于机械臂的半面短小手术牵引器定位*** |
CN113674421A (zh) * | 2021-08-25 | 2021-11-19 | 北京百度网讯科技有限公司 | 3d目标检测方法、模型训练方法、相关装置及电子设备 |
CN113674421B (zh) * | 2021-08-25 | 2023-10-13 | 北京百度网讯科技有限公司 | 3d目标检测方法、模型训练方法、相关装置及电子设备 |
CN114937122A (zh) * | 2022-06-16 | 2022-08-23 | 黄冈强源电力设计有限公司 | 一种水泥纤维板房的快速三维模型重建方法 |
CN116012564B (zh) * | 2023-01-17 | 2023-10-20 | 宁波艾腾湃智能科技有限公司 | 一种三维模型与实景照片智能融合的设备与方法 |
CN116012564A (zh) * | 2023-01-17 | 2023-04-25 | 宁波艾腾湃智能科技有限公司 | 一种三维模型与实景照片智能融合的设备与方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110060331A (zh) | 一种基于全卷积神经网络的单目相机室外三维重建方法 | |
CN108596101B (zh) | 一种基于卷积神经网络的遥感图像多目标检测方法 | |
CN110622213B (zh) | 利用3d语义地图进行深度定位和分段的***和方法 | |
CN107679537B (zh) | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 | |
CN112150575B (zh) | 场景数据获取方法及模型训练方法、装置及计算机设备 | |
Vineet et al. | Incremental dense semantic stereo fusion for large-scale semantic scene reconstruction | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及*** | |
Tian et al. | Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint | |
CN108665496A (zh) | 一种基于深度学习的端到端的语义即时定位与建图方法 | |
WO2022165809A1 (zh) | 一种训练深度学习模型的方法和装置 | |
CN107292965A (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
WO2019239211A2 (en) | System and method for generating simulated scenes from open map data for machine learning | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN106803267A (zh) | 基于Kinect的室内场景三维重建方法 | |
CN113256778B (zh) | 生成车辆外观部件识别样本的方法、装置、介质及服务器 | |
CN115272591B (zh) | 基于三维语义模型的地理实体多形态表达方法 | |
CN104537705A (zh) | 基于增强现实的移动平台三维生物分子展示***和方法 | |
Li et al. | Three-dimensional traffic scenes simulation from road image sequences | |
CN116580161B (zh) | 基于图像及NeRF模型的建筑三维模型构建方法及*** | |
CN109727314A (zh) | 一种增强现实场景融合及其展示方法 | |
Zhao et al. | Autonomous driving simulation for unmanned vehicles | |
Hospach et al. | Simulation of falling rain for robustness testing of video-based surround sensing systems | |
CN111599007B (zh) | 一种基于无人机航拍的智慧城市cim道路贴图方法 | |
CN110378250A (zh) | 用于场景认知的神经网络的训练方法、装置及终端设备 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190726 |