CN108389226A - 一种基于卷积神经网络和双目视差的无监督深度预测方法 - Google Patents
一种基于卷积神经网络和双目视差的无监督深度预测方法 Download PDFInfo
- Publication number
- CN108389226A CN108389226A CN201810144465.2A CN201810144465A CN108389226A CN 108389226 A CN108389226 A CN 108389226A CN 201810144465 A CN201810144465 A CN 201810144465A CN 108389226 A CN108389226 A CN 108389226A
- Authority
- CN
- China
- Prior art keywords
- image
- convolutional layer
- camera
- neural networks
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于卷积神经网络和双目视差的无监督深度预测方法,包括以下步骤:首先,使用卷积神经网络拟合一个非线性函数,将两幅RGB图像转换为对应的深度图像;然后,利用深度信息计算从左图像像素坐标经过变换得到在右图像的像素位置;在得到右图像的像素位置后经过双线性插值得到右图像的像素坐标和对应的像素值;最后利用求得像素值和左图像对应的像素值计算预测损失。通过这种不需要任何真实深度信息的训练可以得到相应的深度图像。该方法在不需要任何真实深度信息预测相应的深度图像。
Description
技术领域
本发明属于深度学习技术领域,尤其涉及一种基于卷积神经网络和双目视差的无监督深度预测方法,应用于自动驾驶,距离估计。
背景技术
人类在很短的时间内可以非常容易的推断出自己的运动和一个场景的三维结构。例如,在街上行走时我们很容易发现障碍物并迅速做出反应避开障碍物。但是计算机想要完成上面的任务是非常复杂的,计算机在重建真实世界场景方面的能力是远不如人类的,尤其是处理遮挡和缺乏纹理的情况。
人类之所以能够在这些任务中比计算机做的更好。一种合理的假设是我们通过对世界的认知,包括四处走动和大量观察发展了我们对场景结构的理解。我们从数百万次这样的观察中了解到关于世界的规律是:路是平坦的,建筑物是直的,汽车是在路上面。当你观察一个新的场景时,就应用这些规律进行判断。在这个工作中我们通过训练一个模型来模拟这种方法,通过训练一组左右相机拍摄RGB图像来解释相机运动和场景结构。
近些年随着深度学习的广泛应用,特别是在卷积神经网络(CNN)应用在图像领域取得巨大成功后。研究人员意识到CNN因为能够捕获复杂和隐式的关系,所以它在图像领域取得了较好的效果。并且因为有ImageNet这样非常大的人工标注数据集的存在,有监督的深度学习方法成功解决了非常多的问题。
然而,现如今卷积神经网络比较明显的缺点是需要使用大量人工标记的数据来训练。对于ImageNet这样庞大的人工标记数据集一方面需要消耗大量的人力物力,另一方面在标记过程中也很容易出现错误。尤其对于采集户外场景的深度信息往往需要昂贵的硬件和认真细致的采集。尽管有KITTI这种使用了先进的3D传感器和多个校准过的摄像机采集的数据集,但是其采集的可靠深度仍然只在有限的范围内,并且采集成本较高。
现如今通过有监督的方法训练CNN进行深度预测的方法都是使用如NYUv2和KITTI这样的数据集通过RGB图像和其对应的深度图训练而成。但是,这些有监督的方法所学习的网络并没有在它们的直接应用领域之外推广。究其原因是如果将训练好的单视图深度估计模型应用到另一个场景,需要使用另一场景的RGB图像和其对应的深度图像,并且需要重新训练网络。
发明内容
为了解决上述存在的问题,本发明提出一种基于卷积神经网络和双目视差的无监督深度预测方法,在不需要任何真实深度信息的情况下训练卷积神经网络。
为实现上述目的,本发明采用如下的技术方案:
一种基于卷积神经网络和双目视差的无监督深度预测方法,包括以下步骤:
步骤1、使用卷积神经网络拟合一个非线性函数,将左右相机采集两幅RGB图像转换为对应的深度图像;
步骤2、利用深度信息计算从左图像像素坐标经过变换得到在右图像的像素位置;
步骤3、在得到右图像的像素位置后经过双线性插值得到右图像的像素坐标和对应的像素值;
步骤4、利用求得像素值和左图像对应的像素值计算预测损失。
本发明通过这种不需要任何真实深度信息的训练,可以得到相应的深度图像。该方法在不需要任何真实深度信息预测相应的深度图像。
附图说明
图1方法流程图;
图2本发明使用的卷积神经网络结构图;
图3a、图3b、图3c为测试结果效果图,其中,图3a为左图像,图3b为右图像,图3c为深度图。
具体实施方式
以下将结合附图和实施例对本发明作进一步详细说明。
本发明提供一种基于卷积神经网络和双目视差的无监督深度预测方法,在不需要任何真实深度信息的情况下训练卷积神经网络;为了训练卷积神经网络,使用KITTI数据集中通过左右彩色相机获取的一对RGB图像作为训练数据集;这些数据比校准过的RGB图像和其对应的真实深度图像更容易获取。
本发明使用一个CNN来模拟复杂的非线性变换,它利用左右图像的视差来将左右两幅RGB图像转换为对应的深度图。
描述发明方法所用符号如下:
IL IR | 左右图像 |
KL KR | 左右相机对应的内参矩阵 |
T | 左右相机之间的外参矩阵 |
pL pR | 左右图像对应的像素坐标 |
ID | 通过CNN预测出来的深度图 |
Iw | 通过双线性插值新生成的图像 |
q0 q1 q2 q3 | 表示旋转矩阵的四元素 |
XL YL ZL | 左相机坐标系三维坐标 |
XR YR ZR | 右相机坐标系三维坐标 |
本发明的流程图如图1所示,包括四个步骤:
步骤1:将两幅RGB图像转换为对应的深度图像。
本发明使用如图2所示的卷积神经网络。网络层的前五层和Alexnet网络的前五层非常类似,我们将Alexnet网络的全链接层替换为全卷积层,最后我们使用五层的反卷积层进行上采样。
网络层名称依次为:左卷积层1,左卷积层2,右卷积层1,右卷积层2,通道合并层,卷积层3,卷积层4,卷积层5,全卷积层,反卷积层1,反卷积层2,反卷积层3,反卷积层4,反卷积层5。
我们使用左卷积层1和左卷积层2对左图像进行特征提取。同理我们使用右卷积层1和右卷积层2对右图像进行图像特征提取。然后,我们对左右图像提取的特征,在channels维度进行通道合并。为了提高我们神经网络的拟合能力,我们对于通道合并后产生的结果再依次进行:卷积层3,卷积层4,卷积层5,全卷积层。最后为了进行上采样我们对卷积层5产生的结果依次进行:反卷积层1,反卷积层2,反卷积层3,反卷积层4,反卷积层5。
我们使用如上所述的卷积神经网络拟合一个非线性函数:
D(IL,IR)=ID
我们使用这个卷积神经网络来将两幅RGB图像IL和IR转换为对应的深度图像ID。
步骤2:利用深度信息计算投影位置。
首先将左图像的像素坐标变换到左相机的相机坐标,然后再将左相机的相机坐标变换到右相机的相机坐标,最后将右相机的相机坐标投影为右图像的像素位置。整个过程公式可表示为:
步骤2.1:左图像像素坐标逆变换到左相机坐标系。
将左图像的像素坐标变换到左相机的相机坐标,用公式表示为:
XL=ID(pL)(uL-uL0)/kLx
YL=ID(pL)(vL-vL0)/kLy
ZL=ID(pL)
其中,uL,vL为图像的像素横纵坐标,uL0,vL0,kLx,kLy为相机的内参数,并且fx和fy为相机焦距。
步骤2.2:左相机坐标系变换到右相机坐标系。
通过旋转平移矩阵进行坐标系变换,用公式表示为:
其中,旋转矩阵用四元素可以表示为:
并且,四元素需要满足约束条件:
步骤2.3:右相机坐标系投影到右像素位置。
将右相机坐标通过投影变换为右像素位置,用公式表示为:
步骤3:对于求取的位置利用双线性插值转换为像素坐标。
步骤2中右相机投影得到的右像素位置(uR,vR)是连续值,我们用来表示投影后得到的右像素位置,用公式表示为:为了获得更好的像素填充效果,我们使用双线性插值的方法,使用四个像素邻域的值(左上角,右上角,左下角和右下角)的像素值进行插值。用公式可表示为:
其中,分别表示的四个像素邻域(左上角,右上角,左下角和右下角)的像素坐标;可以通过和之间的空间线性距离求取,并且满等式约束关系
步骤4:计算预测损失
本发明使用的重建损失函数计算方法,参考绝对值损失函数公式,公式表达式如下:
由于这种损失函数的梯度主要来源于周围四个领域的像素强度差。如果预测位置位于弱纹理位置将会出现几乎没有梯度的问题,或者预测位置和真实位置距离较大像素差过大出现梯度过大的情况。并且为了使出现的深度图更平滑,我们使用简单的L2正则化方法来约束深度图像的梯度公式表达如下:
我们最终的损失函数表示为:
其中,n为图像数量;λ是超参数,作为正则化的系数来调节正则化的强度。
实施例1:
本发明以英伟达GPU作为计算平台,使用caffe深度学习框架作为CNN框架。具体实施步骤如下:
步骤1:数据集准备。
我们使用KITTI公开数据集训练我们的神经网络,该数据集使用安装在移动车辆上的一对黑白摄像机,一对彩色相机,一个激光雷达来采集几个户外场景。我们使用11月26当天,同一车辆采集属于城镇,居住区,道路的场景数据中左右彩色相机采集的数据作为我们的训练数据。我们将左右相机采集的RGB原始图像降采样成160x608分辨率作为我们的神经网络输入。
训练集由13855个左右图像对组成,我们使用500个带有真实深度信息的数据作为测试集来评估我们的结果。
步骤2:构建卷积神经网络。
我们使用如图2所示的网络结构,其中网络层名称依次为:左卷积层1,左卷积层2,右卷积层1,右卷积层2,通道合并层,卷积层3,卷积层4,卷积层5,全卷积层,反卷积层1,反卷积层2,反卷积层3,反卷积层4,反卷积层5。
我们使用左卷积层1和左卷积层2对左图像进行特征提取。同理,我们使用右卷积层1和右卷积层2对右图像进行图像特征提取。然后,我们对左右图像提取的特征,在channels维度进行通道合并。为了提高我们神经网络的拟合能力,我们对于通道合并后产生的结果再依次进行:卷积层3,卷积层4,卷积层5,全卷积层。最后为了进行上采样我们对卷积层5产生的结果依次进行:反卷积层1,反卷积层2,反卷积层3,反卷积层4,反卷积层5。
所述左卷积层1和左卷积层2卷积核大小分别为:11*11大小和5*5大小,左卷积层1和左卷积层2输出特征图数量分别为:96个和256个,对应的右卷积层1和右卷积2与其相同。通道合并层我们使用caffe框架提供的concat层。卷积层3,卷积层4和卷积层5卷积核大小均为:3*3大小,其特征图输出数量分别为:384个,384个和256个。全卷积层我们使用1024个1*1大小的卷积核。五层反卷积层卷积核大小均为:4*4大小,输出特征图数量均为:1个。
步骤3:初始化左右相机的内外参数。
在训练我们的神经网络求取深度信息时,我们需要合理的初始化左右相机的内外参数,才能求解到较好的深度信息初始化过程如下:
相机内参数初始化:其中我们初始化uL0,vL0为我们降采样后的输入图像尺寸的一半,分别为304,80。同样的为了求解方便我们初始化右图像相应的参数uR0,vR0为304,80。我们初始化对应的kLx,kLy分别为950,950。同理初始化kRx,kRy为同样的值。
相机外参数初始化:因为我们使用的数据集两幅图像间的移动主要体现在水平方向上的平移,所以我们初始化对应的外参矩阵时,将旋转矩阵初始化为单位矩阵,初始化平移矩阵时只初始化水平方向的移动其他方向的移动初始化为0。我们旋转矩阵需要满足复杂的约束条件我们使用四元素表示单位矩阵,并且由于四元数需要满足等式约束:所以我们初始化四元数为q0=1,q1=0,q2=0,q3=0,我们初始化平移矩阵中的参数tx,ty,tz分别为50,0,0。
我们使用上述初始化的相机内外参数来训练我们的神经网络。
步骤4:神经网络的训练和网络参数的设置。
在训练卷积神经网络时,我们每次读入7个图像对作为一个批次。我们使用SGD以0.9的动量和0.0005的权重衰减对网络进行优化。我们把RGB三个通道的减去对应的均值(104,117,123),然后除以255使左右图像像素值分布在区间[-0.5,0.5]之间。在损失函数中我们设置超参数λ为0.05。
为了节省训练时间,在训练过程中我们使用Ravi Garg等人训练40000次的model中部分权值开始我们的训练。
具体实施步骤叙述完毕,效果如图3a、图3b、图3c所示。下面给出本发明的一个测试结果。实验环境为:GPU:TITAN,CUDA 7.5版本,使用KITTI数据集进行测试并与有监督单目预测的几种方法进行比较。我们用以下评估方法评估我们的结果:
结果对比:
其中c7和f分别表示Eigen方法的粗网络和精细网络。
我们基于卷积神经网络和双目视觉的无监督深度预测方法,相比较有监督的方法在准确率上相差并不是很大,还有比较大的发展空间和研究意义。
Claims (5)
1.一种基于卷积神经网络和双目视差的无监督深度预测方法,其特征在于,包括以下步骤:
步骤1、使用卷积神经网络拟合一个非线性函数,将左右相机采集两幅RGB图像转换为对应的深度图像;
步骤2、利用深度信息计算从左图像像素坐标经过变换得到在右图像的像素位置;
步骤3、在得到右图像的像素位置后经过双线性插值得到右图像的像素坐标和对应的像素值;
步骤4、利用求得像素值和左图像对应的像素值计算预测损失。
2.如权利要求1所述的基于卷积神经网络和双目视差的无监督深度预测方法,其特征在于,步骤1具体为:
所述卷积神经网络包括依次为:左卷积层1、左卷积层2、右卷积层1、右卷积层2、通道合并层、卷积层3、卷积层4、卷积层5、全卷积层、反卷积层1、反卷积层2、反卷积层3、反卷积层4、反卷积层5;其中,使用左卷积层1和左卷积层2对左图像进行特征提取。同理使用右卷积层1和右卷积层2对右图像进行图像特征提取;然后,对左右图像提取的特征,在channels维度进行通道合并;对于通道合并后产生的结果再依次进行:卷积层3,卷积层4,卷积层5,全卷积层;最后为了进行上采样对卷积层5产生的结果依次进行:反卷积层1,反卷积层2,反卷积层3,反卷积层4,反卷积层5;
使用如上所述的卷积神经网络拟合一个非线性函数:
D(IL,IR)=ID
使用这个卷积神经网络来将两幅RGB图像IL和IR转换为对应的深度图像ID。
3.如权利要求1所述的基于卷积神经网络和双目视差的无监督深度预测方法,其特征在于,步骤2中,首先将左图像的像素坐标变换到左相机的相机坐标,然后再将左相机的相机坐标变换到右相机的相机坐标,最后将右相机的相机坐标投影为右图像的像素位置,整个过程公式可表示为:
具体包括:
步骤2.1:左图像像素坐标逆变换到左相机坐标系
将左图像的像素坐标变换到左相机的相机坐标,用公式表示为:
XL=ID(pL)(uL-uL0)/kLx
YL=ID(pL)(vL-vL0)/kLy
ZL=ID(pL)
其中,uL,vL为图像的像素横纵坐标,uL0,vL0,kLx,kLy为相机的内参数,并且fx和fy为相机焦距;
步骤2.2:左相机坐标系变换到右相机坐标系
通过旋转平移矩阵进行坐标系变换,用公式表示为:
其中,旋转矩阵用四元素可以表示为:
并且,四元素需要满足约束条件:
步骤2.3:右相机坐标系投影到右像素位置
将右相机坐标通过投影变换为右像素位置,用公式表示为:
4.如权利要求1所述的基于卷积神经网络和双目视差的无监督深度预测方法,其特征在于,步骤3具体为:
步骤2中右相机投影得到的右像素位置(uR,vR)是连续值,采用来表示投影后得到的右像素位置,用公式表示为:使用双线性插值的方法,使用四个像素邻域的值(左上角,右上角,左下角和右下角)的像素值进行插值,采用公式可表示为:
其中,分别表示的四个像素邻域(左上角,右上角,左下角和右下角)的像素坐标;可以通过和之间的空间线性距离求取,并且满等式约束关系
5.如权利要求1所述的基于卷积神经网络和双目视差的无监督深度预测方法,其特征在于,步骤4具体为:
使用的重建损失函数计算方法,参考绝对值损失函数公式,公式表达式如下:
损失函数的梯度来源于周围四个领域的像素强度差,为了使出现的深度图更平滑,使用简单的L2正则化方法来约束深度图像的梯度公式表达如下:
最终的损失函数表示为:
其中,n为图像数量;λ是超参数,作为正则化的系数来调节正则化的强度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810144465.2A CN108389226A (zh) | 2018-02-12 | 2018-02-12 | 一种基于卷积神经网络和双目视差的无监督深度预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810144465.2A CN108389226A (zh) | 2018-02-12 | 2018-02-12 | 一种基于卷积神经网络和双目视差的无监督深度预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108389226A true CN108389226A (zh) | 2018-08-10 |
Family
ID=63068766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810144465.2A Pending CN108389226A (zh) | 2018-02-12 | 2018-02-12 | 一种基于卷积神经网络和双目视差的无监督深度预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108389226A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299656A (zh) * | 2018-08-13 | 2019-02-01 | 浙江零跑科技有限公司 | 一种车载视觉***场景视深确定方法 |
CN109377530A (zh) * | 2018-11-30 | 2019-02-22 | 天津大学 | 一种基于深度神经网络的双目深度估计方法 |
CN109584340A (zh) * | 2018-12-11 | 2019-04-05 | 苏州中科广视文化科技有限公司 | 基于深度卷积神经网络的新视角合成方法 |
CN109615674A (zh) * | 2018-11-28 | 2019-04-12 | 浙江大学 | 基于混合损失函数3d cnn的动态双示踪pet重建方法 |
CN109801323A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 具有自我提升能力的金字塔双目深度估计模型 |
CN110009691A (zh) * | 2019-03-28 | 2019-07-12 | 北京清微智能科技有限公司 | 基于双目立体视觉匹配的视差图像生成方法及*** |
CN110175603A (zh) * | 2019-04-01 | 2019-08-27 | 佛山缔乐视觉科技有限公司 | 一种雕刻文字识别方法、***及存储介质 |
CN110414393A (zh) * | 2019-07-15 | 2019-11-05 | 福州瑞芯微电子股份有限公司 | 一种基于深度学习的自然交互方法及终端 |
CN110702015A (zh) * | 2019-09-26 | 2020-01-17 | 中国南方电网有限责任公司超高压输电公司曲靖局 | 输电线路覆冰厚度测量方法及装置 |
WO2020046066A1 (en) * | 2018-08-30 | 2020-03-05 | Samsung Electronics Co., Ltd. | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
CN111462208A (zh) * | 2020-04-05 | 2020-07-28 | 北京工业大学 | 一种基于双目视差和外极线约束的无监督深度预测方法 |
CN111862321A (zh) * | 2019-04-30 | 2020-10-30 | 北京四维图新科技股份有限公司 | 视差图的获取方法、装置、***及存储介质 |
CN112639878A (zh) * | 2018-09-05 | 2021-04-09 | 谷歌有限责任公司 | 无监督深度预测神经网络 |
EP3731528A4 (en) * | 2017-12-21 | 2021-08-11 | Sony Interactive Entertainment Inc. | IMAGE PROCESSING DEVICE, CONTENT PROCESSING DEVICE, CONTENT PROCESSING SYSTEM AND IMAGE PROCESSING METHOD |
CN113272863A (zh) * | 2019-01-11 | 2021-08-17 | 谷歌有限责任公司 | 基于双像素图像的深度预测 |
US11841921B2 (en) | 2020-06-26 | 2023-12-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Model training method and apparatus, and prediction method and apparatus |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577004A (zh) * | 2009-06-25 | 2009-11-11 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种极线矫正方法、装置和*** |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN105975915A (zh) * | 2016-04-28 | 2016-09-28 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
CN106204731A (zh) * | 2016-07-18 | 2016-12-07 | 华南理工大学 | 一种基于双目立体视觉***的多视角三维重建方法 |
CN106612427A (zh) * | 2016-12-29 | 2017-05-03 | 浙江工商大学 | 一种基于卷积神经网络的时空一致性深度图序列的生成方法 |
CN106934765A (zh) * | 2017-03-14 | 2017-07-07 | 长沙全度影像科技有限公司 | 基于深度卷积神经网络与深度信息的全景图像融合方法 |
KR20180012638A (ko) * | 2016-07-27 | 2018-02-06 | 한국전자통신연구원 | 누적 채널 특징점을 이용한 영상 인식에서의 객체 검출 방법 및 장치 |
-
2018
- 2018-02-12 CN CN201810144465.2A patent/CN108389226A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577004A (zh) * | 2009-06-25 | 2009-11-11 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种极线矫正方法、装置和*** |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN105975915A (zh) * | 2016-04-28 | 2016-09-28 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
CN106204731A (zh) * | 2016-07-18 | 2016-12-07 | 华南理工大学 | 一种基于双目立体视觉***的多视角三维重建方法 |
KR20180012638A (ko) * | 2016-07-27 | 2018-02-06 | 한국전자통신연구원 | 누적 채널 특징점을 이용한 영상 인식에서의 객체 검출 방법 및 장치 |
CN106612427A (zh) * | 2016-12-29 | 2017-05-03 | 浙江工商大学 | 一种基于卷积神经网络的时空一致性深度图序列的生成方法 |
CN106934765A (zh) * | 2017-03-14 | 2017-07-07 | 长沙全度影像科技有限公司 | 基于深度卷积神经网络与深度信息的全景图像融合方法 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11503267B2 (en) | 2017-12-21 | 2022-11-15 | Sony Interactive Entertainment Inc. | Image processing device, content processing device, content processing system, and image processing method |
EP3731528A4 (en) * | 2017-12-21 | 2021-08-11 | Sony Interactive Entertainment Inc. | IMAGE PROCESSING DEVICE, CONTENT PROCESSING DEVICE, CONTENT PROCESSING SYSTEM AND IMAGE PROCESSING METHOD |
CN109299656A (zh) * | 2018-08-13 | 2019-02-01 | 浙江零跑科技有限公司 | 一种车载视觉***场景视深确定方法 |
US10832432B2 (en) | 2018-08-30 | 2020-11-10 | Samsung Electronics Co., Ltd | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
WO2020046066A1 (en) * | 2018-08-30 | 2020-03-05 | Samsung Electronics Co., Ltd. | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
US11410323B2 (en) | 2018-08-30 | 2022-08-09 | Samsung Electronics., Ltd | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
CN112639878A (zh) * | 2018-09-05 | 2021-04-09 | 谷歌有限责任公司 | 无监督深度预测神经网络 |
CN109615674A (zh) * | 2018-11-28 | 2019-04-12 | 浙江大学 | 基于混合损失函数3d cnn的动态双示踪pet重建方法 |
CN109615674B (zh) * | 2018-11-28 | 2020-09-18 | 浙江大学 | 基于混合损失函数3d cnn的动态双示踪pet重建方法 |
CN109377530B (zh) * | 2018-11-30 | 2021-07-27 | 天津大学 | 一种基于深度神经网络的双目深度估计方法 |
CN109377530A (zh) * | 2018-11-30 | 2019-02-22 | 天津大学 | 一种基于深度神经网络的双目深度估计方法 |
CN109584340B (zh) * | 2018-12-11 | 2023-04-18 | 苏州中科广视文化科技有限公司 | 基于深度卷积神经网络的新视角合成方法 |
CN109584340A (zh) * | 2018-12-11 | 2019-04-05 | 苏州中科广视文化科技有限公司 | 基于深度卷积神经网络的新视角合成方法 |
CN109801323A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 具有自我提升能力的金字塔双目深度估计模型 |
CN113272863A (zh) * | 2019-01-11 | 2021-08-17 | 谷歌有限责任公司 | 基于双像素图像的深度预测 |
CN110009691A (zh) * | 2019-03-28 | 2019-07-12 | 北京清微智能科技有限公司 | 基于双目立体视觉匹配的视差图像生成方法及*** |
CN110175603A (zh) * | 2019-04-01 | 2019-08-27 | 佛山缔乐视觉科技有限公司 | 一种雕刻文字识别方法、***及存储介质 |
CN111862321A (zh) * | 2019-04-30 | 2020-10-30 | 北京四维图新科技股份有限公司 | 视差图的获取方法、装置、***及存储介质 |
CN111862321B (zh) * | 2019-04-30 | 2024-05-03 | 北京四维图新科技股份有限公司 | 视差图的获取方法、装置、***及存储介质 |
CN110414393A (zh) * | 2019-07-15 | 2019-11-05 | 福州瑞芯微电子股份有限公司 | 一种基于深度学习的自然交互方法及终端 |
CN110702015A (zh) * | 2019-09-26 | 2020-01-17 | 中国南方电网有限责任公司超高压输电公司曲靖局 | 输电线路覆冰厚度测量方法及装置 |
CN111462208A (zh) * | 2020-04-05 | 2020-07-28 | 北京工业大学 | 一种基于双目视差和外极线约束的无监督深度预测方法 |
US11841921B2 (en) | 2020-06-26 | 2023-12-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Model training method and apparatus, and prediction method and apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108389226A (zh) | 一种基于卷积神经网络和双目视差的无监督深度预测方法 | |
Amirkolaee et al. | Height estimation from single aerial images using a deep convolutional encoder-decoder network | |
CN111462329B (zh) | 一种基于深度学习的无人机航拍影像的三维重建方法 | |
CN106803267B (zh) | 基于Kinect的室内场景三维重建方法 | |
CN104869387B (zh) | 基于光流法的双目图像最大视差获取方法 | |
Ham et al. | Computer vision based 3D reconstruction: A review | |
CN104778671B (zh) | 一种基于sae和稀疏表示的图像超分辨率方法 | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其*** | |
Kropatsch et al. | Digital image analysis: selected techniques and applications | |
CN106981080A (zh) | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 | |
CN110310227A (zh) | 一种基于高低频信息分解的图像超分辨率重建方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN104835130A (zh) | 一种多曝光图像融合方法 | |
CN110298916B (zh) | 一种基于合成深度数据的三维人体重建方法 | |
CN102142153A (zh) | 基于图像的三维模型的重建模方法 | |
CN116258658B (zh) | 基于Swin Transformer的图像融合方法 | |
CN110910437B (zh) | 一种复杂室内场景的深度预测方法 | |
CN113313828B (zh) | 基于单图片本征图像分解的三维重建方法与*** | |
CN111462208A (zh) | 一种基于双目视差和外极线约束的无监督深度预测方法 | |
CN116071484B (zh) | 十亿像素级大场景光场智能重建方法及装置 | |
CN110097634A (zh) | 一种自适应多尺度的三维鬼成像方法 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
CN113516693A (zh) | 一种快速通用的图像配准方法 | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和*** | |
CN112686830B (zh) | 基于图像分解的单一深度图的超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180810 |