CN106612427A - 一种基于卷积神经网络的时空一致性深度图序列的生成方法 - Google Patents

一种基于卷积神经网络的时空一致性深度图序列的生成方法 Download PDF

Info

Publication number
CN106612427A
CN106612427A CN201611244732.0A CN201611244732A CN106612427A CN 106612427 A CN106612427 A CN 106612427A CN 201611244732 A CN201611244732 A CN 201611244732A CN 106612427 A CN106612427 A CN 106612427A
Authority
CN
China
Prior art keywords
super
pixel
depth
space
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611244732.0A
Other languages
English (en)
Other versions
CN106612427B (zh
Inventor
王勋
赵绪然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN201611244732.0A priority Critical patent/CN106612427B/zh
Publication of CN106612427A publication Critical patent/CN106612427A/zh
Application granted granted Critical
Publication of CN106612427B publication Critical patent/CN106612427B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的时空一致性深度图序列的生成方法,可用于影视作品2D转3D技术。该方法包括:1)收集训练集:训练集的每一个训练样本是一个连续RGB图像序列以及其对应的深度图序列;2)对训练集中的每一个图像序列进行时空一致性超像素分割,并且构建空间相似度矩阵和时间相似度矩阵;3)构建由单一超像素深度回归网络以及时空一致性条件随机场损失层构成的卷积神经网络;4)对卷积神经网络进行训练;5)对未知深度的RGB图像序列,使用训练好的神经网络通过前向传播恢复深度图序列。本发明避免了基于线索的深度恢复方法对场景假设依赖过强,以及现有基于卷积神经网络的深度恢复方法生成的深度图帧间不连续的问题。

Description

一种基于卷积神经网络的时空一致性深度图序列的生成方法
技术领域
本发明涉及计算机视觉立体视频领域,具体涉及一种基于卷积神经网络的时空一致性深度图序列的生成方法。
背景技术
立体视频的基本原理是将两幅具有水平视差的影像叠加播放,观众通过立体眼镜分别看到左右眼的画面,从而产生立体感知。立体视频能给人提供身临其境的三维立体观感,深受消费者欢迎。然而随着3D影视硬件的普及度不断上升,3D影视内容的短缺随之而来。直接由3D摄像机拍摄成本高,后期制作难度大,通常只能在大成本电影中使用。因此影视作品的2D/3D转换技术是解决片源紧缺难题的一种有效的途径,不仅能大大拓展立体影片的题材和数量,还能让一些经典的影视作品重返荧屏。
由于立体视频中的左右视差直接与每个像素对应的深度相关,因此获取视频各帧对应的深度图是2D/3D转换技术的关键所在。深度图可以由人工对视频的每一帧抠图并赋予深度值产生,但是成本非常昂贵。同时,也存在一些的半自动的深度图生成方法,即先由人工绘制视频中一些关键帧的深度图,计算机通过传播算法将这些深度图扩展到其他相邻的帧。这些方法虽然能节省了一部分时间,但在大批量处理影视作品2D到3D转换时,仍然需要比较繁重的人工操作。
相比而言,全自动的深度恢复方法可以最大程度的节省人工成本。一些算法可以通过运动,聚焦、遮挡或阴影等深度线索,使用特定的规则恢复出深度图,但是通常只对特定场景有效。例如,基于运动推断结构的方法可以根据相邻帧间远处物体相对位移小、近处物体相对位移大的线索恢复移动摄像机拍摄的静态场景的深度,但是该类方法在拍摄对象移动或摄像机静止的情况下无效;基于聚焦的深度恢复方法可以恢复浅景深图像的深度,但在大景深的情况下效果很差。影视作品中通常包含各种场景,因此基于深度线索的深度恢复方法很难普遍应用。
卷积神经网络是一种特别适用于图像的深度神经网络,它由卷积层,激活层,池化层和损耗层等基本单元堆叠构成,可以模拟图像输入x到特定输出y的复杂函数,在解决图像分类,图像分割等各类机器视觉问题中占据了主导性地位。近一两年来,一些方法将卷积神经网络用于深度恢复,使用大量的数据学习得出从RGB图像输入到深度图输出的映射关系。基于卷积神经网络的深度恢复不依赖于各种假设,具有很好的普适性,而且恢复精度很高,因此在影视作品的2D-3D转换中有很大的应用潜力。然而,现存的方法在训练卷积神经网络时都是基于单幅图像优化的,而忽略了帧间的连续性关系。如果运用于恢复图像序列的深度,相邻各帧恢复出的深度图会发生明显的跳变。而相邻帧的深度图跳变会造成合成的虚拟视图的闪烁,严重影响用户观感。此外,帧间的连续性也对深度恢复提供了重要线索,而在现存的方法里,这些信息被简单的忽略掉了。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于卷积神经网络的时空一致性深度图序列的生成方法,将RGB图像和深度图在时域上的连续性引入卷积神经网络中,在训练时将多帧图像联合优化,以生成在时域上连续的深度图,并且改善深度恢复的精确度。
本发明的目的是通过以下技术方案来实现的:一种基于卷积神经网络的时空一致性深度图序列的生成方法,包括如下步骤:
1)收集训练集。训练集的每一个训练样本是一个包含m帧的连续RGB图像序列,以及其对应的深度图序列;
2)对训练集中的每一个图像序列进行时空一致性超像素分割,并且构建空间上的相似度矩阵S(s)和时间上的相似度矩阵S(t)
3)构建卷积神经网络,该神经网络由包含参数W的单一超像素深度回归网络,以及包含参数α的时空一致性条件随机场损失层构成。其中单一超像素深度回归网络的作用是在不考虑时空一致性约束的情况下对每一个超像素回归出一个深度值;时空一致性条件随机场损失层的作用是使用步骤2)中建立的时间和空间上的相似度矩阵对单一超像素回归网络的输出进行约束,最终输出时域和空域上平滑的估计深度图。
4)利用训练集中的RGB图像序列和深度图序列对步骤3)中构建的卷积神经网络进行训练,得出网络参数W和α。
5)对未知深度的RGB图像序列,使用训练好的神经网络通过前向传播恢复深度图序列。
进一步地,所述的步骤2)具体为:
(2.1)对训练集中的每一个连续RGB图像序列进行时空一致性超像素分割。将输入序列标注为I=[I1,…,Im],其中It是第t帧RGB图像,共有m帧。时空一致性超像素分割将m帧分别分割为n1,…,nm个超像素,而且生成后一帧中每个超像素和前一帧中对应相同物体的超像素的对应关系。整个图像序列包含个超像素。对于每一个超像素p,将其重心位置的真实深度值记为dp,并定义n个超像素的真实深度向量d=[d1;…;dn]。
(2.2)建立这n个超像素的空间一致性相似度矩阵S(s),方法是:S(s)是一个n×n的矩阵,其中描述了第p个超像素和第q个超像素的帧内相似度关系:
其中cp和cq分别是超像素p和q的颜色直方图特征,γ是手动设定的一个参数,可设定为所有相邻超像素对||cp-cq||2值的中位数。
(2.3)建立这n个超像素的空间一致性相似度矩阵S(t),方法是:S(t)是一个n×n的矩阵,其中描述了第p个超像素和第q个超像素的帧间的相似度关系:
其中,相邻帧超像素的对应关系由步骤(2.1)中的时空一致性超像素分割得出。
进一步地,所述的步骤3)中构建的卷积神经网络由两个部分构成:单一超像素深度回归网络,以及时空一致性条件随机场损失层:
(3.1)单一超像素深度回归网络由VGG16网络的前31层,1个超像素池化层,和3个全连接层构成。其中,超像素池化层每个超像素空间范围内的特征进行平均池化。该网络的输入是m帧连续的RGB图像,输出是一个n维向量z=[z1,…zp],其中第p个元素zp是该连续RGB图像序列经时空一致性超像素分割后的第p个超像素在未考虑任何约束时的深度估计值。该卷积神经网络的需要学习的参数记为W。
(3.2)时空一致性条件随机场损失层的输入步骤(3.1)中单一超像素回归网络的输出z=[z1,…zn]、步骤(2.1)中定义的超像素真实深度向量d=[d1;…;dn],以及步骤(2.2)和(2.3)中得出的空间一致性相似度矩阵和时间一致性相似度矩阵在这里,时空一致性条件随机场的条件概率函数为:
其中能量函数E(d,I)定义为:
该能量函数的第一项∑p∈N(dp-zp)2是单一超像素预测值和真实值的差距;第二项是空间一致性约束,表明如果超像素p和q在同一帧相邻,而且颜色比较相近(比较大),则深度应该相仿;第三项是时间一致性约束,表明如果超像素p和q是相邻两帧中对应同一物体的超像素其深度应该相仿。将该能量函数用矩阵形式可以写成:
E(d,I)=dTLd-2zTd+zTz
其中:
M=α(s)S(s)(t)S(t)
S(s)和S(t)是步骤(2.2)和步骤(2.3)中得出的空间和时间相似度矩阵,α(s)和α(t)是需要学习的两个参数,是n×n的单位矩阵,D是一个对角矩阵,Dpp=∑qMpq
其中L-1表示L的逆矩阵,|L|表示L的行列式值。
因此,可将损失函数定义为条件概率函数的负对数:
进一步地,步骤4)中的卷积神经网络训练过程具体为:
(4.1)使用随机梯度下降法对网络参数W,α(s)和α(t)进行优化,在每一次迭代中,参数用以下方式更新:
其中lr是学习率。
(4.2)步骤(4.1)中代价函数J对参数W的偏导数由下述公式计算:
其中由卷积神经网络的反向传播逐层计算得到。
(4.3)步骤(4.2)中代价函数J对参数α(s)和α(t)的偏导数由下述公式计算:
其中Tr()表示求矩阵的迹,矩阵A(s)和A(t)是矩阵L对α(s)和α(t)的偏导数,由下述公式计算:
δ(p=q)当p=q时取值为1,否则取值为0。
进一步地,步骤5)中,恢复一个未知深度的RGB图像序列的方法具体为:
(5.1)按照步骤2中的方法对该RGB图像序列进行时空一致性超像素分割,并且计算空间相似度矩阵S(s)和时间相似度矩阵S(t)
(5.2)使用训练好的卷积神经网络对该RGB图像序列进行前向传播,得到单一超像素网络输出z;
(5.3)经过时空一致性约束的深度输出为由下述公式计算:
其中矩阵L由步骤(3.2)中描述的方法计算。表示该RGB图像序列第p个超像素的深度值。
(5.4)将各个赋予该超像素相应帧的相应位置,即可得出m帧图像的深度图。
本发明的有益效果如下:
第一,相比于基于深度线索的深度恢复方法,本发明使用卷积神经网络学习从RGB图像到深度图的函数映射,不依赖于对场景的特定假设;
第二,相比于现有的基于卷积神经网络的深度恢复方法只对单帧图像优化,本发明加入时空一致性约束,通过构造时空一致性随机场损失层对多帧图像联合优化,可以输出时空一致性的深度图,避免了深度图的帧间跳跃。
第三,相比于现有的基于卷积神经网络的深度恢复方法,本发明加入的是时空一致性约束,可以提高深度恢复的精度。
本发明在公开数据集NYU depth v2以及一个发明人自己提出的数据集LYB 3D-TV上与Eigen,David,Christian Puhrsch,and Rob Fergus."Depth map prediction from asingle image using a multi-scale deep network."Advances in neural informationprocessing systems.2014.等其他现有的方法进行了比较。结果显示,本发明提出的方法可以显著地提高恢复深度图的时域连续致性,以及提高深度估计的精确度。
附图说明
图1是本发明的实例流程图;
图2是本发明提出的卷积神经网络结构图;
图3是单一超像素深度回归网络的结构图;
图4是单一超像素作用于多帧图像的示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
如图1所示的实施例流程图,本发明方法包括如下步骤:
1)收集训练集。训练集的每一个训练样本是一个包含m帧的连续RGB图像序列,以及其对应的深度图序列;
2)使用Chang Jason et al.A video representation using temporalsuperpixels.CVPR 2013中提出的方法对训练集中的每一个图像序列进行时空一致性超像素分割,并且构建空间上的相似度矩阵S(s)和时间上的相似度矩阵S(t)
3)构建卷积神经网络,该神经网络由包含参数W的单一超像素深度回归网络,以及包含参数α的时空一致性条件随机场损失层构成。其中单一超像素深度回归网络的作用是在不考虑时空一致性约束的情况下对对每一个超像素回归出一个深度值;时空一致性条件随机场损失层的作用是使用步骤2)中建立的时间和空间上的相似度矩阵对单一超像素回归网络的输出进行约束,最终输出时域和空域上平滑的估计深度图。
4)利用训练集中的RGB图像序列和深度图序列对步骤3)中构建的卷积神经网络进行训练,得出网络参数W和α。
5)对未知深度的RGB图像序列,使用训练好的神经网络通过前向传播恢复深度图序列。
关于步骤2)的具体实施说明如下:
(2.1)使用Chang Jason et al.A video representation using temporalsuperpixels.CVPR 2013中提出的方法对训练集中的每一个连续RGB图像序列进行时空一致性超像素分割。将输入序列标注为I=[I1,…,Im],其中It是第t帧RGB图像,共有m帧。时空一致性超像素分割将m帧分别分割为n1,…,nm个超像素,而且生成后一帧中每个超像素和前一帧中对应相同物体的超像素的对应关系。整个图像序列包含个超像素。对于每一个超像素p,我们将其重心位置的真实深度值记为dp,并定义n个超像素的真实深度向量d=[d1;…;dn]。
(2.2)建立这n个超像素的空间一致性相似度矩阵S(s),方法是:S(s)是一个n×n的矩阵,其中描述了第p个超像素和第q个超像素的帧内相似度关系:
其中cp和cq分别是超像素p和q的颜色直方图特征,γ是手动设定的一个参数,可设定为所有相邻超像素对||cp-cq||2值的中位数。
(2.3)建立这n个超像素的空间一致性相似度矩阵S(t),方法是:S(t)是一个n×n的矩阵,其中描述了第p个超像素和第q个超像素的帧间的相似度关系:
其中,相邻帧超像素的对应关系由步骤(2.1)中的时空一致性超像素分割得出。
关于步骤3)的具体实施说明如下:
(3.1)本方法构建的卷积神经网络由两个部分构成:单一超像素深度回归网络,以及时空一致性条件随机场损失层,其整体网络结构如图2所示;
(3.2)步骤(3.1)中所述的单一超像素深度回归网络由文献Simonyan,Karen,andAndrew Zisserman."Very deep convolutional networks for large-scale imagerecognition."arXivpreprint arXiv:1409.1556(2014)中提出的VGG16网络的前31层,两个卷积层,1个超像素池化层,和3个全连接层构成,该网络结构如图3所示。其中,超像素池化层每个超像素空间范围内的特征进行平均池化,其他的卷积、池化、激活等层均为卷积神经网络常规的层。对于m帧连续的RGB图像输入,该网络首先单独作用于每一帧,例如对于包含nt个超像素的第t帧图像,该网络输出一个nt维的向量zt,代表该帧内每个超像素在不考虑任何约束下的深度回归输出。之后,将m帧图像的输出拼接成一个维的向量z=[z1;…,;zn],代表该图像序列中共n个超像素的估计深度回归值,如图4所示。该卷积神经网络的需要学习的参数记为W。
(3.3)步骤(3.1)中所述的时空一致性条件随机场损失层的输入步骤(3.2)中所述的单一超像素回归网络的输出z=[z1,…zn],以及、步骤(2.1)中定义的超像素真实深度向量d=[d1;…;dn],以及步骤(2.2)和(2.3)中得出的空间一致性相似度矩阵和时间一致性相似度矩阵在这里,时空一致性条件随机场的条件概率函数为:
其中能量函数E(d,I)定义为:
该能量函数的第一项∑p∈N(dp-zp)2是单一超像素预测值和真实值的差距;第二项是空间一致性约束,表明如果超像素p和q在同一帧相邻,而且颜色比较相近(比较大),则深度应该相仿;第三项是时间一致性约束,表明如果超像素p和q是相邻两帧中对应同一物体的超像素其深度应该相仿。将该能量函数用矩阵形式可以写成:
E(d,I)=dTLd-2zTd+zTz
其中:
M=α(s)S(s)(t)S(t)
S(s)和S(t)是步骤(2.2)和步骤(2.3)中得出的空间和时间相似度矩阵,α(s)和α(t)是需要学习的两个参数,是n×n的单位矩阵,D是一个对角矩阵,Dpp=∑qMpq
其中L-1表示L的逆矩阵,|L|表示L的行列式值。
因此,可将损失函数定义为条件概率函数的负对数:
步骤4)中的卷积神经网络训练过程,具体为:
(4.1)使用随机梯度下降法对网络参数W,α(s)和α(t)进行优化,在每一次迭代中,参数用以下方式更新:
其中lr是学习率。
(4.2)步骤(4.1)中代价函数J对参数W的偏导数由下述公式计算:
其中由卷积神经网络的反向传播逐层计算得到。
(4.3)步骤(4.2)中代价函数J对参数α(s)和α(t)的偏导数由下述公式计算:
Tr(·)是求矩阵的迹的运算;其中矩阵A(s)和A(t)是矩阵L对α(s)和α(t)的偏导数,由下述公式计算:
δ(p=q)当p=q时取值为1,否则取值为0。
步骤5)中,恢复一个未知深度的RGB图像序列的方法具体为:
(5.1)按照步骤2中的方法对该RGB图像序列进行时空一致性超像素分割,并且计算空间相似度矩阵S(s)和时间相似度矩阵S(t)
(5.2)使用训练好的卷积神经网络对该RGB图像序列进行前向传播,得到单一超像素网络输出z;
(5.3)经过时空一致性约束的深度输出为由下述公式计算:
其中矩阵L由步骤(3.3)中描述的方法计算。表示该RGB图像序列第p个超像素的深度值。
(5.4)将各个赋予该超像素相应帧的相应位置,即可得出m帧图像的深度图。
具体实施例:本发明在公开数据集NYU depth v2以及一个发明人自己提出的数据集LYB3D-TV上与其他集中现有的方法进行了比较。其中,NYU depth v2数据集由795个训练场景和654个测试场景构成,每一个场景包含30帧连续的rgb图像和其对应的深度图。LYU3D-TV数据库取自电视剧《琅琊榜》的一些场景,我们选取了60个场景中的5124帧图片和其手工标注的深度图作为训练集,和20个场景中的1278帧图片和其手工标注的深度图作为测试集。我们将本发明提出的方法和下列方法在深度恢复精度上进行了对比:
1.Depth transfer:Karsch,Kevin,Ce Liu,and Sing Bing Kang."Depthtransfer:Depth extraction from video using non-parametric sampling."IEEEtransactions on pattern analysis and machine intelligence 36.11(2014):2144-2158.
2.discrete-continuous CRF:Liu,Miaomiao,Mathieu Salzmann,and XumingHe."Discrete-continuous depth estimation from a single image."Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition.2014.
3.Multi-scale CNN:Eigen,David,Christian Puhrsch,and Rob Fergus."Depthmap prediction from a single image using a multi-scale deep network."Advancesin neural information processing systems.2014(Multi-scale CNN),
4.2D-DCNF:Liu,Fayao,et al."Learning depth from single monocularimages using deep convolutional neural fields."IEEE transactions on patternanalysis and machine intelligence.
结果显示,我们的方法的精度相对于对比方法有所提升,而且恢复深度图的帧间跳跃现象明显减少。
表1:在NYU depth v2数据库的深度恢复精度对比
表2:在LYB-3D TV数据库的深度恢复精度对比

Claims (5)

1.一种基于卷积神经网络的时空一致性深度图序列的生成方法,其特征在于,包括下列步骤:
1)收集训练集。训练集的每一个训练样本是一个包含m帧的连续RGB图像序列,以及其对应的深度图序列;
2)对训练集中的每一个图像序列进行时空一致性超像素分割,并且构建空间上的相似度矩阵S(s)和时间上的相似度矩阵S(t)
3)构建卷积神经网络,该神经网络由包含参数W的单一超像素深度回归网络,以及包含参数α的时空一致性条件随机场损失层构成。
4)利用训练集中的RGB图像序列和深度图序列对步骤3)中构建的卷积神经网络进行训练,得出网络参数W和α。
5)对未知深度的RGB图像序列,使用训练好的神经网络通过前向传播恢复深度图序列。
2.根据权利要求1所述的时空一致性深度图序列的生成方法,其特征在于,所述的步骤2)具体为:
(2.1)对训练集中的每一个连续RGB图像序列进行时空一致性超像素分割。将输入序列标注为I=[I1,…,Im],其中It是第t帧RGB图像,共有m帧。时空一致性超像素分割将m帧分别分割为n1,…,nm个超像素,而且生成后一帧中每个超像素和前一帧中对应相同物体的超像素的对应关系。整个图像序列包含个超像素。对于每一个超像素p,将其重心位置的真实深度值记为dp,并定义n个超像素的真实深度向量d=[d1;…;dn]。
(2.2)建立这n个超像素的空间一致性相似度矩阵S(s),方法是:S(s)是一个n×n的矩阵,其中描述了第p个超像素和第q个超像素的帧内相似度关系:
其中cp和cq分别是超像素p和q的颜色直方图特征,γ是手动设定的一个参数,可设定为所有相邻超像素对||cp-cq||2值的中位数。
(2.3)建立这n个超像素的时间一致性相似度矩阵S(t),方法是:S(t)是一个n×n的矩阵,其中描述了第p个超像素和第q个超像素的帧间的相似度关系:
其中,相邻帧超像素的对应关系由步骤(2.1)中的时空一致性超像素分割得出。
3.根据权利要求2所述的时空一致性深度图序列的生成方法,其特征在于,所述的步骤3)中构建的卷积神经网络由两个部分构成:单一超像素深度回归网络,以及时空一致性条件随机场损失层:
(3.1)单一超像素深度回归网络由VGG16网络的前31层,1个超像素池化层,和3个全连接层构成。其中,超像素池化层每个超像素空间范围内的特征进行平均池化。该网络的输入是m帧连续的RGB图像,输出是一个n维向量z=[z1,…zn],其中第p个元素zp是该连续RGB图像序列经时空一致性超像素分割后的第p个超像素在未考虑任何约束时的深度估计值。该卷积神经网络的需要学习的参数记为W。
(3.2)时空一致性条件随机场损失层的输入是步骤(3.1)中单一超像素回归网络的输出z=[z1,…zn],、步骤(2.1)中定义的超像素真实深度向量d=[d1;…;dn],以及步骤(2.2)和(2.3)中得出的空间一致性相似度矩阵和时间一致性相似度矩阵损失函数定义为:
J = - log P ( d | I ) = - d T L d + 2 z T d - z T L - 1 z - 1 2 l o g ( | L | ) + n 2 l o g ( π )
其中L-1表示L的逆矩阵,并且:
M=α(s)S(s)(t)S(t)
其中,S(s)和S(t)是步骤(2.2)和步骤(2.3)中得出的空间和时间相似度矩阵,α(s)和α(t)是需要学习的两个参数,是n×n的单位矩阵,D是一个对角矩阵,Dpp=∑qMpq
4.根据权利要求3所述的时空一致性深度图序列的生成方法,其特征在于,所述的步骤4)中卷积神经网络训练过程具体为:
(4.1)使用随机梯度下降法对网络参数W,α(s)和α(t)进行优化,在每一次迭代中,参数用以下方式更新:
W = W - l r ∂ J ∂ W
α ( s ) = α ( s ) - l r ∂ J ∂ α ( s )
α ( t ) = α ( t ) - l r ∂ J ∂ α ( t )
其中lr是学习率。
(4.2)损失函数J对参数W的偏导数由下述公式计算:
∂ J ∂ W = 2 ( L - 1 z - d ) T ∂ z ∂ W
其中由卷积神经网络的反向传播逐层计算得到。
(4.3)损失函数J对参数α(s)和α(t)的偏导数由下述公式计算:
∂ J ∂ α ( s ) = d T A ( s ) d - z T L - 1 A ( s ) L - 1 z - 1 2 T r ( L - 1 A ( s ) )
∂ J ∂ α ( t ) = d T A ( t ) d - z T L - 1 A ( t ) L - 1 z - 1 2 T r ( L - 1 A ( t ) )
Tr(·)是求矩阵的迹的运算;其中矩阵A(s)和A(t)是矩阵L对α(s)和α(t)的偏导数,由下述公式计算:
A p q ( s ) = - S p q ( s ) + δ ( p = q ) Σ q S p q ( s )
A p q ( t ) = - S p q ( t ) + δ ( p = q ) Σ q S p q ( t )
δ(p=q)当p=q时取值为1,否则取值为0。
5.根据权利要求4所述的时空一致性深度图序列的生成方法,其特征在于,所述的步骤5)中,恢复一个未知深度的RGB图像序列的方法具体为:
(5.1)对该RGB图像序列进行时空一致性超像素分割,并且计算空间相似度矩阵S(s)和时间相似度矩阵S(t)
(5.2)使用训练好的卷积神经网络对该RGB图像序列进行前向传播,得到单一超像素网络输出z;
(5.3)经过时空一致性约束的深度输出为由下述公式计算:
d ^ = L - 1 z
其中矩阵L由步骤(3.2)中描述的方法计算。表示该RGB图像序列第p个超像素的深度估计值。
(5.4)将各个赋予该超像素相应帧的相应位置,即可得出m帧图像的深度图。
CN201611244732.0A 2016-12-29 2016-12-29 一种基于卷积神经网络的时空一致性深度图序列的生成方法 Active CN106612427B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611244732.0A CN106612427B (zh) 2016-12-29 2016-12-29 一种基于卷积神经网络的时空一致性深度图序列的生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611244732.0A CN106612427B (zh) 2016-12-29 2016-12-29 一种基于卷积神经网络的时空一致性深度图序列的生成方法

Publications (2)

Publication Number Publication Date
CN106612427A true CN106612427A (zh) 2017-05-03
CN106612427B CN106612427B (zh) 2018-07-06

Family

ID=58636373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611244732.0A Active CN106612427B (zh) 2016-12-29 2016-12-29 一种基于卷积神经网络的时空一致性深度图序列的生成方法

Country Status (1)

Country Link
CN (1) CN106612427B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292846A (zh) * 2017-06-27 2017-10-24 南方医科大学 一种圆轨道下不完全ct投影数据的恢复方法
CN107992848A (zh) * 2017-12-19 2018-05-04 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
CN108335322A (zh) * 2018-02-01 2018-07-27 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
CN108389226A (zh) * 2018-02-12 2018-08-10 北京工业大学 一种基于卷积神经网络和双目视差的无监督深度预测方法
CN108596102A (zh) * 2018-04-26 2018-09-28 北京航空航天大学青岛研究院 基于rgb-d的室内场景物体分割分类器构造方法
CN109215067A (zh) * 2017-07-03 2019-01-15 百度(美国)有限责任公司 基于cnn和crf模型生成高分辨率3-d点云
CN109657839A (zh) * 2018-11-22 2019-04-19 天津大学 一种基于深度卷积神经网络的风电功率预测方法
CN110163246A (zh) * 2019-04-08 2019-08-23 杭州电子科技大学 基于卷积神经网络的单目光场图像无监督深度估计方法
CN110782490A (zh) * 2019-09-24 2020-02-11 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN111259782A (zh) * 2020-01-14 2020-06-09 北京大学 基于混合多尺度时序可分离卷积操作的视频行为识别方法
CN114596637A (zh) * 2022-03-23 2022-06-07 北京百度网讯科技有限公司 图像样本数据增强训练方法、装置及电子设备
US11423615B1 (en) * 2018-05-29 2022-08-23 HL Acquisition, Inc. Techniques for producing three-dimensional models from one or more two-dimensional images

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102196292A (zh) * 2011-06-24 2011-09-21 清华大学 基于人机交互生成视频深度图序列的方法及***
US20130177236A1 (en) * 2012-01-10 2013-07-11 Samsung Electronics Co., Ltd. Method and apparatus for processing depth image
CN103955942A (zh) * 2014-05-22 2014-07-30 哈尔滨工业大学 一种基于svm的2d图像的深度图提取方法
CN105359190A (zh) * 2013-09-05 2016-02-24 电子湾有限公司 根据单个图像估计深度
CN105657402A (zh) * 2016-01-18 2016-06-08 深圳市未来媒体技术研究院 一种深度图恢复方法
CN105979244A (zh) * 2016-05-31 2016-09-28 十二维度(北京)科技有限公司 一种基于深度学习的2d图像转3d图像的方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102196292A (zh) * 2011-06-24 2011-09-21 清华大学 基于人机交互生成视频深度图序列的方法及***
US20130177236A1 (en) * 2012-01-10 2013-07-11 Samsung Electronics Co., Ltd. Method and apparatus for processing depth image
CN105359190A (zh) * 2013-09-05 2016-02-24 电子湾有限公司 根据单个图像估计深度
CN103955942A (zh) * 2014-05-22 2014-07-30 哈尔滨工业大学 一种基于svm的2d图像的深度图提取方法
CN105657402A (zh) * 2016-01-18 2016-06-08 深圳市未来媒体技术研究院 一种深度图恢复方法
CN105979244A (zh) * 2016-05-31 2016-09-28 十二维度(北京)科技有限公司 一种基于深度学习的2d图像转3d图像的方法及***

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292846B (zh) * 2017-06-27 2020-11-10 南方医科大学 一种圆轨道下不完全ct投影数据的恢复方法
CN107292846A (zh) * 2017-06-27 2017-10-24 南方医科大学 一种圆轨道下不完全ct投影数据的恢复方法
CN109215067A (zh) * 2017-07-03 2019-01-15 百度(美国)有限责任公司 基于cnn和crf模型生成高分辨率3-d点云
CN109215067B (zh) * 2017-07-03 2023-03-10 百度(美国)有限责任公司 基于cnn和crf模型生成高分辨率3-d点云
CN107992848B (zh) * 2017-12-19 2020-09-25 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
CN107992848A (zh) * 2017-12-19 2018-05-04 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
US11308638B2 (en) 2018-02-01 2022-04-19 Shenzhen Sensetime Technology Co., Ltd. Depth estimation method and apparatus, electronic device, program, and medium
CN108335322A (zh) * 2018-02-01 2018-07-27 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
CN108335322B (zh) * 2018-02-01 2021-02-12 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
CN108389226A (zh) * 2018-02-12 2018-08-10 北京工业大学 一种基于卷积神经网络和双目视差的无监督深度预测方法
CN108596102A (zh) * 2018-04-26 2018-09-28 北京航空航天大学青岛研究院 基于rgb-d的室内场景物体分割分类器构造方法
US11423615B1 (en) * 2018-05-29 2022-08-23 HL Acquisition, Inc. Techniques for producing three-dimensional models from one or more two-dimensional images
CN109657839A (zh) * 2018-11-22 2019-04-19 天津大学 一种基于深度卷积神经网络的风电功率预测方法
CN110163246B (zh) * 2019-04-08 2021-03-30 杭州电子科技大学 基于卷积神经网络的单目光场图像无监督深度估计方法
CN110163246A (zh) * 2019-04-08 2019-08-23 杭州电子科技大学 基于卷积神经网络的单目光场图像无监督深度估计方法
CN110782490B (zh) * 2019-09-24 2022-07-05 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN110782490A (zh) * 2019-09-24 2020-02-11 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN111259782A (zh) * 2020-01-14 2020-06-09 北京大学 基于混合多尺度时序可分离卷积操作的视频行为识别方法
CN114596637A (zh) * 2022-03-23 2022-06-07 北京百度网讯科技有限公司 图像样本数据增强训练方法、装置及电子设备
CN114596637B (zh) * 2022-03-23 2024-02-06 北京百度网讯科技有限公司 图像样本数据增强训练方法、装置及电子设备

Also Published As

Publication number Publication date
CN106612427B (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
CN106612427B (zh) 一种基于卷积神经网络的时空一致性深度图序列的生成方法
US10540590B2 (en) Method for generating spatial-temporally consistent depth map sequences based on convolution neural networks
Sun et al. Pwc-net: Cnns for optical flow using pyramid, warping, and cost volume
Yue et al. Image denoising by exploring external and internal correlations
Cao et al. Semi-automatic 2D-to-3D conversion using disparity propagation
CN109360156A (zh) 基于生成对抗网络的图像分块的单张图像去雨方法
CN102026013A (zh) 基于仿射变换的立体视频匹配方法
Peng et al. LVE-S2D: Low-light video enhancement from static to dynamic
Zhang et al. Multiscale-vr: Multiscale gigapixel 3d panoramic videography for virtual reality
Li et al. Enforcing temporal consistency in video depth estimation
CN107018400B (zh) 一种将2d视频转换成3d视频的方法
Cho et al. Event-image fusion stereo using cross-modality feature propagation
Meng et al. Perception inspired deep neural networks for spectral snapshot compressive imaging
Wang et al. Self-supervised monocular depth estimation with direct methods
Kopf et al. Warping-based video retargeting for stereoscopic video
Dong et al. Cycle-CNN for colorization towards real monochrome-color camera systems
Guo et al. Adaptive estimation of depth map for two-dimensional to three-dimensional stereoscopic conversion
Yeh et al. An approach to automatic creation of cinemagraphs
Li et al. Graph-based saliency fusion with superpixel-level belief propagation for 3D fixation prediction
WO2022257184A1 (zh) 图像生成装置获取方法及图像生成装置
CN106028018B (zh) 面向裸眼3d显示的实拍双视点3d视频优化方法及***
Kim et al. Light field angular super-resolution using convolutional neural network with residual network
Chen et al. Automatic 2d-to-3d video conversion using 3d densely connected convolutional networks
Pang et al. Video super-resolution using a hierarchical recurrent multireceptive-field integration network
Lee et al. Efficient Low Light Video Enhancement Based on Improved Retinex Algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant