CN105956597A - 一种基于卷积神经网络的双目立体匹配方法 - Google Patents

一种基于卷积神经网络的双目立体匹配方法 Download PDF

Info

Publication number
CN105956597A
CN105956597A CN201610296770.4A CN201610296770A CN105956597A CN 105956597 A CN105956597 A CN 105956597A CN 201610296770 A CN201610296770 A CN 201610296770A CN 105956597 A CN105956597 A CN 105956597A
Authority
CN
China
Prior art keywords
dataset
training
neg
network
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610296770.4A
Other languages
English (en)
Inventor
刘云海
白鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610296770.4A priority Critical patent/CN105956597A/zh
Publication of CN105956597A publication Critical patent/CN105956597A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于卷积神经网络的双目立体匹配方法。本发明首先采用了两个卷积神经子网络对待匹配图像小块进行特征提取,通过卷积神经网络的自动学习能力,能够自动提取出健壮、多样的特征,避免了传统立体匹配方法的复杂的特征选择和人工抽取特征的过程。然后将它们的输出特征进行级联送入到全连接层进行匹配代价计算,获得了比传统立体匹配方法更好的匹配代价,结合视差的后处理方法,可有效获得高精度的视差图,并具有较好的实时性。

Description

一种基于卷积神经网络的双目立体匹配方法
技术领域
本发明涉及双目立体视觉图像处理技术领域,尤其涉及一种采用卷积神经网络的双目立体匹配方法。
背景技术
自上世纪80年代初,Marr创立了视觉计算理论框架以来,双目立体视觉技术一直是机器视觉领域的一个研究热点,在航空测绘、医学成像、虚拟现实和工业检测等领域得到了广泛的研究。双目立体视觉是基于视差原理并利用成像设备从不同位置获得被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体的三维几何信息的方法。双目立体视觉算法主要包括图像获取、摄像机标定、图像校正、立体匹配和三维重建等五个部分。其中立体匹配是整个算法的核心部分,匹配产生的视差图的优劣直接影响到三维重建的效果。目前,传统的立体匹配的方法主要分为三大类:基于特征的匹配算法、基于局部的匹配算法和基于全局的匹配算法。基于特征的匹配算法得到的是稀疏的视差图,要得到致密的视差图,必须通过插值得到。基于局部的匹配算法运算速度快,但在低纹理和深度不连续区域匹配效果差。基于全局的匹配算法能够得到较高精度的匹配结果,但计算速度慢。
发明内容
为了获得高精度的致密视差图和较好的实时性,本发明提供了一种基于卷积神经网络的双目立体匹配方法。
本发明的目的是通过以下技术方案来实现的:一种基于卷积神经网络的双目立体匹配方法,包括以下步骤:
(1)图像预处理。对带有参考视差图的立体图像对的左图和右图分别做Z-score标准化处理。
(2)构造训练实例。从预处理后的左图选取中心在p=(x,y)、大小为n×n的一小块图像从预处理后的右图选取中心在q=(x-d,y)、大小为n×n的一小块图像构成一个训练实例:
对于左图每个知道参考视差值d的位置,抽取一个正确的训练实例和一个错误的训练实例。
为了获得一个正确的训练实例,将右小块图像的中心设置在:
q=(x-d+opos,y)
其中opos在[-dataset_pos,dataset_pos]中随机取值,dataset_pos为正整数。
为了获得一个错误的训练实例,将右小块图像的中心设置在:
q=(x-d+oneg,y)
其中oneg在[-dataset_neg_low,-dataset_neg_high]或[dataset_neg_low,dataset_neg_high]中随机取值。dataset_neg_low和dataset_neg_high均为正整数。
(3)构造用于计算匹配代价的卷积神经网络结构。首先构造两个完全一样的子网络,每个子网络由两个卷积层和一个全连接层,每层后面跟随一个ReLU层。然后将两个子网络的输出级联起来,接两个全连接层,每层后面接一个ReLU层,最后一个全连接层跟随一个sigmoid转移函数。对于每一个输入网络的输出表示为
(4)训练网络。根据步骤(2),每次构造N/2个正确的训练实例和N/2个错误的训练实例,将其用于步骤(3)构造的网络进行有监督的反向传播算法训练,得到训练网络,N为训练集个数。
(5)求视差图。从测试集中取一组立体图像对,进行步骤(1)的预处理。运用步骤(4)训练出来的网络,对于左图中每一个位置p=(x,y),计算其与右图在位置q=(x-d,y)的匹配代价CCNN(p,d),其中d∈(0,DISP_MAX)(DISP_MAX表示可能的最大视差值),得到:
对于左图中的每一个位置p=(x,y),上式中的匹配代价取最小时的位置d即为所求视差D(p):
D ( p ) = arg min d C C N N ( p , d )
(6)对视差图进行后处理。具体包括以下子步骤:
(6.1)亚像素视差。根据步骤(5)求出的匹配代价构造一条二次曲线,取极值点得到亚像素视差图DSE(p):
D S E ( p ) = d - C + - C - 2 ( C + - 2 C + C - ) ,
其中d=D(p),C-=CCNN(p,d-1),C=CCNN(p,d),C+=CCNN(p,d+1);
(6.2)对亚像素视差图DSE(p)进行中值滤波和双线性滤波,得到最终的视差图Dfinal(p)。
进一步地,所述步骤1中,所述Z-score标准化处理过程具体如下:
计算图像X中所有像素值的均值xaverage和标准差σ:
x a v e r a g e = 1 W × H Σ ( i , j ) ∈ W × H x ( i , j )
σ = 1 W × H Σ ( i , j ) ∈ W × H ( x ( i , j ) - x a v e r a g e ) 2
其中,W×H为图像X的大小。
对每个像素值进行归一化,得到新图像X′,其像素值为:
x ( i , j ) ′ ← x ( i , j ) - x a v e r a g e σ .
进一步地,所述步骤4中,所述训练网络的代价函数用二值交叉熵损失函数:
- 1 N Σ i = 1 N ( l o g ( p i ) y i + l o g ( 1 - p i ) ( 1 - y i ) )
其中,N为训练集的个数,yi为第i个样例的标签值,pi为第i个样例的预测值。
进一步地,所述步骤4中,所述训练网络的代价函数中,当第i个实例是正确实例时,标签值为0;当第i个实例是错误实例时,标签值为1。
本发明的有益效果是:本发明首先采用了两个卷积神经子网络对待匹配图像小块进行特征提取,通过卷积神经网络的自动学习能力,能够自动提取出健壮、多样的特征,避免了传统立体匹配方法的复杂的特征选择和人工抽取特征的过程。然后将它们的输出特征进行级联送入到全连接层进行匹配代价计算,获得了比传统立体匹配方法更好的匹配代价,结合一些视差的后处理方法,有效的获得了高精度的视差图,并具有较好的实时性。
附图说明
图1为构造训练实例的示意图;
图2为用于计算待匹配点的匹配代价的卷积神经网络结构示意图;
图3为二次曲线求极值点的示意图。
具体实施方式
以下结合附图和实施实例对本发明作进一步说明。
本发明提供的一种基于卷积神经网络的双目立体匹配方法,包括以下步骤:
(1)图像预处理。对10组带有参考视差图的立体图像对的左图和右图分别做Z-score标准化处理:分别计算图像中所有像素值的均值xaverage和标准差σ,比如对于图像X做预处理:
x a v e r a g e = 1 380 × 430 Σ ( i , j ) ∈ 9 × 9 x ( i , j ) = 165
σ = 1 380 × 430 Σ ( i , j ) ∈ 380 × 430 ( x ( i , j ) - 165 ) 2 = 1.23
对每个像素值进行归一化,得到新图像X′,其像素值为:
x ( i , j ) ′ ← x ( i , j ) - 165 1.23
(2)构造训练实例。从预处理后的左图选取中心在p=(x,y)、大小为9×9的一小块图像从预处理后的右图选取中心在q=(x-d,y)、大小为9×9的一小块图像构成一个训练实例,如图1所示:
对于每一个知道参考视差值d的位置,我们抽取一个正确的训练实例和一个错误的训练实例。为了获得一个正确的训练实例,将右小块图像的中心设置在:
q=(x-d+opos,y)
其中opos是在[-0.5,0.5]中随机取值。
为了获得一个错误的训练实例,将右小块图像的中心设置在:
q=(x-d+oneg,y)
其中oneg是在[-1.5,-18]或[1.5,18]中随机取值。
(3)构造用于计算匹配代价的卷积神经网络结构。首先构造两个完全一样的子网络,每个子网络由两个卷积层和一个全连接层,每层后面跟随一个ReLU层。卷积核的大小为3×3,,每一层有32个卷积核,全连接层有200个单元。然后将两个子网络的输出级联起来,得到一个长度为400的向量。接着连接两个全连接层,每层后面接一个ReLU层,每个全连接层有300个单元。最后连接只有一个单元的全连接层,跟随一个sigmoid转移函数。经过sigmoid处理的输出就是网络的输出结果。如图2所示:对于每一个输入网络的输出表示为:
(4)训练网络。根据步骤(2),每次构造64个正确的训练实例和64个错误的训练实例,其对应的输出Ylabel=[ylabel(1),ylabel(2),…,ylabel(128),],其中第i个训练实例的标签应满足以下条件:
将其用于步骤(3)构造的网络进行有监督的反向传播算法训练,用二值交叉熵损失函数计算损失代价为:
- 1 128 Σ i = 1 128 ( l o g ( y i ) y l a b e l ( i ) + l o g ( 1 - y i ) ( 1 - y l a b e l ( i ) ) )
其中yi为第i个样例对应的输出值。
(5)求视差图。从测试集中取一对图像,进行步骤(1)的预处理。运用步骤(4)训练出来的网络,对于左图中每一个位置p=(x,y),计算其与右图在位置q=(x-d,y)的匹配代价,其中d∈(0,30)(30表示可能的最大视差值),得到:
对于左图中的每一个位置p=(x,y),将上式中的匹配代价取最小时的位置d即为所求视差D(p):
D ( p ) = arg min d C ( p , d )
(6)对视差图进行后处理。具体包括以下子步骤:
(6.1)亚像素视差。根据步骤(5)求出的匹配代价构造一条二次曲线,如图3所示,取极值点可以亚像素视差DSE(p):
D S E ( p ) = d - C + - C - 2 ( C + - 2 C + C - ) ,
其中d=D(p),C-=CCNN(p,d-1),C=CCNN(p,d),C+=CCNN(p,d+1)。
(6.2)对视差图DSE(p)进行中值滤波和双线性滤波,得到最终的视差图Dfinal(p)。
以上所述仅为本发明的优选实施方式,但本发明保护范围并不局限于此。任何本领域的技术人员在本发明公开的技术范围内,均可对其进行适当的改变或变化,而这种改变或变化都应涵盖在本发明的保护范围之内。

Claims (4)

1.一种基于卷积神经网络的双目立体匹配方法,其特征在于,包括以下步骤:
(1)图像预处理。对带有参考视差图的立体图像对的左图和右图分别做Z-score标准化处理。
(2)构造训练实例。从预处理后的左图选取中心在p=(x,y)、大小为n×n的一小块图像从预处理后的右图选取中心在q=(x-d,y)、大小为n×n的一小块图像构成一个训练实例:
对于左图每个知道参考视差值d的位置,抽取一个正确的训练实例和一个错误的训练实例。
为了获得一个正确的训练实例,将右小块图像的中心设置在:
q=(x-d+opos,y)
其中opos在[-dataset_pos,dataset_pos]中随机取值,dataset_pos为正整数。
为了获得一个错误的训练实例,将右小块图像的中心设置在:
q=(x-d+oneg,y)
其中oneg在[-dataset_neg_low,-dataset_neg_high]或[dataset_neg_low,dataset_neg_high]中随机取值。dataset_neg_low和dataset_neg_high均为正整数。
(3)构造用于计算匹配代价的卷积神经网络结构。首先构造两个完全一样的子网络,每个子网络由两个卷积层和一个全连接层,每层后面跟随一个ReLU层。然后将两个子网络的输出级联起来,接两个全连接层,每层后面接一个ReLU层,最后一个全连接层跟随一个sigmoid转移函数。对于每一个输入网络的输出表示为
(4)训练网络。根据步骤(2),每次构造N/2个正确的训练实例和N/2个错误的训练实例,将其用于步骤(3)构造的网络进行有监督的反向传播算法训练,得到训练网络,N为训练集个数。
(5)求视差图。从测试集中取一组立体图像对,进行步骤(1)的预处理。运用步骤(4)训练出来的网络,对于左图中每一个位置p=(x,y),计算其与右图在位置q=(x-d,y)的匹配代价CCNN(p,d),其中d∈(0,DISP_MAX)(DISP_MAX表示可能的最大视差值),得到:
对于左图中的每一个位置p=(x,y),上式中的匹配代价取最小时的位置d即为所求视差D(p):
D ( p ) = arg m i n d C C N N ( p , d )
(6)对视差图进行后处理。具体包括以下子步骤:
(6.1)亚像素视差。根据步骤(5)求出的匹配代价构造一条二次曲线,取极值点得到亚像素视差图DSE(p):
D S E ( p ) = d - C + - C - 2 ( C + - 2 C + C - ) ,
其中d=D(p),C_=CCNN(p,d-1),C=CCNN(p,d),C+=CCNN(p,d+1);
(6.2)对亚像素视差图DSE(p)进行中值滤波和双线性滤波,得到最终的视差图Dfinal(p)。
2.根据权利要求1所述的一种基于卷积神经网络的双目立体匹配方法,其特征在于,所述步骤1中,所述Z-score标准化处理过程具体如下:
计算图像X中所有像素值的均值xaverage和标准差σ:
x a v e r a g e = 1 W × H Σ ( i , j ) ∈ W × H x ( i , j )
σ = 1 W × H Σ ( i , j ) ∈ W × H ( x ( i , j ) - x a v e r a g e ) 2
其中,W×H为图像X的大小。
对每个像素值进行归一化,得到新图像X′,其像素值为:
x ( i , j ) ′ ← x ( i , j ) - x a v e r a g e σ .
3.根据权利要求1所述的一种基于卷积神经网络的双目立体匹配方法,其特征在于,所述步骤4中,所述训练网络的代价函数用二值交叉熵损失函数:
- 1 N Σ i = 1 N ( log ( p i ) y i + l o g ( 1 - p i ) ( 1 - y i ) )
其中,N为训练集的个数,yi为第i个样例的标签值,pi为第i个样例的预测值。
4.根据权利要求1所述的一种基于卷积神经网络的双目立体匹配方法,其特征在于,所述步骤4中,所述训练网络的代价函数中,当第i个实例是正确实例时,标签值为0;当第i个实例是错误实例时,标签值为1。
CN201610296770.4A 2016-05-04 2016-05-04 一种基于卷积神经网络的双目立体匹配方法 Pending CN105956597A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610296770.4A CN105956597A (zh) 2016-05-04 2016-05-04 一种基于卷积神经网络的双目立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610296770.4A CN105956597A (zh) 2016-05-04 2016-05-04 一种基于卷积神经网络的双目立体匹配方法

Publications (1)

Publication Number Publication Date
CN105956597A true CN105956597A (zh) 2016-09-21

Family

ID=56914134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610296770.4A Pending CN105956597A (zh) 2016-05-04 2016-05-04 一种基于卷积神经网络的双目立体匹配方法

Country Status (1)

Country Link
CN (1) CN105956597A (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106600583A (zh) * 2016-12-07 2017-04-26 西安电子科技大学 基于端到端神经网络的视差图获取方法
CN106709948A (zh) * 2016-12-21 2017-05-24 浙江大学 一种基于超像素分割的快速双目立体匹配方法
CN106934765A (zh) * 2017-03-14 2017-07-07 长沙全度影像科技有限公司 基于深度卷积神经网络与深度信息的全景图像融合方法
CN106952220A (zh) * 2017-03-14 2017-07-14 长沙全度影像科技有限公司 一种基于深度学习的全景图像融合方法
CN107146248A (zh) * 2017-04-27 2017-09-08 杭州电子科技大学 一种基于双流卷积神经网络的立体匹配方法
CN107392241A (zh) * 2017-07-17 2017-11-24 北京邮电大学 一种基于加权列抽样XGBoost的图像目标分类方法
CN107506711A (zh) * 2017-08-15 2017-12-22 江苏科技大学 基于卷积神经网络的双目视觉障碍物检测***及方法
CN107992848A (zh) * 2017-12-19 2018-05-04 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
CN108364310A (zh) * 2017-01-26 2018-08-03 三星电子株式会社 立体匹配方法和设备、图像处理设备及其训练方法
CN108648226A (zh) * 2018-03-30 2018-10-12 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108734693A (zh) * 2018-03-30 2018-11-02 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108846858A (zh) * 2018-06-01 2018-11-20 南京邮电大学 一种计算机视觉的立体匹配算法
CN109005398A (zh) * 2018-07-27 2018-12-14 杭州电子科技大学 一种基于卷积神经网络的立体图像视差匹配方法
CN109102798A (zh) * 2018-06-29 2018-12-28 厦门快商通信息技术有限公司 一种装修事件检测方法、装置、计算机设备及介质
CN109191511A (zh) * 2018-07-27 2019-01-11 杭州电子科技大学 一种基于卷积神经网络的双目立体匹配方法
CN109472819A (zh) * 2018-09-06 2019-03-15 杭州电子科技大学 一种基于级联几何上下文神经网络的双目视差估计方法
CN109887019A (zh) * 2019-02-19 2019-06-14 北京市商汤科技开发有限公司 一种双目匹配方法及装置、设备和存储介质
CN109919985A (zh) * 2019-03-01 2019-06-21 北京市商汤科技开发有限公司 数据处理方法和装置、电子设备和计算机存储介质
US10380753B1 (en) 2018-05-30 2019-08-13 Aimotive Kft. Method and apparatus for generating a displacement map of an input dataset pair
CN110213558A (zh) * 2019-04-28 2019-09-06 航天智造(上海)科技有限责任公司 亚像素视差获取方法
CN110487216A (zh) * 2019-09-20 2019-11-22 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法
CN110517309A (zh) * 2019-07-19 2019-11-29 沈阳工业大学 一种基于卷积神经网络的单目深度信息获取方法
CN111062900A (zh) * 2019-11-21 2020-04-24 西北工业大学 一种基于置信度融合的双目视差图增强方法
CN111260711A (zh) * 2020-01-10 2020-06-09 大连理工大学 一种弱监督可信代价传播的视差估计方法
CN111402129A (zh) * 2020-02-21 2020-07-10 西安交通大学 一种基于联合上采样卷积神经网络的双目立体匹配方法
CN111489385A (zh) * 2020-04-08 2020-08-04 北京市商汤科技开发有限公司 双目立体匹配网络训练方法及装置
CN111543982A (zh) * 2020-04-01 2020-08-18 五邑大学 一种疲劳驾驶检测方法、装置及存储介质
CN114445473A (zh) * 2022-04-07 2022-05-06 北京中科慧眼科技有限公司 基于深度学习算子的立体匹配方法和***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408435A (zh) * 2014-12-05 2015-03-11 浙江大学 一种基于随机池化卷积神经网络的人脸识别方法
CN104809443A (zh) * 2015-05-05 2015-07-29 上海交通大学 基于卷积神经网络的车牌检测方法及***
CN105426914A (zh) * 2015-11-19 2016-03-23 中国人民解放军信息工程大学 一种面向位置识别的图像相似度检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408435A (zh) * 2014-12-05 2015-03-11 浙江大学 一种基于随机池化卷积神经网络的人脸识别方法
CN104809443A (zh) * 2015-05-05 2015-07-29 上海交通大学 基于卷积神经网络的车牌检测方法及***
CN105426914A (zh) * 2015-11-19 2016-03-23 中国人民解放军信息工程大学 一种面向位置识别的图像相似度检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JURE ZBONTAR ET AL.: "Stereo matching by training a convolutional neural network to compare image patches", 《THE JOURNAL OF MACHINE LEARNING RESEARCH》 *

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106600583A (zh) * 2016-12-07 2017-04-26 西安电子科技大学 基于端到端神经网络的视差图获取方法
CN106600583B (zh) * 2016-12-07 2019-11-01 西安电子科技大学 基于端到端神经网络的视差图获取方法
CN106709948A (zh) * 2016-12-21 2017-05-24 浙江大学 一种基于超像素分割的快速双目立体匹配方法
US11900628B2 (en) 2017-01-26 2024-02-13 Samsung Electronics Co., Ltd. Stereo matching method and apparatus, image processing apparatus, and training method therefor
CN108364310A (zh) * 2017-01-26 2018-08-03 三星电子株式会社 立体匹配方法和设备、图像处理设备及其训练方法
CN106934765A (zh) * 2017-03-14 2017-07-07 长沙全度影像科技有限公司 基于深度卷积神经网络与深度信息的全景图像融合方法
CN106952220A (zh) * 2017-03-14 2017-07-14 长沙全度影像科技有限公司 一种基于深度学习的全景图像融合方法
CN107146248A (zh) * 2017-04-27 2017-09-08 杭州电子科技大学 一种基于双流卷积神经网络的立体匹配方法
CN107392241A (zh) * 2017-07-17 2017-11-24 北京邮电大学 一种基于加权列抽样XGBoost的图像目标分类方法
CN107506711A (zh) * 2017-08-15 2017-12-22 江苏科技大学 基于卷积神经网络的双目视觉障碍物检测***及方法
CN107992848B (zh) * 2017-12-19 2020-09-25 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
CN107992848A (zh) * 2017-12-19 2018-05-04 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
CN108734693A (zh) * 2018-03-30 2018-11-02 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108648226A (zh) * 2018-03-30 2018-10-12 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108648226B (zh) * 2018-03-30 2019-10-22 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
US10380753B1 (en) 2018-05-30 2019-08-13 Aimotive Kft. Method and apparatus for generating a displacement map of an input dataset pair
WO2019229486A1 (en) 2018-05-30 2019-12-05 Almotive Kft Generating a displacement map of an input dataset pair of image or audio data
CN108846858A (zh) * 2018-06-01 2018-11-20 南京邮电大学 一种计算机视觉的立体匹配算法
CN109102798A (zh) * 2018-06-29 2018-12-28 厦门快商通信息技术有限公司 一种装修事件检测方法、装置、计算机设备及介质
CN109191511B (zh) * 2018-07-27 2021-04-13 杭州电子科技大学 一种基于卷积神经网络的双目立体匹配方法
CN109005398A (zh) * 2018-07-27 2018-12-14 杭州电子科技大学 一种基于卷积神经网络的立体图像视差匹配方法
CN109191511A (zh) * 2018-07-27 2019-01-11 杭州电子科技大学 一种基于卷积神经网络的双目立体匹配方法
CN109472819A (zh) * 2018-09-06 2019-03-15 杭州电子科技大学 一种基于级联几何上下文神经网络的双目视差估计方法
CN109472819B (zh) * 2018-09-06 2021-12-28 杭州电子科技大学 一种基于级联几何上下文神经网络的双目视差估计方法
CN109887019A (zh) * 2019-02-19 2019-06-14 北京市商汤科技开发有限公司 一种双目匹配方法及装置、设备和存储介质
CN109919985A (zh) * 2019-03-01 2019-06-21 北京市商汤科技开发有限公司 数据处理方法和装置、电子设备和计算机存储介质
CN110213558A (zh) * 2019-04-28 2019-09-06 航天智造(上海)科技有限责任公司 亚像素视差获取方法
CN110517309A (zh) * 2019-07-19 2019-11-29 沈阳工业大学 一种基于卷积神经网络的单目深度信息获取方法
CN110487216B (zh) * 2019-09-20 2021-05-25 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法
CN110487216A (zh) * 2019-09-20 2019-11-22 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法
CN111062900A (zh) * 2019-11-21 2020-04-24 西北工业大学 一种基于置信度融合的双目视差图增强方法
CN111260711A (zh) * 2020-01-10 2020-06-09 大连理工大学 一种弱监督可信代价传播的视差估计方法
CN111260711B (zh) * 2020-01-10 2021-08-10 大连理工大学 一种弱监督可信代价传播的视差估计方法
CN111402129A (zh) * 2020-02-21 2020-07-10 西安交通大学 一种基于联合上采样卷积神经网络的双目立体匹配方法
CN111543982A (zh) * 2020-04-01 2020-08-18 五邑大学 一种疲劳驾驶检测方法、装置及存储介质
CN111489385A (zh) * 2020-04-08 2020-08-04 北京市商汤科技开发有限公司 双目立体匹配网络训练方法及装置
CN111489385B (zh) * 2020-04-08 2021-12-07 北京市商汤科技开发有限公司 双目立体匹配网络训练方法及装置
CN114445473A (zh) * 2022-04-07 2022-05-06 北京中科慧眼科技有限公司 基于深度学习算子的立体匹配方法和***
CN114445473B (zh) * 2022-04-07 2022-07-26 北京中科慧眼科技有限公司 基于深度学习算子的立体匹配方法和***

Similar Documents

Publication Publication Date Title
CN105956597A (zh) 一种基于卷积神经网络的双目立体匹配方法
CN107679522B (zh) 基于多流lstm的动作识别方法
US20210390339A1 (en) Depth estimation and color correction method for monocular underwater images based on deep neural network
CN107204010A (zh) 一种单目图像深度估计方法与***
CN101877143B (zh) 一种二维图像组的三维场景重建方法
CN111127538B (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN104376552A (zh) 一种3d模型与二维图像的虚实配准算法
CN105976318A (zh) 一种图像超分辨率重建方法
CN112634341A (zh) 多视觉任务协同的深度估计模型的构建方法
CN103236082A (zh) 面向捕获静止场景的二维视频的准三维重建方法
CN108648161A (zh) 非对称核卷积神经网络的双目视觉障碍物检测***及方法
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN103996201A (zh) 一种基于改进梯度和自适应窗口的立体匹配方法
CN103325120A (zh) 一种快速自适应支持权值双目视觉立体匹配方法
WO2020119620A1 (zh) 具有自我提升能力的金字塔双目深度估计模型
CN103971366A (zh) 一种基于双权重聚合的立体匹配方法
CN113763446B (zh) 一种基于引导信息的立体匹配方法
CN110443874B (zh) 基于卷积神经网络的视点数据生成方法和装置
CN109598732A (zh) 一种基于三维空间加权的医学图像分割方法
CN112990077A (zh) 基于联合学习与光流估计的面部动作单元识别方法及装置
CN103985128A (zh) 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN111985551A (zh) 一种基于多重注意力网络的立体匹配算法
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
Gao et al. Exploiting key points supervision and grouped feature fusion for multiview pedestrian detection
CN108681753A (zh) 一种基于语义分割及神经网络的图像立体匹配方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160921