CN108615244A - 一种基于cnn和深度滤波器的图像深度估计方法及*** - Google Patents
一种基于cnn和深度滤波器的图像深度估计方法及*** Download PDFInfo
- Publication number
- CN108615244A CN108615244A CN201810257328.XA CN201810257328A CN108615244A CN 108615244 A CN108615244 A CN 108615244A CN 201810257328 A CN201810257328 A CN 201810257328A CN 108615244 A CN108615244 A CN 108615244A
- Authority
- CN
- China
- Prior art keywords
- depth
- estimation
- image
- reference picture
- local feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于CNN和深度滤波器的图像深度估计方法及***,所述方法包含:基于CNN得到图像深度估计值,对图像提取局部特征点,对局部特征点建立最小光度误差方程求解相机相对位姿;基于极线搜索匹配的特征点优化相机位姿,以特征点为中心选取图像块,对图像块极线搜索得到最佳匹配,根据最佳匹配构建光束平差法方程优化相对位姿;基于相机位姿的深度值滤波,采用高斯融合对深度值滤波,直至深度值收敛;本发明克服了图像深度不精确的问题以及单目视觉的绝对尺度丢失问题,可用于三维场景重建、室内定位及增强现实等诸多领域。
Description
技术领域
本发明属于三维视觉领域,尤其涉及一种基于CNN(卷积神经网络)和深度滤波器的图像深度估计方法及***。
背景技术
现实中常见的图像大多是彩色图像,彩色图像是将三维场景压缩成二维平面得到的,在成像的过程中丢失了深度信息,而深度信息的丢失使得很多视觉任务都变得困难,例如,由于深度值的缺失,三维场景的重建将难以进行。因此,从彩色图像恢复图像深度值具有重要意义。目前主流的图像深度获取方法分为三类,一种通过专门的硬件设备获取深度值,主要是RGB-D相机,其原理一般为结构光或飞行时间法,目前已经能够小型化量产,广泛运用于机器人和智能手机。其优点是测量精度高,其缺点也很明显,由于其采用红外光,受环境光影响大,因此很难应用于室外环境。而且测量距离也有限,一般在5米以内。
另外两种分别是根据图像线索估计图像深度以及运动恢复结构方法。其中根据图像线索估计图像深度常用的图像线索包括运动信息、线性透视、聚焦、遮挡、纹理等,由于图像线索需要对图像作很强的假设,目前基本上被CNN取代。不同于图像线索,CNN不要求图像满足一定的特性,在图像上提取广义的特征,并将这些特征聚类,根据这些特征估计图像深度,适用性更广。基于CNN的图像深度估计的最大问题是精度不高,特征是在物体边缘区域,区域划分极其不明显。
运动恢复结构方法一直是研究的热点,其原理是根据图像间的联系估计相机的运动,进而根据相机运动建立几何关系计算图像深度,该方法只需要一个普通的单目相机就可以完成高精度的图像深度估计。其缺点在于,由于其计算复杂性,稠密深度重建一般都是线下完成的,耗时很长。而且,运动恢复结构方法有很强的缺陷——绝对尺度的丢失以及纯旋转无法计算的问题。
由此可见,现有图像深度估计技术由于各种各样的原因,仍然存在适用范围窄、精度不高、效率低下等问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于CNN和深度滤波器的图像深度估计方法及***,所述方法主要包含以下步骤:
S1、获取相机对同一拍摄目标进行连续拍摄的多张彩色图像,任选其中一个彩色图像作为参考图像,其余彩色图像作为关联图像,通过CNN得到所述参考图像的每个像素点对应的深度估计值;
S2、根据参考图像的每一个局部特征点、每一个局部特征点对应的深度估计值及每一个局部特征点与关联图像的重投影像素点建立最小光度误差方程获得相机位姿估计;
S3、根据所述相机位姿估计分别确定参考图像的每一个局部特征点在关联图像中对应的极线,根据极线搜索确定最佳匹配,根据最佳匹配建立光束平差法方程获得优化的相机位姿;
S4、根据所述优化后的相机位姿,分别构建深度滤波器对步骤S1中所述的每一个深度估计值进行高斯融合,直至深度值收敛,得到参考图像的每个像素对应的深度值,从而获得参考图像的深度图像。
在本发明的一种基于CNN和深度滤波器的图像深度估计方法中,所述步骤S2包括以下子步骤:
(1)局部特征点以ORB特征点表示,对参考图像提取ORB特征点;
(2)将参考图像转化为灰度图,以提取的ORB特征点、ORB特征点对应的深度估计值及ORB特征点与关联图像的重投影像素点构建稀疏形式的最小光度误差方程;
(3)采用高斯牛顿法迭代求解所述最小光度误差方程,当所有局部特征点灰度值误差之和最小时得到相机位姿估计。
在本发明的一种基于CNN和深度滤波器的图像深度估计方法中,所述步骤S3包括以下子步骤:
(1)以参考图像的局部特征点为中心,选取大小为NxM的图像块,根据相机位姿估计确定局部特征点在关联图像上对应的极线,其中N和M均为大于1的常数;
(2)在所述极线上根据归一化互相关方法确定所述图像块的最佳匹配,根据最佳匹配建立光束平差法方程;
(3)采用高斯牛顿法迭代求解光束平差法方程获得优化的相机位姿。
优选的,本发明还提供了一种基于CNN和深度滤波器的图像深度估计***,包括以下子模块:
深度估计值获取模块,用于获取相机对同一拍摄目标进行连续拍摄的多张彩色图像,任选其中一个彩色图像作为参考图像,其余彩色图像作为关联图像,通过CNN得到所述参考图像的每个像素点对应的深度估计值;
位姿估计模块,用于根据参考图像的每一个局部特征点、每一个局部特征点对应的深度估计值及每一个局部特征点与关联图像的重投影像素点建立最小光度误差方程获得相机位姿估计;
位姿优化模块,用于根据所述相机位姿估计分别确定参考图像的每一个局部特征点在关联图像中对应的极线,根据极线搜索确定最佳匹配,根据最佳匹配建立光束平差法方程获得优化的相机位姿;
深度图像获取模块,用于根据所述优化后的相机位姿,分别构建深度滤波器对模块S1中所述的每一个深度估计值进行高斯融合,直至深度值收敛,得到参考图像的每个像素对应的深度值,从而获得参考图像的深度图像。
在本发明的一种基于CNN和深度滤波器的图像深度估计***中,所述位姿估计模块包括以下子模块:
特征点提取模块,将局部特征点以ORB特征点表示,对参考图像提取ORB特征点;
最小光度误差方程构建模块,用于将参考图像转化为灰度图,以提取的ORB特征点、ORB特征点对应的深度估计值及ORB特征点与关联图像的重投影像素点构建稀疏形式的最小光度误差方程;
位姿估计求解模块,用于采用高斯牛顿法迭代求解所述最小光度误差方程,当所有局部特征点灰度值误差之和最小时得到相机位姿估计。
在本发明的一种基于CNN和深度滤波器的图像深度估计***中,所述位姿优化模块包括以下子模块:
极线确定模块,用于以参考图像的局部特征点为中心,选取大小为NxM的图像块,根据相机位姿估计确定局部特征点在关联图像上对应的极线,其中N和M均为大于1的常数;
光束平差法方程建立模块,用于在所述极线上根据归一化互相关方法确定所述图像块的最佳匹配,根据最佳匹配建立光束平差法方程;
位姿优化求解模块,用于采用高斯牛顿法迭代求解光束平差法方程获得优化的相机位姿。
通过本发明所构思的以上技术方案与现有技术相比,能够获取以下有益效果:
1.由于采用非硬件的方法,即非RGB-D相机方法,获取图像深度,克服了RGB-D相机不适用于室外环境的问题,同时极大程度地降低了成本;
2.以CNN估计的深度值作为深度滤波器的初始值,减少了迭代所需次数,一定程度上提高了计算效率。同时克服了单纯采用深度滤波器方法所存在的绝对尺度丢失问题;
3.克服了单纯通过CNN估计图像深度存在的物体边缘模糊的问题,提高了深度图的精度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为***框图;
图2为深度不确定性引入投影点不确定性示意图;
图3为像素误差引入深度不确定性示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实例,对本发明进行进一步详细说明。
基于CNN和深度滤波器的图像深度估计方法具体流程如图1所示,该方法分为四个部分:获取图像深度估计值、位姿估计、位姿优化和深度图像获取。
1、获取图像深度估计值
获取相机对同一拍摄目标进行连续拍摄的多张彩色图像,任选其中一个彩色图像作为参考图像,其余彩色图像作为关联图像,通过CNN得到所述参考图像的每个像素点对应的深度估计值。
2、位姿估计
在位姿(相机的平移和旋转)估计阶段,设定时刻k采集到的图像为Ik,图像中对应的像素点x=(x,y)T。那么我们可以根据像素点和深度值重建空间三维点p=(X,Y,Z)T,重建函数为π-1:
其中fx,fy为相机分别在x轴和y轴上的焦距;ox和oy为相机光心坐标,这些参数可以通过相机标定获得。其中Z为图像深度,由CNN估计得到。同时,也可以根据三维空间点的坐标计算其在图像中投影的坐标,投影方程为π:
时刻k的相机位姿可以用刚体运动Tk∈SE(3)表示,其中SE(3)表示李群。关联连续图像间相机的相对运动可以对应地表示为在计算的过程中,考虑到需要对Tk,k-1求导,经常将Tk,k-1表示成李代数ξ=(ω,ν)T的形式,ω称作角速度,ν称为线速度,李代数与李群之间可以相互转换。
将需要估计深度的图像设为参考图像,将参考图像转化为灰度图,在参考图像中提取ORB特征点、ORB特征点对应的深度估计值及ORB特征点与关联图像的重投影像素点,构建最小光度误差方程计算参考图像与关联图像之间的相对运动,该方程可以表示为:
rI=Ik(π(Tk,k-1π-1(x,Z)))-Ik-1(x) (3)
通过最大化后验概率确定相对运动ξ*=argmax p(ξ|rI),根据贝叶斯法则,假设所有的误差独立同分布,对(3)式取负对数,得到:
ξ*=argmin-log(p(rI|ξ))-log(p(ξ)) (4)
定义log(p(rI|ξ))服从高斯分布,式(4)可以简化为标准最小二乘问题:
对于上式的非线性问题,采用高斯牛顿法迭代求解,当像素灰度误差最小时为最优解,即为关联彩色图像间的相对运动。
3、位姿优化
通过上一步的位姿估计,通过位姿计算方程和重投影方程可以将参考图像中提取的ORB特征点投影到关联图像中。但是由于CNN估计深度值不精确,特征点的深度值会有一定的误差,如图2所示,由于深度误差的存在,参考图像中特征点p1有可能落在关联图像极线上任一点,因此特征点在关联图像上的投影也会有误差,为了使计算的相机相对运动更加精确,我们采用极线搜索寻找最优匹配并根据最优匹配建立光束平差法方程优化位姿。
以参考图像中提取的ORB特征点为中心,在其四周各提取一个像素,形成一个2×2大小的图像块A,然后在关联彩色图像中对应特征点的极线上寻找与A最相似的图像块B,采用去均值的归一化互相关衡量A与B的相似性:
计算结果越接近1说明越相关,即A与B越相似。通过这种方法在关联图像中找到与特征点最相似的点,即最佳匹配。
根据最佳匹配建立光束平差法方程,将位姿估计阶段得到的位姿作为初始值,不断迭代使误差函数不断减少,直至收敛。
该问题同样是最小二乘问题,采用高斯牛顿法迭代求解。
4、深度图像获取
通过深度滤波器来进行深度图像获取,深度滤波器的任务是根据优化的相机相对位姿,优化CNN估计的初始深度图中的每个像素。假设深度值服从高斯分布,分布形式为P(d)=N(μ,σ2),对于新的观测数据,假设观测值依然服从高斯分布我们知道,两个高斯分布的乘积依然是高斯分布。设融合后的深度值的分布为那么根据高斯分布的乘积,有:
对于观测值,这里误差主要考虑几何不确定性。如图3所示,对于参考图像中每个像素p1,我们都可以根据极线搜索在关联图像中找到对应的p2点,从而观测到p1的深度值d,记p1对应的三维点为P。O1O2为相机的平移t,通过位姿优化得到,O2P记为a,同时三角形下面的两个角记为α,β。考虑极线上存在一个像素的误差,p2点移动到p2′,使得β角变成了β′,记a=d-t,那么:
α=arccos<d,t>,β=arccos<a,-t> (9)
对p2扰动一个像素,使得β产生一个变化量δβ,由于相机焦距为f,于是所以β′=β+δβ,γ=π-α-β′,由正弦定理:
进而,确定了由单个像素的不确定引起的深度不确定性:
σobs=||p||-||p′|| (11)
那么根据公式(8),可以对参考图像的深度图的每个像素进行滤波,从而达到优化CNN估计的深度图的目的。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出若干改进和变形,这些均属于本发明的保护之内。
Claims (6)
1.一种基于CNN和深度滤波器的图像深度估计方法,其特征在于,包括如下步骤:
S1、获取相机对同一拍摄目标进行连续拍摄的多张彩色图像,任选其中一个彩色图像作为参考图像,其余彩色图像作为关联图像,通过CNN得到所述参考图像的每个像素点对应的深度估计值;
S2、根据参考图像的每一个局部特征点、每一个局部特征点对应的深度估计值及每一个局部特征点与关联图像的重投影像素点建立最小光度误差方程获得相机位姿估计;
S3、根据所述相机位姿估计分别确定参考图像的每一个局部特征点在关联图像中对应的极线,根据极线搜索确定最佳匹配,根据最佳匹配建立光束平差法方程获得优化的相机位姿;
S4、根据所述优化后的相机位姿,分别构建深度滤波器对步骤S1中所述的每一个深度估计值进行高斯融合,直至深度值收敛,得到参考图像的每个像素对应的深度值,从而获得参考图像的深度图像。
2.如权利要求1所述一种基于CNN和深度滤波器的图像深度估计方法,其特征在于,所述步骤S2包括以下子步骤:
(1)局部特征点以ORB特征点表示,对参考图像提取ORB特征点;
(2)将参考图像转化为灰度图,以提取的ORB特征点、ORB特征点对应的深度估计值及ORB特征点与关联图像的重投影像素点构建稀疏形式的最小光度误差方程;
(3)采用高斯牛顿法迭代求解所述最小光度误差方程,当所有局部特征点灰度值误差之和最小时得到相机位姿估计。
3.如权利要求1所述的一种基于CNN和深度滤波器的图像深度估计方法,其特征在于,所述步骤S3包括以下子步骤:
(1)以参考图像的局部特征点为中心,选取大小为NxM的图像块,根据相机位姿估计确定局部特征点在关联图像上对应的极线,其中N和M均为大于1的常数;
(2)在所述极线上根据归一化互相关方法确定所述图像块的最佳匹配,根据最佳匹配建立光束平差法方程;
(3)采用高斯牛顿法迭代求解光束平差法方程获得优化的相机位姿。
4.一种基于CNN和深度滤波器的图像深度估计***,其特征在于,包括以下子模块:
深度估计值获取模块,用于获取相机对同一拍摄目标进行连续拍摄的多张彩色图像,任选其中一个彩色图像作为参考图像,其余彩色图像作为关联图像,通过CNN得到所述参考图像的每个像素点对应的深度估计值;
位姿估计模块,用于根据参考图像的每一个局部特征点、每一个局部特征点对应的深度估计值及每一个局部特征点与关联图像的重投影像素点建立最小光度误差方程获得相机位姿估计;
位姿优化模块,用于根据所述相机位姿估计分别确定参考图像的每一个局部特征点在关联图像中对应的极线,根据极线搜索确定最佳匹配,根据最佳匹配建立光束平差法方程获得优化的相机位姿;
深度图像获取模块,用于根据所述优化后的相机位姿,分别构建深度滤波器对模块S1中所述的每一个深度估计值进行高斯融合,直至深度值收敛,得到参考图像的每个像素对应的深度值,从而获得参考图像的深度图像。
5.如权利要求4所述一种基于CNN和深度滤波器的图像深度估计***,其特征在于,所述位姿估计模块包括以下子模块:
特征点提取模块,将局部特征点以ORB特征点表示,对参考图像提取ORB特征点;
最小光度误差方程构建模块,用于将参考图像转化为灰度图,以提取的ORB特征点、ORB特征点对应的深度估计值及ORB特征点与关联图像的重投影像素点构建稀疏形式的最小光度误差方程;
位姿估计求解模块,用于采用高斯牛顿法迭代求解所述最小光度误差方程,当所有局部特征点灰度值误差之和最小时得到相机位姿估计。
6.如权利要求4所述的一种基于CNN和深度滤波器的图像深度估计***,其特征在于,所述位姿优化模块包括以下子模块:
极线确定模块,用于以参考图像的局部特征点为中心,选取大小为NxM的图像块,根据相机位姿估计确定局部特征点在关联图像上对应的极线,其中N和M均为大于1的常数;
光束平差法方程建立模块,用于在所述极线上根据归一化互相关方法确定所述图像块的最佳匹配,根据最佳匹配建立光束平差法方程;
位姿优化求解模块,用于采用高斯牛顿法迭代求解光束平差法方程获得优化的相机位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810257328.XA CN108615244B (zh) | 2018-03-27 | 2018-03-27 | 一种基于cnn和深度滤波器的图像深度估计方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810257328.XA CN108615244B (zh) | 2018-03-27 | 2018-03-27 | 一种基于cnn和深度滤波器的图像深度估计方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108615244A true CN108615244A (zh) | 2018-10-02 |
CN108615244B CN108615244B (zh) | 2019-11-15 |
Family
ID=63659090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810257328.XA Expired - Fee Related CN108615244B (zh) | 2018-03-27 | 2018-03-27 | 一种基于cnn和深度滤波器的图像深度估计方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108615244B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523595A (zh) * | 2018-11-21 | 2019-03-26 | 南京链和科技有限公司 | 一种建筑工程直线棱角间距视觉测量方法 |
CN109946680A (zh) * | 2019-02-28 | 2019-06-28 | 北京旷视科技有限公司 | 探测***的外参数标定方法、装置、存储介质及标定*** |
CN110243370A (zh) * | 2019-05-16 | 2019-09-17 | 西安理工大学 | 一种基于深度学习的室内环境三维语义地图构建方法 |
CN110400331A (zh) * | 2019-07-11 | 2019-11-01 | Oppo广东移动通信有限公司 | 深度图处理方法和装置 |
CN110807809A (zh) * | 2019-10-25 | 2020-02-18 | 中山大学 | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 |
CN111105462A (zh) * | 2019-12-30 | 2020-05-05 | 联想(北京)有限公司 | 位姿确定方法及装置、增强现实设备和可读存储介质 |
CN111292365A (zh) * | 2020-01-23 | 2020-06-16 | 北京字节跳动网络技术有限公司 | 生成深度图的方法、装置、电子设备和计算机可读介质 |
CN111288989A (zh) * | 2020-02-25 | 2020-06-16 | 浙江大学 | 一种小型无人机视觉定位方法 |
CN113724365A (zh) * | 2020-05-22 | 2021-11-30 | 杭州海康威视数字技术股份有限公司 | 一种三维重建方法及装置 |
WO2021245290A1 (fr) | 2020-06-06 | 2021-12-09 | Querbes Olivier | Génération de modèles 3d à l'échelle à partir d'images 2d produites par un dispositif d'imagerie monoculaire |
WO2022165722A1 (zh) * | 2021-02-04 | 2022-08-11 | 华为技术有限公司 | 单目深度估计方法、装置及设备 |
WO2023272524A1 (zh) * | 2021-06-29 | 2023-01-05 | 深圳市大疆创新科技有限公司 | 双目拍摄装置及确定其观测深度的方法、装置、可移动平台 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
US20160142515A1 (en) * | 2014-11-14 | 2016-05-19 | Omron Corporation | Network system and control device |
CN105809687A (zh) * | 2016-03-08 | 2016-07-27 | 清华大学 | 一种基于图像中边沿点信息的单目视觉测程方法 |
CN106408015A (zh) * | 2016-09-13 | 2017-02-15 | 电子科技大学成都研究院 | 基于卷积神经网络的岔路口识别及深度估计方法 |
CN106530256A (zh) * | 2016-11-18 | 2017-03-22 | 四川长虹电器股份有限公司 | 一种基于改进深度学习的智能相机图像盲超分辨率*** |
CN106780543A (zh) * | 2017-01-13 | 2017-05-31 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的双框架估计深度和运动方法 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN106845515A (zh) * | 2016-12-06 | 2017-06-13 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与*** |
CN107341814A (zh) * | 2017-06-14 | 2017-11-10 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
CN107527366A (zh) * | 2017-08-23 | 2017-12-29 | 上海视智电子科技有限公司 | 一种面向深度相机的相机跟踪方法 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107767413A (zh) * | 2017-09-20 | 2018-03-06 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
US20180075602A1 (en) * | 2016-09-09 | 2018-03-15 | Adobe Systems Incorporated | Planar region guided 3d geometry estimation from a single image |
CN107817820A (zh) * | 2017-10-16 | 2018-03-20 | 复旦大学 | 一种基于深度学习的无人机自主飞行控制方法与*** |
-
2018
- 2018-03-27 CN CN201810257328.XA patent/CN108615244B/zh not_active Expired - Fee Related
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160142515A1 (en) * | 2014-11-14 | 2016-05-19 | Omron Corporation | Network system and control device |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN105809687A (zh) * | 2016-03-08 | 2016-07-27 | 清华大学 | 一种基于图像中边沿点信息的单目视觉测程方法 |
US20180075602A1 (en) * | 2016-09-09 | 2018-03-15 | Adobe Systems Incorporated | Planar region guided 3d geometry estimation from a single image |
CN106408015A (zh) * | 2016-09-13 | 2017-02-15 | 电子科技大学成都研究院 | 基于卷积神经网络的岔路口识别及深度估计方法 |
CN106530256A (zh) * | 2016-11-18 | 2017-03-22 | 四川长虹电器股份有限公司 | 一种基于改进深度学习的智能相机图像盲超分辨率*** |
CN106845515A (zh) * | 2016-12-06 | 2017-06-13 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN106780543A (zh) * | 2017-01-13 | 2017-05-31 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的双框架估计深度和运动方法 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与*** |
CN107341814A (zh) * | 2017-06-14 | 2017-11-10 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107527366A (zh) * | 2017-08-23 | 2017-12-29 | 上海视智电子科技有限公司 | 一种面向深度相机的相机跟踪方法 |
CN107767413A (zh) * | 2017-09-20 | 2018-03-06 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
CN107817820A (zh) * | 2017-10-16 | 2018-03-20 | 复旦大学 | 一种基于深度学习的无人机自主飞行控制方法与*** |
Non-Patent Citations (4)
Title |
---|
CLEMENT GODARD 等: "Unsupervised Monocular Depth Estimation with Left-Right Consistency", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
KEISUKE TATENO 等: "CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
张国良 等: "融合直接法与特征法的快速双目SLAM算法", 《机器人》 * |
薛秋艳: "基于移动视点的摄像机位姿估计方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523595A (zh) * | 2018-11-21 | 2019-03-26 | 南京链和科技有限公司 | 一种建筑工程直线棱角间距视觉测量方法 |
CN109523595B (zh) * | 2018-11-21 | 2023-07-18 | 南京链和科技有限公司 | 一种建筑工程直线棱角间距视觉测量方法 |
CN109946680A (zh) * | 2019-02-28 | 2019-06-28 | 北京旷视科技有限公司 | 探测***的外参数标定方法、装置、存储介质及标定*** |
CN110243370A (zh) * | 2019-05-16 | 2019-09-17 | 西安理工大学 | 一种基于深度学习的室内环境三维语义地图构建方法 |
CN110400331A (zh) * | 2019-07-11 | 2019-11-01 | Oppo广东移动通信有限公司 | 深度图处理方法和装置 |
CN110807809B (zh) * | 2019-10-25 | 2021-04-09 | 中山大学 | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 |
CN110807809A (zh) * | 2019-10-25 | 2020-02-18 | 中山大学 | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 |
CN111105462A (zh) * | 2019-12-30 | 2020-05-05 | 联想(北京)有限公司 | 位姿确定方法及装置、增强现实设备和可读存储介质 |
CN111105462B (zh) * | 2019-12-30 | 2024-05-28 | 联想(北京)有限公司 | 位姿确定方法及装置、增强现实设备和可读存储介质 |
CN111292365A (zh) * | 2020-01-23 | 2020-06-16 | 北京字节跳动网络技术有限公司 | 生成深度图的方法、装置、电子设备和计算机可读介质 |
CN111288989A (zh) * | 2020-02-25 | 2020-06-16 | 浙江大学 | 一种小型无人机视觉定位方法 |
CN111288989B (zh) * | 2020-02-25 | 2021-11-05 | 浙江大学 | 一种小型无人机视觉定位方法 |
CN113724365A (zh) * | 2020-05-22 | 2021-11-30 | 杭州海康威视数字技术股份有限公司 | 一种三维重建方法及装置 |
CN113724365B (zh) * | 2020-05-22 | 2023-09-26 | 杭州海康威视数字技术股份有限公司 | 一种三维重建方法及装置 |
WO2021245290A1 (fr) | 2020-06-06 | 2021-12-09 | Querbes Olivier | Génération de modèles 3d à l'échelle à partir d'images 2d produites par un dispositif d'imagerie monoculaire |
FR3111222A1 (fr) | 2020-06-06 | 2021-12-10 | Olivier Querbes | Génération de modèles 3D à l’échelle à partir d’images 2D produites par un dispositif d’imagerie monoculaire |
WO2022165722A1 (zh) * | 2021-02-04 | 2022-08-11 | 华为技术有限公司 | 单目深度估计方法、装置及设备 |
WO2023272524A1 (zh) * | 2021-06-29 | 2023-01-05 | 深圳市大疆创新科技有限公司 | 双目拍摄装置及确定其观测深度的方法、装置、可移动平台 |
Also Published As
Publication number | Publication date |
---|---|
CN108615244B (zh) | 2019-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615244B (zh) | 一种基于cnn和深度滤波器的图像深度估计方法及*** | |
Wang et al. | Mvdepthnet: Real-time multiview depth estimation neural network | |
CN106920276B (zh) | 一种三维重建方法和*** | |
CN109993793B (zh) | 视觉定位方法及装置 | |
CN109919911B (zh) | 基于多视角光度立体的移动三维重建方法 | |
CN105806315B (zh) | 基于主动编码信息的非合作目标相对测量***及测量方法 | |
US20150243035A1 (en) | Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN106875436B (zh) | 一种基于特征点密度由聚焦堆栈估计深度的方法和装置 | |
CN111914715A (zh) | 一种基于仿生视觉的智能车目标实时检测与定位方法 | |
CN102697508A (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN109523595A (zh) | 一种建筑工程直线棱角间距视觉测量方法 | |
CN109272574A (zh) | 基于投影变换的线阵旋转扫描相机成像模型构建方法和标定方法 | |
CN104182968A (zh) | 宽基线多阵列光学探测***模糊动目标分割方法 | |
CN111046843A (zh) | 一种智能驾驶环境下的单目测距方法 | |
CN110322507A (zh) | 一种基于深度重投影和空间一致性特征匹配的方法 | |
CN113686314B (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN114812558B (zh) | 一种结合激光测距的单目视觉无人机自主定位方法 | |
CN106125907A (zh) | 一种基于线框模型的三维目标注册定位方法 | |
CN113888639A (zh) | 基于事件相机与深度相机的视觉里程计定位方法及*** | |
CN112907557A (zh) | 道路检测方法、装置、计算设备及存储介质 | |
CN110443228B (zh) | 一种行人匹配方法、装置、电子设备及存储介质 | |
CN101523436A (zh) | 用于恢复视频流中的视差的方法和滤波器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191115 Termination date: 20210327 |