CN104599283A - 一种基于深度差恢复相机高度的图像深度改进方法 - Google Patents

一种基于深度差恢复相机高度的图像深度改进方法 Download PDF

Info

Publication number
CN104599283A
CN104599283A CN201510070896.5A CN201510070896A CN104599283A CN 104599283 A CN104599283 A CN 104599283A CN 201510070896 A CN201510070896 A CN 201510070896A CN 104599283 A CN104599283 A CN 104599283A
Authority
CN
China
Prior art keywords
depth
ground
point
camera
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510070896.5A
Other languages
English (en)
Other versions
CN104599283B (zh
Inventor
隋铭明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Forestry University
Original Assignee
Nanjing Forestry University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Forestry University filed Critical Nanjing Forestry University
Priority to CN201510070896.5A priority Critical patent/CN104599283B/zh
Publication of CN104599283A publication Critical patent/CN104599283A/zh
Application granted granted Critical
Publication of CN104599283B publication Critical patent/CN104599283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度差恢复相机高度的图像深度改进方法,包括三个部分:(1)构建单幅图像地面区域深度计算模型;(2)深度计算模型误差分析;(3)基于深度差的相机高度反演。本发明适用于包含有地面的室内外近景图像,针对图像中的地面区域,依照构图几何条件,推导得到场景中地面各点绝对深度计算模型。重点是提出深度计算模型中相机高度(H)这一参数的确定方法,从而改进深度计算模型,提高计算的精度和可靠性。

Description

一种基于深度差恢复相机高度的图像深度改进方法
技术领域
本发明涉及一种计算机图像处理方法,特别是一种基于深度差恢复相机高度的图像深度改进方法。
背景技术
深度信息是图像空间信息不可或缺的组成部分,深度估计旨在通过对图像数据的运算从而求出深度信息,进而确定图像中不同物体对象间的空间位置关系。根据深度估计的结果不同,分为相对深度估计和绝对深度估计。相对深度估计是估计出图像中不同对象的相对位置关系,如人在房屋的前面,树木在房屋的后面等等,只需要用深度值区分出目标的前后位置即可,但该深度值不一定是该目标到相机的绝对深度。绝对深度估计是通过计算确定出图像中的目标相对于拍摄相机的垂直距离,甚至是每个像素所对应物体的绝对深度信息。
现有的单幅图像深度估计方法众多,主要包括1)基于阴影、纹理、遮挡线索等隐含信息的方法;2)基于机器学习法;3)基于成像模型等方法。
阴影法是利用现存的阴影,将场景图像与光源组成反射模型,利用阴影的变化实现深度估计。阴影也是一个基于单目图像的深度线索,常用的方法为SFS(Shape fromShading)。由于物体表面一般具有形状的变化,所以当光源照射到物体上时会造成明暗变化,也就是图像上的阴影。一般来说,物体上凸起的地方会比凹陷的地方亮,因此直观上来看,如果图像阴影和光源方向已知,是有理由能够恢复物体表面的三维模型的,有时也称为由明暗恢复深度。Durou等人对阴影恢复深度的相关算法进行了详细的讲解。纹理可以作为一种图像深度恢复的线索。对于有一定纹理的物体,当目标距离相机越远时,分辨率就越低,因此纹理就越模糊,反之,当目标距离相机越近,分辨率越高,纹理就越清晰。根据纹理的模糊程度不同可以估计出物体的远近关系。由纹理信息恢复深度的方法通常称为“Depth from Texture”。Loh等人提出了一种具有代表性的方法。基于纹理的方法也需要有关纹理的先验知识。蓝建梁等人提出了一种基于多尺度纹理能量测度的单幅图像深度估计方法。
根据物体的前后遮挡关系可以判断物体之间的相对深度,被遮挡的物体应该处于更深的位置。遮挡关系是人类用于判断远近的重要深度线索,也是单只眼睛可以判断物体远近的主要原因之一。人眼可以根据物体的种类、大小、颜色及形状等先验知识,较容易的判断出物体间的遮挡关系。而对计算机而言,则需要研究自动判断遮挡关系的算法。Wu等提出了一种在单目视频中进行遮挡检测(Occlusion Detection)的方法。该方法假定目标物体被遮挡都是从上下左右的某个边开始,遮挡发生时边界区域的像素值变化会比物体内部的像素变化大得多。Thoma等和Izquierdo分别提出了基于光度和几何的遮挡检测方法。Palou等利用遮挡线索进行了深度估计。
利用机器学习法恢复深度,也逐渐成为一种行之有效的深度估计方法。其基本原理是通过学习真实世界中不同物体特征与深度远近的关系,从而建立深度估计模型,推测出未知图像中目标的深度。例如,真实世界的任何一个物体的尺寸大小在像片中所成像尺寸的大小与物体距离摄像机的远近有直接关系,物体离摄像机越近,在图像中成像就越大。如果用机器学习的方法学习了某个物体的深度位置和图像中大小的对应关系,就可以根据该目标的成像大小推出该目标当前的深度。
Saxena采用了机器学习方法进行了图像深度估计。之后很多学者采用马尔科夫随机场改进算法完善了深度估计结果。除马尔科夫随机场模型,也有一些其他的训练方法被用于深度估计。Lin等采用支持向量机(SVM)训练器进行深度估计;Battiato等采用场景分类方法生成了深度图;Nedovic等采用对场景进行几何分类的方法和SVM及AdaBoost算法进行了图像深度估计。
基于成像模型的深度估计是利用相机成像几何模型以及像片内的结构化信息构造方程,建立深度与图像坐标之间的关系进而推算出目标的绝对深度的一种深度估计方法。通常先将图像分割出不同的区域,可以用图像分割或图像分块算法。Hoiem等采用Adboost分类方法将图像分为地面、天空和直立景物三部分,对地面区域建立三维模型,再根据其他对象与地面的关系重构出整体三维场景。Salih等构造了深度与相机高度、拍摄视场角等参数的三角几何关系,当已知相机高度、相机俯仰角和相机成像视野范围时即可计算出二维图像中点的三维坐标,从而实现深度估计。李乐等采用图像分块对街景图像中的目标进行了划分,再根据针孔成像模型推导出了图像坐标与深度之间的函数关系,并针对街景图像进行了深度恢复实验。Zhang等采用Adaboost进行区域标记并通过相机成像模型恢复图像深度。Torralba等用场景的整体结构估算场景的成像比例进而求出场景的平均绝对深度。Liu等先使用语义分割将图像分成不同目标,再通过马尔科夫随机场实现深度估计。Yang等通过局部深度假说实现了单幅图像深度的半自动估计。张大志研究了基于单目视觉的机载前视被动传感器获取的序列图像,并结合惯导信息,恢复前视场景的深度。
综上所述,关于深度估计的方法有很多,每一种方法都有各自的限制条件和适用情形,由于深度估计在整个图像信息提取中占有重要地位,因此相关研究的数量和水平在不断提升,但整体研究仍处于方兴未艾的状态,仍然有很多问题亟待解决。
1)现有的深度估计方法常常关注特定目标的深度,通过对场景目标进行识别与提取,绘制出反映目标深度变化的深度图,如深度图上用不同的灰度值表示运动的前景目标和背景目标以反映出深度变化关系,但缺乏对整体场景深度的连续描述,影响了对空间场景的整体认知与表达。
2)现有的研究大多是恢复场景的相对深度,即物体的前后遮挡关系和相对位置,常常是对深度的一种假设或分配,深度往往是不连续的,且大多数都没有恢复场景中目标的绝对深度。
3)现有的很多研究方法较为复杂,限制条件较为严格,往往需要在不同的情形下拍摄大量的图像,并通过复杂的学习或公式进行深度估计,而这样的条件常常无法满足。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于深度差恢复相机高度的图像深度改进方法。本方法降低对数据源的限制条件,充分利用只有单幅图像的数据资源,并通过基于几何的深度估计方法,恢复目标的绝对深度,并提高深度估计的可靠性。
为了解决上述技术问题,本发明公开了一种基于深度差恢复相机高度的图像深度改进方法,包括三个部分:
(1)构建单幅图像地面区域深度计算模型;
(2)深度计算模型误差分析;
(3)基于深度差的相机高度恢复。
本发明中,构建单幅图像地面区域深度计算模型包括:通过对相机成像模型的几何解析建立深度计算模型,计算图像中地面区域的深度信息,并将地面上待定点深度的计算方法分三种情况:
情况1:地面点近于中心点的深度计算;
情况2:地面点远于中心点的深度计算;
情况3:当地面有起伏变化时深度计算。
本发明中,情况1中深度D的计算公式为:
D = H ( f 2 - s 2 ( v g - v c ) ( v c - v p ) ) fs ( v g - v p ) ,
其中,H为实测相机的高度,f为相机的焦距,s为相机感光CCD器件的实际尺寸与图像像素坐标之间的比例,vc、vg、vp分别为c、g、p点在图像坐标系中的纵坐标,c为像平面中心点,g为地面点G所成的像点,p为地平线与像平面的交点。
本发明中,情况2中深度D的计算公式为:
D = H ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) .
本发明中,情况3中,A点所在位置高于地面点G所在地面hA,B点所在位置低于地面点G所在地面hB,则深度的计算公式为:
D A = ( H - h A ) ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) ,
D B = ( H + h B ) ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) ,
其中,DA表示A点的深度,DB表示B点的深度。
本发明中,基于深度差的相机高度反演包括,根据实测的相机高度,推导出地面深度。
本发明中,深度计算模型误差分析中,情况1中令:
k = ( f 2 - s 2 ( v g - v c ) ( v c - v p ) ) fs ( v g - v p ) ,
地面深度计算公式简化为:
D=H*k;
即深度计算结果与相机高度成正比。
本发明中,根据以下公式计算相机高度H,并代入情况1~情况3中的深度计算公式,进一步改进图像深度计算:
H = ΔD · fs ( f 2 - s 2 ( v g 1 - v c ) ( v c - v p ) ) ( v g 1 - v p ) - ( f 2 - s 2 ( v g 2 - v c ) ( v c - v p ) ) ( v g 2 - v p ) ,
其中,ΔD为地面上已知的两点G1、G2的深度差值,分别为地面点G1,G2所对应图上像点g1,g2点在图像坐标系中的纵坐标。
本发明适用于包含有地面的室内外近景图像,针对图像中的地面区域,依照构图几何条件,推导得到场景中地面各点绝对深度计算模型。重点是提出深度计算模型中相机高度(H)这一参数的确定方法,从而改进深度计算模型,提高计算的精度和可靠性。
具体而言,本法优势为:(1)优化了现有基于几何关系的单幅图像地面区域深度计算模型。考虑了地面点远近的差异,补充了地面有高低起伏的影响;(2)分析了深度计算模型的误差影响因素,发现相机高度误差是深度计算精度的主要影响因素之一;(3)提出了基于深度差的相机高度参数恢复方法,可显著提高深度估计结果可靠性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为地面点近于中心点的深度计算原理图。
图2为地面点远于中心点的深度计算原理图。
图3为深度计算误差分析实验图。
图4为基于深度差的相机高度恢复原理图。
具体实施方式
本发明是一种基于成像模型恢复图像深度的方法。主要包含三部分内容:1)单幅图像地面区域深度计算模型;2)深度计算误差分析;3)基于深度差的相机高度反演。第一部分主要是实现深度计算的方法;第二部分主要是分析相机高度误差对结果的影响,结合实例给出其具体影响数值。3)基于深度差的相机高度恢复,是对公式中的参数H的求解方法,从而替代以往只是用假设确定H的方法,从而改善深度计算模型,提高计算的可靠性。
1)地面区域深度计算
通过对相机成像模型的几何解析建立深度计算模型,计算图像中地面区域的深度信息。并将地面上待定点深度的计算方法分三种情况:
(1)地面点近于中心点的深度计算。
对于大多数的自然场景图像,真实景物的深度(即物距)是远大于成像的像距,根据相机的针孔成像原理,可近似认为景物所成的像都位于相机焦平面上[75]。基于上面的假设,可推导出地面上某点在真实世界中的深度和它在像片中所成像点的图像坐标之间的对应关系,以此计算地面点所在位置的深度。首先在不考虑相机旋转的条件下,推导景物深度和所成像之间的对应关系,参见图1所示。
图1中,光轴是垂直于像平面过透镜中心点的轴线,光轴和透镜的交点称为光心。根据针孔成像模型,所有的光线均经过相机镜头的光心o点,主光轴Cc与地面夹角为∠GCo,c为像平面中心点,g为地面点G所成的像点,p为地平线与像平面的交点,f为相机的焦距,γ为相机中心o和地面点G的连线与地面的夹角,H为相机的高度,β为相机俯仰角,D为地面点G的深度。如上图情况,当待求深度的地面点G距离相机的距离比C点更近时,可得到如下的关系式:
γ=α+β  (1)
上式中γ为相机中心o和地面点G的连线与地面的夹角,α为∠goc,β为∠cop。
tanγ=tan(α+β)=tan(∠goc+∠cop)  (2)
根据三角形的和差变换公式,如公式(3)所示,可以将上式进行变换,再根据直角三角形中角度与边长的关系,如公式(4)(5)(6)所示,最终将公式化为公式(7)所示的形式,其中vc、vg、vp分别为c、g、p点在图像坐标系中的纵坐标。
tan ( α + β ) = tan α + tan 1 - tan α tan β - - - ( 3 )
tan γ = H D - - - ( 4 )
tan α = tan ∠ goc = s ( v g - v c ) f - - - ( 5 )
tan β = tan ∠ cop = s ( v c - v p ) f - - - ( 6 )
将上式化简后导出深度的计算公式(8)。
D = H ( f 2 - s 2 ( v g - v c ) ( v c - v p ) ) fs ( v g - v p ) - - - ( 8 )
该公式反映了景物深度和所成像之间的对应关系,s为相机感光CCD器件的实际尺寸与图像像素坐标之间的比例关系,f和s可以根据场景图像文件属性中记录的相机拍摄参数获得,相机高度H可以估算得到,或者根据本文后面提到的推算方法计算。将计算得到的各参数数据和对应的像点坐标代入(8)式即可得到该点对应的绝对深度。(2)地面点远于中心点的深度计算。
当待确定深度的地面点G比相机光轴与地面的交点C更远时,如图2所示,地面点G位于C的左侧,距离相机更远的地方,此时由于角度关系发生变化,深度计算公式也随之发生变化,推导如下:
γ=β-α  (9)
tan γ = tan ( β - α ) = tan β - tan α 1 + tan β tan α - - - ( 10 )
将公式(4)(5)(6)带入上式,得到:
H D = s ( v c - v p ) f - s ( v g - v c ) f 1 + s ( v g - v c ) f · s ( v c - v p ) f - - - ( 11 )
经过变换后得到深度计算公式,此公式适用于比相机中心更远的地面点深度计算:
D = H ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) - - - ( 12 )
(3)当地面有起伏变化时深度计算。
一幅图像中的地面不一定在同一个平面内,有时会出现台阶等地物将地面分割成高度不同的两个区域,即发生高度突变,图2中A点所在位置高于G点所在地面hA,B点所在位置低于G点所在地面hB。γA为相机中心o和地面点A的连线与地面的夹角。此时,角度的计算公式将发生变化,如下式:
tan γ A = H - h A D A - - - ( 13 )
相应地,深度DA计算公式将变为:
D A = ( H - h A ) ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) - - - ( 14 )
对于B点而言,γB为相机中心o和地面点B的连线与地面的夹角,有公式:
tan γ B = H + h B D B - - - ( 15 )
相应地,深度DB计算公式将变为:
D B = ( H + h B ) ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) - - - ( 16 )
2)地面深度计算误差分析
在公式(8)中,令:
k = ( f 2 - s 2 ( v g - v c ) ( v c - v p ) ) fs ( v g - v p ) - - - ( 17 )
误差分析是为了说明相机高度对计算结果的影响,分析时仅选择了地面平坦的场景进行试验,所以未用到情况2和3。
则地面深度计算公式可简化为:
D=H*k  (18)
现结合实例分析相机高度H对深度计算误差的影响,如图3(为表现本发明内容必须使用灰度的照片)中地面铺贴瓷砖尺寸为60cm*60cm,可选择瓷砖分隔线计算深度值,以此为基础分析深度计算的误差,拍摄时实测相机高度为69cm。首先利用公式(17)计算系数k,再由公式(18)计算出深度,结果见表1。
表1相机高度误差的影响
从表中可以看出,深度计算的系数k实际上就是1个单位长度相机高度的误差引起的深度计算误差。参照公式(18),当相机高度与真值偏差1cm时,将对A、B、C、D四个点深度值的计算结果分别带来1.69,2.57,3.47和4.39cm的误差影响。可见,相机高度即使有很小的偏差也会对深度计算结果造成很大影响。一般情况下相机的高度是未知的,文献中按经验值大致估计相机高度或者假设与人体身高大致相当的方法,存在极大不确定性,将有可能对深度估计结果造成极大影响。
3)基于深度差的相机高度恢复方法
根据上一部分的分析,相机高度的误差是深度计算精度的主要影响因素之一,因而确定相机拍摄的高度至关重要。本部分提出了一种基于目标深度差恢复相机高度的方法,如图4中所示,G1、G2为地面上的两点,二者的绝对深度分别为D1、D2,两点深度的差值即深度差为ΔD,ΔD=D1-D2,由公式(8)可推导得到以下各式。
D 1 = H ( f 2 - s 2 ( v g 1 - v c ) ( v c - v p ) ) fs ( v g 1 - v p ) - - - ( 19 )
D 2 = H ( f 2 - s 2 ( v g 2 - v c ) ( v c - v p ) ) fs ( v g 2 - v p ) - - - ( 20 )
ΔD = D 1 - D 2 = H fs · ( ( f 2 - s 2 ( v g 1 - v c ) ( v c - v p ) ) ( v g 1 - v p ) - ( f 2 - s 2 ( v g 2 - v c ) ( v c - v p ) ) ( v g 2 - v p ) ) - - - ( 21 )
上式中若已知深度差,则可以推导出相机高度的计算公式,如公式(22)所示。而深度差这一线索在很多场景中是可以满足的,如已知尺寸的物体或通过单像量测的方法测量得到,从而可以作为深度差线索。例如地砖的标准化尺寸可以作为深度差,道路交通标志的标准尺寸,井盖的标准尺寸等,从而实现拍摄时相机高度的反演。
H = ΔD · fs ( f 2 - s 2 ( v g 1 - v c ) ( v c - v p ) ) ( v g 1 - v p ) - ( f 2 - s 2 ( v g 2 - v c ) ( v c - v p ) ) ( v g 2 - v p ) - - - ( 22 )
将上式计算得到的相机高度参数H代入深度计算公式,可以显著提升深度计算的可靠性,提高计算结果的精度。
实施例
下面附具体的实验数据。
如图3所示,拍摄时实测相机高度为69cm,地砖的尺寸为60cm*60cm,A点所在位置的绝对深度为120cm。
(1)选用正确参数计算深度
采用正确的参数对五个点的深度进行了计算,其中的深度差分别是指ED、DC、CB和BA线段两点之间的深度差值,也就是求出的地砖两条边缘线的深度之差,将其与地砖的标准尺寸比较后可以计算出线段的相对误差,结果列于表2中。
表2深度计算结果及误差(单位:cm)
从表中可以看出,计算得到的深度值获得了厘米级的精度,证明了该算法的有效性,取得了较好的结果。
(2)相机高度的影响及修正
首先将相机高度假定为60cm,再次对各点的深度进行计算,计算结果列入表3中。从表中可以看出,由于存在9cm的相机高度误差,深度计算误差明显增大,严重影响了结果的质量。
表3相机高度对深度计算结果的影响(单位:cm)
按照前述的方法,利用两点之间的深度差值,即可反演相机的高度。值得一提的是,该方法只需要知道一段深度差值即可计算,当然,若有多个已知深度差共同参与计算,获得的结果将更为可靠。本文选用了三段深度差值分别计算相机高度,取其平均值作为最后的结果,经计算相机高度的结果为66.7cm;
利用66.7cm的相机高度重新计算A-E的绝对深度,列于表4中,与表3对比可以看出深度估计的结果显著改善。
表4绝对深度估计的修正(单位:cm)
本发明提供了一种基于深度差恢复相机高度的图像深度改进方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (7)

1.一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,包括三个部分:
(1)构建单幅图像地面区域深度计算模型;
(2)深度计算模型误差分析;
(3)基于深度差的相机高度反演。
2.根据权利要求1所述的一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,构建单幅图像地面区域深度计算模型包括:通过对相机成像模型的几何解析建立深度计算模型,计算图像中地面区域的深度信息,并将地面上待定点深度的计算方法分三种情况:
情况1:地面点近于中心点的深度计算;
情况2:地面点远于中心点的深度计算;
情况3:当地面有起伏变化时深度计算。
3.根据权利要求2所述的一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,情况1中深度D的计算公式为:
D = H ( f 2 - s 2 ( v g - v c ) ( v c - v p ) ) fs ( v g - v p ) ,
其中,H为实测相机的高度,f为相机的焦距,s为相机感光CCD器件的实际尺寸与图像像素坐标之间的比例,vc、vg、vp分别为c、g、p点在图像坐标系中的纵坐标,c为像平面中心点,g为地面点G所成的像点,p为地平线与像平面的交点。
4.根据权利要求3所述的一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,情况2中深度D的计算公式为:
D = H ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) .
5.根据权利要求4所述的一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,情况3中,A点所在位置高于地面点G所在地面hA,B点所在位置低于地面点G所在地面hB,则深度的计算公式为:
D A = ( H - h A ) ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) ,
D B = H + h B ( f 2 + s 2 ( v g - v c ) ( v c - v p ) ) fs ( ( v c - v p ) - ( v g - v c ) ) ,
其中,DA表示A点的深度,DB表示B点的深度。
6.根据权利要求5所述的一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,深度计算模型误差分析中,情况1中令:
k = ( f 2 - s 2 ( v g - v c ) ( v c - v p ) ) fs ( v g - v p ) ,
地面深度计算公式简化为:
D=H*k;
由此深度计算结果与相机高度强相关。
7.根据权利要求6所述的一种基于深度差恢复相机高度的图像深度改进方法,其特征在于,根据以下公式计算相机高度H,并代入情况1~情况3中的深度计算公式,进一步改进图像深度计算:
H = ΔD . fs ( f 2 - s 2 ( v g 1 - v c ) ( v c - v p ) ) ( v g 1 - v p ) - ( f 2 - s 2 ( v g 2 - v c ) ( v c - v p ) ) ( v g 2 - v p ) ,
其中,ΔD为地面上已知的两点G1、G2的深度差值,分别为地面点G1,G2所对应图上像点g1,g2点在图像坐标系中的纵坐标。
CN201510070896.5A 2015-02-10 2015-02-10 一种基于深度差恢复相机高度的图像深度改进方法 Active CN104599283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510070896.5A CN104599283B (zh) 2015-02-10 2015-02-10 一种基于深度差恢复相机高度的图像深度改进方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510070896.5A CN104599283B (zh) 2015-02-10 2015-02-10 一种基于深度差恢复相机高度的图像深度改进方法

Publications (2)

Publication Number Publication Date
CN104599283A true CN104599283A (zh) 2015-05-06
CN104599283B CN104599283B (zh) 2017-06-09

Family

ID=53125033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510070896.5A Active CN104599283B (zh) 2015-02-10 2015-02-10 一种基于深度差恢复相机高度的图像深度改进方法

Country Status (1)

Country Link
CN (1) CN104599283B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991308A (zh) * 2021-03-25 2021-06-18 北京百度网讯科技有限公司 一种图像质量的确定方法、装置、电子设备和介质
CN114046728A (zh) * 2021-08-30 2022-02-15 中国水产科学研究院东海水产研究所 一种基于超焦距成像的大面积区域中目标物体测量方法
CN114486732A (zh) * 2021-12-30 2022-05-13 武汉光谷卓越科技股份有限公司 一种基于线扫描三维的瓷砖缺陷在线检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314683A (zh) * 2011-07-15 2012-01-11 清华大学 一种非平面图像传感器的计算成像方法和成像装置
US20130182904A1 (en) * 2012-01-17 2013-07-18 Objectvideo, Inc. System and method for video content analysis using depth sensing
CN104134234A (zh) * 2014-07-16 2014-11-05 中国科学技术大学 一种全自动的基于单幅图像的三维场景构建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314683A (zh) * 2011-07-15 2012-01-11 清华大学 一种非平面图像传感器的计算成像方法和成像装置
US20130182904A1 (en) * 2012-01-17 2013-07-18 Objectvideo, Inc. System and method for video content analysis using depth sensing
CN104134234A (zh) * 2014-07-16 2014-11-05 中国科学技术大学 一种全自动的基于单幅图像的三维场景构建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHIHUI ZHANG 等: "Depth estimation and occlusion boundary recovery from a single outdoor image", 《OPTICAL ENGINEERING》 *
YASIR SALIH 等: "Depth and Geometry from a Single 2D Image Using Triangulation", 《2012 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO WORKSHOPS》 *
李乐 等: "基于内容理解的单幅静态街景图像深度估计", 《机器人》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991308A (zh) * 2021-03-25 2021-06-18 北京百度网讯科技有限公司 一种图像质量的确定方法、装置、电子设备和介质
CN112991308B (zh) * 2021-03-25 2023-11-24 北京百度网讯科技有限公司 一种图像质量的确定方法、装置、电子设备和介质
CN114046728A (zh) * 2021-08-30 2022-02-15 中国水产科学研究院东海水产研究所 一种基于超焦距成像的大面积区域中目标物体测量方法
CN114486732A (zh) * 2021-12-30 2022-05-13 武汉光谷卓越科技股份有限公司 一种基于线扫描三维的瓷砖缺陷在线检测方法
CN114486732B (zh) * 2021-12-30 2024-04-09 武汉光谷卓越科技股份有限公司 一种基于线扫描三维的瓷砖缺陷在线检测方法

Also Published As

Publication number Publication date
CN104599283B (zh) 2017-06-09

Similar Documents

Publication Publication Date Title
Coughlan et al. The manhattan world assumption: Regularities in scene statistics which enable bayesian inference
CN105956539B (zh) 一种应用背景建模和双目视觉原理的人体身高测量方法
CN104091348B (zh) 融合显著特征和分块模板的多目标跟踪方法
US9305206B2 (en) Method for enhancing depth maps
CN108010081B (zh) 一种基于Census变换和局部图优化的RGB-D视觉里程计方法
CN109143247B (zh) 一种声光成像的三目水下探测方法
CN105279372A (zh) 一种建筑物高度计算方法和装置
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
CN104517095B (zh) 一种基于深度图像的人头分割方法
WO2010124497A1 (zh) 一种运动检测方法、装置和***
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN104536009A (zh) 一种激光红外复合的地面建筑物识别及导航方法
CN107677274A (zh) 基于双目视觉的无人机自主着陆导航信息实时解算方法
CN106650701A (zh) 基于双目视觉的室内阴影环境下障碍物检测方法及装置
CN105096307A (zh) 在成对的立体图像中检测物体的方法
CN105938619A (zh) 一种融合RGB和Depth信息的视觉里程计实现方法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN108280401A (zh) 一种路面检测方法、装置、云端服务器及计算机程序产品
CN104331890B (zh) 一种全局视差估计方法和***
CN107527366A (zh) 一种面向深度相机的相机跟踪方法
CN104182968A (zh) 宽基线多阵列光学探测***模糊动目标分割方法
CN107038758A (zh) 一种基于orb算子的增强现实三维注册方法
JP3786618B2 (ja) 画像処理装置及びその方法
CN104599283A (zh) 一种基于深度差恢复相机高度的图像深度改进方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20150506

Assignee: Nanjing Yihaopu Software Technology Co., Ltd.

Assignor: Nanjing Forestry University

Contract record no.: 2018320000334

Denomination of invention: Image depth improvement method for camera height recovery based on depth difference

Granted publication date: 20170609

License type: Common License

Record date: 20181119

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20150506

Assignee: Quanquan-technology Co., Ltd.

Assignor: Nanjing Forestry University

Contract record no.: 2018320000354

Denomination of invention: Image depth improvement method for camera height recovery based on depth difference

Granted publication date: 20170609

License type: Common License

Record date: 20181127

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20150506

Assignee: Nanjing Grand Canyon Mdt InfoTech Ltd

Assignor: Nanjing Forestry University

Contract record no.: X2019320000016

Denomination of invention: Image depth improvement method for camera height recovery based on depth difference

Granted publication date: 20170609

License type: Common License

Record date: 20190809