CN104065954A - 一种高清立体视频的视差范围快速检测方法 - Google Patents
一种高清立体视频的视差范围快速检测方法 Download PDFInfo
- Publication number
- CN104065954A CN104065954A CN201410315437.4A CN201410315437A CN104065954A CN 104065954 A CN104065954 A CN 104065954A CN 201410315437 A CN201410315437 A CN 201410315437A CN 104065954 A CN104065954 A CN 104065954A
- Authority
- CN
- China
- Prior art keywords
- matching
- parallax
- frame
- picture
- scope
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种高清立体视频的视差范围快速检测方法。所述方法包括快速立体匹配的步骤、提高快速匹配准确度的步骤、视差范围提取的步骤、空间精度补偿的步骤和时间精度补偿的步骤。本发明将快速稠密立体匹配与检测方法相结合,通过阈值判决的方式快速提取立体图像的视差范围;采用分布式思路,通过跟踪画面出屏最大物体的方式计算视频的最大出屏范围,大幅降低了计算量,提高了计算速度;本发明不需要计算立体视频每一帧的稠密视差图像,通过截取窗口及视差范围继承的方式快速估计非计算帧的视差范围。与现有技术相比,本发明能够在抽帧处理的同时保证视差信息时间上的连续性,能够准实时地逐帧计算高清视频的视差范围。
Description
技术领域
本发明涉及立体匹配技术,具体涉及大数据量立体图像的快速匹配技术,以及高清立体视频的视差范围快速检测方法。
背景技术
随着人们对3D业务兴趣的不断增长,3D视频的观看舒适度和安全性受到了越来越广泛的关注。目前,3D业务舒适度和安全性已经成为了阻碍3D业务进入大众视频市场的主要瓶颈之一。因此,对于3D视频的制作者而言,表征3D业务舒适度的指标,如视频的视差范围等信息,就显得尤为重要。制作不当的3D视频不仅不能够让观看者产生愉悦的观看体验,还可能会导致观看者产生身体上的不适,甚至可能会对部分观看者(如未成年人)的视觉能力造成负面影响。
视差信息是衡量数字立体视频***舒适程度及安全性的重要指标,获取画面的视差信息能够得知整个场景的深度分布情况,从而无需为传输场景的深度要素增加额外的传输代价。深度信息是监控立体视频质量、调整立体视频深度范围的重要信息。因此,如何从立体视频内容中快速、准确地获取场景的深度信息具有很高的实用价值。
D.Scharsteinand及R.Szeliski等人将稠密立体匹配分为全局匹配和区域匹配两大类。区域匹配的特点是采用窗口作为匹配单元,根据所设定的窗口对匹配代价的结果进行整合,得到窗口中心点的视差值。区域匹配的优点在于匹配计算过程与图像内容无关,能够优化为一种快速匹配方法;缺点在于视差图像普遍精度较低,容易出现大面积的视差计算错误。全局匹配的特点是将匹配点的搜索问题转换为了求解某个全局函数的最优解问题。全局匹配的优点在于匹配计算过程能够通过图像内容调整目标全局能量函数,从而得到高精度的匹配视差图;缺点在于全局能量函数优化过程的计算量非常大,准确但耗时较长。可见,在稠密立体匹配中:区域匹配计算速度很快,适合实时应用,但其计算准确度低,无法用于立体视频的视差范围提取;全局匹配计算准确度高,能够准确提取立体视频的视差范围,但其计算效率太低,不适合于视差范围的快速提取。
基于角点的立体匹配方法是目前快速提取立体图像视差范围的主要方法。基于角点的立体匹配方法并不计算整幅视差图像,而是通过提取图像中的部分点进行计算。具体步骤主要包括角点提取、角点匹配、边缘提取、边缘点匹配。基于角点的立体匹配方法优点在于能够在很小的计算量下给出部分点的视差值,适合于进行图像的视差范围检测;缺点在于不能够生成视差全图,因此对深度分布的估计能力较差,且运算速度不够快,距离实时处理高清视频有较大差距。
发明内容
本发明针对现有技术中存在的匹配速度慢、匹配点数少等问题,提出一种高清立体视频的视差范围快速检测方法,基于稠密立体匹配,通过添加约束条件的方式,快速估计立体图像的视差范围。
为了实现上述目的,本发明采用以下技术方案。
一种高清立体视频的视差范围快速检测方法,包括快速立体匹配的步骤、提高快速匹配准确度的步骤、视差范围提取的步骤、空间精度补偿的步骤和时间精度补偿的步骤。
快速立体匹配的步骤,包括以下内容:
本发明从计算冗余和串行转并行两方面优化了固定窗口匹配的计算过程。
固定窗口匹配的计算冗余主要包括相邻点的计算冗余和相邻窗口的计算冗余,如图1所示。消除相邻点的计算冗余能够将每个匹配窗口L2次的计算量减少到了4次。消除相邻窗口的计算冗余够将每点4次的计算量进一步减少到每点2次。
除了计算冗余,还可采用单指令多数据流(Single Instruction Multiple Data,SIMD)技术,将串行计算转化为并行处理,进一步提高效率。图2为能够进行并行计算的图像区域范围。图中,黑点白底区域为需要进行匹配代价计算的点,白点黑底区域为核心计算区域,该区域中每点的匹配代价计算次数为2次,是可以进行并行处理的区域。本方法选用了SIMD技术中的MMX指令集,一个MMX指令能够同时处理8个8比特的亮度数据,即能够将计算的循环次数减少到原先的1/8,大幅提高了运算的效率。
提高快速匹配准确度的步骤,包括以下内容:
对于稠密立体匹配,存在快速区域匹配方法不准确与全局匹配方法不能够快速处理的矛盾。本发明针对立体视频视差范围的检测这一应用,提出了如下实现思路:由于对立体视频视差范围的检测并不需要准确的视差图全图,因此可以采用寻找快速匹配方法中的准确信息的方式,将快速区域匹配技术应用于立体视频视差范围的检测当中。
一个典型的基于固定窗口的立体匹配及其误匹配区域如图4所示。图中方框内区域表示了三类代表性的错误区域,分别是重复纹理区域、低纹理区域、遮挡区域。针对这三类错误,需要使用不同的约束条件进行错误检测。左右一致性检测从匹配对应关系的角度,分析快速匹配中存在的误匹配。视差集中性检测和显著性检测从匹配结果显著程度的角度,分析快速匹配中存在的误匹配。
视差范围提取的步骤,包括以下内容:
通过多次测算及比较,为了达到快速或实时处理的要求,同时保证视差精度不会有太大的损失,对原始高清立体图像进行1/4的下采样。采样后立体图像的计算耗时大大下降,可以接近实时处理。在不考虑程序其他模块耗时的情况下,对原始序列进行时间上1/3的抽帧处理就能够达到实时处理的效果。
高清图像在经过下采样、抽帧、视差计算之后,便得到了低精度视差图像。所得到的视差图像经过前文中介绍的方法进行错误匹配区域检查,可得到经过错误检查的低精度视差图像,如图8所示。在实际立体视频中,由于近大远小的透视原理,距离摄像机最近的物体一般会占据屏幕一部分的区域,并且这个区域一般不会很小。根据这个假设,可以定义一个阈值,当具有最大视差值像素的像素数量大于这个阈值时,就认为该视差值是整个场景的最大视差,否则就判定该视差值为误匹配。图9为最大视差的提取方法流图程,最小视差的提取方法与之类似。
空间精度补偿的步骤,包括以下内容:
上一步所得到的是粗略的视差图像,该步骤所得到的视差图能够提供两个重要的信息:一是大致的视差范围。通过粗略视差图的计算,可以获得原立体图像大致的视差范围,后续计算可以在粗略的视差极值附近搜索精确的视差极值,大大减少了搜索范围和计算量。二是最大视差物体的大概位置。通过粗略视差图的计算,可以得知原立体图像大致的视差分布情况,通过设定不同的视差阈值范围,能够获取距离摄像机特定位置物体的大致区域及位置。当获取了最大视差物体的大致区域之后,通过对该区域内像素坐标的计算,能够得出最大视差物体中心位置的坐标估值。之后,只需要设定窗口的大小,就能够在原高清立体图像中“剪裁”出目标物体的高清晰度纹理信息。这一过程的一个具体实例如图11所示。
首先,原始高清图像经过视差范围提取的步骤,能够得到经检测的粗略视差图像与大致的视差范围;其次,根据粗略的视差图像计算拥有最大视差物体的大致范围,并根据该范围对原高清图像进行截取,得到含有最大视差物体的截取后高清图像;之后,根据得到的匹配计算范围,对截取后的部分高清图像近行匹配比较,其中,采用两图之间的绝对差值作为匹配比较的方式;最后,比较不同视差位置上的匹配误差,选择匹配误差最小的位置作为匹配位置,并将精细的匹配位置与原粗略的匹配位置相加,从而得到高精度的视差信息。
时间精度补偿的步骤,包括以下内容:
基于上面提出的快速高精度视差提取方法,本发明提出了一种快速的时间精度补偿方法。前面提到,即使对原高清图像进行1/4的空间下采样,仍无法达到实时处理,需要在时间上进行进一步的采样,经过抽帧的图像在时间上的视差值将会出现不连续。由于视频信息在时间上有着连续变化的特点,相邻视频帧之间的画面场景一般不会出现太大的变化,同样的,相邻视频帧的深度分布也有着很强的相关性。一般来说,在连续几帧画面之内,画面主体的位置及深度均不会产生太大的变化。
根据这种特性,可以采用图13所示方法对立体视频的视差信息进行时间精度上的补偿。对于非抽取帧,采用空间精度补偿的方法进行视差值的计算与提取。对抽取帧,在读入该帧图像后,不进行耗时较长的视差计算,而是直接使用前一帧计算得到的视差估值及截取范围计算本帧的视差信息,即可得到本帧立体画面的高精度视差范围。
与现有技术相比,本发明具有以下优点:
(1)本发明将快速稠密立体匹配与检测方法相结合,通过阈值判决的方式快速提取立体图像的视差范围。在稠密立体匹配方法中,全局匹配技术计算速度普遍很慢,无法进行大数据量立体图像的快速视差计算;而快速的区域立体匹配技术则存在大量误匹配,无法应用于视差范围提取。与基于角点的立体匹配方法相比,本发明得到的有效匹配点数多,一般大于全图像素数量的50%,而基于角点的匹配方法所得到的匹配点数则一般不超过全图像素数量的5%。
(2)本发明采用分布式思路,通过跟踪画面出屏最大物体的方式计算视频的最大出屏范围,大幅降低了计算量,提高了计算速度。对于一幅1920×1080的高清图像,搜索范围为-128~+128时,本发明能够以约0.16秒的速度获取高清精度的最大出屏范围,而仅使用快速稠密立体匹配方法进行计算则至少需要耗时2秒以上,且在不使用本发明所提出的立体图像视差范围快速提取方法的情况下,无法取得画面的视差范围。
(3)本发明不需要计算立体视频每一帧的稠密视差图像,通过截取窗口及视差范围继承的方式快速估计非计算帧的视差范围。与其他需要抽帧处理的实时高清视差范围计算方法相比,本发明能够在抽帧处理的同时保证视差信息时间上的连续性,能够准实时(约15fps)地逐帧计算高清视频的视差范围,远快于基于角点等匹配方法的计算速度。
附图说明
图1为固定窗口算法的计算冗余示意图;
图2为能够进行并行计算的像素范围示意图;
图3为图像预处理示意图;
图4为基于固定窗口的立体匹配结果,左侧为原始图像,中间为真实视差图,右侧为基于点的匹配结果;
图5为左右一致检测结果;
图6为集中性检测及显著性检测结果;
图7为综合检测结果;
图8为经过错误检测的快速匹配结果;
图9为视差范围检测方法流程图;
图10为视差范围检测结果;
图11为视差空间精度补偿实现流程图;
图12为视差空间精度补偿结果;
图13为视差时间精度补偿实现过程示意图;
图14为视差时间精度补偿结果。
具体实施方式
一种高清立体视频的视差范围快速检测方法,包括以下步骤:
步骤1,初始化及预处理,方法如下:
(1)配置立体匹配的基本参数。包括图像基本信息、匹配搜索范围、快速稠密立体匹配中的匹配窗口大小、对匹配精度的要求、对匹配速度的要求。其中,匹配搜索范围需要为8的整数倍、匹配窗口大小应为大于1的奇数。
(2)读入目标立体图像。若目标图像或视频为压缩格式,需要对原图像或视频进行解码处理,得到YCrCb的非压缩图像。
(3)提取亮度信息。将YCrCb格式图像中的亮度信息Y进行提取和保存,用于后续处理,舍弃色度信息CrCb。
(4)对立体图像进行偏移。如图3所示。设立体匹配的搜索范围为[0,L],为了使不同拍摄方式的立体视频能够采用同样的匹配方法进行处理,需要对图像进行偏移。若原始立体图像采用平行式立体拍摄,不需要进行偏移处理;若原始立体图采用交叉式立体拍摄,需要对参考图像进行向左L/2像素的偏移。
(5)对立体图像进行下采样。对原始立体图像的目标图像及偏移后的参考图像进行水平及垂直方向上1/4的空间下采样。根据使用者对匹配速度的实际要求,对原始序列进行一定比例的时间下采样(抽帧),采用比例为1/3的空间下采样能够达到实时处理。
步骤2,快速立体匹配实现,方法如下:
(1)采用快速稠密立体匹配方法对立体图像进行立体匹配。匹配方法选用固定窗口算法,匹配代价函数选择SAD(绝对差值和),匹配窗口大小和匹配搜索范围根据立体图像实际情况进行选择。
(2)改写匹配代价SAD的计算代码。如图2所示。设参考图像为L,目标图像为R,图像宽度为Width,高度为Height,匹配窗口宽度为W,对于图像中不同位置的点L(x,y):
对于参考图像中的点IR(x,y)(x=W/2,y=W/2),匹配代价函数SAD的表达式为:
式中,d为参考图像与目标图像之间对应点的视差值,S为匹配代价聚合窗口,IR为参考图像,IT为目标图像。
对于点L(x,y),(x=W/2,y∈[W/2+1,Height]),将原SAD算法改写如下:
SAD(x,y+1,d)=SAD(x,y,d)+U(x,y+1,d)
对于点L(x,y),(x=[W/2+1,W+W/2],y∈[W/2+1,Height]),将原SAD算法改写如下:
SAD(x,y+1,d)=SAD(x,y,d)+U(x,y+1,d)
U(x,y+1,d)=U(x-1,y+1,d)+|A-A'|-|B-B'|-(|D-D'|-|C-C'|)
其中,A、B、C、D为参考图像中的点,如图1所示,A为匹配窗口外左上方相邻处的像素,B为匹配窗口外右上方相邻处的像素,C为匹配窗口内右下方的像素点,D为匹配窗口外左下方的像素点;A'、B'、C'、D'为目标图像中的点。
对于点L(x,y),(x=[W+W/2+1,Width],y∈[W/2+1,Height]),将原SAD算法改写如下:
SAD(x+wd,y,d)=SAD(x+wd,y-1,d)+U(x+wd,y,d)
U(x+wd,y,d)=U(x+wd-1,y,d)+S(x,y,d)-|Bwd-Bwd'|+|Cwd-Cwd'|
S(x,y,d)=-|B-B'|+|C-C'|
其中,B、C、Bwd、Cwd为参考图像中点,B'、C'、Bwd'、Cwd'为目标图像中的点。B为中心点P(x,y,d)窗口外右上方相邻处的像素点,C为中心点P(x,y,d)窗口内右下方的像素点,Bwd为中心点P(x+wd,y,d)窗口外右上方相邻处的像素点,Cwd为中心点P(x+wd,y,d)窗口内右下方的像素点。
(3)用并行指令改写核心匹配代码。对于点L(x,y),(x=[W+W/2+1,Width],y∈[W/2+1,Height]),采用SIMD中的MMX指令集改写原代码。具体地,将原始图像以8个点为一组进行打包,保存到MMX专用寄存器中进行并行处理。同时,将匹配搜索的循环次数减少至原先的1/8。
综合两种方法,整体优化效果如表1所示,图像大小为320x240,搜索范围为[0,16],窗口大小为9。
表1计算次数及耗时变化
步骤3,快速立体匹配优化,方法如下:
(1)对快速匹配结果视差图像进行左右一致性检测。对于步骤2中描述的快速匹配方法,在匹配代价选择的过程中,增加目标图像相对与参考图像的匹配代价选择过程,记录目标图像每个点的视差选择结果。根据结果,将目标图像与参考图像的视差值进行比对,若二者相同,则认为目标图像原匹配结果可靠,保留该匹配结果;若二者不相同,则认为目标图像原匹配结果不可靠,舍弃该匹配结果。实际检测效果如图5所示。由图能够看出,左右一致性检测能够有效检测到遮挡区域的匹配错误(图4区域3)。如果对匹配计算结果进行比较,可以在一次匹配当中完成左右一致性检测,能够在不大幅增加计算量的前提下完成该检测。
(2)对快速匹配结果视差图像进行视差显著性检测。对于目标图像的匹配过程,采用如下公式进行误匹配检测:
其中,emin为匹配代价最小值,ei为N个匹配代价次小值,δe为阈值。若计算结果小于阈值δe,则认为匹配结果不显著,舍弃该匹配结果。
(3)对快速匹配结果视差图像进行视差集中性检测。对于目标图像的匹配过程,采用如下公式进行误匹配检测:
其中,dmin为匹配代价最小值的视差值,di为N个匹配代价次小值的视差值,δd为阈值。若计算结果大于阈值δd,则认为匹配结果不集中,舍弃该匹配结果。(2)、(3)两个步骤的实际检测效果如图6所示。可见,该检测能够有效检测到低纹理区域和重复纹理区域的匹配错误(图4区域1、2)。
综合三种方法,整体优化效果如图7所示。根据计算,得到原匹配视差图的算准率为87%,经检测的视差图的算准率为96%。可见,采用上述的检测方法能够有效提取快速匹配视差图像中的有效信息。
步骤4,视差范围提取,方法如下:
(1)判断图像最大视差范围。将步骤1、2计算得到的视差图像称为Dmap,将步骤3检测得到的视差图像称为DmapR。在视差搜索范围[-L,L]内,以L为起始值对搜索范围[-L,L]进行遍历。记DmapR中视差值为l∈[-L,L]的点数为Cntl,设定最大视差范围的判断阈值δdmax为全图像素数量的1%。若Cntl小于δdmax,则减小l值继续遍历;若Cntl大于等于δdmax,则停止遍历,并将此时的l值Dmax记录为该立体图像的最大视差范围。
(2)判断图像最小视差范围。在视差搜索范围[-L,L]内,以-L为起始值对搜索范围[-L,L]进行遍历。记DmapR中视差值为l∈[-L,L]的点数为Cntl,设定最大视差范围的判断阈值δdmin为全图像素数量的5%。若Cntl小于δdmin,则减小l值继续遍历;若Cntl大于等于δdmin,则停止遍历,并将此时的l值Dmin记录为该立体图像的最小视差范围。
视差范围提取过程及结果的一个实例如图8所示,对比原图可见,视差范围提取结果准确。图9为最大视差的提取方法,最小视差的提取方法与之类似。采用上述方法对图8中图像进行视差范围的提取与计算,结果如图10所示。图中,最小视差检测结果为画面背景的树林,最大视差检测结果为靠近画面的花丛,检测结果准确。
步骤5,空间精度补偿,方法如下:
(1)获取最大出屏物***置。对于DmapR,以δdmax±t为视差范围截取原视差图像。其中,t为最大出屏物体识别范围,建议取值范围为t∈[0,2],本文档的实例中均取t=1。对于截取后的视差图像,计算并记录全部有视差值点的平局水平位置AvgX和平均垂直位置AvgY。
(2)截取最大出屏物体。设Th为截取窗口的高度,Tw为截取窗口的宽度。设图像宽度为Width,高度为Height:若AvgX–Tw/2<0,则将AxgX设置为Tw/2;若AvgX+Tw/2>Width,则将AxgX设置为Width-Tw/2;若AvgY–Th/2<0,则将AxgY设置为Th/2;若AvgY+Th/2>Height,则将AxgY设置为Height-Th/2。以AxgX±Tw/2、AxgY±Th/2为范围对参考图像进行截取。
(3)设[-δL,δL]为视差微调范围,根据下采样的比例确定δL的大小。在l∈[-δL,δL]的范围内,比较(2)中截取的参考图像与目标图像中心为(AxgX+l,AxgY),范围为AxgX+l±Tw/2、AxgY±Th/2的区域进行SAD计算,记录[-δL,δL]范围内拥有最小SAD的位置lSADmin。记Dmax+lSADmin为该立体图像的精确最大出屏范围。
采用空间精度补偿前后计算所得视差信息精度对比如图12所示。图中,中间的曲线图是视频图像的最大视差范围检测结果。其中,灰色曲线为空间精度补偿前的计算结果,黑色曲线为空间精度补偿后的计算结果。曲线上方、下方的四幅图像分别为视频第1帧、100帧、200帧、300帧的画面截图。该测试序列是一个穿和服的女子在枫树林前行走,在0~150帧的范围内,画面中女子的深度基本保持不变;在150~300帧的范围内,画面中女子逐渐靠近摄像机,深度减小;在300帧之后,画面中女子逐渐远离摄像机,深度增大。由图可见,采用上面提出的视差范围提取方法获得的最大视差范围与实际景物深度运动范围变化趋势一致,能够采用本发明所述方法对立体视频视差值进行估计。对比空间精度补偿前后的视差曲线,经过空间精度补偿的视差曲线(黑色)平滑而连续,在空间精度上显著高于原计算结果,计算精度达到了高清视频的精度级别。
对于长度为450帧的测试序列,使用空间精度补偿前后方法的计算精度及计算耗时如下表所示:
表2空间精度补偿耗时
最大搜索范围 | 最小搜索范围 | 精度 | 耗时 | |
原始方法 | +32 | -32 | ±4 | 60s |
补偿方法 | +128 | -128 | ±1 | 74s |
由表2可见,采用本发明所述方法,能够在只增加约20%计算量的情况下,使原始方法的计算精度提高4倍。空间精度补偿后的视差计算精度是原先的4倍,即视差搜索范围提高了4倍,因此计算量及耗时应该也会提高4倍。本发明采用基于画面最大出屏主体跟踪的方法,大幅简化了空间精度补偿的计算复杂度。
若不采用空间精度补偿技术,直接使用快速立体匹配方法计算高清图像的视差范围,对一帧立体视频的计算耗时将超过2s,约为空间精度补偿方法耗时的13倍。
步骤6,时间精度补偿,方法如下:
(1)在时间上进行视频帧分类。对于抽帧比例为S的一次视频实时视差范围提取过程,记帧数fnoskip=nS的画面为非抽取帧,记帧数fskip=nS+k,k∈[1,S-1]的画面为非抽取帧,n为正整数。对于第fnoskip帧。进行步骤5的计算,记录该次计算中的Dmax、AvgX、AvgY。
(2)计算抽取帧的精确视差值。对于第fskip帧,将时间上距离第fskip帧最近的fnoskip帧的Dmax、AvgX、AvgY作为本帧的Dmax、AvgX、AvgY,并采用该数值进行步骤5的计算,所得到结果即为该抽取帧的精确视差值。
所得到的匹配计算结果如图14所示。图中,灰色曲线为时间精度补偿方法的计算结果,黑色曲线为逐帧计算的计算结果。能够看出,时间精度补偿方法并没有对原始视频序列进行逐帧的视差图像计算,但其计算精度与计算结果和逐帧计算结果基本相同,同样拥有较高的精度。由于空间精度补偿方法并未进行立体匹配计算,其计算耗时远小于视差计算的耗时,对于长度为450帧的测试序列,原始方法耗时为73s,补偿方法耗时为31s,能够以约0.07s计算一帧的效率得到高精度视差范围。因而,采用这种方法能够在保证每帧生成高精度视差值的同时大幅减少计算的耗时。
所述视差范围提取步骤应用于实时监测视频粗略视差范围的场景,只需辅以一定比例的抽帧,不需要进行时间和空间的精度补偿(处理速度大于25fps);所述空间精度补偿步骤应用于快速获得高精度的视差范围,但不要求实时处理的场景,只需进行空间精度补偿,不必进行时间精度补偿,对视频进行逐帧的计算(处理速度约6fps);所述空间精度补偿和时间精度补偿可同时应用于获得准实时的高精度视差范围的场景,在损失少量时间精度的情况下大幅提高处理速度(处理速度约15fps)。
为了验证本发明所述方法的有效性,表3给出本发明与对比论文《一种基于角点引导的快速立体边缘匹配方法》(李海超等,北京航空航天大学学报,2007年05期)中的实验结果。表3中的计算速度为对450帧视频进行计算后每帧的平均耗时。可以看出,本发明计算一帧高清立体视频视差范围的耗时只有0.07秒,远小于对比论文所述方法的耗时1.1秒。
表3本发明与基于角点匹配方法对比
图像大小 | 搜索范围 | 有效匹配点数量 | 计算速度 | |
本发明 | 1920x1080 | 总范围>200 | 大于50% | 0.07s |
基于角点匹配方法 | 512x512 | 总范围<100 | 小于5% | 1.1s |
Claims (2)
1.一种高清立体视频的视差范围快速检测方法,其特征在于包括以下步骤:
步骤1,初始化及预处理,方法如下:
(1)配置立体匹配的基本参数;包括图像基本信息、匹配搜索范围、快速稠密立体匹配中的匹配窗口大小、对匹配精度的要求、对匹配速度的要求;其中,匹配搜索范围需要为8的整数倍、匹配窗口大小应为大于1的奇数;
(2)读入目标立体图像;若目标图像或视频为压缩格式,需要对原图像或视频进行解码处理,得到YCrCb的非压缩图像;
(3)提取亮度信息;将YCrCb格式图像中的亮度信息Y进行提取和保存,用于后续处理,舍弃色度信息CrCb;
(4)对立体图像进行偏移;设立体匹配的搜索范围为[0,L],为了使不同拍摄方式的立体视频能够采用同样的匹配方法进行处理,对图像进行偏移:若原始立体图像采用平行式立体拍摄,不需要进行偏移处理;若原始立体图采用交叉式立体拍摄,需要对参考图像进行向左L/2像素的偏移;
(5)对立体图像进行下采样;对原始立体图像的目标图像及偏移后的参考图像进行水平及垂直方向上1/4的空间下采样;根据使用者对匹配速度的实际要求,对原始序列进行一定比例的时间下采样即抽帧,采用比例为1/3的空间下采样能够达到实时处理;
步骤2,快速立体匹配实现,方法如下:
(1)采用快速稠密立体匹配方法对立体图像进行立体匹配;匹配方法选用固定窗口算法,匹配代价函数选择绝对差值和SAD,匹配窗口大小和匹配搜索范围根据立体图像实际情况进行选择;
(2)改写匹配代价SAD的计算代码;设参考图像为L,目标图像为R,图像宽度为Width,高度为Height,匹配窗口宽度为W,对于图像中不同位置的点L(x,y):对于参考图像中的点IR(x,y),x=W/2,y=W/2,匹配代价函数SAD的表达式为:
式中,d为参考图像与目标图像之间对应点的视差值,S为匹配代价聚合窗口,IR为参考图像,IT为目标图像;
对于点L(x,y),x=W/2,y∈[W/2+1,Height]),将原SAD算法改写如下:
SAD(x,y+1,d)=SAD(x,y,d)+U(x,y+1,d)
对于点L(x,y),(x=[W/2+1,W+W/2],y∈[W/2+1,Height]),将原SAD算法改写如下:
SAD(x,y+1,d)=SAD(x,y,d)+U(x,y+1,d)
U(x,y+1,d)=U(x-1,y+1,d)+|A-A'|-|B-B'|-(|D-D'|-|C-C'|)
其中,A、B、C、D为参考图像中的点,A为匹配窗口外左上方相邻处的像素,B为匹配窗口外右上方相邻处的像素,C为匹配窗口内右下方的像素点,D为匹配窗口外左下方的像素点;A'、B'、C'、D'为目标图像中的点;
对于点L(x,y),(x=[W+W/2+1,Width],y∈[W/2+1,Height]),将原SAD算法改写如下:
SAD(x+wd,y,d)=SAD(x+wd,y-1,d)+U(x+wd,y,d)
U(x+wd,y,d)=U(x+wd-1,y,d)+S(x,y,d)-|Bwd-Bwd'|+|Cwd-Cwd'|
S(x,y,d)=-|B-B'|+|C-C'|
其中,B、C、Bwd、Cwd为参考图像中点,B'、C'、Bwd'、Cwd'为目标图像中的点;B为中心点P(x,y,d)窗口外右上方相邻处的像素点,C为中心点P(x,y,d)窗口内右下方的像素点,Bwd为中心点P(x+wd,y,d)窗口外右上方相邻处的像素点,Cwd为中心点P(x+wd,y,d)窗口内右下方的像素点;
(3)用并行指令改写核心匹配代码;对于点L(x,y),(x=[W+W/2+1,Width],y∈[W/2+1,Height]),采用SIMD中的MMX指令集改写原代码;具体地,将原始图像以8个点为一组进行打包,保存到MMX专用寄存器中进行并行处理;同时,将匹配搜索的循环次数减少至原先的1/8;
步骤3,快速立体匹配优化,方法如下:
(1)对快速匹配结果视差图像进行左右一致性检测;对于所述步骤2中描述的快速匹配方法,在匹配代价选择的过程中,增加目标图像相对与参考图像的匹配代价选择过程,记录目标图像每个点的视差选择结果;根据结果将目标图像与参考图像的视差值进行比对,若二者相同,则认为目标图像原匹配结果可靠,保留该匹配结果;若二者不相同,则认为目标图像原匹配结果不可靠,舍弃该匹配结果;
(2)对快速匹配结果视差图像进行视差显著性检测;对于目标图像的匹配过程,采用如下公式进行误匹配检测:
其中,emin为匹配代价最小值,ei为N个匹配代价次小值,δe为阈值;若计算结果小于阈值δe,则认为匹配结果不显著,舍弃该匹配结果;
(3)对快速匹配结果视差图像进行视差集中性检测;对于目标图像的匹配过程,采用如下公式进行误匹配检测:
其中,dmin为匹配代价最小值的视差值,di为N个匹配代价次小值的视差值,δd为阈值;若计算结果大于阈值δd,则认为匹配结果不集中,舍弃该匹配结果;
步骤4,视差范围提取,方法如下:
(1)判断图像最大视差范围;将所述步骤1、2计算得到的视差图像称为Dmap,将所述步骤3检测得到的视差图像称为DmapR;在视差搜索范围[-L,L]内,以L为起始值对搜索范围[-L,L]进行遍历;记DmapR中视差值为l∈[-L,L]的点数为Cntl,设定最大视差范围的判断阈值δdmax为全图像素数量的1%;若Cntl小于δdmax,则减小l值继续遍历;若Cntl大于等于δdmax,则停止遍历,并将此时的l值Dmax记录为该立体图像的最大视差范围;
(2)判断图像最小视差范围;在视差搜索范围[-L,L]内,以-L为起始值对搜索范围[-L,L]进行遍历;记DmapR中视差值为l∈[-L,L]的点数为Cntl,设定最大视差范围的判断阈值δdmin为全图像素数量的5%;若Cntl小于δdmin,则减小l值继续遍历;若Cntl大于等于δdmin,则停止遍历,并将此时的l值Dmin记录为该立体图像的最小视差范围;
步骤5,空间精度补偿,方法如下:
(1)获取最大出屏物***置;对于DmapR,以δdmax±t为视差范围截取原视差图像;其中,t为最大出屏物体识别范围,建议取值范围为t∈[0,2],本文档的实例中均取t=1;对于截取后的视差图像,计算并记录全部有视差值点的平局水平位置AvgX和平均垂直位置AvgY;
(2)截取最大出屏物体;设Th为截取窗口的高度,Tw为截取窗口的宽度;设图像宽度为Width,高度为Height:若AvgX–Tw/2<0,则将AxgX设置为Tw/2;若AvgX+Tw/2>Width,则将AxgX设置为Width-Tw/2;若AvgY–Th/2<0,则将AxgY设置为Th/2;若AvgY+Th/2>Height,则将AxgY设置为Height-Th/2;以AxgX±Tw/2、AxgY±Th/2为范围对参考图像进行截取;
(3)设[-δL,δL]为视差微调范围,根据下采样的比例确定δL的大小;在l∈[-δL,δL]的范围内,比较(2)中截取的参考图像与目标图像中心为(AxgX+l,AxgY),范围为AxgX+l±Tw/2、AxgY±Th/2的区域进行SAD计算,记录[-δL,δL]范围内拥有最小SAD的位置lSADmin;记Dmax+lSADmin为该立体图像的精确最大出屏范围;
步骤6,时间精度补偿,方法如下:
(1)在时间上进行视频帧分类;对于抽帧比例为S的一次视频实时视差范围提取过程,记帧数fnoskip=nS的画面为非抽取帧,记帧数fskip=nS+k,k∈[1,S-1]的画面为非抽取帧,n为正整数;对于第fnoskip帧;进行步骤5的计算,记录该次计算中的Dmax、AvgX、AvgY;
(2)计算抽取帧的精确视差值;对于第fskip帧,将时间上距离第fskip帧最近的fnoskip帧的Dmax、AvgX、AvgY作为本帧的Dmax、AvgX、AvgY,并采用该数值进行步骤5的计算,所得到结果即为该抽取帧的精确视差值。
2.根据权利要求1所述的一种高清立体视频的视差范围快速检测方法,其特征在于,所述视差范围提取步骤应用于实时监测视频粗略视差范围的场景,只需辅以一定比例的抽帧,不需要进行时间和空间的精度补偿;所述空间精度补偿步骤应用于快速获得高精度的视差范围,但不要求实时处理的场景,只需进行空间精度补偿,不必进行时间精度补偿,对视频进行逐帧的计算;所述空间精度补偿和时间精度补偿可同时应用于获得准实时的高精度视差范围的场景,在损失少量时间精度的情况下大幅提高处理速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410315437.4A CN104065954B (zh) | 2014-07-03 | 2014-07-03 | 一种高清立体视频的视差范围快速检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410315437.4A CN104065954B (zh) | 2014-07-03 | 2014-07-03 | 一种高清立体视频的视差范围快速检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104065954A true CN104065954A (zh) | 2014-09-24 |
CN104065954B CN104065954B (zh) | 2016-05-18 |
Family
ID=51553454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410315437.4A Expired - Fee Related CN104065954B (zh) | 2014-07-03 | 2014-07-03 | 一种高清立体视频的视差范围快速检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104065954B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303501A (zh) * | 2016-08-23 | 2017-01-04 | 深圳市捷视飞通科技股份有限公司 | 基于图像稀疏特征匹配的立体图像重构方法及装置 |
WO2017113850A1 (zh) * | 2015-12-28 | 2017-07-06 | 乐视控股(北京)有限公司 | 获取立体片源视差参数的方法及装置 |
CN106952304A (zh) * | 2017-03-22 | 2017-07-14 | 南京大学 | 一种利用视频序列帧间相关性的深度图像计算方法 |
CN107316326A (zh) * | 2017-06-29 | 2017-11-03 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN107948629A (zh) * | 2017-11-22 | 2018-04-20 | 海信集团有限公司 | 一种视差确定方法、装置及终端 |
CN110910438A (zh) * | 2018-09-17 | 2020-03-24 | 中国科学院沈阳自动化研究所 | 一种超高分辨率双目图像的高速立体匹配算法 |
CN111508009A (zh) * | 2020-07-02 | 2020-08-07 | 上海海栎创微电子有限公司 | 双目立体匹配预处理方法及其装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009089128A1 (en) * | 2008-01-04 | 2009-07-16 | 3M Innovative Properties Company | Hierarchical processing using image deformation |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
US20130136339A1 (en) * | 2011-11-25 | 2013-05-30 | Kyungpook National University Industry-Academic Cooperation Foundation | System for real-time stereo matching |
CN103778632A (zh) * | 2014-01-18 | 2014-05-07 | 南京理工大学 | 一种基于fpga的立体匹配方法 |
-
2014
- 2014-07-03 CN CN201410315437.4A patent/CN104065954B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009089128A1 (en) * | 2008-01-04 | 2009-07-16 | 3M Innovative Properties Company | Hierarchical processing using image deformation |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
US20130136339A1 (en) * | 2011-11-25 | 2013-05-30 | Kyungpook National University Industry-Academic Cooperation Foundation | System for real-time stereo matching |
CN103778632A (zh) * | 2014-01-18 | 2014-05-07 | 南京理工大学 | 一种基于fpga的立体匹配方法 |
Non-Patent Citations (2)
Title |
---|
李海超等: "一种基于角点引导的快速立体边缘匹配方法", 《北京航空航天大学学报》 * |
雷蕴奇等: "双目视觉中的一种人脸立体匹配及视差计算方法", 《厦门大学学报(自然科学版)》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017113850A1 (zh) * | 2015-12-28 | 2017-07-06 | 乐视控股(北京)有限公司 | 获取立体片源视差参数的方法及装置 |
CN106303501A (zh) * | 2016-08-23 | 2017-01-04 | 深圳市捷视飞通科技股份有限公司 | 基于图像稀疏特征匹配的立体图像重构方法及装置 |
CN106303501B (zh) * | 2016-08-23 | 2018-12-04 | 深圳市捷视飞通科技股份有限公司 | 基于图像稀疏特征匹配的立体图像重构方法及装置 |
CN106952304A (zh) * | 2017-03-22 | 2017-07-14 | 南京大学 | 一种利用视频序列帧间相关性的深度图像计算方法 |
CN106952304B (zh) * | 2017-03-22 | 2019-09-20 | 南京大学 | 一种利用视频序列帧间相关性的深度图像计算方法 |
CN107316326A (zh) * | 2017-06-29 | 2017-11-03 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN107316326B (zh) * | 2017-06-29 | 2020-10-30 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN107948629A (zh) * | 2017-11-22 | 2018-04-20 | 海信集团有限公司 | 一种视差确定方法、装置及终端 |
CN107948629B (zh) * | 2017-11-22 | 2020-06-23 | 海信集团有限公司 | 一种视差确定方法、装置及终端 |
CN110910438A (zh) * | 2018-09-17 | 2020-03-24 | 中国科学院沈阳自动化研究所 | 一种超高分辨率双目图像的高速立体匹配算法 |
CN110910438B (zh) * | 2018-09-17 | 2022-03-22 | 中国科学院沈阳自动化研究所 | 一种超高分辨率双目图像的高速立体匹配算法 |
CN111508009A (zh) * | 2020-07-02 | 2020-08-07 | 上海海栎创微电子有限公司 | 双目立体匹配预处理方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104065954B (zh) | 2016-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104065954B (zh) | 一种高清立体视频的视差范围快速检测方法 | |
US11983893B2 (en) | Systems and methods for hybrid depth regularization | |
US9070042B2 (en) | Image processing apparatus, image processing method, and program thereof | |
CN105052136B (zh) | 计算合成图片的方法与装置 | |
CN104079912B (zh) | 图像处理装置和图像处理方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN106485735A (zh) | 基于立体视觉技术的人体目标识别与跟踪方法 | |
CN106887021B (zh) | 立体视频的立体匹配方法、控制器和*** | |
CN110688905A (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN105404888A (zh) | 结合颜色和深度信息的显著性目标检测方法 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN106503605A (zh) | 基于立体视觉技术的人体目标识别方法 | |
KR20160010120A (ko) | 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법 | |
WO2012062652A1 (en) | Improved view synthesis | |
US9111350B1 (en) | Conversion of monoscopic visual content to stereoscopic 3D | |
CN105654493B (zh) | 一种改进的光学仿射不变双目立体匹配代价与视差优化方法 | |
El Ansari et al. | Temporal consistent real-time stereo for intelligent vehicles | |
CN105931270A (zh) | 基于运动轨迹分析的视频关键帧提取方法 | |
CN104331890B (zh) | 一种全局视差估计方法和*** | |
CN104200453A (zh) | 基于图像分割和可信度的视差图像校正方法 | |
US20140161313A1 (en) | Tracking device | |
CN103985128A (zh) | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 | |
CN104065946A (zh) | 基于图像序列的空洞填充方法 | |
CN106534833A (zh) | 一种联合空间时间轴的双视点立体视频稳定方法 | |
CN104144334A (zh) | 用于立体视频内容的字幕检测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Jiang Xiuhua Inventor after: Zheng Guanwen Inventor before: Zheng Guanwen Inventor before: Jiang Xiuhua |
|
COR | Change of bibliographic data | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160518 Termination date: 20190703 |