CN108010089A - 一种基于双目可运动摄像机的高分辨率图像获取方法 - Google Patents

一种基于双目可运动摄像机的高分辨率图像获取方法 Download PDF

Info

Publication number
CN108010089A
CN108010089A CN201711402076.7A CN201711402076A CN108010089A CN 108010089 A CN108010089 A CN 108010089A CN 201711402076 A CN201711402076 A CN 201711402076A CN 108010089 A CN108010089 A CN 108010089A
Authority
CN
China
Prior art keywords
mtd
msub
mtr
mrow
mtable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711402076.7A
Other languages
English (en)
Other versions
CN108010089B (zh
Inventor
崔智高
李爱华
王涛
李辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rocket Force University of Engineering of PLA
Original Assignee
Rocket Force University of Engineering of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rocket Force University of Engineering of PLA filed Critical Rocket Force University of Engineering of PLA
Priority to CN201711402076.7A priority Critical patent/CN108010089B/zh
Publication of CN108010089A publication Critical patent/CN108010089A/zh
Application granted granted Critical
Publication of CN108010089B publication Critical patent/CN108010089B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提出了一种基于双目可运动摄像机视觉***的静态目标高分辨率图像获取方法。本发明基于传统立体视觉理论的拓展。本发明通过双目可运动摄像机捕获图像的立体校正结果和视差图,建立目标在两个摄像机坐标系之间的坐标关联,从而确定摄像机的水平和垂直旋转角度;通过离线建立目标区域大小和变焦倍数之间的对应关系,以及在线估计视差可靠度确定摄像机的变焦倍数。本发明可以实现任一摄像机选定视场内目标后,另一个摄像机以高分辨率使该目标处于图像的中心位置,可以应用于交通、安防、人机交互等领域,具有广泛的应用前景和重要的实用价值。

Description

一种基于双目可运动摄像机的高分辨率图像获取方法
技术领域
本发明涉及一种基于双目可运动摄像机的高分辨率图像获取方法。
背景技术
随着相机制作工艺的完善、机械控制精度的提高以及生产成本的降低,可运动摄像机越来越多的应用于智能监控领域,并且逐渐取代传统的静止相机。可运动摄像机可看作一个内外参数均可变化的静止相机,这些参数包括水平转动(pan)、竖直转动(tilt)以及焦距变化(zoom),通过调整这些控制参数,可运动摄像机不但可以改变焦距,从而获得同一目标或区域的不同分辨率信息,并且可以改变监控视角,从而获得场景中不同目标或区域的监控信息。从视觉仿生的角度,可运动摄像机的图像采集方式与人眼的转动机制是一致的,人类一般是有目的的对场景进行观察,当场景提供的信息无法满足要求时,人眼会转动一定的角度,聚焦直至获得目标清晰的图像;从数学的角度,图像采集的主动性能够优化视觉模型的推导,并使很多传统视觉中欠定的问题变得适定,或使传统视觉中的非线性问题线性化。综合上述分析可以看出,智能监控***的发展趋势之一就是使用可运动摄像机。
另一方面,单目可运动摄像机在监控中也存在一定的缺陷:首先是视角单一,当遮挡现象发生的时候,可能出现视觉盲区,从而无法获取盲区内的信息;其次是在没有场景先验知识的情况下,无法获取深度信息,经典的立体视觉需要两个相机,通过视差大小来估计目标的深度;最后是使用单个可运动摄像机往往存在监控视场和目标分辨率之间的矛盾,导致无法同时获取目标运动的全景信息和高分辨率信息。因此,智能监控技术的另一个趋势就是采用两个可运动摄像机。
发明内容
本发明要解决的技术问题是克服现有技术的缺陷,利用两个SONY EVI D70P相机构建了双目可运动摄像机视觉***,并通过引入深度信息,提出了一种基于双目可运动摄像机视觉***的静态目标高分辨率图像获取方法。
为了解决上述技术问题,本发明提供了如下的技术方案:
本发明提供一种基于双目可运动摄像机的高分辨率图像获取方法,其包括以下步骤:将两个可运动摄像机表示为Cam-1和Cam-2,设两个可运动摄像机的当前参数为(p1,t1,z1)和(p2,t2,z2),其对应的观测图像分别为I1和I2,并假定Cam-1图像I1中确定的静态目标区域为估计主动相机Cam-2参数(p'2,t'2,z'2),使得静态目标区域以高分辨率处于Cam-2图像I2的中心位置;
(p'2,t'2,z'2)的具体计算过程如下:
(1)利用基于特征点匹配的摄像机标定方法对两个可运动摄像机进行标定,即获得两个摄像机的主点坐标(u0,v0),以及焦距z随zoom参数的变化关系f(z);
(2)利用球面立体校正算法对两幅图像I1和I2进行立体校正,设校正后的图像分别为I1r和I2r,此时可获得图像I1和I1r,以及I2和I2r对应像素点之间的关系,即
其中,[x1,y1,1]T、[x2,y2,1]T为立体校正前图像I1和I2上的像素点;[x1r,y1r,1]T、[x2r,y2r,1]T为立体校正后图像I1r和I2r上的像素点;
(3)获取多组目标区域大小和zoom参数的对应关系,并以表格的形式存储;
(4)计算图像I1中静态目标区域的中心位置c1,并根据步骤(2)获得的I1和I1r像素之间的对应关系,获得c1在图像I1r中的对应位置c1r,即
(5)利用动态规划立体匹配算法计算校正后图像I1r和I2r的视差图,记d为I1r和I2r在点c1r的估计视差值,则可得到c1r在图像I2r中的对应点,即
c2r=c1r+[d,0]T
(6)根据步骤(2)获得的I2r和I2像素之间的对应关系,计算c2r在图像I2的对应位置c2,即
(7)设c2=[u,v],则利用步骤(1)获得的摄像机主点坐标(u0,v0),以及焦距z随zoom参数的变化关系f(z),可计算得到pan参数p'2和tilt参数t'2,即
(8)对于zoom参数z’2,其一般由静态目标区域的大小决定;本专利根据当前目标区域的大小,首先利用步骤(3)获得的表格,通过查表得到zoom参数的初值z0;然后引入视差可靠度rd∈[0,1],rd可由目标区域中各像素视差估计值的方差确定,即
其中,表示静态目标区域在坐标(i,j)处估计视差的方差,λ为将视差可靠度rd控制在0至1范围内的参数;上式表明,方差越小,表明视差估计的越准确,可靠度rd也将越大,最终的zoom参数z’2可通过初值z0和可靠度rd共同决定,即
z'2=z0(0.7+0.3rd)
也就是说,当视差估计准确度较低时,给定一个较小的zoom参数,以保证静态目标区域处于Cam-2图像I2的可见视场内,否则,给定一个较大的zoom参数。
本发明基于传统立体视觉理论的拓展,从计算机立体视觉的角度,深度定义为场景中某一空间点到两摄像机基线的距离。深度信息获取的方法主要有两种:一种是基于物理传感器的方法,例如超声测距、激光测距等,这些方法的测深精度较高,但其成本也相对较大,并且深度值不能和摄像机采集图像的每个像素对应;另一种是基于经典的立体视觉的方法,即结合摄像机成像原理和计算几何,找到同一目标对应像素在两幅图像中的相对位置关系,进而推断出目标的深度。在视觉监控以及其他视觉相关的应用中,一般还是选择基于经典的立体视觉的方法。
具体实施方式
以下对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
一种基于双目可运动摄像机的高分辨率图像获取方法,其包括以下步骤:将两个可运动摄像机表示为Cam-1和Cam-2,设两个可运动摄像机的当前参数为(p1,t1,z1)和(p2,t2,z2),其对应的观测图像分别为I1和I2,并假定Cam-1图像I1中确定的静态目标区域为估计主动相机Cam-2参数(p’2,t’2,z’2),使得静态目标区域以高分辨率处于Cam-2图像I2的中心位置;
(p'2,t'2,z'2)的具体计算过程如下:
(1)利用基于特征点匹配的摄像机标定方法对两个可运动摄像机进行标定,即获得两个摄像机的主点坐标(u0,v0),以及焦距z随zoom参数的变化关系f(z);
(2)利用球面立体校正算法对两幅图像I1和I2进行立体校正,设校正后的图像分别为I1r和I2r,此时可获得图像I1和I1r,以及I2和I2r对应像素点之间的关系,即
其中,[x1,y1,1]T、[x2,y2,1]T为立体校正前图像I1和I2上的像素点;[x1r,y1r,1]T、[x2r,y2r,1]T为立体校正后图像I1r和I2r上的像素点;
(3)获取多组目标区域大小和zoom参数的对应关系,并以表格的形式存储;
(4)计算图像I1中静态目标区域的中心位置c1,并根据步骤(2)获得的I1和I1r像素之间的对应关系,获得c1在图像I1r中的对应位置c1r,即
(5)利用动态规划立体匹配算法计算校正后图像I1r和I2r的视差图,记d为I1r和I2r在点c1r的估计视差值,则可得到c1r在图像I2r中的对应点,即
c2r=c1r+[d,0]T
(6)根据步骤(2)获得的I2r和I2像素之间的对应关系,计算c2r在图像I2的对应位置c2,即
(7)设c2=[u,v],则利用步骤(1)获得的摄像机主点坐标(u0,v0),以及焦距z随zoom参数的变化关系f(z),可计算得到pan参数p'2和tilt参数t'2,即
(8)对于zoom参数z’2,其一般由静态目标区域的大小决定;本专利根据当前目标区域的大小,首先利用步骤(3)获得的表格,通过查表得到zoom参数的初值z0;然后引入视差可靠度rd∈[0,1],rd可由目标区域中各像素视差估计值的方差确定,即
其中,表示静态目标区域在坐标(i,j)处估计视差的方差,λ为将视差可靠度rd控制在0至1范围内的参数;上式表明,方差越小,表明视差估计的越准确,可靠度rd也将越大,最终的zoom参数z’2可通过初值z0和可靠度rd共同决定,即
z'2=z0(0.7+0.3rd)
也就是说,当视差估计准确度较低时,给定一个较小的zoom参数,以保证静态目标区域处于Cam-2图像I2的可见视场内,否则,给定一个较大的zoom参数。
本发明基于传统立体视觉理论的拓展,从计算机立体视觉的角度,深度定义为场景中某一空间点到两摄像机基线的距离。深度信息获取的方法主要有两种:一种是基于物理传感器的方法,例如超声测距、激光测距等,这些方法的测深精度较高,但其成本也相对较大,并且深度值不能和摄像机采集图像的每个像素对应;另一种是基于经典的立体视觉的方法,即结合摄像机成像原理和计算几何,找到同一目标对应像素在两幅图像中的相对位置关系,进而推断出目标的深度。在视觉监控以及其他视觉相关的应用中,一般还是选择基于经典的立体视觉的方法。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于双目可运动摄像机的高分辨率图像获取方法,其特征在于,包括以下步骤:将两个可运动摄像机表示为Cam-1和Cam-2,设两个可运动摄像机的当前参数为(p1,t1,z1)和(p2,t2,z2),其对应的观测图像分别为I1和I2,并假定Cam-1图像I1中确定的静态目标区域为估计主动相机Cam-2参数(p'2,t'2,z'2),使得静态目标区域以高分辨率处于Cam-2图像I2的中心位置;
(p'2,t'2,z'2)的具体计算过程如下:
(1)利用基于特征点匹配的摄像机标定方法对两个可运动摄像机进行标定,即获得两个摄像机的主点坐标(u0,v0),以及焦距z随zoom参数的变化关系f(z);
(2)利用球面立体校正算法对两幅图像I1和I2进行立体校正,设校正后的图像分别为I1r和I2r,此时可获得图像I1和I1r,以及I2和I2r对应像素点之间的关系,即
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mrow> <mn>1</mn> <mi>r</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>y</mi> <mrow> <mn>1</mn> <mi>r</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>g</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>12</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>13</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>g</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>22</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>23</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>g</mi> <mn>31</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>32</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>33</mn> </msub> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>y</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mrow> <mn>2</mn> <mi>r</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>y</mi> <mrow> <mn>2</mn> <mi>r</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>h</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>12</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>13</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>h</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>22</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>23</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>h</mi> <mn>31</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>32</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>33</mn> </msub> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mn>2</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>y</mi> <mn>2</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,[x1,y1,1]T、[x2,y2,1]T为立体校正前图像I1和I2上的像素点;[x1r,y1r,1]T、[x2r,y2r,1]T为立体校正后图像I1r和I2r上的像素点;
(3)获取多组目标区域大小和zoom参数的对应关系,并以表格的形式存储;
(4)计算图像I1中静态目标区域的中心位置c1,并根据步骤(2)获得的I1和I1r像素之间的对应关系,获得c1在图像I1r中的对应位置c1r,即
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>c</mi> <mrow> <mn>1</mn> <mi>r</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>g</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>12</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>13</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>g</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>22</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>23</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>g</mi> <mn>31</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>32</mn> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mn>33</mn> </msub> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>c</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
(5)利用动态规划立体匹配算法计算校正后图像I1r和I2r的视差图,记d为I1r和I2r在点c1r的估计视差值,则可得到c1r在图像I2r中的对应点,即
c2r=c1r+[d,0]T
(6)根据步骤(2)获得的I2r和I2像素之间的对应关系,计算c2r在图像I2的对应位置c2,即
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>c</mi> <mn>2</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>h</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>12</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>13</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>h</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>22</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>23</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>h</mi> <mn>31</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>32</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>33</mn> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>c</mi> <mrow> <mn>2</mn> <mi>r</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
(7)设c2=[u,v],则利用步骤(1)获得的摄像机主点坐标(u0,v0),以及焦距z随zoom参数的变化关系f(z),可计算得到pan参数p'2和tilt参数t'2,即
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>&amp;Delta;</mi> <mi>p</mi> <mo>=</mo> <mi>a</mi> <mi>r</mi> <mi>c</mi> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mfrac> <mrow> <mo>|</mo> <mi>u</mi> <mo>-</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>|</mo> </mrow> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mtd> </mtr> <mtr> <mtd> <mi>&amp;Delta;</mi> <mi>t</mi> <mo>=</mo> <mi>a</mi> <mi>r</mi> <mi>c</mi> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mfrac> <mrow> <mo>|</mo> <mi>v</mi> <mo>-</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>|</mo> </mrow> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mtd> </mtr> </mtable> </mfenced>
(8)对于zoom参数z’2,其一般由静态目标区域的大小决定;本专利根据当前目标区域的大小,首先利用步骤(3)获得的表格,通过查表得到zoom参数的初值z0;然后引入视差可靠度rd∈[0,1],rd可由目标区域中各像素视差估计值的方差确定,即
其中,表示静态目标区域在坐标(i,j)处估计视差的方差,λ为将视差可靠度rd控制在0至1范围内的参数;上式表明,方差越小,表明视差估计的越准确,可靠度rd也将越大,最终的zoom参数z’2可通过初值z0和可靠度rd共同决定,即
z'2=z0(0.7+0.3rd)
也就是说,当视差估计准确度较低时,给定一个较小的zoom参数,以保证静态目标区域处于Cam-2图像I2的可见视场内,否则,给定一个较大的zoom参数。
CN201711402076.7A 2017-12-22 2017-12-22 一种基于双目可运动摄像机的高分辨率图像获取方法 Expired - Fee Related CN108010089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711402076.7A CN108010089B (zh) 2017-12-22 2017-12-22 一种基于双目可运动摄像机的高分辨率图像获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711402076.7A CN108010089B (zh) 2017-12-22 2017-12-22 一种基于双目可运动摄像机的高分辨率图像获取方法

Publications (2)

Publication Number Publication Date
CN108010089A true CN108010089A (zh) 2018-05-08
CN108010089B CN108010089B (zh) 2021-09-07

Family

ID=62060540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711402076.7A Expired - Fee Related CN108010089B (zh) 2017-12-22 2017-12-22 一种基于双目可运动摄像机的高分辨率图像获取方法

Country Status (1)

Country Link
CN (1) CN108010089B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991306A (zh) * 2019-11-27 2020-04-10 北京理工大学 自适应的宽视场高分辨率智能传感方法和***
CN114095644A (zh) * 2020-08-24 2022-02-25 武汉Tcl集团工业研究院有限公司 一种图像校正的方法和计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100220921A1 (en) * 2005-08-02 2010-09-02 Microsoft Corporation Stereo image segmentation
CN103024350A (zh) * 2012-11-13 2013-04-03 清华大学 一种双目ptz视觉***的主从跟踪方法及应用该方法的***
CN106600645A (zh) * 2016-11-24 2017-04-26 大连理工大学 一种摄像机空间立体标定快速提取方法
CN107103626A (zh) * 2017-02-17 2017-08-29 杭州电子科技大学 一种基于智能手机的场景重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100220921A1 (en) * 2005-08-02 2010-09-02 Microsoft Corporation Stereo image segmentation
CN103024350A (zh) * 2012-11-13 2013-04-03 清华大学 一种双目ptz视觉***的主从跟踪方法及应用该方法的***
CN106600645A (zh) * 2016-11-24 2017-04-26 大连理工大学 一种摄像机空间立体标定快速提取方法
CN107103626A (zh) * 2017-02-17 2017-08-29 杭州电子科技大学 一种基于智能手机的场景重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUA WANG ET AL.: "Moving Shadow Detection Based on Multi-feature Fusion", 《2016 8TH INTERNATIONAL CONFERENCE ON INTELLIGENT HUMAN-MACHINE SYSTEMS AND CYBERMETICS(IHMSC)》 *
崔智高 等.: "双目协同多分辨率主动跟踪方法", 《红外与激光工程》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991306A (zh) * 2019-11-27 2020-04-10 北京理工大学 自适应的宽视场高分辨率智能传感方法和***
CN110991306B (zh) * 2019-11-27 2024-03-08 北京理工大学 自适应的宽视场高分辨率智能传感方法和***
CN114095644A (zh) * 2020-08-24 2022-02-25 武汉Tcl集团工业研究院有限公司 一种图像校正的方法和计算机设备
CN114095644B (zh) * 2020-08-24 2023-08-04 武汉Tcl集团工业研究院有限公司 一种图像校正的方法和计算机设备

Also Published As

Publication number Publication date
CN108010089B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
US6570566B1 (en) Image processing apparatus, image processing method, and program providing medium
US20080080852A1 (en) Single lens auto focus system for stereo image generation and method thereof
US9007442B2 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
CN103839227B (zh) 鱼眼图像校正方法和装置
US20120327197A1 (en) 3d imaging device and 3d imaging method
US20110193941A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN104574425B (zh) 一种基于旋转模型的主从摄像机***的标定以及联动方法
US20100194902A1 (en) Method for high dynamic range imaging
US20080199070A1 (en) Three-dimensional image display apparatus and method for enhancing stereoscopic effect of image
JP2011090400A (ja) 画像表示装置および方法、並びにプログラム
JP2019510311A (ja) 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品
CN103595988A (zh) 立体图像显示装置、图像处理装置及图像处理方法
JPWO2012056686A1 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
US20100302234A1 (en) Method of establishing dof data of 3d image and system thereof
CN106170086B (zh) 绘制三维图像的方法及其装置、***
JP6393254B2 (ja) 立体視ディスプレイにおける調節効果による歪み誤差を補正する方法および装置
CN103945207B (zh) 一种基于视点合成的立体图像垂直视差消除方法
US20120320048A1 (en) 3d imaging device and 3d imaging method
KR20150121127A (ko) 양안 응시 이미징 방법 및 장치
US20120327191A1 (en) 3d imaging device and 3d imaging method
CN103238337A (zh) 立体图像获取***及方法
CN111061373A (zh) 一种眼球追踪校准方法、装置及可佩戴式设备
CN110675436A (zh) 基于3d特征点的激光雷达与立体视觉配准方法
JP4865065B1 (ja) ステレオ撮像装置の制御システム
CN108010089A (zh) 一种基于双目可运动摄像机的高分辨率图像获取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210907

CF01 Termination of patent right due to non-payment of annual fee