CN109151334A - 一种无人车相机*** - Google Patents

一种无人车相机*** Download PDF

Info

Publication number
CN109151334A
CN109151334A CN201811107368.2A CN201811107368A CN109151334A CN 109151334 A CN109151334 A CN 109151334A CN 201811107368 A CN201811107368 A CN 201811107368A CN 109151334 A CN109151334 A CN 109151334A
Authority
CN
China
Prior art keywords
camera
unmanned vehicle
holder
camera array
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811107368.2A
Other languages
English (en)
Other versions
CN109151334B (zh
Inventor
方维
金尚忠
严永强
李雅兰
张益溢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN201811107368.2A priority Critical patent/CN109151334B/zh
Publication of CN109151334A publication Critical patent/CN109151334A/zh
Application granted granted Critical
Publication of CN109151334B publication Critical patent/CN109151334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种无人车相机***,***包括:单目相机、相机阵列、云台、数据处理***和无人车。云台安装在无人车上两侧和中间三个位置,用于调节对应相机的拍摄方向和提高相机稳定性;在两侧云台安装单目相机形成了宽基线相机阵列,在中间云台上安装相机阵列用于获取无人车周围环境以及跟踪目标的图像信息;数据处理***安装在无人车内部,其与单目相机、相机阵列和云台连接,用于控制云台和获取相机所捕获图像信息,然后处理图像信息;该***具有短基线相机阵列和宽基线相机阵列的组合将产生多个视差和深度图,可以获得无人车周围环境精确的深度信息;短基线相机阵列的加入实现用于跟踪被遮挡物体的合成孔径成像,即实现了去遮挡,同时有助于获得了高分辨率和高动态融合的图像。

Description

一种无人车相机***
技术领域
本发明涉及一种无人车相机***。
背景技术
无人车为了实现其无人驾驶的目的,环境感知能力是关键。相机是环境感知一种重要手段。传统固定相机在无人车跟踪过程中视野受限,并且通常采用一个单目相机难以获得环境的深度信息。传统相机***中无人车在跟踪过程中,当目标的遮挡和相机运动会给跟踪过程带来很大问题。
发明内容
本发明要解决的技术问题:提供一种无人车相机***,该***具有短基线相机阵列和宽基线相机阵列的组合将产生多个视差和深度图,可以获得无人车周围环境精确的深度信息。短基线相机阵列的加入实现用于跟踪被遮挡物体的合成孔径成像,即实现了去遮挡,同时将有助于捕获高分辨率图像,并且具有多重曝光模式有助于获得高动态融合图像。
本发明的技术方案:一种无人车相机***,其特征在于,包括:两个单目相机(01)、相机阵列(02)、无人车(03)、3个云台(04)和数据处理***(05),所述云台(04)安装在无人车(03)上两侧和中间三个位置,用于调节对应相机的拍摄方向;两个单目相机(01)分别安装在无人车(03)两侧的云台(04)上,用于获取无人车周围环境的图像信息;相机阵列(02)安装在无人车(03)中间的云台(04)上,用于获取无人车周围环境以及跟踪目标的图像信息;数据处理***(05)安装在无人车内部,其与单目相机(01)和相机阵列(02)以及云台(04)连接,用于控制云台,以及获取相机所捕获图像信息数据以及处理图像信息;
所述的相机云台(04)是一种三轴动态自稳云台。该云台不仅可以根据数据处理***(05)传来的数据进行控制,还可以根据无人车运动情况进行实时补偿,有很好稳定性;
所述相机阵列(02)是由m行n列共mxn个相机组成的窄基线相机阵列,m或n=3-5。该阵列有助于捕获高分辨率图像,并且还可以通过数据处理***(05)设置相机阵列(02)中相机按时间顺序交替曝光,实现多重曝光模式的相机阵列获得高动态融合图像;
所述实现跟踪被遮挡物体的合成孔径成像,其特征在于,相机阵列结合了一种去遮挡高分辨率成像算法(1)具体如下:
对于目标前只有一个遮挡物。每个相机捕获的每个图像可以被认为是背景层b和遮挡层o的叠加,表示如下:
yi=Ki·oi+(1-Ki)·bi (1)
其中i∈{1,2,...,m×n}表示相机阵列(02)中相机的标号;K是掩模,出现遮挡物像素时K等于1,否则为0;这里‘·’表示逐元素乘法,1表示全一矢量。虽然上述模型只有一个遮挡层,但可以扩展到多个遮挡层。
用xb表示想要得到的高分辨率背景矢量。xb与捕获的低分辨率背景矢量bi具有以下关系:
bi=Mixb (2)
其中
Mi=DRWb,i (3)
在式中,Wb,i表示对于相机阵列(02)中i相机的背景变形矩阵;D和R分别表示抽取和模糊算子。通过将(2)代入(1)式中,并且由于Ki·yi=Ki·oi,可以得到:
(1-Ki)·yi+Ki·Mixb=bi (4)
通过将相机阵列(02)中相机i∈{1,2,...,m×n}对应Ki,yi,Mi和bi整合成K,y,M和b,可以把上式写成:
(1-K)·y+K·Mxb=b (5)
K,xb,b可以用以下算法(1)计算:
初始化K0
第一步:
第二步:
第三步:
重复步骤1,2,3直到K,xb,b的值收敛。
在算法(1)中,Kt,xb和bt是迭代t时K,xb,b的估计。是一个超分辨率算子,它采用一系列低分辨率图像生成高分辨率估计。这里采用带有Huber优先级的LR反卷积方法来实现是一种“种子生长方法”。因为不同相机可能会捕捉到遮挡物体的不同侧面,所以它们值一个接一个计算;
所述超分辨率算子的具体实现如下:
这种方法可以模糊场景中的遮挡,并保持背景识别,是合成孔径方法的超分辨率版本。这是因为M中定义的不匹配的单应性保护了背景,而其他方法可能会破坏背景。然而LR反卷积的直接应用会引入高频噪声,因此在迭代的过程中加入Huber previous先验,huber函数定义如下:
其中α是自由参数。我们将它用作迭代过程的先验函数,如下所示:
其中z是归一化常数,v是先验强度,通常根据经验选择,dc测量图像在参数集合c在定义方向和位置上图像的梯度,如下所示:
dm,n,1x=xm,n-1-2xm,n+xm,n+1 (9)
dm,n,2x=0.5xm+1,n-1-xm,n+0.5xm-1,n+1 (10)
dm,n,3x=xm-1,n-2xm,n+xm+1,n (11)
dm,n,4x=0.5xm-1,n-1-xm,n+0.5xm+1,n+1 (12)
Huber先验可以和LR反卷积组合成如下表达式:
这样算法(1)可以写成如下形式:
初始化K0
第一步:
第二步:
重复步骤1,2,直到K,xb,b的值收敛;
所述“种子生长方法”的具体实现如下:
首先使用SIFT来检测场景中的特征点;然后使用RANSAC算法根据特征点估计单应性。我们将其表示为Hb,.假设背景特征点多于遮挡特征点。估计的Hb应该适合背景但不适合遮挡。然后排除那些适合Hb的点,并再次进行RANSAC以找到单应性Ho。其余的,适合Ho的特征点属于遮挡。因此可以分离背景和遮挡的特征点。
这里将遮挡的特征点视为寻找掩模的“种子”。对于每个种子,我们最初设置一个以它为中心的小窗口。然后每个窗口的四个边界将迭代地增长并停止,直到它到达遮挡边界。然后将所有窗口合并在一起以形成遮罩。更具体地,窗口基于概率函数生长如下:
其中lq,i指的是由阵列相机中相机i拍摄图像中窗口的第q个边界的像素;指的是根据关于相机i位置的单应性从估计的背景转换的图像相同位置的像素。length(lq,i)的功能是给出了lq,i中像素的数量,只是lq,i之间差异的l1范数。THt表示阈值,它是使用K-Neareat Neighbors方法与背景上特征位置来估计与yi之间遮挡边缘差异决定的。是根据估计背景和观察图像之间的差异,窗口边界已经超出估计的遮挡区域的可能性。生长速率与概率成反比,具体如下:
其中Sq表示窗口第y个边界的增长步长,而Smax是我们允许的最大增长。因此,在每次迭代中,窗口的第y个边框将在其法线方向上向外移动Sq像素。两个相邻边框的长度也将相应调整。当所有窗口停止生长时,它们被组合在一起形成掩模。对于具有矩形形状的物体,掩模可以非常好地适合遮挡。对于具有不规则形状的物体,这种方法仍然可以获得遮挡物体的掩模。
与现有技术相比,本发明的优点在于:
1、本发明具有短基线相机阵列和宽基线相机阵列的组合将产生多个视差和深度图,可以获得无人车周围环境精确的深度信息。
2、本发明中相机阵列加入实现用于跟踪被遮挡物体的合成孔径成像,即实现了去遮挡。
3、本发明中相机阵列加入有助于捕获高分辨率图像,并且具有多重曝光模式有助于获得高动态融合图像。
4、本发明采用三轴动态自稳云台。该云台不仅可以根据数据处理***(05)传来的数据进行控制,还可以根据无人车运动情况进行实时补偿,有很好稳定性;
附图说明:
图1是本发明的结构示意图;
图中:01、单目相机,02、相机阵列,03、无人车,04、云台,05数据处理***。
具体实施方式:
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
参考图1,一种无人车相机***,其特征在于,包括:两个单目相机(01)、相机阵列(02)、无人车(03)、3个云台(04)和数据处理***(05),所述云台(04)安装在无人车(03)上两侧和中间三个位置,用于调节对应相机的拍摄方向;两个单目相机(01)分别安装在无人车(03)两侧的云台(04)上,用于获取无人车周围环境的图像信息;相机阵列(02)安装在无人车(03)中间的云台(04)上,用于获取无人车周围环境以及跟踪目标的图像信息;数据处理***(05)安装在无人车内部,其与单目相机(01)和相机阵列(02)以及云台(04)连接,用于控制云台,以及获取相机所捕获图像信息数据以及处理图像信息;
所述的相机云台(04)是一种三轴动态自稳云台。该云台不仅可以根据数据处理***(05)传来的数据进行控制,还可以根据无人车运动情况进行实时补偿,有很好稳定性;
所述相机阵列(02)是由m行n列共mxn个相机组成的窄基线相机阵列,m或n=3-5。该阵列有助于捕获高分辨率图像,并且还可以通过数据处理***(05)设置相机阵列(02)中相机按时间顺序交替曝光,实现多重曝光模式的相机阵列获得高动态融合图像;
所述实现跟踪被遮挡物体的合成孔径成像,其特征在于,相机阵列结合了一种去遮挡高分辨率成像算法(1)具体如下:
对于目标前只有一个遮挡物。每个相机捕获的每个图像可以被认为是背景层b和遮挡层o的叠加,表示如下:
yi=Ki·oi+(1-Ki)·bi (1)
其中i∈{1,2,...,m×n}表示相机阵列(02)中相机的标号;K是掩模,出现遮挡物像素时K等于1,否则为0;这里‘·’表示逐元素乘法,1表示全一矢量。虽然上述模型只有一个遮挡层,但可以扩展到多个遮挡层。
用xb表示想要得到的高分辨率背景矢量。xb与捕获的低分辨率背景矢量bi具有以下关系:
bi=Mixb (2)
其中
Mi=DRWb,i (3)
在式中,Wb,i表示对于相机阵列(02)中i相机的背景变形矩阵;D和R分别表示抽取和模糊算子。通过将(2)代入(1)式中,并且由于Ki·yi=Ki·oi,可以得到:
(1-Ki)·yi+Ki·Mixb=bi (4)
通过将相机阵列(02)中相机i∈{1,2,...,m×n}对应Ki,yi,Mi和bi整合成K,y,M和b,可以把上式写成:
(1-K)·y+K·Mxb=b (5)
K,xb,b可以用以下算法(1)计算:
初始化K0
第一步:
第二步:
第三步:
重复步骤1,2,3直到K,xb,b的值收敛。
在算法(1)中,Kt,xb和bt是迭代t时K,xb,b的估计。是一个超分辨率算子,它采用一系列低分辨率图像生成高分辨率估计。这里采用带有Huber优先级的LR反卷积方法来实现是一种“种子生长方法”。因为不同相机可能会捕捉到遮挡物体的不同侧面,所以它们值一个接一个计算;
所述超分辨率算子的具体实现如下:
这种方法可以模糊场景中的遮挡,并保持背景识别,是合成孔径方法的超分辨率版本。这是因为M中定义的不匹配的单应性保护了背景,而其他方法可能会破坏背景。然而LR反卷积的直接应用会引入高频噪声,因此在迭代的过程中加入Huber previous先验,huber函数定义如下:
其中α是自由参数。我们将它用作迭代过程的先验函数,如下所示:
其中z是归一化常数,v是先验强度,通常根据经验选择,dc测量图像在参数集合c在定义方向和位置上图像的梯度,如下所示:
dm,n,1x=xm,n-1-2xm,n+xm,n+1 (9)
dm,n,2x=0.5xm+1,n-1-xm,n+0.5xm-1,n+1 (10)
dm,n,3x=xm-1,n-2xm,n+xm+1,n (11)
dm,n,4x=0.5xm-1,n-1-xm,n+0.5xm+1,n+1 (12)
Huber先验可以和LR反卷积组合成如下表达式:
这样算法(1)可以写成如下形式:
初始化K0
第一步:
第二步:
重复步骤1,2,直到K,xb,b的值收敛;
所述“种子生长方法”的具体实现如下:
首先使用SIFT来检测场景中的特征点;然后使用RANSAC算法根据特征点估计单应性。我们将其表示为Hb,.假设背景特征点多于遮挡特征点。估计的Hb应该适合背景但不适合遮挡。然后排除那些适合Hb的点,并再次进行RANSAC以找到单应性Ho。其余的,适合Ho的特征点属于遮挡。因此可以分离背景和遮挡的特征点。
这里将遮挡的特征点视为寻找掩模的“种子”。对于每个种子,我们最初设置一个以它为中心的小窗口。然后每个窗口的四个边界将迭代地增长并停止,直到它到达遮挡边界。然后将所有窗口合并在一起以形成遮罩。更具体地,窗口基于概率函数生长如下:
其中lq,i指的是由阵列相机中相机i拍摄图像中窗口的第q个边界的像素;指的是根据关于相机i位置的单应性从估计的背景转换的图像相同位置的像素。length(lq,i)的功能是给出了lq,i中像素的数量,只是lq,i之间差异的l1范数。THt表示阈值,它是使用K-Neareat Neighbors方法与背景上特征位置来估计与yi之间遮挡边缘差异决定的。是根据估计背景和观察图像之间的差异,窗口边界已经超出估计的遮挡区域的可能性。生长速率与概率成反比,具体如下:
其中Sq表示窗口第y个边界的增长步长,而Smax是我们允许的最大增长。因此,在每次迭代中,窗口的第y个边框将在其法线方向上向外移动Sq像素。两个相邻边框的长度也将相应调整。当所有窗口停止生长时,它们被组合在一起形成掩模。对于具有矩形形状的物体,掩模可以非常好地适合遮挡。对于具有不规则形状的物体,这种方法仍然可以获得遮挡物体的掩模。

Claims (8)

1.一种无人车相机***,其特征在于,包括:两个单目相机(01)、相机阵列(02)、无人车(03)、3个云台(04)和数据处理***(05),所述云台(04)安装在无人车(03)上两侧和中间三个位置,用于调节对应相机的拍摄方向;两个单目相机(01)分别安装在无人车(03)两侧的云台(04)上,用于获取无人车周围环境的图像信息;相机阵列(02)安装在无人车(03)中间的云台(04)上,用于获取无人车周围环境以及跟踪目标的图像信息;数据处理***(05)安装在无人车内部,其与单目相机(01)和相机阵列(02)以及云台(04)连接,用于控制云台,以及获取相机所捕获图像信息数据以及处理图像信息。
2.根据权利要求1所述的无人车相机***,其特征在于:所述的相机云台(04)是一种三轴动态自稳云台。该云台不仅可以根据数据处理***(05)传来的数据进行控制,还可以根据无人车运动情况进行实时补偿,有很好稳定性。
3.根据权利要求1所述的无人车相机***,其特征在于:所述安装在无人车(03)两侧云台(04)上的单目相机(01)组成宽基线双目相机阵列。所安装在无人车(03)中间云台(04)上的相机阵列(02)是窄基线的相机阵列。窄基线和宽基线相机阵列的组合将产生多个视差和深度图,可以获得无人车周围环境准确的深度信息。
4.根据权利要求1所述的无人车相机***,其特征在于:所述相机阵列(02)是由m行n列共mxn个相机组成的窄基线相机阵列,m或n=3-5。该阵列有助于捕获高分辨率图像,并且还可以通过数据处理***(05)设置相机阵列(02)中相机按时间顺序交替曝光,实现多重曝光模式的相机阵列获得高动态融合图像。
5.根据权利要求1所述的无人车相机***,其特征在于:相机阵列(02)是一种窄基线相机阵列可以实现跟踪被遮挡物体的合成孔径成像。
6.根据权利要求5所述实现跟踪被遮挡物体的合成孔径成像,其特征在于,相机阵列结合了一种去遮挡高分辨率成像算法(1),具体如下:
对于目标前只有一个遮挡物。每个相机捕获的每个图像可以被认为是背景层b和遮挡层o的叠加,表示如下:
yi=Ki·oi+(1-Ki)·bi (1)
其中i∈{1,2,...,m×n}表示相机阵列(02)中相机的标号;K是掩模,出现遮挡物像素时K等于1,否则为0;这里‘·’表示逐元素乘法,1表示全一矢量。虽然上述模型只有一个遮挡层,但可以扩展到多个遮挡层。
用xb表示想要得到的高分辨率背景矢量。xb与捕获的低分辨率背景矢量bi具有以下关系:
bi=Mixb (2)
其中
Mi=DRWb,i (3)
在式中,Wb,i表示对于相机阵列(02)中i相机的背景变形矩阵;D和R分别表示抽取和模糊算子。通过将(2)代入(1)式中,并且由于Ki·yi=Ki·oi,可以得到:
(1-Ki)·yi+Ki·Mixb=bi (4)
通过将相机阵列(02)中相机i∈{1,2,...,m×n}对应Ki,yi,Mi和bi整合成K,y,M和b,可以把上式写成:
(1-K)·y+K·Mxb=b (5)
K,xb,b可以用以下算法(1)计算:
初始化K0
第一步:
第二步:
第三步:
重复步骤1,2,3直到K,xb,b的值收敛。
在算法(1)中,Kt,xb和bt是迭代t时K,xb,b的估计。是一个超分辨率算子,它采用一系列低分辨率图像生成高分辨率估计。这里采用带有Huber优先级的LR反卷积方法来实现 是一种“种子生长方法”。因为不同相机可能会捕捉到遮挡物体的不同侧面,所以它们值一个接一个计算。
7.根据权利要求6所述一种去遮挡高分辨率成像算法(1),其特征在于,所述超分辨率算子的具体实现如下:
这种方法可以模糊场景中的遮挡,并保持背景识别,是合成孔径方法的超分辨率版本。这是因为M中定义的不匹配的单应性保护了背景,而其他方法可能会破坏背景。然而LR反卷积的直接应用会引入高频噪声,因此在迭代的过程中加入Huber previous先验,huber函数定义如下:
其中α是自由参数。我们将它用作迭代过程的先验函数,如下所示:
其中z是归一化常数,v是先验强度,通常根据经验选择,dc测量图像在参数集合c在定义方向和位置上图像的梯度,如下所示:
dm,n,1x=xm,n-1-2xm,n+xm,n+1 (9)
dm,n,2x=0.5xm+1,n-1-xm,n+0.5xm-1,n+1 (10)
dm,n,3x=xm-1,n-2xm,n+xm+1,n (11)
dm,n,4x=0.5xm-1,n-1-xm,n+0.5xm+1,n+1 (12)
Huber先验可以和LR反卷积组合成如下表达式:
这样算法(1)可以写成如下形式:
初始化K0
第一步:
第二步:
重复步骤1,2,直到K,xb,b的值收敛。
8.根据权利要求6所述一种去遮挡高分辨率成像算法(1),其特征在于,所述“种子生长方法”的具体实现如下的具体实现如下:
首先使用SIFT来检测场景中的特征点;然后使用RANSAC算法根据特征点估计单应性。我们将其表示为Hb,.假设背景特征点多于遮挡特征点。估计的Hb应该适合背景但不适合遮挡。然后排除那些适合Hb的点,并再次进行RANSAC以找到单应性Ho。其余的,适合Ho的特征点属于遮挡。因此可以分离背景和遮挡的特征点。
这里将遮挡的特征点视为寻找掩模的“种子”。对于每个种子,我们最初设置一个以它为中心的小窗口。然后每个窗口的四个边界将迭代地增长并停止,直到它到达遮挡边界。然后将所有窗口合并在一起以形成遮罩。更具体地,窗口基于概率函数生长如下:
其中lq,i指的是由阵列相机中相机i拍摄图像中窗口的第q个边界的像素;指的是根据关于相机i位置的单应性从估计的背景转换的图像相同位置的像素。length(lq,i)的功能是给出了lqi中像素的数量,只是lq,i之间差异的l1范数。THt表示阈值,它是使用K-Neareat Neighbors方法与背景上特征位置来估计与yi之间遮挡边缘差异决定的。是根据估计背景和观察图像之间的差异,窗口边界已经超出估计的遮挡区域的可能性。生长速率与概率成反比,具体如下:
其中Sq表示窗口第y个边界的增长步长,而Smax是我们允许的最大增长。因此,在每次迭代中,窗口的第y个边框将在其法线方向上向外移动Sq像素。两个相邻边框的长度也将相应调整。当所有窗口停止生长时,它们被组合在一起形成掩模。对于具有矩形形状的物体,掩模可以非常好地适合遮挡。对于具有不规则形状的物体,这种方法仍然可以获得遮挡物体的掩模。
CN201811107368.2A 2018-09-21 2018-09-21 一种无人车相机*** Active CN109151334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811107368.2A CN109151334B (zh) 2018-09-21 2018-09-21 一种无人车相机***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811107368.2A CN109151334B (zh) 2018-09-21 2018-09-21 一种无人车相机***

Publications (2)

Publication Number Publication Date
CN109151334A true CN109151334A (zh) 2019-01-04
CN109151334B CN109151334B (zh) 2020-12-22

Family

ID=64823050

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811107368.2A Active CN109151334B (zh) 2018-09-21 2018-09-21 一种无人车相机***

Country Status (1)

Country Link
CN (1) CN109151334B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111300426A (zh) * 2020-03-19 2020-06-19 深圳国信泰富科技有限公司 一种高智能人型机器人感测头的控制***
CN111427383A (zh) * 2020-03-18 2020-07-17 青岛联合创智科技有限公司 一种双目云台可变基线的控制方法
CN111970424A (zh) * 2020-08-25 2020-11-20 武汉工程大学 基于微透镜阵列合成孔径的光场相机去遮挡***和方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589A (zh) * 2012-08-21 2015-05-27 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的***和方法
CN106132783A (zh) * 2014-04-08 2016-11-16 Tk控股公司 用于夜视对象检测和驾驶员辅助的***和方法
CN106650708A (zh) * 2017-01-19 2017-05-10 南京航空航天大学 一种自动驾驶障碍物视觉检测方法与***
CN106960414A (zh) * 2016-12-12 2017-07-18 天津大学 一种多视角ldr图像生成高分辨率hdr图像的方法
CN107483911A (zh) * 2017-08-25 2017-12-15 秦山 一种基于多目图像传感器的信号处理方法及***
CN107959805A (zh) * 2017-12-04 2018-04-24 深圳市未来媒体技术研究院 基于混合相机阵列的光场视频成像***及视频处理方法
CN108307675A (zh) * 2015-04-19 2018-07-20 快图凯曼有限公司 用于vr/ar应用中的深度增强的多基线相机阵列***架构
CN108332716A (zh) * 2018-02-07 2018-07-27 徐州艾特卡电子科技有限公司 一种自动驾驶汽车环境感知***
CN108427961A (zh) * 2018-02-11 2018-08-21 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589A (zh) * 2012-08-21 2015-05-27 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的***和方法
CN106132783A (zh) * 2014-04-08 2016-11-16 Tk控股公司 用于夜视对象检测和驾驶员辅助的***和方法
CN108307675A (zh) * 2015-04-19 2018-07-20 快图凯曼有限公司 用于vr/ar应用中的深度增强的多基线相机阵列***架构
CN106960414A (zh) * 2016-12-12 2017-07-18 天津大学 一种多视角ldr图像生成高分辨率hdr图像的方法
CN106650708A (zh) * 2017-01-19 2017-05-10 南京航空航天大学 一种自动驾驶障碍物视觉检测方法与***
CN107483911A (zh) * 2017-08-25 2017-12-15 秦山 一种基于多目图像传感器的信号处理方法及***
CN107959805A (zh) * 2017-12-04 2018-04-24 深圳市未来媒体技术研究院 基于混合相机阵列的光场视频成像***及视频处理方法
CN108332716A (zh) * 2018-02-07 2018-07-27 徐州艾特卡电子科技有限公司 一种自动驾驶汽车环境感知***
CN108427961A (zh) * 2018-02-11 2018-08-21 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111427383A (zh) * 2020-03-18 2020-07-17 青岛联合创智科技有限公司 一种双目云台可变基线的控制方法
CN111427383B (zh) * 2020-03-18 2023-04-25 青岛联合创智科技有限公司 一种双目云台可变基线的控制方法
CN111300426A (zh) * 2020-03-19 2020-06-19 深圳国信泰富科技有限公司 一种高智能人型机器人感测头的控制***
CN111300426B (zh) * 2020-03-19 2022-05-31 深圳国信泰富科技有限公司 一种高智能人型机器人感测头的控制***
CN111970424A (zh) * 2020-08-25 2020-11-20 武汉工程大学 基于微透镜阵列合成孔径的光场相机去遮挡***和方法

Also Published As

Publication number Publication date
CN109151334B (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN109151439B (zh) 一种基于视觉的自动追踪拍摄***及方法
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US8432434B2 (en) Camera and method for focus based depth reconstruction of dynamic scenes
Pan et al. Single image optical flow estimation with an event camera
KR102003015B1 (ko) 광류를 사용한 중간 뷰의 생성
CN101616310B (zh) 可变视角及分辨率的双目视觉***目标图像稳定化方法
Li et al. A hybrid camera for motion deblurring and depth map super-resolution
CN110363116B (zh) 基于gld-gan的不规则人脸矫正方法、***及介质
CN109151334A (zh) 一种无人车相机***
CN106165395A (zh) 图像处理装置、图像处理方法及图像处理程序
US20140002618A1 (en) Image processing device and image processing method having function for reconstructing multi-aspect images, and recording medium
KR20110023472A (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
CN108830925B (zh) 一种基于球幕视频流的三维数字化建模方法
CN111105347B (zh) 一种生成带深度信息的全景图的方法、装置及存储介质
CN111614965B (zh) 基于图像网格光流滤波的无人机视频稳像方法及***
CN110771140A (zh) 云台***及其图像处理方法、无人机
Wang et al. Video stabilization: A comprehensive survey
CN113436130B (zh) 一种非结构光场智能感知***与装置
JP6513941B2 (ja) 画像処理方法、画像処理装置及びプログラム
Weibel et al. Contrast-enhancing seam detection and blending using graph cuts
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
CN108399629A (zh) 一种人工复眼相机的图像阵列光流估计方法
Bareja et al. An improved iterative back projection based single image super resolution approach
Faramarzi et al. Space-time super-resolution from multiple-videos
CN113763432A (zh) 基于图像清晰度与跟踪稳定性条件的目标检测跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant