CN101778303A - 基于全局特性差异的ccd阵列视频定位方法及*** - Google Patents

基于全局特性差异的ccd阵列视频定位方法及*** Download PDF

Info

Publication number
CN101778303A
CN101778303A CN201010102354A CN201010102354A CN101778303A CN 101778303 A CN101778303 A CN 101778303A CN 201010102354 A CN201010102354 A CN 201010102354A CN 201010102354 A CN201010102354 A CN 201010102354A CN 101778303 A CN101778303 A CN 101778303A
Authority
CN
China
Prior art keywords
target
ccd
array
global property
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201010102354A
Other languages
English (en)
Inventor
顾宏斌
吴东苏
周来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201010102354A priority Critical patent/CN101778303A/zh
Publication of CN101778303A publication Critical patent/CN101778303A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公布了一种基于全局特性差异的CCD阵列视频定位方法及***,以固定间距安装在平面板上的CCD阵列。每个CCD输出的模拟信号通过视频信号放大与滤波模块进行模拟信号的放大和去噪,再被送入视频信号模数转换模块转化为YUV格式的数字信号,然后FPGA处理模块对阵列中每个面阵CCD的YUV数字信号中Y、U、V分量按像素分别相加得到各自的整体特征向量,再对整个阵列的全局特性向量求平均值,对比每个CCD的全局特性向量和阵列平均全局特性向量就能判断目标是否出现在各CCD的视频图像中。最后通过拍摄到目标的这些CCD的序号就可以计算出目标出现在哪个菱形视场区域,从而对目标进行快速定位。

Description

基于全局特性差异的CCD阵列视频定位方法及***
技术领域
本发明涉及一种视频定位技术,特别是一种使用CCD阵列快速确定和跟踪目标位置的方法,可用于多种需要快速三维测量定位的场合,还可以用于警戒性探测,检测是否有目标接近CCD阵列。
背景技术
视频定位是一种非接触式目标定位方法,相对于传统的电磁式和超声式定位设备,视频定位设备构造简单、不易受外界干扰,在虚拟现实***、自动化生产线和机器人导航等领域具有广泛的应用。视频定位目前主要采用的有基于单摄像机,基于双摄像机和基于多摄像机***的三维信息获取方法和装置。现有方法都基于传统的视觉几何计算,离不开立体匹配技术,立体匹配技术在理论上是完美的,但在实际应用中因为无法快速准确的找到匹配点,使以上三维信息获取方法的鲁棒性不高,而且运算量大。
基于阵列摄像机的深度图实时获取方法(申请号:200910098790.0)由一个3D摄像机提供的低分辨率深度图来得到若干个可见光摄像机视点上的高分辨率深度图。虽然也采用阵列摄像机,但是只获取深度信息,无法得到完整的三维信息,完成目标的定位功能。
基于摄像机阵列的三维实时获取***(申请号:200810062878.2)由多个高分辨率摄像机和一个较低空间分辨率TOF摄像机组成阵列,首先利用TOF摄像机获取空间分辨率较低的场景三维信息初始值,通过摄像机标定建立TOF摄像机与各台高分辨率摄像机位置关系的严格对应性,将深度信息映射优化,最终通过配准获得三维信息。该***需要对TOF摄像机和各台高分辨率摄像机在所覆盖的共同空间上达到严格的对应关系,一旦配准信息稍有误差,所计算出的三维信息将出现较大的误差。
发明内容
本发明的目的是克服现有目标定位技术的不足,提供一种利用CCD阵列对目标进行视频定位的技术和***,它利用CCD阵列中各个彩色面阵CCD拍摄到图像全局特性的差异,并利用阵列对视区空间的分割特性定位,具有计算简便、实时性高、定位范围大、目标接近阵列时特别灵敏等特点。特别适用于需要在较大范围内对目标进行快速粗略定位的场合。如虚拟现实***中对体验者的头、手、手指等进行快速定位,提高交互体验的真实性。本发明具有目标越接近阵列,定位方法的目标检测越灵敏的特点。因此还可以用于警戒性探测,检测是否有目标接近CCD阵列,并获知接近程度。
本发明为实现上述目的,采用如下技术方案:
本发明基于全局特性差异的CCD阵列视频定位方法,其特征在于包括如下步骤:
1)以固定间距将n×m台摄像机安装在平面板上构成彩色面阵CCD阵列,其中n为每行的摄像机数,m为每列的摄像机数,每个摄像机的焦距和视场角相同,将整个视场分割成形状和坐标平面内投影面积相同的菱形视场区域;
2)彩色面阵CCD阵列采集的模拟视频信号经过视频信号放大与滤波模块放大去噪后,被送入视频信号模数转换模块转换为YUV格式的数字视频信号;
3)每个面阵CCD对应的YUV数字视频信号被送入FPGA处理模块,按像素将Y、U、V分量分别累加,得到第i个CCD的全局特性向量Wi
4)对整个阵列的全局特性向量再求取平均值Waver,分别与第i个CCD的全局特性向量Wi求广义距离|Wi-Waver|:如果|Wi-Waver|≥δ,则认为目标出现在相应的摄像机图像中;
5)通过拍摄到目标的这些CCD的序号就可以确定目标在视场的哪一个菱形区域,设定目标位置的估计值为菱形的中心,即可对目标进行快速定位。
本发明有益的效果是:无需任何的接收装置,对定位目标无须任何改装,如果用来定位头、手、手指等没有任何的束缚感。利用CCD图像的全局特性信息来快速判断目标是否出现在图像中,无需复杂的计算机视觉计算,就可确定目标的三维位置信息。完全的硬件实现,便于扩展,计算简便,实时性高。视场不受约束,可以通过增加CCD的数量来扩大用于目标定位的区域。根据具体应用的要求,还可以灵活地改变目标定位的精度。如需提高定位精度,只需改变CCD的焦距或安装的间距,减小菱形视场区域的大小。目标越接近阵列,广义距离|Wi-Waver|越大,本发明的检测灵敏度随目标接近阵列而增强。
附图说明
图1为基于全局特性差异的摄像机阵列视频定位***的***构成图。
图1标号名称:1-待定位的目标;
2-目标在XY平面内的投影;
3-目标在YZ平面内的投影;
4-CCD器件;
5-CCD器件的视场边界线;
6-CCD阵列输出的模拟视频信号;
7-经滤波放大后的模拟视频信号;
8-YUV格式的数字视频信号;
图2为摄像机阵列视频定位***视场分割的二维工作原理图。
图3为基于全局特性差异的摄像机阵列视频定位的实施流程框图。
图4为基于全局特性差异的摄像机阵列视频定位的硬件结构图。
具体实施方式
下面结合附图对发明的技术方案进行详细说明:
本发明以固定间距安装在平面板上的CCD阵列,每个彩色面阵CCD的焦距和视场角相同,可以将整个视场分割成形状和坐标平面内投影面积相同的菱形视场区域。每个CCD输出的模拟信号通过视频信号放大与滤波模块进行模拟信号的放大和去噪,再被送入视频信号模数转换模块转化为YUV格式的数字信号,然后FPGA处理模块对阵列中每个面阵CCD的YUV数字信号中Y、U、V分量按像素分别相加得到各自的整体特征向量,再对整个阵列的全局特性向量求平均值,对比每个CCD的全局特性向量和阵列平均全局特性向量就能判断目标是否出现在各CCD的视频图像中。最后通过拍摄到目标的这些CCD的序号就可以计算出目标出现在哪个菱形视场区域,从而对目标进行快速定位。
如图1在ZX平面内布置n×m个面阵CCD,利用单CCD的重合视区或独有视区的空间分布特点,可以设计空间区域的分割。当目标所在位置不同时,目标将会出现在不同的空间区域中,被CCD阵列中不同的CCD器件所捕捉。如图2所示以在X、Y平面内定位为例叙述本发明的定位原理。A-F处于整个视场区域的第一层,G-K处于整个视场区域的第二层,L-O处于整个视场区域的第二层,P-R处于整个视场区域的第四层,S-T处于整个视场的第五层,U处于整个视场区域的第六层。以此可类推至整个CCD阵列的更高层次。其对空间的分割能力是CCD个数n的函数,所分割的空间数等于
Figure GSA00000017646700041
CCD较多时可获得很高的空间区分度,利用这种空间分割特点,可直接根据拍摄到目标的摄像机个数和摄像机序号估算目标的空间位置;
如图3所示,基于全局特性差异的CCD阵列视频定位方法,其特征在于包括如下步骤:
1)以固定间距将n×m台摄像机安装在平面板上构成彩色面阵CCD阵列,其中n为每行的摄像机数,m为每列的摄像机数,每个摄像机的焦距和视场角相同,将整个视场分割成形状和坐标平面内投影面积相同的菱形视场区域;
2)彩色面阵CCD阵列采集的模拟视频信号经过视频信号放大与滤波模块放大去噪后,被送入视频信号模数转换模块转换为YUV格式的数字视频信号;
3)每个面阵CCD对应的YUV数字视频信号被送入FPGA处理模块,按像素将Y、U、V分量分别累加,得到第i个CCD的全局特性向量Wi
4)对整个阵列的全局特性向量再求取平均值Waver,分别与第i个CCD的全局特性向量Wi求广义距离|Wi-Waver|:如果|Wi-Waver|≥δ,则认为目标出现在相应的摄像机图像中;
5)通过拍摄到目标的这些CCD的序号就可以确定目标在视场的哪一个菱形区域,设定目标位置的估计值为菱形的中心,即可对目标进行快速定位。
具体方法如下:
CCD阵列由ICX405彩色面阵CCD组成,经过视频放大与滤波模块CXA2096N对CCD的原始模拟视频信号进行滤波去噪和信号放大,然后被送入模数转换模块CXD3142R转换为YUV格式的数字视频信号;
YUV格式的视频信号再被送入FPGA大规模逻辑器件Spartan-3e中,首先YUV格式的数字视频数据被缓存在FIFO中,然后对每帧图像的Y、U、V值按像素分别累加,得到全局特性向量
W i = Σ p = 0 row Σ q = 0 col Y pq Σ p = 0 row Σ q = 0 col U pq Σ p = 0 row Σ q = 0 col V pq ,
其中row为图像行数,col为图像列数,Ypq、Upq、Vpq分别为图像坐标(p,q)点像素的Y、U、V的值。接着对所有CCD全局特性向量求取平均值,得到
W aver = Σ i = 1 m * n W i m * n
最后求取Wi和Waver之间的广义距离|Wi-Waver|,通过对具体目标的试验可以确定一个阈值δ,距离大于δ则表示当前这个CCD中的图像全局特性向量与阵列平均特性向量差异明显,认为该CCD拍摄到了目标;
获知CCD阵列中哪些CCD拍摄到目标后,由于所有CCD的焦距和视场角相同,所以CCD阵列形成的菱形视场区域A、B、C...形状面积相同。设菱形高度为h,菱形宽度为d(即摄像机排列间隔为d,第一个摄像机距坐标系原点的水平距离也为d),目标位置的估计值为菱形的中心。在X轴方向m行摄像机中找出拍到目标最多的一行摄像机,在这一行摄像机中序号为第a至b台摄像机中拍摄到了目标,拍摄到目标的摄像机台数c=b-a+1,b≥a,则通过以下公式获得目标位置:
x = d × ( b + a ) / 2 y = h / 2 + ( c - 1 ) × h
其中x和y分别为目标在XY平面内求得的X轴和Y轴坐标。
在Z轴方向n列摄像机中找出拍到目标最多的一列摄像机,在这一列摄像机中序号为第e至f台摄像机中拍摄到了目标,拍摄到目标的摄像机台数g=f-e+1,f≥e,则通过以下公式获得目标位置:
z = d × ( f + e ) / 2 y = h / 2 + ( g - 1 ) × h
其中z和y分别为目标在ZY平面内求得的Z轴和Y轴坐标。
Z方向也可以采用另一种摄像机间隔,从而使X和Z方向的定位精度不同。在Z、Y平面应用上述算法求得的y坐标可以和在Z、Y平面内求得的y坐标平均后作为最终坐标值。
如图1和4所示,基于全局特性差异的CCD阵列视频定位***,包括n×m台摄像机安装在平面板上构成的彩色面阵CCD阵列、视频信号放大与滤波模块、视频信号模数转换模块以及FPGA处理模块,其中n×m台摄像机依次通过视频信号放大与滤波模块、视频信号模数转换模块后与FPGA处理模块连接,其中n为每行的摄像机数,m为每列的摄像机数,每个摄像机的焦距和视场角相同。

Claims (6)

1.一种基于全局特性差异的CCD阵列视频定位方法,其特征在于包括如下步骤:
1)以固定间距将n×m台摄像机安装在平面板上构成彩色面阵CCD阵列,其中n为每行的摄像机数,m为每列的摄像机数,每个摄像机的焦距和视场角相同,将整个视场分割成形状和坐标平面内投影面积相同的菱形视场区域;
2)彩色面阵CCD阵列采集的模拟视频信号经过视频信号放大与滤波模块放大去噪后,被送入视频信号模数转换模块转换为YUV格式的数字视频信号;
3)每个面阵CCD对应的YUV数字视频信号被送入FPGA处理模块,按像素将Y、U、V分量分别累加,得到第i个CCD的全局特性向量Wi
4)对整个阵列的全局特性向量再求取平均值Waver,分别与第i个CCD的全局特性向量Wi求广义距离|Wi-Waver|:如果|Wi-Waver|≥δ,则认为目标出现在相应的摄像机图像中;
5)通过拍摄到目标的这些CCD的序号就可以确定目标在视场的哪一个菱形区域,设定目标位置的估计值为菱形的中心,即可对目标进行快速定位。
2.根据权利要求1所述的基于全局特性差异的CCD阵列视频定位方法,其特征在于步骤3)所述的第i个CCD的全局特性向量Wi的求取方法如下:
首先YUV格式的数字视频数据被缓存在FIFO中,然后对每帧图像的Y、U、V值按像素分别累加,得到全局特性向量:
W i = Σ p = 0 row Σ q = 0 col Y pq Σ p = 0 row Σ q = 0 col U pq Σ p = 0 row Σ q = 0 col V pq ,
其中row为图像行数,col为图像列数,Ypq、Upq、Vpq分别为图像坐标(p,q)点像素的Y、U、V的值。
3.根据权利要求1所述的基于全局特性差异的CCD阵列视频定位方法,其特征在于步骤4)所述的确认目标的方法如下:
对所有CCD全局特性向量求取平均值,得到:
W aver = Σ i = 1 m * n W i m * n ,
求取Wi和Waver之间的广义距离|Wi-Waver|,当所述广义距离距离大于阈值δ则表示当前这个CCD中的图像全局特性向量与阵列平均特性向量差异明显,认为该CCD拍摄到了目标。
4.根据权利要求1所述的基于全局特性差异的CCD阵列视频定位方法,其特征在于步骤5)所述的定位方法如下:
在X轴方向m行摄像机中找出拍到目标最多的一行摄像机,在这一行摄像机中序号为第a至b台摄像机中拍摄到了目标,拍摄到目标的摄像机台数c=b-a+1,b≥a,则通过以下公式获得目标位置:
x = d × ( b + a ) / 2 y = h / 2 + ( c - 1 ) × h ,
其中x和y分别为目标在XY平面内求得的X轴和Y轴坐标;
在Z轴方向n列摄像机中找出拍到目标最多的一列摄像机,在这一列摄像机中序号为第e至f台摄像机中拍摄到了目标,拍摄到目标的摄像机台数g=f-e+1,f≥e,则通过以下公式获得目标位置:
z = d × ( f + e ) / 2 y = h / 2 + ( g - 1 ) × h ,
其中z和y分别为目标在ZY平面内求得的Z轴和Y轴坐标,最终得到目标在XYZ平面内的坐标。
5.根据权利要求4所述的基于全局特性差异的CCD阵列视频定位方法,其特征在于在Z、Y平面应用上述算法求得的y坐标可以和在Z、Y平面内求得的y坐标平均后作为最终坐标值。
6.一种基于全局特性差异的CCD阵列视频定位***,其特征在于包括n×m台摄像机安装在平面板上构成的彩色面阵CCD阵列、视频信号放大与滤波模块、视频信号模数转换模块以及FPGA处理模块,其中n×m台摄像机依次通过视频信号放大与滤波模块、视频信号模数转换模块后与FPGA处理模块连接,其中n为每行的摄像机数,m为每列的摄像机数,每个摄像机的焦距和视场角相同。
CN201010102354A 2010-01-28 2010-01-28 基于全局特性差异的ccd阵列视频定位方法及*** Pending CN101778303A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010102354A CN101778303A (zh) 2010-01-28 2010-01-28 基于全局特性差异的ccd阵列视频定位方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010102354A CN101778303A (zh) 2010-01-28 2010-01-28 基于全局特性差异的ccd阵列视频定位方法及***

Publications (1)

Publication Number Publication Date
CN101778303A true CN101778303A (zh) 2010-07-14

Family

ID=42514595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010102354A Pending CN101778303A (zh) 2010-01-28 2010-01-28 基于全局特性差异的ccd阵列视频定位方法及***

Country Status (1)

Country Link
CN (1) CN101778303A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106596359A (zh) * 2016-12-28 2017-04-26 中国科学院长春光学精密机械与物理研究所 一种激光粒度仪
CN113936015A (zh) * 2021-12-17 2022-01-14 青岛美迪康数字工程有限公司 一种图像有效区域的提取方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106596359A (zh) * 2016-12-28 2017-04-26 中国科学院长春光学精密机械与物理研究所 一种激光粒度仪
CN113936015A (zh) * 2021-12-17 2022-01-14 青岛美迪康数字工程有限公司 一种图像有效区域的提取方法及装置
CN113936015B (zh) * 2021-12-17 2022-03-25 青岛美迪康数字工程有限公司 一种图像有效区域的提取方法及装置

Similar Documents

Publication Publication Date Title
CN109598765B (zh) 基于球形标定物的单目相机与毫米波雷达外参联合标定方法
CN109961468B (zh) 基于双目视觉的体积测量方法、装置及存储介质
US8446492B2 (en) Image capturing device, method of searching for occlusion region, and program
US10909395B2 (en) Object detection apparatus
Clipp et al. Robust 6dof motion estimation for non-overlapping, multi-camera systems
García-Moreno et al. LIDAR and panoramic camera extrinsic calibration approach using a pattern plane
CN111815716A (zh) 一种参数标定方法及相关装置
Chiodini et al. Retrieving scale on monocular visual odometry using low-resolution range sensors
EP3593322B1 (en) Method of detecting moving objects from a temporal sequence of images
CN102387374A (zh) 用于获得高精度深度图的设备和方法
CN113888639B (zh) 基于事件相机与深度相机的视觉里程计定位方法及***
CN108362205B (zh) 基于条纹投影的空间测距方法
CN101782386B (zh) 非视觉几何的摄像机阵列视频定位方法及***
CN112305576A (zh) 一种多传感器融合的slam算法及其***
CN108592885A (zh) 一种单双目融合定位测距算法
CN112630469B (zh) 一种基于结构光和多光场相机的三维检测方法
CN112365545B (zh) 基于大平面复合靶标的激光雷达与可见光相机的标定方法
CN102483881B (zh) 人行横道线检测方法及人行横道线检测装置
Crispel et al. All-sky photogrammetry techniques to georeference a cloud field
CN106524995A (zh) 基于可见光图像实时检测目标物体空间距离的定位方法
CN115909025A (zh) 一种小天体表面采样点地形视觉自主检测识别方法
JP2881193B1 (ja) 3次元物体認識装置および方法
KR102065337B1 (ko) 비조화비를 이용하여 대상체의 이동 정보를 측정하는 장치 및 방법
CN114078163A (zh) 激光雷达与可见光相机的精确标定方法
CN101778303A (zh) 基于全局特性差异的ccd阵列视频定位方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20100714