CN106152949A - 一种非接触视频位移测量方法 - Google Patents

一种非接触视频位移测量方法 Download PDF

Info

Publication number
CN106152949A
CN106152949A CN201610557083.3A CN201610557083A CN106152949A CN 106152949 A CN106152949 A CN 106152949A CN 201610557083 A CN201610557083 A CN 201610557083A CN 106152949 A CN106152949 A CN 106152949A
Authority
CN
China
Prior art keywords
target area
match block
point
histogram
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610557083.3A
Other languages
English (en)
Inventor
马继宸
肖俊江
刘若雷
朱金龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201610557083.3A priority Critical patent/CN106152949A/zh
Publication of CN106152949A publication Critical patent/CN106152949A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种非接触视频位移测量方法,包括如下步骤:(1)采用数码设备拍摄结构物的运动视频并导入处理器;(2)处理器获取运动视频中第一帧图像,以目标点为中心选取目标区域;(3)获取下一帧图像,以上一帧图像中的目标点为中心选取匹配区域,对匹配区域中的各像素点以像素点位置为中心获取与目标区域大小相等的匹配块;(4)将目标区域及各匹配块进行匹配确定与目标区域匹配的匹配块,该匹配块的中心点为目标点在该帧图像中的位置,将该位置作为新的目标点,该匹配块作为新的目标区域;(5)重复执行步骤(3)~(4)得到每一帧图像中目标点所在位置,得到目标点的位移曲线。与现有技术相比,本发明测量设备便宜,测量结果可靠。

Description

一种非接触视频位移测量方法
技术领域
本发明涉及一种位移测量方法,尤其是涉及一种非接触视频位移测量方法。
背景技术
工程结构在荷载作用下会产生挠度、位移,其大小、方向反映结构的刚度,健康和服役情况。挠度、位移的观测是通过位移计量测结构或构件的变形情况,由结构或构件的变形得知结构或构件在此荷载下的工作状态。为此对于关键位移观测点要每一级荷载都进行位移计算、量测,得知结构或构件的变形情况。
位移观测是当今工程结构健康监测中最基础的部分,也是最重要的一部分。基于位移监测在工程结构监测中的广泛应用,针对不同的结构构件,监测环境,运动状态,精度要求,位移测量有许多种方法手段。
视频位移测量作为一种新兴的非接触位移观测手段,相较与传统的接触测量方式有着极大的优越性,它可以测量低频的振动状态的物体,而且自动化程度高,劳动力成本低。现有非接触性测量方式通常采用高频CCD拍摄设备采集视频信息,测量费用高昂,仪器架设复杂。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种非接触视频位移测量方法。
本发明的目的可以通过以下技术方案来实现:
一种非接触视频位移测量方法,该方法包括如下步骤:
(1)采用具有视频拍摄功能的数码设备拍摄结构物的运动视频并导入处理器;
(2)处理器获取运动视频中第一帧图像并标定目标点,以目标点为中心选取目标区域,获取目标区域的直方图反向投影;
(3)处理器获取运动视频中下一帧图像,以上一帧图像中的目标点位置为中心选取大于目标区域的图像区域作为匹配区域,对匹配区域中的各个像素点以像素点位置为中心获取与目标区域大小相等的匹配块,获取各匹配块的直方图反向投影;
(4)根据目标区域的直方图反向投影以及各匹配块的直方图反向投影进行匹配进而确定与目标区域匹配的匹配块,该匹配块的中心点为目标点在该帧图像中的位置,并将该位置作为新的目标点,该匹配块作为新的目标区域;
(5)重复执行步骤(3)~(4)得到每一帧图像中目标点所在位置,进而得到目标点的位移曲线。
所述的数码设备包括数码相机或手机。
步骤(2)中获取目标区域的直方图反向投影具体为:
(201)获取目标区域内的所有像素点并组成像素点点集{xi},其中i=1,2,……n,n为目标区域内像素点总个数;
(202)获取第i个像素点xi的灰度值c(xi),c(xi)的取值为0~255;
(203)根据下式获取灰度值u在目标区域内的频率qu
q u = Σ i = 1 n δ [ c ( x i ) - u ] / n ,
其中u=0,1,2,……255,δ为Kornecker函数,n为目标区域内像素点总个数;
(204)获取目标区域的直方图灰度频率矩阵H1,矩阵H1中元素依次为q0、q1、q2……q255
步骤(3)中匹配区域选取为目标区域的1.5~2倍大小。
步骤(3)中获取各匹配块的直方图反向投影具体为:
(301)选取匹配区域左上角像素点为基准点,基准点坐标为(x0,y0),以基准点为坐标原点建立直角坐标系,其中基准点向右延伸为x轴正方向,基准点向下延伸为y轴正方向;
(302)建立状态转移函数:
f ( x , y , k ) = f ( x - 1 , y , k ) + f ( x , y - 1 , k ) - f ( x - 1 , y - 1 , k ) k ≠ I ( x , y ) , x > x 0 , y > y 0 f ( x - 1 , y , k ) + f ( x , y - 1 , k ) - f ( x - 1 , y - 1 , k ) + 1 k = I ( x , y ) , x > x 0 , y > y 0
f ( x 0 , y , k ) = f ( x o , y - 1 , k ) k ≠ I ( x 0 , y ) , y > y 0 f ( x o , y - 1 , k ) + 1 k = I ( x 0 , y ) , y > y 0
f ( x , y 0 , k ) = f ( x - 1 , y o , k ) k ≠ I ( x , y 0 ) , x > x 0 f ( x - 1 , y o , k ) + 1 k = I ( x , y 0 ) , x > x 0 ,
其中,基准点边界条件为:
f ( x 0 , y 0 , k ) = 0 k ≠ I ( x 0 , y 0 ) 1 k = I ( x 0 , y 0 ) ,
f(x,y,k)为以基准点为左上角,点(x,y)为右下角组成的矩形框内灰度值为k的像素点总个数,k=0,1,2,……255,I(x,y)为点(x,y)的灰度值;
(303)获取待匹配块左上角像素点坐标为(x1,y1),右下角像素点坐标为(x2,y2),根据下式计算灰度值k在待匹配块内的频率qk
qk=[f(x2,y2,k)-f(x1,y2,k)-f(x2,y1,k)+f(x1,y1,k)]/n,
其中,n为待匹配块内像素点总个数;
(304)获取第p个待匹配块直方图灰度频率矩阵Hp,矩阵Hp中元素依次为q0、q1、q2……q255
步骤(4)中所述的根据目标区域的直方图反向投影以及各匹配块的直方图反向投影进行匹配进而确定与目标区域匹配的匹配块具体为:
(401)根据目标区域的直方图方向投影得到目标区域的直方图灰度频率矩阵H,矩阵H中元素依次为灰度值0~255在目标区域内的频率,求取第p个待匹配块的直方图反向投影获取待匹配块的直方图灰度频率矩阵Hp,矩阵Hp中元素依次为灰度值0~255在待匹配块内的频率,p=1,2,……m,m为待匹配块总个数;
(402)根据下式分别计算目标区域和第p个待匹配块之间的巴氏距离修正值:
D ( H , H p ) = 1 ( x p - x 0 ) 2 + ( y p - y 0 ) 2 + 1 1 - 1 H ‾ * H ‾ p * N 2 Σ j = 1 N H ( j ) * H p ( j ) ,
其中,(x0,y0)为目标区域中心点的位置坐标,(xp,yp)为第p个待匹配块中心点的位置坐标,为矩阵H中所有元素的平均值,为矩阵Hp中所有元素的平均值,N为灰度值总个数,N=256,H(j)为矩阵H中第j个元素,Hp(j)为矩阵Hp中第j个元素;
(403)选取D(H,H1)、D(H,H2)、……D(H,Hm)中的最小值,将该最小值对应的待匹配块确定为与目标区域匹配的匹配块。
与现有技术相比,本发明具有如下优点:
(1)本发明的数码设备采用数码相机或手机等具有视频拍摄功能的数码设备,设备成本低;
(2)本发明通过直方图反向投影来实现距离的测量,直方图反向投影作为一种基本的无参数密度估计方法,不利用有关数据分布的先验知识,对数据分布不附加任何假定,是一种从数据样本本身出发研究数据分布特征的方法,颜色特征具有旋转不变性,且不受结构物大小和形状的变化影响,从而测量结果精度可靠;
(3)本发明中获取各匹配块的直方图反向投影时首先建立状态转移函数,从而使得计算灰度值k在待匹配的匹配块内的频率qk时只需简单的迭代即可,计算复杂度将低,减少了大量的冗余计算,计算简便快速;
(4)传统的巴氏距离计算公式可看做函数在x→∞时,不利于目标捕捉,因此本发明采用计算目标区域和第p个待匹配块之间的巴氏距离修正值的方式进行目标区域和待匹配块的匹配,其巴氏距离越小,匹配度越高,这种方式捕捉更精准,匹配更准确。
附图说明
图1为本发明非接触视频位移测量方法的流程框图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,一种非接触视频位移测量方法,该方法包括如下步骤:
步骤1:采用具有视频拍摄功能的数码设备拍摄结构物的运动视频并导入处理器,这里数码设备包括数码相机或手机;
步骤2:处理器获取运动视频中第一帧图像并标定目标点,以目标点为中心选取目标区域,获取目标区域的直方图反向投影;
步骤3:处理器获取运动视频中下一帧图像,以上一帧图像中的目标点位置为中心选取大于目标区域的图像区域作为匹配区域,匹配区域选取为目标区域的1.5~2倍大小,对匹配区域中的各个像素点以像素点位置为中心获取与目标区域大小相等的匹配块,获取各匹配块的直方图反向投影;
步骤4:根据目标区域的直方图反向投影以及各匹配块的直方图反向投影进行匹配进而确定与目标区域匹配的匹配块,该匹配块的中心点为目标点在该帧图像中的位置,并将该位置作为新的目标点,该匹配块作为新的目标区域;
步骤5:重复执行步骤3~4得到每一帧图像中目标点所在位置,进而得到目标点的位移曲线。
实际工程检测中,RGB(Red,Green,Blue)空间中一般结构物待测位置R、G、B变化较小。而在HSV(Hue,Saturation,Value)空间中,由于短时间测量光照影响小,不需要特意采用H分量作为特征减少光照影响,且由于现在的图像机制都是RGB图像,RGB图像转化为HSV图像会影响图像质量,当图像的饱和度或亮度都很小的时候,所提取的色相噪点多,并且所提取的色相并不稳定,波动性大。因此选用灰度这一特征可更为方便简洁的进行处理,因此步骤2中获取目标区域的直方图反向投影具体为:
(201)获取目标区域内的所有像素点并组成像素点点集{xi},其中i=1,2,……n,n为目标区域内像素点总个数;
(202)获取第i个像素点xi的灰度值c(xi),c(xi)的取值为0~255;
(203)根据下式获取灰度值u在目标区域内的频率qu
q u = Σ i = 1 n δ [ c ( x i ) - u ] / n ,
其中u=0,1,2,……255,δ为Kornecker函数,n为目标区域内像素点总个数;
(204)获取目标区域的直方图灰度频率矩阵H1,矩阵H1中元素依次为q0、q1、q2……q255
步骤4的各匹配块的直方图反向投影过程中,如果采用简单的枚举统计方法,会进行大量的冗余计算。算法需要计算直方图的区域并不是整个图像。即使计算了整个图像以每一个像素点为中心的诸多子区域的像素统计数据,并据此得出了所有点的对模板的反向投影值,最终需要进行密度计算与匹配的区域也并不是整个图像。这是因为在实际工程问题中,所处理的目标对象,运动速度都不会呈高速或超高速,换言之,在摄像设备对微小时间反映的极限上,也就是最极限的两帧之间,目标物体被假定不会有大大超越本身尺度的大位移。如果出现这样的大位移,那么只可能有两种情况:第一,摄像设备的条件限制,可能该摄像设备的摄制的帧率不足,这样拍摄视频的质量无法保证,这种情况下,应该主要考虑硬件条件对于实验的客观影响与限制因素;第二,摄像设备本身条件较好,但运动物体速度过快,在两帧之间还是出现了大位移,在这种情况下,即运动物体在不满足假定的两帧间小位移之前,在单一帧的拍摄过程中,就已经因在曝光时间内的较大位移而使自身图像变得模糊,这是在理论上就超出本算法的设计要求。
于是需要在优化之前先进行相关假定,使用该算法进行的运动图像分析建立在目标图像稳定良好的基础上,这里的稳定的定义是,由于采样频率充分大,物体运动图像不会在两帧之间出现“跳跃”,具体来说假定物***移不超过自身尺寸的50%。当然,如果采样频率不足,这个假定的位移比例能够适当扩大,与此同时,算法的计算量也会扩大。这样,在进行像素特征值的直方统计以及反向投影值的生成过程中,就只要对缩减后的区域进行计算,这个区域的大小就只与采样模版的大小有关,由此,算法的复杂度由Ο(MNHW)降为Ο(H2W2),其中,M、N为全图尺寸,H、W为目标尺寸。
在使用枚举统计的方法计算统计直方图的过程中,会出现大量的冗余枚举。如果对每一个点都要计算以该点为中心的区域的像素统计直方图,显而易见,相邻的两个点,它们的对应计算区域有绝大部分是重叠的,而对于这个重叠区域的反复枚举统计,正是简单的枚举统计算法低效的根源。通过引入算法学中基本的动态规划思想,可以将简单枚举用计算状态函数来取代,在对整个计算区域进行预处理求得所有状态函数之后,快速计算每个点的像素统计直方数据,避免了所有的冗余枚举统计。因此采用一种改进的方法进行匹配块的直方图反向投影的获取,即步骤3中获取各匹配块的直方图反向投影具体为:
(301)选取匹配区域左上角像素点为基准点,基准点坐标为(x0,y0),以基准点为坐标原点建立直角坐标系,其中基准点向右延伸为x轴正方向,基准点向下延伸为y轴正方向;
(302)建立状态转移函数:
f ( x , y , k ) = f ( x - 1 , y , k ) + f ( x , y - 1 , k ) - f ( x - 1 , y - 1 , k ) k ≠ I ( x , y ) , x > x 0 , y > y 0 f ( x - 1 , y , k ) + f ( x , y - 1 , k ) - f ( x - 1 , y - 1 , k ) + 1 k = I ( x , y ) , x > x 0 , y > y 0
f ( x 0 , y , k ) = f ( x o , y - 1 , k ) k ≠ I ( x 0 , y ) , y > y 0 f ( x o , y - 1 , k ) + 1 k = I ( x 0 , y ) , y > y 0
f ( x , y 0 , k ) = f ( x - 1 , y o , k ) k ≠ I ( x , y 0 ) , x > x 0 f ( x - 1 , y o , k ) + 1 k = I ( x , y 0 ) , x > x 0 ,
其中,基准点边界条件为:
f ( x 0 , y 0 , k ) = { 0 k ≠ I ( x 0 , y 0 ) 1 k = I ( x 0 , y 0 ) ,
f(x,y,k)为以基准点为左上角,点(x,y)为右下角组成的矩形框内灰度值为k的像素点总个数,k=0,1,2,……255,I(x,y)为点(x,y)的灰度值;
(303)获取待匹配的匹配块左上角像素点坐标为(x1,y1),右下角像素点坐标为(x2,y2),根据下式计算灰度值k在待匹配的匹配块内的频率qk
qk=[f(x2,y2,k)-f(x1,y2,k)-f(x2,y1,k)+f(x1,y1,k)]/n,
其中,n为待匹配的匹配块内像素点总个数;
(304)获取第p个待匹配块直方图灰度频率矩阵Hp,矩阵Hp中元素依次为q0、q1、q2……q255
步骤4中所述的根据目标区域的直方图反向投影以及各匹配块的直方图反向投影进行匹配进而确定与目标区域匹配的匹配块具体为:
(401)根据目标区域的直方图方向投影得到目标区域的直方图灰度频率矩阵H,矩阵H中元素依次为灰度值0~255在目标区域内的频率,求取第p个待匹配块的直方图反向投影获取待匹配块的直方图灰度频率矩阵Hp,矩阵Hp中元素依次为灰度值1~255在待匹配块内的频率,p=1,2,……m,m为待匹配块总个数;
(402)根据下式分别计算目标区域和第p个待匹配块之间的巴氏距离修正值:
D ( H , H p ) = 1 ( x p - x 0 ) 2 + ( y p - y 0 ) 2 + 1 1 - 1 H ‾ * H ‾ p * N 2 Σ j = 1 N H ( j ) * H p ( j ) ,
其中,(x0,y0)为目标区域中心点的位置坐标,(xp,yp)为第p个待匹配块中心点的位置坐标,为矩阵H中所有元素的平均值,为矩阵Hp中所有元素的平均值,N为灰度值总个数,N=256,H(j)为矩阵H中第j个元素,Hp(j)为矩阵Hp中第j个元素;
(403)选取D(H,H1)、D(H,H2)、……D(H,Hm)中的最小值,将该最小值对应的待匹配块确定为与目标区域匹配的匹配块,修正后D值在0~l之间,D值越小表示目标区域和待匹配块越相似。
采用上述方法进行了实验,将振动台作为结构物,该振动台为标准振源,波形为正弦波,振动波形频率2Hz,全振幅10mm,采用两种数码设备进行运动视频的采集,两种数码设备分别为数码相机和手机。其中,数码相机视频采集选用尼康D7100相机,视频图像序列为标准1080P(1920×1080)。手机视频采集采用小米4c手机视频录制功能完成视频采集,视频图像序列为标准720P(1080×720)。表1为实验结果对比表。
表1实验结果
通过试验得到如下结论:
(1)相同实验环境,保证成像完整清晰的前提下,数码相机与结构物距离越近,数码相机焦距越大,捕捉效果越好,所得位移曲线误差越小。采用单位像素表示的实际距离dis来衡量这一差异:与结构物间隔1m,焦距50mm,自然光拍摄,dis=0.2831mm;与结构物间隔1m,焦距17mm,自然光拍摄,dis=0.7496mm,与结构物间隔5m,焦距210mm,自然光拍摄,dis=0.2228mm,对比实验结果,dis值越大,捕捉效果越差,误差越大,针对远距拍摄,为提高dis值,可换装长焦镜头,并扩大所框选目标区域面积。(2)光照对实验结果影响不大。(3)手机采集可以满足用户近距离位移测量要求。

Claims (6)

1.一种非接触视频位移测量方法,其特征在于,该方法包括如下步骤:
(1)采用具有视频拍摄功能的数码设备拍摄结构物的运动视频并导入处理器;
(2)处理器获取运动视频中第一帧图像并标定目标点,以目标点为中心选取目标区域,获取目标区域的直方图反向投影;
(3)处理器获取运动视频中下一帧图像,以上一帧图像中的目标点位置为中心选取大于目标区域的图像区域作为匹配区域,对匹配区域中的各个像素点以像素点位置为中心获取与目标区域大小相等的匹配块,获取各匹配块的直方图反向投影;
(4)根据目标区域的直方图反向投影以及各匹配块的直方图反向投影进行匹配进而确定与目标区域匹配的匹配块,该匹配块的中心点为目标点在该帧图像中的位置,并将该位置作为新的目标点,该匹配块作为新的目标区域;
(5)重复执行步骤(3)~(4)得到每一帧图像中目标点所在位置,进而得到目标点的位移曲线。
2.根据权利要求1所述的一种非接触视频位移测量方法,其特征在于,所述的数码设备包括数码相机或手机。
3.根据权利要求1所述的一种非接触视频位移测量方法,其特征在于,步骤(2)中获取目标区域的直方图反向投影具体为:
(201)获取目标区域内的所有像素点并组成像素点点集{xi},其中i=1,2,……n,n为目标区域内像素点总个数;
(202)获取第i个像素点xi的灰度值c(xi),c(xi)的取值为0~255;
(203)根据下式获取灰度值u在目标区域内的频率qu
q u = Σ i = 1 n δ [ c ( x i ) - u ] / n ,
其中u=0,1,2,……255,δ为Kornecker函数,n为目标区域内像素点总个数;
(204)获取目标区域的直方图灰度频率矩阵H1,矩阵H1中元素依次为q0、q1、q2……q255
4.根据权利要求1所述的一种非接触视频位移测量方法,其特征在于,步骤(3)中匹配区域选取为目标区域的1.5~2倍大小。
5.根据权利要求1所述的一种非接触视频位移测量方法,其特征在于,步骤(3)中获取各匹配块的直方图反向投影具体为:
(301)选取匹配区域左上角像素点为基准点,基准点坐标为(x0,y0),以基准点为坐标原点建立直角坐标系,其中基准点向右延伸为x轴正方向,基准点向下延伸为y轴正方向;
(302)建立状态转移函数:
f ( x , y , k ) = f ( x - 1 , y , k ) + f ( x , y - 1 , k ) - f ( x - 1 , y - 1 , k ) k ≠ I ( x , y ) , x > x 0 , y > y 0 f ( x - 1 , y , k ) + f ( x , y - 1 , k ) - f ( x - 1 , y - 1 , k ) + 1 k = I ( x , y ) , x > x 0 , y > y 0
f ( x 0 , y , k ) = f ( x o , y - 1 , k ) k ≠ I ( x 0 , y ) , y > y 0 f ( x o , y - 1 , k ) + 1 k = I ( x 0 , y ) , y > y 0
f ( x , y 0 , k ) = f ( x - 1 , y o , k ) k ≠ I ( x , y 0 ) , x > x 0 f ( x - 1 , y o , k ) + 1 k = I ( x , y 0 ) , x > x 0 ,
其中,基准点边界条件为:
f ( x 0 , y 0 , k ) = 0 k ≠ I ( x 0 , y 0 ) 1 k = I ( x 0 , y 0 ) ,
f(x,y,k)为以基准点为左上角,点(x,y)为右下角组成的矩形框内灰度值为k的像素点总个数,k=0,1,2,……255,I(x,y)为点(x,y)的灰度值;
(303)获取待匹配块左上角像素点坐标为(x1,y1),右下角像素点坐标为(x2,y2),根据下式计算灰度值k在待匹配块内的频率qk
qk=[f(x2,y2,k)-f(x1,y2,k)-f(x2,y1,k)+f(x1,y1,k)]/n,
其中,n为待匹配块内像素点总个数;
(304)获取第p个待匹配块直方图灰度频率矩阵Hp,矩阵Hp中元素依次为q0、q1、q2……q255
6.根据权利要求1所述的一种非接触视频位移测量方法,其特征在于,步骤(4)中所述的根据目标区域的直方图反向投影以及各匹配块的直方图反向投影进行匹配进而确定与目标区域匹配的匹配块具体为:
(401)根据目标区域的直方图方向投影得到目标区域的直方图灰度频率矩阵H,矩阵H中元素依次为灰度值0~255在目标区域内的频率,求取第p个待匹配块的直方图反向投影获取待匹配块的直方图灰度频率矩阵Hp,矩阵Hp中元素依次为灰度值0~255在待匹配块内的频率,p=1,2,……m,m为待匹配块总个数;
(402)根据下式分别计算目标区域和第p个待匹配块之间的巴氏距离修正值:
D ( H , H p ) = 1 ( x p - x 0 ) 2 + ( y p - y 0 ) 2 + 1 1 - 1 H ‾ * H ‾ p * N 2 Σ j = 1 N H ( j ) * H p ( j ) ,
其中,(x0,y0)为目标区域中心点的位置坐标,(xp,yp)为第p个待匹配块中心点的位置坐标,为矩阵H中所有元素的平均值,为矩阵Hp中所有元素的平均值,N为灰度值总个数,N=256,H(j)为矩阵H中第j个元素,Hp(j)为矩阵Hp中第j个元素;
(403)选取D(H,H1)、D(H,H2)、……D(H,Hm)中的最小值,将该最小值对应的待匹配块确定为与目标区域匹配的匹配块。
CN201610557083.3A 2016-07-15 2016-07-15 一种非接触视频位移测量方法 Pending CN106152949A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610557083.3A CN106152949A (zh) 2016-07-15 2016-07-15 一种非接触视频位移测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610557083.3A CN106152949A (zh) 2016-07-15 2016-07-15 一种非接触视频位移测量方法

Publications (1)

Publication Number Publication Date
CN106152949A true CN106152949A (zh) 2016-11-23

Family

ID=58059168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610557083.3A Pending CN106152949A (zh) 2016-07-15 2016-07-15 一种非接触视频位移测量方法

Country Status (1)

Country Link
CN (1) CN106152949A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107702787A (zh) * 2017-09-29 2018-02-16 福州大学 基于普通摄像设备的可视化振动位移四维测量方法
CN108871185A (zh) * 2018-05-10 2018-11-23 苏州大学 零件检测的方法、装置、设备以及计算机可读存储介质
CN111275678A (zh) * 2020-01-17 2020-06-12 山东科技大学 一种内波作用下细长结构物位移测量***及方法
CN111351436A (zh) * 2020-03-06 2020-06-30 大连理工大学 一种验证结构平面位移视觉测量***精度的方法
CN111649857A (zh) * 2020-04-23 2020-09-11 河海大学 一种目标匹配分析的拉索模态测量方法
CN112381053A (zh) * 2020-12-01 2021-02-19 连云港豪瑞生物技术有限公司 具有图像跟踪功能的环保监测***
CN113820087A (zh) * 2021-10-22 2021-12-21 同济大学 用于木塔抗震稳定性测试的高速视频测量***及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
JP2010122734A (ja) * 2008-11-17 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム
CN102054170A (zh) * 2011-01-19 2011-05-11 中国科学院自动化研究所 基于极小化上界误差的视觉跟踪方法
CN102074000A (zh) * 2010-11-23 2011-05-25 天津市亚安科技电子有限公司 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN102110296A (zh) * 2011-02-24 2011-06-29 上海大学 一种复杂场景下的运动目标跟踪方法
CN103020986A (zh) * 2012-11-26 2013-04-03 哈尔滨工程大学 一种运动目标跟踪方法
CN103745203A (zh) * 2014-01-15 2014-04-23 南京理工大学 基于视觉注意和均值漂移的目标检测与跟踪方法
CN105279769A (zh) * 2015-07-16 2016-01-27 北京理工大学 一种联合多特征的层次粒子滤波跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122734A (ja) * 2008-11-17 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
CN102074000A (zh) * 2010-11-23 2011-05-25 天津市亚安科技电子有限公司 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN102054170A (zh) * 2011-01-19 2011-05-11 中国科学院自动化研究所 基于极小化上界误差的视觉跟踪方法
CN102110296A (zh) * 2011-02-24 2011-06-29 上海大学 一种复杂场景下的运动目标跟踪方法
CN103020986A (zh) * 2012-11-26 2013-04-03 哈尔滨工程大学 一种运动目标跟踪方法
CN103745203A (zh) * 2014-01-15 2014-04-23 南京理工大学 基于视觉注意和均值漂移的目标检测与跟踪方法
CN105279769A (zh) * 2015-07-16 2016-01-27 北京理工大学 一种联合多特征的层次粒子滤波跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JICHEN MA,ET AL.: "An Emerging Method of the Non-contact Displacement Measurement by Video", 《PROCEEDINGS OF THE 2016 INTERNATIONAL FORUM ON ENERGY,ENVIRONMENT AND SUSTAINABLE DEVELOPMENT》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107702787A (zh) * 2017-09-29 2018-02-16 福州大学 基于普通摄像设备的可视化振动位移四维测量方法
CN108871185A (zh) * 2018-05-10 2018-11-23 苏州大学 零件检测的方法、装置、设备以及计算机可读存储介质
CN108871185B (zh) * 2018-05-10 2020-12-29 苏州大学 零件检测的方法、装置、设备以及计算机可读存储介质
CN111275678A (zh) * 2020-01-17 2020-06-12 山东科技大学 一种内波作用下细长结构物位移测量***及方法
CN111275678B (zh) * 2020-01-17 2023-09-29 山东科技大学 一种内波作用下细长结构物位移测量***及方法
CN111351436A (zh) * 2020-03-06 2020-06-30 大连理工大学 一种验证结构平面位移视觉测量***精度的方法
CN111351436B (zh) * 2020-03-06 2021-06-18 大连理工大学 一种验证结构平面位移视觉测量***精度的方法
CN111649857A (zh) * 2020-04-23 2020-09-11 河海大学 一种目标匹配分析的拉索模态测量方法
CN112381053A (zh) * 2020-12-01 2021-02-19 连云港豪瑞生物技术有限公司 具有图像跟踪功能的环保监测***
CN113820087A (zh) * 2021-10-22 2021-12-21 同济大学 用于木塔抗震稳定性测试的高速视频测量***及方法

Similar Documents

Publication Publication Date Title
CN106152949A (zh) 一种非接触视频位移测量方法
Chavdarova et al. Wildtrack: A multi-camera hd dataset for dense unscripted pedestrian detection
CN108460362B (zh) 一种检测人体部位的***及方法
CN107270810B (zh) 多方位投影的投影仪标定方法及装置
CN107886069A (zh) 一种多目标人体2d姿态实时检测***及检测方法
CN106504290B (zh) 一种高精度的摄像机动态标定方法
CN106296638A (zh) 显著性信息取得装置以及显著性信息取得方法
CN106483105B (zh) 基于强度关联成像的透射式微视觉***及图像获取方法
CN106709958A (zh) 一种基于灰度梯度和颜色直方图的图像质量评价方法
CN106663322B (zh) 用于识别图像中的特征的方法和装置
CN105447888A (zh) 一种基于有效目标判断的无人机机动目标检测方法
CN111429448B (zh) 一种基于弱分割信息的生物荧光目标计数方法
CN106355195B (zh) 用于测量图像清晰度值的***及其方法
CN102930251B (zh) 两维收藏品数据收录与甄别的装置和方法
CN105913070A (zh) 一种基于光场相机的多线索显著性提取方法
US11461875B2 (en) Displacement measurement device and displacement measurement method
CN111161313A (zh) 一种视频流中的多目标追踪方法及装置
CN103096117B (zh) 视频噪声检测方法及装置
CN114792345B (zh) 一种基于单目结构光***的标定方法
Xie et al. A method for surface defect detection of printed circuit board based on improved YOLOv4
CN105740874A (zh) 确定自动化测试脚本回放时的操作坐标的方法及装置
CN109544584B (zh) 一种实现巡检稳像精度测量的方法及***
CN110246152A (zh) Piv图像处理方法及***
CN106504279B (zh) 彩色图像自动聚焦方法
CN106469532A (zh) 显示面板亮灯检查方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161123