CN105825201A - 视频监控中的运动目标跟踪方法 - Google Patents
视频监控中的运动目标跟踪方法 Download PDFInfo
- Publication number
- CN105825201A CN105825201A CN201610199738.4A CN201610199738A CN105825201A CN 105825201 A CN105825201 A CN 105825201A CN 201610199738 A CN201610199738 A CN 201610199738A CN 105825201 A CN105825201 A CN 105825201A
- Authority
- CN
- China
- Prior art keywords
- image
- area image
- frame
- target
- target following
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视频监控中的运动目标跟踪方法,包括步骤:利用SIFT提取局部特征点,将视频中每一帧图像映射为特征矢量(中间哈希);利用聚类分析将中间哈希进一步映射为最终哈希值;采用汉明距离来测度帧图像与帧图像之间的相似性,从而追踪到每一帧图像中的跟踪目标。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种视频监控中的运动目标跟踪方法。
背景技术
视觉是人类获取信息的主要手段,并且在人工智能领域的发展中,机器视觉技术已有30多年历史,而近10年来已经形成了工业自动化产业的一个分支。在近几年,目标识别的应用逐渐得到重视,尤其是在摄像头方面:如果单纯的用摄像头记录下一天的全部录像,然后让人去检索录像数据是否有人出现的场景,这将会带来时间和精力的消耗;如果事先设定用目标识别和跟踪技术来对摄像头数据进行检索,那么就可以减少数据的容量和缩减了人的工作量,大大优化了资源的使用。
目标检测是一种在任意数字图像中找到目标的位置的图形技术。目标检测的方法有基于几何特征的,有基于肤色分割的,还有基于统计理论的,本文所描述的多目标跟踪算法就是采用基于统计理论的目标检测方法。目标跟踪的研究相比目标检测要晚,主要是分为基于运动分析的目标跟踪和基于目标检测的目标跟踪算法。基于运动分析的目标跟踪方法依靠运动信息来检测目标的运动状态,再通过跟踪运动目标和施以目标检测来判定,当前主要有基于区域匹配、基于特征点和基于变形模板的目标跟踪算法。基于目标检测的跟踪算法则是利用视频序列中每一帧之间的关联,用某种特定方法来预测下一帧中目标可能出现的区域,再对该区域进行目标检测来进行跟踪。
近年来,诸如视频会议以及安全监控等技术的发展,对特定环境下的人员进行跟踪显示十分必要,所以目标跟踪技术的应用变得越来越多。国内外很多大学和公司都在致力研究目标跟踪技术。
采用光流法进行运动物体检测的问题主要在于大多数光流法计算耗时,实时性和实用性都较差。但是光流法的优点在于光流不仅携带了运动物体的运动信息,而且还携带了有关景物三维结构的丰富信息,它能够在不知道场景的任何信息的情况下,检测出运动对象。但是光流法在计算时耗时较长,实用性和实时性都较差。
对于现有技术中的MeanShift算法,当两个目标相邻时,相邻的搜索窗口将收敛于局部最大(强势)窗口,会导致跟踪失败。
发明内容
本发明的发明目的在于,将数据感知哈希方法推广到视觉领域,并基于SIFT特征提取算法以及K-means聚类分析方法,在视频中实现对目标区域的准确跟踪
本发明解决其技术问题所采用的技术方案是:
提供一种视频监控中的运动目标跟踪方法,包括以下步骤:
S1、在第一帧图像中选择目标跟踪区域图像并对该目标跟踪区域图像进行如下处理:
将目标跟踪区域的图像统一规格化为128像素*128像素,得到图像IK*K;对图像IK*K做SIFT特征提取,得到特征矢量为
R={R1,R2R3R4,…,Ri,…,Rn}R∈Z64
其中,Ri(i=1,2,3,……,n)表示图像中一个特征点向量,R表示所有特征点向量的集合,Z64表示一个1*64位向量;
利用K-means聚类分析对特征矢量R进行量化,采用基于欧几里得度量来划分决定簇类,并根据聚类结果的质心点Mk大小将其所在类Ci,i=1,2,3,……,64的数值映射为1或0,具体根据公式(2)映射得到64位中间哈希值h(i,j);
并将中各行相加如公式(3),得到第一帧中目标跟踪区域的最终64位哈希值hTi;
表示对每一行进行异或运算,i表示行,j表示列;
S2、将第二帧图像分割为多个区域图像,每个区域图像的大小与第一帧中目标跟踪区域图像的大小相同,并根据步骤S1中的处理过程得到第二帧图像中每个区域图像的最终64位图像哈希值,并计算第二帧中每个区域图像的最终64位图像哈希值与第一帧中目标跟踪区域的最终64位哈希值之间的汉明距离Dis;并根据计算的汉明距离Dis进一步计算两者的相识度Sam为:
当Sam大于预设判决门限δ时,对该区域图像进行动态跟踪,并将其作为下一帧的目标跟踪区域图像;
S3、同理根据步骤S2对第i帧图像进行分割和处理,找到该第i帧图像中的目标跟踪区域图像。
本发明所述的视频监控中的运动目标跟踪方法中,δ=0.9。
本发明所述的视频监控中的运动目标跟踪方法中,对第一帧中目标跟踪区域图像以及其他帧中的分割后的区域图像进行预处理具体包括:将图像进行灰度化和亮度处理,并采用双三值插值法将图像统一规格化为128像素*128像素的图像。
本发明产生的有益效果是:本发明通过基于SIFT提取的特征属于图像的局部特征,它对旋转、尺度变换、亮度变化具有不变性,在噪声攻击及滤波方面也保持了一定的稳定性。对提取的特征点向量进行压缩,并利用聚类分析得到最终的哈希。使得该算法对于各种图像目标跟踪有较好的稳健性。引入汉明距离来计算相似度,大大加快了运算速度,提高了实用性。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例视频监控中的运动目标跟踪方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的视频监控中的运动目标跟踪方法感知哈希跟踪算法中对目标的跟踪主要分为特征提取、压缩和映射、匹配三个步骤,第一步利用SIFT提取局部特征点,将视频中每一帧图像映射为特征矢量(中间哈希)。第二步利用聚类分析将中间哈希进一步映射为最终哈希值。对于第一步特征提取就是要捕获图像的感知内容。而第二阶段是信息的压缩和分类,强调的是整体信息的压缩表示。第三步,采用汉明距离来测度帧图像与帧图像之间的相似性。
(1)对原始视频进行预处理,可对原始的彩***中每一帧进行灰度化和亮度处理,需要用户在第一帧中选定目标区域(设为length*long);
(2)将第i帧图像以任意分割方式做成N*length*long(不足取NULL),可采用双三值插值法将第一帧选定的目标区域图像或者其他分割后的区域图像统一规格化为K*K,得到区域图像IK*K,本发明实施例中K=128。对区域图像IK*K做SIFT特征提取。用Lowe的缺省参数算法提取的局部特征点不是很稳定,同时数目较多。由于SIFT特征是在多尺度空间下建立的,随着尺度的增大,分割后的区域图像通过高斯卷积被平滑的程度也不断增大。因此在高尺度空间下能够提取的特征点具有更强的稳定性,同时还可以通过调整峰值门限和边缘门限来控制产生的特征点。最后得到的特征矢量为
R={R1,R2R3R4,…Ri…,Rn}R∈Z64
其中,Ri(i=1,2,3,……,n)表示第一帧中的目标追踪区域图像或者第i帧的分割区域图像中一个特征点向量,R表示所有特征点向量的集合,Z64表示一个1*64维向量。
(3)利用K-means聚类分析对R进行量化,本发明采用基于欧几里得度量来划分从而决定簇类,并根据聚类结果的质心点M大小将其所在类Ci,i=1,2,3,……,64的数值映射为1或0如公式(2)。最后得到最终的64位哈希值:
利用K-means聚类分析对R进行量化主要包括步骤:
①先从数据库随机挑个随机点当“种子点”;
②对于每个点,我们都计算其和最近的一个“种子点”的距离D(x)并保存在一个数组里,然后把这些距离加起来得到Sum(D(x));
③然后,再取一个随机值,用权重的方式来取计算下一个“种子点”。这个算法的实现是,先取一个能落在Sum(D(x))中的随机值Random,然后用Random-=D(x),直到其<=0,此时的点就是下一个“种子点”;
④重复前两个步骤直到k个聚类中心被选出来;
⑤repeat
将每个点指派到最近的质心,形成K个簇,重新计算每个簇的质心点,直到簇不发生变化或达到最大迭代次数。
(4)将h(i,j)中各行相加如公式(3),得到一个1*64位的哈希值hTi。通过对特征矩阵各行元素求和实现了对特征矩阵数据的压缩的目的。其中表示对每一行进行异或运算。
(5)将第i帧图像以任意分割方式做成N*length*long(不足取NULL),并利用(2)~(4)得到视频中第i帧图像的追踪区域图像(经由i-1帧图像得到)的最终64位图像哈希值hTi,然后计算hTi与下一帧的64位图像的某一区域图像哈希hTi+1之间的汉明距离Dis:
Dis=||hTi-hTi+1||
其中,符号“-”规定为计算汉明距离运算符。
(6)根据计算第i帧图像的目标追踪区域图像和下一帧的某一分割区域的64位图像的哈希值的汉明距离Dis进一步计算两个图像的相识度Sam为:
其中,Sam取值在[0,1]之间,当Sam大于预设判决门限δ时,此处取δ为0.9,则对该帧图像进行动态跟踪,否则,记录直到找到m=1,2,3…..N满足δ条件为止,并将满足要求的分割图像作为此帧中的目标跟踪区域图像。
其中,尺度不变特征变换(SIFT)是用于图像处理领域的一种组合尺度不变区域检测的图像局部描述子,这种描述具有尺度不变性,可在图像中检测出关键点,同时它也是一种梯度分布描述子。所以它具有图像旋转和尺度变换的不可变性,同时对仿射变换、亮度变换及噪声等也有较好的鲁棒性。
以第2帧图像为例说明,将第2帧图像以任意分割方式做成N*length*long(不足取NULL),并利用(2)~(4)得到视频中第1帧图像的用户选定的追踪区域图像的最终64位图像哈希值hT1,然后计算第1帧的目标追踪图像的哈希值与第2帧的某一区域图像的64位图像的哈希值hTi之间的汉明距离Dis:
Dis=||hT1-hT2||
其中,符号“-”规定为计算汉明距离运算符。
根据计算第1帧图像的用户选定的追踪区域图像和第2帧的某一区域的64位图像的哈希值间汉明距离Dis进一步计算两个图像的相识度Sam为:
其中,Sam取值在[0,1]之间,当Sam大于预设判决门限δ时,此处取δ为0.9,输出该区域的图像,并将其作为第2帧的跟踪目标区域图像,记录对应的hT2,否则,记录直到找到m=1,2,3…..N满足δ条件为止。
以第3帧图像为例说明,将第3帧图像以任意分割方式做成N*length*long(不足取NULL),并利用得到的视频中第2帧图像的追踪区域图像的最终64位图像哈希值hT2,然后计算hT2与下一帧的64位图像的某一区域图像哈希hT3。之间的汉明距离Dis,再根据计算第2帧图像的追踪区域图像和第3帧的某一区域的64位图像的哈希值间汉明距离Dis进一步计算两个图像的相识度,当Sam大于预设判决门限δ时,输出该区域的图像,并将其作为第3帧的跟踪目标区域图像,记录对应的hT3,否则,记录直到找到m=1,2,3…..N满足δ条件为止。
第i帧图像的处理和跟踪以此类推,在此不赘述。
本发明通过基于SIFT提取的特征属于图像的局部特征,它对旋转、尺度变换、亮度变化具有不变性,在噪声攻击及滤波方面也保持了一定的稳定性。对提取的特征点向量进行压缩,并利用聚类分析得到最终的哈希。使得该算法对于各种图像目标跟踪有较好的稳健性。引入汉明距离来计算相似度,大大加快了运算速度,提高了实用性。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (3)
1.一种视频监控中的运动目标跟踪方法,其特征在于,包括以下步骤:
S1、在第一帧图像中选择目标跟踪区域图像并对该目标跟踪区域图像进行如下处理:
将目标跟踪区域的图像统一规格化为128像素*128像素,得到图像IK*K;对图像IK*K做SIFT特征提取,得到特征矢量为
R={R1,R2R3R4,…,Ri,…,Rn}R∈Z64
其中,Ri(i=1,2,3,……,n)表示图像中一个特征点向量,R表示所有特征点向量的集合,Z64表示一个1*64位向量;
利用K-means聚类分析对特征矢量R进行量化,采用基于欧几里得度量来划分决定簇类,并根据聚类结果的质心点Mk大小将其所在类Ci,i=1,2,3,……,64的数值映射为1或0,具体根据公式(2)映射得到64位中间哈希值h(i,j);
并将h(i,j)中各行相加如公式(3),得到第一帧中目标跟踪区域的最终64位哈希值hTi;
表示对每一行进行异或运算,i表示行,j表示列;
S2、将第二帧图像分割为多个区域图像,每个区域图像的大小与第一帧中目标跟踪区域图像的大小相同,并根据步骤S1中的处理过程得到第二帧图像中每个区域图像的最终64位图像哈希值,并计算第二帧中每个区域图像的最终64位图像哈希值与第一帧中目标跟踪区域的最终64位哈希值之间的汉明距离Dis;并根据计算的汉明距离Dis进一步计算两者的相识度Sam为:
当Sam大于预设判决门限δ时,对该区域图像进行动态跟踪,并将其作为下一帧的目标跟踪区域图像;
S3、同理根据步骤S2对第i帧图像进行分割和处理,找到该第i帧图像中的目标跟踪区域图像。
2.根据权利要求1所述的视频监控中的运动目标跟踪方法,其特征在于,δ=0.9。
3.根据权利要求1所述的视频监控中的运动目标跟踪方法,其特征在于,对第一帧中目标跟踪区域图像以及其他帧中的分割后的区域图像进行预处理具体包括:将图像进行灰度化和亮度处理,并采用双三值插值法将图像统一规格化为128像素*128像素的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610199738.4A CN105825201A (zh) | 2016-03-31 | 2016-03-31 | 视频监控中的运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610199738.4A CN105825201A (zh) | 2016-03-31 | 2016-03-31 | 视频监控中的运动目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105825201A true CN105825201A (zh) | 2016-08-03 |
Family
ID=56526483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610199738.4A Pending CN105825201A (zh) | 2016-03-31 | 2016-03-31 | 视频监控中的运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105825201A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657629A (zh) * | 2017-10-27 | 2018-02-02 | 广东工业大学 | 一种目标的跟踪方法和跟踪*** |
CN108182205A (zh) * | 2017-12-13 | 2018-06-19 | 南京信息工程大学 | 一种基于sift的hash算法的图像快速检索方法 |
CN111553259A (zh) * | 2020-04-26 | 2020-08-18 | 北京宙心科技有限公司 | 一种图像去重方法及*** |
CN113487553A (zh) * | 2021-06-30 | 2021-10-08 | 武汉楚精灵医疗科技有限公司 | 一种肠道退镜速度平滑方法 |
CN115424207A (zh) * | 2022-09-05 | 2022-12-02 | 南京星云软件科技有限公司 | 自适应监控***及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840507A (zh) * | 2010-04-09 | 2010-09-22 | 江苏东大金智建筑智能化***工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
EP2858008A2 (en) * | 2013-09-27 | 2015-04-08 | Ricoh Company, Ltd. | Target detecting method and system |
CN105261038A (zh) * | 2015-09-30 | 2016-01-20 | 华南理工大学 | 基于双向光流和感知哈希的指尖跟踪方法 |
-
2016
- 2016-03-31 CN CN201610199738.4A patent/CN105825201A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840507A (zh) * | 2010-04-09 | 2010-09-22 | 江苏东大金智建筑智能化***工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
EP2858008A2 (en) * | 2013-09-27 | 2015-04-08 | Ricoh Company, Ltd. | Target detecting method and system |
CN105261038A (zh) * | 2015-09-30 | 2016-01-20 | 华南理工大学 | 基于双向光流和感知哈希的指尖跟踪方法 |
Non-Patent Citations (2)
Title |
---|
古明涛等: "基于聚类分析和SIFT的图像感知哈希算法", 《数据通信》 * |
李子印等: "融合图像感知哈希技术的运动目标跟踪", 《中国图象图形学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657629A (zh) * | 2017-10-27 | 2018-02-02 | 广东工业大学 | 一种目标的跟踪方法和跟踪*** |
CN108182205A (zh) * | 2017-12-13 | 2018-06-19 | 南京信息工程大学 | 一种基于sift的hash算法的图像快速检索方法 |
CN111553259A (zh) * | 2020-04-26 | 2020-08-18 | 北京宙心科技有限公司 | 一种图像去重方法及*** |
CN113487553A (zh) * | 2021-06-30 | 2021-10-08 | 武汉楚精灵医疗科技有限公司 | 一种肠道退镜速度平滑方法 |
CN115424207A (zh) * | 2022-09-05 | 2022-12-02 | 南京星云软件科技有限公司 | 自适应监控***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tu et al. | Action-stage emphasized spatiotemporal VLAD for video action recognition | |
CN109961051B (zh) | 一种基于聚类和分块特征提取的行人重识别方法 | |
CN108090919B (zh) | 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法 | |
CN110866896B (zh) | 基于k-means与水平集超像素分割的图像显著性目标检测方法 | |
Kuznetsova et al. | Expanding object detector's horizon: Incremental learning framework for object detection in videos | |
CN105825201A (zh) | 视频监控中的运动目标跟踪方法 | |
CN107123130B (zh) | 一种基于超像素和混合哈希的核相关滤波目标跟踪方法 | |
CN111008978B (zh) | 基于深度学习的视频场景分割方法 | |
Yi et al. | Motion keypoint trajectory and covariance descriptor for human action recognition | |
Yi et al. | Mining human movement evolution for complex action recognition | |
CN107657276B (zh) | 一种基于寻找语义类簇的弱监督语义分割方法 | |
Qi et al. | TCNet: A novel triple-cooperative network for video object detection | |
Taylor et al. | Pose-sensitive embedding by nonlinear nca regression | |
Yang et al. | Contrast limited adaptive histogram equalization for an advanced stereo visual slam system | |
Ji et al. | News videos anchor person detection by shot clustering | |
Gao et al. | Shot-based video retrieval with optical flow tensor and HMMs | |
Nie et al. | Effective 3D object detection based on detector and tracker | |
Poonkodi et al. | RETRACTED ARTICLE: Action recognition using Correlation of Temporal Difference Frame (CTDF)—an algorithmic approach | |
Liu et al. | [Retracted] Mean Shift Fusion Color Histogram Algorithm for Nonrigid Complex Target Tracking in Sports Video | |
Guangjing et al. | Research on static image recognition of sports based on machine learning | |
Jiang | A review of person re-identification | |
Chattopadhyay et al. | Use of trajectory and spatiotemporal features for retrieval of videos with a prominent moving foreground object | |
Zhu et al. | [Retracted] Basketball Object Extraction Method Based on Image Segmentation Algorithm | |
Li et al. | A novel automatic image stitching algorithm for ceramic microscopic images | |
Sujatha et al. | An innovative moving object detection and tracking system by using modified region growing algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160803 |
|
RJ01 | Rejection of invention patent application after publication |