CN101894379A - 一种针对大帧间运动视频的特征点运动分割方法和装置 - Google Patents

一种针对大帧间运动视频的特征点运动分割方法和装置 Download PDF

Info

Publication number
CN101894379A
CN101894379A CN 201010212193 CN201010212193A CN101894379A CN 101894379 A CN101894379 A CN 101894379A CN 201010212193 CN201010212193 CN 201010212193 CN 201010212193 A CN201010212193 A CN 201010212193A CN 101894379 A CN101894379 A CN 101894379A
Authority
CN
China
Prior art keywords
point
homograph
plane
unique point
unique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN 201010212193
Other languages
English (en)
Inventor
戴琼海
徐枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN 201010212193 priority Critical patent/CN101894379A/zh
Publication of CN101894379A publication Critical patent/CN101894379A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出一种针对大帧间运动视频的特征点运动分割方法,包括以下步骤:对大帧间运动视频内的相邻两个视频帧分别进行特征点提取,并建立对所有特征点的特征向量描述;根据所述特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对;和根据平面单应变换,利用投票的方法进行特征点运动的分割。本发明利用平面单应变换,提出了能够有效的刻画平面及近似平面物体运动的运动模型,进而实现复杂场景的特征点运动分割。

Description

一种针对大帧间运动视频的特征点运动分割方法和装置
技术领域
本发明涉及图像处理技术领域,特别涉及一种针对大帧间运动视频的特征点运动分割方法和装置。
背景技术
视频特征点运动分割是计算机视觉领域的一个重要且基础的问题。它在很多其他视频相关技术领域都有广泛的应用,如基于对象的视频编码、基于分割的立体视频生成、物体识别,图像检索等。正是由于视频特征点运动分割对众多视频相关技术有着至关重要的作用,视频特征点运动分割技术具有极高的科研和应用价值。
视频特征点运动分割技术处理的对象是一段视频序列,即两个或多个连续的视频帧。其目标是将相邻视频帧中的特征点运动进行合理的分类,使相同运动物体上的特征点被分到同一类中,不同物体上的特征点分到不同类中。它包括特征点运动的建立及特征点运动分类两个主要步骤。
特征点运动的建立一般分为特征点提取和运动求取两部分。特征点提取是指从图像上提取具有一定几何或颜色特征的图像区域,并在图像坐标系中定位该区域,同时建立对该特征点的描述符。运动求取是在相邻帧中与本帧特征点位置接近的区域寻找描述符最相近的特征点,两特征点位置的差别即表征了特征点运动。然而对于大帧间运动视频来说,由于两帧差别较大,特征点的运动较大,因此传统的运动求取方法难以找到特征点正确的运动位置。
在特征点运动建立之后,还需要根据特征点运动的差别,对特征点运动进行分类,从而实现特征点运动分割。特征点运动分类的目标是将不同运动物体上的特征点运动完全分开,然而,相同物体的各个部分在图像上的运动可能各不相同,不同物体上的特征点也可能出现相近或相同的运动,这些都给特征点运动分类带来较大的困难。
发明内容
本发明的目的是解决大帧间运动视频中的特征点运动分割问题。在特征点运动提取上,本发明使用特征匹配的方法,实现对大帧间运动视频的特征点运动提取。在特征点运动分类上,本发明利用平面单应变换,提出了能够有效的刻画平面及近似平面物体运动的运动模型,进而实现复杂场景的特征点运动分割。
为达到上述目的,本发明一方面提出了一种针对大帧间运动视频的特征点运动分割方法,包括以下步骤:对大帧间运动视频内的相邻两个视频帧分别进行特征点提取,并建立对所有特征点的特征向量描述;根据所述特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对;和根据平面单应变换,利用投票的方法进行特征点运动的分割。
本发明另一方面还提出了一种针对大帧间运动视频的特征点运动分割装置,包括:特征点提取模块,用于对大帧间运动视频内的相邻两个视频帧分别进行特征点提取,并建立对所有特征点的特征向量描述;匹配特征点对获取模块,用于根据所述特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对;和运动分割模块,用于根据平面单应变换,利用投票的方法进行特征点运动的分割。
本发明使用特征点匹配的方法求取运动,在相邻帧中进行第二次特征点提取,之后对两帧间的特征点进行特征匹配,以匹配特征点的坐标差别表征特征运动,从而实现了大帧间运动视频的特征点运动的建立。
另外,本发明提出的特征点运动分类方法,可以利用平面单应变换,对场景中的平面物体或近似平面物体的运动进行了很好的刻画,使得对该类物体上特征点的运动分类取得了很好的效果。同时,本发明的特征点运动分类方法能够实现对错误特征点运动的自动去除,有效地提高了算法对错误运动求取的鲁棒性。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为平面单应变换示意图;
图2为本发明实施例的针对大帧间运动视频的特征点运动分割方法流程图;
图3为本发明实施例的针对大帧间运动视频的特征点运动分割装置结构图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
为了能对本发明有更清楚的理解,以下首先对本发明所要采用的SIFT特征提取算法和平面单应变换进行简单介绍:
1、SIFT特征提取算法
SIFT特征提取算法能够在图像中找到具有特征的纹理区域,并且精确计算出这一区域在图像中的二维坐标,用特征点的概念表示该区域,用高维特征向量描述特征点。理论上,这一描述在特征点发生平移,伸缩或旋转时将不会发生变化,同时,该特征对图像明暗变化也有很强的不变性。
2、平面单应变换
对于三维空间中某个二维平面上的点,平面单应变换描述了这些点向两个二维相机平面投影的关系。具体地说,三维空间中,某个平面上的点,其在两个不同的相机平面上投影的三维齐次坐标之间满足如下的关系:
Figure BSA00000168966400041
其中,
Figure BSA00000168966400042
Figure BSA00000168966400043
为该点在两个相机平面上投影的齐次坐标,H由三维空间中的平面和这两个相机决定,其即为本发明所讨论的平面单应变换,约束着平面上的所有点。矩阵H中有9个元素,但实际上只有8个自由度,因此只需平面上4对互不相关的特征点对就可以完成对的H估计。如图1所示,为平面单应变换示意图。在我们的研究中,场景中的物体被认为距离相机比较远,或者物体只有一个面被相机拍摄,在这种假设下,场景中的物体可以被近似为一个平面,他们的运动可以用平面单应变换描述。
如图2所示,为本发明实施例的针对大帧间运动视频的特征点运动分割方法流程图,包括以下步骤:
本发明提出的视频特征点运动分割中方法,如图2所示,包括以下两个步骤:
步骤S201,对视频中相邻两帧进行SIFT特征点提取,并利用SIFT特征点的特征描述符建立两帧间特征点的匹配。需要说明的是,在本发明实施例中采用SIFT特征点提取方法,但是本领域技术人员应当意识到采用其他特征点提取方法也可应用至本发明中,因此也应包含在本发明的保护范围之内。该步骤具体包括以下两步:
(11)基于SIFT的特征提取算法提取视频序列相邻两帧的所有特征纹理区域(特征点),一方面建立对所有特征点的特征向量描述,另一方面对特征点的图像坐标进行精确定位。
(12)根据特征点的特征向量描述,利用特征匹配算法寻找相邻两帧特征点的匹配关系,使在两帧中描述同一空间点的特征点实现匹配,得到匹配特征点对。
步骤S202,根据平面单应变换,利用投票的方法对匹配特征点进行分类,去除错误的匹配,实现特征点运动分割,具体包括以下两步:
(21)从匹配特征点对中合理的抽取部分点对,进行初始平面单应变换估计。
(22)所有匹配特征点对向所有初始平面单应变换投票,根据投票结果去除错误的平面单应变换,合并表示相同运动的平面单应变换,并将正确的匹配特征点对分配给相应的平面单应变换,每个平面单应变换包含的匹配特征点对表示同一类的特征点运动,从而实现特征点运动分割。
为了能够对本发明上述实施例有更清楚的认识,以下为应用上述方法生成视频帧深度图的一个实施例,其中以相邻两视频帧A,B为例,描述特征点运动分割的过程。
首先,对A,B两视频帧分别进行SIFT特征点提取。每帧都得到一定数目的特征点,每个特征点都对应一个高维向量来描述这个特征点。
其次,对两帧中的特征点进行特征点匹配。首先定义任意两特征点的距离为它们对应高维向量的欧式距离。其次,对于A帧中的一个特征点,计算其与B帧中中任意特征点的距离,如果B帧中某特征点满足下述两个条件,则将该特征点视为A帧中特征点的候选匹配特征点。两个条件描述如下:1)此特征点是B帧的所有特征点中离A帧特征点最近的特征点;2)两特征点的距离(最近距离)与次近距离的比值要小于TQ(一般取0.6-0.8之间)。再次,调换A帧和B帧,再进行一遍上述操作,如果两帧中的两个特征点在两次操作中都把对方判断为自己的候选匹配特征点,则两特征点为最终的匹配特征点对,两个特征点的位置差别描述了特征点的运动。
再次,进行初始平面单应变换的估计。在我们的估计中,首先假设同一物体上的特征点运动比较接近,因为任何物体在运动的过程中,其上运动都是连续变化的,较大的突变只能产生在不同物体之上。基于这样的假设,我们首先从每个特征点都估计一个初始单应变换。估计的方法是,取出一个特征点及另外5个本帧中与其二维运动差别最小的特征点共6个特征点进行一次平面单应变换估计,把估计到的变换作为初始平面单应变换。
最后,特征点对向初始平面单应变换投票,实现特征点运动分割。在我们估计到的这些初始变换中,如果使用的特征点对来自不同的运动物体,那么该初始变换将是完全错误的;如果两个初始变换用到的特征点对都来自同一物体,那么这样的两个初始变换描述的是同一运动物体,具有冗余性。首先,我们用如下公式检测一个特征点对是否满足一个平面单应变换。
| | x → k - H l · x → k ′ | | 2 ≤ τ C k satisfies H l > τ C k doesnotsatisfy H l
其中,
Figure BSA00000168966400062
Figure BSA00000168966400063
是特征点对Ck在两帧中的齐次坐标,τ为门限值,在本发明实施例中τ可取3~7。如果特征点对Ck满足初始单应变换Hl,则认为Ck向Hl投票一次。当每对匹配特征点都对每个初始变换完成上述检测之后,初始变换对应的投票箱中将包含一定数量的选票。分析投票过程,将发现投票结果具有以下两个性质:1)每对匹配特征点可以向多个初始变换投票;2)每个初始变换只对应一张来自某对匹配特征点的选票。投票之后,我们将对初始变换进行合并,如果两个初始变换有p%(p一般取70~80)以上的选票来自相同的特征点对,则认为这两个变换可能描述的是同一个物体的运动,因此将它们合并,选票也一起合并。这样,经过此步骤之后,变换的数目有所下降,更加接近场景中真实运动的数目。在合并变换之后,匹配特征点对的分类仍然不明确,因为一对特征点可能向多个变换投票,且经过合并之后,可能向同一个变换投票多次。因此,为了确定匹配特征点对的分类,我们计算特征点对向每个变换投票的票数,认为其属于投票最多的那个变换。对于错误匹配的特征点对,由于其描述的运动在场景中并不存在,因此其投票数量较少。本发明将投票次数少于q次(q一般取3-5)的特征点对认为是错误的匹配,直接从结果中去除。最终,每个变换中包含的所有特征点对属于同一类,即实现了特征点运动分割。
如图3所示,为本发明实施例的针对大帧间运动视频的特征点运动分割装置结构图。该特征点运动分割装置100包括特征点提取模块110、匹配特征点对获取模块120和运动分割模块130。特征点提取模块110用于对大帧间运动视频内的相邻两个视频帧分别进行特征点提取,并建立对所有特征点的特征向量描述。匹配特征点对获取模块120用于根据所述特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对。运动分割模块130用于根据平面单应变换,利用投票的方法进行特征点运动的分割。
本发明使用特征点匹配的方法求取运动,在相邻帧中进行第二次特征点提取,之后对两帧间的特征点进行特征匹配,以匹配特征点的坐标差别表征特征运动,从而实现了大帧间运动视频的特征点运动的建立。
本发明提出的特征点运动分类方法,利用平面单应变换,对场景中的平面物体或近似平面物体的运动进行了很好的刻画,使得对该类物体上特征点的运动分类取得了很好的效果。同时,本发明的特征点运动分类方法能够实现对错误特征点运动的自动去除,有效地提高了算法对错误运动求取的鲁棒性。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同限定。

Claims (9)

1.一种针对大帧间运动视频的特征点运动分割方法,其特征在于,包括以下步骤:
对大帧间运动视频内的相邻两个视频帧分别进行特征点提取,并建立对所有特征点的特征向量描述;
根据所述特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对;和
根据平面单应变换,利用投票的方法进行特征点运动的分割。
2.如权利要求1所述的方法,其特征在于,所述根据特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对进一步包括:
分别建立所述相邻两个视频帧中一帧相对于另一帧的候选匹配特征点;
如果所述相邻两个视频帧中两个特征点互为对方的候选匹配特征点,则这两个特征点就是匹配特征点对。
3.如权利要求2所述的方法,其特征在于,所述特征点为SIFT特征点。
4.如权利要求1所述的方法,其特征在于,所述根据平面单应变换利用投票的方法进行特征点运动的分割进一步包括:
根据从匹配特征点对中合理地抽取的部分匹配特征点获得初始平面单应变换;
根据所有匹配特征点对向所有初始平面单应变换进行投票,根据投票结果去除错误的平面单应变换,合并表示相同运动的平面单应变换,并将正确的匹配特征点对分配给相应的平面单应变换,其中,每个平面单应变换包含的匹配特征点对表示同一类的特征点运动。
5.如权利要求4所述的方法,其特征在于,其中,根据以下公式判断一个特征点对是否满足一个初始平面单应变换:
Figure FSA00000168966300021
其中,
Figure FSA00000168966300022
Figure FSA00000168966300023
是特征点对Ck在两帧中的齐次坐标,τ为门限值,Hl为初始单应变换。
6.一种针对大帧间运动视频的特征点运动分割装置,其特征在于,包括:
特征点提取模块,用于对大帧间运动视频内的相邻两个视频帧分别进行特征点提取,并建立对所有特征点的特征向量描述;
匹配特征点对获取模块,用于根据所述特征点及对应的特征向量描述得到所述相邻两个视频帧之间的匹配特征点对;和
运动分割模块,用于根据平面单应变换,利用投票的方法进行特征点运动的分割。
7.如权利要求6所述的装置,其特征在于,所述特征点为SIFT特征点。
8.如权利要求6所述的装置,其特征在于,所述运动分割模块根据从匹配特征点对中合理地抽取的部分匹配特征点获得初始平面单应变换,并根据所有匹配特征点对向所有初始平面单应变换进行投票,根据投票结果去除错误的平面单应变换,合并表示相同运动的平面单应变换,以及将正确的匹配特征点对分配给相应的平面单应变换,其中,每个平面单应变换包含的匹配特征点对表示同一类的特征点运动。
9.如权利要求8所述的装置,其特征在于,其中,根据以下公式判断一个特征点对是否满足一个初始平面单应变换:
Figure FSA00000168966300024
其中,
Figure FSA00000168966300025
Figure FSA00000168966300026
是特征点对Ck在两帧中的齐次坐标,τ为门限值,Hl为初始单应变换。
CN 201010212193 2010-06-21 2010-06-21 一种针对大帧间运动视频的特征点运动分割方法和装置 Pending CN101894379A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010212193 CN101894379A (zh) 2010-06-21 2010-06-21 一种针对大帧间运动视频的特征点运动分割方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010212193 CN101894379A (zh) 2010-06-21 2010-06-21 一种针对大帧间运动视频的特征点运动分割方法和装置

Publications (1)

Publication Number Publication Date
CN101894379A true CN101894379A (zh) 2010-11-24

Family

ID=43103561

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010212193 Pending CN101894379A (zh) 2010-06-21 2010-06-21 一种针对大帧间运动视频的特征点运动分割方法和装置

Country Status (1)

Country Link
CN (1) CN101894379A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609723A (zh) * 2012-02-08 2012-07-25 清华大学 一种基于图像分类的全自动视频分割方法及装置
CN102609722A (zh) * 2012-02-07 2012-07-25 西安理工大学 视频图像中形状的局部与全局特征结构融合方法
CN105518744A (zh) * 2015-06-29 2016-04-20 北京旷视科技有限公司 行人再识别方法及设备
CN109708632A (zh) * 2019-01-31 2019-05-03 济南大学 一种面向移动机器人的激光雷达/ins/地标松组合导航***及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557684A (en) * 1993-03-15 1996-09-17 Massachusetts Institute Of Technology System for encoding image data into multiple layers representing regions of coherent motion and associated motion parameters
US20040165781A1 (en) * 2003-02-19 2004-08-26 Eastman Kodak Company Method and system for constraint-consistent motion estimation
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US20070185946A1 (en) * 2004-02-17 2007-08-09 Ronen Basri Method and apparatus for matching portions of input images
CN101630407A (zh) * 2009-06-05 2010-01-20 天津大学 基于两视几何和图分割的伪造区域定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557684A (en) * 1993-03-15 1996-09-17 Massachusetts Institute Of Technology System for encoding image data into multiple layers representing regions of coherent motion and associated motion parameters
US20040165781A1 (en) * 2003-02-19 2004-08-26 Eastman Kodak Company Method and system for constraint-consistent motion estimation
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US20070185946A1 (en) * 2004-02-17 2007-08-09 Ronen Basri Method and apparatus for matching portions of input images
CN101630407A (zh) * 2009-06-05 2010-01-20 天津大学 基于两视几何和图分割的伪造区域定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《 Pattern Recognition, 2008. ICPR 2008. 19th International Conference on》 20081211 V. Atienza-Vanacloig ect People and Luggage Recognition in Airport Surveillance Under Real-Time Constraints 1-4 1-9 , 2 *
《2009 13th Irish Machine Vision and Image Processing Conference》 20090904 Ring, D.; Pitie, F.; Feature-Assisted Sparse to Dense Motion Estimation Using Geodesic Distances 7-12 1-9 , 2 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609722A (zh) * 2012-02-07 2012-07-25 西安理工大学 视频图像中形状的局部与全局特征结构融合方法
CN102609723A (zh) * 2012-02-08 2012-07-25 清华大学 一种基于图像分类的全自动视频分割方法及装置
CN102609723B (zh) * 2012-02-08 2014-02-19 清华大学 一种基于图像分类的全自动视频分割方法及装置
CN105518744A (zh) * 2015-06-29 2016-04-20 北京旷视科技有限公司 行人再识别方法及设备
CN105518744B (zh) * 2015-06-29 2018-09-07 北京旷视科技有限公司 行人再识别方法及设备
CN109708632A (zh) * 2019-01-31 2019-05-03 济南大学 一种面向移动机器人的激光雷达/ins/地标松组合导航***及方法
CN109708632B (zh) * 2019-01-31 2024-05-28 济南大学 一种面向移动机器人的激光雷达/ins/地标松组合导航***及方法

Similar Documents

Publication Publication Date Title
Spencer et al. Defeat-net: General monocular depth via simultaneous unsupervised representation learning
Aldoma et al. Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation
Bian et al. Auto-rectify network for unsupervised indoor depth estimation
Kadkhodamohammadi et al. A multi-view RGB-D approach for human pose estimation in operating rooms
CN104680510A (zh) Radar视差图优化方法、立体匹配视差图优化方法及***
CN101964117A (zh) 一种深度图融合方法和装置
Garg et al. Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation
Hariharan et al. Shape-from-focus by tensor voting
CN102663399A (zh) 一种基于Hilbert曲线和LBP的图像局部特征提取方法
Vaddi et al. Contour detection using freeman chain code and approximation methods for the real time object detection
CN104240231A (zh) 基于局部结构二进制模式的多源图像配准
CN103002309A (zh) 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法
CN102859551A (zh) 图像处理装置及图像处理方法
CN101894379A (zh) 一种针对大帧间运动视频的特征点运动分割方法和装置
CN104834894A (zh) 一种结合二进制编码和类-Hausdorff距离的手势识别方法
Liu et al. Two-stream refinement network for RGB-D saliency detection
Mittal et al. Generalized projection based m-estimator: Theory and applications
Herrera et al. A novel 2D to 3D video conversion system based on a machine learning approach
Sachdeva et al. The change you want to see (now in 3d)
Ershadi-Nasab et al. Uncalibrated multi-view multiple humans association and 3D pose estimation by adversarial learning
CN106056599B (zh) 一种基于物体深度数据的物体识别算法及装置
Phogat et al. Different image registration methods—an overview
Yaman et al. Multimodal Stereo Vision Using Mutual Information with Adaptive Windowing.
Patoommakesorn et al. The 3d edge reconstruction from 2d image by using correlation based algorithm
Zhou et al. An anti-occlusion tracking system for UAV imagery based on Discriminative Scale Space Tracker and Optical Flow

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20101124