CN106022263B - 一种融合特征匹配和光流法的车辆跟踪方法 - Google Patents
一种融合特征匹配和光流法的车辆跟踪方法 Download PDFInfo
- Publication number
- CN106022263B CN106022263B CN201610338732.0A CN201610338732A CN106022263B CN 106022263 B CN106022263 B CN 106022263B CN 201610338732 A CN201610338732 A CN 201610338732A CN 106022263 B CN106022263 B CN 106022263B
- Authority
- CN
- China
- Prior art keywords
- feature point
- point set
- frame
- feature
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/231—Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合特征匹配和光流法的车辆跟踪方法,是在各帧运动目标之间确定目标相关信息参数的相互关系,通过前后帧之间的匹配关系记录目标的轨迹,实现对目标的跟踪,一方面避免了单纯采用KLT跟踪算法时,其金字塔模型的递归估计所带来的偏移量误差,另一方面以特征匹配算法作为补偿机制对目标特征点集进行更新和校正,不仅适应车辆目标在运动过程中所产生的尺度变化和旋转变化,同时也提高了跟踪算法的稳定性和鲁棒性,解决了采用双向可逆性约束的KLT算法在跟踪过程中的特征点不足的问题。
Description
技术领域
本发明属于视频检测技术领域,具体涉及一种融合特征匹配和光流法的车辆跟踪方法。
背景技术
基于视频的车辆检测技术作为计算机视觉和图像处理领域的重要研究内容,以其方便快捷的优点越来越受到人们的关注,基于视频的运动车辆跟踪是试图在各帧运动目标之间确定目标相关信息参数,例如位置、速度、颜色、纹理、形状等的相互关系,通过前后帧之间的匹配关系记录目标的轨迹等信息,实现对目标的跟踪,如何得到视频帧之间的对应点,即特征点匹配问题,是目标跟踪的关键技术之一。
特征点匹配的本质是寻求两幅图像特征点集的空间映射关系。匹配策略主要包括两类:基于穷尽搜索的特征点匹配和基于最优估计的特征点跟踪。基于穷尽搜索的特征点匹配是在已知的两个特征点集之间分别进行搜索匹配找到各个特征点所对应的最优匹配点,如Harris角点匹配,Sift特征匹配等。这类方法依赖于所选取特征的鲁棒性,且在匹配的过程中,以遍历方式对特征点集进行比较匹配,没有充分利用帧间的先验信息,严重影响了计算速度。基于最优估计的特征点跟踪则是利用最优估计准则寻找一幅图像上已知的特征点在另一幅图像上的位置,其典型代表为光流法。KLT(Kanade-Lucas-Tomasi)是典型的基于光流的特征点跟踪方法,它将图像匹配问题从遍历的搜索匹配策略变为了一个求解偏移量的过程,为了提高跟踪准确性,通常采用具有双向可逆性约束的KLT算法,即是目标在相邻两帧的运动约束方程适用于前向和后向运动估计,即特征点的跟踪在时域上是可逆的,但随着跟踪过程中对不稳定特征点的剔除,有用的特征点数量会逐渐减少,特别是在跟踪过程中当目标姿态发生较大幅度变化时,经常会出现特征点急剧减少甚至消失的现象,导致跟踪***的不稳定,严重时会引起跟踪目标的丢失。
发明内容
本发明的目的就是提供一种融合特征匹配和光流法的车辆跟踪方法,有效解决目前现有技术中单独采用基于穷尽搜索的特征点匹配而导致相关信息参数存在偏移量误差及单独使用光流法导致跟踪***不稳定的技术问题。
为了实现上述目的,本发明采用的技术方案是:
一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,包括以下步骤:
步骤一,在初始帧中用矩形框标识需要跟踪的车辆目标,并提取该矩形框内的特征点,表示为特征点集R;
步骤二,提取步骤一中矩形框中心位置的坐标O,并:
根据公式(1.1)计算步骤一中点集R中任意两个特征点之间的相对距离(rij)i≠j;
根据公式(1.2)计算步骤一中点集R中所有特征点到目标中心O的相对距离h(pi,O);
根据公式(1.3)计算步骤一中点集R中任意两个特征点之间的相对角度α,其中180°>α≥0°;
根据公式(1.4)计算步骤一中点集R中所有特征点与矩形框中心位置O的相对角度αi;
(rij)i≠j=||pi-pj|| (1.1)
h(pi,O)=||pi-O|| (1.2)
其中,式(1.1)中,rij表示与初始帧中索引值为i和j的特征点的相对距离,pi和pj分别表示第i个和第j个特征点;式(1.3)中,pi.x表示第i个特征点的x坐标,pi.y表示第i个特征点的y坐标,O.x表示矩形框中心位置O的x坐标,O.y表示矩形框中心位置O的y坐标;
步骤三:设初始帧特征点集R,前一帧目标点集K,采用光流法跟踪当前帧图像中与前一帧中特征点集对应的特征点集K′;
步骤四:提取当前帧图像中所有特征点,表示为特征点集P;
步骤五:遍历步骤四的特征点集P和初始帧特征点集R中所有特征点,采用匹配算法得到当前帧上与特征点集R相对应的特征点集M,其中特征点集M为特征点集P的子集;
步骤六:合并步骤三的特征点集K′和步骤五的特征点集M,得到当前帧的新的特征点集S,根据公式(1.5)计算特征点集S中任意两个特征点之间的相对距离(aij)i≠j;
(aij)i≠j=||qi-qj|| (1.5)
根据公式(1.6)对步骤二和步骤六所得到的相对距离(rij)i≠j和(aij)i≠j定义尺度因子s;
式中,rij表示与当前帧中的索引值为i和j的特征点相对应的初始帧中特征点的相对距离;
步骤七:根据当前帧中特征点与初始帧中特征点的对应关系,定义当前帧中特征点位置矢量,矢量大小为s·h(pi,O),方向为αi,由此可得当前帧中特征点对应的矢量,矢量末端的特征点集表示为S′,其中s为步骤六中得到的尺度因子s;
步骤八:计算步骤七中特征点集S′中两两特征点间的欧氏距离,定义相似性矩阵,采用聚类方法将特征点集S′分为m个子集,其中包含特征点个数最多的子集所对应的特征点即为保留下来的特征点,并删除其它子集对应的特征点,保留下来的特征点集即为当前帧最终的特征点集K;
步骤九:若Num(K)<θ·Num(R),则认为跟踪失败,其中Num(K)表示特征点集K中特征点个数,Num(R)为特征点集R中特征点个数,参数θ∈[0,1]用于控制当前帧中可以跟踪到的初始特征点的数量;否则,根据特征点集K中各特征点的位置信息,计算特征点集K中所有特征点的平均位置得到目标区域中心坐标μ,如式(1.7)所示;
步骤十:根据步骤七得到的尺度因子s,定义当前帧中的目标区域,假设初始帧中矩形框的四个顶点表示为ci={c1,c2,c3,c4},则当前帧中新的目标区域定义为:
ci′=μ-O+s·ci (1.8)
步骤十一:判断当前帧是否为最后一帧,若当前帧为最后一帧,则跟踪结束,反之则跳转步骤三。
进一步的,所述步骤一中特征点提取算法为SURF特征提取算法。
进一步的,所述步骤三中光流法为基于双向可逆性约束的KLT算法。
进一步的,所述步骤四中特征点提取算法为SURF特征提取算法。
进一步的,所述步骤五匹配算法为最近邻搜索算法。
进一步的,所述步骤六还包括,删除特征点集K′和特征点集M重复的特征点。
进一步的,所述步骤八中聚类方法采用层次聚类的方法。
进一步的,所述步骤九中参数θ取值为0.2。
与现有技术相比,本发明至少具有以下有益效果,本发明的有益效果是一方面避免了单纯采用KLT跟踪算法时,其金字塔模型的递归估计所带来的偏移量误差,另一方面以特征匹配算法作为补偿机制对目标特征点集进行更新和校正,不仅适应车辆目标在运动过程中所产生的尺度变化和旋转变化,同时也提高了跟踪算法的稳定性和鲁棒性,解决了采用双向可逆性约束的KLT算法在跟踪过程中的特征点不足的问题。
进一步的,本发明采用的SURF特征提取具有处理速度快,实时性好,提升了本发明车辆跟踪的及时性和有效性。
进一步的,在对象跟踪阶段,参数θ大小直接影响跟踪效果,当参数θ的取值较大时,跟踪精度高,但容易跟踪失败,当参数θ的取值较小时,跟踪精度较低,但不易跟踪失败,本发明步骤九中参数θ取值为0.2,具有较好的跟踪精度,并且不易丢失跟踪对象。
进一步的,本发明在合并特征点集K′和特征点集M时,删除特征点集K′和特征点集M重复的特征点,大大降低了计算量,提升了检测精度。
进一步的,本发明融合了两种特征点匹配算法,特征明显不易受光照的影响,而且目标运动过程中相对稳定,尤其是在复杂天气环境下,表现出更好的稳定性,因此,本发明适用于复杂交通背景条件下的目标跟踪。
附图说明
图1是特征点之间相对角度α的定义。
图2是融合SURF特征匹配和KLT光流法的跟踪算法原理图。
图3是基于层次聚类方法的异常特征点删除原理图。
图4是实际视频的跟踪结果图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步说明。
参见图1~4,一种融合特征匹配和光流法的车辆跟踪方法,包括以下步骤:
步骤一,在初始帧中用矩形框标识需要跟踪的车辆目标,并采用SURF特征提取算法提取该矩形框内的特征点,表示为特征点集R;
步骤二,提取步骤一中矩形框中心位置的坐标O,并:
根据公式(1.1)计算步骤一中点集R中任意两个特征点之间的相对距离(rij)i≠j;
根据公式(1.2)计算步骤一中点集R中所有特征点到目标中心O的相对距离h(pi,O);
根据公式(1.3)计算步骤一中点集R中任意两个特征点之间的相对角度α,其中180°>α≥0°;如图1所示,α的旋转角度为逆时针方向;
根据公式(1.4)计算步骤一中点集R中所有特征点与矩形框中心位置O的相对角度αi;
(rij)i≠j=||pi-pj|| (1.1)
h(pi,O)=||pi-O|| (1.2)
其中,式(1.1)中,rij表示与初始帧中索引值为i和j的特征点的相对距离,pi和pj分别表示第i个和第j个特征点;式(1.3)中,pi.x表示第i个特征点的x坐标,pi.y表示第i个特征点的y坐标,O.x表示矩形框中心位置O的x坐标,O.y表示矩形框中心位置O的y坐标;
步骤三:设初始帧特征点集R,前一帧目标点集K,采用基于双向可逆性约束的KLT算法跟踪当前帧图像中与前一帧中特征点集对应的特征点集K′,如图2中,第2帧中实心圆点(红色);
步骤四:采用SURF特征提取算法提取当前帧图像中所有特征点,表示为特征点集P,如图2中第2帧画面的空心圆点(蓝色);
步骤五:如图2所示,遍历步骤四的特征点集P和初始帧(步骤一的)特征点集R中所有特征点,采用最近邻搜索算法匹配得到当前帧上与特征点集R相对应的特征点集M,其中特征点集M为特征点集P的子集;
步骤六:合并步骤三的特征点集K′和步骤五的特征点集M,并删除特征点集K′和特征点集M重复的特征点,得到当前帧的新的特征点集S,根据公式(1.5)计算特征点集S中任意两个特征点之间的相对距离(aij)i≠j;
(aij)i≠j=||qi-qj|| (1.5)
根据公式(1.6)对步骤二和步骤六所得到的相对距离(rij)i≠j和(aij)i≠j定义尺度因子s;
式中,rij表示与当前帧中的索引值为i和j的特征点相对应的初始帧中特征点的相对距离;
步骤七:如图3所示,根据当前帧中特征点与初始帧中特征点的对应关系,定义当前帧中特征点位置矢量,矢量大小为s·h(pi,O),方向为αi,由此可得当前帧中特征点对应的矢量,矢量末端的特征点集表示为S′,其中s为步骤六中得到的尺度因子s;
步骤八:计算步骤七中特征点集S′中两两特征点间的欧氏距离,定义相似性矩阵,采用层次聚类的方法将特征点集S′分为m个子集,其中包含特征点个数最多的子集所对应的特征点即为保留下来的特征点,并删除其它子集对应的特征点,保留下来的特征点集即为当前帧最终的特征点集K;
步骤九:若Num(K)<θ·Num(R),则认为跟踪失败,其中Num(K)表示特征点集K中特征点个数,Num(R)为特征点集R中特征点个数,参数θ∈[0,1]用于控制当前帧中可以跟踪到的初始特征点的数量,本实施例中参数θ取值为0.2;否则,根据特征点集K中各特征点的位置信息,计算特征点集K中所有特征点的平均位置得到目标区域中心坐标μ,如式(1.7)所示;
步骤十:根据步骤七得到的尺度因子s,定义当前帧中的目标区域,假设初始帧中矩形框的四个顶点表示为ci={c1,c2,c3,c4},则当前帧中新的目标区域定义为:
步骤十一:判断当前帧是否为最后一帧,若当前帧为最后一帧,则跟踪结束,反之则跳转步骤三;如图4所示,为本实施例的跟踪结果,从图中可以看出,该方法能够实现持续稳定的跟踪,而且实时性较好,鲁棒性强。
Claims (8)
1.一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,包括以下步骤:
步骤一,在初始帧中用矩形框标识需要跟踪的车辆目标,并提取该矩形框内的特征点,表示为特征点集R;
步骤二,提取步骤一中矩形框中心位置的坐标O,并:
根据公式(1.1)计算步骤一中特征点集R中任意两个特征点之间的相对距离(rij)i≠j;
根据公式(1.2)计算步骤一中特征点集R中所有特征点到目标中心O的相对距离h(pi,O);
根据公式(1.3)计算步骤一中特征点集R中任意两个特征点之间的相对角度αij,其中180°>αij≥0°;
根据公式(1.4)计算步骤一中特征点集R中所有特征点与矩形框中心位置O的相对角度αi;
(rij)i≠j=||pi-pj|| (1.1)
h(pi,O)=||pi-O|| (1.2)
其中,式(1.1)中,rij表示与初始帧中索引值为i和j的特征点的相对距离,pi和pj分别表示第i个和第j个特征点;式(1.3)中,pi.x表示第i个特征点的x坐标,pi.y表示第i个特征点的y坐标,O.x表示矩形框中心位置O的x坐标,O.y表示矩形框中心位置O的y坐标;
步骤三:设初始帧特征点集R,前一帧目标点集K″,采用光流法跟踪当前帧图像中与前一帧中特征点集对应的特征点集K′;
步骤四:提取当前帧图像中所有特征点,表示为特征点集P;
步骤五:遍历步骤四的特征点集P和步骤一中的初始帧特征点集R中所有特征点,采用匹配算法得到当前帧上与特征点集R相对应的特征点集M,其中特征点集M为特征点集P的子集;
步骤六:合并步骤三的特征点集K′和步骤五的特征点集M,得到当前帧的新的特征点集S,根据公式(1.5)计算特征点集S中任意两个特征点之间的相对距离(aij)i≠j;
(aij)i≠j=||qi-qj|| (1.5)
根据公式(1.6)对步骤二和步骤六所得到的相对距离(rij)i≠j和(aij)i≠j定义尺度因子s;
式中,rij表示与当前帧中的索引值为i和j的特征点相对应的初始帧中特征点的相对距离;
步骤七:根据当前帧中特征点与初始帧中特征点的对应关系,定义当前帧中特征点位置矢量,矢量大小为s·h(pi,O),方向为αi,由此可得当前帧中特征点对应的矢量,矢量末端的特征点集表示为S′,其中s为步骤六中得到的尺度因子s;
步骤八:计算步骤七中特征点集S′中两两特征点间的欧氏距离,定义相似性矩阵,采用聚类方法将特征点集S′分为m个子集,其中包含特征点个数最多的子集所对应的特征点即为保留下来的特征点,并删除其它子集对应的特征点,保留下来的特征点集即为当前帧最终的特征点集K;
步骤九:若Num(K)<θ·Num(R),则认为跟踪失败,其中Num(K)表示特征点集K中特征点个数,Num(R)为特征点集R中特征点个数,参数θ∈[0,1]用于控制当前帧中可以跟踪到的初始特征点的数量;否则,根据特征点集K中各特征点的位置信息,计算特征点集K中所有特征点的平均位置得到目标区域中心坐标μ,如式(1.7)所示;
步骤十:根据步骤七得到的尺度因子s,定义当前帧中的目标区域,假设初始帧中矩形框的四个顶点表示为cn={c1,c2,c3,c4},则当前帧中新的目标区域定义为:
c′n=μ-O+s·cn (1.8)
步骤十一:判断当前帧是否为最后一帧,若当前帧为最后一帧,则跟踪结束,反之则跳转步骤三。
2.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤一中特征点提取算法为SURF特征提取算法。
3.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤三中光流法为基于双向可逆性约束的KLT算法。
4.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤四中特征点提取算法为SURF特征提取算法。
5.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤五匹配算法为最近邻搜索算法。
6.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤六还包括,删除特征点集K′和特征点集M重复的特征点。
7.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤八中聚类方法采用层次聚类的方法。
8.根据权利要求1所述的一种融合特征匹配和光流法的车辆跟踪方法,其特征在于,所述步骤九中参数θ取值为0.2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610338732.0A CN106022263B (zh) | 2016-05-19 | 2016-05-19 | 一种融合特征匹配和光流法的车辆跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610338732.0A CN106022263B (zh) | 2016-05-19 | 2016-05-19 | 一种融合特征匹配和光流法的车辆跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106022263A CN106022263A (zh) | 2016-10-12 |
CN106022263B true CN106022263B (zh) | 2019-07-09 |
Family
ID=57096238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610338732.0A Expired - Fee Related CN106022263B (zh) | 2016-05-19 | 2016-05-19 | 一种融合特征匹配和光流法的车辆跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106022263B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875419B (zh) * | 2016-12-29 | 2020-03-17 | 北京理工雷科电子信息技术有限公司 | 基于ncc匹配帧差的弱小动目标跟踪丢失重检方法 |
CN106815859B (zh) * | 2017-01-13 | 2019-07-16 | 大连理工大学 | 基于尺度自适应相关滤波和特征点匹配的目标跟踪算法 |
CN106897742B (zh) * | 2017-02-21 | 2020-10-27 | 北京市商汤科技开发有限公司 | 用于检测视频中物体的方法、装置和电子设备 |
CN107146239B (zh) * | 2017-04-21 | 2020-01-07 | 武汉大学 | 卫星视频运动目标检测方法及*** |
CN107145862B (zh) * | 2017-05-05 | 2020-06-05 | 山东大学 | 一种基于霍夫森林的多特征匹配多目标跟踪方法 |
CN107480618A (zh) * | 2017-08-02 | 2017-12-15 | 深圳微品时代网络技术有限公司 | 一种大数据平台的数据分析方法 |
CN108021921A (zh) * | 2017-11-23 | 2018-05-11 | 塔普翊海(上海)智能科技有限公司 | 图像特征点提取***及其应用 |
CN108182393A (zh) * | 2017-12-22 | 2018-06-19 | 上海信耀电子有限公司 | 一种汽车及其应用的前车跟踪方法及*** |
CN108090919B (zh) * | 2018-01-02 | 2020-12-22 | 华南理工大学 | 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法 |
CN109064485B (zh) * | 2018-06-11 | 2022-02-18 | 西安电子科技大学 | 一种基于cmt算法的特征库维护方法 |
CN109948526B (zh) * | 2019-03-18 | 2021-10-29 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、检测设备及存储介质 |
CN116797971A (zh) * | 2019-12-31 | 2023-09-22 | 支付宝实验室(新加坡)有限公司 | 一种视频流识别方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999759A (zh) * | 2012-11-07 | 2013-03-27 | 东南大学 | 一种基于光流的车辆运动状态估计方法 |
CN103246896A (zh) * | 2013-05-24 | 2013-08-14 | 成都方米科技有限公司 | 一种鲁棒性车辆实时检测与跟踪方法 |
CN103871079A (zh) * | 2014-03-18 | 2014-06-18 | 南京金智视讯技术有限公司 | 基于机器学习和光流的车辆跟踪方法 |
-
2016
- 2016-05-19 CN CN201610338732.0A patent/CN106022263B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999759A (zh) * | 2012-11-07 | 2013-03-27 | 东南大学 | 一种基于光流的车辆运动状态估计方法 |
CN103246896A (zh) * | 2013-05-24 | 2013-08-14 | 成都方米科技有限公司 | 一种鲁棒性车辆实时检测与跟踪方法 |
CN103871079A (zh) * | 2014-03-18 | 2014-06-18 | 南京金智视讯技术有限公司 | 基于机器学习和光流的车辆跟踪方法 |
Non-Patent Citations (5)
Title |
---|
A Point-based Tracking Algorithm for Vehicle Trajectories in Complex Environment;Lu Shengnan 等;《2014 Fifth International Conference on Intelligent Systems Design and Engineering Applications》;20140616;69-73 |
A Real-Time Method to Detect and Track Moving Objects (DATMO) from Unmanned Aerial Vehicles (UAVs) Using a Single Camera;Gonzalo R.Rodriguez-Canosa;《Remote Sensing》;20120420;第4卷(第4期);1090-1111 |
Vehicle Behavior Analysis Using Target Motion Trajectories;Huan-Sheng Song 等;《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》;20141031;第63卷(第8期);3580-3591 |
基于虚拟检测窗口的车流量检测算法设计与实现;卢胜男 等;《电脑知识与技术》;20151231;第11卷(第34期);189-190 |
改进的光流法用于车辆识别与跟踪;胡觉晖 等;《科学技术与工程》;20100831;第10卷(第23期);5814-5817 |
Also Published As
Publication number | Publication date |
---|---|
CN106022263A (zh) | 2016-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106022263B (zh) | 一种融合特征匹配和光流法的车辆跟踪方法 | |
CN103886619B (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
CN101739551B (zh) | 运动目标识别方法及*** | |
CN104134222B (zh) | 基于多特征融合的车流监控图像检测和跟踪***及方法 | |
CN109472198B (zh) | 一种姿态鲁棒的视频笑脸识别方法 | |
CN110738673A (zh) | 基于实例分割的视觉slam方法 | |
CN110473231B (zh) | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 | |
CN107481264A (zh) | 一种自适应尺度的视频目标跟踪方法 | |
KR101257207B1 (ko) | 헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
CN103218827B (zh) | 基于形状传递联合分割和图匹配校正的轮廓跟踪方法 | |
CN104835182A (zh) | 摄像机上实现动态目标实时跟踪的方法 | |
CN105069809A (zh) | 一种基于平面混合标识物的相机定位方法及*** | |
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN107146238A (zh) | 基于特征块优选的运动目标跟踪方法 | |
Hui | RETRACTED ARTICLE: Motion video tracking technology in sports training based on Mean-Shift algorithm | |
CN102074000A (zh) | 一种利用方差率最优解自适应调整窗宽的跟踪方法 | |
CN112069943A (zh) | 基于自顶向下框架的在线多人姿态估计与跟踪方法 | |
CN115731287B (zh) | 基于集合与拓扑空间的运动目标检索方法 | |
CN104240268B (zh) | 一种基于流形学习与稀疏表示的行人跟踪方法 | |
CN116543019A (zh) | 一种基于精确边界框预测的单目标跟踪方法 | |
CN112907634B (zh) | 基于无人机的车辆跟踪方法 | |
Tian et al. | An improved lane boundaries detection based on dynamic ROI | |
Ma et al. | Evaluation of Range Sensing-based Place Recognition for Long-term Urban Localization | |
Liu | Optimization Decision Tree Algorithm in Sports Video Tracking Technology | |
Wang et al. | Object tracking with shallow convolution feature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190709 |
|
CF01 | Termination of patent right due to non-payment of annual fee |