CN103106659A - 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法 - Google Patents
基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法 Download PDFInfo
- Publication number
- CN103106659A CN103106659A CN2013100321775A CN201310032177A CN103106659A CN 103106659 A CN103106659 A CN 103106659A CN 2013100321775 A CN2013100321775 A CN 2013100321775A CN 201310032177 A CN201310032177 A CN 201310032177A CN 103106659 A CN103106659 A CN 103106659A
- Authority
- CN
- China
- Prior art keywords
- target
- point
- sparse
- target detection
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,包括以下步骤:利用张氏棋盘标定法完成对摄像机的标定,并建立摄像机坐标系和用户定义的世界坐标系之间的转换关系。之后,执行本方法相关算法,其中,输入是两台摄像机的同步图像,先将图像矫正到极线平行状态,而后利用极线约束完成稀疏特征点匹配。将匹配点映射至世界坐标系中,并投影至地平面上,借助人体体型信息和黄金分割比完成离散点聚类。最后,以聚类为单元,结合联合概率数据关联和目标颜色信息完成监控区域内行人目标的鲁棒检测与跟踪。本发明使得运算量变小,并且使得目标检测和跟踪更为准确。
Description
技术领域
本发明涉及计算机视觉技术领域中的目标检测和跟踪方法,特别是涉及一种基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法。
背景技术
动目标检测和跟踪一直是计算机视觉领域的重要研究方向,也是视频监控领域目标行为分析和智能视频事件检测的基础。然而,现存的目标检测和跟踪算法还远不能满足视频监控智能分析的需求,完善此方面的工作尤为重要。
动目标检测方法主要包括光流法、帧差法和背景差法。光流法计算复杂度高,通常不予采用;帧差法主要利用视频帧间差分信息进行前景提取,受目标运动速度影响大,且只能获取目标大致位置信息和大概轮廓,通常会存在目标拉伸现象;背景差法是目前静止摄像机视频处理中应用最为广泛的方法,主要包括非模型法和模型法两类{钱晋,2007#39},非模型法主要是从过去的一组观测图像中按照一定的假设选择像素灰度构成当前的背景图像,其需要引入用于背景判断的固定阈值T,这就大大降低了其对环境变化的自适应能力。而模型法是对图像中的每个像素点建立对应的模型,自适应更新模型参数获取背景图像,如Wren.C.R等人提出的单高斯模型、Stauffer.C等人提出的混合高斯模型、Elgammal.A等人提出的非参数核密度估计模型。与非模型法相比,模型法能更准确的提取背景,但计算量远大于非模型法,且同其他方法一样难以分割有重叠区域的目标,无法应对光照突变情况。
传统的目标跟踪方法主要包括三个步骤:目标初始特征描述、目标运动位置估计和特征匹配。这类方法仅在目标跟踪开始时建立特征描述,而不对其进行更新,忽略了目标在运动过程中自身特征的变化。这种变化来自内部和外部两个方面,内部影响主要体现在目标运动过程中外形和姿态的变化,外部影响主要体现在光照变化、相机运动、相机视角变化、以及遮挡造成的目标特征丢失。为此,David.R等人提出了伴随均值更新的增量PCA方法,并引入遗忘因子完成目标特征描述的更新;Grabner.H等人提出了基于在线Boosting的更新方法,并以类Haar特征、方向直方图和局部二值模式作为目标特征描述;Babenko.B等人则在最近提出了依据在线多示例学习的更新方法,显示了比在线Boosting方法更优越的性能,但计算复杂度更高。虽然这些方法较之前的跟踪算法有了明显的改善,如MeanShift、CAMShift等,但计算复杂度大大增加。由于此类算法须在跟踪开始时准确选取目标区域,难以在需完成目标自动检测与跟踪的***中应用。
相比单目视觉,双目立体视觉能够提供监控区域三维信息,且能够在一定程度上克服光照突变问题。Philip.K等人在双目稠密视差图的基础上依据人体生物信息(按照黄金分割比)完成了行人检测,然而稠密视差图的获取须确定左右图像的所有对应像点,计算量大且易产生误匹配;Lenz.P等人提出了基于双目立体视觉的稀疏点三维光流目标检测与跟踪方法,须计算大量特征点连续多帧的光流数据,依据各点的速度矢量差异完成目标分割,不适于纹理不丰富目标或非刚体目标;Cai.L等人提出了基于稀疏匹配点的目标检测和跟踪方法,主要依据MeanShift算法对离散点聚类,完成目标检测,并借助Kalman滤波进行目标跟踪,相比稠密匹配精度更高,且克服了光照突变问题,然而此方法易陷入局部极值造成聚类失败。
发明内容
本发明所要解决的技术问题是提供一种基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,使得运算量变小,并且使得目标检测和跟踪更为准确。
本发明解决其技术问题所采用的技术方案是:提供一种基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,包括以下步骤:
(1)通过摄像机构建双目立体视觉***;
(2)采用张氏标定法标定双目立体视觉***;
(3)设定监测区域;
(4)利用由标定获得的摄像机参数对摄像机获取的两幅图像进行矫正,使所有极线平行;
(5)提取两幅图像兴趣区域内的匹配特征点,计算相应点的三维坐标,并将特征点映射到地平面上;
(6)根据人体体型和黄金分割比对离散点进行聚类,实现目标检测;
(7)结合聚类结果、联合概率数据关联和目标颜色信息完成目标自动检测和跟踪。
所述步骤(1)中采用两台摄像机构建双目立体视觉***,其中两台摄像机的光轴保持平行,基线宽度为0.3~2m。
所述步骤(1)中采用一体化双目立体摄像机构建双目立体视觉***。
所述步骤(2)包括以下子步骤:
(21)依据标定需求对棋盘标定板进行采样,要求每次采样时,标定板位于两台摄像机的共同视域内,处于不同位置,且标定板在两采样图像中占据的面积超出图像面积的一半;
(22)依据张氏标定法标定两台摄像机的内部参数和外部参数,同时确定摄像机坐标系和世界坐标系的转换关系,其中,世界坐标系Z轴垂直地面向上,XY平面与需监控的平坦区域平面平行。
所述步骤(5)包括以下子步骤:
(51)在第一图像的兴趣区域内进行稀疏特征点检测,然后在第二图像沿对应极线方向,在视差范围内利用归一化互相关进行匹配点检测;
(52)计算匹配点对的三维坐标,并依次映射到地平面上。
所述步骤(6)包括以下子步骤:
(61)初步聚类,将映射到地平面中同一像点的匹配点作为同一类,同时计算这些归属同一类的匹配点距离地面的最大与最小高度差;
(62)深度聚类,若某两个初步聚类对应映射图上的像点欧式距离小于人体肩宽,则将这两个分类聚为一类,循环往复,直至所有聚类完成;
(63)根据聚类结果,删除小分类,分割大分类,对各个分类映射到地平面上的像点进行椭圆拟合,将椭圆长轴作为肩宽,椭圆短轴作为人体厚度,若某分类计算所得肩宽和厚度明显小于正常人体肩宽和厚度,则将此分类作为小分类删除,若某分类计算所得肩宽或厚度过大,则依照kmeans算法进行大分类分割,分类数目由计算所得肩宽和厚度相比正常人体肩宽和厚度的倍数确定,直至所有分类均接近正常尺寸;
(64)将最终聚类结果作为目标检测结果。
所述步骤(7)包括以下子步骤:
(71)检测到候选新目标后,初始化相应的联合概率数据关联参数,依据目标稀疏特征点聚类结果,以目标稀疏特征点在第一图像中的外接凸多边形区域为目标区域建立基于核约束的目标颜色直方图;
(72)在跟踪过程中依据跟踪结果更新目标颜色直方图属性,更新方式为h=(1-α)×hnew+α×hold,hnew为新获取的基于核约束的目标直方图,h为更新后的目标直方图,hold为更新前的目标直方图;
(73)某量测在满足联合概率数据关联量测有效性判定,如果其对应目标颜色直方图和某已有目标相似度在门限内时,则确定该量测一定不源于杂波或虚警,并依据此规则建立确认矩阵;
(74)在获得的确认矩阵基础上,按照联合概率数据关联方法进行目标关联,完成目标跟踪。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明基于已标定双目摄像机,对稀疏匹配点聚类,完成对监控区域行人的自动检测,并依据联合概率数据关联和目标颜色直方图信息实现对目标的鲁棒跟踪。经验证,该方法能够应对目标部分遮挡,光照突变问题,满足实时性要求,并且运算量小,以及目标检测和跟踪准确。
附图说明
图1是本发明摄像机布设和坐标系示意图;
图2是本发明流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,包括以下步骤:利用张氏棋盘标定法完成对摄像机的标定,并建立摄像机坐标系和用户定义的世界坐标系之间的转换关系。之后,执行本方法相关算法,其中,输入是两台摄像机的同步图像,先将图像矫正到极线平行状态,而后利用极线约束完成稀疏特征点匹配。将匹配点映射至世界坐标系中,并投影至地平面上,借助人体体型信息和黄金分割比完成离散点聚类。最后,以聚类为单元,结合联合概率数据关联和目标颜色信息完成监控区域内行人目标的鲁棒检测与跟踪。如图2所示,具体步骤如下:
步骤一、架设视频采集装置,通过两台摄像机构建双目立体视觉***,也可采用一体化双目立体摄像机。
若采用分立摄像机,架设时要求两摄像机光轴基本保持平行,且有大部分相同视域,基线宽度视需求而定,0.3~2m为宜,此外,要求有大面积的空旷平坦区域(地面)出现在摄像机视域内。
步骤二、标定双目立体视觉***。采用张氏标定法,该方法只需要一块棋盘标定板,操作简单且标定精度高,具体步骤如下:
Step1:依据标定需求对棋盘标定板采样。要求每次采样时,标定板位于两摄像机的共同视域内,处于不同位置(与摄像机的距离不同或倾斜角度不同),且标定板在两采样图像中占据大量面积(超出图像面积的一半)。
Step2:依据张氏标定法标定两摄像机的内部参数和外部参数。同时确定摄像机坐标系和世界坐标系的转换关系。要求世界坐标系Z轴垂直地面向上,XY平面与需监控的平坦区域平面平行,如图1所示。
步骤三、设定监控区域。要求设定的监控区域为空旷平坦区域(地面),可直接在两图像中分别设定监控区域,也可将三维监控区域映射至图像上,最终得到两图像上的兴趣区域。
步骤四、利用已标定参数对两摄像机获取的图像进行矫正,使得所有极线平行。
步骤五、查找两图像兴趣区域内的匹配特征点,计算相应点的三维坐标,并将特征点映射到地平面上。
Step1:在左图兴趣区域内进行Harris角点检测,然后在右图沿对应极线方向,在视差范围内利用NCC(归一化互相关)进行匹配点检测,NCC计算公式为R(u,v)为归一化互相关系数,N1×N2为匹配模板大小,xi+u,j+v,yi,j为对应位置像点的灰度值。为提高匹配点的准确性,采取双向匹配策略,且忽略次优匹配和最优匹配比低于0.9的点。此外,若某对匹配点视差明显不同于周围匹配点视差,同样忽略此对匹配点。本***中除可使用Harris角点外,还可选择使用其他特征点,如更加鲁棒的SIFT或SURF算子等,但此类特征点会对***实时性产生影响。
Step2:计算匹配点对的三维坐标,并依次映射到地平面上。为建立一张俯视离散点映射图(映射图x、y轴分别沿世界坐标系x轴、y轴方向),就涉及到一个分辨率问题,即映射图上一个像点代表的真实尺寸,这一尺寸不宜过大,过大会导致映射点过于密集,易造成映射点聚类错误,记映射图分辨率为resX×resY,则resX设置成(0.01~0.05m),resY设置成(0.01~0.05m)为宜。
步骤六、将稀疏匹配点聚类,实现目标检测。
Step1:初步聚类,将映射到映射图中同一像点的匹配点作为同一类,记为S′i,同时计算这些归属同一类的匹配点距离地面的最大与最小高度差,记为hi。
Step2:深度聚类,记分类S′i映射到映射图上的像点为Oi,若Oj到Oi的欧式距离小于则将S′j和S′i聚为一类,如此往复,直至所有点聚类完毕。其中为依照黄金分割比,人肩宽占身高的比率,为0.236。
Step3:依据上一步的聚类结果,删除小分类,分割大分类。对各个分类映射到映射图上的像点进行椭圆拟合,将椭圆长轴作为肩宽,椭圆短轴作为人体厚度。若某分类计算所得肩宽和厚度明显小于正常人体肩宽和厚度,则将此分类作为小分类删除,若某分类计算所得肩宽或厚度过大,则依照kmeans算法进行大分类分割,分类数目由计算所得肩宽和厚度相比正常人体肩宽和厚度的倍数确定。这一过程持续进行,直至所有分类均接近正常尺寸。
Step4:将最终聚类结果作为目标检测结果。若某目标距离所有已有旧目标均较远,则认为是候选新目标。依据步骤七对该候选新目标连续跟踪n帧,若连续多帧都有有效量测,则认为是新目标,若n帧中有多帧无有效量测,则认为是误检测,删除该目标。
步骤七、利用JPDA(联合概率数据关联),结合基于核约束的目标颜色直方图匹配完成目标跟踪,同时在跟踪过程中更新各目标颜色直方图属性。
Step1:检测到候选新目标后,初始化相应的JPDA参数,依据目标稀疏特征点聚类结果,以目标稀疏特征点在左图像中的外接凸多边形区域为目标区域建立基于核约束的目标颜色直方图。
Step2:在跟踪过程中依据跟踪结果更新目标颜色直方图属性。更新方式为h=(1-α)×hnew+α×hold,hnew为新获取的基于核约束的目标直方图,h为更新后的目标直方图,hold为更新前的目标直方图。
Step3:传统JPDA算法只利用量测与目标之间的物理距离作为判定量测是否为有效量测的依据,且假设每个量测都可能源于杂波或者是虚警。本方法引入目标颜色距离作为量测有效性的判定,若某量测在满足传统JPDA量测有效性判定的同时,其对应目标颜色直方图和某已有目标相似度在门限内时,则确定该量测一定不源于杂波或虚警,并依据此规则建立确认矩阵。
Step4:在获得的确认矩阵基础上,按照传统JPDA方法进行目标关联,完成目标跟踪。
本发明主要针对空旷监控区域(基本平坦,且地面在摄像机视域内)的场景,基于已标定双目摄像机,对稀疏匹配点聚类,完成对监控区域行人的自动检测,并依据联合概率数据关联和目标颜色直方图信息实现对目标的鲁棒跟踪。经验证,该方法能够应对目标部分遮挡,光照突变问题,且满足实时性要求。下面以一个具体实例进一步说明本发明。
步骤一、用两台摄像机,一个三脚架和与三脚架连接的水平杆完成***架设,***对一条过道进行监测;两台摄像机水平间距1.5米,开始拍摄。
步骤二、利用张氏标定法完成摄像机标定。
步骤四、将监控区域设定为平坦过道上自摄像机起,到距摄像机20米处过道平坦区域。
步骤三、利用摄像机内外参矫正输入图像,使两图像极线平行。
步骤五、利用NCC完成Harris特征点匹配,并将特征点映射到俯视图上,即地平面上,resX和resY均设置为0.02米。
步骤六、依据人体生理信息(黄金分割比、人体正常肩宽和人体厚度)完成离散点聚类。若在此聚类附近0.7米内(距离聚类中心)没有其他目标,则将该聚类作为候选新目标,以左图中对应离散点边界包围区域为目标区域,建立基于核约束的颜色直方图,此处利用RGB信息,采用Epanechnikov核。
步骤七、结合目标颜色直方图和JPDA完成目标跟踪。跟踪过程中对直方图进行更新。在对候选新目标进行跟踪时,不更新直方图信息,若连续5帧跟踪过程中,候选新目标均存在有效量测,则认为确实是新目标,继续跟踪并在跟踪过程中更新目标直方图信息。
Claims (8)
1.一种基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,包括以下步骤:
(1)通过摄像机构建双目立体视觉***;
(2)采用张氏标定法标定双目立体视觉***;
(3)设定监测区域;
(4)利用由标定获得的摄像机参数对摄像机获取的两幅图像进行矫正,使所有极线平行;
(5)提取两幅图像兴趣区域内的匹配特征点,计算相应点的三维坐标,并将特征点映射到地平面上;
(6)根据人体体型和黄金分割比对离散点进行聚类,实现目标检测;
(7)结合聚类结果、联合概率数据关联和目标颜色信息完成目标自动检测和跟踪。
2.根据权利要求1所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(1)中采用两台摄像机构建双目立体视觉***,其中两台摄像机的光轴保持平行,基线宽度为0.3~2m。
3.根据权利要求1所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(1)中采用一体化双目立体摄像机构建双目立体视觉***。
4.根据权利要求2所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(2)包括以下子步骤:
(21)依据标定需求对棋盘标定板进行采样,要求每次采样时,标定板位于两台摄像机的共同视域内,处于不同位置,且标定板在两采样图像中占据的面积超出图像面积的一半;
(22)依据张氏标定法标定两台摄像机的内部参数和外部参数,同时确定摄像机坐标系和世界坐标系的转换关系,其中,世界坐标系Z轴垂直地面向上,XY平面与需监控的平坦区域平面平行。
5.根据权利要求1所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(5)包括以下子步骤:
(51)在第一图像的兴趣区域内进行稀疏特征点检测,然后在第二图像沿对应极线方向,在视差范围内利用归一化互相关进行匹配点检测;
(52)计算匹配点对的三维坐标,并依次映射到地平面上。
6.根据权利要求5所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(51)中采取双向匹配策略,且忽略次优匹配和最优匹配比低于0.9的点,同时忽略视差明显不同于周围匹配点视差的匹配点。
7.根据权利要求1所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(6)包括以下子步骤:
(61)初步聚类,将映射到地平面中同一像点的匹配点作为同一类,同时计算这些归属同一类的匹配点距离地面的最大与最小高度差;
(62)深度聚类,若某两个初步聚类对应映射图上的像点欧式距离小于人体肩宽,则将这两个分类聚为一类,循环往复,直至所有聚类完成;
(63)根据聚类结果,删除小分类,分割大分类,对各个分类映射到地平面上的像点进行椭圆拟合,将椭圆长轴作为肩宽,椭圆短轴作为人体厚度,若某分类计算所得肩宽和厚度明显小于正常人体肩宽和厚度,则将此分类作为小分类删除,若某分类计算所得肩宽或厚度过大,则依照kmeans算法进行大分类分割,分类数目由计算所得肩宽和厚度相比正常人体肩宽和厚度的倍数确定,直至所有分类均接近正常尺寸;
(64)将最终聚类结果作为目标检测结果。
8.根据权利要求1所述的基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法,其特征在于,所述步骤(7)包括以下子步骤:
(71)检测到候选新目标后,初始化相应的联合概率数据关联参数,依据目标稀疏特征点聚类结果,以目标稀疏特征点在第一图像中的外接凸多边形区域为目标区域建立基于核约束的目标颜色直方图;
(72)在跟踪过程中依据跟踪结果更新目标颜色直方图属性,更新方式为h=(1-α)×hnew+α×hold,hnew为新获取的基于核约束的目标直方图,h为更新后的目标直方图,hold为更新前的目标直方图;
(73)某量测在满足联合概率数据关联量测有效性判定,如果其对应目标颜色直方图和某已有目标相似度在门限内时,则确定该量测一定不源于杂波或虚警,并依据此规则建立确认矩阵;
(74)在获得的确认矩阵基础上,按照联合概率数据关联方法进行目标关联,完成目标跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100321775A CN103106659A (zh) | 2013-01-28 | 2013-01-28 | 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100321775A CN103106659A (zh) | 2013-01-28 | 2013-01-28 | 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103106659A true CN103106659A (zh) | 2013-05-15 |
Family
ID=48314486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013100321775A Pending CN103106659A (zh) | 2013-01-28 | 2013-01-28 | 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103106659A (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337076A (zh) * | 2013-06-26 | 2013-10-02 | 深圳市智美达科技有限公司 | 视频监控目标出现范围确定方法和装置 |
CN103491361A (zh) * | 2013-09-30 | 2014-01-01 | 华南理工大学 | 一种提高稀疏对应点图像匹配精度及立体图像校正的方法 |
CN104217428A (zh) * | 2014-08-22 | 2014-12-17 | 南京邮电大学 | 一种融合特征匹配和数据关联的视频监控多目标跟踪方法 |
CN104408718A (zh) * | 2014-11-24 | 2015-03-11 | 中国科学院自动化研究所 | 一种基于双目视觉测量的步态数据处理方法 |
CN104636724A (zh) * | 2015-02-02 | 2015-05-20 | 华中科技大学 | 一种基于目标一致性的车载相机快速行人车辆检测方法 |
CN105141885A (zh) * | 2014-05-26 | 2015-12-09 | 杭州海康威视数字技术股份有限公司 | 进行视频监控的方法及装置 |
CN105160649A (zh) * | 2015-06-30 | 2015-12-16 | 上海交通大学 | 基于核函数非监督聚类的多目标跟踪方法及*** |
CN105741312A (zh) * | 2014-12-09 | 2016-07-06 | 株式会社理光 | 目标对象跟踪方法和设备 |
CN106203429A (zh) * | 2016-07-06 | 2016-12-07 | 西北工业大学 | 基于双目立体视觉复杂背景下的遮挡目标检测方法 |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
CN106530353A (zh) * | 2016-10-19 | 2017-03-22 | 绍兴文理学院 | 针对双目视觉***稀疏三维重建的三维运动点检测方法 |
CN106548486A (zh) * | 2016-11-01 | 2017-03-29 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN106570899A (zh) * | 2015-10-08 | 2017-04-19 | 腾讯科技(深圳)有限公司 | 一种目标物体检测方法及装置 |
CN106651836A (zh) * | 2016-11-04 | 2017-05-10 | 中国科学院上海微***与信息技术研究所 | 一种基于双目视觉的地平面检测方法 |
CN106651833A (zh) * | 2016-10-12 | 2017-05-10 | 成都西纬科技有限公司 | 一种确定最大视差的方法 |
CN107316326A (zh) * | 2017-06-29 | 2017-11-03 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN107657277A (zh) * | 2017-09-22 | 2018-02-02 | 上海斐讯数据通信技术有限公司 | 一种基于大数据的人体异常行为检测与判定方法及*** |
CN108171706A (zh) * | 2018-01-22 | 2018-06-15 | 井冈山大学 | 一种计算机图像处理方法 |
CN109163928A (zh) * | 2018-08-27 | 2019-01-08 | 河海大学常州校区 | 一种基于双目视觉的无人机智能取水*** |
CN109416536A (zh) * | 2016-07-04 | 2019-03-01 | 深圳市大疆创新科技有限公司 | 用于自动跟踪和导航的***和方法 |
CN110706250A (zh) * | 2019-09-27 | 2020-01-17 | 广东博智林机器人有限公司 | 一种对象的跟踪方法、装置、***及存储介质 |
CN110738731A (zh) * | 2019-10-16 | 2020-01-31 | 光沦科技(深圳)有限公司 | 一种用于双目视觉的3d重建方法和*** |
CN111145223A (zh) * | 2019-12-16 | 2020-05-12 | 盐城吉大智能终端产业研究院有限公司 | 多摄像头识别人员行为轨迹分析方法 |
CN111242975A (zh) * | 2020-01-07 | 2020-06-05 | 影石创新科技股份有限公司 | 自动调整视角的全景视频渲染方法、存储介质及计算机设备 |
CN111630569A (zh) * | 2018-03-19 | 2020-09-04 | 深圳配天智能技术研究院有限公司 | 双目匹配的方法、视觉成像装置及具有存储功能的装置 |
CN112668549A (zh) * | 2021-01-15 | 2021-04-16 | 北京格灵深瞳信息技术股份有限公司 | 行人姿态分析方法、***、及终端、存储介质 |
WO2021139549A1 (zh) * | 2020-01-07 | 2021-07-15 | 青岛小鸟看看科技有限公司 | 一种平面检测方法及装置、平面跟踪方法及装置 |
CN113298885A (zh) * | 2021-06-23 | 2021-08-24 | Oppo广东移动通信有限公司 | 双目标定方法及装置、设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226592A (zh) * | 2008-02-21 | 2008-07-23 | 上海交通大学 | 基于部件的对象跟踪方法 |
CN101847206A (zh) * | 2010-04-21 | 2010-09-29 | 北京交通大学 | 基于交通监控设施的行人流量统计方法与*** |
-
2013
- 2013-01-28 CN CN2013100321775A patent/CN103106659A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226592A (zh) * | 2008-02-21 | 2008-07-23 | 上海交通大学 | 基于部件的对象跟踪方法 |
CN101847206A (zh) * | 2010-04-21 | 2010-09-29 | 北京交通大学 | 基于交通监控设施的行人流量统计方法与*** |
Non-Patent Citations (3)
Title |
---|
CHRISTOPHER RASMUSSEN AND GREGORY D. HAGER: "Probabilistic Data Association Methods for Tracking Complex Visual Objects", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 23, no. 6, 30 June 2001 (2001-06-30), XP001110802, DOI: 10.1109/34.927458 * |
侯连勇: "基于滤波关联的视频多目标跟踪", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 08, 15 August 2011 (2011-08-15) * |
潘浩 等: "基于双目视觉的客流监测***", 《微计算机信息》, vol. 25, no. 113, 31 December 2009 (2009-12-31) * |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337076A (zh) * | 2013-06-26 | 2013-10-02 | 深圳市智美达科技有限公司 | 视频监控目标出现范围确定方法和装置 |
CN103337076B (zh) * | 2013-06-26 | 2016-09-21 | 深圳市智美达科技股份有限公司 | 视频监控目标出现范围确定方法和装置 |
CN103491361B (zh) * | 2013-09-30 | 2015-09-02 | 华南理工大学 | 一种提高稀疏对应点图像匹配精度及立体图像校正的方法 |
CN103491361A (zh) * | 2013-09-30 | 2014-01-01 | 华南理工大学 | 一种提高稀疏对应点图像匹配精度及立体图像校正的方法 |
CN105141885A (zh) * | 2014-05-26 | 2015-12-09 | 杭州海康威视数字技术股份有限公司 | 进行视频监控的方法及装置 |
CN105141885B (zh) * | 2014-05-26 | 2018-04-20 | 杭州海康威视数字技术股份有限公司 | 进行视频监控的方法及装置 |
CN104217428A (zh) * | 2014-08-22 | 2014-12-17 | 南京邮电大学 | 一种融合特征匹配和数据关联的视频监控多目标跟踪方法 |
CN104217428B (zh) * | 2014-08-22 | 2017-07-07 | 南京邮电大学 | 一种融合特征匹配和数据关联的视频监控多目标跟踪方法 |
CN104408718A (zh) * | 2014-11-24 | 2015-03-11 | 中国科学院自动化研究所 | 一种基于双目视觉测量的步态数据处理方法 |
CN104408718B (zh) * | 2014-11-24 | 2017-06-30 | 中国科学院自动化研究所 | 一种基于双目视觉测量的步态数据处理方法 |
CN105741312A (zh) * | 2014-12-09 | 2016-07-06 | 株式会社理光 | 目标对象跟踪方法和设备 |
CN105741312B (zh) * | 2014-12-09 | 2018-04-27 | 株式会社理光 | 目标对象跟踪方法和设备 |
CN104636724A (zh) * | 2015-02-02 | 2015-05-20 | 华中科技大学 | 一种基于目标一致性的车载相机快速行人车辆检测方法 |
CN104636724B (zh) * | 2015-02-02 | 2018-09-04 | 华中科技大学 | 一种基于目标一致性的车载相机快速行人车辆检测方法 |
CN105160649A (zh) * | 2015-06-30 | 2015-12-16 | 上海交通大学 | 基于核函数非监督聚类的多目标跟踪方法及*** |
CN106570899B (zh) * | 2015-10-08 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 一种目标物体检测方法及装置 |
CN106570899A (zh) * | 2015-10-08 | 2017-04-19 | 腾讯科技(深圳)有限公司 | 一种目标物体检测方法及装置 |
US11365014B2 (en) | 2016-07-04 | 2022-06-21 | SZ DJI Technology Co., Ltd. | System and method for automated tracking and navigation |
CN109416536A (zh) * | 2016-07-04 | 2019-03-01 | 深圳市大疆创新科技有限公司 | 用于自动跟踪和导航的***和方法 |
CN106203429A (zh) * | 2016-07-06 | 2016-12-07 | 西北工业大学 | 基于双目立体视觉复杂背景下的遮挡目标检测方法 |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
CN106651833A (zh) * | 2016-10-12 | 2017-05-10 | 成都西纬科技有限公司 | 一种确定最大视差的方法 |
CN106651833B (zh) * | 2016-10-12 | 2020-07-03 | 成都西纬科技有限公司 | 一种确定最大视差的方法 |
CN106530353A (zh) * | 2016-10-19 | 2017-03-22 | 绍兴文理学院 | 针对双目视觉***稀疏三维重建的三维运动点检测方法 |
CN106530353B (zh) * | 2016-10-19 | 2019-05-07 | 绍兴文理学院 | 针对双目视觉***稀疏三维重建的三维运动点检测方法 |
CN106548486A (zh) * | 2016-11-01 | 2017-03-29 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN106548486B (zh) * | 2016-11-01 | 2024-02-27 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN106651836B (zh) * | 2016-11-04 | 2019-10-22 | 中国科学院上海微***与信息技术研究所 | 一种基于双目视觉的地平面检测方法 |
CN106651836A (zh) * | 2016-11-04 | 2017-05-10 | 中国科学院上海微***与信息技术研究所 | 一种基于双目视觉的地平面检测方法 |
CN107316326A (zh) * | 2017-06-29 | 2017-11-03 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN107316326B (zh) * | 2017-06-29 | 2020-10-30 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN107657277B (zh) * | 2017-09-22 | 2022-02-01 | 金言 | 一种基于大数据的人体异常行为检测与判定方法及*** |
CN107657277A (zh) * | 2017-09-22 | 2018-02-02 | 上海斐讯数据通信技术有限公司 | 一种基于大数据的人体异常行为检测与判定方法及*** |
CN108171706A (zh) * | 2018-01-22 | 2018-06-15 | 井冈山大学 | 一种计算机图像处理方法 |
CN108171706B (zh) * | 2018-01-22 | 2021-08-17 | 井冈山大学 | 一种计算机图像处理方法 |
CN111630569B (zh) * | 2018-03-19 | 2024-02-27 | 深圳配天机器人技术有限公司 | 双目匹配的方法、视觉成像装置及具有存储功能的装置 |
CN111630569A (zh) * | 2018-03-19 | 2020-09-04 | 深圳配天智能技术研究院有限公司 | 双目匹配的方法、视觉成像装置及具有存储功能的装置 |
CN109163928A (zh) * | 2018-08-27 | 2019-01-08 | 河海大学常州校区 | 一种基于双目视觉的无人机智能取水*** |
CN110706250A (zh) * | 2019-09-27 | 2020-01-17 | 广东博智林机器人有限公司 | 一种对象的跟踪方法、装置、***及存储介质 |
CN110706250B (zh) * | 2019-09-27 | 2022-04-01 | 广东博智林机器人有限公司 | 一种对象的跟踪方法、装置、***及存储介质 |
CN110738731A (zh) * | 2019-10-16 | 2020-01-31 | 光沦科技(深圳)有限公司 | 一种用于双目视觉的3d重建方法和*** |
CN110738731B (zh) * | 2019-10-16 | 2023-09-22 | 光沦科技(深圳)有限公司 | 一种用于双目视觉的3d重建方法和*** |
CN111145223A (zh) * | 2019-12-16 | 2020-05-12 | 盐城吉大智能终端产业研究院有限公司 | 多摄像头识别人员行为轨迹分析方法 |
WO2021139549A1 (zh) * | 2020-01-07 | 2021-07-15 | 青岛小鸟看看科技有限公司 | 一种平面检测方法及装置、平面跟踪方法及装置 |
CN111242975B (zh) * | 2020-01-07 | 2023-08-25 | 影石创新科技股份有限公司 | 自动调整视角的全景视频渲染方法、存储介质及计算机设备 |
CN111242975A (zh) * | 2020-01-07 | 2020-06-05 | 影石创新科技股份有限公司 | 自动调整视角的全景视频渲染方法、存储介质及计算机设备 |
CN112668549A (zh) * | 2021-01-15 | 2021-04-16 | 北京格灵深瞳信息技术股份有限公司 | 行人姿态分析方法、***、及终端、存储介质 |
CN113298885A (zh) * | 2021-06-23 | 2021-08-24 | Oppo广东移动通信有限公司 | 双目标定方法及装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103106659A (zh) | 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法 | |
CN102222346B (zh) | 一种车辆检测和跟踪方法 | |
CN110533687B (zh) | 多目标三维轨迹跟踪方法及装置 | |
WO2015010451A1 (zh) | 一种从单幅图像检测道路的方法 | |
CN105608417B (zh) | 交通信号灯检测方法及装置 | |
Li et al. | Nighttime lane markings recognition based on Canny detection and Hough transform | |
CN104700414A (zh) | 一种基于车载双目相机的前方道路行人快速测距方法 | |
CN108596923B (zh) | 三维数据的获取方法、装置以及电子设备 | |
US9336595B2 (en) | Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function | |
CN103871079A (zh) | 基于机器学习和光流的车辆跟踪方法 | |
CN104636724B (zh) | 一种基于目标一致性的车载相机快速行人车辆检测方法 | |
CN103886107A (zh) | 基于天花板图像信息的机器人定位与地图构建*** | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及*** | |
CN102497505A (zh) | 基于改进的Meanshift算法的多球机联动目标跟踪方法及*** | |
Chen et al. | A stereo visual-inertial SLAM approach for indoor mobile robots in unknown environments without occlusions | |
CN103065325A (zh) | 一种基于彩色颜色距离和图像分科聚合的目标跟踪方法 | |
CN109711267A (zh) | 一种行人重识别、行人运动轨迹生成方法及装置 | |
CN106558069A (zh) | 一种基于视频监控下的目标跟踪方法及*** | |
CN101765019A (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN113487631B (zh) | 基于lego-loam的可调式大角度探测感知及控制方法 | |
CN104156933A (zh) | 一种基于光流场的图像配准方法 | |
CN105488802A (zh) | 一种指尖深度检测方法及*** | |
Wang et al. | Improved visual odometry based on ssd algorithm in dynamic environment | |
CN104123715B (zh) | 配置视差值的方法和*** | |
Tian et al. | An improved lane boundaries detection based on dynamic ROI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130515 |