CN103177247A - 一种融合多视角信息的目标检测方法 - Google Patents
一种融合多视角信息的目标检测方法 Download PDFInfo
- Publication number
- CN103177247A CN103177247A CN2013101212614A CN201310121261A CN103177247A CN 103177247 A CN103177247 A CN 103177247A CN 2013101212614 A CN2013101212614 A CN 2013101212614A CN 201310121261 A CN201310121261 A CN 201310121261A CN 103177247 A CN103177247 A CN 103177247A
- Authority
- CN
- China
- Prior art keywords
- human body
- human
- region
- touchdown point
- body region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种融合多视角信息的目标检测方法,涉及人体检测领域,本方法包括:获取运动前景来降低误检率,然后在前景范围内进行人体检测,并通过仿射变换将视角间的信息直接关联起来,通过不同视角间检测出来的人体来弥补单视角下人体检测出现的漏检状况,来达到提高检测率的目的。本方法提高了空间位置映射的准确度,降低了目标匹配的难度,避免了存在位置偏差急剧增大的情况,进而能够得到更加准确的映射目标人体,同时利用快匹配信息融合在一定程度上解决了单个视角出现的遮挡问题。
Description
技术领域
本发明涉及人体检测领域,特别涉及一种融合多视角信息的目标检测方法。
背景技术
人体的检测一直是很多人机交互体系和智能监控***中的一个重要和基本的问题。现存的人体检测方向主要是在单视角、多视角和最近比较热的深度摄像头下进行的。单视角下的行人检测方法一直是很多学者关注的焦点,参见参考文献[1]和[2],这种方式一般是在单一的画面下找到人体区别于背景等其它物体的特征,其优点在于通过单一画面就能获取到人体目标,然而由于单视角信息有限,很多算法会存在漏检和误检。
为了克服单视角信息不足的情况,Zhengzhi Zhan和K.R.S.Kodagoda在参考文献[3]中提出多传感器融合的方式来增加能够得到的信息量,这种方式的优点在于通过使用激光扫描的方式来获取感兴趣区域,进而提高识别的准确率。然而,这种方式是在提供外加设备的基础上实现的,很多情况下监控***还是基于视频的基础上进行的。
在这种情况下,多视角方法开始逐渐被采用,例如:Kyungnam Kim和LarryS.Davis在参考文献[4]中提出一种多视角关联方法,在不进行3D重建的基础上通过将两个视角的人***置信息映射到水平面中来得到交叉点获取位置信息。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
多视角方法是通过视角间的信息间接获取水平面位置信息,因此在映射线角度比较小的情况下存在位置偏差急剧增大的情况,导致空间位置映射不准确,增加了目标匹配的难度。
发明内容
本发明提供了一种融合多视角信息的目标检测方法,本方法提高了空间位置映射的准确度,降低了目标匹配的难度,避免了存在位置偏差急剧增大的情况详见下文描述:
一种融合多视角信息的目标检测方法,所述目标检测方法包括以下步骤:
(1)对每个视角摄像头采集到的视频内容进行背景建模,通过得到的背景建模结果来提取前景区域;
(2)通过人体检测模型对所述前景区域进行检测,获取前景区域内的第一人体区域;
(3)对所述第一人体区域做基于空间信息的多视角关联,获取第二人体区域;
(4)通过基于块的人体检测模型对所述第一人体区域和所述第二人体区域分别进行检测,提取所述第一人体区域和所述第二人体区域各自的身体块信息,即第一身体块信息和第二身体块信息;
(5)对所述第一身体块信息和所述第二身体块信息进行相似度计算,获取最大相似度值,判断所述最大相似度值是否大于设定阈值,如果是,执行步骤(6);如果否,执行步骤(7);
(6)所述第一人体区域和所述第二人体区域对应的是同一个人,流程结束;
(7)所述第一人体区域和所述第二人体区域对应的不是同一个人,通过第二人体着地点和所述第一人体区域构建人体参考区域,流程结束。
所述对所述第一人体区域做基于空间信息的多视角关联,获取第二人体区域的步骤包括:
1)在当前视角下获取所述第一人体区域内的第一人体着地点;
2)通过空间仿射变换将所述第一人体着地点映射到当前视角以外的视角下,获取所述第二人体着地点;
3)获取所述第二人体着地点的临域;
4)判断所述临域内是否检测到人体,如果是,将人体所在的区域作为所述第二人体区域,执行步骤(4);如果否,执行步骤5);
5)通过所述第二人体着地点和所述第一人体区域构建所述人体参考区域,流程结束。
所述第一人体着地点和第二人体着地点具体为:
以视频图像左上角点为原点,水平方向为横坐标轴,垂直方向为纵坐标轴,且以水平向右和垂直向下为正方向建立图像坐标系,在人体区域中提取人体轮廓,将人体轮廓所有点中纵坐标值最大的点作为人体着地点。
所述临域具体为:以所述第二人体着地点为中心的预设面积的区域。
所述对所述第一身体块信息和所述第二身体块信息进行相似度计算,获取最大相似度值的步骤包括:
1)计算第一人体区域和第二人体区域各自包含的8个块的两两相似度值;
2)通过相似度值构建相似度矩阵C;
3)通过所述相似度矩阵C获取所述第一人体区域和所述第二人体区域之间的最大相似度路径,对所述最大相似度路径进行求解得到所述第一人体区域和所述第二人体区域之间的最大相似度值。
本发明提供的技术方案的有益效果是:本方法提高了空间位置映射的准确度,降低了目标匹配的难度,避免了存在位置偏差急剧增大的情况;利用仿射变换得到的映射信息能够更加准确的映射到人体目标;利用人体块信息匹配在一定程度上解决了遮挡问题。
附图说明
图1为一种融合多视角信息的目标检测方法的流程图;
图2为人体着地点的示意图;
图3a、图3b、图3c和图3d为试验的效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为了提高空间位置映射的准确度,降低目标匹配的难度,避免存在位置偏差急剧增大的情况,本发明实施例提供了一种融合多视角信息的目标检测方法,首先获取运动前景来降低误检率,然后在前景范围内进行人体检测,并通过仿射变换将视角间的信息直接关联起来,通过不同视角间检测出来的人体来弥补单视角下人体检测出现的漏检状况,来达到提高检测率的目的,参见图1,详见下文描述:
101:对每个视角摄像头采集到的视频内容进行背景建模,通过得到的背景建模结果来提取前景区域;
由于HOG(梯度方向直方图)检测是在每帧图像上遍历进行的,多视角情况下同时需要遍历的范围为单视角的N倍(N为视角个数),为此首先提取前景区域。对视频内容进行背景建模的操作、以及通过得到的背景建模结果来提取前景区域的操作为本领域技术人员所公知,本发明实施例采用了参考文献[5]中所提出的背景剪裁算法进行说明,在此不做赘述。
102:通过人体检测模型对前景区域进行检测,获取前景区域内的第一人体区域;
对各个视角,分别进行人体检测模型学习,例如:视角1对应人体检测模型。在各个视角视频帧的前景区域内,分别采用相应人体检测模型进行人体检测,仅仅保留包含人体的前景区域,作为后续多视角关联对象。
人体检测模型的学习思想是:首先,计算图像窗口的一阶梯度来捕获轮廓和纹理特征,并弱化光照的影响;其次,将图像窗口分成若干“单元格”,将各单元格中所有象素的一维梯度直方图[6]累加,并将该方向直方图映射到固定的角度上,使得该特征对图像中人体姿势和外观具有弱敏感性;最后,对各个单元格内梯度直方图进行归一化,待检测窗口中所有单元格的特征描述组成了该窗口图像的特征表示。在获得各个区域方向梯度直方图后,可以采用支持向量机模型[7]进行人体模型学习。
103:对第一人体区域做基于空间信息的多视角关联;
由于不同摄像头的视频信息在空间上是有关联的,在这种情况下,本方法通过空间仿射变换将各个视角检测结果关联起来,该步骤具体为:
1)在当前视角下获取第一人体区域内的第一人体着地点;
以视频图像左上角点为原点,水平方向为横坐标轴,垂直方向为纵坐标轴,且以水平向右和垂直向下为正方向建立图像坐标系,在第一人体区域中提取人体轮廓,将人体轮廓所有点中纵坐标值最大的点作为第一人体着地点。
其中,当纵坐标值最大的点为若干个时,可以将其中任意一个点作为第一人体着地点。人体轮廓提取采用参考文献[8]中的方法,本发明实施例在此不做赘述。
2)通过空间仿射变换将第一人体着地点映射到其他视角(当前视角以外的视角)下,获取相应视角下的第二人体着地点;
其中,第二人体着地点和第一人体着地点的含义一样,本发明实施例在此不做赘述。在图像处理中,空间仿射变换为二维坐标到二维坐标的线性变换,保持二维图形的平直性和平行性,空间仿射变换可以通过一系列的原子变换来实现,包括:平移、缩放、翻转和旋转。空间仿射变换[9]的元素包括一个变换矩阵A和一个向量u。
变换矩阵A的形式如(1)中等号左边所示,等号右边为具体表示形式:
其中,μ为坐标轴放缩参数,θ为坐标系旋转参数,(x0,y0)为坐标原点分别对应的横坐标和纵坐标平移参数,{d00,d01,d02,d10,d11,d12}6个参数为待求变换矩阵。
向量u的形式为[x,y,1]T(x,y)为待变换坐标;变换后的向量表示为[x',y',1]T,这样仿射变换就可表示如下:
对于仿射变换矩阵A中的6个参数,可以通过人为给定的3个对应点对带入公式(2)中形成(3)所示的6个方程构成的方程组求解而得,便可得到变换矩阵A:
其中,(x1,y1)与(x1',y1'),(x2,y2)与(x'2,y'2),(x3,y3)与(x'3,y'3)为给定的3对点。在实际应用中,可以通过人为标注得到两幅图像的相互对应的3组对应点对(可以在场景内摆放3个相对离散的点状标志物,这样在获取视角图像时就可以标记出这3个点在图像内的坐标),通过(3)方程组计算得到{d00,d01,d02,d10,d11,d12}6个变换矩阵参数后,也就是得到了变换矩阵A,便可以将图像中的任意点映射到对应的图像中。
以上介绍的是两个视角间空间放射变换矩阵A的计算方法,该方法为本领域技术人员所公知。对于多视角情况(例如3视角),只需计算视角1和视角2,视角2和视角3,视角3和视角1之间的三个方式变换矩阵,对于视角1、2、3的选择可以根据实际需要随意选择,在这里不作限制。
3)获取第二人体着地点的临域;
其中,临域为以第二人体着地点为中心的预设面积的区域,预设面积根据实际应用中的需要进行设定,本发明实施例对此不做限制。
4)判断临域内是否检测到人体,如果是,将人体所在的区域作为第二人体区域,执行步骤104;如果否,执行步骤5);
当临域内存在其他人体着地点(除第一人体着地点和第二人体着地点以外的人体着地点)时,即检测到人体;相反,临域内不存在其他人体着地点时,即没有检测到人体。
5)通过第二人体着地点和第一人体区域构建人体参考区域,流程结束。
其中,人体参考区域为第一人体区域在其他视角下的映射区域(例如:第一人体区域为视角1下的,人体参考区域为视角2下的第一人体区域的映射区域),即通过第二参考区域弥补对应视角下漏检的人体。假设第一人体区域为长方形,将第一人体区域的第一人体着地点映射到其他视角下,作为第二人体着地点(例如:图2中矩形区域的点),以人体着地点为基准,将第一人体区域的长和宽作为人体参考区域的长和宽,以经过人体着地点的中垂线为矩形的对称中心扩充得到图中矩形区域作为得到的第二人体区域;假设第一人体区域为椭圆形,同样道理,以人体着地点为基准,将第一人体区域的长和宽作为参考椭圆的长半轴和短半轴,以经过着地点的中垂线为椭圆的对称中心扩充得到图中椭圆区域作为得到的第二人体区域。
以一个具体的实例详细描述步骤103的操作过程,例如:视角1与视角2间的空间仿射变换矩阵为A12,利用空间仿射变换矩阵A12计算视角1中第一人体区域中的第一人体着地点在视角2中的第二人体着地点,构建第二人体着地点的临域(第二人体着地点为中心,宽和高分别为W和H的矩形,本实验中设定W=40,H=40),将第二人体着地点作为视角1中第一人体着地点在视角2中的位置;如果视角2中的临域内出现人体,将人体所在的区域作为第二人体区域,采用步骤104判定第一人体区域和第二人体区域是否为同一人体。如果视角2中的临域内没出现人体,通过第二人体着地点和第一人体区域构建人体参考区域,弥补对应视角下漏检的人体。
104:通过基于块的人体检测模型对第一人体区域和第二人体区域分别进行检测,提取第一人体区域和第二人体区域各自的身体块信息,即第一身体块信息和第二身体块信息;
本方法采用了基于块信息的人体检测算法[10]对第一人体区域和第二人体区域进行身体块信息检测。该人体检测算法能够在人体检测基础上提供肢体关键块区域位置(包括:2条腿、2只脚、头、胸、2个胳膊共8个块位置信息),为进一步进行人体区域匹配提供基础。对于每个身体块,采用视觉特征描述,表示成高维特征向量,本方法采用梯度方向直方图[6]特征进行表示,本发明实施例在此不做赘述。
105:对第一身体块信息和第二身体块信息进行相似度计算,获取最大相似度值,判断最大相似度值是否大于设定阈值TH1(参考值0.35),如果是,执行步骤106;如果否,执行步骤107;
其中,该步骤具体为:
即计算出64个相似度值,可以采用灰度直方图的交进行计算:
其中和分别为Ai和Bi的灰度直方图,i=1,2,…,8,Ai和Bi表示第一人体区域和第二人体区域各自的8个块,(k)和(k)分别为Ai和Bi直方图的第k个bin(组距)的特征统计,N为直方图bin的数目,参考值为10;min表示取(k)和(k)的最小值。
2)通过相似度值构建相似度矩阵C;
例如:A1和Bi的8个块分别利用步骤1)获取相似度值(按照i值的顺序依次计算),将8个相似度值作为相似度矩阵C的第一行,将A2和Bi的8个块的相似度值作为相似度矩阵C的第二行,依此类推,这样便会得到8×8的相似度矩阵C。
3)通过相似度矩阵C获取第一人体区域和第二人体区域之间的最大相似度路径,对最大相似度路径进行求解得到第一人体区域和第二人体区域之间的最大相似度值;
根据线性规划基本原理[11]第一人体区域和第二人体区域的相似度匹配问题可以归结为求取最优路径问题,也就是从相似度矩阵C中找到使第一人体区域和第二人体区域具有最大相似度的路径。该最优路径求解可以参考线性规划求解算法[11]进行求解,经求解得到第一人体区域和第二人体区域的最大相似度。
4)判断最大相似度值是否大于设定阈值TH1(参考值0.35),如果是,执行步骤106;如果否,执行步骤107。
106:第一人体区域和第二人体区域对应的是同一个人,流程结束;
107:第一人体区域和第二人体区域对应的不是同一个人,通过第二人体着地点和第一人体区域构建人体参考区域,流程结束。
下面通过具体的实验来验证本发明实施例提供的一种融合多视角信息的目标检测方法的可行性,详见下文描述:
图3a、图3b、图3c和图3d为检测和融合最后得到的效果图,本实验采用4个摄像头,分别安置在室内场景天花板的4个角,这样能够获取尽可能大的重叠区域,图中实线为每个视角下人体检测得到的结果,虚线为漏检的人体通过本方法得到的映射融合后的结果,4个视角下相同灰度值矩形代表的区域为同一人体,从最终结果中看出通过本方法能够充分利用多视角的丰富信息,在很大程度上弥补单独检测出现的不足,同时,利用本融合方法能够解决图3c、3d中出现的遮挡问题,体现出本方法解决遮挡问题的优越性。
参考文献
[1]K.O.Arras,O.Martnez Mozos,and W.Burgard,“Using boosted features for thedetection of people in 2d range data",in Proc.of the Int.Conf.on Robotics &Automation,2007.
[2]N.Dalal,B.Triggs,C.Schmid,”Human detection using oriented histograms offlow and appearance,in:European Conference on Computer Vision,Graz,Austria,May7–13,2006
[3]Zhengzhi Zhang,Kodagoda K.R.S.“,Multi-sensor approach for people detection”,Intelligent Sensors,Sensor Networks and Information Processing Conference,2005.Proceedings of the2005International Conference on Digital Object Identifier:Page(s):355–360,2005
[4]Kyungnam Kim and Larry S.Davis,”Multi-camera Tracking and Segmentation ofOccluded People on Ground Plane Using Search-Guided Particle Filtering”,Page(s):98-109,2006
[5]Kasaei,S.Mohsen Amiri,S.Bassirnia,A.Mansouri,P,”Information andCommunication Technologies”,2006.ICTTA'06.2nd2006,Page(s):1790–1793
[6]N.Dalal and B.Triggs,“Histograms of oriented gradients for human detection,"in Proc.of the IEEE Conf.on Comp.Vis.and Pat.Rec.(CVPR),2005.
[7]Corinna.Cortes,Vladimir.Vapnik:Support-Vector Networks,Machine Learning,20,273-297,1995
[8]Chan,Tony F.,Vese.Luminita A.“Active contours without edges”ImageProcessing,Page(s):266–2772001
[9]S.Ghali,“Introduction to Geometric Computing”,Springer Verlag,London,2008
[10]P.Felzenszwalb,R.Girshick,D.McAllester and D.Ramanan,“Object detectionwith discriminatively trained part based models”,In PAMI,2010
[11]Leonid Nison Vaserstein:“Introduction to Linear Programming”,PearsonEducation(US),2002
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种融合多视角信息的目标检测方法,其特征在于,所述目标检测方法包括以下步骤:
(1)对每个视角摄像头采集到的视频内容进行背景建模,通过得到的背景建模结果来提取前景区域;
(2)通过人体检测模型对所述前景区域进行检测,获取前景区域内的第一人体区域;
(3)对所述第一人体区域做基于空间信息的多视角关联,获取第二人体区域;
(4)通过基于块的人体检测模型对所述第一人体区域和所述第二人体区域分别进行检测,提取所述第一人体区域和所述第二人体区域各自的身体块信息,即第一身体块信息和第二身体块信息;
(5)对所述第一身体块信息和所述第二身体块信息进行相似度计算,获取最大相似度值,判断所述最大相似度值是否大于设定阈值,如果是,执行步骤(6);如果否,执行步骤(7);
(6)所述第一人体区域和所述第二人体区域对应的是同一个人,流程结束;
(7)所述第一人体区域和所述第二人体区域对应的不是同一个人,通过第二人体着地点和所述第一人体区域构建人体参考区域,流程结束。
2.根据权利要求1所述的一种融合多视角信息的目标检测方法,其特征在于,所述对所述第一人体区域做基于空间信息的多视角关联,获取第二人体区域的步骤包括:
1)在当前视角下获取所述第一人体区域内的第一人体着地点;
2)通过空间仿射变换将所述第一人体着地点映射到当前视角以外的视角下,获取所述第二人体着地点;
3)获取所述第二人体着地点的临域;
4)判断所述临域内是否检测到人体,如果是,将人体所在的区域作为所述第二人体区域,执行步骤(4);如果否,执行步骤5);
5)通过所述第二人体着地点和所述第一人体区域构建所述人体参考区域,流程结束。
3.根据权利要求1所述的一种融合多视角信息的目标检测方法,其特征在于,所述第一人体着地点和第二人体着地点具体为:
以视频图像左上角点为原点,水平方向为横坐标轴,垂直方向为纵坐标轴,且以水平向右和垂直向下为正方向建立图像坐标系,在人体区域中提取人体轮廓,将人体轮廓所有点中纵坐标值最大的点作为人体着地点。
4.根据权利要求1所述的一种融合多视角信息的目标检测方法,其特征在于,所述临域具体为:以所述第二人体着地点为中心的预设面积的区域。
5.根据权利要求1所述的一种融合多视角信息的目标检测方法,其特征在于,所述对所述第一身体块信息和所述第二身体块信息进行相似度计算,获取最大相似度值的步骤包括:
1)计算第一人体区域和第二人体区域各自包含的8个块的两两相似度值;
2)通过相似度值构建相似度矩阵C;
3)通过所述相似度矩阵C获取所述第一人体区域和所述第二人体区域之间的最大相似度路径,对所述最大相似度路径进行求解得到所述第一人体区域和所述第二人体区域之间的最大相似度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310121261.4A CN103177247B (zh) | 2013-04-09 | 2013-04-09 | 一种融合多视角信息的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310121261.4A CN103177247B (zh) | 2013-04-09 | 2013-04-09 | 一种融合多视角信息的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103177247A true CN103177247A (zh) | 2013-06-26 |
CN103177247B CN103177247B (zh) | 2015-11-18 |
Family
ID=48637089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310121261.4A Active CN103177247B (zh) | 2013-04-09 | 2013-04-09 | 一种融合多视角信息的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103177247B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310233A (zh) * | 2013-06-28 | 2013-09-18 | 青岛科技大学 | 同类行为多视图间相似度挖掘方法及行为识别方法 |
CN105518744A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN106327493A (zh) * | 2016-08-23 | 2017-01-11 | 电子科技大学 | 一种基于视觉显著性的多视角图像目标检测方法 |
CN109389031A (zh) * | 2018-08-27 | 2019-02-26 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
CN109539495A (zh) * | 2018-11-30 | 2019-03-29 | 广东美的制冷设备有限公司 | 控制方法、空气调节设备及存储介质 |
CN109579843A (zh) * | 2018-11-29 | 2019-04-05 | 浙江工业大学 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
CN109871771A (zh) * | 2019-01-21 | 2019-06-11 | 北京轻舟科技有限公司 | 一种基于单视角视频的自动检测人体的方法及*** |
CN111046803A (zh) * | 2019-12-13 | 2020-04-21 | 电子科技大学 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
CN111860074A (zh) * | 2019-04-30 | 2020-10-30 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN112307848A (zh) * | 2019-08-01 | 2021-02-02 | 普兰特龙尼斯公司 | 检测视频会议中的欺骗说话者 |
CN113673444A (zh) * | 2021-08-19 | 2021-11-19 | 清华大学 | 一种基于角点池化的路口多视角目标检测方法及*** |
CN116778347A (zh) * | 2023-08-24 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 数据更新方法、装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102005040A (zh) * | 2010-09-09 | 2011-04-06 | 吉林大学 | 基于多特征融合匹配的目标交接算法 |
CN102156863A (zh) * | 2011-05-16 | 2011-08-17 | 天津大学 | 跨摄像头的多运动目标跟踪方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及*** |
US8098888B1 (en) * | 2008-01-28 | 2012-01-17 | Videomining Corporation | Method and system for automatic analysis of the trip of people in a retail space using multiple cameras |
-
2013
- 2013-04-09 CN CN201310121261.4A patent/CN103177247B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098888B1 (en) * | 2008-01-28 | 2012-01-17 | Videomining Corporation | Method and system for automatic analysis of the trip of people in a retail space using multiple cameras |
CN102005040A (zh) * | 2010-09-09 | 2011-04-06 | 吉林大学 | 基于多特征融合匹配的目标交接算法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及*** |
CN102156863A (zh) * | 2011-05-16 | 2011-08-17 | 天津大学 | 跨摄像头的多运动目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
KYUNGNAM KIM,LARRY S. DAVIS: "multi-camera tracking and segmentation of occluded people on ground plane using search-guided particle filtering", 《ECCV 2006,PROCEEDINGS OF THE 9TH EUROPEAN CONFERENCE ON COMPUTER VISION,PART Ⅲ》 * |
PEDRO F. FELZENSZWALB ET AL: "object detection with discriminatively trained part-based models", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310233A (zh) * | 2013-06-28 | 2013-09-18 | 青岛科技大学 | 同类行为多视图间相似度挖掘方法及行为识别方法 |
CN103310233B (zh) * | 2013-06-28 | 2016-03-23 | 青岛科技大学 | 同类行为多视图间相似度挖掘方法及行为识别方法 |
CN105518744A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN105518744B (zh) * | 2015-06-29 | 2018-09-07 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN106327493A (zh) * | 2016-08-23 | 2017-01-11 | 电子科技大学 | 一种基于视觉显著性的多视角图像目标检测方法 |
CN106327493B (zh) * | 2016-08-23 | 2018-12-18 | 电子科技大学 | 一种基于视觉显著性的多视角图像目标检测方法 |
CN109389031A (zh) * | 2018-08-27 | 2019-02-26 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
CN109389031B (zh) * | 2018-08-27 | 2021-12-03 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
CN109579843A (zh) * | 2018-11-29 | 2019-04-05 | 浙江工业大学 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
CN109539495A (zh) * | 2018-11-30 | 2019-03-29 | 广东美的制冷设备有限公司 | 控制方法、空气调节设备及存储介质 |
CN109871771A (zh) * | 2019-01-21 | 2019-06-11 | 北京轻舟科技有限公司 | 一种基于单视角视频的自动检测人体的方法及*** |
CN111860074A (zh) * | 2019-04-30 | 2020-10-30 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN111860074B (zh) * | 2019-04-30 | 2024-04-12 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN112307848A (zh) * | 2019-08-01 | 2021-02-02 | 普兰特龙尼斯公司 | 检测视频会议中的欺骗说话者 |
CN112307848B (zh) * | 2019-08-01 | 2024-04-30 | 惠普发展公司,有限责任合伙企业 | 检测视频会议中的欺骗说话者 |
CN111046803A (zh) * | 2019-12-13 | 2020-04-21 | 电子科技大学 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
CN113673444A (zh) * | 2021-08-19 | 2021-11-19 | 清华大学 | 一种基于角点池化的路口多视角目标检测方法及*** |
CN113673444B (zh) * | 2021-08-19 | 2022-03-11 | 清华大学 | 一种基于角点池化的路口多视角目标检测方法及*** |
CN116778347A (zh) * | 2023-08-24 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 数据更新方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103177247B (zh) | 2015-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103177247A (zh) | 一种融合多视角信息的目标检测方法 | |
CN109934848B (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
CN110349250B (zh) | 一种基于rgbd相机的室内动态场景的三维重建方法 | |
Kong et al. | A viewpoint invariant approach for crowd counting | |
CN107093205B (zh) | 一种基于无人机图像的三维空间建筑物窗户检测重建方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN109102547A (zh) | 基于物体识别深度学习模型的机器人抓取位姿估计方法 | |
CN109190508A (zh) | 一种基于空间坐标系的多摄像头数据融合方法 | |
CN103414861B (zh) | 一种投影仪画面自适应几何矫正的方法 | |
CN107909604A (zh) | 基于双目视觉的动态物体运动轨迹识别方法 | |
CN106485735A (zh) | 基于立体视觉技术的人体目标识别与跟踪方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
Pundlik et al. | Time to collision and collision risk estimation from local scale and motion | |
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
Chandrajit et al. | Multiple objects tracking in surveillance video using color and hu moments | |
CN104463099A (zh) | 一种基于图的半监督耦合度量的多角度步态识别方法 | |
CN106210633A (zh) | 一种智慧金睛识别越线检测报警方法和装置 | |
CN103198475A (zh) | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 | |
CN114612933B (zh) | 单目社交距离检测追踪方法 | |
Darujati et al. | Facial motion capture with 3D active appearance models | |
Saisan et al. | Multi-view classifier swarms for pedestrian detection and tracking | |
CN104123569A (zh) | 一种基于有监督学习的视频人数信息统计方法 | |
Lo et al. | Vanishing point-based line sampling for real-time people localization | |
Fan et al. | Human-m3: A multi-view multi-modal dataset for 3d human pose estimation in outdoor scenes | |
Kawanishi et al. | Three-dimensional environment model construction from an omnidirectional image sequence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |