CN112541938A - 一种行人速度测量方法、***、介质及计算设备 - Google Patents
一种行人速度测量方法、***、介质及计算设备 Download PDFInfo
- Publication number
- CN112541938A CN112541938A CN202011497958.8A CN202011497958A CN112541938A CN 112541938 A CN112541938 A CN 112541938A CN 202011497958 A CN202011497958 A CN 202011497958A CN 112541938 A CN112541938 A CN 112541938A
- Authority
- CN
- China
- Prior art keywords
- time
- distance
- pixel difference
- difference
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 71
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000003384 imaging method Methods 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000000691 measurement method Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/64—Devices characterised by the determination of the time taken to traverse a fixed distance
- G01P3/68—Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种行人速度测量方法、***、介质及计算设备,其包括:加载原始图像数据;对原始图像数据进行目标检测,输出检测结果;对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;计算检测框顶点的像素差和前后帧之间的时间差;将时间差和像素差进行累计时间判断,保证存储数据在预先设定的时间阈值内;将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右的X方向和Y方向移动距离;将得到的现实场景中X和Y方向的距离,根据勾股定理计算得到运动距离;根据运动距离及累计时间,采用速度计算公式得到目标运动速度。本发明能实现精确的行人实时速度检测。
Description
技术领域
本发明涉及一种速度测量技术领域,特别是关于一种基于单目摄像头的行人速度测量方法、***、介质及计算设备。
背景技术
行人测速是各种场景下,行人智能化安全警示、防护、监控等功能实现的重要支撑技术。例如行人的跑步、散步等状态识别,人群中出现异常导致的大面积迅速移动等。传统的方式通过安保人员在现场巡视或者观察监控画面来实现。或者使用测速雷达实现。但是由于现有的地铁站安装有大量的监控设备,因此使用监控设备可以很大程度上节约成本。今年来随着人工智能技术的发展,部分厂商也已经尝试使用监控画面实现测速。但是由于技术原因导致测速的效果不理想。
现有测速雷达主要是雷达设备的发射机通过天线把电磁波能量射向空间某一方向,位于此方向上的物体反射碰到的电磁波;雷达天线接收此反射波,送至接收设备进行处理,提取有关该物体的某些信息(目标物体至雷达的距离,距离变化率或径向速度、方位、高度等)。其主要缺点是成本高,且难以对高复杂性场景下行人进行测速。
发明内容
针对上述问题,本发明的目的是提供一种基于单目摄像头的行人速度测量方法、***、介质及计算设备,其能实现精确的行人实时速度检测。
为实现上述目的,本发明采取以下技术方案:一种行人速度测量方法,其包括:步骤S1:加载原始图像数据;步骤S2:对原始图像数据进行目标检测,输出检测结果;步骤S3:对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;步骤S4:计算检测框顶点的像素差和前后帧之间的时间差;步骤S5:将时间差和像素差进行累计时间判断,保证存储数据在预先设定的时间阈值内;步骤S6:将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右移动的X方向和Y方向移动距离;步骤S7:将得到的现实场景中X和Y方向的时间阈值左右移动的距离,根据勾股定理计算得到运动距离;步骤S8:根据运动距离及累计时间,采用速度计算公式得到目标运动速度。
进一步,所述步骤S1中,采用单目摄像头或视频文件的方式加载原始图像数据。
进一步,所述步骤S2中,采用YOLOv3深度神经网络模型,完成多目标检测,并输出检测框类别及坐标信息。
进一步,所述步骤S3中,采用DeepSORT算法实现不同帧目标的关联跟踪,将关联跟踪到的目标类别及坐标信息输出。
进一步,所述步骤S4中,具体计算包括:
步骤S41:初始化预先设置的时间存储器及检测框顶点的像素差存储器,并将检测框顶点的原始运动像素差分解为X方向和Y方向;
步骤S42:计算X方向上前后两帧检测框顶点的像素差并存储至像素差存储器;
步骤S43:计算前后两帧之间的时间差并将记录至时间存储器;
步骤S44:计算Y方向上前后两帧检测框顶点的像素差并存储至像素差存储器。
进一步,所述步骤S5中,累计时间判断方法为:存储像素差的同时记录当前帧的时间戳,然后判断时间存储器中最开始和最末尾的时间差是否大于设定的时间阈值,大于该时间阈值就对像素差存储器中的像素差进行累计求和,进入步骤S6进行像素与实际距离的映射计算,并删除时间存储器和像素差存储器中起始位置的数据;小于则返回至步骤S4重新计算,直至满足结果。
进一步,所述步骤S6中,像素差映射公式为:
式中:w1为摄像头垂点的位置与垂直视场最近端的距离;w2为垂直视场最近端到视场中心线的距离;w3为垂直视场最远端到视场中心线的距离;w4为垂直视场最远端到视场中心线延长线的距离;h为摄像头高度;θ1为摄像头垂线与摄像头视场中心线的夹角;n为Y方向上的像素点个数;m为一常数,取值范围为[1,n-2];x0为摄像头成像平面中心垂直向上第一个像素对应的实际距离;x1为摄像头成像平面中心垂直向上第二个像素对应的实际距离;Y为摄像头成像平面垂直方向上每个像素对应的现实场景中的距离;H0为摄像头成像平面垂直方向上每个像素点到地面的距离;θ0为摄像头水平视场角的一半;w5为水平视场宽度的一半;X为摄像头成像平面水平方向上每个像素对应的现实场景中的距离。
一种行人速度测量***,其包括:加载模块、目标检测模块、跟踪模块、差值计算模块、判断模块、映射模块、运动距离获取模块和目标速度获取模块;所述加载模块用于加载原始图像数据;所述目标检测模块对原始图像数据进行目标检测,输出检测结果;所述跟踪模块对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;所述差值计算模块用于计算检测框顶点的像素差和前后帧之间的时间差;所述判断模块将时间差和像素差进行累计时间判断,保证存储数据在预先的时间阈值内;所述映射模块将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右移动的X方向和Y方向移动距离;所述运动距离获取模块将得到的现实场景中X和Y方向的时间阈值左右移动的距离,根据勾股定理计算得到运动距离;所述目标速度获取模块根据运动距离及累计时间,采用速度计算公式得到目标运动速度。
一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行上述方法中的任一方法。
一种计算设备,其包括:一个或多个处理器、存储器及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个或多个程序包括用于执行上述方法中的任一方法的指令。
本发明由于采取以上技术方案,其具有以下优点:1、本发明基于单目摄像头,通过深度学习及空间映射方法,并根据多坐标信息进行优化,实现精确的行人实时速度检测。2、本发明通过空间映射对像素与其实际距离进行一一映射,并且使用多坐标综合阈值判断等方式,提升了单目摄像头场景下的行人速度检测的准确率,并且在遮挡严重情况下速度检测准确率不受影响,精确化了速度计算的过程,最终使得准确率达到了90%以上。
附图说明
图1是本发明实施例中的方法流程示意图。
图2是本发明实施例中摄像头成像垂直剖面视图。
图3是本发明实施例中摄像头成像水平剖面视图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,相应的缩略语和关键术语定义如下:
YOLOv3:一种在工业场景下应用的卷积神经网络框架,其特殊的卷积层组织方式,使得其对小目标,较其他卷积神经网络模型精度有显著提升。
DeepSORT:多目标跟踪算法,是利用运动模型和外观信息进行数据关联,在实时目标追踪过程中,提取目标的表观特征进行最近邻匹配,可以改善有遮挡情况下的目标追踪效果。同时,也减少了目标ID跳变的问题。并且使用更加可靠的度量来代替关联度量,使卷积神经网络在大规模行人数据集进行训练,并提取特征,已增加网络对遗失和障碍的鲁棒性。
本发明将现实水平面的距离按照设置的空间映射方法映射到单目摄像头成像平面上的像素点,由于映射方法按照像素进行一一映射,因此较传统网格法具有很高的精度。以行人检测框顶点作为行人定位点进行行人测速,可在行人身体大面积遮挡的情况下依然得到较高的测速准确率;并根据行人检测框四个顶点的坐标在单位时间内的移动距离进行综合阈值判断,实现了行人非走动状态过滤。实现了高速、高准确率的行人速度测算。下面结合实施例对本发明进行详细的介绍。
在本发明的第一实施方式中,如图1所示,提供一种基于单目摄像头的行人速度测量方法,其包括:
步骤S1:加载原始图像数据;
在本实施例中,采用单目摄像头或视频文件的方式加载原始图像数据。
步骤S2:对原始图像数据进行目标检测,输出检测结果;
在本实施例中,采用YOLOv3深度神经网络模型,完成多目标检测,并输出检测框类别及坐标信息。
步骤S3:对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;
在本实施例中,采用DeepSORT算法实现不同帧目标的关联跟踪,将关联跟踪到的目标类别及坐标信息输出;
步骤S4:计算检测框顶点的像素差和前后帧之间的时间差;
具体计算包括:
步骤S41:初始化预先设置的时间存储器及检测框顶点的像素差存储器,并将检测框顶点的原始运动像素差分解为X方向和Y方向,为迭代计算检测框顶点的像素差做准备。
步骤S42:计算X方向上前后两帧检测框顶点的像素差并存储至像素差存储器。
步骤S43:计算前后两帧之间的时间差并将记录至时间存储器。
步骤S44:计算Y方向上前后两帧检测框顶点的像素差并存储至像素差存储器。
步骤S5:将时间差和像素差进行累计时间判断,保证存储数据在预先设定的时间阈值内。
具体的,累计时间判断方法为:存储像素差的同时记录当前帧的时间戳,然后判断时间存储器中最开始和最末尾的时间差是否大于设定的时间阈值。大于该时间阈值就对像素差存储器中的像素差进行累计求和,进入步骤S6进行像素与实际距离的映射计算,并删除时间存储器和像素差存储器中起始位置的数据;小于则返回至步骤S4重新计算,直至满足结果;
在本实施例中,预先设定的时间阈值为1秒。
步骤S6:将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右移动(例如1秒左右移动)的X方向和Y方向移动距离。
在本实施例中,像素差映射公式为:
如图2和图3所示,上述公式中,w1为摄像头垂点的位置与垂直视场最近端的距离;w2为垂直视场最近端到视场中心线的距离;w3为垂直视场最远端到视场中心线的距离;w4为垂直视场最远端到视场中心线延长线的距离;h为摄像头高度;θ1为摄像头垂线与摄像头视场中心线的夹角;n为Y方向上的像素点个数;m为一常数,取值范围为[1,n-2];x0为摄像头成像平面中心垂直向上第一个像素对应的实际距离;x1为摄像头成像平面中心垂直向上第二个像素对应的实际距离;Y为摄像头成像平面垂直方向上每个像素对应的现实场景中的距离;H0为摄像头成像平面垂直方向上每个像素点到地面的距离;θ0为摄像头水平视场角的一半;w5为水平视场宽度的一半;X为摄像头成像平面水平方向上每个像素对应的现实场景中的距离。
步骤S7:将得到的现实场景中X和Y方向的时间阈值左右移动的距离,根据勾股定理计算得到运动距离。
步骤S8:根据步骤S7得到的运动距离,及步骤S5得到累计时间,采用速度计算公式(v=s/t)得到目标运动速度。
在本发明的第二实施方式中,提供一种行人速度测量***,其包括:加载模块、目标检测模块、跟踪模块、差值计算模块、判断模块、映射模块、运动距离获取模块和目标速度获取模块;
加载模块用于加载原始图像数据;
目标检测模块对原始图像数据进行目标检测,输出检测结果;
跟踪模块对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;
差值计算模块用于计算检测框顶点的像素差和前后帧之间的时间差;
判断模块将时间差和像素差进行累计时间判断,保证存储数据在预先的时间阈值内;
映射模块将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右移动的X方向和Y方向移动距离;
运动距离获取模块将得到的现实场景中X和Y方向的时间阈值左右移动的距离,根据勾股定理计算得到运动距离;
目标速度获取模块根据运动距离及累计时间,采用速度计算公式得到目标运动速度。
在本发明的第三实施方式中,提供一种存储一个或多个程序的计算机可读存储介质,一个或多个程序包括指令,指令当由计算设备执行时,使得计算设备执行如上述第一实施方式中的任一方法。
在本发明的第四实施方式中,提供一种计算设备,其包括:一个或多个处理器、存储器及一个或多个程序,其中一个或多个程序存储在存储器中并被配置为一个或多个处理器执行,一个或多个程序包括用于执行如上述第一实施方式中的任一方法的指令。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
Claims (10)
1.一种行人速度测量方法,其特征在于,包括:
步骤S1:加载原始图像数据;
步骤S2:对原始图像数据进行目标检测,输出检测结果;
步骤S3:对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;
步骤S4:计算检测框顶点的像素差和前后帧之间的时间差;
步骤S5:将时间差和像素差进行累计时间判断,保证存储数据在预先设定的时间阈值内;
步骤S6:将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右移动的X方向和Y方向移动距离;
步骤S7:将得到的现实场景中X和Y方向的时间阈值左右移动的距离,根据勾股定理计算得到运动距离;
步骤S8:根据运动距离及累计时间,采用速度计算公式得到目标运动速度。
2.如权利要求1所述测量方法,其特征在于,所述步骤S1中,采用单目摄像头或视频文件的方式加载原始图像数据。
3.如权利要求1所述测量方法,其特征在于,所述步骤S2中,采用YOLOv3深度神经网络模型,完成多目标检测,并输出检测框类别及坐标信息。
4.如权利要求1所述测量方法,其特征在于,所述步骤S3中,采用DeepSORT算法实现不同帧目标的关联跟踪,将关联跟踪到的目标类别及坐标信息输出。
5.如权利要求1所述测量方法,其特征在于,所述步骤S4中,具体计算包括:
步骤S41:初始化预先设置的时间存储器及检测框顶点的像素差存储器,并将检测框顶点的原始运动像素差分解为X方向和Y方向;
步骤S42:计算X方向上前后两帧检测框顶点的像素差并存储至像素差存储器;
步骤S43:计算前后两帧之间的时间差并将记录至时间存储器;
步骤S44:计算Y方向上前后两帧检测框顶点的像素差并存储至像素差存储器。
6.如权利要求1所述测量方法,其特征在于,所述步骤S5中,累计时间判断方法为:存储像素差的同时记录当前帧的时间戳,然后判断时间存储器中最开始和最末尾的时间差是否大于设定的时间阈值,大于该时间阈值就对像素差存储器中的像素差进行累计求和,进入步骤S6进行像素与实际距离的映射计算,并删除时间存储器和像素差存储器中起始位置的数据;小于则返回至步骤S4重新计算,直至满足结果。
7.如权利要求1所述测量方法,其特征在于,所述步骤S6中,像素差映射公式为:
式中:w1为摄像头垂点的位置与垂直视场最近端的距离;w2为垂直视场最近端到视场中心线的距离;w3为垂直视场最远端到视场中心线的距离;w4为垂直视场最远端到视场中心线延长线的距离;h为摄像头高度;θ1为摄像头垂线与摄像头视场中心线的夹角;n为Y方向上的像素点个数;m为一常数,取值范围为[1,n-2];x0为摄像头成像平面中心垂直向上第一个像素对应的实际距离;x1为摄像头成像平面中心垂直向上第二个像素对应的实际距离;Y为摄像头成像平面垂直方向上每个像素对应的现实场景中的距离;H0为摄像头成像平面垂直方向上每个像素点到地面的距离;θ0为摄像头水平视场角的一半;w5为水平视场宽度的一半;X为摄像头成像平面水平方向上每个像素对应的现实场景中的距离。
8.一种行人速度测量***,其特征在于,包括:加载模块、目标检测模块、跟踪模块、差值计算模块、判断模块、映射模块、运动距离获取模块和目标速度获取模块;
所述加载模块用于加载原始图像数据;
所述目标检测模块对原始图像数据进行目标检测,输出检测结果;
所述跟踪模块对目标检测结果进行不同帧目标的关联跟踪,输出符合跟踪约束条件的检测结果;
所述差值计算模块用于计算检测框顶点的像素差和前后帧之间的时间差;
所述判断模块将时间差和像素差进行累计时间判断,保证存储数据在预先的时间阈值内;
所述映射模块将像素差进行映射,得到实际距离,再根据像素进行累加,得到时间阈值左右移动的X方向和Y方向移动距离;
所述运动距离获取模块将得到的现实场景中X和Y方向的时间阈值左右移动的距离,根据勾股定理计算得到运动距离;
所述目标速度获取模块根据运动距离及累计时间,采用速度计算公式得到目标运动速度。
9.一种存储一个或多个程序的计算机可读存储介质,其特征在于,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行如权利要求1至7所述方法中的任一方法。
10.一种计算设备,其特征在于,包括:一个或多个处理器、存储器及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个或多个程序包括用于执行如权利要求1至7所述方法中的任一方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011497958.8A CN112541938A (zh) | 2020-12-17 | 2020-12-17 | 一种行人速度测量方法、***、介质及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011497958.8A CN112541938A (zh) | 2020-12-17 | 2020-12-17 | 一种行人速度测量方法、***、介质及计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112541938A true CN112541938A (zh) | 2021-03-23 |
Family
ID=75019059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011497958.8A Pending CN112541938A (zh) | 2020-12-17 | 2020-12-17 | 一种行人速度测量方法、***、介质及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112541938A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096151A (zh) * | 2021-04-07 | 2021-07-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN114755444A (zh) * | 2022-06-14 | 2022-07-15 | 天津所托瑞安汽车科技有限公司 | 目标速度测定方法、装置、电子设备及存储介质 |
CN114966090A (zh) * | 2022-06-15 | 2022-08-30 | 南京航空航天大学 | 一种基于深度学习的船舶视频测速方法 |
-
2020
- 2020-12-17 CN CN202011497958.8A patent/CN112541938A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096151A (zh) * | 2021-04-07 | 2021-07-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN113096151B (zh) * | 2021-04-07 | 2022-08-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN114755444A (zh) * | 2022-06-14 | 2022-07-15 | 天津所托瑞安汽车科技有限公司 | 目标速度测定方法、装置、电子设备及存储介质 |
CN114966090A (zh) * | 2022-06-15 | 2022-08-30 | 南京航空航天大学 | 一种基于深度学习的船舶视频测速方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462200B (zh) | 一种跨视频行人定位追踪方法、***及设备 | |
CN110349250B (zh) | 一种基于rgbd相机的室内动态场景的三维重建方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
JP6095018B2 (ja) | 移動オブジェクトの検出及び追跡 | |
CN112541938A (zh) | 一种行人速度测量方法、***、介质及计算设备 | |
JP5487298B2 (ja) | 3次元画像生成 | |
CN105760846A (zh) | 基于深度数据的目标检测与定位方法及*** | |
CN110827320B (zh) | 基于时序预测的目标跟踪方法和装置 | |
CN113379801B (zh) | 一种基于机器视觉的高空抛物监测定位方法 | |
CN104200492A (zh) | 基于轨迹约束的航拍视频目标自动检测跟踪方法 | |
JP5027758B2 (ja) | 画像監視装置 | |
CN112906777A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN114119729A (zh) | 障碍物识别方法及装置 | |
WO2022127181A1 (zh) | 客流的监测方法、装置、电子设备及存储介质 | |
CN114280611A (zh) | 一种融合毫米波雷达与摄像头的路侧感知方法 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN103679172A (zh) | 一种通过转动红外探测器检测地面远距离运动目标的方法 | |
Notz et al. | Extraction and assessment of naturalistic human driving trajectories from infrastructure camera and radar sensors | |
CN111260725B (zh) | 一种面向动态环境的轮速计辅助的视觉里程计方法 | |
CN117132649A (zh) | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其*** | |
CN113160299B (zh) | 基于卡尔曼滤波的车辆视频测速方法和计算机可读存储介质 | |
CN116259001A (zh) | 一种多视角融合的三维行人姿态估计与追踪方法 | |
Pfeiffer et al. | Ground truth evaluation of the Stixel representation using laser scanners | |
CN107067411B (zh) | 一种结合密集特征的Mean-shift跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |