CN112287778B - 基于方向聚合的人流量分析方法及介质 - Google Patents

基于方向聚合的人流量分析方法及介质 Download PDF

Info

Publication number
CN112287778B
CN112287778B CN202011112193.1A CN202011112193A CN112287778B CN 112287778 B CN112287778 B CN 112287778B CN 202011112193 A CN202011112193 A CN 202011112193A CN 112287778 B CN112287778 B CN 112287778B
Authority
CN
China
Prior art keywords
dynamic
straight lines
line
people flow
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011112193.1A
Other languages
English (en)
Other versions
CN112287778A (zh
Inventor
王网明
刘�东
吕建建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OP Retail Suzhou Technology Co Ltd
Original Assignee
OP Retail Suzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OP Retail Suzhou Technology Co Ltd filed Critical OP Retail Suzhou Technology Co Ltd
Priority to CN202011112193.1A priority Critical patent/CN112287778B/zh
Publication of CN112287778A publication Critical patent/CN112287778A/zh
Application granted granted Critical
Publication of CN112287778B publication Critical patent/CN112287778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于方向聚合的人流量分析方法及介质,其上存储有计算机程序,该程序被处理器执行时实现基于方向聚合的人流量分析方法的步骤,该方法包括:建立坐标系,将获取到的目标图片在坐标系上进行合成,用于生成人物轨迹,并对每个人物轨迹上的离散点进行拟合形成直线;将合成的目标图片划分为多个动态区域,对动态区域内方向近似的直线进行多次合并,最终生成人流量分析界面。本发明将整理出人物的轨迹曲线进行拟合形成直线,科学合理的划分动态区域,对动态区域内方向近似的直线进行多次合并,整理分析出整体区域的人流方向,提供给使用者作为参考,通过人流量数据的统计与分析,更加科学合理地利用自身的资源增加效益。

Description

基于方向聚合的人流量分析方法及介质
技术领域
本发明涉及人流量统计与分析技术领域,尤其涉及基于方向聚合的人流量分析方法及介质。
背景技术
在路口、银行、商场等公共场所进行人流量统计,人流量统计数据可以作为建设、管理、决策等方面的重要依据,例如,通过人流量数据的统计与分析,我们可以更加科学合理地布局交通设施、管理银行安全、决策商场营销方式等。现有技术较为常用的人流量统计方法主要是通过监控视频分析技术来统计人流量。但是现有的这种方法大多只是按照人的行动轨迹画出人移动的轨迹曲线,一方面时间维度较长,显示的轨迹曲线非常杂乱,因此多数情况下只能粗略的估算一下人流量,很难清楚的获取人流量的具体信息;另一方面当人流量较大时,其显示的轨迹曲线非常多且杂乱,日常使用的手机、平板由于显示界面较为局限,因此很难做到全局人流量可视化的效果,需要反复滑动界面,导致用户体验非常的差。
发明内容
为了解决上述的技术问题,本发明的一个目的是提供一种基于方向聚合的人流量分析方法,包括如下内容:
建立坐标系,将获取到的目标图片在坐标系上进行合成,用于生成人物轨迹,并对每个人物轨迹上的离散点进行拟合形成直线;
将合成的目标图片划分为多个动态区域,对动态区域内方向近似的直线进行多次合并,最终生成人流量分析界面。
采用以上技术方案,目标图片合成后,每个人物所在的点均转换为坐标系中的(x,y)值,每个点以及每个点对应的时间一并存储于数据库内。
采用以上技术方案,根据最小二乘法将每个人物轨迹拟合为直线,对每条直线的方向进行预定义,以时间早为起点、时间晚为终点在直线上标识方向箭头,其中最小二乘法的公式如下:
Figure BDA0002728956630000021
Figure BDA0002728956630000022
其中a为斜率;b为Y轴上的截距;
Figure BDA0002728956630000023
为y的平均值;
Figure BDA0002728956630000024
为x的平均值;N为所有离散点的个数;∑xy为所有离散点x乘以y求和;∑x为所有x的和;∑y为所有y的和;∑x2为所有x平方的和。
采用以上技术方案,依据直线的数量将合成的目标图片的每条边的边长划分n等分形成多个动态区域,每个动态区域的直线的起点与终点均落在该动态区域内。
采用以上技术方案,对动态区域内方向近似的直线的多次合并包括一次合并,一次合并对每个动态区域内方向近似的直线进行合并生成动态线,依据合并的直线的数量赋予该动态线对应的权重。
采用以上技术方案,在一次合并中,预先自定义阈值夹角,根据该动态区域内的直线的斜率计算直线两两之间的夹角,在夹角小于阈值夹角时,对形成该夹角的两条直线进行合并生成动态线,依据合并的直线的数量赋予该动态线对应的权重。
采用以上技术方案,每重新生成一个动态线后,将该动态线定义为新的直线参与到该动态区域直线两两之间的夹角计算,以此类推实现该动态区域内直线夹角在阈值夹角以下的直线的合并。
采用以上技术方案,对动态区域内方向近似的直线的多次合并包括二次合并,二次合并在动态区域边界的两条动态线起点的距离以及终点的距离均小于边长的n分之一时,两条动态线的起点与终点进行动态偏移,跨区域合并为赋予新权重的动态偏移线。
采用以上技术方案,还包括动态偏移线的过滤内容,动态区域内方向近似的直线经过二次合并后,***自定义过滤掉一部分权重值较小的动态线或动态偏移线。
本发明的另一个目的是提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的基于方向聚合的人流量分析方法的步骤。
本发明的有益效果:本发明将图片采集和数学方法相结合,整理出人物的轨迹曲线进行拟合形成直线,科学合理的划分动态区域,对动态区域内方向近似的直线进行多次合并,整理分析出整体区域的人流方向,提供给使用者作为参考,通过人流量数据的统计与分析,更加科学合理地利用自身的资源增加效益。
附图说明
图1是本发明实施例1一种基于方向聚合的人流量分析方法的流程示意图。
图2是本发明实施例1一种基于方向聚合的人流量分析方法中步骤101的流程示意图。
图3是本发明实施例1一种基于方向聚合的人流量分析方法中步骤102的流程示意图。
图4是本发明实施例1一种基于方向聚合的人流量分析方法中步骤101a的示意图。
图5是本发明实施例1一种基于方向聚合的人流量分析方法中步骤101b的示意图。
图6是本发明实施例1一种基于方向聚合的人流量分析方法中步骤101c的示意图。
图7是本发明实施例1一种基于方向聚合的人流量分析方法中步骤102a的示意图。
图8是本发明实施例1一种基于方向聚合的人流量分析方法中步骤102b的示意图。
图9是本发明实施例1一种基于方向聚合的人流量分析方法中步骤102c的示意图。
图10是本发明实施例2一种基于方向聚合的人流量分析方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
实施例1
参照图1所示,本发明实施例1提供一种基于方向聚合的人流量分析方法,该方法包括以下步骤:
在步骤101中,建立坐标系,将获取到的目标图片在坐标系上进行合成,用于生成人物轨迹,并对每个人物轨迹上的离散点进行拟合形成直线。
示例地,可以对通过摄像头收集到的图片数据的关键帧进行提取,其中该关键帧可以是实时采集的图片数据中的任一帧,也可以是符合预设要求的指定帧,例如能够清晰反映是否有人流的帧,从而可以获取该摄像头所拍摄位置的人流图像,再通过reshape函数对该图片上的图像进行预处理,以得到规范化的图片,作为该目标图片。其中,摄像头1-2秒会给服务器上传一次图片数据。
在步骤102中,将合成的目标图片划分为多个动态区域,对动态区域内方向近似的直线进行多次合并,最终生成人流量分析界面。
综上所述,本发明将图片采集和数学方法相结合,整理出人物的轨迹曲线进行拟合形成直线,科学合理的划分动态区域,对动态区域内方向近似的直线进行多次合并,整理分析出整体区域的人流方向,提供给使用者作为参考,通过人流量数据的统计与分析,更加科学合理地利用自身的资源增加效益。例如通过人流量数据的统计与分析,我们可以更加科学合理地布局交通设施、管理银行安全、决策商场营销方式等。
图2示出了本发明一种基于方向聚合的人流量分析方法中的步骤101的流程示意图,包括以下步骤:
首先是步骤101a,建立坐标系,对采集的目标图片进行合成以及坐标系转换。
示例地,A,B,C,D为四个摄像头抓拍的区域,把在A,B,C,D四个区域通过摄像头采集到的目标图片在坐标系中进行合成,参照图4所示,其中目标图片中每一个点都代表同一时间在这个区域内的不同的人物,并且摄像头识别到每一个人物,均会给这个人物一个唯一的标识I D,每个人物所在的点均转换为坐标系中的(x,y)值,每个点以及每个点对应的时间一并存储于数据库内。
之后是步骤101b,生成人物轨迹曲线。
示例地,假设我们想知道某一天下午2:00-3:00的人物轨迹图,***会调取这个时间段内所有的目标图片对应的坐标,把相同标识ID的人物的坐标信息进行拼接,就会生成该人物的轨迹曲线,参照图5所示,其中相同图案、相同颜色的为其中一个人物在2:00-3:00生成的轨迹曲线,当然实际可能会有非常多的轨迹曲线,这里只做说明,不以此为限制。
最后是步骤101c,根据最小二乘法将人物轨迹曲线拟合为直线。
示例地,通过最小二乘法公式对离散点进行拟合,其公式如下:
Figure BDA0002728956630000061
Figure BDA0002728956630000062
其中参数解释为:a为斜率;b为Y轴上的截距;
Figure BDA0002728956630000063
为y的平均值;
Figure BDA0002728956630000064
为x的平均值;N为所有离散点的个数;∑xy为所有离散点x乘以y求和;∑x为所有x的和;∑y为所有y的和;∑x2为所有x平方的和。
根据公式,可以把所有离散点聚合成对应直线,对每条直线的方向进行预定义,以时间早为起点、时间晚为终点在直线上标识方向箭头,从而可以判断出每条直线的方向,参照图6所示。
图3示出了本发明一种基于方向聚合的人流量分析方法中的步骤102的流程示意图,包括以下步骤:
首先是步骤102a,将合成的目标图片划分为多个动态区域。
示例地,依据直线的数量将合成的目标图片的每条边的边长划分n等分形成多个动态区域,每个动态区域的直线的起点与终点均落在该动态区域内,即动态区域的划分规则是一方面满足每个动态区域内的所有直线的起点均在同一线段上,另一方面同时满足每个动态区域内的所有直线的终点均在同一线段上。假设一个动态区域内的所有直线的终点不在同一线段上,那么就要判断直线的长度是否还要对边长进行等分,直至满足动态区域的划分规则即可。例如每条边的边长划分4等分形成16*12个动态区域,以X轴所在的边为入口,则其他的边均为出口,动态区域划分如图7所示。
示例地,例如100平米的商场的人流量达到4000以上时,这就意味着人流量较大,这时候,n的取值通常为8,即***将每个边长进行8等分从而得到56个动态区域,之后判断是否满足动态区域的划分规则,如果满足,则动态区域的划分工作结束,如果不满足,则需要判断直线的长度是否还要对边长进行等分,例如16等分或者32等分等等,直至满足动态区域的划分规则即可。
之后是步骤102b,对同一个动态区域内方向近似的直线进行一次合并。
示例地,一次合并对同一个动态区域内方向近似的直线进行合并生成动态线,依据合并的直线的数量赋予该动态线对应的权重。具体的,预先自定义阈值夹角,根据该动态区域内的直线的斜率计算直线两两之间的夹角,在夹角小于阈值夹角时,对形成该夹角的两条直线进行合并生成动态线,依据合并的直线的数量赋予该动态线对应的权重,每重新生成一个动态线后,将该动态线定义为新的直线参与到该动态区域直线两两之间的夹角计算,以此类推实现该动态区域内直线夹角在阈值夹角以下的直线的合并。例如阈值夹角自定义为8度,***检测到该动态区域内直线两两之间的夹角小于8度时,会对该两条直线进行合并,重新生成一条中间线,该中间线即为动态线,该动态线是由两条直线合并而来,因此给该动态线赋予的权重值为2,之后该权重值为2的动态线参与到该动态区域直线两两之间的夹角计算,以此类推实现该动态区域内直线夹角在8度以下的所有直线的合并。如果某一条动态线是由10条直线合并而来,那么该条动态线的权重值为10。
示例地,参照图8所示,以单个动态区域内的直线合并为例。图中已知标号分别为1,2,3,4这四条直线,其中1号直线和2号直线的夹角大于8度无需合并,3号直线和4号直线的夹角小于8度需要合并,这时候生成一条权重值为2的动态线,该动态线与2号路线在动态区域内无交点,且该动态线与1号路线的夹角大于8度无需合并,即该动态区域内的直线的一次合并动作结束。
最后是步骤102c,对动态区域边界存在的方向近似的直线进行二次合并。
示例地,在动态区域的边界处可能会存在方向近似的两条动态线,这时候这两条动态线需要进行二次合并。其中是否需要二次合并的判断标准如下:在动态区域边界的两条动态线起点的距离以及终点的距离均小于边长的n分之一时,两条动态线的起点与终点进行动态偏移,跨区域合并为赋予新权重的动态偏移线。需要注意的是,这里是两个起点的距离和两个终点的距离均小于边长的n分之一时,如果只是其中的两个起点的距离小于边长的n分之一时,这两条动态线不需要进行二次合并。
示例地,参照图9所示,以图中所示的这两个动态区域为例。图中已知标号分别为1和2这两条动态线,1号动态线的起点和2号动态线的起点的距离太小,小于等分距离,这时候就需要将1号动态线和2号动态线进行二次合并,生成一条动态偏移线。而且该动态偏移线的斜率与1号动态线和2号动态线的权重值有关。
综上所述,在步骤102中,在动态区域划分完成后,首先是对同一个动态区域内方向近似的直线进行一次合并,生成动态线,这时候动态线的数量明显小于合并前的直线的数量。当然这时候动态线的数量还是比较多的,因此在一次合并后,又对动态区域边界存在的方向近似的直线进行二次合并,生成动态偏移线,这时候动态偏移线的数量明显小于一次合并后的动态线的数量,一方面人流量分析界面上的动态偏移线的数量少且不杂乱,另一方面通过动态偏移线对应的权重值能够清楚的获悉该动态偏移线上的人流量,其中权重值越大,表面该动态偏移线上的人流量越大。
实施例2
考虑到日常使用的手机和平板的显示界面较小。因此本发明实施例2提供一种基于方向聚合的人流量分析方法,其包括上述实施例1中的方法步骤,且相同的方法步骤采用相同的附图标记,该实施例在这里不再赘述。然而不同的是,参照图10所示,本实施例还包括步骤103,在步骤103中,动态区域内方向近似的直线经过二次合并后,***自定义过滤掉一部分权重值较小的动态线或动态偏移线。
示例地,经过二次合并后,如果数据量过大,仍然会出现非常多的路线(这里指动态线和动态偏移线),如果使用显示界面比较小的移动设备进行观看时,仍然不能够很直观的进行全局可视化。因此***会自定义过滤掉权重值最高的1/5以下权重值的路线,就是说,如果所有路线的最大权重值为100时,那么权重值在20以下的路线就会在渲染时被***自动舍弃,从而保证全局可视化的直观性。当然,舍弃的权重比值可以自行设定。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,例如包括程序指令的存储器,上述程序指令可由处理器执行以完成上述的一种基于方向聚合的人流量分析方法。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (10)

1.一种基于方向聚合的人流量分析方法,其特征在于,所述方法包括:
步骤101,建立坐标系,将获取到的目标图片在坐标系上进行合成,用于生成人物轨迹,并对每个人物轨迹上的离散点进行拟合形成直线;
步骤102,将合成的目标图片划分为多个动态区域,对动态区域内方向近似的直线进行多次合并,最终生成人流量分析界面;其中,所述动态区域的划分规则为每个动态区域内的所有直线的起点均在同一线段上,每个动态区域内的所有直线的终点均在同一线段上。
2.如权利要求1所述的基于方向聚合的人流量分析方法,其特征在于,所述目标图片合成后,每个人物所在的点均转换为坐标系中的坐标值,每个点以及每个点对应的时间一并存储于数据库。
3.如权利要求1所述的基于方向聚合的人流量分析方法,其特征在于,根据最小二乘法将每个人物轨迹拟合为直线,对每条直线的方向进行预定义,以时间早为起点、时间晚为终点在直线上标识方向箭头,其中最小二乘法的公式如下:
Figure DEST_PATH_IMAGE001
Figure DEST_PATH_IMAGE002
其中,a为斜率;b为Y轴上的截距;
Figure DEST_PATH_IMAGE003
为y的平均值;
Figure DEST_PATH_IMAGE004
为x的平均值;N为所有离散点的个数;∑xy为所有离散点x乘以y求和;∑x为所有x的和;∑y为所有y的和;∑x2为所有x平方的和。
4.如权利要求1所述的基于方向聚合的人流量分析方法,其特征在于,依据直线的数量将合成的目标图片的每条边的边长划分n等分形成多个动态区域,每个动态区域的直线的起点与终点均落在该动态区域内。
5.如权利要求1所述的基于方向聚合的人流量分析方法,其特征在于,所述对动态区域内方向近似的直线的多次合并包括一次合并,所述一次合并对每个动态区域内方向近似的直线进行合并生成动态线,依据合并的直线的数量赋予该动态线对应的权重。
6.如权利要求5所述的基于方向聚合的人流量分析方法,其特征在于,在所述一次合并中,预先自定义阈值夹角,根据该动态区域内的直线的斜率计算直线两两之间的夹角,在夹角小于阈值夹角时,对形成该夹角的两条直线进行合并生成动态线,依据合并的直线的数量赋予该动态线对应的权重。
7.如权利要求6所述的基于方向聚合的人流量分析方法,其特征在于,每重新生成一个动态线后,将该动态线定义为新的直线参与到该动态区域直线两两之间的夹角计算,以此类推实现该动态区域内直线夹角在阈值夹角以下的直线的合并。
8.如权利要求1所述的基于方向聚合的人流量分析方法,其特征在于,对动态区域内方向近似的直线的多次合并包括二次合并,所述二次合并在动态区域边界的两条动态线起点的距离以及终点的距离均小于边长的n分之一时,两条动态线的起点与终点进行动态偏移,跨区域合并为赋予新权重的动态偏移线。
9.如权利要求1所述的基于方向聚合的人流量分析方法,其特征在于,还包括动态偏移线的过滤内容,动态区域内方向近似的直线经过二次合并后,***自定义过滤掉一部分权重值较小的动态线或动态偏移线。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-9任一项所述方法的步骤。
CN202011112193.1A 2020-10-16 2020-10-16 基于方向聚合的人流量分析方法及介质 Active CN112287778B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011112193.1A CN112287778B (zh) 2020-10-16 2020-10-16 基于方向聚合的人流量分析方法及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011112193.1A CN112287778B (zh) 2020-10-16 2020-10-16 基于方向聚合的人流量分析方法及介质

Publications (2)

Publication Number Publication Date
CN112287778A CN112287778A (zh) 2021-01-29
CN112287778B true CN112287778B (zh) 2021-07-27

Family

ID=74496199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011112193.1A Active CN112287778B (zh) 2020-10-16 2020-10-16 基于方向聚合的人流量分析方法及介质

Country Status (1)

Country Link
CN (1) CN112287778B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877058A (zh) * 2010-02-10 2010-11-03 杭州海康威视软件有限公司 人流量统计的方法及***
CN104199309A (zh) * 2014-09-03 2014-12-10 长江三峡能事达电气股份有限公司 水轮机调速器仿真测试仪模拟通道校准方法
CN104933710A (zh) * 2015-06-10 2015-09-23 华南理工大学 基于监控视频下的商店人流轨迹智能分析方法
CN105761507A (zh) * 2016-03-28 2016-07-13 长安大学 一种基于三维轨迹聚类的车辆计数方法
CN106127137A (zh) * 2016-06-21 2016-11-16 长安大学 一种基于3d轨迹分析的目标检测识别算法
CN107220900A (zh) * 2017-05-03 2017-09-29 陕西师范大学 基于中心投影的学生课堂社交网络自动构建方法
CN107622085A (zh) * 2017-08-11 2018-01-23 河海大学 一种基于网格和密度的自适应轨迹聚类方法
CN107909047A (zh) * 2017-11-28 2018-04-13 上海信耀电子有限公司 一种汽车及其应用的车道检测方法及***
CN110348143A (zh) * 2019-07-15 2019-10-18 广州图普网络科技有限公司 一种轨迹合并方法、装置及存储介质
CN110766895A (zh) * 2019-09-17 2020-02-07 重庆特斯联智慧科技股份有限公司 基于目标轨迹分析的智慧社区异常报警***及方法
CN110906940A (zh) * 2019-10-26 2020-03-24 武汉中海庭数据技术有限公司 一种基于轨迹方向的车道边线聚合方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877058A (zh) * 2010-02-10 2010-11-03 杭州海康威视软件有限公司 人流量统计的方法及***
CN104199309A (zh) * 2014-09-03 2014-12-10 长江三峡能事达电气股份有限公司 水轮机调速器仿真测试仪模拟通道校准方法
CN104933710A (zh) * 2015-06-10 2015-09-23 华南理工大学 基于监控视频下的商店人流轨迹智能分析方法
CN105761507A (zh) * 2016-03-28 2016-07-13 长安大学 一种基于三维轨迹聚类的车辆计数方法
CN106127137A (zh) * 2016-06-21 2016-11-16 长安大学 一种基于3d轨迹分析的目标检测识别算法
CN107220900A (zh) * 2017-05-03 2017-09-29 陕西师范大学 基于中心投影的学生课堂社交网络自动构建方法
CN107622085A (zh) * 2017-08-11 2018-01-23 河海大学 一种基于网格和密度的自适应轨迹聚类方法
CN107909047A (zh) * 2017-11-28 2018-04-13 上海信耀电子有限公司 一种汽车及其应用的车道检测方法及***
CN110348143A (zh) * 2019-07-15 2019-10-18 广州图普网络科技有限公司 一种轨迹合并方法、装置及存储介质
CN110766895A (zh) * 2019-09-17 2020-02-07 重庆特斯联智慧科技股份有限公司 基于目标轨迹分析的智慧社区异常报警***及方法
CN110906940A (zh) * 2019-10-26 2020-03-24 武汉中海庭数据技术有限公司 一种基于轨迹方向的车道边线聚合方法

Also Published As

Publication number Publication date
CN112287778A (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
CN108446698B (zh) 在图像中检测文本的方法、装置、介质及电子设备
CN110119673B (zh) 无感人脸考勤方法、装置、设备及存储介质
KR101655102B1 (ko) 이벤트 검출을 위해 시각 정보를 프로세싱하기 위한 시스템 및 방법
DE112016006081T5 (de) Automatische Echtzeit-Fahrzeugkamerakalibrierung
CN106971001B (zh) 一种针对手机基站定位数据的可视分析***及方法
US11450039B2 (en) Visualization of spatial distributions
CN104599078A (zh) 一种数据流处理方法及***
CN108174152A (zh) 一种目标监控方法及目标监控***
CN101883261A (zh) 大范围监控场景下异常目标检测及接力跟踪的方法及***
JPWO2017141454A1 (ja) 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム
CN110443907A (zh) 巡检任务处理方法和巡检任务处理服务器
CN109740444A (zh) 人流量信息展示方法及相关产品
CN110222616B (zh) 行人异常行为检测方法、图像处理装置及存储装置
CN111652795A (zh) 脸型的调整、直播方法、装置、电子设备和存储介质
DE112015003263T5 (de) Bildmodifikation
CN108353127A (zh) 基于深度相机的图像稳定
CN108288017A (zh) 获取对象密度的方法及装置
US20140002499A1 (en) Method, System, and Computer-Readable Recording Medium for Providing Information on an Object Using Viewing Frustums
US11348338B2 (en) Methods and systems for crowd motion summarization via tracklet based human localization
CN112287778B (zh) 基于方向聚合的人流量分析方法及介质
CN112017209B (zh) 一种区域人群轨迹确定方法及装置
CN112396997B (zh) 一种光影沙盘智能交互***
CN107038426B (zh) 热图生成方法
KR101700651B1 (ko) 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치
CN111652807B (zh) 眼部的调整、直播方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Wang Wangming

Inventor after: Liu Dong

Inventor after: Lv Jianjian

Inventor before: Wang Wangming

Inventor before: Liu Dong

Inventor before: Lv Jianjian

CB03 Change of inventor or designer information