CN115424207B - 自适应监控***及方法 - Google Patents

自适应监控***及方法 Download PDF

Info

Publication number
CN115424207B
CN115424207B CN202211076362.XA CN202211076362A CN115424207B CN 115424207 B CN115424207 B CN 115424207B CN 202211076362 A CN202211076362 A CN 202211076362A CN 115424207 B CN115424207 B CN 115424207B
Authority
CN
China
Prior art keywords
module
result
clustering
region
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211076362.XA
Other languages
English (en)
Other versions
CN115424207A (zh
Inventor
魏志刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Xingyun Digital Technology Co Ltd
Original Assignee
Nanjing Xingyun Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Xingyun Digital Technology Co Ltd filed Critical Nanjing Xingyun Digital Technology Co Ltd
Priority to CN202211076362.XA priority Critical patent/CN115424207B/zh
Publication of CN115424207A publication Critical patent/CN115424207A/zh
Application granted granted Critical
Publication of CN115424207B publication Critical patent/CN115424207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了自适应监控***及方法,***包括监控视频输入模块、聚类模块、追踪模块、识别模块、合并分析模块,识别模块、追踪模块都与监控视频输入模块连接,聚类模块与合并分析模块连接,聚类模块通过追踪模块连接识别模块,识别模块连接合并分析模块。自适应监控方法,包括如下步骤:步骤一、监控视频输入模块进行视频图像的输入;步骤二、对视频图像通过两路并行处理;步骤三、两路对视频图像的处理结果进行合并分析并输出分析结果。本发明能自动实时捕获事先定义之外的异常事件,高效识别各种需要监控的意外事件,并对已经定义的监测场景能自动捕捉事件细节,减少了人工检索和监控的开销。

Description

自适应监控***及方法
技术领域
本发明涉及监控领域,特别涉及自适应监控***及方法。
背景技术
目前市面了公开了对室内人员(尤其是独居老人和残疾人)的基于智能视频的自动监视***。通过对视频监控区域的移动目标(指人)的行为分析,实现对站立、坐、跌倒等形体特征的识别,当判断是摔倒时,通过无线或有线的方式发送到家庭其他成员、社区管理或民政人员的手机、电脑屏幕和平板电脑等终端设备上。该方法可以应用到家居,老年保健院、活动中心和医院等室内场所,但是不能穷举所有场景和对象,一旦出现事先定义之外的事件,就不容易实时捕获。
市面了还公开了一种视频监控中的人体行为识别方法,涉及计算机视觉领域,能够对视频中连续不同的行为进行识别的一种视频监控中的人体行为识别方法,包括检测和表示局部时空特征、计算局部时空特征与类别相关性、计算视频帧与类别相关性、检测和识别人体行为。基于该人体行为识别方法的人体行为监控***包括视频采集单元、存储单元、特征抽取单元、相关性分析单元、行为识别单元、视频输出单元和预警单元,能够对视频中连续不同的行为进行识别。但是不能穷举所有场景和对象,一旦出现事先定义之外的事件,就不容易实时捕获,需要事后分析时也需要人手检索,费时费力。此外,对于已经定义的监测场景,目前的技术都缺乏一种机制来自动实时捕捉事件细节。
发明内容
本发明的目的是克服现有技术中的不足,提供自适应监控***及方法。
为了达到上述目的,本发明是通过以下技术方案实现的:
自适应监控***,包括监控视频输入模块、聚类模块、追踪模块、识别模块、合并分析模块,所述识别模块、追踪模块都与监控视频输入模块连接,所述聚类模块与合并分析模块连接,所述聚类模块通过追踪模块连接识别模块,所述识别模块连接合并分析模块。
自适应监控方法,包括如下步骤:
步骤一、监控视频输入模块进行视频图像的输入;
步骤二、对视频图像通过两路并行处理:一路根据预先定义的模式进行处理,另一路是根据运动模式进行聚类后进行处理;
步骤三、两路对视频图像的处理结果进行合并分析并输出分析结果。
作为优选,根据预先定义的模式进行处理的步骤为:首先通过识别模块识别视频图像,从而识别出若干个对象,然后根据预先定义的分类方法对若干个对象进行分类,然后根据需要再分子类别。
作为优选,预先定义的分类方法包括基于滑动窗口和人工特征提取方法、基于机器学习的方法、利用深度学习技术自动的抽取输入图像中的隐藏特征的方法。
作为优选,根据运动模式进行聚类后进行处理的步骤为:首先追踪模块采用追踪算法根据运动状态监测追踪运动物体,然后根据一个或多个运动特征在同一个类别或子类别中通过聚类模块的聚类算法的进行聚类,然后判断聚类是否有新的结果。
作为优选,运动特征包括运动方向、运动速度、运动加速度、运动位置以及各自的统计参量,所述统计参量包括最大值、最小值、均值、方差、变化率、及一阶差分平均值、二阶差分平均值、归一化一阶差分平均值、归一化二阶差分平均值、变化范围、序列差值的平方和。
作为优选,两路对视频图像的处理结果进行合并分析并输出分析结果的步骤为:若聚类无新结果则退出,否则将样本数量最少的类别对象所在区域作为结果区域一,将监测到的预先定义的模式结果所在区域作为结果区域二,然后自定义预定门限大小,然后通过合并分析模块对两路结果区域重合面积判断是否超过预定门限,若超过则选择结果区域面积大的作为共同结果区域,然后对共同结果和余下的独立结果区域则进行聚焦放大继续追踪得到事件信息,所述事件信息则为分析结果。
作为优选,独立结果区域为结果区域一和结果区域二没有重合的地方。
作为优选,所述追踪算法包括连续帧间差分法、背景差分法、光流法。
作为优选,所述聚类算法包括K-Means(K均值)聚类算法、均值漂移聚类算法、基于密度的聚类算法、高斯混合模型聚类算法、层次聚类算法。
本发明的有益效果如下:本发明对监控视频输入采用两路并行处理,一路是根据预先定义的模式进行处理,一路是根据运动模式聚类后进行处理,对两路结果定义的区域进行合并分析再输出结果,因此本发明能自动实时捕获事先定义之外的异常事件,高效识别各种需要监控的意外事件,并对已经定义的监测场景能自动捕捉事件细节,减少了人工检索和监控的开销。
附图说明
图1为本发明的自适应监控***的模块连接图;
图2为自适应监控方法的流程图。
具体实施方式
下面结合说明书附图对本发明的技术方案作进一步说明:
实施例一:
如图1所示,自适应监控***,包括监控视频输入模块1、聚类模块2、追踪模块3、识别模块4、合并分析模块5,所述识别模块4、追踪模块3都与监控视频输入模块1连接,所述聚类模块2与合并分析模块5连接,所述聚类模块2通过追踪模块3连接识别模块4,所述识别模块4连接合并分析模块5。
如图2所示,自适应监控方法,包括如下步骤:
步骤一、监控视频输入模块1进行视频图像的输入;
步骤二、对视频图像通过两路并行处理:一路根据预先定义的模式进行处理,另一路是根据运动模式进行聚类后进行处理;
步骤三、两路对视频图像的处理结果进行合并分析并输出分析结果。
根据预先定义的模式进行处理的步骤为:首先通过识别模块4识别视频图像,从而识别出若干个对象,然后根据预先定义的分类方法对若干个对象进行分类,然后根据需要再分子类别。通过现有技术可以从输入的视频图像里可以识别出多个需要监控的对象,例如人物,动物,交通工具等并分类。进一步的,根据需要可以再分子类别,例如交通工具可以分成大型/中型/小型交通工具类别,动物可以分成飞行动物/地上行走动物等。
预先定义的分类方法包括基于滑动窗口和人工特征提取方法、基于机器学习的方法、利用深度学习技术自动的抽取输入图像中的隐藏特征的方法。
根据运动模式进行聚类后进行处理的步骤为:首先追踪模块3采用追踪算法根据运动状态监测追踪运动物体,然后根据一个或多个运动特征在同一个类别或子类别中通过聚类模块2的聚类算法的进行聚类,然后判断聚类是否有新的结果。聚类可以根据一个或多个运动特征在同一个类别或子类别中进行聚类,在子类别中进行聚类的好处是可以避免误判,例如小鸟正常的飞行不会被判断成行人的速度异常。聚类的数据可以是同一个对象的时序数据(历史数据和现在数据),也可以是多个对象的时序数据(所有对象的历史数据和/或所有对象的即时数据)。检查聚类是否有新结果的过程可以是利用多个特征组合多个方法多次进行,结果为或的关系(其中只要有一次有新结果都算有新结果)。
运动特征包括运动方向、运动速度、运动加速度、运动位置以及各自的统计参量,所述统计参量包括最大值、最小值、均值、方差、变化率(若上升时变化率为正,下降时变化率为负数)、及一阶差分平均值、二阶差分平均值、归一化一阶差分平均值、归一化二阶差分平均值、变化范围、序列差值的平方和。
两路对视频图像的处理结果进行合并分析并输出分析结果的步骤为:若聚类无新结果则退出,否则将样本数量最少的类别对象所在区域作为结果区域一,将监测到的预先定义的模式结果所在区域作为结果区域二,然后自定义预定门限大小,然后通过合并分析模块5对两路结果区域重合面积判断是否超过预定门限,若超过则选择结果区域面积大的作为共同结果区域,然后对共同结果和余下的独立结果区域则进行聚焦放大继续追踪得到事件信息,所述事件信息则为分析结果。独立结果区域为结果区域一和结果区域二没有重合的地方。例如预定门限大小为结果区域面积小的那一个的50%,如果两路结果区域重合面积超过预定门限则选择结果区域面积大的作为共同结果区域。对于共同结果和余下的独立结果区域(结果区域一和结果区域二没有重合的地方)进行聚焦放大继续追踪。
追踪算法包括连续帧间差分法、背景差分法、光流法。
连续帧间差分法:摄像机采集的视频序列具有连续性的特点。如果场景内没有运动目标,则连续帧的变化很微弱,如果存在运动目标,则连续的帧和帧之间会有明显地变化。帧间差分法就是借鉴了上述思想。由于场景中的目标在运动,目标的影像在不同图像帧中的位置不同。该类算法对时间上连续的两帧或三帧图像进行差分运算,不同帧对应的像素点相减,判断灰度差的绝对值,当绝对值超过一定阈值时,即可判断为运动目标,连通所有运动目标像素点,就可以确定运动目标,从而实现目标的检测功能。
背景差分法:背景差分法通过输入图像与背景图像进行比较从而分割出运动目标,在运用背景差分法时需要有一定的限制:要求前景(运动物体)象素的灰度值和背景象素的灰度值存在一定的差别,同时要求摄像机是静止的改善了连续帧间查分法所存在的问题。背景差分法(background subtraction)是目前运动目标检测的主流方法,其基本思想是将当前每一帧图像与事先存储或实时获取的背景图像相减,计算出与背景偏离超过一定阀值的区域作为运动区域。该算法实现简单,相减结果直接给出目标的位置、大小、形状等信息,能够提供关于运动目标区域的完整描述,特别是对于摄像机静止的情况,背景减法是实现运动目标实时检测和提取的首选方法。背景差分法实现的关键是背景模型的获取和更新。背景获取算法通常要求在场景中存在运动目标的情况下获取背景图像,更新过程使背景能够适应场景的各种变化和干扰,如外界光线的改变,背景中对象的扰动和固定对象的移动,阴影的影响等。
一种典型的背景建模方法是用混合高斯模型描述背景图像像素值的分布,目标检测过程中判断图像的当前像素值是否符合该分布,若是被判为前景点,否则为背景点。同时根据新获取的图像,对背景图像参数进行自适应更新。该方法能够可靠处理光照变化、背景混乱运动的干扰以及长时间的场景变化等。在此基础上,对背景、静止目标和运动目标三者采取不同的更新策略,以减弱背景更新过程中运动目标对背景的影响。
光流法:光流检测运动目标的基本原理是:通过图像中有目标和没目标时速度矢量的差异来检测目标。给图像中的每一个像素赋予一个速度矢量,这就形成了一个图像运动场,在运动的一个特定时刻,图像上的点与三维物体上的点一一对应,这种对应关系可由投影关系得到,根据各个像素的速度矢量特征,可以对图像进行动态分析。如果图像中没有运动目标,则光流矢量在整个图像区域是连续变化的,当物体和图像背景存在相对运动时,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体的位置。光流是指图像亮度模式的表观或视在运动。使用“表观运动”的原因是光流无法有运动图像的局部信息唯一的确定。
聚类算法包括K-Means(K均值)聚类算法、均值漂移聚类算法、基于密度的聚类算法、高斯混合模型聚类算法、层次聚类算法。
K-Means(K均值)聚类算法步骤:(1) 首先我们选择一些类或组,并随机初始化它们各自的中心点。中心点是与每个数据点向量长度相同的位置。这需要我们提前预知类的数量(即中心点的数量)。(2) 计算每个数据点到中心点的距离,数据点距离哪个中心点最近就划分到哪一类中。(3) 计算每一类中中心点作为新的中心点。(4) 重复以上步骤,直到每一类中心在每次迭代后变化不大为止。也可以多次随机初始化中心点,然后选择运行结果最好的一个。
均值漂移聚类是基于滑动窗口的算法,来找到数据点的密集区域。这是一个基于质心的算法,通过将中心点的候选点更新为滑动窗口内点的均值来完成,来定位每个组/类的中心点。然后对这些候选窗口进行相似窗口进行去除,最终形成中心点集及相应的分组。具体步骤:1. 确定滑动窗口半径r,以随机选取的中心点C半径为r的圆形滑动窗口开始滑动。均值漂移类似一种爬山算法,在每一次迭代中向密度更高的区域移动,直到收敛。2. 每一次滑动到新的区域,计算滑动窗口内的均值来作为中心点,滑动窗口内的点的数量为窗口内的密度。在每一次移动中,窗口会想密度更高的区域移动。3. 移动窗口,计算窗口内的中心点以及窗口内的密度,知道没有方向在窗口内可以容纳更多的点,即一直移动到圆内密度不再增加为止。4. 步骤一到三会产生很多个滑动窗口,当多个滑动窗口重叠时,保留包含最多点的窗口,然后根据数据点所在的滑动窗口进行聚类。
基于密度的聚类算法。具体步骤:1. 首先确定半径r和minPoints. 从一个没有被访问过的任意数据点开始,以这个点为中心,r为半径的圆内包含的点的数量是否大于或等于minPoints,如果大于或等于minPoints则改点被标记为central point,反之则会被标记为noise point。2. 重复1的步骤,如果一个noise point存在于某个central point为半径的圆内,则这个点被标记为边缘点,反之仍为noise point。重复步骤1,知道所有的点都被访问过。
高斯混合模型聚类算法。首先假设数据点是呈高斯分布的,相对应K-Means假设数据点是圆形的,高斯分布(椭圆形)给出了更多的可能性。我们有两个参数来描述簇的形状:均值和标准差。所以这些簇可以采取任何形状的椭圆形,因为在x,y方向上都有标准差。因此,每个高斯分布被分配给单个簇。所以要做聚类首先应该找到数据集的均值和标准差,我们将采用一个叫做最大期望的优化算法。具体步骤:1. 选择簇的数量(与K-Means类似)并随机初始化每个簇的高斯分布参数(均值和方差)。也可以先观察数据给出一个相对精确的均值和方差。2. 给定每个簇的高斯分布,计算每个数据点属于每个簇的概率。一个点越靠近高斯分布的中心就越可能属于该簇。3. 基于这些概率我们计算高斯分布参数使得数据点的概率最大化,可以使用数据点概率的加权来计算这些新的参数,权重就是数据点属于该簇的概率。4. 重复迭代2和3直到在迭代中的变化不大。高斯混合模型聚类的优点:(1)高斯混合模型聚类使用均值和标准差,簇可以呈现出椭圆形而不是仅仅限制于圆形。K-Means是高斯混合模型聚类的一个特殊情况,是方差在所有维度上都接近于0时簇就会呈现出圆形。(2)高斯混合模型聚类是使用概率,所有一个数据点可以属于多个簇。例如数据点X可以有百分之20的概率属于A簇,百分之80的概率属于B簇。也就是说高斯混合模型聚类可以支持混合聚类。
层次聚类算法分为两类:自上而下和自下而上。凝聚层级聚类是自下而上的一种聚类算法。首先将每个数据点视为一个单一的簇,然后计算所有簇之间的距离来合并簇,直到所有的簇聚合成为一个簇为止。本发明提供一个凝聚层级聚类的实例:具体步骤:1. 首先我们将每个数据点视为一个单一的簇,然后选择一个测量两个簇之间距离的度量标准。例如我们使用average linkage作为标准,它将两个簇之间的距离定义为第一个簇中的数据点与第二个簇中的数据点之间的平均距离。2. 在每次迭代中,我们将两个具有最小averagelinkage的簇合并成为一个簇。3. 重复步骤2直到所有的数据点合并成一个簇,然后选择我们需要多少个簇。
本发明对监控视频输入采用两路并行处理,一路是根据预先定义的模式进行处理,一路是根据运动模式聚类后进行处理,对两路结果定义的区域进行合并分析再输出结果,因此本发明能自动实时捕获事先定义之外的异常事件,高效识别各种需要监控的意外事件,并对已经定义的监测场景能自动捕捉事件细节,减少了人工检索和监控的开销。
实施例二:没有任何预先识别结果。
应用场景为一个独立空间中的监控。被监控对象平时在独立空间里散步,静坐、休息。如果偶然在窗子面前停留很长时间,这个动作并不容易事先定义,但是需要被识别。此时,根据历史运动模式聚类的结果就会提炼出样本数量最少的那一类,即在窗口停留时间很长的运动模式,放大此区域进行分析。
实施例三:没有任何聚类新结果。
在一个大型园区监控场景中,如果预先定义了多人聚集为一种需要识别的事件,园区只有多人聚集,***识别为预先定义模式,虽然聚类结果没有新结果,***仍然会自动把相关区域放大,可以进一步根据细节识别后判断如何处理,例如是否有打架迹象,是否用了工具斗殴等。
实施例四:聚类有新结果且有预先定义的模式。
在一个大型园区监控场景中,如果预先定义了多人聚集为一种需要识别的事件,但是并没有定义在湖边逗留为场景。发现有人聚集在湖边时而其他很多人都在正常行走时,***会通过聚类发现多了一类新的类别湖边聚集(新的位置),输出新类别湖边的监控区域一,也会通过聚集事件的识别输出湖边的监控区域二。监控区域一和监控区域二中面积较大的作为监控结果输出,***会自动把结果区域放大,可以进一步根据细节识别后判断如何处理,例如是否有打架迹象,是否用了工具斗殴等。
本发明利用了机器学习的两种方式并行(监督学习和非监督学习)来同时处理一路数据,如果结果有重复则取重复的区域作为输出结果,如果结果没有重复则分别输出作为结果。这样就能有效的识别出各种事件(不管是否事先定义),减少了人工检索和监控的开销,也便于自动捕捉事件细节。
需要注意的是,以上列举的仅是本发明的一种具体实施例。显然,本发明不限于以上实施例,还可以有许多变形,总之,本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (7)

1.自适应监控***,其特征在于,包括监控视频输入模块(1)、聚类模块(2)、追踪模块(3)、识别模块(4)、合并分析模块(5),所述识别模块(4)、追踪模块(3)都与监控视频输入模块(1)连接,所述聚类模块(2)与合并分析模块(5)连接,所述聚类模块(2)通过追踪模块(3)连接识别模块(4),所述识别模块(4)连接合并分析模块(5);
所述合并分析模块(5)用于两路对视频图像的处理结果进行合并分析并输出分析结果,若聚类无新结果则退出,否则将样本数量最少的类别对象所在区域作为结果区域一,将监测到的预先定义的模式结果所在区域作为结果区域二,然后自定义预定门限大小,然后通过合并分析模块(5)对两路结果区域重合面积判断是否超过预定门限,若超过则选择结果区域面积大的作为共同结果区域,然后对共同结果和余下的独立结果区域则进行聚焦放大继续追踪得到事件信息,所述事件信息则为分析结果。
2.自适应监控方法,基于权利要求1所述自适应监控***,其特征在于,包括如下步骤:
步骤一、监控视频输入模块(1)进行视频图像的输入;
步骤二、对视频图像通过两路并行处理:一路根据预先定义的模式进行处理,另一路是根据运动模式进行聚类后进行处理;
所述根据运动模式进行聚类后进行处理的步骤为:首先追踪模块(3)采用追踪算法根据运动状态监测追踪运动物体,然后根据一个或多个运动特征在同一个类别或子类别中通过聚类模块(2)的聚类算法的进行聚类,然后判断聚类是否有新的结果;
步骤三、两路对视频图像的处理结果进行合并分析并输出分析结果;
所述两路对视频图像的处理结果进行合并分析并输出分析结果的步骤为:若聚类无新结果则退出,否则将样本数量最少的类别对象所在区域作为结果区域一,将监测到的预先定义的模式结果所在区域作为结果区域二,然后自定义预定门限大小,然后通过合并分析模块(5)对两路结果区域重合面积判断是否超过预定门限,若超过则选择结果区域面积大的作为共同结果区域,然后对共同结果和余下的独立结果区域则进行聚焦放大继续追踪得到事件信息,所述事件信息则为分析结果;
所述独立结果区域为结果区域一和结果区域二没有重合的地方。
3.根据权利要求2所述自适应监控方法,其特征在于,所述根据预先定义的模式进行处理的步骤为:首先通过识别模块(4)识别视频图像,从而识别出若干个对象,然后根据预先定义的分类方法对若干个对象进行分类,然后根据需要再分子类别。
4.根据权利要求3所述自适应监控方法,其特征在于,所述预先定义的分类方法包括基于滑动窗口和人工特征提取方法、基于机器学习的方法、利用深度学习技术自动的抽取输入图像中的隐藏特征的方法。
5.根据权利要求2所述自适应监控方法,其特征在于,所述运动特征包括运动方向、运动速度、运动加速度、运动位置以及各自的统计参量,所述统计参量包括最大值、最小值、均值、方差、变化率 、及一阶差分平均值、二阶差分平均值、归一化一阶差分平均值、归一化二阶差分平均值、变化范围、序列差值的平方和。
6.根据权利要求2所述自适应监控方法,其特征在于,所述追踪算法包括连续帧间差分法、背景差分法、光流法。
7.根据权利要求2所述自适应监控方法,其特征在于,所述聚类算法包括K-Means聚类算法、均值漂移聚类算法、基于密度的聚类算法、高斯混合模型聚类算法、层次聚类算法。
CN202211076362.XA 2022-09-05 2022-09-05 自适应监控***及方法 Active CN115424207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211076362.XA CN115424207B (zh) 2022-09-05 2022-09-05 自适应监控***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211076362.XA CN115424207B (zh) 2022-09-05 2022-09-05 自适应监控***及方法

Publications (2)

Publication Number Publication Date
CN115424207A CN115424207A (zh) 2022-12-02
CN115424207B true CN115424207B (zh) 2023-04-14

Family

ID=84202267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211076362.XA Active CN115424207B (zh) 2022-09-05 2022-09-05 自适应监控***及方法

Country Status (1)

Country Link
CN (1) CN115424207B (zh)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915655A (zh) * 2015-06-15 2015-09-16 西安电子科技大学 一种多路监控视频的管理方法与设备
CN105825201A (zh) * 2016-03-31 2016-08-03 武汉理工大学 视频监控中的运动目标跟踪方法
CN107194317B (zh) * 2017-04-24 2020-07-31 广州大学 一种基于网格聚类分析的暴力行为检测方法
CN107133654A (zh) * 2017-05-25 2017-09-05 大连理工大学 一种监控视频异常事件检测的方法
US11044206B2 (en) * 2018-04-20 2021-06-22 International Business Machines Corporation Live video anomaly detection
CN109409307B (zh) * 2018-11-02 2022-04-01 深圳龙岗智能视听研究院 一种基于时空上下文分析的在线视频行为检测方法
JP7460633B2 (ja) * 2018-12-19 2024-04-02 パックサイズ リミティド ライアビリティ カンパニー コンピュータビジョンを使用する複合視覚検査タスクの連携学習のためのシステムと方法
CN110929560B (zh) * 2019-10-11 2022-10-14 杭州电子科技大学 融合目标检测与跟踪的视频半自动目标标注方法
CN114065799B (zh) * 2021-12-01 2022-04-08 兰和科技(深圳)有限公司 一种基于人工智能技术的校园安防监控管理***
CN114550100A (zh) * 2022-03-01 2022-05-27 上海商汤信息科技有限公司 占道检测方法和装置、设备、介质

Also Published As

Publication number Publication date
CN115424207A (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
US10007850B2 (en) System and method for event monitoring and detection
JP6018674B2 (ja) 被写体再識別のためのシステム及び方法
CN106203274B (zh) 一种视频监控中行人实时检测***及方法
Brulin et al. Posture recognition based on fuzzy logic for home monitoring of the elderly
CN104134077B (zh) 一种基于确定学习理论的与视角无关的步态识别方法
KR101731461B1 (ko) 객체에 대한 행동 탐지 장치 및 이를 이용한 행동 탐지 방법
CN103246896B (zh) 一种鲁棒性车辆实时检测与跟踪方法
CN107491749B (zh) 一种人群场景中全局和局部异常行为检测方法
US11893727B2 (en) Rail feature identification system
CN111626194A (zh) 一种使用深度关联度量的行人多目标跟踪方法
Mehta et al. Motion and region aware adversarial learning for fall detection with thermal imaging
CN106570490A (zh) 一种基于快速聚类的行人实时跟踪方法
Chakravarty et al. Panoramic vision and laser range finder fusion for multiple person tracking
KR20200017594A (ko) 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법
Kumar et al. Background subtraction based on threshold detection using modified K-means algorithm
KR20160057503A (ko) 다중시차 행위인식 기반의 폭력 검출시스템 및 검출방법
Pervaiz et al. Tracking and Analysis of Pedestrian's Behavior in Public Places.
CN108280408A (zh) 一种基于混合跟踪和广义线性模型的人群异常事件检测方法
CN115424207B (zh) 自适应监控***及方法
Liu et al. Multi-view vehicle detection and tracking in crossroads
CN111860097A (zh) 一种基于模糊理论的异常行为检测方法
Di Lascio et al. Tracking interacting objects in complex situations by using contextual reasoning
Deepak et al. Design and utilization of bounding box in human detection and activity identification
CN114067360A (zh) 一种行人属性检测方法及装置
CN111160101B (zh) 一种基于人工智能的视频人员跟踪与计数方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Adaptive monitoring system and methods

Granted publication date: 20230414

Pledgee: Bank of Nanjing Co.,Ltd. Jiangning sub branch

Pledgor: Nanjing Xingyun Software Technology Co.,Ltd.

Registration number: Y2024980024134