CN108647649B - 一种视频中异常行为的检测方法 - Google Patents
一种视频中异常行为的检测方法 Download PDFInfo
- Publication number
- CN108647649B CN108647649B CN201810456027.XA CN201810456027A CN108647649B CN 108647649 B CN108647649 B CN 108647649B CN 201810456027 A CN201810456027 A CN 201810456027A CN 108647649 B CN108647649 B CN 108647649B
- Authority
- CN
- China
- Prior art keywords
- target candidate
- video
- frame
- abnormal
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视频中异常行为的检测方法,包括:从视频中提取所有目标候选框;计算视频中每帧图像的光流场,从而提取每一目标候选框内的运动特征;计算视频中每帧图像的卷积特征,从而提取每一目标候选框内的外观特征;对提取的所有运动特征和外观特征分别独自训练建立正常行为的高斯混合模型,测试时每一个目标候选框的运动特征和外观特征通过对应的GMM进行预测得到正常得分,再将两路正常得分进行融合取最小值,若最小值低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常。该方法同时考虑到速度异常和外观异常以及提取特征的有效性,能够检测出监控视频中大部分异常行为,具有鲁棒性好、目标定位准确的优点。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种视频中异常行为的检测方法。
背景技术
人口稠密场景中的异常行为检测是计算机视觉领域的一个重要问题,在视频监控方面存在各种挑战。异常检测问题自身的场景依赖性决定了其检测的复杂性。不同于传统的目标检测,异常检测首先需要确定异常的定义。直观上说,异常是指不符合正常行为约束的现象或发生概率相对较小的现象。视频异常行为检测方法通过捕获目标区域视频信息自动检测出不符合正常样本模型的个体。根据异常发生的范围和影响,异常分为全局异常和局部异常。
典型的局部异常行为检测方法通常围绕三部分展开:
1、特征提取:原始输入视频序列拥有大量可提取的特征,然而多个特征之间又存在着相关性,因此异常检测的一个关键影响因素是采用的特征描述符的可区分性,区分度较小的单个特征或相关性较大的多个特征都将极大降低方法的有效性。有效的特征应该对于正常和异常事件有不同的分布,以便后续分类器更容易区分。目前大多数异常行为检测方法提取的特征主要包括光流特征、梯度特征、灰度特征、边缘特征、纹理特征、形态学特征等。
2、模型建立:通过对输入信息提取相关特征并结合既有模型标准可
建立一定的参数模型。对于异常行为检测方法,一般有四类模型:第一类是基于分类的模型,比如单分类的SVM;第二类是基于预测的模型,如MRF、HMM和CRF;第三类是基于能量的模型,比如人群中的动能;第四类是基于重建的模型,比如稀疏表示。
3、异常判决:在模型要求的框架下实现对测试样本的异常性判决,对于不同的模型通常具有不同的异常判决标准。通常有两种判决方式,第一种是非0即1的异常判决,即一个样本的异常可能性为0或100%;第二类则是给出样本的异常概率或异常得分,对于得分高的目标其异常性越高,这种判决方式通常需要根据具体场景设置一定的判决阈值,来实现异常的量化和归类。
之前大多数方法采用低层次的时空特征,例如光流直方图(HOF)或其变体。Kim和Grauman用混合概率PCA模型来捕捉光流的分布。Liu等人将图像分成多个片段,并通过多尺度光流直方图(MHOF)进行表征,用于进一步的双稀疏表示。Rojas等人也使用光流编码正常行为,建立高斯混合模型(GMM)。还有一些方法研究视频中物体的轨迹,如果不遵循学习的正常轨迹将被标记为异常。
随着深度学习的兴起,基于深度学习的方法广泛地应用于异常行为检测方法中。实验证明,基于CNN的特征比传统的手工特征更具有区分性。Xu等人利用堆叠去噪自编码器学习外观和运动特征的深度表示。Hason等人利用传统手工时空特征,并采用全卷积自编码器学习特征并分类。在文章“Deep-Cascade:Cascading 3D Deep Neural Networks forFast Anomaly Detection and Localization in Crowded Scenes”(IEEE TransactionsonImage Processing,2017)中,卷积网络和深度自编码器被分成多个子阶段,在浅层剔除一些背景块或绝对正常的块,通过较深层的网络检测出异常块。
但是,目前的视频异常行为检测技术鲁棒性差,存在不能准确定位的问题。
发明内容
本发明的目的是提供一种视频中异常行为的检测方法,具有鲁棒性好、目标定位准确的优点。
本发明的目的是通过以下技术方案实现的:
一种视频中异常行为的检测方法,包括:
从视频中提取所有目标候选框;
计算视频中每帧图像的光流场,从而提取每一目标候选框内的运动特征;
计算视频中每帧图像的卷积特征,从而提取每一目标候选框内的外观特征;
对提取的所有运动特征和外观特征分别独自训练建立正常行为的高斯混合模型,测试时每一个目标候选框的运动特征和外观特征通过对应的GMM进行预测得到正常得分,再将两路正常得分进行融合取最小值,若最小值低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常。
由上述本发明提供的技术方案可以看出,同时考虑到速度异常和外观异常以及提取特征的有效性,能够检测出监控视频中大部分异常行为。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种视频中异常行为的检测方法的流程图;
图2为本发明实施例提供的新的运动手工特征SL-MHOF提取方法的示意图;
图3为本发明实施例提供的SL-MHOF特征和传统HOF特征表征目标个体的比较示意图;
图4为本发明实施例提供的一种视频中异常行为的检测方法的框架图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种视频中异常行为的检测方法,如图1所示,其主要包括如下步骤:
步骤1、从视频中提取所有目标候选框。
传统的分块可能会出现多个目标被划分至同一区域,或出现在网格线边缘处的目个体被划分至多个块中。本发明提出了一种新颖的前景目标提取方法,得到每一个目标对应的候选框,以实现前景目标定位。
首先,利用K最近邻模型得到视频中每一帧的运动前景二值图,再进行数学形态运算处理(腐蚀、膨胀);
其次,对于数学形态运算处理后当前帧的运动前景二值图,设置一个初始的候选框高度H和宽度W;示例性的,在本发明中设置初始高度H为输入图像高度的十分之一,初始宽度W为H的0.41,这个比例遵循普通行人检测的候选框比例。以每个像素为中心设置一个H×W的窗口,统计每个窗口的前景像素个数。将每个窗口的前景像素个数除以窗口内的总像素个数得到一个前景占比率,将前景占比率低于设定比例(例如50%)的窗口删除。为了适应不同尺度的目标,每次以比例δ扩大剩余窗口的窗口尺度,再重新计算剩余窗口内的前景占比率,若窗口内的前景占比率低于设定比例则停止扩大尺度,相应窗口尺度即为最终尺度。然后统计不同尺度窗口的前景像素个数并按从大到小排列,若排在第一位的窗口内前景像素个数大于给定阈值γ,则将相应窗口保留加入候选框列表,并将该窗口内的像素置0;重复上述过程,当没有窗口的前景像素个数大于给定阈值γ后停止迭代,从而提取出当前帧内的全部目标候选框。
最后,当视频中所有帧都执行上述过程后,完成所有目标候选框的提取。
此外,为了避免遗漏可能的目标,尽量将阈值调小,然后用非极大抑制(NMS)减少多余的目标候选框。
步骤2、计算视频中每帧图像的光流场,从而提取每一目标候选框内的运动特征。
本发明实施例中,通过边缘保存插值光流(Epicflow)方法计算视频中每帧图像的光流场,将提取到的目标候选框对应到光流场上,计算每个目标候选框内的光流统计信息;
其中,将光流幅值从小到大分为S个区间,光流方向分为S个方向,据此分为S×S个区间进行不同幅度范围内的不同方向的光流统计;示例性的,可以设置S=4。
将每一目标候选框分成M×N非重叠同样大小的局部子区域i,将每个局部子区域i的每个像素的光流划分至不同的区间进行光流幅值的累加,得到子直方图hi;对子直方图hi加入局部子区域i的平均动能(即所有像素光流幅值的平方和除以局部子区域i内运动的像素点个数),最终得到(S×S)+1维特征向量;最后将所有的子直方图的(S×S)+1维特征向量连接起来,从而得到一整个目标候选框的基于空间定位的多尺度光流直方图特征(SL-MHOF),也即运动特征。
示例性的,如果设置S=4,M=3,N=2,局部子区域个数为6,则得到的SL-MHOF描述子f=[h1h2…h6],其维度是17×6=102。
本发明实施例所提出的SL-MHOF描述子为一种新的运动手工特征,与传统基于运动的HOF描述子不同,不仅包括了目标运动方向和速度的统计信息,还捕捉了目标运动空间上的局部差异,可以更加准确地定位到异常目标。
如图2所示,为本发明实施例提供的新的运动手工特征SL-MHOF提取方法的示意图。由该图可以看出SL-MHOF特征是由每一个目标候选框分成若干子区域分别计算改进过的MHOF特征最后将其直接连接得到。
图3为本发明实施例提供的SL-MHOF特征和传统HOF特征表征目标个体的比较示意图。图中第一行是比较的原目标,第二行是对应的HOF特征,第三行是对应的未连接的SL-MHOF特征。由该图可以看出根据HOF特征,行人(图3左侧部分)、骑滑板的人(图3中间部分)、坐轮椅的人(图3右侧部分)的行为区分度较小,尤其是后两者的HOF特征几近相同;如果使用SL-MHOF特征来表征三者的行为能获得较好的区分度,由此证明提出的SL-MHOF特征的有效性。
步骤3、计算视频中每帧图像的卷积特征,从而提取每一目标候选框内的外观特征。
普遍来说,异常事件大致分为两类:速度异常和外观异常。本发明的框架利用了类似Fast R-CNN的架构去定位与正常事件有着不同外观特征的异常事件,例如行人推着手推车。
提取的目标候选框,可以看作是感兴趣的区域(RoIs),被映射到视频中每帧图像相应的卷积特征图上,利用Rol池化层将每个目标候选框内的卷积特征转变成相对较小的固定空间尺度特征图,继续通过全连接层,每个候选框得到对应的T维(例如,T可以为4096)全连接层特征向量,即外观特征。
本发明实施例中,采用了VGG16主干模型,通过Rol池化层池化后特征图的大小是7×7。
对于异常检测任务来说,训练数据集只存在正常事件,任何对象没有标签,所以无法对深度模型进行微调。因此,采用了一个VGG16网络,先在Imagenet上进行了预先训练,并在COCO进行了微调,这是目前为止通用目标检测的最大数据集
本发明实施例中,上述步骤2~步骤3不区分执行的先后顺序,可以同步执行,也可以一前一后执行。
步骤4、对提取的所有运动特征和外观特征分别独自训练建立正常行为的高斯混合模型(GMM),测试时每一个目标候选框的运动特征和外观特征通过对应的GMM进行预测得到正常得分,再将两路正常得分进行融合取最小值,若最小值低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常。
本发明实施例中,采用了有效的混合高斯模型(GMM)对正常事件进行建模,这是一个假设所有样本都是由高斯分布的混合生成的概率模型。在测试阶段,如果目标的特征向量与训练出的混合高斯模型之间的距离比较大,得到的“正常分数”小于给定的阈值,那么该目标就会被确定为异常。
本发明实施例中,使用正常事件的运动特征和外观特征分别训练两个单独的GMM模型,所以每一个目标候选框都会得到两个“正常得分”,由于两路得分取值范围有很大的不同,首先,将两路正常得分标准化到[0,1]范围内,得分越低,则表示异常的可能性越大;然后,选取融合后的最小值作为融合结果,如果融合结果低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常,也即两路检测中只要出现一路将目标个体检测为异常,则目标个体最终将被判定为异常。
本发明实施例上述方法的框架可以参见图4,由图4可以看出本发明采用了两路方法架构,先对视频中的目标进行定位,根据提取的目标候选框分别计算运动手工特征SL-MHOF(运动特征)和由神经网络得到的深度表示(外观特征),分别经由混合高斯模型进行目标行为预测,结合两路预测结果最终判断目标行为是否异常。
本发明上述方案主要适用的场景为拥挤的人群监控视频场景,为了说明本发明上述方案的效果,还在UCSD ped1和ped2测试数据集上进行了试验,如表1所示,为各异常行为检测方法在UCSD数据集上的检测结果(包括帧级和像素级的AUC/EER(%))。
测试数据集UCSD ped1和ped2数据集均为校园监控视频场景,有部分密集人群场景,最密集的场景下在158×238像素的图片中主道路上有上百人。UCSD ped1场景存在景深问题,远处的目标过小,部分通过肉眼分辨异常也并不明显,为目标异常行为的检测增加了挑战;两个数据集图片像素质量较低,也为异常行为检测增加了难度。
表1各异常行为检测方法在UCSD数据集上的检测结果(包括帧级和像素级的AUC/EER(%))
基于以上试验,本发明与现有技术相比具有以下优点:
第一,提出了一个同时学习运动和外观特征的异常检测框架,结合运动特征和外观特征进行行为分析。如表1所示,本发明提出的方法性能和其他异常行为检测方法相比,在UCSD ped1数据集中帧级EER和AUC指标都达到了很好的效果,在UCSDped2数据集中帧级和像素级EER和AUC指标均超过了目前最好的结果,和目前最好的方法相比,帧级EER由8.2%下降到了5.9%,像素级EER由17%下降到了9.3%。但如果使用仅包括表征运动特征的SL-MHOF的框架或使用仅包括表征外观特征的深度特征的框架,方法性能会大大下降,说明同时学习运动和外观特征对检测出异常的必要性,其中使用仅包括SL-MHOF特征的框架比使用仅包括深度特征的框架方法性能更好,说明在UCSD测试数据集上速度异常相对外观异常更普遍存在或者更显著。
第二,摒弃传统异常检测方法的分块操作,采取了一个新颖的前景定位方案以获得针对每个目标的候选框。大多数传统方法将图像帧或图像序列以网格形式划分为预设固定大小的重叠或不重叠的块或时空块。尽管这种划分方式操作简单,特征提取无需归一化,然而由于每个目标在场景中的出现位置及出现时间都是随机的,经过网格分割以后的区域可能会出现多个目标被划分至同一区域,或出现在网格线边缘处的目标个体被划分至多个块中,这种情况会直接影响方法的准确性。而在本方法中,先对每个目标进行定位,获得针对每个目标个体的候选框,以代表每个目标的候选框为单位进行特征提取,并建模进行异常与否的判断,使异常检测与定位更加地准确。
第三,提出了新的运动手工特征SL-MHOF,其不仅包括目标运动方向和速度的统计信息,更侧重于捕捉目标运动空间上的局部差异。通过表1,可以看出同样的框架中如果用传统的HOF特征去替代SL-MHOF特征,对于UCSD ped1数据集帧级EER使用SL-MHOF特征比HOF特征低6.1%,对于UCSD ped2数据集帧级EER使用SL-MHOF特征比HOF特征低6%,对于UCSDped2数据集像素级EER使用SL-MHOF特征比HOF特征低6.6%,由此证明本发明所提出的新的运动手工特征SL-MHOF能够更好地区分异常目标与正常目标,从而提高检测率。
此外,上述测试数据集中包括的异常类型有在人行道上骑自行车的人、骑滑板的人、大货车、坐轮椅的人,在测试数据集存在的异常中骑自行车的人出现频率最高,最容易检测的是各种车辆,因为外观和速度特征明显异于正常行人,较难检测包括运动速度较慢的骑滑板的人,因为其从外观上看与正常行人并无很大的区分,若速度上没有较明显的异常,则很难检测出。然而本发明的方法由于同时考虑到速度异常和外观异常以及提取特征的有效性能够检测出监控视频中大部分异常行为,示例结果从另一方面证明了本发明方法鲁棒性好、目标定位准确的优点。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (4)
1.一种视频中异常行为的检测方法,其特征在于,包括:
从视频中提取所有目标候选框;
计算视频中每帧图像的光流场,从而提取每一目标候选框内的运动特征,步骤包括:通过边缘保存插值光流方法计算视频中每帧图像的光流场,将提取到的目标候选框对应到光流场上,计算每个目标候选框内的光流统计信息;其中,将光流幅值从小到大分为S个区间,光流方向分为S个方向,据此分为S×S个区间进行不同幅度范围内的不同方向的光流统计;将每一目标候选框分成M×N非重叠同样大小的局部子区域i,将每个局部子区域i的每个像素的光流划分至不同的区间进行光流幅值的累加,得到子直方图hi;对子直方图hi加入局部子区域i的平均动能,最终得到(S×S)+1维特征向量;最后将所有的子直方图的(S×S)+1维特征向量连接起来,从而得到一整个目标候选框的基于空间定位的多尺度光流直方图特征,也即运动特征;
计算视频中每帧图像的卷积特征,从而提取每一目标候选框内的外观特征;
对提取的所有运动特征和外观特征分别独自训练建立正常行为的高斯混合模型,测试时每一个目标候选框的运动特征和外观特征通过对应的高斯混合模型进行预测得到正常得分,再将两路正常得分进行融合取最小值,若最小值低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常。
2.根据权利要求1所述的一种视频中异常行为的检测方法,其特征在于,所述从视频中提取所有目标候选框的步骤包括:
首先,利用K最近邻模型得到视频中每一帧的运动前景二值图,再进行数学形态运算处理;
其次,对于数学形态运算处理后当前帧的运动前景二值图,设置一个初始的候选框高度H和宽度W;以每个像素为中心设置一个H×W的窗口,统计每个窗口的前景像素个数;将每个窗口的前景像素个数除以窗口内的总像素个数得到一个前景占比率,将前景占比率低于设定比例的窗口删除;每次以比例δ扩大剩余窗口的窗口尺度,再重新计算剩余窗口内的前景占比率,若窗口内的前景占比率低于设定比例则停止扩大尺度,相应窗口尺度即为最终尺度;统计不同尺度窗口的前景像素个数并按从大到小排列,若排在第一位的窗口内前景像素个数大于给定阈值γ,则将相应窗口保留加入候选框列表,并将该窗口内的像素置0;当没有窗口的前景像素个数大于给定阈值γ后停止迭代,从而提取出当前帧内的全部目标候选框;
最后,当视频中所有帧都执行上述过程后,完成所有目标候选框的提取。
3.根据权利要求1所述的一种视频中异常行为的检测方法,其特征在于,所述计算视频中每帧图像的卷积特征,从而提取每一目标候选框内的外观特征包括:
将提取的目标候选框,映射到视频中每帧图像相应的卷积特征上,利用Rol池化层将每个目标候选框内的卷积特征转变成相对较小的固定空间尺度特征图,继续通过全连接层,每个候选框得到对应的T维全连接特征向量,即外观特征。
4.根据权利要求1所述的一种视频中异常行为的检测方法,其特征在于,将两路正常得分进行融合取最小值,若最小值低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常包括:
首先,将两路正常得分标准化到[0,1]范围内,得分越低,则表示异常的可能性越大;
然后,选取融合后的最小值作为融合结果,如果融合结果低于设定的异常阈值,则对应目标候选框中的目标个体被判定为异常,也即两路检测中只要出现一路将目标个体检测为异常,则目标个体最终将被判定为异常。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456027.XA CN108647649B (zh) | 2018-05-14 | 2018-05-14 | 一种视频中异常行为的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456027.XA CN108647649B (zh) | 2018-05-14 | 2018-05-14 | 一种视频中异常行为的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647649A CN108647649A (zh) | 2018-10-12 |
CN108647649B true CN108647649B (zh) | 2021-10-01 |
Family
ID=63755085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810456027.XA Active CN108647649B (zh) | 2018-05-14 | 2018-05-14 | 一种视频中异常行为的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647649B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325073B (zh) * | 2018-12-17 | 2024-02-20 | 上海交通大学 | 基于运动信息聚类的监控视频异常行为检测方法 |
CN109902564B (zh) * | 2019-01-17 | 2021-04-06 | 杭州电子科技大学 | 一种基于结构相似性稀疏自编码网络的异常事件检测方法 |
CN110070001A (zh) * | 2019-03-28 | 2019-07-30 | 上海拍拍贷金融信息服务有限公司 | 行为检测方法及装置、计算机可读存储介质 |
CN110084123A (zh) * | 2019-03-28 | 2019-08-02 | 上海拍拍贷金融信息服务有限公司 | 人体行为检测方法及***、计算机可读存储介质 |
CN110287816B (zh) * | 2019-06-05 | 2021-12-28 | 北京字节跳动网络技术有限公司 | 车门动作检测方法、装置和计算机可读存储介质 |
CN110263731B (zh) * | 2019-06-24 | 2021-03-16 | 电子科技大学 | 一种单步人脸检测*** |
CN110519637B (zh) * | 2019-08-27 | 2021-05-18 | 西北工业大学 | 基于音频视频监控结合的异常监测方法 |
CN110765929A (zh) * | 2019-10-21 | 2020-02-07 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆障碍物检测方法及装置 |
CN112733734B (zh) * | 2021-01-13 | 2023-04-21 | 中南大学 | 一种基于黎曼流形特征和lstm网络相结合的交通异常事件检测方法 |
CN113221716A (zh) * | 2021-05-06 | 2021-08-06 | 西华大学 | 一种基于前景目标检测的无监督交通异常行为检测方法 |
CN114550062A (zh) * | 2022-02-25 | 2022-05-27 | 京东科技信息技术有限公司 | 图像中运动对象的确定方法、装置、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324955A (zh) * | 2013-06-14 | 2013-09-25 | 浙江智尔信息技术有限公司 | 一种基于视频处理的行人检测方法 |
CN104036296A (zh) * | 2014-06-20 | 2014-09-10 | 深圳先进技术研究院 | 一种图像的表示和处理方法及装置 |
CN104820824A (zh) * | 2015-04-23 | 2015-08-05 | 南京邮电大学 | 基于光流和时空梯度的局部异常行为检测方法 |
CN105869178A (zh) * | 2016-04-26 | 2016-08-17 | 昆明理工大学 | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 |
CN106778595A (zh) * | 2016-12-12 | 2017-05-31 | 河北工业大学 | 基于高斯混合模型的人群中异常行为的检测方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警*** |
-
2018
- 2018-05-14 CN CN201810456027.XA patent/CN108647649B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324955A (zh) * | 2013-06-14 | 2013-09-25 | 浙江智尔信息技术有限公司 | 一种基于视频处理的行人检测方法 |
CN104036296A (zh) * | 2014-06-20 | 2014-09-10 | 深圳先进技术研究院 | 一种图像的表示和处理方法及装置 |
CN104820824A (zh) * | 2015-04-23 | 2015-08-05 | 南京邮电大学 | 基于光流和时空梯度的局部异常行为检测方法 |
CN105869178A (zh) * | 2016-04-26 | 2016-08-17 | 昆明理工大学 | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 |
CN106778595A (zh) * | 2016-12-12 | 2017-05-31 | 河北工业大学 | 基于高斯混合模型的人群中异常行为的检测方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警*** |
Non-Patent Citations (1)
Title |
---|
Detecting anomalous events in videos by learning deep representations of appearance and motion;Dan Xu等;《Computer Vision and Image Understanding》;20171231;第117-127页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108647649A (zh) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647649B (zh) | 一种视频中异常行为的检测方法 | |
CN107330372B (zh) | 一种基于视频的人群密度与异常行为检测***的分析方法 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
CN109977782B (zh) | 基于目标位置信息推理的跨店经营行为检测方法 | |
CN108921083B (zh) | 基于深度学习目标检测的非法流动摊贩识别方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN103093212B (zh) | 基于人脸检测和跟踪截取人脸图像的方法和装置 | |
CN111723693B (zh) | 一种基于小样本学习的人群计数方法 | |
CN107491749B (zh) | 一种人群场景中全局和局部异常行为检测方法 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN109255326B (zh) | 一种基于多维信息特征融合的交通场景烟雾智能检测方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN104978567A (zh) | 基于场景分类的车辆检测方法 | |
Fradi et al. | Spatial and temporal variations of feature tracks for crowd behavior analysis | |
Saran et al. | Traffic video surveillance: Vehicle detection and classification | |
CN108830882B (zh) | 视频异常行为实时检测方法 | |
Xia et al. | Automatic multi-vehicle tracking using video cameras: An improved CAMShift approach | |
Abdullah et al. | Vehicles detection system at different weather conditions | |
Fradi et al. | Sparse feature tracking for crowd change detection and event recognition | |
Agrawal et al. | An improved Gaussian Mixture Method based background subtraction model for moving object detection in outdoor scene | |
Piérard et al. | A probabilistic pixel-based approach to detect humans in video streams | |
CN108573217B (zh) | 一种结合局部结构化信息的压缩跟踪方法 | |
CN110349178A (zh) | 一种人体异常行为检测和识别***及方法 | |
CN108241837B (zh) | 一种遗留物检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |