CN111126195A - 基于场景属性驱动和时空域显著性的异常行为分析方法 - Google Patents
基于场景属性驱动和时空域显著性的异常行为分析方法 Download PDFInfo
- Publication number
- CN111126195A CN111126195A CN201911260652.8A CN201911260652A CN111126195A CN 111126195 A CN111126195 A CN 111126195A CN 201911260652 A CN201911260652 A CN 201911260652A CN 111126195 A CN111126195 A CN 111126195A
- Authority
- CN
- China
- Prior art keywords
- scene
- main body
- model
- subject
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于场景属性驱动和时空域显著性的异常行为分析方法,包括构建主客体静态动势响应模型;构建主体表观显著性模型;构建面向全局场景的动态特征提取模型进行提取全局场景动态特征;构建主体运动显著性模型;对主体目标进行持续性的检查和跟踪;对行为状态进行判别;采用条件后验概率预测方法对异常行为的强弱程度进行判别;本发明通过从静态态势和动态态势两个角度考虑主客体之间的依存关系,对场景静态态势信息的描述分为面向主客体自身的显著表现特征和主客体之间的类别属性特征,形成了以场景属性关联为驱动目标潜在状态描述,解决了无法对静态主体目标进行异常判断的问题。
Description
技术领域
本发明涉及新一代信息技术领域,尤其涉及基于场景属性驱动和 时空域显著性的异常行为分析方法。
背景技术
目前的智能视频监控***,仅能够利用简单的图像处理算法判断 场景的动静变化或颜色差异,而没有提升到对场景行为进行描述、判 断和理解的高度。因此,如何对场景目标的运动规律、运动变化和表 观差异进行抽象化和概念化的描述和理解,是场景异常行为研究亟待 解决的问题;
目前,基于视频场景内容的目标行为分析方法主要有基于深度学 习的场景行为分析方法和基于视觉注意机制的场景行为分析方法,这 两种方法仍存在一定的缺陷:(1)基于深度神经网络建立场景全局性 特征与行为含义之间映射关系的方法不但忽略了行为意图的产生过 程,而且缺乏对场景局部区域的关注,同时,数据样本的规模以及行 为标签的模糊性也增加了网络训练难度;(2)现有的场景行为分析研 究没有充分考虑目标之间的依存关系,然而目标之间关于类别属性和 表观属性的关联是构成场景依存关系的重要依据,当前的研究算法主 要利用目标的显著性运动和表观形变来判断目标行为是否存在异常, 而目标之间的类别和表观属性也是对场景态势表达的重要因素;(3) 当前的场景行为分析主要通过场景特征提取和状态分析来填补行为 表达的“语义鸿沟”,需进一步考虑目标异常状态的发生等级和危害 程度,解决由“语义鸿沟”到“意图鸿沟”理解的跨越。因此,本发 明提出基于场景属性驱动和时空域显著性的异常行为分析方法,以解 决现有技术中的不足之处。
发明内容
针对上述问题,本发明提出基于场景属性驱动和时空域显著性的 异常行为分析方法,通过从静态态势和动态态势两个角度考虑主客体 之间的依存关系,对场景静态态势信息的描述分为面向主客体自身的 显著表现特征和主客体之间的类别属性特征,形成了以场景属性关联 为驱动目标潜在状态描述,解决了无法对静态主体目标进行异常判断 的问题。
本发明提出基于场景属性驱动和时空域显著性的异常行为分析 方法,包括以下步骤:
步骤一:将典型社会场景中的前景目标和背景目标分别设为主体 目标和客体目标,然后基于典型社会场景中主体目标和客体目标的分 类和标注结果,分析出主体目标和客体目标之间的类别匹配关系,得 出类别匹配度,然后基于类别匹配度构建主客体静态动势响应字典对 典型社会场景静态动势进行评估,得到主客体静态动势响应模型;
步骤二:根据典型社会场景中的前景目标特征描述的缺陷,然后 对主体目标自身纹理结构信息、各主体间纹理结构差异信息的表观状 态属性进行特征挖掘,然后与主客体静态动势响应模型进行结合,得 到主体表观显著性模型,对场景主体的表观显著性特征进行表达;
步骤三:在主客体静态动势响应模型基础上,挖掘全局场景特性 之间的关联信息,以主客体静态动势响应模型挖掘的结果作为信息输 入,然后联合卷积神经网络模型和递归神经网络模型,构建面向全局 场景的动态特征提取模型进行提取全局场景动态特征;
步骤四:从主体轨迹时空域特征和主体轨迹形状特征两方面进行 提取特征,然后设计构建主体运动显著性模型;
步骤五:结合步骤三中的面向全局场景的动态特征提取模型和步 骤四中的主体动态显著性模型,对主体目标进行持续性的检查和跟踪;
步骤六:在主体表观显著性模型和主体运动显著性模型的基础上, 分别对空间与和时间域的主体显著性特性建立基于事件响应的场景 行为判别模型,然后设计合理的异常决策判别函数对行为状态进行判 别;
步骤七:根据行为状态进行判别结果进行基于概率预测的异常状 态程度分级处理,在检测到异常行为发生的区域后,针对异常区域的 特征响应,建立关于特征显著强弱的异常行为等级判别模型,将主体 的表观显著性特征、综合态势匹配度特征和运动显著性特征进行融合, 按比率级联建立异常显著性词袋模型,然后在特征编码过程中采用Fisher Vector方法对特征的分布进行合理描述,最后采用条件后验 概率预测方法对异常行为的强弱程度进行判别。
进一步改进在于:所述步骤三中递归神经网络模型用于分别对每 个主体目标关于全局时序的显著性表观特征进行表达,卷积神经网络 模型用于对全局场景中的运动变化特征进行表达。
进一步改进在于:所述步骤四中从主体轨迹时空域特征方面进行 特征提取时,先利用光流场运动目标检测算法对视频中主体区域的密 集采样点进行跟踪,形成主体密集采样轨迹集合,然后利用深度卷积 网络获取每幅视频图像帧的空域深度卷积特征图,最后结合主体密集 采样轨迹集合构建基于主体区域采样轨迹的时空域特征,进而建立全 局场景宏观特征和局部主体微观特征之间的关系框架,实现对主体空 间特征的自动挖掘。
进一步改进在于:所述步骤四中从主体轨迹形状特征方面进行特 征提取时,先构建基于主体密集采样轨迹集合的形状上下文特征分布, 利用动态规划算法对两两轨迹间的运动状态差异性判断,然后建立轨 迹运动状态差异直方图分布,对外观和速度变化较大的主体轨迹进行 特征表达。
进一步改进在于:所述步骤五中对主体目标行为进行持续性的检 测与跟踪时,视频场景内容和主体行为状态之间的理解映射需要对两 级语义进行解析,具体包括:视频场景内容到主体行为检测之间的特 征语义解析和主体行为检测到行为状态理解的逻辑级语义解析。
进一步改进在于:所述步骤六中对行为状态进行判别时,当检测 区间的异常度低于门限阈值时,更新正常状态行为模型,检测区域步 进一个最小视频立方体单元;当检测区域异常度高于门限阈值时,则 认为该区域存在异常行为的发生。
本发明的有益效果为:本发明方法通过从静态态势和动态态势两 个角度考虑主客体之间的依存关系,对场景静态态势信息的描述分为 面向主客体自身的显著表现特征和主客体之间的类别属性特征,形成 了以场景属性关联为驱动目标潜在状态描述,解决了无法对静态主体 目标进行异常判断的问题;通过将基于深度学习模型挖掘到的全局也 在和主体区域的密集轨迹流特征相结合,能够降低特征检测难度,同 时可以提高特征检测的可靠性和准确度;通过利用无监督分类的方法 对目标行为倾向进行分类,可以提高基于态势属性驱动的场景行为分 析与判别提供了一种新的方式,且具有高的判别效果。
附图说明
图1为本发明方法框架示意图。
图2为本发明方法流程示意图。
图3为本发明主客体静态态势响应字典结构示意图。
图4为本发明主客体静态态势综合匹配度计算示意图。
图5为本发明主体表观显著性检测示意图。
图6为本发明基于深度学习的全局时空域动态特征挖掘示意图。
图7为本发明主体动态显著性特征挖掘示意图。
图8为本发明基于事件特征响应的主体行为倾向分类示意图。
图9为本发明基于概率预测的主体异常程度分级示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方 案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部 分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普 通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例, 都属于本发明保护的范围。
根据图1、2、3、4、5、6、7、8、9所示,本实施例提出基于场 景属性驱动和时空域显著性的异常行为分析方法,包括以下步骤:
步骤一:将典型社会场景中的前景目标和背景目标分别设为主体 目标和客体目标,然后基于典型社会场景中主体目标和客体目标的分 类和标注结果,分析出主体目标和客体目标之间的类别匹配关系,得 出类别匹配度,然后基于类别匹配度构建主客体静态动势响应字典对 典型社会场景静态动势进行评估,得到主客体静态动势响应模型;
创建主体-主体、主体-客体之间的静态态势响应字典,对场景主 客体间关于类别属性的综合匹配度进行表达,达到对场景静态态势进 行挖掘的目的,本实施例中建立如图3所示的主客体静态动势响应字 典时,首先需建立两两目标标签之间的类别匹配单元以及相应的态势 匹配度,如:字典单元a{主体:汽车:客体:高速公路}中目标的类 别依存性优于字典单元b{主体:行人:客体:高速公路}中目标的类 别依存性,因此设计单元a的静态态势匹配度高于单元b的静态态势 匹配度,然后接下来通过查找静态态势响应字典来计算静态态势综合 匹配度(如图4所示),首先构建场景各类主客体目标的表观特征统 计分布表达,拟采用视觉词袋模型方法形成基于类别属性的特征编码 字典:在输入原始视频场景信息的情况下,利用Facebook最新的开 源软件平台Detectron分割出各个场景主客体单元,并通过类别特征 编码字典对分割后的场景主客体目标进行标注;最后利用标注信息查 找特定场景内所有主客体的态势匹配度,并建立有效的数学模型对特 定场景内主客体匹配单元的综合态势匹配度进行表达;
步骤二:根据典型社会场景中的前景目标特征描述的缺陷,然后 对主体目标自身纹理结构信息、各主体间纹理结构差异信息的表观状 态属性进行特征挖掘,然后与主客体静态动势响应模型进行结合,得 到主体表观显著性模型,对场景主体的表观显著性特征进行表达;
如图5所示,首先结合区域分割理论和图像信息描述子,构建主 体表观显著性特征,对目标区域的纹理、颜色、形状等信息进行上下 文特征挖掘,然后利用成熟的图像特征提取技术以及颜色概率模型对 主体目标区域的光照强度、颜色趋向性和对比度进行描述;
再引入马尔科夫随机场概念,对每个主体的表观显著度程度进行 描述,将主体的表观显著性定义为场景中某个独立主体作用于全局主 体和领域客体的显著性条件随机场之和,具体措施是将场景主体特征 抽象成由随机变量组成的网格,考虑每个主体(网格点)关于全局其 它主体(邻近网格点)以及邻域客体显著性场的条件分布,并依靠如 最大似然估计方法得到主体表观显著度特征描述,为后续场景行为预 测提供表观显著性特征输入;
步骤三:在主客体静态动势响应模型基础上,挖掘全局场景特性 之间的关联信息,以主客体静态动势响应模型挖掘的结果作为信息输 入,然后联合卷积神经网络模型和递归神经网络模型,构建面向全局 场景的动态特征提取模型进行提取全局场景动态特征,递归神经网络 模型用于分别对每个主体目标关于全局时序的显著性表观特征进行 表达,卷积神经网络模型用于对全局场景中的运动变化特征进行表达;
步骤四:从主体轨迹时空域特征和主体轨迹形状特征两方面进行 提取特征,然后设计构建主体运动显著性模型,从主体轨迹时空域特 征方面进行特征提取时,先利用光流场运动目标检测算法对视频中主 体区域的密集采样点进行跟踪,形成主体密集采样轨迹集合,然后利 用深度卷积网络获取每幅视频图像帧的空域深度卷积特征图,最后结 合主体密集采样轨迹集合构建基于主体区域采样轨迹的时空域特征, 进而建立全局场景宏观特征和局部主体微观特征之间的关系框架,实 现对主体空间特征的自动挖掘;
从主体轨迹形状特征方面进行特征提取时,先构建基于主体密集 采样轨迹集合的形状上下文特征分布,利用动态规划算法对两两轨迹 间的运动状态差异性判断,然后建立轨迹运动状态差异直方图分布, 对外观和速度变化较大的主体轨迹进行特征表达;
步骤五:结合步骤三中的面向全局场景的动态特征提取模型和步 骤四中的主体动态显著性模型,对主体目标进行持续性的检查和跟踪, 视频场景内容和主体行为状态之间的理解映射需要对两级语义进行 解析,具体包括:视频场景内容到主体行为检测之间的特征语义解析 和主体行为检测到行为状态理解的逻辑级语义解析;
步骤六:在主体表观显著性模型和主体运动显著性模型的基础上, 分别对空间与和时间域的主体显著性特性建立基于事件响应的场景 行为判别模型,然后设计合理的异常决策判别函数对行为状态进行判 别,当检测区间的异常度低于门限阈值时,更新正常状态行为模型, 检测区域步进一个最小视频立方体单元;当检测区域异常度高于门限 阈值时,则认为该区域存在异常行为的发生;
步骤七:根据行为状态进行判别结果进行基于概率预测的异常状 态程度分级处理,在检测到异常行为发生的区域后,针对异常区域的 特征响应,建立关于特征显著强弱的异常行为等级判别模型,将主体 的表观显著性特征、综合态势匹配度特征和运动显著性特征进行融合, 按比率级联建立异常显著性词袋模型,然后在特征编码过程中采用Fisher Vector方法对特征的分布进行合理描述,最后采用条件后验 概率预测方法对异常行为的强弱程度进行判别。
本发明方法通过从静态态势和动态态势两个角度考虑主客体之 间的依存关系,对场景静态态势信息的描述分为面向主客体自身的显 著表现特征和主客体之间的类别属性特征,形成了以场景属性关联为 驱动目标潜在状态描述,解决了无法对静态主体目标进行异常判断的 问题;通过将基于深度学习模型挖掘到的全局也在和主体区域的密集 轨迹流特征相结合,能够降低特征检测难度,同时可以提高特征检测 的可靠性和准确度;通过利用无监督分类的方法对目标行为倾向进行 分类,可以提高基于态势属性驱动的场景行为分析与判别提供了一种 新的方式,且具有高的判别效果。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业 的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和 说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围 的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要 求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及 其等效物界定。
Claims (6)
1.基于场景属性驱动和时空域显著性的异常行为分析方法,其特征在于:包括以下步骤:
步骤一:将典型社会场景中的前景目标和背景目标分别设为主体目标和客体目标,然后基于典型社会场景中主体目标和客体目标的分类和标注结果,分析出主体目标和客体目标之间的类别匹配关系,得出类别匹配度,然后基于类别匹配度构建主客体静态动势响应字典对典型社会场景静态动势进行评估,得到主客体静态动势响应模型;
步骤二:根据典型社会场景中的前景目标特征描述的缺陷,然后对主体目标自身纹理结构信息、各主体间纹理结构差异信息的表观状态属性进行特征挖掘,然后与主客体静态动势响应模型进行结合,得到主体表观显著性模型,对场景主体的表观显著性特征进行表达;
步骤三:在主客体静态动势响应模型基础上,挖掘全局场景特性之间的关联信息,以主客体静态动势响应模型挖掘的结果作为信息输入,然后联合卷积神经网络模型和递归神经网络模型,构建面向全局场景的动态特征提取模型进行提取全局场景动态特征;
步骤四:从主体轨迹时空域特征和主体轨迹形状特征两方面进行提取特征,然后设计构建主体运动显著性模型;
步骤五:结合步骤三中的面向全局场景的动态特征提取模型和步骤四中的主体动态显著性模型,对主体目标进行持续性的检查和跟踪;
步骤六:在主体表观显著性模型和主体运动显著性模型的基础上,分别对空间与和时间域的主体显著性特性建立基于事件响应的场景行为判别模型,然后设计合理的异常决策判别函数对行为状态进行判别;
步骤七:根据行为状态进行判别结果进行基于概率预测的异常状态程度分级处理,在检测到异常行为发生的区域后,针对异常区域的特征响应,建立关于特征显著强弱的异常行为等级判别模型,将主体的表观显著性特征、综合态势匹配度特征和运动显著性特征进行融合,按比率级联建立异常显著性词袋模型,然后在特征编码过程中采用Fisher Vector方法对特征的分布进行合理描述,最后采用条件后验概率预测方法对异常行为的强弱程度进行判别。
2.根据权利要求1所述的基于场景属性驱动和时空域显著性的异常行为分析方法,其特征在于:所述步骤三中递归神经网络模型用于分别对每个主体目标关于全局时序的显著性表观特征进行表达,卷积神经网络模型用于对全局场景中的运动变化特征进行表达。
3.根据权利要求1所述的基于场景属性驱动和时空域显著性的异常行为分析方法,其特征在于:所述步骤四中从主体轨迹时空域特征方面进行特征提取时,先利用光流场运动目标检测算法对视频中主体区域的密集采样点进行跟踪,形成主体密集采样轨迹集合,然后利用深度卷积网络获取每幅视频图像帧的空域深度卷积特征图,最后结合主体密集采样轨迹集合构建基于主体区域采样轨迹的时空域特征,进而建立全局场景宏观特征和局部主体微观特征之间的关系框架,实现对主体空间特征的自动挖掘。
4.根据权利要求3所述的基于场景属性驱动和时空域显著性的异常行为分析方法,其特征在于:所述步骤四中从主体轨迹形状特征方面进行特征提取时,先构建基于主体密集采样轨迹集合的形状上下文特征分布,利用动态规划算法对两两轨迹间的运动状态差异性判断,然后建立轨迹运动状态差异直方图分布,对外观和速度变化较大的主体轨迹进行特征表达。
5.根据权利要求1所述的基于场景属性驱动和时空域显著性的异常行为分析方法,其特征在于:所述步骤五中对主体目标行为进行持续性的检测与跟踪时,视频场景内容和主体行为状态之间的理解映射需要对两级语义进行解析,具体包括:视频场景内容到主体行为检测之间的特征语义解析和主体行为检测到行为状态理解的逻辑级语义解析。
6.根据权利要求1所述的基于场景属性驱动和时空域显著性的异常行为分析方法,其特征在于:所述步骤六中对行为状态进行判别时,当检测区间的异常度低于门限阈值时,更新正常状态行为模型,检测区域步进一个最小视频立方体单元;当检测区域异常度高于门限阈值时,则认为该区域存在异常行为的发生。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911260652.8A CN111126195B (zh) | 2019-12-10 | 2019-12-10 | 基于场景属性驱动和时空域显著性的异常行为分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911260652.8A CN111126195B (zh) | 2019-12-10 | 2019-12-10 | 基于场景属性驱动和时空域显著性的异常行为分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111126195A true CN111126195A (zh) | 2020-05-08 |
CN111126195B CN111126195B (zh) | 2023-03-14 |
Family
ID=70498147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911260652.8A Active CN111126195B (zh) | 2019-12-10 | 2019-12-10 | 基于场景属性驱动和时空域显著性的异常行为分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111126195B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114549591A (zh) * | 2022-04-27 | 2022-05-27 | 南京甄视智能科技有限公司 | 时空域行为的检测和跟踪方法、装置、存储介质及设备 |
CN116958876A (zh) * | 2023-07-28 | 2023-10-27 | 郑州轻工业大学 | 一种基于多光谱双目立体视觉的视频异常行为检测方法和*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120237081A1 (en) * | 2011-03-16 | 2012-09-20 | International Business Machines Corporation | Anomalous pattern discovery |
CN107563345A (zh) * | 2017-09-19 | 2018-01-09 | 桂林安维科技有限公司 | 一种基于时空显著性区域检测的人体行为分析方法 |
CN110287941A (zh) * | 2019-07-03 | 2019-09-27 | 哈尔滨工业大学 | 一种基于概念学习的透彻感知与动态理解方法 |
-
2019
- 2019-12-10 CN CN201911260652.8A patent/CN111126195B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120237081A1 (en) * | 2011-03-16 | 2012-09-20 | International Business Machines Corporation | Anomalous pattern discovery |
CN107563345A (zh) * | 2017-09-19 | 2018-01-09 | 桂林安维科技有限公司 | 一种基于时空显著性区域检测的人体行为分析方法 |
CN110287941A (zh) * | 2019-07-03 | 2019-09-27 | 哈尔滨工业大学 | 一种基于概念学习的透彻感知与动态理解方法 |
Non-Patent Citations (2)
Title |
---|
陈云彪等: "基于场景信息注意模型的目标检测技术研究", 《信息与电脑(理论版)》 * |
鹿天然等: "基于显著性检测和稠密轨迹的人体行为识别", 《计算机工程与应用》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114549591A (zh) * | 2022-04-27 | 2022-05-27 | 南京甄视智能科技有限公司 | 时空域行为的检测和跟踪方法、装置、存储介质及设备 |
CN114549591B (zh) * | 2022-04-27 | 2022-07-08 | 南京甄视智能科技有限公司 | 时空域行为的检测和跟踪方法、装置、存储介质及设备 |
CN116958876A (zh) * | 2023-07-28 | 2023-10-27 | 郑州轻工业大学 | 一种基于多光谱双目立体视觉的视频异常行为检测方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN111126195B (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Attention-driven loss for anomaly detection in video surveillance | |
Murugan et al. | Region-based scalable smart system for anomaly detection in pedestrian walkways | |
Coşar et al. | Toward abnormal trajectory and event detection in video surveillance | |
Jana et al. | YOLO based Detection and Classification of Objects in video records | |
US8374393B2 (en) | Foreground object tracking | |
US8218819B2 (en) | Foreground object detection in a video surveillance system | |
US20140270489A1 (en) | Learned mid-level representation for contour and object detection | |
CN109919106B (zh) | 渐进式目标精细识别与描述方法 | |
CN110414367B (zh) | 一种基于gan和ssn的时序行为检测方法 | |
Kazi Tani et al. | Events detection using a video-surveillance ontology and a rule-based approach | |
Lin et al. | Saliency detection via multi-scale global cues | |
CN111126195B (zh) | 基于场景属性驱动和时空域显著性的异常行为分析方法 | |
Davila et al. | Fcn-lecturenet: extractive summarization of whiteboard and chalkboard lecture videos | |
Nikolopoulos et al. | Evidence-driven image interpretation by combining implicit and explicit knowledge in a bayesian network | |
Wang et al. | Bilayer sparse topic model for scene analysis in imbalanced surveillance videos | |
Wang et al. | Video-based vehicle detection approach with data-driven adaptive neuro-fuzzy networks | |
Mokayed et al. | Anomaly detection in natural scene images based on enhanced fine-grained saliency and fuzzy logic | |
CN116524410A (zh) | 基于混合高斯模型的深度学习融合场面目标检测方法 | |
CN117636454A (zh) | 基于计算机视觉的智能视频行为分析方法 | |
Nir et al. | CAST: Character labeling in Animation using Self‐supervision by Tracking | |
Fu | Recent Deep Learning Approaches for Object Detection | |
Ma | Research on intelligent evaluation system of sports training based on video image acquisition and scene semantics | |
Rajesh et al. | Computer Vision Application: Vehicle Counting And Classification System from Real Time Videos | |
Gao et al. | A combined method for multi-class image semantic segmentation | |
Li et al. | Pedestrian Motion Path Detection Method Based on Deep Learning and Foreground Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |