CN107169448A - 一种融合处理有效信息并动态捕捉及预警方法 - Google Patents

一种融合处理有效信息并动态捕捉及预警方法 Download PDF

Info

Publication number
CN107169448A
CN107169448A CN201710335767.3A CN201710335767A CN107169448A CN 107169448 A CN107169448 A CN 107169448A CN 201710335767 A CN201710335767 A CN 201710335767A CN 107169448 A CN107169448 A CN 107169448A
Authority
CN
China
Prior art keywords
image
mrow
fusion treatment
early warning
treatment effective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710335767.3A
Other languages
English (en)
Inventor
王云峰
谢素艳
宁晓希
韩常
寇为刚
谭等泰
贺国庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GANSU INSTITUTE OF POLITICAL SCIENCE AND LAW
Original Assignee
GANSU INSTITUTE OF POLITICAL SCIENCE AND LAW
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GANSU INSTITUTE OF POLITICAL SCIENCE AND LAW filed Critical GANSU INSTITUTE OF POLITICAL SCIENCE AND LAW
Priority to CN201710335767.3A priority Critical patent/CN107169448A/zh
Publication of CN107169448A publication Critical patent/CN107169448A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合处理有效信息并动态捕捉及预警方法,通过图像在不同尺度空间中的特性和图像关键点的确立进行验证及采用SIFT算法,采用稀疏冗余模型算法进行图像增强进过滤掉视频图像中无用的信息或干扰信息、自动识别不同物体;分析抽取视频中关键有用信息,快速、准确得定位事故现场,判断监控画面中的异常情况;最后融合处理有效信息并以最快和最佳的方式发出警报或触发其它动作。本发明通过动态捕捉视频信息与自动预警机制建立关联,提示目标物的出现以便公安刑侦人员及时采取措施,同时自动提取有关联信息的视频,便于侦查人员进行串并案分析及视频比对分析处理,找到有价值的线索等。

Description

一种融合处理有效信息并动态捕捉及预警方法
技术领域
本发明属于图像数据处理技术领域,尤其涉及一种融合处理有效信息并动态捕捉及预警方法。
背景技术
目标物比如人脸识别的研究,起源于19世纪末法国人SirFranis Galton。以Allen和Parke为代表主要研究面部特征;人机交互式识别及用几何特征参数来研究的以Harmon和Lesk为代表,以Kaya和Kobayashi为代表采用了统计识别方法;Eyematic公司和我国清华大学研发了“人脸识别***”,但对视频监控模糊图像的识别率不高,并且对目标物进行动态捕捉预警技术研究处于初始阶段。
随着视频监控技术的不断发展,我国目前视频监控在智慧城市、数字城市、平安园区等各类项目得以广泛应用。监控视频已经成为公安部门进行案件侦查的重要依据和线索,视频侦查已逐步成为继刑侦,技侦,网侦之后的第四大侦查手段。在公安视频监控中,模糊图像的目标物检测识别及动态捕捉预警技术具有直接、方便、快捷以及非侵犯性的特点,在刑事侦查、维护国家安全和人民生命财产安全以及在反恐、防恐中具有重要意义,极具研究价值和潜力。视频监控于20世纪80年代正式在我国开始启用,110指挥中心最早使用了视频监控,用于监控城市的治安情况。随着社会的发展,视频监控已经广泛应用于公安机关的治安、刑侦、交通管理、禁毒等多个职能部门具体业务工作中。但由于目前视频监控模糊图像的识别率不高,缺乏有效的信息技术支撑,在公安视频侦查过程中仍然面临图像调取及格式不统一、视频信息管理及协同难、效率不高等问题,针对公安视频监控模糊图像,对嫌疑人人脸或车辆进行检测识别以及动态捕捉、预警等必要的视频图像处理技术,显得尤为重要。
发明内容
本发明的目的在于提供一种融合处理有效信息并动态捕捉及预警方法,旨在解决目前散焦模糊、噪声及分辨率低等问题。
本发明是这样实现的,一种融合处理有效信息并动态捕捉及预警方法,所述融合处理有效信息并动态捕捉及预警方法为:通过图像在不同尺度空间中的特性和图像关键点的确立进行验证及采用SIFT算法,采用稀疏冗余模型算法进行图像增强进过滤掉视频图像中无用的信息或干扰信息、自动识别不同物体;分析抽取视频中关键有用信息,快速、准确得定位事故现场,判断监控画面中的异常情况;最后融合处理有效信息并以最快和最佳的方式发出警报或触发其它动作。
进一步,采用SIFT算法自动运动匹配、噪声干扰处理及超分辨率方法,融合处理有效信息并提取相关特征进行动态捕捉及预警。
进一步,采用稀疏冗余模型算法进行图像增强的方法包括:
首先,原图像收到了加性高斯噪声的污染,则污染后的图像称之为退化图像,而图像恢复的过程是退化图像的逆过程,图像的退化模型即加性高斯噪声为:
g=Hu+v;
g表示含噪图像,Hu表示原图像,v表示噪声;
则图像的恢复模型表示为:
表示恢复图像,g表示含噪图像,Hu表示原图像;对恢复模型施加一个正则性约束;则恢复模型即变为变分模型:
表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
进一步,利用SIFT算法进行特征提取匹配方法为:建立尺度空间;检测空间中的极值点;确定关键点的位置;确定关键点的方向;确定关键点描述子,最终实现特征提取匹配。
进一步,通过图像在不同尺度空间中的特性和图像关键点的确立进行验证的方法包括:
利用靠高斯模糊建立尺度空间,通过尺度参数不同的变化,观察图像在不同尺度空间中的特性,确立高斯卷积核为尺度空间内核唯一合理的线性核;
在一个图像的尺度空间为:
L(x,y,σ)=G(x,y,σ)*I(x,y);
其中,L(x,y,σ)表示一个图像的尺度空间,x和y表示图像像素位置的横坐标和纵坐标,σ为尺度参数,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,m,n表示高斯模板的维度,通过对尺度参数的改变,观察图像特性。
进一步,图像关键点的确立方法为:
利用高斯差分函数:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ);
其中,D(x,y,σ)表示高斯差分函数,是通过对两个相邻高斯函数(G(x,y,kσ),G(x,y,σ))进行相减与I(x,y)表示的原图像相乘得到的,k表示常量,并取得该函数的极值点,从而初步测得关键点。L(x,y,kσ),L(x,y,σ)表示两个相邻的尺度空间。
本发明通过在视频监控***中增加智能分析功能模块,通过改进视频模糊图像中目标物特征点的提取及匹配算法,进而过滤掉视频图像中无用的信息或干扰信息、自动识别不同物体;进一步分析抽取视频中关键有用信息,快速、准确得定位事故现场,判断监控画面中的异常情况;最后融合处理有效信息并以最快和最佳的方式发出警报或触发其它动作,从而有效进行事前预警、事中处理以及事后取证的全自动实时监控的智能***。对公安视频监控模糊图像,采用模糊神经网络和RS理论等,对目标物进行检测识别,改进并提出新的算法,提高模糊图像辨识率;融合处理有效信息并动态提取目标物特征进行动态捕捉及预警,达到国家先进水平;视频监控于20世纪80年代正式在我国开始启用,110指挥中心最早使用了视频监控,用于监控城市的治安情况。支持与前端视频监控的对接,自动将有价值的视频联网采集到搜索视频中,减少视频采集的工作量;快速定位目标物出现区域,以便公安刑侦人员有针对性的加强警力部署或就近增加监控摄像头等;通过动态捕捉视频信息与自动预警机制建立关联,提示目标物的出现以便公安刑侦人员及时采取措施,同时自动提取有关联信息的视频,便于侦查人员进行串并案分析及视频比对分析处理,找到有价值的线索等;对不同的监控视频格式自动识别其格式封装和码流,并以在线流媒体方式供侦查人员调阅,支持主流DVR,NVR厂家的视频格式直接播放,也支持主流DV、手机所拍摄的视频格式,实现多种视频格式的在线播放、视频快速查阅等。本发明解决了目前散焦模糊、噪声及分辨率低等问题。
附图说明
图1是本发明实施例提供的SIFT算法流程图;
图2是本发明实施例提供的整个恢复增强算法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作进一步描述。
本发明实施例提供的融合处理有效信息并动态捕捉及预警方法包括:通过图像在不同尺度空间中的特性和图像关键点的确立进行验证及采用SIFT算法,采用稀疏冗余模型算法进行图像增强进过滤掉视频图像中无用的信息或干扰信息、自动识别不同物体;分析抽取视频中关键有用信息,快速、准确得定位事故现场,判断监控画面中的异常情况;最后融合处理有效信息并以最快和最佳的方式发出警报或触发其它动作。
进一步,采用SIFT算法自动运动匹配、噪声干扰处理及超分辨率方法,融合处理有效信息并提取相关特征进行动态捕捉及预警。
进一步,采用稀疏冗余模型算法进行图像增强的方法中,对自然图像中在小波基下呈现近零元素系数很多,而非零元素系数很少的变换系数向量的“稀疏性”,进行建立系数冗余模型;具体包括:
首先,假定原图像收到了加性高斯噪声的污染,则污染后的图像称之为退化图像,而图像恢复的过程是退化图像的逆过程,假定图像的退化模型即加性高斯噪声为:
g=Hu+v;
g表示含噪图像,Hu表示原图像,v表示噪声;
则图像的恢复模型表示为:
表示恢复图像,g表示含噪图像,Hu表示原图像;对恢复模型施加一个正则性约束;则恢复模型即变为变分模型:
表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
进一步,超分辨率为:
进一步,融合处理有效信息并提取相关特征进行动态捕捉及预警方法为:
利用SIFT算法进行特征提取匹配方法为:
进一步,验证图像特征点的提取及匹配方法为:通过图像在不同尺度空间中的特性和图像关键点的确立进行验证;
图像在不同尺度空间中的特性:
利用靠高斯模糊建立尺度空间,通过尺度参数不同的变化,观察图像在不同尺度空间中的特性,确立高斯卷积核为尺度空间内核唯一合理的线性核,
在一个图像的尺度空间为:
L(x,y,σ)=G(x,y,σ)*I(x,y);
其中,L(x,y,σ)表示一个图像的尺度空间,x和y表示图像像素位置的横坐标和纵坐标,σ为尺度参数,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,m,n表示高斯模板的维度,通过对尺度参数的改变,观察图像特性。
图像关键点的确立方法为:
利用高斯差分函数:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ);
其中,D(x,y,σ)表示高斯差分函数,是通过对两个相邻高斯函数(G(x,y,kσ),G(x,y,σ))进行相减与I(x,y)表示的原图像相乘得到的,k表示常量,并取得该函数的极值点,从而初步测得关键点。L(x,y,kσ),L(x,y,σ)表示两个相邻的尺度空间。
下面结合实施例对本发明的应用原理作进一步描述。
1、多目标跟踪技术:
多目标跟踪技术是智能视频监控***的核心技术,其分析涉及到传计算机图像处理、模式识别、人工智能及自动控制等诸多相关领域的知识,而智能视频监控能够现实复杂场景中对运动目标的识别和跟踪,检测场景事件和判断危险事件的发生,因此,应加大对多目标跟踪技术的研究工作,提高视频监控***的智能化水平,改善监控***的精准度,为社会的经济发展和社会治安贡献一份力量。
在现实复杂场景中,针对视频监控图像中的运动目标,本发明应用光流法和帧差法这两种运动目标检测技术对运动目标进行识别和跟踪。
2、多目标跟踪的实现:
(1)针对不同状态采用不同的跟踪方法:
具体实践中,要分析多目标的运动状态,对不同状态实行不同的跟踪方法,才能有效提高跟踪的性能。卡尔曼滤波与矩形跟踪法是常见的跟踪方法。卡尔曼滤波通过建立目标的运动模型和运动轨迹,判断目标的下一位置,根据位置特征进行跟踪,这种方法的准确度随着模型的准确度而变化。矩形跟踪运用运动时获得的矩形特征完成对目标的跟踪。它适用于简单的情况下判断目标的产生和消失,但无法进行深入的分析,也就不能进行稳定跟踪。
(2)卡尔曼滤波法与矩形跟踪法结合:
因为多目标图像在空间领域和时间领域都变化的特性不同,以往用于单视角的卡尔曼滤波法和矩形跟踪法都不能满足多目标同时处于运动场景时的跟踪,如果充分利用两种方法的优点,将它们有效结合,分离目标位置、面积等特征,通过构建特征识别矩阵分析目标运动状态,再对不同状态实施相应的跟踪办法。
(3)构建新的特征辨识矩阵:
多目标跟踪一直是智能监控的难点,首先,因为在多个目标都存在运动时,目标之间相互产生干扰,严重影响区域检测的精度;其次,在时间上它们相互关联,多目标间有可能有对应的因果关系,大大增加复杂度;再次,多个目标在同一时刻运动时,必须采用和运动状态相对应的提取处理办法。所以,多目标跟踪不仅和运动分离精度有关系,也和目标特征选择、状态分析紧密相连。
要实现对目标各种运动状态的实时监测,包括新目标出现时、目标保留在场景内但没有与其他目标相互干扰、目标出现***现象、目标出现融合现象以及目标突然消失等情况,构建特征辨识矩阵,充分利用目标的特征与目前目标所处的区域特点构建新矩阵,利用矩形跟踪法判别目标是否产生、是否消失,注意分析目标特征,预判目标状态空间,判断目标的运动状态。
判断目标所处状态,将目标分为新目标、目标的融合与目标的消失,当新目标出现时,立刻构建新目标的信息;当目标出现***时,分析产生***的原因,跟踪***;当不同目标出现相互融合时,对融合后的目标进行融合处理;当跟踪的目标消失时,首先判断是否真消失,如果真消失,再删除原有的数据信息等。
3、提出一种新型的多视角的监控跟踪方法:
针对运动目标的阴影检测、多目标跟踪、克服遮挡目标的方法以及多视角下监控目标的相互传递。首先,对运动目标的阴影光照和颜色特征进行分析探讨,改进原有的检测办法;其次,探讨研究先利用目标的特点,辨别运动状态,再处理不同跟踪里的不同状态达到跟踪多目标;再次,构建符合目标颜色的模型,运用颜色的特点克服对目标的遮挡。最后,分析多视角的监控***应用需求,设计智能监控框架,分析一种新型的多视角的监控跟踪办法,实现不同视角的信息传递。
4、图像增强与匹配技术:
(1)采用稀疏冗余模型算法进行图像增强:
由于自然图像会在小波基下呈现出一种“近零元素系数很多,而非零元素系数很少”的特点,这种特点为变换系数向量的“稀疏性”。正是由于这种特性的存在,可以对其进行系数冗余模型的建立。
首先,假定原图像收到了加性高斯噪声的污染,则污染后的图像可称之为退化图像,而图像恢复的过程其实就是退化图像的逆过程。假定图像的退化模型(加性高斯噪声)为:
g=Hu+v;
g表示含噪图像,Hu表示原图像,v表示噪声;
则图像的恢复模型可表示为:
表示恢复图像,g表示含噪图像,Hu表示原图像;但由于噪声的干扰,并不能得到合适且唯一的解,要想使其获得一个良好稳定的值,一个经典的解决方法就是对恢复模型施加一个正则性约束;则恢复模型即变为变分模型:
表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
整个恢复增强算法可以总结为如图2流程图:
(2)利用SIFT算法进行特征提取匹配
通过上述的流程,得到了一个较好的恢复图像,下面针对该恢复图像进行匹配,由于在视频拍摄过程中,往往会由于方向、角度等问题产生一定量的形变,针对这个问题,采用微分不变量,即基于局部考虑的特征提取算法(SIFT匹配算法),该算法注重局部细节,能够很好的对抗位置移动,朝向改变甚至是噪声。
SIFT算法简易流程图如图1。
5、图像在不同尺度空间中的特性:
尺度空间的建立需要靠高斯模糊来实现,通过尺度参数不同的变化,观察图像在不同尺度空间中的特性。尺度空间内核的确立就成了关键问题,而实验证明,高斯卷积核是尺度空间内核唯一合理的线性核。
在一个图像的尺度空间
L(x,y,σ)=G(x,y,σ)*I(x,y);
其中,L(x,y,σ)表示一个图像的尺度空间,x和y表示图像像素位置的横坐标和纵坐标,σ为尺度参数,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,m,n表示高斯模板的维度,通过对尺度参数的改变,观察图像特性。
6、图像关键点的确立
利用高斯差分函数:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ);
其中,D(x,y,σ)表示高斯差分函数,是通过对两个相邻高斯函数(G(x,y,kσ),G(x,y,σ))进行相减与I(x,y)表示的原图像相乘得到的,k表示常量,并取得该函数的极值点,从而初步测得关键点。L(x,y,kσ),L(x,y,σ)表示两个相邻的尺度空间。
7、验证了图像特征点的提取及匹配
SIFT算法的关键问题在于尺度空间的建立,关键点位置方向的确立和关键点描述子的确立。当这些问题得到解决后,就可以通过实验来验证图像特征点的提取及匹配情况,
8、结论
本发明建立了视频模糊图像中多目标跟踪算法相关的技术方法,提出了模糊图像中目标物的特征点的提取及匹配算法并进行了一定的实验分析。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种融合处理有效信息并动态捕捉及预警方法,其特征在于,所述融合处理有效信息并动态捕捉及预警方法为:通过图像在不同尺度空间中的特性和图像关键点的确立进行验证及采用SIFT算法,采用稀疏冗余模型算法进行图像增强进过滤掉视频图像中无用的信息或干扰信息、自动识别不同物体;分析抽取视频中关键有用信息,快速、准确得定位事故现场,判断监控画面中的异常情况;最后融合处理有效信息并以最快和最佳的方式发出警报或触发其它动作。
2.如权利要求1所述的融合处理有效信息并动态捕捉及预警方法,其特征在于,采用SIFT算法自动运动匹配、噪声干扰处理及超分辨率方法,融合处理有效信息并提取相关特征进行动态捕捉及预警。
3.如权利要求1所述的融合处理有效信息并动态捕捉及预警方法,其特征在于,采用稀疏冗余模型算法进行图像增强的方法包括:
首先,原图像收到了加性高斯噪声的污染,则污染后的图像称之为退化图像,而图像恢复的过程是退化图像的逆过程,图像的退化模型即加性高斯噪声为:
g=Hu+v;
g表示含噪图像,Hu表示原图像,v表示噪声;
则图像的恢复模型表示为:
<mrow> <mover> <mi>u</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>u</mi> </munder> <mo>|</mo> <mo>|</mo> <mi>g</mi> <mo>-</mo> <mi>H</mi> <mi>u</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>;</mo> </mrow>
表示恢复图像,g表示含噪图像,Hu表示原图像;对恢复模型施加一个正则性约束;则恢复模型即变为变分模型:
<mrow> <mover> <mi>u</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>u</mi> </munder> <mo>|</mo> <mo>|</mo> <mi>g</mi> <mo>-</mo> <mi>H</mi> <mi>u</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <mi>&amp;lambda;</mi> <mi>R</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
4.如权利要求1所述的融合处理有效信息并动态捕捉及预警方法,其特征在于,利用SIFT算法进行特征提取匹配方法为:建立尺度空间;检测空间中的极值点;确定关键点的位置;确定关键点的方向;确定关键点描述子,最终实现特征提取匹配。
5.如权利要求1所述的融合处理有效信息并动态捕捉及预警方法,其特征在于,通过图像在不同尺度空间中的特性和图像关键点的确立进行验证的方法包括:
利用靠高斯模糊建立尺度空间,通过尺度参数不同的变化,观察图像在不同尺度空间中的特性,确立高斯卷积核为尺度空间内核唯一合理的线性核;
在一个图像的尺度空间为:
L(x,y,σ)=G(x,y,σ)*I(x,y);
<mrow> <mi>G</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <msup> <mi>&amp;pi;&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>m</mi> <mo>/</mo> <mn>2</mn> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <mi>n</mi> <mo>/</mo> <mn>2</mn> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </msup> <mo>;</mo> </mrow>
其中,L(x,y,σ)表示一个图像的尺度空间,x和y表示图像像素位置的横坐标和纵坐标,σ为尺度参数,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,m,n表示高斯模板的维度,通过对尺度参数的改变,观察图像特性。
6.如权利要求5所述的融合处理有效信息并动态捕捉及预警方法,其特征在于,图像关键点的确立方法为:
利用高斯差分函数:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ);
其中,D(x,y,σ)表示高斯差分函数,是通过对两个相邻高斯函数(G(x,y,kσ),G(x,y,σ))进行相减与I(x,y)表示的原图像相乘得到的,k表示常量,并取得该函数的极值点,从而初步测得关键点;L(x,y,kσ),L(x,y,σ)表示两个相邻的尺度空间。
CN201710335767.3A 2017-05-12 2017-05-12 一种融合处理有效信息并动态捕捉及预警方法 Pending CN107169448A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710335767.3A CN107169448A (zh) 2017-05-12 2017-05-12 一种融合处理有效信息并动态捕捉及预警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710335767.3A CN107169448A (zh) 2017-05-12 2017-05-12 一种融合处理有效信息并动态捕捉及预警方法

Publications (1)

Publication Number Publication Date
CN107169448A true CN107169448A (zh) 2017-09-15

Family

ID=59816591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710335767.3A Pending CN107169448A (zh) 2017-05-12 2017-05-12 一种融合处理有效信息并动态捕捉及预警方法

Country Status (1)

Country Link
CN (1) CN107169448A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108275530A (zh) * 2018-01-18 2018-07-13 柯钢 一种基于机器学习的电梯安全预警方法
CN110191322A (zh) * 2019-06-05 2019-08-30 重庆两江新区管理委员会 一种共享预警的视频监控方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101609588A (zh) * 2008-06-16 2009-12-23 云南正卓信息技术有限公司 全自动无人值守别墅防入侵智能视频监控报警***
CN101924871A (zh) * 2010-02-04 2010-12-22 苏州大学 基于均值偏移的视频目标跟踪方法
CN105578126A (zh) * 2014-11-11 2016-05-11 杜向阳 监控摄像头自动报警***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101609588A (zh) * 2008-06-16 2009-12-23 云南正卓信息技术有限公司 全自动无人值守别墅防入侵智能视频监控报警***
CN101924871A (zh) * 2010-02-04 2010-12-22 苏州大学 基于均值偏移的视频目标跟踪方法
CN105578126A (zh) * 2014-11-11 2016-05-11 杜向阳 监控摄像头自动报警***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
辛晨: "非理想条件下的人脸识别算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108275530A (zh) * 2018-01-18 2018-07-13 柯钢 一种基于机器学习的电梯安全预警方法
CN110191322A (zh) * 2019-06-05 2019-08-30 重庆两江新区管理委员会 一种共享预警的视频监控方法及***
CN110191322B (zh) * 2019-06-05 2021-06-22 重庆两江新区管理委员会 一种共享预警的视频监控方法

Similar Documents

Publication Publication Date Title
CN107169993A (zh) 利用公安视频监控模糊图像对目标物进行检测识别方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN104378582B (zh) 一种基于ptz摄像机巡航的智能视频分析***及方法
CN100583128C (zh) 基于自然视频的实时智能监控方法
CN106203260A (zh) 基于多摄像机监控网络的行人识别与跟踪方法
CN106203274A (zh) 一种视频监控中行人实时检测***及方法
CN104036323A (zh) 一种基于卷积神经网络的车辆检测方法
CN109376637A (zh) 基于视频监控图像处理的人数统计***
CN103761514A (zh) 基于广角枪机和多球机实现人脸识别的***及方法
CN107230267A (zh) 基于人脸识别算法的幼儿园智能签到方法
Karpagavalli et al. Estimating the density of the people and counting the number of people in a crowd environment for human safety
CN104820995A (zh) 一种面向大型公共场所的人流密度监测预警方法
CN106339657A (zh) 基于监控视频的秸秆焚烧监测方法、装置
CN107330414A (zh) 暴力行为监控方法
CN108275530A (zh) 一种基于机器学习的电梯安全预警方法
Hu et al. Parallel spatial-temporal convolutional neural networks for anomaly detection and location in crowded scenes
CN108710856A (zh) 一种基于视频流的人脸识别方法
Zhao et al. An adaptation of CNN for small target detection in the infrared
Han et al. A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection
CN103268498A (zh) 一种感兴趣区域模糊图像语义理解的方法
Su et al. A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification
CN107122762A (zh) 一种针对复杂运动图像的处理方法
CN107169448A (zh) 一种融合处理有效信息并动态捕捉及预警方法
Miller et al. Person tracking in UAV video
CN110348329A (zh) 基于视频序列帧间信息的行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170915