CN110348394A - 一种检测视频静态目标的方法 - Google Patents
一种检测视频静态目标的方法 Download PDFInfo
- Publication number
- CN110348394A CN110348394A CN201910632936.9A CN201910632936A CN110348394A CN 110348394 A CN110348394 A CN 110348394A CN 201910632936 A CN201910632936 A CN 201910632936A CN 110348394 A CN110348394 A CN 110348394A
- Authority
- CN
- China
- Prior art keywords
- target
- marquee
- deviation
- static object
- single frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003068 static effect Effects 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 title claims abstract description 8
- 230000007547 defect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
一种检测视频静态目标的方法,具体步骤如下:步骤A:摄像头获取视频流图像,通过第三方引擎识别视频流图像是否存在被检测目标,若是则进入步骤B;步骤B:当检测到目标时,获取目标所在的前后两帧单帧图片图像;步骤C:在前后两帧单帧图片图像中,分别划分出目标所在区域信息的选取框,前后两帧单帧图片图像中的选取框完全一致;步骤D:使前后两帧单帧图片图像中的目标完全重合,并判断前后两帧单帧图片图像中的选取框是否存在偏差,若是则计算出偏差值;步骤E:设置阈值,比较阈值与偏差值,根据比较结果判断目标是否为静态目标。本发明提出一种检测视频静态目标的方法,通过检测前后帧的目标位置偏差来区分出动态目标和静态目标。
Description
技术领域
本发明涉及视频处理技术领域,尤其涉及一种检测视频静态目标的方法。
背景技术
人脸识别技术作为当今计算机视觉领域内最热门的研究课题之一,在安防行业、门禁***、考勤***以及人机交互等领域有着广泛的应用。人脸识别的研究已经有几十年历史,至今已取得***成果,然而现有的研究工作更多还是针对静态标准人脸图像,而通过实际场景的动态人脸识别研究较少。人脸识别主要通过视频流来获取图像信息进而进行识别,但是这种方法往往不好区分出动态目标和静态目标,给识别造成了一定困扰。
发明内容
本发明的目的在于针对背景技术中的缺陷,提出一种检测视频静态目标的方法,通过检测前后帧的目标位置偏差来区分出动态目标和静态目标。
为达此目的,本发明采用以下技术方案:
一种检测视频静态目标的方法,检测视频静态目标的具体步骤如下:
步骤A:摄像头获取视频流图像,通过第三方引擎识别视频流图像是否存在被检测目标,若是则进入步骤B;
步骤B:当检测到目标时,获取目标所在的前后两帧单帧图片图像;
步骤C:在前后两帧单帧图片图像中,分别划分出目标所在区域信息的选取框,前后两帧单帧图片图像中的选取框完全一致;
步骤D:使前后两帧单帧图片图像中的目标完全重合,并判断前后两帧单帧图片图像中的选取框是否存在偏差,若是则计算出偏差值;
步骤E:设置阈值,比较阈值与偏差值,根据比较结果判断目标是否为静态目标。
优选的,当第三方引擎检测到目标时,获取目标所在的单帧图片图像,作为第一图像;
在视频流图像中,以所述第一图像作为起始帧图像,获取起始帧图像的后一帧的目标所在的单帧图片图像,作为第二图像。
优选的,在所述第一图像中,确定目标中心并根据目标中心获取目标的第一最小包裹矩形;
在所述第二图像中,确定目标中心并根据目标中心获取目标的第二最小包裹矩形。
优选的,以第一最小包裹矩形的中心坐标向外延伸预设距离值得到目标所在区域信息的第一选取框;
以第二最小包裹矩形的中心坐标向外延伸预设距离值得到目标所在区域信息的第二选取框;
第一最小包裹矩形和第二最小包裹矩形的中心坐标向外延伸的预设距离值相同。
优选的,使前后两帧单帧图片图像中的目标完全重合包括:
使第一最小包裹矩形和第二最小包裹矩形的中心完全重合;
分别获取重合后的第一选取框和第二选取框的四个顶点坐标,依次比较四个顶点坐标,判断是否出现坐标偏差,若是出现坐标偏差,则进一步计算第一选取框和第二选取框的每个顶点坐标的偏差值,将偏差值与阈值进行比较,当偏差值大于阈值时,则判断目标为动态目标;当偏差值小于阈值时,则判断目标为静态目标。
优选的,包括使用公式一计算坐标偏差;
公式一:
其中:
(one.x1,one.y1)、(one.x2,one.y2)、(one.x3,one.y3)、(one.x4,one.y4)分别表示第一选取框四个顶点的坐标;
(two.x1′,two.y1′)、(two.x1′,two.y1′)、(two.x1′,two.y1′)、(two.x1′,two.y1′)分别表示第二选取框四个顶点的坐标;
one.x1″、one.x2″、one.x3″、one.x4″分别表示第一选取框与第二选取框的x轴坐标偏差值;
one.y1″、one.y2″、one.y3″、one.y4″分别表示第一选取框与第二选取框的y轴坐标偏差值。
附图说明
图1是本发明的检测视频静态目标的流程图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
在进行人脸识别时,会从所拍摄的视频中识别出我们所需的人脸,但是有些人脸的存在,并不是我们所需的信息,比如广告牌上的人脸头像等,对于此类物体来说,是需要剔除的,此类物体的共性是属于静态目标,因此需要通过判断视频流中的静态目标来完善人脸识别。
本实施例的一种检测视频静态目标的方法,如图1所示,具体步骤如下:
步骤A:摄像头获取视频流图像,通过第三方引擎识别视频流图像是否存在被检测目标,若是则进入步骤B;
在实际生产中,第三方引擎为现有技术,主要用于识别视频流图像中的是否存在人脸,若是存在人脸,则判断该物体为被检测目标;
当第三方引擎检测到目标时,获取目标所在的单帧图片图像,作为第一图像;
在视频流图像中,以所述第一图像作为起始帧图像,获取起始帧图像的后一帧的目标所在的单帧图片图像,作为第二图像。
所获取的单帧图片图像其实为图片而非视频流,一旦检测到目标,立刻截取视频流图像中的前后两帧图像,并以图片的形式进行保存。
步骤B:当检测到目标时,获取目标所在的前后两帧单帧图片图像;
步骤C:在前后两帧单帧图片图像中,分别划分出目标所在区域信息的选取框,前后两帧单帧图片图像中的选取框完全一致;
在所述第一图像中,确定目标中心并根据目标中心获取目标的第一最小包裹矩形;
在所述第二图像中,确定目标中心并根据目标中心获取目标的第二最小包裹矩形。
以第一最小包裹矩形的中心坐标向外延伸预设距离值得到目标所在区域信息的第一选取框;
以第二最小包裹矩形的中心坐标向外延伸预设距离值得到目标所在区域信息的第二选取框;
第一最小包裹矩形和第二最小包裹矩形的中心坐标向外延伸的预设距离值相同。
由于本发明的原理通过比较前后帧图像中,目标的位置差变化来判断目标是否产生移动,根据判断结果进而判断目标是否为静态目标,因此在判断目标是否产生移动时,首先获取出包裹住目标的最小包裹矩形,以最小包裹矩形向外延伸的预设距离值产生一个选取框,框选目标区域内的信息,比较两个选取框的坐标。
步骤D:使前后两帧单帧图片图像中的目标完全重合,并判断前后两帧单帧图片图像中的选取框是否存在偏差,若是则计算出偏差值;
步骤E:设置阈值,比较阈值与偏差值,根据比较结果判断目标是否为静态目标。
使前后两帧单帧图片图像中的目标完全重合包括:
使第一最小包裹矩形和第二最小包裹矩形的中心完全重合;
分别获取重合后的第一选取框和第二选取框的四个顶点坐标,依次比较四个顶点坐标,判断是否出现坐标偏差,若是出现坐标偏差,则进一步计算第一选取框和第二选取框的每个顶点坐标的偏差值,将偏差值与阈值进行比较,当偏差值大于阈值时,则判断目标为动态目标;当偏差值小于阈值时,则判断目标为静态目标。
所设置的阈值一般为5个单位,当坐标偏差大于5个单位时,该前后帧内的目标即为重复目标,也就是静态目标。
包括使用公式一计算坐标偏差;
公式一:
其中:
(one.x1,one.y1)、(one.x2,one.y2)、(one.x3,one.y3)、(one.x4,one.y4)分别表示第一选取框四个顶点的坐标;
(two.x1′,two.y1′)、(two.x1′,two.y1′)、(two.x1′,two.y1′)、(two.x1′,two.y1′)分别表示第二选取框四个顶点的坐标;
one.x1″、one.x2″、one.x3″、one.x4″分别表示第一选取框与第二选取框的x轴坐标偏差值;
one.y1″、one.y′″、one.y3″、one.y4″分别表示第一选取框与第二选取框的y轴坐标偏差值。
以上结合具体实施例描述了本发明的技术原理。这些描述只是为了解释本发明的原理,而不能以任何方式解释为对本发明保护范围的限制。基于此处的解释,本领域的技术人员不需要付出创造性的劳动即可联想到本发明的其它具体实施方式,这些方式都将落入本发明的保护范围之内。
Claims (6)
1.一种检测视频静态目标的方法,其特征在于:检测视频静态目标的具体步骤如下:
步骤A:摄像头获取视频流图像,通过第三方引擎识别视频流图像是否存在被检测目标,若是则进入步骤B;
步骤B:当检测到目标时,获取目标所在的前后两帧单帧图片图像;
步骤C:在前后两帧单帧图片图像中,分别划分出目标所在区域信息的选取框,前后两帧单帧图片图像中的选取框完全一致;
步骤D:使前后两帧单帧图片图像中的目标完全重合,并判断前后两帧单帧图片图像中的选取框是否存在偏差,若是则计算出偏差值;
步骤E:设置阈值,比较阈值与偏差值,根据比较结果判断目标是否为静态目标。
2.根据权利要求1所述一种检测视频静态目标的方法,其特征在于:
当第三方引擎检测到目标时,获取目标所在的单帧图片图像,作为第一图像;
在视频流图像中,以所述第一图像作为起始帧图像,获取起始帧图像的后一帧的目标所在的单帧图片图像,作为第二图像。
3.根据权利要求2所述一种检测视频静态目标的方法,其特征在于:
在所述第一图像中,确定目标中心并根据目标中心获取目标的第一最小包裹矩形;
在所述第二图像中,确定目标中心并根据目标中心获取目标的第二最小包裹矩形。
4.根据权利要求3所述一种检测视频静态目标的方法,其特征在于:
以第一最小包裹矩形的中心坐标向外延伸预设距离值得到目标所在区域信息的第一选取框;
以第二最小包裹矩形的中心坐标向外延伸预设距离值得到目标所在区域信息的第二选取框;
第一最小包裹矩形和第二最小包裹矩形的中心坐标向外延伸的预设距离值相同。
5.根据权利要求4所述一种检测视频静态目标的方法,其特征在于:
使前后两帧单帧图片图像中的目标完全重合包括:
使第一最小包裹矩形和第二最小包裹矩形的中心完全重合;
分别获取重合后的第一选取框和第二选取框的四个顶点坐标,依次比较四个顶点坐标,判断是否出现坐标偏差,若是出现坐标偏差,则进一步计算第一选取框和第二选取框的每个顶点坐标的偏差值,将偏差值与阈值进行比较,当偏差值大于阈值时,则判断目标为动态目标;当偏差值小于阈值时,则判断目标为静态目标。
6.根据权利要求5所述一种检测视频静态目标的方法,其特征在于:
包括使用公式一计算坐标偏差;
公式一:
其中:
(one.x1,one.y1)、(one.x2,one.y2)、(one.x3,one.y3)、(one.x4,one.y4)分别表示第一选取框四个顶点的坐标;
(two.x1′,two.y1′)、(two.x1′,two.y1′)、(two.x1′,two.y1′)、(two.x1′,two.y1′)分别表示第二选取框四个顶点的坐标;
one.x1″、one.x2″、one.x3″、one.x4″分别表示第一选取框与第二选取框的x轴坐标偏差值;
one.y1″、one.y2″、one.y3″、one.y4″分别表示第一选取框与第二选取框的y轴坐标偏差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910632936.9A CN110348394A (zh) | 2019-07-15 | 2019-07-15 | 一种检测视频静态目标的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910632936.9A CN110348394A (zh) | 2019-07-15 | 2019-07-15 | 一种检测视频静态目标的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110348394A true CN110348394A (zh) | 2019-10-18 |
Family
ID=68176159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910632936.9A Pending CN110348394A (zh) | 2019-07-15 | 2019-07-15 | 一种检测视频静态目标的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110348394A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112800929A (zh) * | 2021-01-25 | 2021-05-14 | 安徽农业大学 | 一种基于深度学习的竹笋数量与高生长率的在线监测方法 |
CN113554008A (zh) * | 2021-09-18 | 2021-10-26 | 深圳市安软慧视科技有限公司 | 静态物体区域内检测方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745485A (zh) * | 2013-12-31 | 2014-04-23 | 深圳泰山在线科技有限公司 | 判断物体静止或运动的方法及*** |
CN107563345A (zh) * | 2017-09-19 | 2018-01-09 | 桂林安维科技有限公司 | 一种基于时空显著性区域检测的人体行为分析方法 |
CN108875480A (zh) * | 2017-08-15 | 2018-11-23 | 北京旷视科技有限公司 | 一种人脸特征信息的追踪方法、装置及*** |
CN109118516A (zh) * | 2018-07-13 | 2019-01-01 | 高新兴科技集团股份有限公司 | 一种目标从运动到静止的跟踪方法及装置 |
CN109840565A (zh) * | 2019-01-31 | 2019-06-04 | 成都大学 | 一种基于眼部轮廓特征点纵横比的眨眼检测方法 |
-
2019
- 2019-07-15 CN CN201910632936.9A patent/CN110348394A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745485A (zh) * | 2013-12-31 | 2014-04-23 | 深圳泰山在线科技有限公司 | 判断物体静止或运动的方法及*** |
CN108875480A (zh) * | 2017-08-15 | 2018-11-23 | 北京旷视科技有限公司 | 一种人脸特征信息的追踪方法、装置及*** |
CN107563345A (zh) * | 2017-09-19 | 2018-01-09 | 桂林安维科技有限公司 | 一种基于时空显著性区域检测的人体行为分析方法 |
CN109118516A (zh) * | 2018-07-13 | 2019-01-01 | 高新兴科技集团股份有限公司 | 一种目标从运动到静止的跟踪方法及装置 |
CN109840565A (zh) * | 2019-01-31 | 2019-06-04 | 成都大学 | 一种基于眼部轮廓特征点纵横比的眨眼检测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112800929A (zh) * | 2021-01-25 | 2021-05-14 | 安徽农业大学 | 一种基于深度学习的竹笋数量与高生长率的在线监测方法 |
CN113554008A (zh) * | 2021-09-18 | 2021-10-26 | 深圳市安软慧视科技有限公司 | 静态物体区域内检测方法、装置、电子设备及存储介质 |
CN113554008B (zh) * | 2021-09-18 | 2021-12-31 | 深圳市安软慧视科技有限公司 | 静态物体区域内检测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200226762A1 (en) | Graphical fiducial marker identification suitable for augmented reality, virtual reality, and robotics | |
WO2014155979A1 (ja) | 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法 | |
WO2016157327A1 (ja) | 映像監視システム及び映像監視方法 | |
US11948363B2 (en) | Person detection device and person detection method | |
JP7192582B2 (ja) | 物体追跡装置および物体追跡方法 | |
Ribnick et al. | Real-time detection of camera tampering | |
CN110009650B (zh) | 一种扶梯扶手边界区域越界检测方法与*** | |
CN110348394A (zh) | 一种检测视频静态目标的方法 | |
KR20120070316A (ko) | 상반신 검출장치 및 검출방법 | |
JP7255173B2 (ja) | 人検出装置および人検出方法 | |
US20180307896A1 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
CN113989858B (zh) | 一种工作服识别方法及*** | |
WO2020137160A1 (ja) | 人検出装置および人検出方法 | |
TWI749370B (zh) | 臉部辨識方法及其相關電腦系統 | |
WO2022091577A1 (ja) | 情報処理装置および情報処理方法 | |
US10475191B2 (en) | System and method for identification and suppression of time varying background objects | |
Lin et al. | A face tracking method using feature point tracking | |
Charoenpong et al. | A new method for occluded face detection from single viewpoint of head | |
CN117372943A (zh) | 使用视频分析来标识和跟踪遗弃的对象 | |
KR101206736B1 (ko) | 회전된 얼굴 영역 검출 장치 및 방법 | |
CN111325073A (zh) | 基于运动信息聚类的监控视频异常行为检测方法 | |
Chen et al. | Detection and segmentation of occluded vehicles based on skeleton features | |
US20180144482A1 (en) | Behavior analysis apparatus and behavior analysis method | |
JP3078203B2 (ja) | 侵入物体認識装置 | |
KR101567366B1 (ko) | 얼굴을 검출하여 마스킹 하는 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |