CN114926764A - 一种工业场景下的遗留物检测方法和*** - Google Patents
一种工业场景下的遗留物检测方法和*** Download PDFInfo
- Publication number
- CN114926764A CN114926764A CN202210532287.7A CN202210532287A CN114926764A CN 114926764 A CN114926764 A CN 114926764A CN 202210532287 A CN202210532287 A CN 202210532287A CN 114926764 A CN114926764 A CN 114926764A
- Authority
- CN
- China
- Prior art keywords
- feature map
- frame
- background
- current frame
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种工业场景下的遗留物检测方法和***,属于工业监控视频的智能检测领域。包括:分别提取监控视频当前帧的特征图和背景帧的特征图,所述背景帧一旦发生变化需重新标定;使用负相关的相关性算子计算当前帧特征图和背景帧特征图的相关性,得到相关特征图;从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置;对每个前景目标进行分类,得到前景目标的类别;根据当前帧中的前景目标的类别和位置,结合工业场景特性,输出遗留物检测结果。本发明采用负相关性算子计算得到当前帧与背景帧的相关特征,能够准确识别背景以外的所有前景目标,消除光线变化等干扰影响,降低遗留物检测的误判率和漏检率。
Description
技术领域
本发明属于工业监控视频的智能检测领域,更具体地,涉及一种工业场景下的遗留物检测方法和***。
背景技术
遗留物检测是智能监控视频领域具有重要意义的研究方向,特别是在工业生产区中,环境安全要求极为严格,不明物品的遗留可能会影响机组作业,带来安全隐患,从而造成重大损失,该算法能检测出人员遗留在工业生产区中的物品,并及时向监控中心发送报警信息,保障生产安全。
近年来,许多研究者提出了一些遗留物检测算法,这些算法在公共数据集上的表现较好,但因为大多采用传统图像处理方法。然而,实际环境中存在光线变化、运动遮挡、目标尺度变化、背景干扰等挑战,导致目前的方法难以应用到实际场景中,工业场景下的遗留物检测仍然存在一些问题,主要体现为以下几点:
1.现有研究方案缺乏满足工业需求的遗留数据集。一方面,现有公共数据集场景多为机场、火车站站台,场景风格单一、背景简单,未定义和区分人员的各种遗留行为,无法检测和评估工业环境下人员较为复杂多样的遗留行为。另一方面,现有遗留物数据集中的物品多为行李箱、背包等,而工业环境中人员常遗留杂物、工具等,遗留物品类别差别较大导致深度学习方法无法发挥其的检测优势;此外,虽然目标检测领域数据集较多,但是其中的目标为日常场景中的大型目标,而监控视频中的目标多为中小型目标,目前已有数据集的目标类型和尺度大小都不符合工业检测需求。
2.现有研究方案漏检率和误判率高。现有算法主要采用传统图像处理方法,非常容易将静止的车、人等目标误判为遗留物,而且工厂中工人的频繁移动停留、肢体摆动、运动遮挡和相似背景干扰都会造成严重的漏检。
3.现有研究方案鲁棒性差。现有算法依赖人为经验设计特征提取器,往往在特定的背景下才能发挥作用,当背景发生变化则失效,特别是在工业背景复杂程度较高的情况下,传统方法会产生极大的干扰,导致检测不稳定。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种工业场景下的遗留物检测方法和***,其目的在于降低工业场景下遗留物检测的误判率和漏检率。
为实现上述目的,按照本发明的第一方面,提供了一种工业场景下的遗留物检测方法,该方法包括:
分别提取监控视频当前帧的特征图和背景帧的特征图,所述背景帧与工业监控摄像头一一对应,为不包含任何遗留物的摄像头监控的工业生产区,一旦发生变化需重新标定;
使用负相关的相关性算子计算当前帧特征图和背景帧特征图的相关性,得到相关特征图;
从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置;
对每个前景目标进行分类,得到前景目标的类别;
根据当前帧中的前景目标的类别和位置,结合工业场景特性,输出遗留物检测结果。
优选地,所述使用负相关的相关性算子计算当前帧特征图和背景帧特征图的相关性,得到相关特征,具体如下:
其中,F(a,b)为当前帧与背景帧的相关特征图,a为当前帧特征图,b为背景帧特征图,aij为前帧特征图第i行j列的特征,bij为背景帧特征图第i行j列的特征,i=1,…,m,j=1,…,n,m、n分别为特征图的长、宽。
有益效果:针对不同遗留物深度特征与背景深度特征之差差异大的问题,本发明直接采用特征图差值再经过softmax函数作为当前帧的新特征图,使得不同遗留物插值处在同样的范围,在检测中能够以相同的优先级被对待。
优选地,采用孪生神经网络分别提取监控视频当前帧的特征图和背景帧的特征图,所述所述孪生神经网络的两个分支网络结构相同,网络主干结构均为ResNet50的前四层网络结构组成级联结构,两个分支网络参数不同。
有益效果:本发明采用上述优选结构的特征提取网络,能够有效地提取出背景帧与当前帧的级联特征,由两个网络级联特征构成的相关特征可以很好的表达当前帧中不属于背景帧的前景目标;从计算速度上,当前结构在GPU上运行时可满足实时检测的要求。
优选地,采用目标检测网络从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置,所述目标检测网络为串联的RPN head和ROI head。
有益效果:本发明采用上述优选结构的目标检测网络,该结构能有有效地提取出不属于背景帧的前景目标,漏检率和误判率都满足工业场景下的使用要求;从计算速度上,当前结构在GPU上运行时可满足实时检测的要求。
优选地,若连续M帧中检测出同一物品前景目标且未检测到人,判定该前景目标为遗留物,进行标记并发送报警信息。
优选地,对每个新出现的物品前景目标,匹配与其距离最近的人;若物品前景目标所匹配的人消失超过一定时间,将其标记为遗留物,进行标记并发送报警信息。
优选地,统计其遗留的帧数并根据视频帧率将其转换为遗留时间,在画面上标记遗留物的位置和遗留时间,并向监控中心推送报警信息。
为实现上述目的,按照本发明的第二方面,提供了一种工业场景下的遗留物检测***,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行第一方面所述的工业场景下的遗留物检测方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
针对现有工业场景遗留物检测误判率和漏检率高的问题,本发明利用工业场景中监控视频的背景变化较小的特点,提出构建消除背景影响的特征图,然而在工业场景下背景会受到光线变化、摄像头抖动、噪声等因素影响,像素级下背景变化非常大,无法直接采用传统背景差分方法,本发明采用负相关性算子计算得到当前帧特征图与背景帧特征图的相关特征,能够准确识别背景以外的所有前景目标,消除光线变化等干扰影响,降低遗留物检测的误判率和漏检率。
附图说明
图1为本发明提供的一种工业场景下的遗留物检测方法流程图。
图2为本发明提供的新特征图构建示意图。
图3为AOD数据集的十种目标类别示意图。
图4为存在遗留物的三种算法检测效果对比,(a)为算法1,(b)为算法2,(c)为本发明。
图5为不存在遗留物的三种算法检测效果对比,(a)为算法1,(b)为算法2,(c)为本发明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明公开一种工业场景下的遗留物检测方法,包括以下步骤:
分别提取监控视频当前帧的特征图和背景帧的特征图,所述背景帧与工业监控摄像头一一对应,为不包含任何遗留物的摄像头监控的工业生产区,一旦发生变化需重新标定。
如图2所示,采用孪生神经网络分别提取监控视频当前帧的特征图和背景帧的特征图,所述孪生神经网络的两个分支网络结构相同,网络主干结构均为ResNet50的前四层网络结构组成级联结构,两个分支网络参数不同,分别用作提取当前帧与背景帧的级联特征。在工业场景的遗留物数据集中训练得到权重,分别用于提取当前帧、背景帧的级联特征。
使用负相关的相关性算子计算当前帧特征图和背景帧特征图的相关性,得到相关特征图。
所述使用负相关的相关性算子计算当前帧特征图和背景帧特征图的相关性,得到相关特征,具体如下:
其中,F(a,b)为当前帧与背景帧的相关特征图,a为当前帧特征图,b为背景帧特征图,为当前帧特征图与背景特征间图的棋盘距离,aij为前帧特征图第i行j列的特征,bij为背景帧特征图第i行j列的特征,i=1,…,m,j=1,…,n,m、n分别为特征图的长、宽。
上述为优选算子,也可以是以下算子:
从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置。
采用目标检测网络从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置,所述目标检测网络为串联的RPN head和ROI head,其中,RPN head的输入为上一步骤中的大批的相关特征,输出为proposal regions,ROI head的输入为proposalregions,输出为感兴趣区域,即目标的回归框。
本发明采用端到端的训练方式,数据集为各工业监控摄像头监控的1年的历史数据,采用80%作为训练数据,20%作为测试数据。标注各视频帧中遗留物的位置和类别,作为标签。本实施例中类别为10种,其中包括“人”。
对每个前景目标进行分类,得到前景目标的类别。
本实施例中图像分类算法采用ResNet18网络的主干结构,输出层根据工业场景遗留物数据集进行调整,网络中的权重使用工业场景遗留物数据集进行训练。分类网络将上一步骤得到的感兴趣区域的目标进行分类。
根据当前帧中的前景目标的类别和位置,结合工业场景特性,输出遗留物检测结果。
第一种遗留物检测机制:若连续M帧中检测出同一物品前景目标且未检测到人,判定该前景目标为遗留物,进行标记并发送报警信息。
第二种遗留物检测机制:对每个新出现的物品前景目标,匹配与其距离最近的人;若物品前景目标所匹配的人消失超过一定时间,将其标记为遗留物,进行标记并发送报警信息。
统计其遗留的帧数并根据视频帧率将其转换为遗留时间,在画面上标记遗留物的位置和遗留时间,并向监控中心推送报警信息。
本实施例构建了工业场景下的遗留物数据集(Abandoned Objects Dataset,下文简称“AOD”)。AOD主要用于评估深度学习的检测模型,分为训练集、验证集和测试集。AOD的采样需要将各类遗留物放置在场景的不同位置,遗留物品需要全面考虑工业生产下可能出现的物品,在多次观察和现场调研后,选取工具箱、背包等九类物品,再加上工厂中的人员共十类作为待标注目标,AOD目标如图3所示。同时需要保证数据集中的目标具有不同角度、大小、亮度以及不同遮挡程度变化。设置测试集以便对比后续不同模型的检测精度。AOD数据集共包含3600张图像,10029个目标实例。其中训练集包含1900张图像,5159个目标实例,验证集包含300张图像,477个目标实例,测试集包含1400张图像,4393个目标实例。由于人员活动较多,故人员目标实例最多,其余物品目标实例个数均衡,AOD的各类目标个数的统计信息如表1所示。小目标定义为宽高均小于视频帧宽高10%的目标,其中小目标实例为3968个,占比约为40%,中等尺寸目标实例为8566个,占比约为85%。AOD包含了不同尺度和不同状态的目标,其中大量的中小型目标和其在工业场景下难以区分的特征,大大增加了对模型的检测难度。
表1 AOD实例数目统计信息
将本发明的方法分别与“Abandoned Object Detection using FrameDifferencing and Background Subtraction”中算法1和“Application of YOLO DeepLearning Model for Real Time Abandoned Baggage Detection”中的算法2进行对比,用漏检率和误判率指标评估算法的检测准确度。
漏检率等于没有检测出的遗留物数量除以实际遗留物总数;误判率等于遗留物被错误分类的物品数量除以检测出的遗留物总数。各类事件检测结果统计如表2所示。
表2不同遗留物检测方法对比
漏检率 | 误判率 | |
算法1 | 60.00% | 65.46% |
算法2 | 34.82% | 34.33% |
本方法 | 9.63% | 4.50% |
从表2和图4-图5可以看出,本发明的方法对工业监控视频的漏检率和误判率要远远低于其它方法。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种工业场景下的遗留物检测方法,其特征在于,该方法包括:
分别提取监控视频当前帧的特征图和背景帧的特征图,所述背景帧与工业监控摄像头一一对应,为不包含任何遗留物的摄像头监控的工业生产区,一旦发生变化需重新标定;
使用负相关的相关性算子计算当前帧特征图和背景帧特征图的相关性,得到相关特征图;
从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置;
对每个前景目标进行分类,得到前景目标的类别;
根据当前帧中的前景目标的类别和位置,结合工业场景特性,输出遗留物检测结果。
3.如权利要求1所述的方法,其特征在于,采用孪生神经网络分别提取监控视频当前帧的特征图和背景帧的特征图,所述所述孪生神经网络的两个分支网络结构相同,网络主干结构均为ResNet50的前四层网络结构组成级联结构,两个分支网络参数不同。
4.如权利要求1所述的方法,其特征在于,采用目标检测网络从相关特征图中检测得到当前帧不属于背景的所有前景目标的回归框及位置,所述目标检测网络为串联的RPN head和ROI head。
5.如权利要求1至4任一项所述的方法,其特征在于,若连续M帧中检测出同一物品前景目标且未检测到人,判定该前景目标为遗留物,进行标记并发送报警信息。
6.如权利要求1至4任一项所述的方法,其特征在于,对每个新出现的物品前景目标,匹配与其距离最近的人;若物品前景目标所匹配的人消失超过一定时间,将其标记为遗留物,进行标记并发送报警信息。
7.如权利要求5或6所述的方法,其特征在于,统计其遗留的帧数并根据视频帧率将其转换为遗留时间,在画面上标记遗留物的位置和遗留时间,并向监控中心推送报警信息。
8.一种工业场景下的遗留物检测***,其特征在于,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行权利要求1至7任一项所述的工业场景下的遗留物检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210532287.7A CN114926764A (zh) | 2022-05-09 | 2022-05-09 | 一种工业场景下的遗留物检测方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210532287.7A CN114926764A (zh) | 2022-05-09 | 2022-05-09 | 一种工业场景下的遗留物检测方法和*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114926764A true CN114926764A (zh) | 2022-08-19 |
Family
ID=82808584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210532287.7A Pending CN114926764A (zh) | 2022-05-09 | 2022-05-09 | 一种工业场景下的遗留物检测方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114926764A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036482A (zh) * | 2023-08-22 | 2023-11-10 | 北京智芯微电子科技有限公司 | 目标对象定位方法、装置、拍摄设备、芯片、设备及介质 |
-
2022
- 2022-05-09 CN CN202210532287.7A patent/CN114926764A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036482A (zh) * | 2023-08-22 | 2023-11-10 | 北京智芯微电子科技有限公司 | 目标对象定位方法、装置、拍摄设备、芯片、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tao et al. | Smoke detection based on deep convolutional neural networks | |
CN106897670B (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN110425005B (zh) | 矿井下皮带运输人员人机交互行为安全监控与预警方法 | |
CN103886344B (zh) | 一种图像型火灾火焰识别方法 | |
CN102982313B (zh) | 烟雾检测的方法 | |
CN107909027B (zh) | 一种具有遮挡处理的快速人体目标检测方法 | |
CN109034092A (zh) | 用于监控***的异常事件检测方法 | |
Szwoch | Extraction of stable foreground image regions for unattended luggage detection | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN108648211A (zh) | 一种基于深度学习的小目标检测方法、装置、设备和介质 | |
CN110874592A (zh) | 一种基于总有界变分的森林火灾烟雾图像检测方法 | |
CN111027370A (zh) | 一种多目标跟踪及行为分析检测方法 | |
CN112288778B (zh) | 一种基于多帧回归深度网络的红外小目标检测方法 | |
CN110909672A (zh) | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 | |
CN114694178A (zh) | 基于Faster-RCNN算法的电力作业中安全帽监测方法及*** | |
CN111145222A (zh) | 一种结合烟雾运动趋势和纹理特征的火灾检测方法 | |
CN114926764A (zh) | 一种工业场景下的遗留物检测方法和*** | |
Eği | YOLO V7 and computer vision-based mask-wearing warning system for congested public areas | |
CN105550642B (zh) | 基于多尺度线性差分特征低秩表示的性别识别方法及*** | |
CN112488213A (zh) | 一种基于多尺度特征学习网络的火灾图片分类方法 | |
CN113706815B (zh) | 一种结合YOLOv3和光流法的车辆火灾识别方法 | |
CN114612506A (zh) | 一种简易高效抗干扰的高空抛物轨迹识别与定位方法 | |
Shi et al. | High-altitude parabolic detection method based on GMM model and SORT algorithm | |
Ding et al. | Implementation of behavior recognition based on machine vision | |
Yao et al. | RETRACTED: Moving object surveillance using object proposals and background prior prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |