CN116486313B - 一种适应场景的视频分析***及方法 - Google Patents

一种适应场景的视频分析***及方法 Download PDF

Info

Publication number
CN116486313B
CN116486313B CN202310749534.3A CN202310749534A CN116486313B CN 116486313 B CN116486313 B CN 116486313B CN 202310749534 A CN202310749534 A CN 202310749534A CN 116486313 B CN116486313 B CN 116486313B
Authority
CN
China
Prior art keywords
detection model
target detection
picture
target
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310749534.3A
Other languages
English (en)
Other versions
CN116486313A (zh
Inventor
王三明
王聪明
张亮
胡小敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qiye Cloud Big Data Nanjing Co ltd
Anyuan Technology Co ltd
Original Assignee
Qiye Cloud Big Data Nanjing Co ltd
Anyuan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qiye Cloud Big Data Nanjing Co ltd, Anyuan Technology Co ltd filed Critical Qiye Cloud Big Data Nanjing Co ltd
Priority to CN202310749534.3A priority Critical patent/CN116486313B/zh
Publication of CN116486313A publication Critical patent/CN116486313A/zh
Application granted granted Critical
Publication of CN116486313B publication Critical patent/CN116486313B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种适应场景的视频分析***及方法,包括目标检测模型单元、误报判断模块和时序信息辅助判断模型单元,对目标检测模型识别出目标发出报警提示的图片进行判断,根据判断结果将目标检测模型识别出目标发出报警提示的图片放入背景图片库或训练集中;将背景图片和训练集混合在一起,然后对目标检测模型进行再次训练,得到满足精度的训练好的目标检测模型;通过时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤。本发明不仅泛化能力强,而且检测精度高。

Description

一种适应场景的视频分析***及方法
技术领域
本发明涉及一种利用计算机视觉技术对监控视频进行分析的***及方法,属于视频检测技术领域。
背景技术
视频分析***是一种利用计算机视觉技术对监控视频进行分析的***。它常被应用在工厂安全作业的分析(安全帽是否佩戴的检测),异常情况的检测(异常火焰烟雾的检测)和道路交通行为的检测(行车中司机是否系好安全带检测)等。
视频分析***从摄像头获取视频流,再对视频流进行截帧操作。对每一帧的图像用视频分析中的检测模型进行检测分析。以工厂安全监测场景的视频分析为例,视频分析***后面的模型主要是异常火焰的检测,异常烟雾的检测,安全帽佩戴检测等。若图像中出现火焰,异常火焰模型会检测到图中火焰的位置,并且生成报警信号,告知工厂安全监测的人员。
现有的视频分析***中的模型是事先训练好的,对场景的泛化能力不够,并且目前的检测只针对单张图片,而没有考虑视频流中时序的信息,因此会产生一些误报。以异常火焰的检测为例,在一些场景下,太阳光照射在物体上产生的反射光在会被模型误检为火焰,从而产生误报。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种泛化能力强且检测精度高的适应场景的视频分析***及方法。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种适应场景的视频分析方法,其特征在于,包括以下步骤:
步骤1,采集视频训练数据并标注,得到训练集。
步骤2,将训练集导入目标检测模型进行训练,得到训练好的目标检测模型。
步骤3,将需要待识别的视频输入到训练好的目标检测模型进行识别,对识别出的目标发出报警提示。
步骤4,对目标检测模型识别出目标发出报警提示的图片进行判断,如果目标检测模型识别出目标发出报警提示是误报,将目标检测模型识别出目标发出报警提示的图片放入背景图片库中,并标注。如果目标检测模型识别出目标发出报警提示是正确的,将此目标检测模型识别出目标发出报警提示是正确的图片放入训练集中。
步骤5,将背景图片和训练集混合在一起,然后对目标检测模型进行再次训练,得到满足精度的训练好的目标检测模型。
步骤6,通过时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤。
优选的:步骤6中时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤方法:
步骤61,抽出待分析的视频的同一个视频流中的前后两帧图片,记为表示第帧图片,,表示视频帧总数。
步骤62,第帧图片经过目标检测模型得到的检测结果为:
式中,表示第帧图片经过目标检测模型得到的检测结果,表 示目标检测模型函数,表示第个检测到的框,表示检测框的左上点 的坐标,表示检测框的右下点的坐标。
步骤63,对同一个视频流中的前后两帧图片采用稠密光流算法计算得到光流图。
式中,表示第帧图片的光流图。
步骤64,将步骤62中的目标检测模型得到的检测结果映射至光流图中,并且裁剪出来:
式中,表示裁剪出的第帧图片的光流图。
步骤65,将裁剪出的第帧图片的光流图转换至HSV颜色空间,得到 HSV颜色空间图片。
步骤66,对HSV颜色空间图片计算白色在图像片中的比例。
步骤67,当白色在图像片中的比例,认为第个检测到的框是有效的,表示白色在图像片中的比例判定阈值。
优选的:白色在图像片中的比例:
式中,为白色在图像片中的比例,表示坐标像素点是否趋于白 色,1表示趋于白色,0表示非白色,分别为裁剪出的第帧图片的光流图 的宽和高。
优选的:坐标像素点是否趋于白色:
式中,表示坐标像素点是否趋于白色,表示图片在坐标的饱 和度, 表示图片在坐标的明暗程度,分别表示图像片上的横纵坐标。
优选的:所述目标检测模型为yolov5目标检测模型。
一种适应场景的视频分析***,采用上述适应场景的视频分析方法,包括目标检测模型单元、误报判断模块和时序信息辅助判断模型单元,其中:
所述目标检测模型单元用于待识别的视频进行目标检测,对识别出的目标发出报警提示。用于根据背景图片和训练集进行再次训练,得到满足精度的训练好的目标检测模型,然后通过满足精度的训练好的目标检测模型进行进行目标检测。
所述误报判断模块用于对目标检测模型识别出目标发出报警提示的图片进行判断,如果目标检测模型识别出目标发出报警提示是误报,将目标检测模型识别出目标发出报警提示的图片放入背景图片库中,并标注。如果目标检测模型识别出目标发出报警提示是正确的,将此目标检测模型识别出目标发出报警提示是正确的图片放入训练集中。
所述时序信息辅助判断模型单元用于对满足精度的训练好的目标检测模型的检测结果进行过滤。
本发明相比现有技术,具有以下有益效果:
本发明在不改变现有方案的情况下, 通过对现场告警数据的统计分析,若是误报产生过多,可以基于误报图片对模型进行二次自动训练 ,改善模型对场景的泛化能力 ;另外,由于视频分析检测的目标都是动态的物体,这些动态的物体在视频流中会引起图像光流的变化,因此在检测模型的基础上,本发明增加的时序信息辅助判断模型,用于指导模型对动态物体的检测,从而达到对静态的无意义的报警或者误报的降低。
附图说明
图1为本发明实施例的流程图。
图2为LiteFlowNet2的网络结构。
图3为时序信息辅助判断模型流程图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种适应场景的视频分析方法,包括以下步骤:
步骤1,采集视频训练数据并标注,得到训练集。
在互联网上收集或者通过人工拍摄的方式采集了训练的数据,并且对其进行整理和标注。步骤2,将训练集导入目标检测模型进行训练,得到训练好的目标检测模型。
基于整理和标注好的数据,导入至视频分析***预设的模型中训练。本实施例针对的是计算机视觉中的目标检测算法为基础的视频分析***,目标检测模型采用目前主流的yolov5目标检测模型。
步骤3,将需要待识别的视频输入到训练好的目标检测模型进行识别,对识别出的目标发出报警提示。
步骤4,对目标检测模型识别出目标发出报警提示的图片进行判断,如果目标检测模型识别出目标发出报警提示是误报,将目标检测模型识别出目标发出报警提示的图片放入背景图片库中,并标注。如果目标检测模型识别出目标发出报警提示是正确的,将此目标检测模型识别出目标发出报警提示是正确的图片放入训练集中。
在本实施例中,在视频分析***中我们预先设置了误报判断模块,误报判断模块对出发报警的图片进行判断。如果结果是误报,点击“是误报”的按钮,后台将这张图片放入背景图片库中,并且标注的文件为空,说明这张图片是背景图片;如果结果是正确报警,点击“非误报”的按钮,这张图片放入训练集中,并且自动基于报警结果标注好了图片。此外,额外从互联网中或者通过人工拍摄的方式以及部署现场采集了部分图片作为测试集,作为模型效果的测试集。
步骤5,将背景图片和训练集混合在一起,然后对目标检测模型进行再次训练,得到满足精度的训练好的目标检测模型。
在本实施例中,将背景图片和训练集混合在一起在初始模型的基础上再次训练。训练结束后,在上面收集的测试集上做测试,若是测试精度达到用户要求,则可以部署;若没达到要求,回到步骤4,继续收集扩充数据进行迭代。
在***中预先设置了部署按钮,点击后,后台会把训练后的模型替换原来的模型,即完成迭代后模型的部署。
步骤6,通过时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤。
根据场景特性我们设置了时序信息辅助判断模型,用户可以根据场景特性选择是否开启。
时序信息辅助判断模型基于前一帧和当前帧的光流分析对检测结果做二次的判断,对检测结果做过滤,此模块视场景选择是否开始。如图3所示,当前帧就是frame_2,前一帧为frame_1。frame_2经过yolov5检测算法,得出了火焰检测的位置,即图中方框的范围。与此同时,frame_1是***保存的同一视频流的前一帧图像,将frame_2和frame_1同时作为稠密光流算法LiteFlowNet2(结构如图2所示)的输入,会得到一张光流图即图中名为“flow图像”。可以看出两张图中没有发生变化的区域在光流图中是白色,而火焰区域发生了变化,因此在那一片区域的光流图有颜色。将检测的位置映射至光流图上,方框内的区域有明显的颜色,因此基于这个判定,可以认为,方框这个检测结果是有效的。这种方法很好的过滤了由于灯光或者静止物体带来的误报。
如图3所示,时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤方法:
步骤61,抽出待分析的视频的同一个视频流中的前后两帧图片,记为表示第帧图片,,表示视频帧总数。
步骤62,第帧图片经过目标检测模型得到的检测结果为:
式中,表示第帧图片经过目标检测模型得到的检测结果,表 示目标检测模型函数,表示第个检测到的框,表示检测框的左上点 的坐标,表示检测框的右下点的坐标。
整个视频流的检测结构为:
步骤63,对同一个视频流中的前后两帧图片采用稠密光流算法计算得到光流图。
式中,表示第帧图片的光流图。
同等大小的图片,并且通过图3可以看出,光流变换的 区域是有颜色的,没有什么变化的区域是白色。
步骤64,将步骤62中的目标检测模型得到的检测结果映射至光流图中,并且裁剪出来:
式中,表示裁剪出的第帧图片的光流图。
步骤65,将裁剪出的第帧图片的光流图转换至HSV颜色空间,得到 HSV颜色空间图片。
步骤66,对HSV颜色空间图片做判定:
式中,表示坐标像素点是否趋于白色,1表示趋于白色,0表示非白色,表示图片在坐标的饱和度,饱和度越小越接近白色, 表示图片在坐标的 明暗程度,数值越靠近100%,越接近白色,分别表示图像片上的横纵坐标。
白色在图像片中的比例为:
式中,为白色在图像片中的比例,分别为裁剪出的第帧图片的光流图的宽和高。
步骤67,当白色在图像片中的比例,则表示图像中有明显的其他颜色, 说明有明显的光流变化,认为第个检测到的框是有效的。
一种适应场景的视频分析***,采用上述适应场景的视频分析方法,包括目标检测模型单元、误报判断模块和时序信息辅助判断模型单元,其中:
所述目标检测模型单元用于待识别的视频进行目标检测,对识别出的目标发出报警提示。用于根据背景图片和训练集进行再次训练,得到满足精度的训练好的目标检测模型,然后通过满足精度的训练好的目标检测模型进行进行目标检测。
所述误报判断模块用于对目标检测模型识别出目标发出报警提示的图片进行判断,如果目标检测模型识别出目标发出报警提示是误报,将目标检测模型识别出目标发出报警提示的图片放入背景图片库中,并标注。如果目标检测模型识别出目标发出报警提示是正确的,将此目标检测模型识别出目标发出报警提示是正确的图片放入训练集中。
所述时序信息辅助判断模型单元用于对满足精度的训练好的目标检测模型的检测结果进行过滤。
本发明在视频分析***中通过“是误报”和“非误报”的按钮对场景数据有针对的采集和扩充。根据采集的数据来提升模型的场景泛化能力,减少误报。时序信息辅助判断模块,减少误报。
本发明有针对性的采集,节省挑选的步骤。模型可以通过采集的数据不断迭代和优化。通过时序信息辅助判断模块减少误报。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种适应场景的视频分析方法,其特征在于,包括以下步骤:
步骤1,采集视频训练数据并标注,得到训练集;
步骤2,将训练集导入目标检测模型进行训练,得到训练好的目标检测模型;
步骤3,将需要待识别的视频输入到训练好的目标检测模型进行识别,对识别出的目标发出报警提示;
步骤4,对目标检测模型识别出目标发出报警提示的图片进行判断,如果目标检测模型识别出目标发出报警提示是误报,将目标检测模型识别出目标发出报警提示的图片放入背景图片库中,并标注;如果目标检测模型识别出目标发出报警提示是正确的,将此目标检测模型识别出目标发出报警提示是正确的图片放入训练集中;
步骤5,将背景图片和训练集混合在一起,然后对目标检测模型进行再次训练,得到满足精度的训练好的目标检测模型;
步骤6,通过时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤;
时序信息辅助判断模型对满足精度的训练好的目标检测模型的检测结果进行过滤方法:
步骤61,抽出待分析的视频的同一个视频流中的前后两帧图片,记为和/>,/>表示第/>帧图片,/>,/>表示视频帧总数;
步骤62,第帧图片/>经过目标检测模型得到的检测结果为:
式中,/>表示第/>帧图片/>经过目标检测模型得到的检测结果,/>表示目标检测模型函数,/>表示第/>个检测到的框,/>表示检测框的左上点的坐标,/>表示检测框的右下点的坐标;
步骤63,对同一个视频流中的前后两帧图片采用稠密光流算法计算得到光流图;
式中,/>表示第/>帧图片的光流图;
步骤64,将步骤62中的目标检测模型得到的检测结果映射至光流图中,并且裁剪出来:
式中,/>表示裁剪出的第/>帧图片的光流图;
步骤65,将裁剪出的第帧图片的光流图/>转换至HSV颜色空间,得到HSV颜色空间图片;
步骤66,对HSV颜色空间图片计算白色在图像片中的比例;
步骤67,当白色在图像片中的比例,认为第/>个检测到的框/>是有效的,/>表示白色在图像片中的比例判定阈值。
2.根据权利要求1所述适应场景的视频分析方法,其特征在于:白色在图像片中的比例:
式中,/>为白色在图像片中的比例,/>表示坐标/>像素点是否趋于白色,1表示趋于白色,0表示非白色,/>、/>分别为裁剪出的第/>帧图片的光流图的宽和高。
3.根据权利要求2所述适应场景的视频分析方法,其特征在于:坐标像素点是否趋于白色:
式中,/>表示图片在坐标/>的饱和度,表示图片在坐标/>的明暗程度,/>分别表示图像片上的横纵坐标。
4.根据权利要求3所述适应场景的视频分析方法,其特征在于:所述目标检测模型为yolov5目标检测模型。
5.一种适应场景的视频分析***,其特征在于:采用权利要求1所述适应场景的视频分析方法,包括目标检测模型单元、误报判断模块和时序信息辅助判断模型单元,其中:
所述目标检测模型单元用于待识别的视频进行目标检测,对识别出的目标发出报警提示;用于根据背景图片和训练集进行再次训练,得到满足精度的训练好的目标检测模型,然后通过满足精度的训练好的目标检测模型进行进行目标检测;
所述误报判断模块用于对目标检测模型识别出目标发出报警提示的图片进行判断,如果目标检测模型识别出目标发出报警提示是误报,将目标检测模型识别出目标发出报警提示的图片放入背景图片库中,并标注;如果目标检测模型识别出目标发出报警提示是正确的,将此目标检测模型识别出目标发出报警提示是正确的图片放入训练集中;
所述时序信息辅助判断模型单元用于对满足精度的训练好的目标检测模型的检测结果进行过滤。
CN202310749534.3A 2023-06-25 2023-06-25 一种适应场景的视频分析***及方法 Active CN116486313B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310749534.3A CN116486313B (zh) 2023-06-25 2023-06-25 一种适应场景的视频分析***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310749534.3A CN116486313B (zh) 2023-06-25 2023-06-25 一种适应场景的视频分析***及方法

Publications (2)

Publication Number Publication Date
CN116486313A CN116486313A (zh) 2023-07-25
CN116486313B true CN116486313B (zh) 2023-08-29

Family

ID=87219972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310749534.3A Active CN116486313B (zh) 2023-06-25 2023-06-25 一种适应场景的视频分析***及方法

Country Status (1)

Country Link
CN (1) CN116486313B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435432A (zh) * 2021-08-27 2021-09-24 腾讯科技(深圳)有限公司 视频异常检测模型训练方法、视频异常检测方法和装置
CN114220176A (zh) * 2021-12-22 2022-03-22 南京华苏科技有限公司 一种基于深度学习的人体行为的识别方法
CN114595134A (zh) * 2022-03-10 2022-06-07 中国农业银行股份有限公司 异常数据的检测方法、装置、电子设备及计算机存储介质
CN114842397A (zh) * 2022-05-19 2022-08-02 华南农业大学 一种基于异常检测的实时老人跌倒检测方法
CN115082517A (zh) * 2022-05-25 2022-09-20 华南理工大学 基于数据增强的赛马场景多目标追踪方法
CN115761537A (zh) * 2022-11-14 2023-03-07 西安科技大学 一种面向动态特征补充机制的输电线路异物入侵识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435432A (zh) * 2021-08-27 2021-09-24 腾讯科技(深圳)有限公司 视频异常检测模型训练方法、视频异常检测方法和装置
CN114220176A (zh) * 2021-12-22 2022-03-22 南京华苏科技有限公司 一种基于深度学习的人体行为的识别方法
CN114595134A (zh) * 2022-03-10 2022-06-07 中国农业银行股份有限公司 异常数据的检测方法、装置、电子设备及计算机存储介质
CN114842397A (zh) * 2022-05-19 2022-08-02 华南农业大学 一种基于异常检测的实时老人跌倒检测方法
CN115082517A (zh) * 2022-05-25 2022-09-20 华南理工大学 基于数据增强的赛马场景多目标追踪方法
CN115761537A (zh) * 2022-11-14 2023-03-07 西安科技大学 一种面向动态特征补充机制的输电线路异物入侵识别方法

Also Published As

Publication number Publication date
CN116486313A (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
KR101822924B1 (ko) 영상기반 화재 감지 시스템, 방법 및 프로그램
US11308335B2 (en) Intelligent video surveillance system and method
US20160260306A1 (en) Method and device for automated early detection of forest fires by means of optical detection of smoke clouds
CN111462451B (zh) 基于视频信息的秸秆焚烧检测报警***
CN107730517B (zh) 一种基于自适应亮度分割的火灾视频图像分析算法
CN111680632A (zh) 基于深度学习卷积神经网络的烟火检测方法及***
CN106339657B (zh) 基于监控视频的秸秆焚烧监测方法、装置
CN111814635B (zh) 基于深度学习的烟火识别模型建立方法和烟火识别方法
CN111126293A (zh) 一种火焰和烟雾异常情况检测方法及***
CN105976365A (zh) 一种夜间火灾视频检测方法
CN108389359A (zh) 一种基于深度学习的城市火灾报警方法
CN112906481A (zh) 一种基于无人机实现森林火情检测的方法
US11927944B2 (en) Method and system for connected advanced flare analytics
CN111127810A (zh) 机房明火自动告警方法及***
CN116543241B (zh) 泄露气体云团的检测方法、装置、存储介质和电子设备
KR101196678B1 (ko) 실시간 화재 감시 장치 및 방법
CN112861676B (zh) 一种烟火识别标记方法、***、终端及存储介质
CN107992799B (zh) 面向烟雾检测应用的预处理方法
CN112364884B (zh) 一种移动物体侦测的方法
CN112613483A (zh) 一种基于语义分割和识别的户外火灾预警方法
CN116486313B (zh) 一种适应场景的视频分析***及方法
CN116886874A (zh) 一种生态园安防监控预警数据的采集方法及其***
EP3748444B1 (en) Method and system for connected advanced flare analytics
CN114694090A (zh) 一种基于改进PBAS算法与YOLOv5的校园异常行为检测方法
Xiang et al. A new model for daytime visibility index estimation fused average sobel gradient and dark channel ratio

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant