CN112257683A - 一种面向车辆运行轨迹监测的跨镜追踪方法 - Google Patents
一种面向车辆运行轨迹监测的跨镜追踪方法 Download PDFInfo
- Publication number
- CN112257683A CN112257683A CN202011417659.9A CN202011417659A CN112257683A CN 112257683 A CN112257683 A CN 112257683A CN 202011417659 A CN202011417659 A CN 202011417659A CN 112257683 A CN112257683 A CN 112257683A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- cameras
- camera
- detection model
- target vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向车辆运行轨迹监测的跨镜追踪方法,该方法包括采用生成对抗网络扩充车辆视频数据集,并在扩充后的数据集上训练基于轻量化卷积神经网络的车辆检测模型;将车辆检测模型部署到所有摄像头上,并创建摄像头间的位置关联字典;采用车辆检测模型提取摄像头中拍摄到的车辆的表观特征及在镜头内的连续位置,根据车辆的移动方向预测出车辆可能出现的下一组摄像头;将车辆的表观特征广播至下一组摄像头中,并根据表观特征在下一组摄像头中对车辆进行追踪,最终完成车辆的跨镜追踪。本发明所采用的跨镜追踪方法,能够实现对车辆的运行轨迹进行实时监测,当发现被监测车辆脱离预设路线时发出预警,可以协助监管人员快速排查被监测车辆。
Description
技术领域
本发明涉及视频智能监控技术领域,尤其涉及一种面向车辆运行轨迹监测的跨镜追踪方法。
背景技术
随着人工智能技术的快速发展,视频安防技术从之前的传统安防***向智慧安防平台逐渐演变。智慧安防在“智慧城市”、“智慧工厂”、“智慧监狱”、“智慧园区”等场所发挥着重要作用,是各场所安全防护的关键技术手段。车辆作为人类常用交通媒介,是各场所日常安全防控针对的主要对象之一。通过对端侧监控摄像头进行组网,监测车辆的运行轨迹,对外来车辆、可疑车辆进行跨镜追踪是智慧安防的重要一环。
监控场所视频数目繁多,视频监控大屏无法同时显示全数监控画面,采用传统的人工监管方式成本高、效率低,极易产生错漏现象。目前已有的智能技术主要是将端侧视频传输到中央服务器进行批量处理分析,这将导致大量的数据吞吐与时间延迟。为减少不必要的数据传输与时间消耗,采用轻量化网络在移动端部署计算已成为迫切需求。
目前跨镜追踪技术仍存在以下技术难点:不同光照不同视角下监控摄像头拍摄的视频具有域间隔的问题,对车辆跨镜重识别造成较大的难度;车辆运行速度较快,视频捕捉的车辆图像往往带有运动模糊,造成车辆信息丢失;移动端实时监测对算法推理的速度以及算法运行空间提出了更高的要求。
发明内容
本发明的目的在于针对现有技术的不足,提供了一种面向车辆运行轨迹监测的跨镜追踪方法。
为实现本发明的目的,采用如下技术方案:一种面向车辆运行轨迹监测的跨镜追踪方法,具体包括如下步骤:
步骤一:收集车辆行驶监控视频,截取车辆行驶监控视频中的图像进行标注从而生成图像数据集,所述图像数据集包括白天图像和夜晚图像,通过生成对抗网络Cycle-Gan训练黑夜与白天风格转化网络以扩充图像数据集;所述图像数据集标注的内容为车辆所在图像区域的位置。
步骤二:将扩充的图像数据集输入基于轻量化卷积神经网络的车辆检测模型进行训练,当车辆检测模型的迭代次数大于9万次,完成对车辆检测模型的训练;
步骤三:将步骤二训练好的车辆检测模型部署到摄像头上,对所述摄像头进行局域网组网,并根据摄像头的位置信息创建摄像头间的位置关联字典;所述位置关联字典为:根据摄像头对准的道路实际情况确定目标车辆可能的移动方向;对于每个移动方向上指定的下一组摄像头,将下一组摄像头的id映射到该方向;
步骤四:在部署好车辆检测模型的摄像头中实时采集车辆行驶视频,并截取车辆行驶视频中的图像,构成图像集;所述图像集输入车辆检测模型中,获得目标车辆的表观特征和目标车辆在摄像头中的移动方向,根据目标车辆的移动方向预测出车辆可能出现的下一组摄像头;
步骤五:将目标车辆的表观特征广播至下一组摄像头中,并根据目标车辆的表观特征在下一组摄像头中对目标车辆进行追踪;
步骤六:在下一组摄像头端重复步骤四~五,直至目标车辆停止行驶或车辆驶离监控区域。
进一步地,在目标车辆追踪过程中,调取目标车辆对应的指定安全路线,与当前目标车辆的行驶位置进行对比,若当前目标车辆的行驶位置在指定安全路线上,则安全;若当前目标车辆的行驶位置不在指定安全路线上,则预警。
与现有技术相比,本发明具有如下有益效果:本发明的车辆运行轨迹监测的跨镜追踪方法采用生成对抗网络进行数据增强,有效提升检测模型及车辆再识别算法在不同环境下对车辆检测以及重识别的跨域适应能力,提高算法的泛化性和鲁棒性。利用轻量化卷积神经网络的车辆检测模型,部署到摄像头上进行并行计算,有效提高算法速度,减少大量数据传输工作。本发明利用跨镜追踪技术对车辆运行轨迹进行实时监测,在车辆偏离预设路线时及时发现并发出警报,协助监管人员快速定位排查问题。
附图说明
图1为本发明车辆跨镜追踪装置连接示意图;
图2为本发明面向车辆运行轨迹监测的跨镜追踪方法的流程示意图。
具体实施方式
如图1为本发明车辆跨镜追踪装置连接示意图,该车辆跨镜追踪装置,包括摄像头通信模块301、摄像头位置规划模块302、车辆检测模块303、车辆单镜跟踪模块304、车辆跨镜追踪模块305以及监控视频图像保存模块306。所述摄像头通信模块301用于各摄像头之间的信息传播;所述摄像头位置规划模块302用于调取摄像头位置关联字典,进而确定下一组摄像头id;所述车辆检测模块303,用于判断图像中是否存在车辆,并对车辆类型进行细分类和精确定位,同时完成车辆特征提取;所述车辆单镜跟踪模块304,用于提取车辆运行方向信息;所述车辆跨镜追踪模块305,用于根据车辆信息在摄像头内追踪该车辆;所述监控视频图像保存模块306,用于保存车辆的图片或视频。
如图2,本发明提供的面向车辆运行轨迹监测的跨镜追踪方法的流程示意图,具体包括如下步骤:
步骤一:收集车辆行驶监控视频,截取车辆行驶监控视频中的图像进行标注从而生成图像数据集,所述图像数据集包括白天图像和夜晚图像,通过生成对抗网络Cycle-Gan训练黑夜与白天风格转化网络以扩充图像数据集;所述图像数据集标注的内容为车辆所在图像区域的位置;考虑到由于人工标注数据代价过高所导致的训练数据不足的问题,本发明采用生成对抗网络可以为后续的车辆检测模型提供更多的黑夜与白天训练数据,从而提高车辆检测模型的检测精度和鲁棒性
步骤二:将扩充的图像数据集输入基于轻量化卷积神经网络的车辆检测模型进行训练,当车辆检测模型的迭代次数大于9万次,完成对车辆检测模型的训练。
步骤三:将步骤二训练好的车辆检测模型部署到摄像头上,对所述摄像头进行局域网组网,并根据摄像头的位置信息创建摄像头间的位置关联字典;所述位置关联字典为:根据摄像头对准的道路实际情况确定目标车辆可能的移动方向;对于每个移动方向上指定的下一组摄像头,将下一组摄像头的id映射到该方向;本发明直接将所述车辆检测模型部署到摄像头像,并采用局域网组网的方式,相比于传统的将数据传输到服务器端计算的方式,能够有效减少网络数据传输的开销;
步骤四:实时采集部署好车辆检测模型的摄像头中的车辆行驶视频,并截取车辆行驶视频中的图像,构成图像集;所述图像集输入车辆检测模型中,获得目标车辆的表观特征和目标车辆在摄像头中的移动方向,根据目标车辆的移动方向预测出车辆可能出现的下一组摄像头。
步骤五:将目标车辆的表观特征广播至下一组摄像头中,并根据目标车辆的表观特征在下一组摄像头中对目标车辆进行追踪。
步骤六:在下一组摄像头端重复步骤四~五,直至目标车辆停止行驶或车辆驶离监控区域。
同时,在目标车辆追踪过程中,调取目标车辆对应的指定安全路线,与当前目标车辆的行驶位置进行对比,若当前目标车辆的行驶位置在指定安全路线上,则安全;若当前目标车辆的行驶位置不在指定安全路线上,则预警;本发明可广泛应用于各种指定车辆的运行轨迹监测,改变传统的人工报警模式,通过自动化的跨镜追踪技术,实现对指定车辆的实时监测和预警,从而及时阻止违规行为的发生,将损失降到最低。
实施例
将本发明的方法用于危险品车运行轨迹监测,具体过程为:
步骤一:采集车辆行驶监控视频,截取车辆行驶监控视频中的图像进行标注从而生成图像数据集,所述图像数据集包括白天图像和夜晚图像,通过训练生成对抗网络Cycle-Gan训练黑夜与白天风格转化网络以扩充图像数据集;所述图像数据集标注的内容为车辆所在图像区域的位置。
步骤二:将扩充的图像数据集输入基于轻量化卷积神经网络的车辆检测模型进行训练,当车辆检测模型的迭代次数为9万次,完成对车辆检测模型的训练。这里所采用的基于轻量化卷积神经网络的车辆检测模型为GhostNet。
步骤三:将步骤二训练好的车辆检测模型部署到摄像头上,对所述摄像头进行局域网组网,实现摄像头之间的通信;并根据摄像头的位置信息创建摄像头间的位置关联字典;所述位置关联字典为:根据摄像头对准的道路实际情况确定目标车辆可能的移动方向;对于每个移动方向上指定的下一组摄像头,将下一组摄像头的id映射到该方向。
步骤四:在部署好车辆检测模型的摄像头中实时采集目标危险品车辆行驶视频,这里摄像头的编号为id_0,并截取目标危险品车辆行驶视频中的图像,构成图像集;所述图像集输入车辆检测模型中,获得目标危险品车辆的表观特征和目标危险品车辆在摄像头中的移动方向,这里,首先判断本摄像头是否在危险品车的指定路线上。若不是,则预警;若是,采用KalmanFilter跟踪算法对上述目标危险品车辆进行跟踪并确定其移动方向,该移动方向包括{E、W、S、N}。根据目标危险品车辆的移动方向预测出目标危险品车辆可能出现的下一组摄像头,若没有指定的下一组摄像头,则用‘#’表示;针对一个位置有多个摄像头负责监测的情况,则将多个摄像头映射到该方向。本实施例中,该摄像头id_0的关联字典为{‘E’:‘id_3’,‘W’:‘#’,‘S’:‘id_15’,‘id_7’,‘N’:‘id_11’}
步骤五:这里上述目标危险品车辆的实际移动方向属于‘E’,则通过查找步骤四的关联字典,确定下一组跨镜追踪的摄像头为id_3。摄像头id_0将所述目标危险品车辆表观特征以及目标摄像头id_3打包广播至周围的摄像头,收到广播的摄像头继续将所述表观特征向周围广播,直到摄像头id_3收到广播并回复received头包则广播结束。根据接收的目标危险品车辆表观特征在摄像头id_3中追踪目标危险品车辆。若摄像头id_3追踪到目标危险品车辆,判断本摄像头是否在目标危险品的指定路线上。若不是,则预警;若是,在下一组摄像头端重复步骤四~五,直至目标危险品车辆停止行驶或车辆驶离监控区域。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种面向车辆运行轨迹监测的跨镜追踪方法,其特征在于,具体包括如下步骤:
步骤一:收集车辆行驶监控视频,截取车辆行驶监控视频中的图像进行标注从而生成图像数据集,所述图像数据集包括白天图像和夜晚图像,通过生成对抗网络Cycle-Gan训练黑夜与白天风格转化网络以扩充图像数据集;所述图像数据集标注的内容为车辆所在图像区域的位置;
步骤二:将扩充的图像数据集输入基于轻量化卷积神经网络的车辆检测模型进行训练,当车辆检测模型的迭代次数大于9万次,完成对车辆检测模型的训练;
步骤三:将步骤二训练好的车辆检测模型部署到摄像头上,对所述摄像头进行局域网组网,并根据摄像头的位置信息创建摄像头间的位置关联字典;所述位置关联字典为:根据摄像头对准的道路实际情况确定目标车辆可能的移动方向;对于每个移动方向上指定的下一组摄像头,将下一组摄像头的id映射到该方向;
步骤四:在部署好车辆检测模型的摄像头中实时采集车辆行驶视频,并截取车辆行驶视频中的图像,构成图像集;所述图像集输入车辆检测模型中,获得目标车辆的表观特征和目标车辆在摄像头中的移动方向,根据目标车辆的移动方向预测出车辆可能出现的下一组摄像头;
步骤五:将目标车辆的表观特征广播至下一组摄像头中,并根据目标车辆的表观特征在下一组摄像头中对目标车辆进行追踪;
步骤六:在下一组摄像头端重复步骤四~五,直至目标车辆停止行驶或车辆驶离监控区域。
2.根据权利要求1所述面向车辆运行轨迹监测的跨镜追踪方法,其特征在于,在目标车辆追踪过程中,调取目标车辆对应的指定安全路线,与当前目标车辆的行驶位置进行对比,若当前目标车辆的行驶位置在指定安全路线上,则安全;若当前目标车辆的行驶位置不在指定安全路线上,则预警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011417659.9A CN112257683A (zh) | 2020-12-07 | 2020-12-07 | 一种面向车辆运行轨迹监测的跨镜追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011417659.9A CN112257683A (zh) | 2020-12-07 | 2020-12-07 | 一种面向车辆运行轨迹监测的跨镜追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112257683A true CN112257683A (zh) | 2021-01-22 |
Family
ID=74225044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011417659.9A Pending CN112257683A (zh) | 2020-12-07 | 2020-12-07 | 一种面向车辆运行轨迹监测的跨镜追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257683A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191305A (zh) * | 2021-05-17 | 2021-07-30 | 武汉中科通达高新技术股份有限公司 | 一种基于Flink框架的数据管理方法及装置 |
CN113450388A (zh) * | 2021-09-01 | 2021-09-28 | 智道网联科技(北京)有限公司 | 一种目标跟踪方法、装置及电子设备 |
CN115035251A (zh) * | 2022-06-16 | 2022-09-09 | 中交第二航务工程局有限公司 | 一种基于领域增强合成数据集的桥面车辆实时追踪方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101947945A (zh) * | 2010-09-16 | 2011-01-19 | 上海高帝矣斯科技有限公司 | 一种车辆定位追踪监控设备 |
US20160280223A1 (en) * | 2015-03-25 | 2016-09-29 | Honda Motor Co., Ltd. | Driving support device |
CN111818313A (zh) * | 2020-08-28 | 2020-10-23 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种基于监控视频的车辆实时追踪方法及装置 |
CN111899512A (zh) * | 2020-08-05 | 2020-11-06 | 深圳大学 | 结合天际线观测的车辆轨迹提取方法、***及存储介质 |
-
2020
- 2020-12-07 CN CN202011417659.9A patent/CN112257683A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101947945A (zh) * | 2010-09-16 | 2011-01-19 | 上海高帝矣斯科技有限公司 | 一种车辆定位追踪监控设备 |
US20160280223A1 (en) * | 2015-03-25 | 2016-09-29 | Honda Motor Co., Ltd. | Driving support device |
CN111899512A (zh) * | 2020-08-05 | 2020-11-06 | 深圳大学 | 结合天际线观测的车辆轨迹提取方法、***及存储介质 |
CN111818313A (zh) * | 2020-08-28 | 2020-10-23 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种基于监控视频的车辆实时追踪方法及装置 |
Non-Patent Citations (3)
Title |
---|
王佳昊: "《分层无线传感器网络关键技术》", 31 January 2017, 西安电子科技大学出版社 * |
郑宏达 等: "《人工智能视频分析 智能终端的崛起》", 30 August 2017, 浙江工商大学出版社 * |
马慧民 等: "《智能新零售——数据智能时代的零售业变革》", 31 December 2018, 中国铁道出版社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191305A (zh) * | 2021-05-17 | 2021-07-30 | 武汉中科通达高新技术股份有限公司 | 一种基于Flink框架的数据管理方法及装置 |
CN113450388A (zh) * | 2021-09-01 | 2021-09-28 | 智道网联科技(北京)有限公司 | 一种目标跟踪方法、装置及电子设备 |
CN115035251A (zh) * | 2022-06-16 | 2022-09-09 | 中交第二航务工程局有限公司 | 一种基于领域增强合成数据集的桥面车辆实时追踪方法 |
CN115035251B (zh) * | 2022-06-16 | 2024-04-09 | 中交第二航务工程局有限公司 | 一种基于领域增强合成数据集的桥面车辆实时追踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101942491B1 (ko) | 도로교통 상황 모니터링 관제·실시간 교통정보 분석·교통신호제어로 이루어진 인공지능형 cctv통합관제중개제어모듈을 갖는 cctv통합관제센터시스템 | |
CN109686109B (zh) | 一种基于人工智能的停车场安全监控管理***及方法 | |
KR102122859B1 (ko) | 교통 영상감시시스템의 멀티 표적 추적 방법 | |
Alpatov et al. | Vehicle detection and counting system for real-time traffic surveillance | |
CN112257683A (zh) | 一种面向车辆运行轨迹监测的跨镜追踪方法 | |
US11380105B2 (en) | Identification and classification of traffic conflicts | |
Shah et al. | Automated visual surveillance in realistic scenarios | |
US6985172B1 (en) | Model-based incident detection system with motion classification | |
KR101877294B1 (ko) | 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템 | |
US11475671B2 (en) | Multiple robots assisted surveillance system | |
CN113676702B (zh) | 基于视频流的目标追踪监测方法、***、装置及存储介质 | |
CA2451660A1 (en) | Method for monitoring a moving object and system regarding same | |
CN115603466B (zh) | 一种基于人工智能视觉识别的船舶岸电*** | |
Bloisi et al. | Argos—A video surveillance system for boat traffic monitoring in Venice | |
KR102122850B1 (ko) | 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션 | |
CN113593250A (zh) | 一种基于视觉识别的违章停车检测*** | |
Chang et al. | Video analytics in smart transportation for the AIC'18 challenge | |
CN103152558B (zh) | 基于场景识别的入侵检测方法 | |
KR102434154B1 (ko) | 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법 | |
KR20150034398A (ko) | 객체인식 기반의 주차장 이벤트 검지 시스템 | |
CN112241974A (zh) | 交通事故检测方法及处理方法、***、存储介质 | |
CN113034828A (zh) | 基于嵌入式计算终端实现目标检测和识别***及布设方法 | |
CN115909223A (zh) | 一种wim***信息与监控视频数据匹配的方法和*** | |
KR102499340B1 (ko) | 이기종 객체 필터 기반 하이브리드 영상 분석 장치 및 방법 | |
Ellis | Multi-camera video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210122 |