CN112200101B - 基于人工智能的面向海事业务的视频监控与分析方法 - Google Patents
基于人工智能的面向海事业务的视频监控与分析方法 Download PDFInfo
- Publication number
- CN112200101B CN112200101B CN202011102923.XA CN202011102923A CN112200101B CN 112200101 B CN112200101 B CN 112200101B CN 202011102923 A CN202011102923 A CN 202011102923A CN 112200101 B CN112200101 B CN 112200101B
- Authority
- CN
- China
- Prior art keywords
- frame
- identification
- tracking
- target object
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000012544 monitoring process Methods 0.000 title claims abstract description 19
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 11
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 26
- 238000004458 analytical method Methods 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 description 15
- 230000006399 behavior Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人工智能的面向海事业务的视频监控与分析方法,1,采用识别算法对视频数据源的每一帧识别区中的目标对象进行识别;2,在缓冲区通过标记算法对所述视频数据源的前后帧目标对象进行区分标记,完成同一目标对象不重复标记,确保识别对象的唯一性;3,从视频每一帧中截取识别区,在所述缓冲区内部区域使用追踪算法进行所述识别对象的追踪,追踪目标对象出缓冲区的轨迹,确保在追踪过程中重叠、遮挡、再分开因素的影响下追踪目标对象不错乱,从而得到识别对象的结果;4,记录所述追踪目标对象出识别区的位置,使用该位置对其进行行为分析和统计。本发明充分利用既有内河航道的视频监控设备,极大的节省了设备更换成本。
Description
技术领域
本发明涉及内河航道监控管理领域,尤其是涉及基于人工智能的面向海事业务的视频监控与分析方法。
背景技术
近些年来,随着内河航道日益增长的旅游船只、货运船只、渡运船只以及河道资源开发作业船,每年都引发了数百起水上交通安全事故,造成了数以百计人员伤亡以及不可估量的财产损失,给海事部门监管工作带来了极大的挑战。
为加强对内河航段的通航管控,目前海事部门通常在重点码头采用以船舶自动识别(AIS)、内河甚高频岸船数据通信***(VHF)技术为主,以VTS雷达和闭路电视监控***(CCTV)的航道视频技术手段为辅进行各类船舶的***。船舶自动识别***(AIS)配合全球定位***(GPS)将船位、船速、改变航向率及航向等船舶动态结合船名、呼号、吃水深度及危险货物等船舶静态资料由甚高频(VHF)频道向附近水域船舶及岸台广播,使邻近船舶及岸台能及时掌握附近水面所有船舶的动静态资讯,得以立刻互相通话协调,采取必要避让行动,对船舶安全起到很大帮助。
内河甚高频岸船数据通信***工作在甚高频(VHF)波段,是内河和近海无线电移动业务最主要的通信手段之一,它可以进行船舶遇险、紧急、安全通信和日常业务通信,也是搜救作业、船舶间协调避让、船舶交通服务***的重要通信工具。然而,AIS和VTS雷达在电子巡航的实际应用中也暴露出很多缺陷,无法满足智慧海事监管的业务需求。比如AIS存在信号盲区、很多船只因为各种原因未开或未装AIS、AIS和VTS雷达信息融合不够完善等。最主要表现在于AIS缺乏直观的视觉瞭望和现场情况的把控能力,同时随着海事部门业务需求的不断提升,早期的标清视频监控***在应用过程中也出现了弊端,例如船舶发生超速、超载、随意掉头或者追越时,原有标清摄像机无法提供有效的图像细节,特别是无法看清船名,这给海事监管和执法人员带来了很大的不便。
发明内容
本发明目的在于提供一种基于人工智能的面向海事业务的视频监控与分析方法,以视频手段为主实现船舶跟踪与监控,有效弥补现有船舶定位设备存在的不足。
为实现上述目的,本发明采取下述技术方案:
本发明所述基于人工智能的面向海事业务的视频监控与分析方法,包括下述步骤:
步骤1,采用识别算法对视频数据源的每一帧识别区中的目标对象进行识别,以适用不规则识别区来完成对所述目标对象的完整识别;即:按顺序依次读取视频数据源的每一帧并在每一帧上设定识别区;
步骤2,在缓冲区通过标记算法对所述视频数据源的前后帧目标对象进行区分标记,完成同一目标对象不重复标记,并区分新旧目标对象,确保识别对象的唯一性;即:根据每一帧设定的识别区,按照设定的缩小比例设置缓冲区,缓冲区与识别区中心点重合;
步骤3,在所述缓冲区内部区域使用追踪算法进行所述识别对象的跟踪,追踪目标对象出缓冲区的轨迹,确保在追踪过程中重叠、遮挡、再分开因素的影响下追踪目标对象不错乱;即:从视频每一帧中截取识别区,使用识别算法处理识别区,得到识别对象的结果,具体地:使用OpenCV从视频画面中截取识别区,采用训练好的YOLO识别模型,识别输入模型视频间隔帧中的对象,得出识别对象列表;
YOLO(You Only Look Once)是一种现有的基于深度神经网络的对象识别和定位算法,其最大的特点是运行速度快,可以用于实时***;YOLO的创新点在于改进了区域建议框式检测框架,将候选区和对象识别这两个阶段合二为一,采用了预定义的候选区;将全图进行分割,每个部分负责中心在该部分的目标检测,一次性预测各个部分所含目标的候选框、定位置信度以及所有类别概率向量;去掉候选区后,YOLO的结构包括卷积、池化和最后两层全连接层;最大的差异是最后输出层用线性函数做激活函数,用来预测候选框的位置和对象的概率,YOLO目标检测步骤如下:
步骤3.2,使用卷积神经网络对图像进行特征抽取;
步骤3.3,预测目标的位置、类别:如果某个目标对象的中心落在某网格中,则该网格就负责预测这个目标对象;每个网格要预测个候选框中的、置信度和的类别;输出大小为的张量;为划分网格数,为每个网格负责的边框个数,为类别个数;每个网格会对应个边界框,边界框的宽高范围为全图,表示以该网格为中心寻找物体的边界框位置;每个边界框对应一个分值,代表该处是否有物体及定位准确度:,每个网格对应个概率值,找出最大概率对应的类别,并认为网格中包含该物体或者该物体的一部分;每个网格对应的维向量中包含的信息如下:
4、遍历得分,排除得分较低与重叠度较高的对象,输出预测对象;
步骤4,记录所述追踪目标对象出识别区的位置,使用该位置对其进行行为分析和统计。
本发明以内河通航水域中已有的视频监控设备,包含以港口、码头为主的岸基视频监控设备以及船舱内的视频监控设备,依托大数据、云计算、人工智能、机器学习等技术,实现面向海事业务的自动化视频监控与统计分析。具体应用领域包括船舶识别、船舶跟踪、船舶运行轨迹监控、港口船舶进出港统计以及船上人员行为分析等。
本发明一方面解决了以往视频监控设备仅支持远程查看,无法通过自动化方式完成相关海事监管业务,而传统人工手段不仅耗时耗力,无法及时处置突发应急事件等问题;另一方面解决了软硬件捆绑的问题,实现了软硬件的分离,可充分利用既有内河航道的视频监控设备,极大的节省了设备更换成本。
附图说明
图1是本发明的流程图。
图2 是本发明所述YOLO算法流的流程图。
图3是本发明所述KCF滤波算法的流程图。
图4是本发明所述在每一帧上设定识别区的示意图。
图5是本发明在所述识别区内设置缓冲区的示意图。
图6是本发明实施例步骤3.5中判定新、旧对象的示意图。
图7是本发明实施例步骤3.6中对象穿越缓冲区的示意图。
图8是本发明实施例步骤3.7中追踪对象位置触发缓冲区的示意图。
图9是本发明实施例步骤4中追踪对象判定行为的示意图。
具体实施方式
下面结合附图对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述实施例。
本发明所述基于人工智能的面向海事业务的视频监控与分析方法,以内河通航水域中已有的视频监控设备,包含以港口、码头为主的岸基视频监控设备以及船舱内的视频监控设备,依托大数据、云计算、人工智能、机器学习等技术,实现面向海事业务的自动化视频监控与统计分析。如图1所示,步骤如下:
步骤1,采用识别算法对视频数据源的每一帧识别区中的目标对象进行识别,以适用不规则识别区来完成对目标对象的完整识别;即:按顺序依次读取视频数据源的每一帧并在每一帧上设定识别区1,如图4所示;
步骤2,在缓冲区2通过标记算法对视频数据源的前后帧目标对象进行区分标记,完成同一目标对象不重复标记,并区分新旧目标对象,确保识别对象的唯一性;即:根据每一帧设定的识别区1,按照设定的缩小比例(例如95%)设置缓冲区2,缓冲区2如图5阴影区域所示,缓冲区2与识别区1中心点重合;设置缓冲区2目的是:1、消除运动对象在识别区1不断变化下的影响;2、区分新旧对象,以便标记对象或更新对象;
步骤3,从视频每一帧中截取识别区1,使用识别算法处理识别区,得到识别对象的结果,即:使用OpenCV从视频画面中截取识别区1,采用训练好的YOLO识别模型,识别输入模型视频间隔帧中的对象,得出识别对象列表;具体步骤如下:
步骤3.1,如图2所示,YOLO目标检测的步骤:
步骤3.1.2,使用卷积神经网络对图像进行特征抽取;
步骤3.1.3,预测目标的位置、类别:如果某个目标对象的中心落在这个网格中,则这个网格就负责预测这个目标对象;每个网格要预测个候选框中的、置信度和的类别;输出大小为的张量;为划分网格数,为每个网格负责的边框个数,为类别个数;每个网格会对应个边界框,边界框的宽高范围为全图,表示以该网格为中心寻找物体的边界框位置;每个边界框对应一个分值,代表该处是否有物体及定位准确度:,每个网格对应个概率值,找出最大概率对应的类别,并认为网格中包含该物体或者该物体的一部分;每个网格对应的维向量中包含的信息如下:
步骤3.1.4,遍历得分,排除得分较低与重叠度较高的对象,输出预测对象;
步骤3.2,YOLO算法的损失函数:
YOLO算法将目标检测看成回归问题,采用均方差损失函数,但对不同的部分采用不同的权重值;首先区分定位误差和分类误差,对于定位误差,即边界框坐标预测误差,采用较大的,然后区分不包含目标的边界框与含有目标的边界框的置信度,对于前者,采用较小的权重值,其它权重值均设为1;然后采用均方误差,其同等对待大小不同的边界框,将网络边界框宽、高的预测改为对其平方根的预测,即预测值变为;对于分类误差意味着存在对象的网格才计入误差;误差公式如下:
不含目标对象的候选框的置信度误差:
步骤3.3,YOLO网络的训练:
在训练之前,首先在ImageNet(图像训练集)上进行了预训练,其预训练的分类模型采用前53个卷积层,并添加5个池化层和全连接层;网络的测试,每个候选框的(目标边框类的相关置信度得分);计算得到每个的(目标边框类的相关置信度得分)以后,设置阈值,滤掉得分低的候选框,对保留的候选框进行NMS(非极大值抑制)处理,得到最终的检测结果;
步骤3.4,标记算法,对上面识别对象列表进行处理,判定是否是新对象,判定方法使用优化的IOU(交并比,)计算新对象区域、缓冲区2与已有对象列表的区域重叠的占比,若大于等于阈值,则不是新对象,若小于阈值,则是新对象;阈值由对缓存区2与新旧对象交集求交并比,一般阈值取值在0.5以上;具体算法步骤如下:
根据识别对象大小及经过测算阈值设置为0.5;
步骤3.5,如图6所示,判断新旧对象:若是新对象,则进行标记、创建***、记录ID、初始位置等信息;若不是新对象,则更新已有对象***中的初始位置;
步骤3.6,追踪算法:如图7所示,对象穿越缓冲区2则使用追踪算法,时刻记录该对象3的位置,KCF(Kernel Correlation Filter)滤波算法,主要解决多对象追踪重叠问题;
KCF是一种鉴别式追踪方法,这类方法一般都是在追踪过程中训练一个目标检测器,使用目标检测器去检测下一帧预测位置是否是目标,然后再使用新检测结果去更新训练集进而更新目标检测器;训练目标检测器时一般选取目标区域为正样本,目标的周围区域为负样本,越靠近目标的区域为正样本的可能性越大;如图3所示,步骤如下:
用到的矩阵算法:有循环矩阵傅氏空间对角化、傅氏对角化简化的岭回归、核空间岭回归;循环矩阵傅氏对角化公式:
步骤3.7,如图8所示,被追踪对象4位置触发缓冲区2时,时刻对该对象4进行监测,并比对其位置是否已经离开识别区2;
步骤3.8,当被追踪对象4离开缓冲区2后,销毁相应ID追踪器,根据初始区域与离开区域的方位关系,进而判定出被追踪对象4行为,进行分类统计输出到屏幕,并存储到数据库;
步骤4,记录追踪目标对象出识别区1的位置,使用该位置对其进行行为分析和统计;如图9所示,步骤如下:
步骤4.1,起始质心和离开质心都在虚线5左侧则为出港折返目标对象6;
步骤4.2,起始质心在虚线5左侧且离开质心在虚线5右侧则为出港目标对象7;
步骤4.3,起始质心和离开质心都在虚线5右侧,则为入港折返目标对象8;
步骤4.4,起始质心在虚线5右侧且离开质心在虚线5左侧则为入港目标对象9。
Claims (2)
1.一种基于人工智能的面向海事业务的视频监控与分析方法,其特征在于:包括下述步骤:
步骤1,采用识别算法对视频数据源的每一帧识别区中的目标对象进行识别,以适用不规则识别区来完成对所述目标对象的完整识别;即:按顺序依次读取视频数据源的每一帧并在每一帧上设定识别区;
步骤2,在缓冲区通过标记算法对所述视频数据源的前后帧目标对象进行区分标记,完成同一目标对象不重复标记,并区分新旧目标对象,确保识别对象的唯一性;根据每一帧设定的识别区,按照设定的缩小比例设置缓冲区,缓冲区在识别区内,且与识别区中心点重合;
步骤3,从视频每一帧中截取识别区,在所述缓冲区内部区域使用追踪算法进行所述识别对象的追踪,追踪目标对象出缓冲区的轨迹,确保在追踪过程中重叠、遮挡、再分开因素的影响下追踪目标对象不错乱,从而得到识别对象的结果;
步骤4,记录所述追踪目标对象出识别区的位置,使用该位置对其进行行为分析和统计。
2.根据权利要求1所述基于人工智能的面向海事业务的视频监控与分析方法,其特征在于:步骤3中,使用追踪算法进行所述识别对象的跟踪,步骤如下:
步骤3.2,使用卷积神经网络对图像进行特征抽取;
步骤3.3,预测目标的位置、类别:如果某个目标对象的中心落在某个所述网格中,则该网格就负责预测这个目标对象;每个网格要预测个候选框中的、置信度和类别;输出大小为的张量;为划分网格数,为每个网格负责的边框个数,为类别个数;每个网格对应个边界框,所述边界框的宽高范围为全图,表示以该网格为中心寻找物体的边界框位置;每个边界框对应一个分值,代表该处是否有物体及定位准确度;
4、遍历所有得分,排除得分较低与重叠度较高的对象,输出预测对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011102923.XA CN112200101B (zh) | 2020-10-15 | 2020-10-15 | 基于人工智能的面向海事业务的视频监控与分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011102923.XA CN112200101B (zh) | 2020-10-15 | 2020-10-15 | 基于人工智能的面向海事业务的视频监控与分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112200101A CN112200101A (zh) | 2021-01-08 |
CN112200101B true CN112200101B (zh) | 2022-10-14 |
Family
ID=74009065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011102923.XA Active CN112200101B (zh) | 2020-10-15 | 2020-10-15 | 基于人工智能的面向海事业务的视频监控与分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200101B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022244062A1 (ja) * | 2021-05-17 | 2022-11-24 | Eizo株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
CN113516093A (zh) * | 2021-07-27 | 2021-10-19 | 浙江大华技术股份有限公司 | 标识信息的标注方法及装置、存储介质及电子装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101515378A (zh) * | 2009-03-17 | 2009-08-26 | 上海普适导航技术有限公司 | 船舶进出港信息化管理方法 |
CN104394507A (zh) * | 2014-11-13 | 2015-03-04 | 厦门雅迅网络股份有限公司 | 一种通过缓冲区解决报警区域漏报的方法及*** |
CN104766064A (zh) * | 2015-04-13 | 2015-07-08 | 郑州天迈科技股份有限公司 | 一种车载视频dvr图像识别定位出入站、场的方法 |
CN105761490A (zh) * | 2016-04-22 | 2016-07-13 | 北京国交信通科技发展有限公司 | 对危化品运输车辆在服务区停靠的预警方法 |
CN107067447A (zh) * | 2017-01-26 | 2017-08-18 | 安徽天盛智能科技有限公司 | 一种大空间区域的整体化视频监控方法 |
WO2018008893A1 (ko) * | 2016-07-06 | 2018-01-11 | 주식회사 파킹패스 | 이동차량 추적에 의한 노외주차 관리시스템 및 그 방법 |
CN109684996A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 基于视频的实时车辆进出识别方法 |
CN109785664A (zh) * | 2019-03-05 | 2019-05-21 | 北京悦畅科技有限公司 | 一种停车场的剩余停车位数量的统计方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991272B (zh) * | 2019-11-18 | 2023-07-18 | 东北大学 | 一种基于视频跟踪的多目标车辆轨迹识别方法 |
-
2020
- 2020-10-15 CN CN202011102923.XA patent/CN112200101B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101515378A (zh) * | 2009-03-17 | 2009-08-26 | 上海普适导航技术有限公司 | 船舶进出港信息化管理方法 |
CN104394507A (zh) * | 2014-11-13 | 2015-03-04 | 厦门雅迅网络股份有限公司 | 一种通过缓冲区解决报警区域漏报的方法及*** |
CN104766064A (zh) * | 2015-04-13 | 2015-07-08 | 郑州天迈科技股份有限公司 | 一种车载视频dvr图像识别定位出入站、场的方法 |
CN105761490A (zh) * | 2016-04-22 | 2016-07-13 | 北京国交信通科技发展有限公司 | 对危化品运输车辆在服务区停靠的预警方法 |
WO2018008893A1 (ko) * | 2016-07-06 | 2018-01-11 | 주식회사 파킹패스 | 이동차량 추적에 의한 노외주차 관리시스템 및 그 방법 |
CN107067447A (zh) * | 2017-01-26 | 2017-08-18 | 安徽天盛智能科技有限公司 | 一种大空间区域的整体化视频监控方法 |
CN109684996A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 基于视频的实时车辆进出识别方法 |
CN109785664A (zh) * | 2019-03-05 | 2019-05-21 | 北京悦畅科技有限公司 | 一种停车场的剩余停车位数量的统计方法和装置 |
Non-Patent Citations (3)
Title |
---|
Vessel Detection and Tracking Method Based on Video Surveillance;Natalia Wawrzyniak 等;《MDPI》;20191128;全文 * |
基于深度学习的多船舶目标跟踪与流量统计;冼允廷等;《微型电脑应用》;20200320(第03期);全文 * |
面向普速车站的智能到发作业***设计与实现;吴兴华;《铁路计算机应用》;20180725;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112200101A (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6759474B2 (ja) | 深層学習ネットワーク及び平均シフトに基づく船舶自動追跡方法及びシステム | |
CN105389567B (zh) | 基于稠密光流直方图的群体异常检测方法 | |
CN109725310B (zh) | 一种基于yolo算法以及岸基雷达***的船舶定位监管*** | |
CN110223302A (zh) | 一种基于旋转区域提取的舰船多目标检测方法 | |
CN110097568A (zh) | 一种基于时空双分支网络的视频对象检测与分割方法 | |
CN112200101B (zh) | 基于人工智能的面向海事业务的视频监控与分析方法 | |
CN104660993B (zh) | 基于ais和cctv的海事智能监控方法及*** | |
CN105184271A (zh) | 一种基于深度学习的车辆自动检测方法 | |
CN110348304A (zh) | 一种可搭载于无人机的海事遇险人员搜索***以及目标识别方法 | |
CN110060508B (zh) | 一种用于内河桥区的船舶自动检测方法 | |
CN110378308A (zh) | 改进的基于Faster R-CNN的港口SAR图像近岸舰船检测方法 | |
CN109657541A (zh) | 一种基于深度学习的无人机航拍图像中的船舶检测方法 | |
CN104318258A (zh) | 一种基于时域模糊和卡尔曼滤波器的车道线检测方法 | |
CN109977897A (zh) | 一种基于深度学习的船舶特征重识别方法、应用方法及*** | |
CN101145200A (zh) | 多视觉传感器信息融合的内河船舶自动识别*** | |
CN110427981A (zh) | 基于深度神经网络的sar船舶检测***及方法 | |
CN106778540B (zh) | 停车检测准确的基于双层背景的停车事件检测方法 | |
CN113808282A (zh) | 一种多通航要素数据融合方法 | |
Bloisi et al. | Camera based target recognition for maritime awareness | |
CN111091095A (zh) | 一种遥感图像中船只目标的检测方法 | |
CN113743260B (zh) | 一种地铁站台密集人流情况下的行人跟踪方法 | |
Ozcelik et al. | A vision based traffic light detection and recognition approach for intelligent vehicles | |
Zhu et al. | Arbitrary-oriented ship detection based on retinanet for remote sensing images | |
Zhang et al. | A warning framework for avoiding vessel‐bridge and vessel‐vessel collisions based on generative adversarial and dual‐task networks | |
CN113989487A (zh) | 一种面向实景调度的故障缺陷检测方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 450046 No.9 Zeyu street, Zhengdong New District, Zhengzhou City, Henan Province Patentee after: Henan Zhonggong Design and Research Institute Group Co.,Ltd. Country or region after: China Address before: 450046 No.9 Zeyu street, Zhengdong New District, Zhengzhou City, Henan Province Patentee before: HENAN PROVINCIAL COMMUNICATIONS PLANNING & DESIGN INSTITUTE Co.,Ltd. Country or region before: China |