CN113536824B - 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 - Google Patents
一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 Download PDFInfo
- Publication number
- CN113536824B CN113536824B CN202010283083.5A CN202010283083A CN113536824B CN 113536824 B CN113536824 B CN 113536824B CN 202010283083 A CN202010283083 A CN 202010283083A CN 113536824 B CN113536824 B CN 113536824B
- Authority
- CN
- China
- Prior art keywords
- passenger
- feature map
- image
- network
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 title claims abstract description 26
- 238000010586 diagram Methods 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims 1
- 230000008447 perception Effects 0.000 claims 1
- 230000006872 improvement Effects 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法,所述改进方法包括:选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,提高特征图中与目标相关区域的特征权重:得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出,通过将MobileNetv3与YOLOv3框架的有效结合,对MobileNetv3结构中添加注意力感知模块,提高有效特征的权重,从而提高模型客流统计的精度。
Description
技术领域
本发明涉及人工智能和目标检测研究领域,具体涉及一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法。
背景技术
客流数据的有效获取,既能够帮助管理者合理地进行规划管理和运营调度,同时也能改善公共交通服务质量,减少乘客等待时间和拥挤的乘车体验,提高乘客的满意度。在实现本发明过程中,发明人发现现有技术中至少存在如下问题:随着城市智慧交通的不断推进以及深度学习技术的不断发展,越来越多的智能手段应用于客流数据统计,目前大多数智能化客流统计,都是对乘客进行局部检测,提取的特征信息十分有限,对乘客的检测容易被其他因素干扰,提供的数据维度也比较单一。基于人脸识别的客流统计,在实际的乘车场景中,会有乘客佩戴口罩或者帽子,脸部被遮挡,此时***无法识别出该乘客,造成客流统计遗漏。基于俯视的角度识别乘客的头和肩进行客流统计,无法对乘客特征和属性进行多维度识别,因此不能很好的区分乘客和物体,无法获得精准的乘客人数。公共交通场景较为复杂,乘客之间距离较近,且乘客外观服饰等对检测的干扰也较大,如何提高客流统计的精度是亟需解决的问题。
发明内容
为了克服现有技术的不足,本公开实施例提供了一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法,通过将MobileNetv3与YOLOv3框架的有效结合,对MobileNetv3结构中添加注意力感知模块,提高有效特征的权重,从而提高模型客流统计的精度;技术方案如下。
第一方面,提供了一种基于YOLOv3的乘客检测模型的改进方法,所述方法包括:
选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,所述注意力感知模块具体内容如下:
在每个特征图上计算出特征值的均值xmean,获取当前特征图的最大特征值xmax和最小特征值xmin;设置分段imax=(xmax-xmean)/θ1,imin=(xmean-xmin)/θ2,其中θ1、θ2为分割因子,取值范围为开区间(0,10)之间的正整数;对特征图上的每个特征值f进行权重wf计算,具体公式如下:
其中δ为设定的初始权重,δ∈(0,1),且δ≥0.1×θ2,
得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出。
优选的,所述对整体网络结构进行了修改,还包括,将图像尺寸压缩为176×144后作为网络输入,将网络的第一个步长设为1,来减少图像下采样的次数,使得图像在经过更深的网络层时能够保留更多特征。
进一步的,所述对整体网络结构进行了修改,具体网络参数如表1所示:
表1网络参数表
优选的,所述对整体网络结构进行了修改,修改后的网络进行了两次检测,分别是在16倍降采样和8倍降采样,主干网络的最后一个注意力感知层的输出对应8倍降采样,最后一个卷积层的输出对应16倍降采样,对16倍降采样的特征图进行上采样后,再与8倍降采样的特征图进行融合。
优选的,替换所述上采样层为解码层,所述解码层依次包括反卷积操作和注意力感知模块。
优选的,所述图像为通过安装在车门对面的摄像头获得,为乘客上车时的正视图像。
第二方面,提供了一种基于YOLOv3的乘客检测模型的模型训练方法,该方法包括,采用图像集对通过上述所有可能的实现方法中任一项所述的一种基于YOLOv3的乘客检测模型的改进方法得到的模型进行训练。
优选的,在整个模型的训练阶段采用focal loss作为目标判断的损失函数,采用GIOU作为目标框回归的损失函数,
focal loss公式为:
其中α为平衡因子,γ为调节因子
GIOU的公式为:U=Apred+Agt-I
其中I和U分别为预测框Bpred与标签Bgt的交集和并集,Apred为Bpred的面积,Agt为Bgt的面积,A为包含Bpred和Bgt的最小边界框的面积。
总的损失函数为:其中/>与β为两个损失函数的权重系数。
优选的,所述训练采用的图像集为通过安装在车门对面的摄像头获得,即获取乘客上车时的正视图像作为检测算法训练集的原始输入,训练集标签的制作原则是,标出乘客在图像中显示出来的上半身区域。
与现有技术相比,上述技术方案中的一个技术方案具有如下有益效果:通过将MobileNetv3与YOLOv3框架的有效结合,对MobileNetv3结构中添加注意力感知模块,提高有效特征的权重,从而提高模型客流统计的精度;同时还具有如下优点:
(1)提高客流统计的精度;
(2)对精准的客流OD提供更加全面的特征信息;
(3)能够辅助公安***进行人物追踪;
(4)此方法可在移动端进行部署,对配置要求较低。
附图说明
图1为本公开实施例提供的一种基于YOLOv3改进后的乘客检测模型的主干网络结构图。
图2为本公开实施例提供的另一种基于YOLOv3改进后的乘客检测模型的主干网络结构图。
具体实施方式
为了阐明本发明的技术方案和工作原理,下面将结合附图对本公开实施方式做进一步的详细描述。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
以下采用在公共交通车辆车门处采集客流为本申请实施例的示例性应用场景,本申请实施例提供了一种基于YOLOv3的乘客检测模型的改进方法。当然本发明的使用场景不限于在公共车辆车门处采集客流的情况,还包括有着同样模式的商场门口,景点入口等。
第一方面:本公开实施例提供了一种基于YOLOv3的乘客检测模型的改进方法,图1为本公开实施例提供的一种基于YOLOv3改进后的乘客检测模型的主干网络结构图,结合改图,改进方法具体包含如下内容。
本公开实施例中,检测算法是基于YOLOv3的框架,然而YOLOv3的主干网络参数过多,不利于移动端的部署和开发。因此,选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,提高特征图中与目标相关区域的特征权重;所述注意力感知模块具体内容如下。
在每个特征图上计算出特征值的均值xmean,获取当前特征图的最大特征值xmax和最小特征值xmin;设置分段imax=(xmax-xmean)/θ1,imin=(xmean-xmin)/θ2,其中θ1、θ2为分割因子,取值范围为开区间(0,10)之间的正整数,θ1、θ2值决定每个分段的特征值范围;对特征图上的每个特征值f进行权重wf计算,具体公式如下:
其中δ为设定的初始权重,δ∈(0,1),且δ≥0.1×θ2,δ和θ的取值可根据具体应用场景需求进行更改。
得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出。
通过注意力感知模块,可以提高目标相关特征的重要性,减少无关特征的干扰。之所以选择在降采样卷积操作后面添加,是因为后面的多个非采样卷积能够进一步从加权后的特征图中提取出更加有效的特征;没有选择在网络前面的降采样卷积后面添加,则是由于此时的特征图只经过少量网络层,特征信息判别性不够强,计算出的权重矩阵不具代表性。
优选的,所述对整体网络结构进行了修改,还包括,将图像尺寸压缩为176×144后作为网络输入,相比原始的244×244的输入尺寸,此方法能够提高模型运行效率;将网络的第一个步长设为1,来减少图像下采样的次数,使得图像在经过更深的网络层时能够保留更多特征。
进一步的,所述对整体网络结构进行了修改,具体网络参数如表1所示:
表1网络参数表
优选的,所述对整体网络结构进行了修改,修改后的网络进行了两次检测,分别是在16倍降采样和8倍降采样,主干网络的最后一个注意力感知层的输出对应8倍降采样,最后一个卷积层的输出对应16倍降采样,对16倍降采样的特征图进行上采样后,再与8倍降采样的特征图进行融合,这样在多尺寸的特征图上获得的特征表达效果更好,并且特征包含的信息也更加全面。
图2为本公开实施例提供的另一种基于YOLOv3改进后的乘客检测模型的主干网络结构图,替换所述上采样层为解码层,所述解码层依次包括反卷积操作和注意力感知模块,原始结构的采用的是内插值算法,而本方法采用反卷积操作,该操作可以通过训练获得最佳的参数,从而较好地还原特征图,在反卷积后面添加一个注意力感知模块,进一步对还原的特征图做特征优化。
每次检测输出对应3个锚框,两次检测的锚框尺寸不同,通过k-mean算法获得。
优选的,所述图像为通过安装在车门对面的摄像头获得,为乘客上车时的正视图像。
第二方面,提供了一种基于YOLOv3的乘客检测模型的模型训练方法,该方法包括,采用图像集对通过上述所有可能的实现方法中任一项所述的一种基于YOLOv3的乘客检测模型的改进方法得到的模型进行训练。
优选的,考虑到公交乘车场景的复杂性,乘客之间遮挡较为严重,且图像中正负样本比列差距较大,在整个模型的训练阶段采用focal loss作为目标判断的损失函数,采用GIOU作为目标框回归的损失函数,
focal loss公式为:
其中α为平衡因子,可以较好地解决正负样本比例不均衡的问题,即平衡正负样本的重要性;γ为调节因子,能够减少较易分辨的简单样本的损失,使得模型更加关注于难以分辨的样本,通过设置不同的γ值,来控制简单样本权重下降的速率;y为标注标签,y′为预测概率
GIOU的公式为:U=Apred+Agt-I
其中I和U分别为预测框Bpred与标签Bgt的交集和并集,Apred为Bpred的面积,Agt为Bgt的面积,A为包含Bpred和Bgt的最小边界框的面积。
总的损失函数为:其中/>与β为两个损失函数的权重系数,在实际应用中可灵活调节。
优选的,所述图像集为通过安装在车门对面的摄像头获得,即获取乘客上车时的正视图像作为检测算法训练集的原始输入,训练集标签的制作原则是,标出乘客在图像中显示出来的上半身区域。通过在前门对面布置摄像头的方式获取乘客正面的上车图像,再使用改进的YOLOv3检测算法根据图像中乘客上半身特征检测出乘客,乘客上半身特征包含更多维度信息,如头部、脸部、服饰纹理和色彩等,从而进一步提高乘客检出率。
需要说明的是,上述实施例提供的一种基于YOLOv3的乘客检测模型的改进方法与一种基于YOLOv3的乘客检测模型的模型训练方法实施例属于同一构思,其具体实现过程详见模型的改进方法实施例,这里不再赘述。
以上结合附图对本发明进行了示例性描述,显然,本发明具体实现并不受上述方式的限制,凡是采用了本发明的方法构思和技术方案进行的各种非实质性的改进;或者未经改进、等同替换,将本发明的上述构思和技术方案直接应用于其他场合的,均在本发明的保护范围之内。
Claims (7)
1.一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述方法包括:
通过安装在车门对面的摄像头获得待检测图像,所述待检测图像为乘客上车时的正视图像;
选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,修改后的网络进行两次检测,分别是在16倍降采样和8倍降采样,主干网络的最后一个注意力感知层的输出对应8倍降采样,最后一个卷积层的输出对应16倍降采样,对16倍降采样的特征图通过上采样层进行上采样后,再与8倍降采样的特征图进行融合;
在最后两个降采样的卷积操作后面加上注意力感知模块,所述注意力感知模块具体内容如下:
在每个特征图上计算出特征值的均值xmean,获取当前特征图的最大特征值xmax和最小特征值xmin;设置分段imax=(xmax-xmean)/θ1,imin=(xmean-xmin)/θ2,其中θ1、θ2为分割因子,取值范围为开区间(0,10)之间的正整数;对特征图上的每个特征值f进行权重wf计算,具体公式如下:
其中δ为设定的初始权重,δ∈(0,1),且δ≥0.1×θ2;
得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出。
2.根据权利要求1所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述对整体网络结构进行了修改,还包括,将图像尺寸压缩为176×144后作为网络输入,将网络的第一个步长设为1,来减少图像下采样的次数,使得图像在经过更深的网络层时能够保留更多特征。
3.根据权利要求2所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述对整体网络结构进行了修改,具体网络参数如表1所示:
表1网络参数表
。
4.根据权利要求1所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,替换所述上采样层为解码层,所述解码层依次包括反卷积操作和注意力感知模块。
5.一种基于YOLOv3的乘客检测模型的模型训练方法,其特征在于,该方法包括,采用图像集对权利要求1-4任一项所述的一种基于YOLOv3的乘客检测模型的改进方法得到的模型进行训练。
6.根据权利要求5所述的一种基于YOLOv3的乘客检测模型的模型训练方法,其特征在于,在整个模型的训练阶段采用focal loss作为目标判断的损失函数,采用GIOU作为目标框回归的损失函数,
focal loss公式为:
其中α为平衡因子,γ为调节因子,y为标注标签,y′为预测概率;
GIOU的公式为:U=Apred+Agt-I
其中I和U分别为预测框Bpred与标签Bgt的交集和并集,Apred为Bpred的面积,Agt为Bgt的面积,A为包含Bpred和Bgt的最小边界框的面积;
总的损失函数为:其中/>与β为两个损失函数的权重系数。
7.根据权利要求6所述的一种基于YOLOv3的乘客检测模型的模型训练方法,其特征在于,所述训练采用的图像集为通过安装在车门对面的摄像头获得,即获取乘客上车时的正视图像作为检测算法训练集的原始输入,训练集标签的制作原则是,标出乘客在图像中显示出来的上半身区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010283083.5A CN113536824B (zh) | 2020-04-13 | 2020-04-13 | 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010283083.5A CN113536824B (zh) | 2020-04-13 | 2020-04-13 | 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113536824A CN113536824A (zh) | 2021-10-22 |
CN113536824B true CN113536824B (zh) | 2024-01-12 |
Family
ID=78087789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010283083.5A Active CN113536824B (zh) | 2020-04-13 | 2020-04-13 | 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113536824B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN109344731A (zh) * | 2018-09-10 | 2019-02-15 | 电子科技大学 | 基于神经网络的轻量级的人脸识别方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及*** |
WO2019153175A1 (zh) * | 2018-02-08 | 2019-08-15 | 国民技术股份有限公司 | 基于机器学习的遮挡人脸识别***、方法及存储介质 |
AU2019101133A4 (en) * | 2019-09-30 | 2019-10-31 | Bo, Yaxin MISS | Fast vehicle detection using augmented dataset based on RetinaNet |
CN110619309A (zh) * | 2019-09-19 | 2019-12-27 | 天津天地基业科技有限公司 | 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法 |
CN110826537A (zh) * | 2019-12-05 | 2020-02-21 | 广州市久邦数码科技有限公司 | 一种基于yolo的人脸检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11734545B2 (en) * | 2017-11-14 | 2023-08-22 | Google Llc | Highly efficient convolutional neural networks |
-
2020
- 2020-04-13 CN CN202010283083.5A patent/CN113536824B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
WO2019153175A1 (zh) * | 2018-02-08 | 2019-08-15 | 国民技术股份有限公司 | 基于机器学习的遮挡人脸识别***、方法及存储介质 |
CN109344731A (zh) * | 2018-09-10 | 2019-02-15 | 电子科技大学 | 基于神经网络的轻量级的人脸识别方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及*** |
CN110619309A (zh) * | 2019-09-19 | 2019-12-27 | 天津天地基业科技有限公司 | 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法 |
AU2019101133A4 (en) * | 2019-09-30 | 2019-10-31 | Bo, Yaxin MISS | Fast vehicle detection using augmented dataset based on RetinaNet |
CN110826537A (zh) * | 2019-12-05 | 2020-02-21 | 广州市久邦数码科技有限公司 | 一种基于yolo的人脸检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113536824A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598030B (zh) | 一种航拍图像中车辆检测和分割的方法及*** | |
CN109740465B (zh) | 一种基于实例分割神经网络框架的车道线检测算法 | |
CN109670446B (zh) | 基于线性动态***和深度网络的异常行为检测方法 | |
CN107316007B (zh) | 一种基于深度学习的监控图像多类物体检测与识别方法 | |
CN109101888B (zh) | 一种游客人流量监控预警方法 | |
CN109886161B (zh) | 一种基于可能性聚类和卷积神经网络的道路交通标识识别方法 | |
CN110188807A (zh) | 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法 | |
CN106878674A (zh) | 一种基于监控视频的停车检测方法及装置 | |
CN107622258A (zh) | 一种结合静态底层特征和运动信息的快速行人检测方法 | |
CN111695514B (zh) | 一种基于深度学习的雾天下车辆检测方法 | |
CN109815867A (zh) | 一种人群密度估计和人流量统计方法 | |
CN104320617B (zh) | 一种基于深度学习的全天候视频监控方法 | |
CN103824081A (zh) | 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法 | |
CN112861635A (zh) | 一种基于深度学习的火灾及烟雾实时检测方法 | |
CN113095277B (zh) | 一种基于目标空间分布特征的无人机航拍车辆检测方法 | |
CN105678218A (zh) | 一种移动物体分类的方法 | |
CN112668560B (zh) | 一种人流密集区域行人检测方法及*** | |
CN111209858A (zh) | 一种基于深度卷积神经网络的实时车牌检测方法 | |
CN111540203B (zh) | 基于Faster-RCNN调节绿灯通行时间的方法 | |
CN112084928A (zh) | 基于视觉注意力机制和ConvLSTM网络的道路交通事故检测方法 | |
CN114821665A (zh) | 一种基于卷积神经网络的城市人流小目标检测方法 | |
CN113205107A (zh) | 一种基于改进高效率网络的车型识别方法 | |
CN114772208B (zh) | 一种基于图像分割的非接触式皮带撕裂检测***及方法 | |
CN114743126A (zh) | 一种基于图注意力机制网络的车道线标志分割方法 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |