CN117218613B - 一种车辆抓拍识别***及方法 - Google Patents
一种车辆抓拍识别***及方法 Download PDFInfo
- Publication number
- CN117218613B CN117218613B CN202311484690.8A CN202311484690A CN117218613B CN 117218613 B CN117218613 B CN 117218613B CN 202311484690 A CN202311484690 A CN 202311484690A CN 117218613 B CN117218613 B CN 117218613B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- representing
- network model
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 41
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 230000014759 maintenance of location Effects 0.000 claims description 15
- 230000002068 genetic effect Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 14
- 238000003702 image correction Methods 0.000 claims description 12
- 238000013138 pruning Methods 0.000 claims description 12
- 238000003708 edge detection Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 6
- 238000011426 transformation method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 2
- 239000002131 composite material Substances 0.000 claims description 2
- 238000012804 iterative process Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种车辆抓拍识别***及方法,属于车辆识别技术领域,方法包括:利用哈希表构建车辆数据库;构建车辆生成数据和卷积神经网络模型;利用车辆生成数据对优化后的卷积神经网络模型进行车辆识别训练,对卷积神经网络模型进行超参数优化,直至卷积神经网络模型的车辆识别正确率达到预设准确率;获取目标车辆图片,对目标车辆图片进行预处理;利用训练好的卷积神经网络模型对预处理后的目标车辆图片进行车辆识别,提取车辆型号与车牌号码;将识别结果与车辆数据库进行检索,获取检索结果,在检索结果一致的情况下,输出目标车辆信息;在检索结果不一致的情况下,将目标车辆纳入违法车辆库,发出危险预警。提升车辆识别速度和准确性。
Description
技术领域
本发明属于车辆识别技术领域,具体涉及一种车辆抓拍识别***及方法。
背景技术
车辆抓拍是一种用于捕捉、记录和识别行驶中的车辆的技术和过程,车辆抓拍可以用于多种应用,包括交通监控、停车管理、安全监控、道路收费、车辆识别、数据分析和智能交通***等领域,车辆抓拍技术的应用范围非常广泛,可以提高交通管理的效率、改善道路安全、提供实时交通信息,以及支持犯罪调查等任务,它在智能交通***、城市规划和安全监控中发挥着重要作用。
现有技术中,对摄像头采集的车辆图片进行车辆识别准确率不高,而且往往需要长时间的处理才能得到反馈结果,拖慢了违规车辆的处理时间,危害道路安全。
发明内容
为了解决现有技术存在的对摄像头采集的车辆图片进行车辆识别准确率不高,而且往往需要长时间的处理才能得到反馈结果,拖慢了违规车辆的处理时间,危害道路安全的技术问题,本发明提供一种车辆抓拍识别***及方法。
第一方面
本发明提供了一种车辆抓拍识别方法,包括:
S101:利用哈希表构建车辆数据库,其中,车辆数据库包括车辆型号和相对应的车牌号码;
S102:基于生成对抗网络模型构建车辆生成数据;
S103:利用剪枝技术构建轻量级的卷积神经网络模型;
S104:利用车辆生成数据对优化后的卷积神经网络模型进行车辆识别训练,结合遗传算法对卷积神经网络模型进行超参数优化,直至卷积神经网络模型的车辆识别正确率达到预设准确率;
S105:获取目标车辆图片,对目标车辆图片进行预处理,其中,预处理包括边缘检测和图像矫正;
S106:利用训练好的卷积神经网络模型对预处理后的目标车辆图片进行车辆识别,提取车辆型号与车牌号码;
S107:将识别结果与车辆数据库进行检索,获取检索结果,在检索结果一致的情况下,输出目标车辆信息;
S108:在检索结果不一致的情况下,将目标车辆纳入违法车辆库,发出危险预警。
第二方面
本发明提供了一种车辆抓拍识别***,用于执行第一方面中的车辆抓拍识别方法。
与现有技术相比,本发明至少具有以下有益技术效果:
(1)在本发明中,利用哈希表构建车辆数据库用于识别结果的检索比对,充分利用了哈希表的低复杂度、高并发能力和高效存储能力,避免车辆数据量过大导致的检索效率底下的问题,提升检索效率,降低存储成本,提高了模型的识别速度。
(2)为了提升车辆识别准确性,通过生成对抗网络模型生成用于训练的多类型车辆生成数据,对剪枝后形成的轻量级卷积神经网络模型进行训练,结合遗传算法对难以确定最优值的超参数进行优化,克服训练数据获取难和不准确的问题,提升轻量级卷积神经网络模型的泛化能力和识别准确率,通过剪枝技术减少了卷积神经网络的参数量,进一步提高模型的识别速度。
(3)本发明通过图像矫正对采集到的目标车辆图片进行图像矫正,避免车辆运行状态下采集图片倾斜导致的识别准确性差的问题,进一步提升车辆识别的准确性。最终提升车辆的识别速度和识别准确性,缩短违法车辆的道路运行时间,维护道路安全。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对本发明的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明提供的一种车辆抓拍识别方法的流程示意图。
具体实施方式
实施例1,在一个实施例中,参考说明书附图1,示出了本发明提供的车辆抓拍识别方法的流程示意图。
本发明提供的一种车辆抓拍识别方法,包括:
S101:利用哈希表构建车辆数据库。
其中,车辆数据库包括车辆型号和相对应的车牌号码。
其中,哈希表是一种数据结构,用于有效地存储和检索键-值对数据。它通过将键(通常是唯一的)映射到一个数组索引,从而允许快速的数据访问,哈希表之所以高效,是因为它利用了哈希函数,这个函数可以将任意大小的输入(键)映射到固定大小的输出(索引),从而在常数时间复杂度内(O(1))查找或***数据。
需要说明的是,哈希表构建的车辆数据库允许快速检索车辆信息,仅需提供车牌号码即可直接获取相关数据,无需遍历整个数据库,此外,哈希表通常比传统的数据库管理***更节省内存,因为它不需要复杂的索引结构,这对大规模车辆数据库尤其有用,哈希表还具有灵活性,可根据需要调整大小,而不需要重新设计数据库,其简单的接口使得数据***、更新和删除操作非常容易实现,哈希表还可以轻松实现数据去重,确保不会有相同的车牌号码重复记录。最重要的是,在适当的哈希函数和索引结构下,哈希表能够实现高性能的数据访问,使车辆信息的检索和管理变得高效。
在一种可能的实施方式中,S101具体包括:
S1011:将车牌号码作为哈希键的唯一标识符;
S1012:建立哈希函数,将哈希键映射至哈希表的索引,哈希函数具体为:
;
其中,hash()表示哈希函数,key表示哈希键,a和b表示调整常数,M表示哈希表的大小,符号“%”表示取模运算;
S1013:将车牌号码作为键,将车辆型号作为值***至哈希表中,得到车辆数据库。
S102:基于生成对抗网络模型构建车辆生成数据。
其中,生成对抗网络是一种深度学习模型,包括生成器和判别器,生成器负责生成伪造的数据,而判别器负责区分伪造数据和真实数据,它们在训练过程中相互对抗,使生成器逐渐生成更逼真的数据,同时判别器变得更擅长识别伪造数据,最终达到生成高质量、逼真的数据的目标。通过生成对抗网络生成的数据可以用于训练车辆识别模型,增加了训练数据的多样性和数量,提高了模型的性能和泛化能力,这些生成的虚拟车辆数据可以填补现有数据集的不足,包括不同车型、光照条件和背景等变化,从而使模型更适应各种实际场景,提高了车辆识别的准确率和鲁棒性。
在一种可能的实施方式中,S102具体包括:
S1021:将车辆型号和车牌号码作为生成任务,构建生成对抗网络模型,生成对抗网络模型包括生成器和判别器;
S1022:利用生成对抗网络模型生成待测合成数据;
S1023:采集车辆历史数据,通过判别器计算待测合成数据与车辆历史数据的一致概率;
S1024:固定判别器的参数,对生成器进行训练,建立以一致概率最小为目标的目标函数:
;
其中,表示生成器的目标函数,/>分别表示生成器参数和判别器参数,E表示数学期望值,F表示生成器,G表示判别器,pz表示历史数据分布,ph表示合成数据分布;
S1025:固定生成器的参数,对判别器进行训练,建立以一致概率最大为目标的目标函数:
;
其中,表示判别器的目标函数;
S1026:利用训练后得到的生成对抗网络模型生成车辆生成数据。
S103:利用剪枝技术构建轻量级的卷积神经网络模型。
其中,剪枝技术是一种用于减少神经网络中不必要连接和参数的技术,它通过自动或手动识别网络中贡献较小的连接,并将其删除,从而减小模型的大小和计算量,而不损害其性能。这有助于创建更加轻量级的模型,减少内存和计算资源的需求。卷积神经网络模型是一种深度学习模型,特别适用于处理图像和空间数据,它由多个卷积层和池化层组成,用于自动提取图像中的特征,并在全连接层中进行分类或回归任务,广泛用于图像分类、物体检测和图像生成等任务。
需要说明的是,通过利用剪枝技术构建轻量级的卷积神经网络模型,可以减小模型的体积,降低模型存储和内存要求,使其更适用于嵌入式***或资源受限的环境,避免了利用神经网络进行车辆识别导致的数据处理量大处理速度慢的问题,同时提升车辆检测的速度和准确性。并缩短模型的推理时间,提高实时性,适用于需要快速响应的应用。降低模型的计算成本,减少了训练和推理的能耗,有助于节省计算资源,保持或提高模型的性能,通过智能地剪枝,可以删除不必要的连接和参数,同时保持模型的准确性和泛化能力。
在一种可能的实施方式中,S103具体包括:
S1031:为卷积神经网络模型的每个卷积核设置一个可调保留参数,并将可调保留参数转换成对应的卷积核的前向运算比值:
;
其中,表示可调保留参数,b表示边界,ij表示第i层卷积层的第j个卷积核,表示前向运算比值。
S1032:增加可调保留参数的约束条件,收缩可调保留参数,确定前向运算比值为零的卷积核。
在一种可能的实施方式中,S1032具体包括:
S1032A:将卷积核的输出通过前向运算比值进行转换:
;
其中,表示卷积核原始输出,/>表示卷积核真实输出;
S1032B:增加可调保留参数的约束条件,对可调保留参数进行收缩,约束条件具体为:
;
其中,表示约束条件,e和E分别表明当前迭代次数和第一预设迭代次数。
具体地,通过将卷积核的原始输出和真实输出之间的前向运算比值进行转换,即通过计算卷积核的输出比例来进行特征映射的处理,通过引入约束条件并对可调保留参数进行收缩,这些约束条件是根据迭代次数e和预设迭代次数E来动态调整的,这有助于限制模型的复杂性,同时提高了模型的稳定性和泛化性能。通过前向运算比值的转换和约束条件的引入,可以实现模型参数的精细控制和优化,使得模型更加轻量级,适用于资源受限的环境,同时保持了良好的性能和鲁棒性,这有助于构建高效的深度学习模型,提高了计算效率和模型的可部署性。
需要说明的是,本领域技术人员可以根据实际需要设置第一预设迭代次数的大小,本发明在此不做限定。
S1033:移除收缩后的前向运算比值为零的卷积核,得到轻量级的卷积神经网络模型。
S104:利用车辆生成数据对优化后的卷积神经网络模型进行车辆识别训练,结合遗传算法对卷积神经网络模型进行超参数优化,直至卷积神经网络模型的车辆识别正确率达到预设准确率。
其中,车辆识别训练是指使用大量的车辆数据来训练卷积神经网络模型,使其能够自动识别和分类输入的车辆图像,用于识别车辆型号或车牌号码任务。遗传算法是一种优化算法,模拟了生物进化的过程,通过对候选解进行选择、交叉和变异等操作,逐代演化,以找到最优解或接近最优解的解决方案,在这里,遗传算法用于搜索和优化卷积神经网络模型的超参数,例如学习率、层数、卷积核大小等,以达到最佳的车辆识别性能。超参数优化是指在训练机器学习模型时,调整模型的超参数,这些参数通常不能通过模型的训练过程学习得到,而需要手动设置,超参数的选择对模型性能和训练效率有重要影响,通过遗传算法等方法,可以自动地搜索并确定最佳超参数配置,以提高模型的性能。
需要说明的是,通过将车辆生成数据用于训练,并结合遗传算法来优化卷积神经网络模型的超参数,可以允许模型在更广泛的数据分布上进行训练,从而提高了模型的鲁棒性和泛化能力,遗传算法可以自动搜索最佳的超参数配置,减少了手动调整的需求,节省了时间和资源,最终,这使得模型能够在更高的准确率下进行车辆识别,提高了***的性能和效率。
在一种可能的实施方式中,S104具体包括:
S1041:将车辆生成数据按预设比例划分为训练集和测试集。
需要说明的是,本领域技术人员可以根据实际需要设置预设比例的大小,本发明在此不做限定。
S1042:利用训练集对卷积神经网络模型进行训练。
S1043:利用测试集验证训练后的卷积神经网络模型的车辆识别正确率。
S1044:在车辆识别正确率低于预设准确率的情况下,结合遗传算法对卷积神经网络模型进行超参数优化,返回S1042。
在一种可能的实施方式中,S1044具体包括:
S1044A:确定以超参数作为生物个体的位置更新公式:
;
其中,表示更新后位置,/>表示当前最优位置,/>均表示随机位置,t表示当前迭代次数,/>表示参数,/>表示线性趋近于0的参数,/>表示随机数,W表示权重,p表示r的最大阈值,/>表示最大迭代次数,/>表示生物个体的适应度值,/>表示迭代过程中的最佳适应度值,/>表示当前迭代过程中的最优适应度值,/>表示当前迭代过程中的最低适应度值,/>表示生物个体的适应度值排在种群前半部分的个体。
S1044B:设置切换频率和搜索模式,重新确定生物个体的更新位置,直至当前迭代次数大于或等于第二预设迭代次数,提取最优个体,其中,搜索模式包括重新搜索和围绕当前最优位置进行搜索:
;
其中,X表示重新确定的更新位置,R和r表示 [0,1]的随机值,分别表示搜索空间上界和搜索空间下界,z表示切换频率。
需要说明的是,本领域技术人员可以根据实际需要设置第二预设迭代次数的大小,本发明在此不做限定。
S1044C:将最优个体对应的值作为超参数的值。
S1045:在车辆识别正确率大于或者等于预设准确率的情况下,完成卷积神经网络模型的训练。
具体地,首先,将生成的车辆数据划分为训练集和测试集,以便训练和验证模型,使用训练集对卷积神经网络模型进行训练,使其能够识别车辆,使用测试集来验证训练后模型的车辆识别正确率,检查是否达到预设准确率,如果车辆识别准确率低于预设准确率,那么结合遗传算法对模型的超参数进行优化(S1044A和S1044B),以进一步改善模型性能,一旦达到或超过预设准确率,就完成了卷积神经网络模型的训练过程。允许动态的模型训练和优化过程,通过自动搜索和调整超参数,以确保模型在车辆识别任务上达到预期的高准确率,这有助于构建更精确的车辆识别***,适应不同场景和数据分布,提高了模型的鲁棒性和性能。
S105:获取目标车辆图片,对目标车辆图片进行预处理。
其中,预处理包括边缘检测和图像矫正。
其中,目标车辆图片是指待识别的车辆图像,比如摄像头或传感器捕捉到的车辆照片或视频帧。预处理是指在将图像输入识别***之前对其进行一系列的处理步骤,以提取有用的信息、减少噪声和改善图像质量。边缘检测是预处理的一部分,它旨在识别图像中的物体边界,即车辆的轮廓,通过检测图像中的边缘,可以更容易地分离车辆与背景,提供重要的特征用于识别。图像矫正是另一个预处理步骤,它用于校正图像中的畸变,例如透视变形或倾斜,以确保车辆图像处于标准的视角和比例,使识别算法更加准确。
需要说明的是,图像的预处理有助于提高车辆识别***的性能和准确性,边缘检测可以突出车辆的形状,简化特征提取过程,而图像矫正可以确保输入图像的一致性,减少了识别误差,整个预处理流程有助于改善输入数据的质量,使车辆识别算法更加鲁棒,从而提高了***的可靠性。
在一种可能的实施方式中,S105具体包括:
S1051:对目标车辆图片进行边缘检测,得到目标车辆图片的边缘像素点集合;
S1052:在边缘像素点集合的范围内,通过霍夫变换法获取目标车辆图片的倾斜角度;
S1053:通过仿射变换法对边缘像素点集合中的各个像素点进行矫正:
;
其中,表示矫正后的新像素点坐标,/>表示边缘像素点集合中的像素点坐标,θ表示倾斜角度。
具体地,首先,对目标车辆图片进行边缘检测,以获得图像中的边缘像素点集合,这些像素点代表车辆的轮廓,在边缘像素点集合的范围内,通过霍夫变换法估计目标车辆图片的倾斜角度,即图像中车辆的倾斜程度,接下来,使用仿射变换法对边缘像素点集合中的每个像素点进行矫正,根据估计的倾斜角度来调整像素点的位置,从而将车辆图像矫正为标准的视角和比例。通过边缘检测和倾斜角度估计,可以提取并纠正车辆图像中的畸变,确保输入到识别算法的图像质量更高,图像矫正有助于消除视角偏移和减少形状畸变,从而提高了车辆识别的准确性和鲁棒性,使***更适应不同拍摄条件和角度的车辆图像,这有助于提高车辆识别***的性能和可靠性。
S106:利用训练好的卷积神经网络模型对预处理后的目标车辆图片进行车辆识别,提取车辆型号与车牌号码。
具体地,首先,使用已经训练好的卷积神经网络(CNN)模型,将预处理后的目标车辆图片输入到模型中,模型通过多个层次的卷积和池化操作,自动提取图像中的特征,这些特征包括车辆的形状、纹理和结构信息,随后,通过全连接层和分类器,模型对这些特征进行分类,识别车辆的型号和车牌号码。具体而言,模型通过比较提取的特征与之前训练数据中的特征模式,来决定车辆型号和车牌号码的类别标签,从而实现车辆识别任,这个过程充分利用了卷积神经网络的深度学习能力,能够高效而准确地从图像中提取关键信息,实现车辆型号和车牌号码的自动识别。
S107:将识别结果与车辆数据库进行检索,获取检索结果,在检索结果一致的情况下,输出目标车辆信息。
其中,检索结果指的是将车辆识别得到的信息与车辆数据库进行比对后获得的匹配结果。当检索结果一致时,意味着从车辆数据库中找到了与识别结果匹配的信息,即目标车辆的型号和车牌号码与数据库中的记录相符,这时可以输出目标车辆的相关信息,如车型和车牌号码,一致的检索结果表示识别***成功地找到了目标车辆在数据库中的匹配项,进而可以用来快速的确定和记录违法车辆的信息。
S108:在检索结果不一致的情况下,将目标车辆纳入违法车辆库,发出危险预警。
需要说明的是,在检索结果不一致的情况下,说明该车辆存在车辆套牌、车牌掩盖和违法改装的问题,此时将目标车辆直接纳入违法车辆库,提醒工作人员及时介入,避免违法行为导致的道路安全问题。
在一种可能的实施方式中,车辆抓拍识别方法还包括:
S109:间隔预设时长对卷积神经网络模型进行重新训练。
在实际使用过程中,车辆抓拍领域数据可能会随着时间发生变化,新的车型、车牌号码格式或拍摄条件可能会出现,通过定期重新训练模型,可以使模型适应这些变化,确保其识别性能持续准确,定期对模型进行重新训练有助于保持识别***的性能,并确保其能够适应变化和挑战,从而提高***的持续有效性,这种做法对于保持车辆抓拍识别***的准确性和可靠性至关重要。
需要说明的是,本领域技术人员可以 根据实际需要设置预设时长的大小,本发明在此不做限定。
与现有技术相比,本发明至少具有以下有益技术效果:
在本发明中,利用哈希表构建车辆数据库用于识别结果的检索比对,充分利用了哈希表的低复杂度、高并发能力和高效存储能力,避免车辆数据量过大导致的检索效率底下的问题,提升检索效率,降低存储成本,提高了模型的识别速度。其次,为了提升车辆识别准确性,通过生成对抗网络模型生成用于训练的多类型车辆生成数据,对剪枝后形成的轻量级卷积神经网络模型进行训练,结合遗传算法对难以确定最优值的超参数进行优化,克服训练数据获取难和不准确的问题,提升轻量级卷积神经网络模型的泛化能力和识别准确率,通过剪枝技术减少了卷积神经网络的参数量,进一步提高模型的识别速度。另外,本发明通过图像矫正对采集到的目标车辆图片进行图像矫正,避免车辆运行状态下采集图片倾斜导致的识别准确性差的问题,进一步提升车辆识别的准确性。最终提升车辆的识别速度和识别准确性,缩短违法车辆的道路运行时间,维护道路安全。
实施例2,在一个实施例中,本发明提供的一种车辆抓拍识别***,用于执行实施例1中的车辆抓拍识别方法。
本发明提供的一种车辆抓拍识别***可以实现上述实施例1中的车辆抓拍识别方法的步骤和效果,为避免重复,本发明不再赘述。
与现有技术相比,本发明至少具有以下有益技术效果:
在本发明中,利用哈希表构建车辆数据库用于识别结果的检索比对,充分利用了哈希表的低复杂度、高并发能力和高效存储能力,避免车辆数据量过大导致的检索效率底下的问题,提升检索效率,降低存储成本,提高了模型的识别速度。其次,为了提升车辆识别准确性,通过生成对抗网络模型生成用于训练的多类型车辆生成数据,对剪枝后形成的轻量级卷积神经网络模型进行训练,结合遗传算法对难以确定最优值的超参数进行优化,克服训练数据获取难和不准确的问题,提升轻量级卷积神经网络模型的泛化能力和识别准确率,通过剪枝技术减少了卷积神经网络的参数量,进一步提高模型的识别速度。另外,本发明通过图像矫正对采集到的目标车辆图片进行图像矫正,避免车辆运行状态下采集图片倾斜导致的识别准确性差的问题,进一步提升车辆识别的准确性。最终提升车辆的识别速度和识别准确性,缩短违法车辆的道路运行时间,维护道路安全。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (6)
1.一种车辆抓拍识别方法,其特征在于,包括:
S101:利用哈希表构建车辆数据库,其中,所述车辆数据库包括车辆型号和相对应的车牌号码;
S102:基于生成对抗网络模型构建车辆生成数据;
S103:利用剪枝技术构建轻量级的卷积神经网络模型;
S104:利用所述车辆生成数据对优化后的卷积神经网络模型进行车辆识别训练,结合遗传算法对所述卷积神经网络模型进行超参数优化,直至所述卷积神经网络模型的车辆识别正确率达到预设准确率;
S105:获取目标车辆图片,对所述目标车辆图片进行预处理,其中,所述预处理包括边缘检测和图像矫正;
S106:利用训练好的所述卷积神经网络模型对预处理后的目标车辆图片进行车辆识别,提取车辆型号与车牌号码;
S107:将识别结果与所述车辆数据库进行检索,获取检索结果,在所述检索结果一致的情况下,输出目标车辆信息;
S108:在所述检索结果不一致的情况下,将所述目标车辆纳入违法车辆库,发出危险预警;
所述S103具体包括:
S1031:为所述卷积神经网络模型的每个卷积核设置一个可调保留参数,并将所述可调保留参数转换成对应的所述卷积核的前向运算比值:
;
其中,表示所述可调保留参数,b表示边界,ij表示第i层卷积层的第j个卷积核,表示所述前向运算比值;
S1032:增加所述可调保留参数的约束条件,收缩所述可调保留参数,确定所述前向运算比值为零的卷积核;
S1033:移除收缩后的前向运算比值为零的卷积核,得到所述轻量级的卷积神经网络模型;
所述S1032具体包括:
S1032A:将所述卷积核的输出通过所述前向运算比值进行转换:
;
其中,表示卷积核原始输出,/>表示卷积核真实输出;
S1032B:增加所述可调保留参数的约束条件,对所述可调保留参数进行收缩,所述约束条件具体为:
;
其中,表示所述约束条件,e和E分别表明当前迭代次数和第一预设迭代次数;
所述S104具体包括:
S1041:将所述车辆生成数据按预设比例划分为训练集和测试集;
S1042:利用所述训练集对所述卷积神经网络模型进行训练;
S1043:利用所述测试集验证训练后的卷积神经网络模型的车辆识别正确率;
S1044:在所述车辆识别正确率低于所述预设准确率的情况下,结合所述遗传算法对所述卷积神经网络模型进行超参数优化,返回S1042;
S1045:在所述车辆识别正确率大于或者等于所述预设准确率的情况下,完成所述卷积神经网络模型的训练;
所述S1044具体包括:
S1044A:确定以所述超参数作为生物个体的位置更新公式:
;
其中,表示更新后位置,/>表示当前最优位置,S(g)表示所述生物个体的适应度值;/>均表示随机位置,t表示当前迭代次数,/>表示参数,/>表示线性趋近于0的参数,/>表示随机数,W表示权重,p表示r的最大阈值,/>表示最大迭代次数,/>表示迭代过程中的最佳适应度值,/>表示当前迭代过程中的最优适应度值,/>表示当前迭代过程中的最低适应度值,/>表示所述生物个体的适应度值排在种群前半部分的个体;
S1044B:设置切换频率和搜索模式,重新确定所述生物个体的更新位置,直至当前迭代次数大于或等于第二预设迭代次数,提取最优个体,其中,所述搜索模式包括重新搜索和围绕所述当前最优位置进行搜索;
S1044C:将所述最优个体对应的值作为所述超参数的值。
2.根据权利要求1所述的车辆抓拍识别方法,其特征在于,所述S101具体包括:
S1011:将所述车牌号码作为哈希键的唯一标识符;
S1012:建立哈希函数,将所述哈希键映射至哈希表的索引,所述哈希函数具体为:
;
其中,hash()表示所述哈希函数,key表示所述哈希键,a和b表示调整常数,M表示所述哈希表的大小,符号“%”表示取模运算;
S1013:将所述车牌号码作为键,将所述车辆型号作为值***至所述哈希表中,得到所述车辆数据库。
3.根据权利要求1所述的车辆抓拍识别方法,其特征在于,所述S102具体包括:
S1021:将车辆型号和车牌号码作为生成任务,构建所述生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器;
S1022:利用所述生成对抗网络模型生成待测合成数据;
S1023:采集车辆历史数据,通过所述判别器计算所述待测合成数据与所述车辆历史数据的一致概率;
S1024:固定所述判别器的参数,对所述生成器进行训练,建立以所述一致概率最小为目标的目标函数:
;
其中,表示所述生成器的目标函数,/>分别表示生成器参数和所述判别器参数,E表示数学期望值,F表示所述生成器,G表示所述判别器,pz表示历史数据分布,ph表示合成数据分布;
S1025:固定所述生成器的参数,对所述判别器进行训练,建立以所述一致概率最大为目标的目标函数:
;
其中,表示所述判别器的目标函数;
S1026:利用训练后得到的生成对抗网络模型生成所述车辆生成数据。
4.根据权利要求1所述的车辆抓拍识别方法,其特征在于,所述S105具体包括:
S1051:对所述目标车辆图片进行边缘检测,得到所述目标车辆图片的边缘像素点集合;
S1052:在所述边缘像素点集合的范围内,通过霍夫变换法获取所述目标车辆图片的倾斜角度;
S1053:通过仿射变换法对所述边缘像素点集合中的各个像素点进行矫正:
;
其中,表示矫正后的新像素点坐标,/>表示所述边缘像素点集合中的像素点坐标,θ表示所述倾斜角度。
5.根据权利要求1所述的车辆抓拍识别方法,其特征在于,所述车辆抓拍识别方法还包括:
S109:间隔预设时长对所述卷积神经网络模型进行重新训练。
6.一种车辆抓拍识别***,其特征在于,用于执行权利要求1至5任一项所述的车辆抓拍识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311484690.8A CN117218613B (zh) | 2023-11-09 | 2023-11-09 | 一种车辆抓拍识别***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311484690.8A CN117218613B (zh) | 2023-11-09 | 2023-11-09 | 一种车辆抓拍识别***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117218613A CN117218613A (zh) | 2023-12-12 |
CN117218613B true CN117218613B (zh) | 2024-03-19 |
Family
ID=89037522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311484690.8A Active CN117218613B (zh) | 2023-11-09 | 2023-11-09 | 一种车辆抓拍识别***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117218613B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246876A (zh) * | 2013-05-10 | 2013-08-14 | 苏州祥益网络科技有限公司 | 基于图像特征比对的车辆套牌识别方法 |
CN105279475A (zh) * | 2014-07-15 | 2016-01-27 | 贺江涛 | 一种基于车辆身份识别的***识别的方法与装置 |
CN105321350A (zh) * | 2014-08-05 | 2016-02-10 | 北京大学 | ***检测方法及装置 |
CN105448103A (zh) * | 2015-12-24 | 2016-03-30 | 北京旷视科技有限公司 | 车辆套牌检测方法与*** |
CN111160100A (zh) * | 2019-11-29 | 2020-05-15 | 南京航空航天大学 | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 |
CN112580536A (zh) * | 2020-12-23 | 2021-03-30 | 深圳市捷顺科技实业股份有限公司 | 一种高位视频车辆及车牌的检测方法及装置 |
CN114911965A (zh) * | 2022-04-19 | 2022-08-16 | 超级视线科技有限公司 | 车辆信息查询方法及*** |
CN115320617A (zh) * | 2022-08-11 | 2022-11-11 | 湖南汽车工程职业学院 | 一种基于人工智能的自动驾驶车速控制*** |
CN116403396A (zh) * | 2022-12-19 | 2023-07-07 | 山西交通控股有限公司 | 一种基于大数据和视频技术的隧道车辆检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120148092A1 (en) * | 2010-12-09 | 2012-06-14 | Gorilla Technology Inc. | Automatic traffic violation detection system and method of the same |
CN112132113A (zh) * | 2020-10-20 | 2020-12-25 | 北京百度网讯科技有限公司 | 车辆再识别的方法、装置、训练方法以及电子设备 |
US11417125B2 (en) * | 2020-11-30 | 2022-08-16 | Sony Group Corporation | Recognition of license plate numbers from Bayer-domain image data |
-
2023
- 2023-11-09 CN CN202311484690.8A patent/CN117218613B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246876A (zh) * | 2013-05-10 | 2013-08-14 | 苏州祥益网络科技有限公司 | 基于图像特征比对的车辆套牌识别方法 |
CN105279475A (zh) * | 2014-07-15 | 2016-01-27 | 贺江涛 | 一种基于车辆身份识别的***识别的方法与装置 |
CN105321350A (zh) * | 2014-08-05 | 2016-02-10 | 北京大学 | ***检测方法及装置 |
CN105448103A (zh) * | 2015-12-24 | 2016-03-30 | 北京旷视科技有限公司 | 车辆套牌检测方法与*** |
CN111160100A (zh) * | 2019-11-29 | 2020-05-15 | 南京航空航天大学 | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 |
CN112580536A (zh) * | 2020-12-23 | 2021-03-30 | 深圳市捷顺科技实业股份有限公司 | 一种高位视频车辆及车牌的检测方法及装置 |
CN114911965A (zh) * | 2022-04-19 | 2022-08-16 | 超级视线科技有限公司 | 车辆信息查询方法及*** |
CN115320617A (zh) * | 2022-08-11 | 2022-11-11 | 湖南汽车工程职业学院 | 一种基于人工智能的自动驾驶车速控制*** |
CN116403396A (zh) * | 2022-12-19 | 2023-07-07 | 山西交通控股有限公司 | 一种基于大数据和视频技术的隧道车辆检测方法 |
Non-Patent Citations (1)
Title |
---|
基于神经网络的车牌识别技术的研究及应用;武丽娟;《中国优秀硕士学位论文全文数据库 (信息科技辑)》(第7期);第I138-600页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117218613A (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460984B (zh) | 一种基于关键点与梯度均衡损失的全局车道线检测方法 | |
Gavrila | A bayesian, exemplar-based approach to hierarchical shape matching | |
US7995055B1 (en) | Classifying objects in a scene | |
CN110263659B (zh) | 一种基于三元组损失和轻量级网络的指静脉识别方法及*** | |
Wang et al. | Object detection using clustering algorithm adaptive searching regions in aerial images | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN111666434B (zh) | 基于深度全局特征的街景图片检索方法 | |
CN109766873B (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN109034035A (zh) | 基于显著性检测和特征融合的行人重识别方法 | |
CN110543581A (zh) | 基于非局部图卷积网络的多视图三维模型检索方法 | |
CN111860587B (zh) | 一种用于图片小目标的检测方法 | |
CN106780639B (zh) | 基于显著性特征稀疏嵌入和极限学习机的哈希编码方法 | |
CN111428558A (zh) | 一种基于改进YOLOv3方法的车辆检测方法 | |
CN106682681A (zh) | 一种基于相关反馈的识别算法自动改进方法 | |
CN113129335B (zh) | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 | |
CN103353941B (zh) | 基于视角分类的自然标志物注册方法 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN112257799A (zh) | 一种生活垃圾目标检测的方法、***及装置 | |
CN112766170B (zh) | 基于簇类无人机图像的自适应分割检测方法及装置 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及*** | |
CN115311502A (zh) | 基于多尺度双流架构的遥感图像小样本场景分类方法 | |
CN112528845A (zh) | 一种基于深度学习的物理电路图识别方法及其应用 | |
CN111709317A (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
CN117495891B (zh) | 点云边缘检测方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |