CN113449574A - 目标上内容的识别方法及装置、存储介质、计算机设备 - Google Patents
目标上内容的识别方法及装置、存储介质、计算机设备 Download PDFInfo
- Publication number
- CN113449574A CN113449574A CN202010628773.XA CN202010628773A CN113449574A CN 113449574 A CN113449574 A CN 113449574A CN 202010628773 A CN202010628773 A CN 202010628773A CN 113449574 A CN113449574 A CN 113449574A
- Authority
- CN
- China
- Prior art keywords
- target
- content
- identified
- neural network
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003062 neural network model Methods 0.000 claims description 63
- 238000012549 training Methods 0.000 claims description 49
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000005516 engineering process Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012015 optical character recognition Methods 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 102100032202 Cornulin Human genes 0.000 description 1
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种目标上内容的识别方法及装置、存储介质、计算机设备,其中,所述方法包括:读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。通过该方法,能够有效提高对目标上的内容进行识别时,识别结果的准确性。
Description
技术领域
本发明涉及图像识别技术领域,具体地涉及一种目标上内容的识别方法及装置、存储介质、计算机设备。
背景技术
随着智能识别技术的发展,常通过大数据训练以及拍摄监控技术对生活中的各种场景进行目标识别,以实现监测、目标控制的效果。在一个目标识别的实例中,可在月台、停车场、物流园区等地点进行车辆检测,当前对于车辆的检测多对车辆通过监控相机进行拍照或录制视频,并从获取的照片或视频中识别车型、车辆颜色等多个特征来进行车辆识别。
然而,现有技术中进行目标识别的监控相机,基本都是以整个画面作为曝光目标,或者整个画面的中固定区域,例如中心区域作为曝光目标,这种策略在实际作业中遇到的大光比情况下,会出现整个画面曝光合理,但是对目标所在的区域容易出现过曝或者欠曝的情况。导致内容识别算法无法准确识别位于目标上的内容。
发明内容
本发明解决的技术问题是如何提高目标上内容识别的准确性。
为解决上述技术问题,本发明实施例提供一种目标上内容的识别方法,所述方法包括:读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
可选的,所述从所述目标视频流中检测待识别目标,包括:将所述目标视频流输入训练好的第一神经网络模型中,利用所述第一神经网络模型从所述目标视频流中检测所述待识别目标。
可选的,所述第一神经网络模型的生成步骤包括:获取样本目标数据集;将所述样本目标数据集输入初始神经网络模型中进行模型训练,得到所述第一神经网络模型。
可选的,所述从包含待识别目标的图像中识别内容所在的目标区域,包括:将包含待识别目标的图像输入第二神经网络模型中,利用所述第二神经网络模型从包含待识别目标的图像中识别内容所在的目标区域。
可选的,所述第二神经网络模型的生成步骤包括:获取样本目标以及所述样本目标上的内容的位置作为训练样本;将所述训练样本输入初始神经网络模型中进行模型训练,得到所述第二神经网络模型。
可选的,所述调整所述目标区域的灰度包括:计算所述目标区域的平均灰度值;获取最优灰度范围;通过逼近算法使所述目标区域的平均灰度值逼近所述最优灰度范围。
可选的,所述获取最优灰度范围,包括:获取包含内容的样本区域;将所述样本区域设为不同灰度值,并对不同灰度值的样本区域进行内容识别;将识别准确率最高的灰度范围作为所述最优灰度范围。
可选的,所述得到识别信息之后,还包括:获取识别信息的准确率,并根据所述准确率调整所述最优灰度范围。
可选的,所述对所述目标区域进行内容识别包括:利用光学字符识别技术对所述目标区域进行内容识别。
可选的,所述待识别目标为待识别的车辆,所述目标区域为车牌对应的图像区域,所述识别信息为车牌信息。
本发明实施例还提供一种目标上内容的识别装置,所述装置包括:目标识别模块,用于读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;目标区域获取模块,用于从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;内容识别模块,用于调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
本发明实施例还提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述目标上内容的识别方法的步骤。
本发明实施例还提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述目标上内容的识别方法的步骤。
与现有技术相比,本发明实施例的技术方案具有以下有益效果:
本发明实施例提供一种目标上内容的识别方法,所述方法包括:读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。较之现有技术,本发明方案中,能够从目标视频流中检测包含需识别内容所在的待识别目标的图像,并根据待识别目标的形状、结构、需识别内容对该待识别目标的相对位置等从包含待识别目标的图像中检测到需识别内容所在的目标区域,对目标区域的内容进行识别。在内容识别时,结合对目标区域的灰度调整,提高内容识别结果的准确性。
进一步地,可基于样本目标数据集训练得到第一神经网络模型,用以识别目标视频流中的检测待识别目标,从而得到包含待识别目标的图像。通过大数据训练,有效提高了待识别目标的识别的准确性。
进一步地,可基于与目标区域的位置相关的训练样本训练得到第二神经网络模型,用以识别包含待识别目标的图像中的目标区域以得到目标区域,提高了对目标区域识别判定的准确性。
进一步地,可根据经验或者样本分析统计得到最优灰度范围,用于调整目标区域灰度,以提高对目标区域内容识别的准确率。
进一步地,可在得到识别信息之后,以识别信息的准确率作为反馈,以调整最优灰度范围,从而实时调整最优灰度范围,以适应目标视频流的变化。
进一步地,利用光学字符识别技术对目标区域进行内容识别,也可建立用于内容识别的神经网络模型,以提高识别的准确率,并获取目标区域的背景颜色等特征进行辅助识别。
进一步地,本发明实施例提供的目标上内容的识别方法,其曝光控制策略是以神经网络识别到的待识别目标以及该目标上的需识别内容所在的区域(也即目标区域)的内容作为曝光目标。其曝光目标设定不是以传统监控相机的人眼看起来合适的亮度,而是经过算法判断能取得最高识别准确率的结果作为曝光调整目标。
附图说明
图1为本发明实施例的一种目标上内容的识别方法的流程示意图;
图2为本发明实施例的一种目标上内容的识别方法的部分流程示意图;
图3是本发明实施例的一种目标上内容的识别装置的结构示意图。
具体实施方式
如背景技术所言,现有技术中内容识别算法无法准确识别位于目标上的内容。
为解决该问题,本发明实施例提供了一种目标上内容的识别方法,其特征在于,所述方法包括:读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
通过上述方案,能够有效提高对目标上的内容进行识别时,识别结果的准确性。
为使本发明的上述目的、特征和有益效果能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参见图1,本发明实施例提供一种目标上内容的识别方法,该方法包括以下步骤:
步骤S101,读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;
目标视频流是对某一区域或某一人或物体进行连续拍摄得到的视频流,目标视频流包含若干帧的图像,目标视频流中包含需识别内容所在的待识别目标的图像,需识别的内容在待识别目标上。
在进行目标上的内容识别时,先从存储目标视频流的预设磁盘或者终端读取目标视频流,对该视频流包含的若干帧图像进行图像识别,以检测其中是否包含待识别目标。当在目标视频流中检测到待识别目标,获取包含待识别目标的图像,并对该图像继续执行下述步骤S102至S103的步骤。
可选的,包含待识别目标的图像可以为目标视频流中包含待识别目标的一帧或多帧图像,也可以为从包含待识别目标的一帧或多帧图像中截取到的能够表现待识别目标特征的部分图像。
步骤S102,从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;
在获取包含待识别目标的图像后,从其中识别到包含需识别内容所在区域的图像,也即目标区域。可根据设置的识别逻辑从包含待识别目标的图像中识别目标区域,识别逻辑可以根据待识别目标的形状、结构、目标区域与待识别目标之间的相对位置关系、目标区域的特征(如目标区域包含的形状、目标区域的颜色)等设定。
可选的,当目标视频流中包含多帧同一待识别目标的图像时,可获取同一待识别目标对应的多帧图像作为包含该待识别目标的图像,并分别获取该多帧图像中的目标区域。
步骤S103,调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
在对目标区域的内容进行识别时,可将从目标视频流中获取的目标区域的图像进行灰度调整,以提高对目标区域中内容识别的准确性,从而得到待识别目标上的需识别内容的识别结果,也即识别信息。
可选的,当待识别目标的目标区域为对多帧图像识别得到的多个目标区域时,可对多个目标区域分别进行内容识别得到多个识别结果,根据多个识别结果进行汇总、分析,以得到更为准确的识别信息。
在一个非限定性的应用实例中,目标视频流为对一马路的部分区域进行视频拍摄得到的视频流,待识别目标可以为马路上的广告牌或车辆或店铺等等,则目标区域为广告牌中广告部分、车辆的车牌或店铺的牌匾等对应的图像区域。
需要说明的是,待识别目标可以为任意的人或物体,需识别内容在待识别目标之上,二者的相对位置若可根据一定的识别逻辑确定,即满足本发明的目标上内容的识别方法的保护范围。
通过上述目标上内容的识别方法,能够从目标视频流中检测包含需识别内容的待识别目标的图像,并根据待识别目标的形状、结构、需识别内容对该待识别目标的相对位置等从包含待识别目标的图像中检测到需识别内容所在的目标区域,对目标区域的内容进行识别。在内容识别时,结合对目标区域的灰度调整,提高内容识别结果的准确性。
在一个实施例中,图1中步骤S101所述从所述目标视频流中检测待识别目标,可以包括:将所述目标视频流输入训练好的第一神经网络模型中,利用所述第一神经网络模型从所述目标视频流中检测所述待识别目标。
第一神经网络模型为以待识别目标的图像作为训练样本(该训练样本记作样本目标)进行模型训练得到的、用以获取视频流中包含待识别目标的图像的神经网络模型。
可选的,所述第一神经网络模型的生成步骤包括:获取样本目标数据集;将所述样本目标数据集输入初始神经网络模型中进行模型训练,得到所述第一神经网络模型。
第一神经网络模型的训练样本可以为自建的多个样本目标组成的数据集,也即样本目标数据集。样本目标与待识别目标存在相关联的特征(如样本目标与待识别目标为同类或同一的人或物体),以使得第一神经网络能够根据大数据训练,以得到利用该相关联的特征识别待识别目标的能力。初始神经网络模型可采用常用的神经网络算法实现,例如目标检测模型YOLO等。
上述实施例中,可基于样本目标数据集训练得到第一神经网络模型,用以识别目标视频流中的检测待识别目标,从而得到包含待识别目标的图像。通过大数据训练,有效提高了待识别目标的识别的准确性。
在一个实施例中,图1中步骤S102所述从包含待识别目标的图像中识别内容所在的目标区域,可以包括:将包含待识别目标的图像输入第二神经网络模型中,利用所述第二神经网络模型从包含待识别目标的图像中识别内容所在的目标区域。
第二神经网络模型为以包含待识别目标与目标区域之间的关系、目标区域的特征等信息的图像作为训练样本进行模型训练得到的、用以识别图像中待识别目标上的目标区域的神经网络模型。
可选的,所述第二神经网络模型的生成步骤包括:获取样本目标以及所述样本目标上的内容的位置作为训练样本;将所述训练样本输入初始神经网络模型中进行模型训练,得到所述第二神经网络模型。
样本目标上目标区域的位置作为第二神经网络模型训练时的样本数据,也即训练样本,使得经过大数据训练得到的第二神经网络模型能够根据训练样本训练得到的识别规则,识别输入的包含待识别目标的图像中的目标区域。初始神经网络模型可采用常用的神经网络算法实现,例如目标检测模型YOLO等。
上述实施例中,可基于与目标区域的位置相关的训练样本训练得到第二神经网络模型,用以识别包含待识别目标的图像中的目标区域以得到目标区域,提高了对目标区域识别判定的准确性。
在一个实施例中,请参见图2,图2为一种目标上内容的识别方法的部分流程示意图;图1中步骤S103所述调整所述目标区域的灰度,可以包括图2中的步骤S201至S203,其中:
步骤S201,计算所述目标区域的平均灰度值;
可采用下述公式对目标区域中的每一个像素点进行计算,以得到目标区域的灰度值:
Gray=R×0.299+G×0.587+B×0.114
其中,Gray为各个像素点的灰度值,R为图像的红色(red)通道,G为图像的绿色(Green)通道,B为图像的蓝色(Blue)通道。公式中各通道的系数为根据经验或实验计算得到,可根据目标区域的图像进行调整。
对目标区域内的所有像素点的Gray值求数学平均,得到目标区域的平均灰度值。
步骤S202,获取最优灰度范围;
最优灰度范围可为根据经验或者计算得到的、用于调整目标区域灰度的灰度值,可以为一个值的区间。
步骤S203,通过逼近算法使所述目标区域的平均灰度值逼近所述最优灰度范围。
逼近算法是指通过算法来逼近实际问题的一些场景或精确度,此处为逼近最优灰度范围,逼近算法可以通过PID控制,PID的控制原理是将偏差的比例(Proportion)、积分(Integral)和微分(Differential)通过线性组合构成控制量。
通过逼近算法计算当前目标区域的平均灰度值,逼近目标为前面得到的最优灰度范围。
可选的,所述获取最优灰度范围,可以包括:获取包含内容的样本区域;将所述样本区域设为不同灰度值,并对不同灰度值的样本区域进行内容识别;将识别准确率最高的灰度范围作为所述最优灰度范围。
最优灰度范围可以通过人工标注样本区域,并对其进行统计得出。样本区域可以为收集的包含内容的相关图像的数据集,例如以车辆的车牌的图像作为目标区域,则可获取多个车牌的图像作为样本区域,车牌中的文字则为需识别的内容。可调整样本的灰度值区域,并对调整后的样本区域进行内容识别,根据识别的准确率得到最优灰度范围。
上述实施例中,可根据经验或者样本分析统计得到最优灰度范围,用于调整目标区域灰度,以提高对目标区域内容识别的准确率。
在一个实施例中,请继续参见图1,图1中步骤S103得到识别信息之后,还可包括:获取识别信息的准确率,并根据所述准确率调整所述最优灰度范围。
可选的,以识别信息的准确率作为反馈,以调整最优灰度范围,使得最优灰度范围能够根据目标视频流中图像的光线、分辨率等变化,实时调整最优灰度范围,以适应目标视频流的变化。
可选的,通过开放型网络视频接口论坛(OpenNetwork Video Interface Forum,简称ONVIF)协议控制视频采集设备,做到最大限度的设备兼容。
可选的,可设置反馈的调整周期,每一周期调整一次最优灰度范围,该调整周期可根据需要设置,例如以每0.8秒作为一个调整周期。
本实施例中,可在得到识别信息之后,以识别信息的准确率作为反馈,以调整最优灰度范围,从而实时调整最优灰度范围,以适应目标视频流的变化。
在一个实施例中,所述对所述目标区域进行内容识别包括:利用光学字符识别技术对所述目标区域进行内容识别。
对所述目标区域进行内容识别的方式可以为:采用光学字符识别(OpticalCharacter Recognition,简称OCR)等识别技术,从目标区域中提取其中的字符,并根据字符的形状进行字符识别,得到目标区域的识别信息。
继续上述对车辆的车牌进行内容识别的例子,可对车牌的图像按照OCR等技术进行内容识别,以获取车牌信息(例如,车牌上记录的车牌号码)作为识别信息。
可选的,根据OCR识别技术建立用于内容识别的神经网络模型。例如,以目标识别算法YOLO作为初步ORC识别,具备更好的抗扭曲能力,采用OCR中比较常见的卷积循环神经网络(convolutional recurrent neural network,简称CRNN)实现汉字纠错,弥补汉字数据集样本不足。
可选的,还可以识别目标区域的背景颜色等其他目标区域的特征,并将识别的特征和字符作为内容识别的结果,也即识别信息。
需要说明的是,在对目标区域进行内容识别时,识别的其他特征包括但不限于背景颜色,任何能够对目标区域这一图像进行识别得到的特征都包括于本发明实施例的保护范围。
上述实施例中,利用光学字符识别技术对目标区域进行内容识别,也可建立用于内容识别的神经网络模型,以提高识别的准确率,并获取目标区域的背景颜色等特征进行辅助识别。
本发明实施例提供的目标上内容的识别方法,其曝光控制策略是以神经网络识别到的待识别目标以及该目标上的需识别内容所在的区域(也即目标区域)的内容作为曝光目标。其曝光目标设定不是以传统监控相机的人眼看起来合适的亮度,而是经过算法判断能取得最高识别准确率的结果作为曝光调整目标。
随着智能识别技术的发展,常将智能识别技术应用在月台、停车场、物流园区等地点的车辆检测中,当前对于车辆的检测多对车辆通过监控相机进行拍照或录制视频,并从获取的照片或视频中识别车型、车辆颜色等多个特征来进行车辆识别。
然而,现有监控相机,基本都是以整个画面作为曝光目标,或者整个画面的中固定区域,例如中心区域作为曝光目标,这种策略在月台实际作业中遇到的大光比情况下,会出现整个画面曝光合理,但是车牌区域过曝或者欠曝的情况。导致车牌识别算法无法准确识别。
针对现有技术中存在的车牌识别时无法准确识别的问题,本发明实施例提供的目标上内容的识别方法可用于车牌识别。
此时,所述待识别目标为待识别的车辆,所述目标区域为车牌对应的图像区域,所述识别信息为车牌信息。
也即,本发明实施例提供一种车牌识别方法,所述方法包括:读取目标视频流,从所述目标视频流中检测待识别车辆得到所述待识别车辆的图像;从所述待识别车辆的图像中识别车牌的位置以得到车牌区域;调整所述车牌区域的灰度并对所述车牌区域进行内容识别,得到所述待识别车辆的车牌信息。
此时,待识别目标为车辆,需识别内容为车牌的内容,则目标视频流中可包含待识别车牌的车辆(也即待识别车辆)的图像;可在物流园区、小区、月台、停车场等车辆集中聚集地的出入口设置图像采集设备以采集目标视频流。
目标区域可以为车牌对应的图像区域,简称车牌区域。可依据待识别车辆中车牌相对车身的位置、车辆的大小、形状等等特征,或者车牌在图像中表现的特征识别出待识别车辆的图像中的车牌区域。对车牌区域进行内容识别,得到该车牌区域中包含的车牌信息。
通过上述车牌识别方法,能够从目标视频流中检测需识别车牌的待识别车辆的图像,并根据车辆的形状、结构、车牌对该车辆的相对位置等从待识别车辆的图像中检测到车牌区域,对车牌区域的内容进行识别。在车牌识别时,结合对车牌区域的灰度调整,提高车牌识别结果的准确性。
在一个实施例中,所述从所述目标视频流中检测待识别车辆得到所述待识别车辆的图像,包括:将所述目标视频流输入训练好的第一神经网络模型中,得到待识别车辆的图像。
其中,第一神经网络模型为以车辆的图像作为训练样本进行模型训练得到的、用以获取视频流中包含的待识别车辆的图像的神经网络模型。
可选的,所述第一神经网络模型的生成步骤包括:获取样本车辆数据集;将所述样本车辆数据集输入初始神经网络模型中进行模型训练,得到所述第一神经网络模型。
样本目标可以为包含多个、或多种车辆的图像,将这些图像的集合称为样本目标数据集。其中,当针对的识别场景为月台时,可采集该月台的车辆数据集作为样本目标数据集。
在一个实施例中,所述从所述待识别车辆的图像中识别车牌的位置以得到车牌区域,包括:将所述待识别车辆的图像输入第二神经网络模型中,得到车牌区域。
第二神经网络模型为以包含车辆与车牌之间的关系、车牌特征等信息的图像作为训练样本进行模型训练得到的、用以识别车辆的图像中的车牌区域的神经网络模型。
可选的,所述第二神经网络模型的生成步骤包括:获取样本车辆的车牌位置作为训练样本;将所述训练样本输入初始神经网络模型中进行模型训练,得到所述第二神经网络模型。
当目标区域为车辆的车牌时,样本车辆的车牌位置可针对车牌识别方法的应用场景进行数据收集得到训练样本,如例如,当针对的识别场景为月台时,可采集该月台的车辆数据集、并获取车辆数据即中各车辆的车牌位置作为训练样本。
样本车辆的车牌位置可针对车牌识别方法的应用场景进行数据收集得到训练样本,如例如,当针对的识别场景为月台时,可采集该月台的车辆数据集、并获取车辆数据即中各车辆的车牌位置作为训练样本。
在一个实施例中,所述调整所述车牌区域的灰度包括:计算所述车牌区域的平均灰度值;获取最优灰度范围;通过逼近算法使所述车牌区域的平均灰度值逼近所述最优灰度范围。
在一个实施例中,所述获取最优灰度范围,包括:获取车牌样本;将所述车牌样本设为不同灰度值,并对不同灰度值的车牌样本进行内容识别;将识别准确率最高的灰度范围作为所述最优灰度范围。
在一个实施例中,所述得到所述待识别车辆的车牌信息之后,还包括:获取车牌信息识别的准确率,并根据所述准确率调整所述最优灰度范围。
可选的,所述对所述车牌区域进行内容识别包括:利用光学字符识别技术对所述车牌区域进行内容识别。
在对车辆的车牌进行内容识别时,车牌颜色可用于识别车辆的类型,如货车车牌颜色为黄色,则当提取的目标车辆的车牌颜色为黄色时,则可识别出车辆的类型为货车。
关于车牌识别方法的具体的工作原理、工作方式的更多内容,可以参照上述图1和图2中的对于目标上内容的识别方法的相关描述,这里不再赘述。
请参见图3,本发明还提供一种目标上内容的识别装置,该装置可包括:
目标识别模块301,用于读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;
目标区域获取模块302,用于从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;
内容识别模块303,用于调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
在一个实施例中,请继续参见图3,目标识别模块301,还用于将所述目标视频流输入训练好的第一神经网络模型中,利用所述第一神经网络模型从所述目标视频流中检测所述待识别目标。
在一个实施例中,图3所述的目标上内容的识别装置还可以包括:
样本目标数据集获取模块,用于获取样本目标数据集;
第一模型训练模块,用于将所述样本目标数据集输入初始神经网络模型中进行模型训练,得到所述第一神经网络模型。
在一个实施例中,图3所述的目标区域获取模块302,还可以用于将包含待识别目标的图像输入第二神经网络模型中,利用所述第二神经网络模型从包含待识别目标的图像中识别内容所在的目标区域。
在一个实施例中,图3所述的目标上内容的识别装置还可以包括:
训练样本获取模块,用于获取样本目标以及所述样本目标上的内容的位置作为训练样本;
第二模型训练模块,用于将所述训练样本输入初始神经网络模型中进行模型训练,得到所述第二神经网络模型。
在一个实施例中,图3所述的目标上内容的识别装置中的内容识别模块303,可以包括:
平均灰度值计算单元,用于计算所述目标区域的平均灰度值;
最优灰度范围获取单元,用于获取最优灰度范围;
灰度值逼近单元,用于通过逼近算法使所述目标区域的平均灰度值逼近所述最优灰度范围。
在一个实施例中,所述最优灰度范围获取单元,可以包括:
样本获取子单元,用于获取包含内容的样本区域;
样本识别子单元,用于将所述样本区域设为不同灰度值,并对不同灰度值的样本区域进行内容识别;
最优灰度范围获取子单元,用于将识别准确率最高的灰度范围作为所述最优灰度范围。
在一个实施例中,图3所述的目标上内容的识别装置还可以包括:
调整模块,用于获取识别信息识别的准确率,并根据所述准确率调整所述最优灰度范围。
在一个实施例中,所述内容识别模块303,还用于利用光学字符识别技术对所述目标区域进行内容识别。
可选的,所述目标上内容的识别方法用于车牌识别。
可选的,所述待识别目标为待识别的车辆,所述目标区域为车牌对应的图像区域,所述识别信息为车牌信息。
关于目标上内容的识别装置的工作原理、工作方式的更多内容,可以参照上述图1和图2中的对于目标上内容的识别方法的相关描述,这里不再赘述。
进一步地,本发明实施例还公开一种存储介质,其上存储有计算机程序,计算机程序被处理器运行时执行上述图1和图2所示实施例中目标上内容的识别方法的技术方案。
进一步地,本发明实施例还公开一种计算机设备,包括存储器和处理器,存储器上存储有能够在处理器上运行的计算机程序,处理器运行计算机程序时执行上述图1和图2所示实施例中目标上内容的识别方法的技术方案。该终端可指手机、电脑、相机等终端。对于自带拍摄设备的终端,如相机、手机、电脑等,可以直接获取该终端采集的视频作为目标视频流,并执行目标上内容的识别方法。
具体地,在本发明实施例中,所述处理器可以为中央处理单元(centralprocessing unit,简称CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signal processor,简称DSP)、专用集成电路(application specificintegrated circuit,简称ASIC)、现成可编程门阵列(field programmable gate array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,简称ROM)、可编程只读存储器(programmable ROM,简称PROM)、可擦除可编程只读存储器(erasable PROM,简称EPROM)、电可擦除可编程只读存储器(electricallyEPROM,简称EEPROM)或闪存。易失性存储器可以是随机存取存储器(random accessmemory,简称RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random access memory,简称RAM)可用,例如静态随机存取存储器(staticRAM,简称SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronousDRAM,简称SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,简称DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,简称ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,简称SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,简称DR RAM)。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,表示前后关联对象是一种“或”的关系。
本申请实施例中出现的“多个”是指两个或两个以上。
本申请实施例中出现的第一、第二等描述,仅作示意与区分描述对象之用,没有次序之分,也不表示本申请实施例中对设备个数的特别限定,不能构成对本申请实施例的任何限制。
本申请实施例中出现的“连接”是指直接连接或者间接连接等各种连接方式,以实现设备间的通信,本申请实施例对此不做任何限定。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (13)
1.一种目标上内容的识别方法,其特征在于,所述方法包括:
读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;
从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;
调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
2.根据权利要求1所述的方法,其特征在于,所述从所述目标视频流中检测待识别目标,包括:
将所述目标视频流输入训练好的第一神经网络模型中,利用所述第一神经网络模型从所述目标视频流中检测所述待识别目标。
3.根据权利要求2所述的方法,其特征在于,所述第一神经网络模型的生成步骤包括:
获取样本目标数据集;
将所述样本目标数据集输入初始神经网络模型中进行模型训练,得到所述第一神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述从包含待识别目标的图像中识别内容所在的目标区域,包括:
将包含待识别目标的图像输入第二神经网络模型中,利用所述第二神经网络模型从包含待识别目标的图像中识别内容所在的目标区域。
5.根据权利要求4所述的方法,其特征在于,所述第二神经网络模型的生成步骤包括:
获取样本目标以及所述样本目标上的内容的位置作为训练样本;
将所述训练样本输入初始神经网络模型中进行模型训练,得到所述第二神经网络模型。
6.根据权利要求1所述的方法,其特征在于,所述调整所述目标区域的灰度包括:
计算所述目标区域的平均灰度值;
获取最优灰度范围;
通过逼近算法使所述目标区域的平均灰度值逼近所述最优灰度范围。
7.根据权利要求6所述的方法,其特征在于,所述获取最优灰度范围,包括:
获取包含内容的样本区域;
将所述样本区域设为不同灰度值,并对不同灰度值的样本区域进行内容识别;
将识别准确率最高的灰度范围作为所述最优灰度范围。
8.根据权利要求6所述的方法,其特征在于,所述得到识别信息之后,还包括:
获取识别信息的准确率,并根据所述准确率调整所述最优灰度范围。
9.根据权利要求1所述的方法,其特征在于,所述对所述目标区域进行内容识别包括:
利用光学字符识别技术对所述目标区域进行内容识别。
10.根据权利要求1至9任一所述的方法,其特征在于,所述待识别目标为待识别车辆,所述内容所在的目标区域为车牌对应的图像区域,所述识别信息为车牌信息。
11.一种目标上内容的识别装置,其特征在于,所述装置包括:
目标识别模块,用于读取目标视频流,从所述目标视频流中检测待识别目标,得到包含待识别目标的图像;
目标区域获取模块,用于从包含待识别目标的图像中识别内容所在的目标区域,所述目标区域位于所述待识别目标上;
内容识别模块,用于调整所述目标区域的灰度并对所述目标区域进行内容识别,得到识别信息。
12.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11任一项所述方法的步骤。
13.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至11任一项所述方法的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010223687 | 2020-03-26 | ||
CN2020102236870 | 2020-03-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113449574A true CN113449574A (zh) | 2021-09-28 |
Family
ID=77808359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010628773.XA Pending CN113449574A (zh) | 2020-03-26 | 2020-07-02 | 目标上内容的识别方法及装置、存储介质、计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449574A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115617237A (zh) * | 2022-11-21 | 2023-01-17 | 成都智元汇信息技术股份有限公司 | 局部识别生成广告位信息展示组件方法和广告位展示组件 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509091A (zh) * | 2011-11-29 | 2012-06-20 | 北京航空航天大学 | 一种飞机尾号识别方法 |
CN109344786A (zh) * | 2018-10-11 | 2019-02-15 | 深圳步智造科技有限公司 | 目标识别方法、装置及计算机可读存储介质 |
CN110414451A (zh) * | 2019-07-31 | 2019-11-05 | 深圳市捷顺科技实业股份有限公司 | 一种基于端对端的车牌识别方法、装置、设备及存储介质 |
-
2020
- 2020-07-02 CN CN202010628773.XA patent/CN113449574A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509091A (zh) * | 2011-11-29 | 2012-06-20 | 北京航空航天大学 | 一种飞机尾号识别方法 |
CN109344786A (zh) * | 2018-10-11 | 2019-02-15 | 深圳步智造科技有限公司 | 目标识别方法、装置及计算机可读存储介质 |
CN110414451A (zh) * | 2019-07-31 | 2019-11-05 | 深圳市捷顺科技实业股份有限公司 | 一种基于端对端的车牌识别方法、装置、设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115617237A (zh) * | 2022-11-21 | 2023-01-17 | 成都智元汇信息技术股份有限公司 | 局部识别生成广告位信息展示组件方法和广告位展示组件 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1800259B1 (en) | Image segmentation method and system | |
US8170350B2 (en) | Foreground/background segmentation in digital images | |
CN108197546B (zh) | 人脸识别中光照处理方法、装置、计算机设备及存储介质 | |
EP3170304B1 (en) | Method and apparatus for detecting imaging conditions | |
CN110149482A (zh) | 对焦方法、装置、电子设备和计算机可读存储介质 | |
US11790499B2 (en) | Certificate image extraction method and terminal device | |
US20190297252A1 (en) | Method for implementing animal nose pattern biometric identification system on mobile devices | |
CN106991707B (zh) | 一种基于昼夜成像特征的交通信号灯图像强化方法及装置 | |
CN111179302B (zh) | 一种运动目标检测方法、装置、存储介质及终端设备 | |
CN111932462A (zh) | 图像降质模型的训练方法、装置和电子设备、存储介质 | |
CN113673474B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN112581481B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN113449574A (zh) | 目标上内容的识别方法及装置、存储介质、计算机设备 | |
CN111797694A (zh) | 一种车牌检测方法及装置 | |
CN116546330A (zh) | 曝光调整方法及装置、计算机可读存储介质、终端 | |
CN110688926A (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 | |
CN112785550B (zh) | 图像质量值确定方法、装置、存储介质及电子装置 | |
WO2022193132A1 (zh) | 图像检测方法、装置和电子设备 | |
CN112052859A (zh) | 一种自由场景下的车牌精准定位方法及装置 | |
US11972632B1 (en) | Apparatus and method of digital enhancement of fingerprint ridges | |
CN117152819B (zh) | 一种人脸识别方法和装置 | |
US20240203134A1 (en) | Lane line detection method, vehicle-mounted device and storage medium | |
CN117475421A (zh) | 一种车牌曝光补偿方法、装置与电子设备 | |
CN113591649A (zh) | 一种基于人脸的曝光统计方法 | |
CN118334609A (zh) | 一种道路拥堵指数计算方法、***、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |