CN108334955A - 基于Faster-RCNN的身份证复印件检测方法 - Google Patents
基于Faster-RCNN的身份证复印件检测方法 Download PDFInfo
- Publication number
- CN108334955A CN108334955A CN201810172388.1A CN201810172388A CN108334955A CN 108334955 A CN108334955 A CN 108334955A CN 201810172388 A CN201810172388 A CN 201810172388A CN 108334955 A CN108334955 A CN 108334955A
- Authority
- CN
- China
- Prior art keywords
- indicate
- dst
- src
- image
- copy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Faster‑RCNN的身份证复印件检测方法,包括:选择若干身份证复印件图像,制作Faster‑RCNN模型的数据集,设置Faster‑RCNN模型的参数,对身份证复印件测试图像进行预处理,基于数据集对Faster‑RCNN模型进行训练,输入测试图像,利用训练好的Faster‑RCNN模型进行检测。本发明方法对图像模糊、角度众多、边框不清晰的身份证复印件同样能够取得较好的检测结果,实用性强,检测效果较好,发展前景良好。
Description
技术领域
本发明涉及模式识别技术领域,尤其涉及一种基于Faster-RCNN的身份证复印件检测方法。
背景技术
随着社会实名制的发展,身份证复印件成为居民身份的有效证明。各金融行业的很多业务都要求提供身份证复印件,正确复印身份证是良好办公的前提。经济科学的发展和市场竞争的激烈化使金融行业的业务剧增,每天都不得不检测大量的身份证复印件。传统基于机器学习的身份证复印件检测软件已经不能满足要求,政府企事业单位需要一款能够快速准确地检测身份证复印件的软件,提高办公的效率与准确率。
传统的身份证复印件检测软件都是使用经典机器学习的方法进行检测,准确率较低、泛化能力较差,而人工身份证复印件检测不仅效率低下,且浪费人力资源。
发明内容
针对上述现有技术的不足,本发明提供一种基于Faster-RCNN的身份证复印件检测方法,引用Faster-RCNN模型准确快速地判断身份证复印件是否操作正确。
为实现上述目的,本发明的技术方案是:一种基于Faster-RCNN的身份证复印件检测方法,包括以下步骤:
步骤S1:制作Faster-RCNN模型的数据集;
步骤S2:设置Faster-RCNN模型的参数;
步骤S3:对身份证复印件测试图像进行预处理;
步骤S4:基于数据集对Faster-RCNN模型进行训练;
步骤S5:输入测试图像,利用训练好的Faster-RCNN模型进行检测。
进一步地,所述步骤S1具体包括:
步骤S11:选择若干身份证复印件图像作为数据集样本;
步骤S12:将数据集样本缩放到统一大小,采用最近邻内插值法,利用如下公式:
dsty=dstw/srcw*srcy dstx=dsth/srch*srcx f(dstx,dsty)=f(srcx,srcy)
其中,dstx表示缩放后图像的横坐标,dsty表示缩放后图像的纵坐标,dstw表示缩放后图像的宽度,dsth表示缩放后图像的高度,srcx表示原图像的横坐标,srcy表示原图像的纵坐标,srcw表示原图像的宽度,srch表示原图像的高度,f(dstx,dsty)表示缩放后图像像素点(dstx,dsty)处的像素值,f(srcx,srcy)表示原图像素点(srcx,srcy)处的像素值;
步骤S13:利用标注工具获取数据集样本的图片名称、类别、身份证图片的左上角坐标、右下角坐标,并且将获取的数据保存到txt文件中;
步骤S14:将得到的txt文件,制作成VOC2007数据集Annotations文件中的xml文件;
步骤S15:根据xml文件生成VOC2007数据集中的训练集train.txt、验证集val.txt、训练验证集trainval.txt和测试集test.txt;格式为txt;
步骤S16:下载VOC2007数据集,用步骤S14得到的xml文件替换Annotations文件中的数据,用步骤S15得到的txt数据替换ImageSets文件中的数据,将数据集样本图片放在JPEGImages文件中。
进一步地,所述步骤S2具体包括:
步骤S21:根据数据集样本的类别总数修改Faster-RCNN模型中与类别总数相关的参数;
步骤S22:根据数据集样本类别修改Faster-RCNN模型的类别标签;
步骤S23:修改append_flipped_images(self)函数。
进一步地,所述步骤S3具体包括:
步骤S31:输入测试图像;
步骤S32:测试图像采用最近邻插值法缩放到统一大小;
步骤S33:将测试图像转化为灰度图,使用如下公式:
Gray(u,v)=0.299*R(u,v)+0.587*G(u,v)+0.144*B(u,v)
其中,u表示测试图像上横坐标,v表示测试图像上纵坐标,R(u,v)表示像素点(u,v)处的红色通道值,G(u,v)表示像素点(u,v)处的绿色通道值,B(u,v)表示像素点(u,v)处的蓝色通道值,Gray(u,v)表示灰度图中像素点(u,v)处的灰度值;步骤S34:测试图像中值滤波平滑,利用如下式子:
dst(u,v)=median{src(u+k,v+l)|(k,l)∈H}
其中,dst(u,v)表示输出图像上像素点(u,v)处的像素值,H表示二维模板,k表示二维模板上的横坐标,l表示二维模板上的纵坐标,src(u+k,v+l)表示测试图像上像素点(u+k,v+l)处的像素值,median表示取中位数。
进一步地,所述步骤S4具体包括:
步骤S401:下载ImageNet数据集下预训练得到的模型参数,用于初始化;
步骤S402:输入数据集的图像;
步骤S403:通过卷积神经网络提取图像特征图;
步骤S404:RPN通过分类函数判断anchors是否是检测目标;
步骤S405:计算预测框的缩放尺度与平移尺度,利用如下式子:
tw=log(w/wa) th=log(h/ha) tx=(x-xa)/wa ty=(y-ya)/ha
其中,x表示预测框的中心横坐标,y表示预测框的中心纵坐标,w表示预测框的宽,h表示预测框的高,xa表示anchorbox的中心横坐标,ya表示anchorbox的中心纵坐标,wa表示anchorbox的宽,ha表示anchorbox的高,tx表示预测框横坐标方向的位置平移尺度,ty表示预测框纵坐标方向的位置平移尺度,tw表示预测框宽的缩放尺度,th表示预测框高的缩放尺度;
步骤S406:计算标定框的缩放尺度与平移尺度,利用如下式子:
其中,x*表示标定框的中心横坐标,y*表示标定框的中心纵坐标,w*表示标定框的宽,h*表示标定框的高,表示标定框横坐标方向的位置平移尺度,表示标定框纵坐标方向的位置平移尺度,表示标定框宽的缩放尺度,表示标定框高的缩放尺度;
步骤S407:通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,同时剔除太小和超出边界的建议框;
步骤S408:计算RPN的整体损失以便RPN训练,利用如下式子:
其中,i为整数,pi表示第i个anchor预测为目标的概率,表示第i个anchor对应的GT预测概率,ti={tx,ty,tw,th}表示预测框的四个参数化坐标的向量,是与positive anchor对应的标定框的坐标向量,表示分类损失,表示回归损失,R表示Smooth L1函数,Ncls表示cls项的归一化值为mini-batch的大小,Nreg表示reg项归一化为anchor位置的数量,L({pi},{ti})表示损失函数;
步骤S409:将建议框映射到卷积神经网络的最后一层卷积特征图上;
步骤S410:通过RoI Pooling层使得每个矩形框生成尺寸大小相同的特征图;
步骤S411:获取RoI Pooling层生成的特征图,进行分类并输出类别的概率;
步骤S412:再次计算平移尺度与缩放尺度,并进行位置精修,获取目标检测框;
步骤S413:根据训练结果调整学习率和迭代次数,重新训练,得到身份证复印件检测模型。
进一步地,所述步骤S5具体包括:
步骤S51:输入测试图像;
步骤S52:利用卷积神经网络提取测试图像的特征图;
步骤S53:使用滑动窗口在特征图上滑动,将其映射到一个维度更低的图像上;
步骤S54:利用RPN在每个滑动窗口上生成多个建议窗口;
步骤S55:将建议窗口映射到卷积神经网络最后一层卷积特征图上;
步骤S56:利用RoI Pooling层使得每个矩形框生成尺寸大小相同的特征图;
步骤S57:根据特征图进行分类并输出结果。
与现有技术相比,本发明具有有益效果:
(1)本发明引用Faster-RCNN模型可以准确快速判断身份证复印件是否操作正确,相比传统的使用机器学习的方法或人工身份证复印件检测,提高了效率、节约了人力资源,并且提高了身份证复印件检测人员检查身份证复印件的准确率;
(2)与其他***有良好的结合性,能够嵌入到其他***中。例如,可以与证件识别***结合在一起,将检测到的身份证交给证件识别***进行识别,提取需要的身份证信息。提高办公效率,节约了人力。
附图说明
图1是本发明基于Faster-RCNN的身份证复印件检测方法的流程示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1所示,一种基于Faster-RCNN的身份证复印件检测方法,包括以下步骤:
步骤S1:制作Faster-RCNN模型的数据集;
所述步骤S1具体包括:
步骤S11:选择若干身份证复印件图像作为数据集样本;
步骤S12:将数据集样本缩放到统一大小,采用最近邻内插值法,利用如下公式:
dsty=dstw/srcw*srcy dstx=dsth/srch*srcx f(dstx,dsty)=f(srcx,srcy)
其中,dstx表示缩放后图像的横坐标,dsty表示缩放后图像的纵坐标,dstw表示缩放后图像的宽度,dsth表示缩放后图像的高度,srcx表示原图像的横坐标,srcy表示原图像的纵坐标,srcw表示原图像的宽度,srch表示原图像的高度,f(dstx,dsty)表示缩放后图像像素点(dstx,dsty)处的像素值,f(srcx,srcy)表示原图像素点(srcx,srcy)处的像素值;
步骤S13:利用标注工具获取数据集样本的图片名称、类别、身份证图片的左上角坐标、右下角坐标,并且将获取的数据保存到txt文件中;
步骤S14:将得到的txt文件,制作成VOC2007数据集Annotations文件中的xml文件;
步骤S15:根据xml文件生成VOC2007数据集中的训练集train.txt、验证集val.txt、训练验证集trainval.txt和测试集test.txt;格式为txt;
步骤S16:安装py-faster-rcnn,下载VOC2007数据集放在py-faster-rcnn\data目录下,用步骤S14得到的xml文件替换Annotations文件中的数据,用步骤S15得到的txt数据替换ImageSets文件中的数据,将数据集样本图片放在JPEGImages文件中。
步骤S2:设置Faster-RCNN模型的参数;
所述步骤S2具体包括:
步骤S21:根据数据集样本的类别总数修改Faster-RCNN模型中与类别总数相关的参数;
步骤S22:根据数据集样本类别修改Faster-RCNN模型的类别标签;
步骤S23:修改append_flipped_images(self)函数。
步骤S3:对身份证复印件测试图像进行预处理;
所述步骤S3具体包括:
步骤S31:输入测试图像;
步骤S32:测试图像采用最近邻插值法缩放到统一大小;
步骤S33:将测试图像转化为灰度图,使用如下公式:
Gray(u,v)=0.299*R(u,v)+0.587*G(u,v)+0.144*B(u,v)
其中,u表示测试图像上横坐标,v表示测试图像上纵坐标,R(u,v)表示像素点(u,v)处的红色通道值,G(u,v)表示像素点(u,v)处的绿色通道值,B(u,v)表示像素点(u,v)处的蓝色通道值,Gray(u,v)表示灰度图中像素点(u,v)处的灰度值;步骤S34:测试图像中值滤波平滑,利用如下式子:
dst(u,v)=median{src(u+k,v+l)|(k,l)∈H}
其中,dst(u,v)表示输出图像上像素点(u,v)处的像素值,H表示二维模板,k表示二维模板上的横坐标,l表示二维模板上的纵坐标,src(u+k,v+l)表示测试图像上像素点(u+k,v+l)处的像素值,median表示取中位数。
步骤S4:基于数据集对Faster-RCNN模型进行训练;
所述步骤S4具体包括:
步骤S401:下载ImageNet数据集下预训练得到的模型参数放在py-faster-rcnn\data目录下,该模型参数用于初始化;
步骤S402:输入数据集的图像;
步骤S403:通过卷积神经网络提取图像特征图;
步骤S404:RPN(Region Proposal Network)通过分类函数判断anchors是否是检测目标;
步骤S405:计算预测框的缩放尺度与平移尺度,利用如下式子:
tw=log(w/wa)th=log(h/ha)tx=(x-xa)/wa ty=(y-ya)/ha
其中,x表示预测框的中心横坐标,y表示预测框的中心纵坐标,w表示预测框的宽,h表示预测框的高,xa表示anchorbox的中心横坐标,ya表示anchorbox的中心纵坐标,wa表示anchorbox的宽,ha表示anchorbox的高,tx表示预测框横坐标方向的位置平移尺度,ty表示预测框纵坐标方向的位置平移尺度,tw表示预测框宽的缩放尺度,th表示预测框高的缩放尺度;
步骤S406:计算标定框的缩放尺度与平移尺度,利用如下式子:
其中,x*表示标定框的中心横坐标,y*表示标定框的中心纵坐标,w*表示标定框的宽,h*表示标定框的高,表示标定框横坐标方向的位置平移尺度,表示标定框纵坐标方向的位置平移尺度,表示标定框宽的缩放尺度,表示标定框高的缩放尺度;
步骤S407:通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,同时剔除太小和超出边界的建议框;
步骤S408:计算RPN的整体损失以便RPN训练,利用如下式子:
其中,i为整数,pi表示第i个anchor预测为目标的概率,表示第i个anchor对应的GT预测概率,ti={tx,ty,tw,th}表示预测框的四个参数化坐标的向量,是与positive anchor对应的标定框的坐标向量,表示分类损失,表示回归损失,R表示Smooth L1函数,Ncls表示cls项的归一化值为mini-batch的大小,Nreg表示reg项归一化为anchor位置的数量,L({pi},{ti})表示损失函数;
步骤S409:将建议框映射到卷积神经网络的最后一层卷积特征图上;
步骤S410:通过RoI Pooling层使得每个矩形框生成尺寸大小相同的特征图;
步骤S411:获取RoI Pooling层生成的特征图,进行分类并输出类别的概率;
步骤S412:再次计算平移尺度与缩放尺度,并进行位置精修,获取目标检测框;
步骤S413:根据训练结果调整学习率和迭代次数,重新训练,得到身份证复印件检测模型。
步骤S5:输入测试图像,利用训练好的Faster-RCNN模型进行检测。
所述步骤S5具体包括:
步骤S51:输入测试图像;
步骤S52:利用卷积神经网络提取测试图像的特征图;
步骤S53:使用滑动窗口在特征图上滑动,将其映射到一个维度更低的图像上;
步骤S54:利用RPN在每个滑动窗口上生成多个建议窗口;
步骤S55:将建议窗口映射到卷积神经网络最后一层卷积特征图上;
步骤S56:利用RoI Pooling层使得每个矩形框生成尺寸大小相同的特征图;
步骤S57:根据特征图进行分类并输出结果。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (6)
1.一种基于Faster-RCNN的身份证复印件检测方法,其特征在于,包括以下步骤:
步骤S1:制作Faster-RCNN模型的数据集;
步骤S2:设置Faster-RCNN模型的参数;
步骤S3:对身份证复印件测试图像进行预处理;
步骤S4:基于数据集对Faster-RCNN模型进行训练;
步骤S5:输入测试图像,利用训练好的Faster-RCNN模型进行检测。
2.根据权利要求1所述的身份证复印件检测方法,其特征在于,所述步骤S1具体包括:
步骤S11:选择若干身份证复印件图像作为数据集样本;
步骤S12:将数据集样本缩放到统一大小,采用最近邻内插值法,利用如下公式:
dsty=dstw/srcw*srcy dstx=dsth/srch*srcx f(dstx,dsty)=f(srcx,srcy)
其中,dstx表示缩放后图像的横坐标,dsty表示缩放后图像的纵坐标,dstw表示缩放后图像的宽度,dsth表示缩放后图像的高度,srcx表示原图像的横坐标,srcy表示原图像的纵坐标,srcw表示原图像的宽度,srch表示原图像的高度,f(dstx,dsty)表示缩放后图像像素点(dstx,dsty)处的像素值,f(srcx,srcy)表示原图像素点(srcx,srcy)处的像素值;
步骤S13:利用标注工具获取数据集样本的图片名称、类别、身份证图片的左上角坐标、右下角坐标,并且将获取的数据保存到txt文件中;
步骤S14:将得到的txt文件,制作成VOC2007数据集Annotations文件中的xml文件;
步骤S15:根据xml文件生成VOC2007数据集中的训练集train.txt、验证集val.txt、训练验证集trainval.txt和测试集test.txt;格式为txt;
步骤S16:下载VOC2007数据集,用步骤S14得到的xml文件替换Annotations文件中的数据,用步骤S15得到的txt数据替换ImageSets文件中的数据,将数据集样本图片放在JPEGImages文件中。
3.根据权利要求2所述的身份证复印件检测方法,其特征在于,所述步骤S2具体包括:
步骤S21:根据数据集样本的类别总数修改Faster-RCNN模型中与类别总数相关的参数;
步骤S22:根据数据集样本类别修改Faster-RCNN模型的类别标签;
步骤S23:修改append_flipped_images(self)函数。
4.根据权利要求1所述的身份证复印件检测方法,其特征在于,所述步骤S3具体包括:
步骤S31:输入测试图像;
步骤S32:测试图像采用最近邻插值法缩放到统一大小;
步骤S33:将测试图像转化为灰度图,使用如下公式:
Gray(u,v)=0.299*R(u,v)+0.587*G(u,v)+0.144*B(u,v)
其中,u表示测试图像上横坐标,v表示测试图像上纵坐标,R(u,v)表示像素点(u,v)处的红色通道值,G(u,v)表示像素点(u,v)处的绿色通道值,B(u,v)表示像素点(u,v)处的蓝色通道值,Gray(u,v)表示灰度图中像素点(u,v)处的灰度值;
步骤S34:测试图像中值滤波平滑,利用如下式子:
dst(u,v)=median{src(u+k,v+l)|(k,l)∈H}
其中,dst(u,v)表示输出图像上像素点(u,v)处的像素值,H表示二维模板,k表示二维模板上的横坐标,l表示二维模板上的纵坐标,src(u+k,v+l)表示测试图像上像素点(u+k,v+l)处的像素值,median表示取中位数。
5.根据权利要求2所述的身份证复印件检测方法,其特征在于,所述步骤S4具体包括:
步骤S401:下载ImageNet数据集下预训练得到的模型参数,用于初始化;
步骤S402:输入数据集的图像;
步骤S403:通过卷积神经网络提取图像特征图;
步骤S404:RPN通过分类函数判断anchors是否是检测目标;
步骤S405:计算预测框的缩放尺度与平移尺度,利用如下式子:
tw=log(w/wa) th=log(h/ha) tx=(x-xa)/wa ty=(y-ya)/ha
其中,x表示预测框的中心横坐标,y表示预测框的中心纵坐标,w表示预测框的宽,h表示预测框的高,xa表示anchor box的中心横坐标,ya表示anchor box的中心纵坐标,wa表示anchor box的宽,ha表示anchor box的高,tx表示预测框横坐标方向的位置平移尺度,ty表示预测框纵坐标方向的位置平移尺度,tw表示预测框宽的缩放尺度,th表示预测框高的缩放尺度;
步骤S406:计算标定框的缩放尺度与平移尺度,利用如下式子:
其中,x*表示标定框的中心横坐标,y*表示标定框的中心纵坐标,w*表示标定框的宽,h*表示标定框的高,表示标定框横坐标方向的位置平移尺度,表示标定框纵坐标方向的位置平移尺度,表示标定框宽的缩放尺度,表示标定框高的缩放尺度;
步骤S407:通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,同时剔除太小和超出边界的建议框;
步骤S408:计算RPN的整体损失以便RPN训练,利用如下式子:
其中,i为整数,pi表示第i个anchor预测为目标的概率,表示第i个anchor对应的GT预测概率,ti={tx,ty,tw,th}表示预测框的四个参数化坐标的向量,是与positive anchor对应的标定框的坐标向量,表示分类损失,表示回归损失,R表示Smooth L1函数,Ncls表示cls项的归一化值为mini-batch的大小,Nreg表示reg项归一化为anchor位置的数量,L({pi},{ti})表示损失函数;
步骤S409:将建议框映射到卷积神经网络的最后一层卷积特征图上;
步骤S410:通过RoI Pooling层使得每个矩形框生成尺寸大小相同的特征图;
步骤S411:获取RoI Pooling层生成的特征图,进行分类并输出类别的概率;
步骤S412:再次计算平移尺度与缩放尺度,并进行位置精修,获取目标检测框;
步骤S413:根据训练结果调整学习率和迭代次数,重新训练,得到身份证复印件检测模型。
6.根据权利要求1所述的身份证复印件检测方法,其特征在于,所述步骤S5具体包括:
步骤S51:输入测试图像;
步骤S52:利用卷积神经网络提取测试图像的特征图;
步骤S53:使用滑动窗口在特征图上滑动,将其映射到一个维度更低的图像上;
步骤S54:利用RPN在每个滑动窗口上生成多个建议窗口;
步骤S55:将建议窗口映射到卷积神经网络最后一层卷积特征图上;
步骤S56:利用RoI Pooling层使得每个矩形框生成尺寸大小相同的特征图;
步骤S57:根据特征图进行分类并输出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810172388.1A CN108334955A (zh) | 2018-03-01 | 2018-03-01 | 基于Faster-RCNN的身份证复印件检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810172388.1A CN108334955A (zh) | 2018-03-01 | 2018-03-01 | 基于Faster-RCNN的身份证复印件检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108334955A true CN108334955A (zh) | 2018-07-27 |
Family
ID=62930025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810172388.1A Pending CN108334955A (zh) | 2018-03-01 | 2018-03-01 | 基于Faster-RCNN的身份证复印件检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108334955A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190668A (zh) * | 2018-08-01 | 2019-01-11 | 福州大学 | 基于Faster-RCNN的多类证件检测与分类方法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现*** |
CN109993160A (zh) * | 2019-02-18 | 2019-07-09 | 北京联合大学 | 一种图像矫正及文本与位置识别方法及*** |
CN110135395A (zh) * | 2019-05-27 | 2019-08-16 | 济南浪潮高新科技投资发展有限公司 | 一种利用深度学习技术识别火车票的方法 |
CN110232322A (zh) * | 2019-05-13 | 2019-09-13 | 平安科技(深圳)有限公司 | 身份证的验证方法、装置、计算机设备和存储介质 |
CN110853015A (zh) * | 2019-11-12 | 2020-02-28 | 中国计量大学 | 基于改进Faster-RCNN的铝型材缺陷检测方法 |
CN110895680A (zh) * | 2019-09-26 | 2020-03-20 | 哈尔滨工程大学 | 一种基于区域建议网络的无人艇水面目标检测方法 |
CN111482967A (zh) * | 2020-06-08 | 2020-08-04 | 河北工业大学 | 一种基于ros平台的智能检测与抓取方法 |
CN114724087A (zh) * | 2022-04-22 | 2022-07-08 | 四川众合智控科技有限公司 | 一种提升地铁巡检设备图像识别准确率的识别方法及*** |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250812A (zh) * | 2016-07-15 | 2016-12-21 | 汤平 | 一种基于快速r‑cnn深度神经网络的车型识别方法 |
CN106372577A (zh) * | 2016-08-23 | 2017-02-01 | 北京航空航天大学 | 一种基于深度学习的交通标志自动识别与标注方法 |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106611162A (zh) * | 2016-12-20 | 2017-05-03 | 西安电子科技大学 | 基于深度学习ssd框架的道路车辆实时检测方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
US20170169315A1 (en) * | 2015-12-15 | 2017-06-15 | Sighthound, Inc. | Deeply learned convolutional neural networks (cnns) for object localization and classification |
US20170206431A1 (en) * | 2016-01-20 | 2017-07-20 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
CN107239731A (zh) * | 2017-04-17 | 2017-10-10 | 浙江工业大学 | 一种基于Faster R‑CNN的手势检测和识别方法 |
CN107292749A (zh) * | 2017-08-04 | 2017-10-24 | 平安科技(深圳)有限公司 | 车损证件照片的分类方法、***及可读存储介质 |
CN107729801A (zh) * | 2017-07-11 | 2018-02-23 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别*** |
-
2018
- 2018-03-01 CN CN201810172388.1A patent/CN108334955A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170169315A1 (en) * | 2015-12-15 | 2017-06-15 | Sighthound, Inc. | Deeply learned convolutional neural networks (cnns) for object localization and classification |
US20170206431A1 (en) * | 2016-01-20 | 2017-07-20 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
CN106250812A (zh) * | 2016-07-15 | 2016-12-21 | 汤平 | 一种基于快速r‑cnn深度神经网络的车型识别方法 |
CN106372577A (zh) * | 2016-08-23 | 2017-02-01 | 北京航空航天大学 | 一种基于深度学习的交通标志自动识别与标注方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN106611162A (zh) * | 2016-12-20 | 2017-05-03 | 西安电子科技大学 | 基于深度学习ssd框架的道路车辆实时检测方法 |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN107239731A (zh) * | 2017-04-17 | 2017-10-10 | 浙江工业大学 | 一种基于Faster R‑CNN的手势检测和识别方法 |
CN107729801A (zh) * | 2017-07-11 | 2018-02-23 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别*** |
CN107292749A (zh) * | 2017-08-04 | 2017-10-24 | 平安科技(深圳)有限公司 | 车损证件照片的分类方法、***及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
SHAOQING REN ET AL.: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190668A (zh) * | 2018-08-01 | 2019-01-11 | 福州大学 | 基于Faster-RCNN的多类证件检测与分类方法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现*** |
CN109993160A (zh) * | 2019-02-18 | 2019-07-09 | 北京联合大学 | 一种图像矫正及文本与位置识别方法及*** |
CN109993160B (zh) * | 2019-02-18 | 2022-02-25 | 北京联合大学 | 一种图像矫正及文本与位置识别方法及*** |
CN110232322A (zh) * | 2019-05-13 | 2019-09-13 | 平安科技(深圳)有限公司 | 身份证的验证方法、装置、计算机设备和存储介质 |
CN110232322B (zh) * | 2019-05-13 | 2024-06-28 | 平安科技(深圳)有限公司 | 身份证的验证方法、装置、计算机设备和存储介质 |
CN110135395A (zh) * | 2019-05-27 | 2019-08-16 | 济南浪潮高新科技投资发展有限公司 | 一种利用深度学习技术识别火车票的方法 |
CN110895680A (zh) * | 2019-09-26 | 2020-03-20 | 哈尔滨工程大学 | 一种基于区域建议网络的无人艇水面目标检测方法 |
CN110853015A (zh) * | 2019-11-12 | 2020-02-28 | 中国计量大学 | 基于改进Faster-RCNN的铝型材缺陷检测方法 |
CN111482967A (zh) * | 2020-06-08 | 2020-08-04 | 河北工业大学 | 一种基于ros平台的智能检测与抓取方法 |
CN114724087A (zh) * | 2022-04-22 | 2022-07-08 | 四川众合智控科技有限公司 | 一种提升地铁巡检设备图像识别准确率的识别方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334955A (zh) | 基于Faster-RCNN的身份证复印件检测方法 | |
CN111325203B (zh) | 一种基于图像校正的美式车牌识别方法及*** | |
CN113160192B (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
CN106875381A (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
CN110298338A (zh) | 一种文档图像分类方法及装置 | |
CN103258214B (zh) | 基于图像块主动学习的遥感图像分类方法 | |
CN109492643A (zh) | 基于ocr的证件识别方法、装置、计算机设备及存储介质 | |
CN108491788A (zh) | 一种用于财务报表单元格的智能提取方法及装置 | |
CN107392968B (zh) | 融合颜色对比图和颜色空间分布图的图像显著性检测方法 | |
CN109859164A (zh) | 一种通过快速型卷积神经网络对pcba外观检验的方法 | |
CN111914838B (zh) | 一种基于文本行识别的车牌识别方法 | |
CN107871101A (zh) | 一种人脸检测方法及装置 | |
CN103971126A (zh) | 一种交通标志识别方法和装置 | |
CN109543688A (zh) | 一种新型的基于多层卷积神经网络的水表读数检测与识别的方法 | |
CN110689000B (zh) | 一种基于生成复杂环境下车牌样本的车辆车牌识别方法 | |
CN110400278A (zh) | 一种图像颜色和几何畸变的全自动校正方法、装置及设备 | |
WO2020143316A1 (zh) | 证件图像提取方法及终端设备 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN110008909A (zh) | 一种基于ai的实名制业务实时稽核*** | |
CN109784341A (zh) | 一种基于lstm神经网络的医疗单据识别方法 | |
CN108256462A (zh) | 一种商场监控视频中的人数统计方法 | |
CN107886507A (zh) | 一种基于图像背景和空间位置的显著区域检测方法 | |
CN109360179A (zh) | 一种图像融合方法、装置及可读存储介质 | |
CN108460833A (zh) | 一种基于bim构建传统建筑数字化保护与修复的信息平台 | |
CN110659637A (zh) | 一种结合深度神经网络和sift特征的电能表示数与标签自动识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180727 |
|
RJ01 | Rejection of invention patent application after publication |