CN110751138A - 一种基于yolov3和CNN的盘头标识识别方法 - Google Patents

一种基于yolov3和CNN的盘头标识识别方法 Download PDF

Info

Publication number
CN110751138A
CN110751138A CN201910857847.4A CN201910857847A CN110751138A CN 110751138 A CN110751138 A CN 110751138A CN 201910857847 A CN201910857847 A CN 201910857847A CN 110751138 A CN110751138 A CN 110751138A
Authority
CN
China
Prior art keywords
identification
yolov3
picture
cnn
pan head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910857847.4A
Other languages
English (en)
Inventor
宣琦
赵佳康
朱城超
翔云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910857847.4A priority Critical patent/CN110751138A/zh
Publication of CN110751138A publication Critical patent/CN110751138A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

一种基于yolov3和CNN的盘头标识识别方法,包括以下步骤:1)盘头图片获取:在实际的生产环境下,通过摄像头采集数据;2)盘头图片处理:先切割出原图中完整的盘头标识,用yolov3模型训练盘头标识的切割;3)再根据切割出的盘头标识图片切割出单个字符图片;4)用CNN卷积神经网络训练盘头标识字符的识别;5)***调试:将盘头标识切割、字符切割和字符识别整合成一个***;6)配置树莓派4的环境,移植***,最后在树莓派上测试。本发明检测速度快和精度高,能提高生产效率和降低成本,具有较高的实际应用价值。

Description

一种基于yolov3和CNN的盘头标识识别方法
技术领域
本发明涉及深度学习、计算机视觉、目标检测、文字识别、嵌入式***,特别是一种基于yolov3和CNN的盘头标识识别方法。
背景技术
随着科学技术的快速发展,现代经编工业向高速生产、智能控制、多功能、简便使用、物联网设计等方向发展,在现代科技的推动下,经编产品的生产效率提高,产品质量也有提升。而经编机盘头是经编机上面很重要的一个零件,想要经编机高效率的工作,盘头的选择很重要。
由于纱线种类偏多,为方便管理提高生产效率,在每个盘头上都印刷上由大写英文字母和***数字组成的5字标识,可以通过识别盘头来区分不同种类的纱线。在实际工厂生产中盘头的识别还是通过人工来识别分类,存在的技术缺陷:准确率较低、生产效率较低。
发明内容
为了克服现有盘头通过人工来识别分类的准确率较低、生产效率较低的不足,本发明提供一种基于yolov3和CNN的盘头标识识别方法,在保证识别准确率的情况下,既能减少人工成本又可以有效地提高自动化生产效率。
本发明解决其技术问题所采用的技术方案如下:
一种基于yolov3和CNN的盘头标识识别方法,包括以下步骤:
S1:盘头图片获取:在实际的生产环境下,通过摄像头采集数据,分别采集在实际环境不同光线下印刷有红色标识的盘头;
S2:盘头图片处理:先切割出原图中完整的盘头标识,用yolov3模型训练盘头标识的切割;
S3:再根据切割出的盘头标识图片切割出单个字符图片;
S4:用CNN卷积神经网络训练盘头标识字符的识别;
S5:***调试:将盘头标识切割、字符切割和字符识别整合成一个***;
S6:配置树莓派4的环境,移植***,最后在树莓派上调试。
进一步,所述步骤S1中,搭建实际的***平台,固定摄像头位置,根据盘头滚过的触发指令让摄像头拍照,并保存为JPG格式。
再进一步,所述步骤S2包括以下步骤:
S2-1:首先制作训练用的数据集,收集包含盘头的图片,将部分图片作为训练集,通过人工标注软件Labelimg人工标注盘头标识的边框,标签类别标为“biaozhi”,每一张图片都有一个相应的名字生成对应xml文件,将图片和xml文件做成VOC数据集格式,并且需要生成训练测试时用的train.txt,val.txt,test.txt和trainval.txt文件;
S2-2:所述yolov3模型中,yolov3使用的特征提取网络是DarkNet53,这个网络由残差单元叠加而成,将盘头原图作为神经网络的输入,首先通过特征提取网络,输出N*N的卷积特征图,生成N*N个gird cell,再经过预测层anchor boxes输出目标的类别和坐标。Bounding box坐标(zx,zy,zw,zh)预测计算公式如下:
zx=σ(qx)+cx
zy=σ(qy)+cy
Figure BDA0002195962860000021
Figure BDA0002195962860000022
其中qx,qy,qw,qh为yolov3每个Bounding box预测的中心点坐标与预测框的宽、高,cx,cy为框的中心坐标所在grid cell网格的坐标偏移量,pw,ph为预测前anchor的宽高,首先确定groundtruth中的目标中心坐标落在哪个Grid cell,然后根据该Grid cell来预测目标,yolov3中每个grid cell有三个anchor,在计算预测坐标zx,zy,zw,zh的loss时,选择三个anchor中置信度最高的来计算groundtruth的loss;
目标类别损失Lcla(o,c)采用的是二值交叉熵损失,其中oij∈{0,1},表示预测目标边界框i是否存在目标,
Figure BDA0002195962860000023
表示网络预测目标边界框i内存在目标的sigmoid概率,计算公式如下所示:
最后对预测的目标进行NMS处理,最后保留目标概率最高的矩形框,并且输出其矩形框的顶点坐标;
S2-3:根据训练好的模型切割出盘头标识和输出的顶点坐标,通过盘头标志长宽比筛选目标图片,将筛选出来的图片通过OpenCV透视变换进行矫正,透视变换的计算公式如下:
Figure BDA0002195962860000031
式中src()是输入矫正前图片的顶点坐标,dst()是输出矫正后的顶点坐标,M是3*3的变换矩阵,应用OpenCV里的getPerspectiveTransform()函数计算变换矩阵M。
更进一步,所述步骤3包括以下步骤:
S3-1:首先将经过矫正的目标标识图片进行降噪处理;
S3-2:将去噪后的图片通过二值化和HSV红色提取进行叠加得到最后的二值化图片;
S3-3:将得到的二值化图片进行分割单个字符,图片是一个0-1矩阵,其中0是背景1是字符,根据每一列的0-1数来切割,将每一列的1和0的个数分别统计起来,根据每一列的0-1总和变换来切割字符,将分割好的5个字符依次添加到一个列表保证顺序不会乱。
再进一步,上述步骤4包括以下步骤:
S4-1:将切割好的单个字符,作为CNN字符识别模型训练的数据集,共有10个数字和24个大写字母34个类,不包括字母“O”和“I”;
S4-2:根据制作好的数据集训练CNN网络。
再进一步,所述步骤S5的过程如下:将获取盘头标识,切割标识单个字符和字符识别整合到一个***,先根据训练好的yolov3模型获取原图中的盘头标识,通过筛选切割的标识的长宽比,保留最佳标识图片,将获取到的盘头标识切割出每个字符,取得单个字符切割后的顺序,再根据盘头文字顺序传入训练好的CNN模型,识别各个字符,得到完整的盘头标识输出。
所述步骤S6中,配置好树莓派4所需的Python3、Tensorflow和OpenCV等环境,将整合后的***移植到树莓派上,在树莓派上调试。
本发明根据计算机技术设计了一套能自动识别盘头标识的嵌入式***,这样既能降低人工成本又能提高自动化生产效率。该识别***主要基于Tensorflow深度学***台树莓派4上运行。
本发明的有益效果为:在保证速度和准确率的情况下,yolov3能够适应光线的变化对盘头标志进行获取,这是明显优于传统图像处理方法的,CNN神经网络的分类在精度上也要比传统方法好,主要这整套***能提高生产效率,降低生产成本。
附图说明
图1为本发明实施例的***流程图;
图2为本发明实施例的yolov3的结构流程图;
图3为本发明实施例的CNN算法流程图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细的描述。
参照图1-图3,一种基于yolov3和CNN的盘头标识识别方法,包括以下步骤:
S1:盘头图片获取:在实际的生产环境下,通过摄像头采集数据,分别采集在实际环境不同光线下印刷有红色标识的盘头;
S2:盘头图片处理:先切割出原图中完整的盘头标识,用yolov3模型训练盘头标识的切割;
S3:再根据切割出的盘头标识图片切割出单个字符图片;
S4:用CNN卷积神经网络训练盘头标识字符的识别;
S5:***调试:将盘头标识切割、字符切割和字符识别整合成一个***;
S6:配置树莓派4的环境,移植***,最后在树莓派上调试。
进一步,所述步骤S1中,搭建实际的***平台,固定摄像头位置,根据盘头滚过的触发指令让摄像头拍照,并保存为JPG格式。
再进一步,所述步骤S2包括以下步骤:
S2-1:首先制作训练用的数据集,收集包含盘头的图片,将部分图片作为训练集,通过人工标注软件Labelimg人工标注盘头标识的边框,标签类别标为“biaozhi”,每一张图片都有一个相应的名字生成对应xml文件,将图片和xml文件做成VOC数据集格式,并且需要生成训练测试时用的train.txt,val.txt,test.txt和trainval.txt文件;
S2-2:所述yolov3模型中,yolov3使用的特征提取网络是DarkNet53,这个网络由残差单元叠加而成。将盘头原图作为神经网络的输入,首先通过特征提取网络,输出N*N的卷积特征图,生成N*N个gird cell,再经过预测层anchor boxes输出目标的类别和坐标。Bounding box坐标(zx,zy,zw,zh)预测计算公式如下:
zx=σ(qx)+cx
zy=σ(qy)+cy
Figure BDA0002195962860000051
Figure BDA0002195962860000052
其中qx,qy,qw,qh为yolov3每个Bounding box预测的中心点坐标与预测框的宽、高,cx,cy为框的中心坐标所在grid cell网格的坐标偏移量,pw,ph为预测前anchor的宽高;首先确定groundtruth中的目标中心坐标落在哪个Grid cell,然后根据该Grid cell来预测目标,yolov3中每个grid cell有三个anchor,在计算预测坐标zx,zy,zw,zh的loss时,选择三个anchor中置信度最高的来计算groundtruth的loss;
目标类别损失Lcla(o,c)采用的是二值交叉熵损失,其中oij∈{0,1},表示预测目标边界框i是否存在目标,
Figure BDA0002195962860000053
表示网络预测目标边界框i内存在目标的sigmoid概率,计算公式如下所示:
Figure BDA0002195962860000054
Figure BDA0002195962860000055
最后对预测的目标进行NMS处理,最后保留目标概率最高的矩形框,并且输出其矩形框的顶点坐标;
S2-3:根据训练好的模型切割出盘头标识和输出的顶点坐标,可以通过盘头标志大致长宽比筛选目标图片,将筛选出来的图片通过OpenCV透视变换进行矫正,透视变换的计算公式如下:
Figure BDA0002195962860000061
式中src()是输入矫正前图片的顶点坐标,dst()是输出矫正后的顶点坐标,M是3*3的变换矩阵,应用OpenCV里的getPerspectiveTransform()函数计算变换矩阵M。
更进一步,所述步骤3包括以下步骤:
S3-1:首先将经过矫正的目标标识图片进行降噪处理;
S3-2:将去噪后的图片通过二值化和HSV红色提取进行叠加得到最后的二值化图片;
S3-3:将得到的二值化图片进行分割单个字符,图片是一个0-1矩阵,其中0是背景1是字符,根据每一列的0-1数来切割,将每一列的1和0的个数分别统计起来,根据每一列的0-1总和变换来切割字符,将分割好的5个字符依次添加到一个列表保证顺序不会乱。
再进一步,所述步骤4包括以下步骤:
S4-1:将切割好的单个字符,作为CNN字符识别模型训练的数据集,共有10个数字和24个大写英文字母,不包括字母“O”和“I”;
S4-2:根据制作好的数据集训练CNN网络。
再进一步,所述步骤5的过程如下:将获取盘头标识,切割标识单个字符和字符识别整合到一个***,先根据训练好的yolov3模型获取原图中的盘头标识,通过筛选切割的标识的长宽比,保留最佳标识图片,将获取到的盘头标识切割出每个字符,取得单个字符切割后的顺序,再根据盘头文字顺序传入训练好的CNN模型,识别各个字符,得到完整的盘头标识输出。
所述步骤6中,配置好树莓派4所需的Python3、Tensorflow和OpenCV等环境,将整合后的***移植到树莓派上,在树莓派上调试。
如上所述为本发明基于yolov3目标检测和应用神经网络的盘头标识识别的方法的实施例介绍,本发明通过训练yolov3模型和CNN模型来识别盘头标识,在保证速度和精度的情况下,大大的提高了生产效率,降低生产成本。
以上所述,仅为本发明专利较佳的实施例,对本发明而言仅仅是说明性,而非限制性,任何熟悉本技术领域的技术人员在本发明专科所公开的范围内,根据本发明专利的技术方案及其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (7)

1.一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述方法包括以下步骤:
S1:盘头图片获取:在实际的生产环境下,通过摄像头采集数据,分别采集在实际环境不同光线下印刷有红色标识的盘头;
S2:盘头图片处理:先切割出原图中完整的盘头标识,用yolov3模型训练盘头标识的切割;
S3:再根据切割出的盘头标识图片切割出单个字符图片;
S4:用CNN卷积神经网络训练盘头标识字符的识别;
S5:***调试:将盘头标识切割、字符切割和字符识别整合成一个***;
S6:配置树莓派4的环境,移植***,最后在树莓派上调试。
2.如权利要求1所述的一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述步骤S1中,搭建实际的***平台,固定摄像头位置,根据盘头滚过的触发指令让摄像头拍照,并保存为JPG格式。
3.如权利要求1或2所述的一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述步骤S2包括以下步骤:
S2-1:首先制作训练用的数据集,收集包含盘头的图片,将部分图片作为训练集,通过人工标注软件Labelimg人工标注盘头标识的边框,标签类别标为“biaozhi”,每一张图片都有一个相应的名字生成对应xml文件,将图片和xml文件做成VOC数据集格式,并且需要生成训练测试时用的train.txt,val.txt,test.txt和trainval.txt文件;
S2-2:所述yolov3模型中,yolov3使用的特征提取网络是DarkNet53,这个网络由残差单元叠加而成,将盘头原图作为神经网络的输入,首先通过特征提取网络,输出N*N的卷积特征图,生成N*N个gird cell,再经过预测层anchor boxes输出目标的类别和坐标,Bounding box坐标(zx,zy,zw,zh)预测计算公式如下:
zx=σ(qx)+cx
zy=σ(qy)+cy
Figure FDA0002195962850000011
Figure FDA0002195962850000012
其中qx,qy,qw,qh为yolov3每个Bounding box预测的中心点坐标与预测框的宽、高,cx,cy为框的中心坐标所在grid cell网格的坐标偏移量,pw,ph为预测前anchor的宽高;首先确定groundtruth中的目标中心坐标落在哪个Grid cell,然后根据该Grid cell来预测目标,yolov3中每个grid cell有三个anchor,在计算预测坐标zx,zy,zw,zh的loss时,选择三个anchor中置信度最高的来计算groundtruth的loss;
目标类别损失Lcla(o,c)采用的是二值交叉熵损失,其中oij∈{0,1},表示预测目标边界框i是否存在目标,表示网络预测目标边界框i内存在目标的sigmoid概率,计算公式如下所示:
Figure FDA0002195962850000022
Figure FDA0002195962850000023
最后对预测的目标进行NMS处理,最后保留目标概率最高的矩形框,并且输出其矩形框的顶点坐标;
S2-3:根据训练好的模型切割出盘头标识和输出的顶点坐标,通过盘头标志大致长宽比筛选目标图片,将筛选出来的图片通过OpenCV透视变换进行矫正,透视变换的计算公式如下:
Figure FDA0002195962850000024
式中src()是输入矫正前图片的顶点坐标,dst()是输出矫正后的顶点坐标,M是3*3的变换矩阵,应用OpenCV里的getPerspectiveTransform()函数计算变换矩阵M。
4.如权利要求1或2所述的一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述步骤3包括以下步骤:
S3-1:首先将经过矫正的目标标识图片进行降噪处理;
S3-2:将去噪后的图片通过二值化和HSV红色提取进行叠加得到最后的二值化图片;
S3-3:将得到的二值化图片进行分割单个字符,图片是一个0-1矩阵,其中0是背景1是字符,根据每一列的0-1数来切割,将每一列的1和0的个数分别统计起来,根据每一列的0-1总和变换来切割字符,将分割好的5个字符依次添加到一个列表保证顺序不会乱。
5.如权利要求1或2所述的一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述步骤4包括以下步骤:
S4-1:将切割好的单个字符,作为CNN字符识别模型训练的数据集,共有10个数字和24个大写字母34个类,不包括字母“O”和“I”;
S4-2:根据制作好的数据集训练CNN网络。
6.如权利要求1或2所述的一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述步骤S5的过程如下,将获取盘头标识,切割标识单个字符和字符识别整合到一个***,先根据训练好的yolov3模型获取原图中的盘头标识,通过筛选切割的标识的长宽比,保留最佳标识图片,将获取到的盘头标识切割出每个字符,取得单个字符切割后的顺序,再根据盘头文字顺序传入训练好的CNN模型,识别各个字符,得到完整的盘头标识输出。
7.如权利要求1或2所述的一种基于yolov3和CNN的盘头标识识别方法,其特征在于,所述步骤S6中,配置好树莓派4所需的Python3、Tensorflow和OpenCV等环境,将整合后的***移植到树莓派上,在树莓派上调试,通过树莓派连接的摄像头拍摄图片,经过算法处理最后输出盘头标识。
CN201910857847.4A 2019-09-09 2019-09-09 一种基于yolov3和CNN的盘头标识识别方法 Pending CN110751138A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910857847.4A CN110751138A (zh) 2019-09-09 2019-09-09 一种基于yolov3和CNN的盘头标识识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910857847.4A CN110751138A (zh) 2019-09-09 2019-09-09 一种基于yolov3和CNN的盘头标识识别方法

Publications (1)

Publication Number Publication Date
CN110751138A true CN110751138A (zh) 2020-02-04

Family

ID=69276304

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910857847.4A Pending CN110751138A (zh) 2019-09-09 2019-09-09 一种基于yolov3和CNN的盘头标识识别方法

Country Status (1)

Country Link
CN (1) CN110751138A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307919A (zh) * 2020-10-22 2021-02-02 福州大学 一种基于改进YOLOv3的单证图像中数字信息区域识别方法
CN112508017A (zh) * 2020-12-15 2021-03-16 通号智慧城市研究设计院有限公司 数显仪表读数智能识别方法、***、处理设备和存储介质
CN112529003A (zh) * 2020-12-09 2021-03-19 安徽工业大学 一种基于Faster-RCNN的仪表盘数字识别方法
CN112818980A (zh) * 2021-01-15 2021-05-18 湖南千盟物联信息技术有限公司 一种基于Yolov3算法的钢包号检测识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202848488U (zh) * 2012-08-20 2013-04-03 杭州民安智能***有限公司 物料盘检测***
CN109919012A (zh) * 2019-01-28 2019-06-21 北控水务(中国)投资有限公司 一种基于卷积神经网络的污水处理指示性微生物图像识别方法
CN109948609A (zh) * 2019-03-06 2019-06-28 南京邮电大学 基于深度学习的智能阅卷定位方法
CN110020615A (zh) * 2019-03-20 2019-07-16 阿里巴巴集团控股有限公司 对图片进行文字提取及内容识别的方法和***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202848488U (zh) * 2012-08-20 2013-04-03 杭州民安智能***有限公司 物料盘检测***
CN109919012A (zh) * 2019-01-28 2019-06-21 北控水务(中国)投资有限公司 一种基于卷积神经网络的污水处理指示性微生物图像识别方法
CN109948609A (zh) * 2019-03-06 2019-06-28 南京邮电大学 基于深度学习的智能阅卷定位方法
CN110020615A (zh) * 2019-03-20 2019-07-16 阿里巴巴集团控股有限公司 对图片进行文字提取及内容识别的方法和***

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
SIMON MONK: "《树莓派开发实战》", 31 May 2017 *
刘瑞祯等: "《OpenCV教程 基础篇》", 30 June 2007 *
孟琪等: "基于颜色特征及投影变换的集装箱标识符分割", 《信息技术与信息化》 *
徐国标等: "基于YOLO改进算法的远程塔台运动目标检测", 《科学技术与工程》 *
陈慧岩等: "《智能车辆理论与应用》", 31 July 2018 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307919A (zh) * 2020-10-22 2021-02-02 福州大学 一种基于改进YOLOv3的单证图像中数字信息区域识别方法
CN112529003A (zh) * 2020-12-09 2021-03-19 安徽工业大学 一种基于Faster-RCNN的仪表盘数字识别方法
CN112508017A (zh) * 2020-12-15 2021-03-16 通号智慧城市研究设计院有限公司 数显仪表读数智能识别方法、***、处理设备和存储介质
CN112818980A (zh) * 2021-01-15 2021-05-18 湖南千盟物联信息技术有限公司 一种基于Yolov3算法的钢包号检测识别方法

Similar Documents

Publication Publication Date Title
CN110059694B (zh) 电力行业复杂场景下的文字数据的智能识别方法
CN110751138A (zh) 一种基于yolov3和CNN的盘头标识识别方法
CN111540006B (zh) 基于深度迁移学习的植物气孔智能检测与识别方法及***
CN112926405A (zh) 一种安全帽佩戴检测方法、***、设备及存储介质
CN113553977B (zh) 一种基于改进yolo v5的安全帽检测方法和***
CN107871316B (zh) 基于深度神经网络的x光片手骨兴趣区域自动提取方法
CN112651969B (zh) 结合多信息融合网络和区域增长的气管树分级提取方法
CN110929795B (zh) 高速焊线机焊点快速识别与定位方法
CN112307919B (zh) 一种基于改进YOLOv3的单证图像中数字信息区域识别方法
CN110781882A (zh) 一种基于yolo模型的车牌定位和识别方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和***
CN112613428B (zh) 基于平衡损失的Resnet-3D卷积牛视频目标检测方法
CN112507758A (zh) 答题卡字符串识别方法、装置、终端和计算机存储介质
CN114998220A (zh) 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN115034200A (zh) 图纸信息提取方法、装置、电子设备及存储介质
CN116258956A (zh) 无人机树木识别方法、设备、存储介质及装置
CN110188662A (zh) 一种水表数字的ai智能识别方法
CN114529821A (zh) 一种基于机器视觉的海上风电安全监测与预警方法
CN110287981A (zh) 基于生物启发性表征学习的显著性检测方法及***
CN111310611B (zh) 细胞视野图的检测方法及存储介质
CN117576038A (zh) 基于YOLOv8网络的织物瑕疵检测方法及***
CN109284702A (zh) 一种基于图像模式的答题卷给分及阅卷***
CN110569871B (zh) 一种基于深度卷积神经网络的鞍部点识别方法
CN117058476A (zh) 一种基于随机不确定性的目标检测方法
CN110956174A (zh) 一种器件编号的识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200204

RJ01 Rejection of invention patent application after publication