CN109886978B - 一种基于深度学习的端到端告警信息识别方法 - Google Patents

一种基于深度学习的端到端告警信息识别方法 Download PDF

Info

Publication number
CN109886978B
CN109886978B CN201910124684.9A CN201910124684A CN109886978B CN 109886978 B CN109886978 B CN 109886978B CN 201910124684 A CN201910124684 A CN 201910124684A CN 109886978 B CN109886978 B CN 109886978B
Authority
CN
China
Prior art keywords
alarm information
image
neural network
character
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910124684.9A
Other languages
English (en)
Other versions
CN109886978A (zh
Inventor
胡星
邹欣
张衡
张大贵
张承模
***
王亮
田恩勇
毛强
辛丽娜
吴玉柱
娄方旭
王俊杰
付航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Power Grid Co Ltd
Original Assignee
Guizhou Power Grid Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Power Grid Co Ltd filed Critical Guizhou Power Grid Co Ltd
Priority to CN201910124684.9A priority Critical patent/CN109886978B/zh
Publication of CN109886978A publication Critical patent/CN109886978A/zh
Application granted granted Critical
Publication of CN109886978B publication Critical patent/CN109886978B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开了一种基于深度学习的端到端告警信息识别方法,包括以下步骤:截取视频帧图像,对图像进行预处理;按告警信息的行切割图像,得到包含每一行告警信息的图像片;分别对每一个图像片进行文本信息检测;基于端到端的深度学习算法对检测到的文本信息进行识别,得到告警信息识别结果。本发明主要针对变电运行智能辅助***,对后台电子屏幕上按行显示的多行动态告警信息进行视频图像监控时,基于深度学习的端到端识别方法可以精准地识别所有告警信息,从而可以高效地获取电子屏幕上的告警信息,及时将信息反馈给数据分析***,以供后续设备根据告警信息排除变电运行***故障。

Description

一种基于深度学习的端到端告警信息识别方法
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于深度学习的端到端告警信息识别方法。
背景技术
告警信息识别实际上就是识别拍摄到的视频图像中的文字信息,文字识别能够将文字高速、快效的输入到计算机***,实现人机交互,减轻人们的劳动,将人力从枯燥冗杂的工作中解放出来,提高处理效率。
传统文字识别过程分为字符预处理、特征提取、模式分类几大模块,由于文字识别受到的影响因素多,比如背景和噪声复杂、字符结构本身复杂、字符种类多、相似字符多。特别是传统算法在字符预处理时由于光线以及字符间隔小会导致字符分割误差大,从而影响后续处理,以至于传统的文字识别方法的精确度无法满足实际应用的要求。
最近几年来随着深度学习的兴起及不断发展,特别是深度卷积神经网络、深度置信网络、层叠自动编码机、深度递归神经网络等深度模型在图像识别及计算机视觉各领域的大量突破性成果的涌现,相关的方法也被逐步应用到文字识别领域,并取得了不少突破性发展。而目前现有的基于深度学习的文字识别算法多用于单句文字或短语的识别,对于大篇幅的文字识别效果并不理想,存在识别准确率差等问题;针对传统算法的缺陷和现有的基于深度学习的文字识别算法的不足,进一步发明研究应用于电子屏幕上大篇幅按行显示的复杂告警信息识别技术是非常有必要的。
发明内容
本发明要解决的技术问题是:提供一种基于深度学习的端到端告警信息识别方法,以解决现有技术基于深度学习的文字识别算法多用于单句文字或短语的识别,对于大篇幅的文字识别效果并不理想存在识别准确率差等技术问题。
本发明的技术方案是:
一种基于深度学习的端到端告警信息识别方法,它包括:
步骤S1:图像预处理:首先,截取由固定相机拍摄的视频帧图像,并且用该相机拍摄标定板图像;然后根据标定板图像获取相机内参和畸变参数,并且根据参数矫正原图像;最后,在截取到的第一帧图像上标定实际告警信息区域的四个顶点,同时矫正由于拍摄角度造成的告警信息倾斜,获得矫正后的只包含告警信息的矩形区域;
步骤S2:采用水平投影算法对步骤S1获得的告警信息矩形区域图像进行水平投影,根据投影结果将告警信息图像按行分割,获得告警信息的行图像片;
步骤S3:采用传统算法阈值分割、形态学变换和连通域筛选检测出步骤S2获得的所有图像片中的文字区域;
步骤S4:采用结合卷积神经网络、注意力模型和循环神经网络的深度学习算法端到端识别步骤S3检测到的所有文字区域,获得一帧图像上的所有告警信息。
所述固定相机是固定在正对电子屏幕的位置,在拍摄过程中拍摄角度以及相机参数恒定不变,同时电子屏幕的位置固定不变。
所述步骤S1中进行图像预处理的具体步骤为:
步骤S1.1:截取视频帧图像,并且用相机拍摄一组标定板图像;
步骤S1.2:用标定板图像计算获得相机内参和畸变参数,根据参数矫正原图像;
步骤S1.3:在第一帧图像上标定告警信息所在的实际区域,保存该区域四个顶点的坐标信息,根据标定的顶点坐标对步骤S1.2校正后的图像进行透视变换,然后保留只包含告警信息的矩形区域,该区域内的告警信息按行水平显示。
所述步骤S3的具体步骤包括:
步骤S3.1:首先,对告警信息行图像片进行阈值分割;
步骤S3.2:然后,对阈值分割后的二值图进行形态学变换,将所有相邻的文字信息经膨胀形成连通区域,不同类别的告警信息形成不同的连通区域;
步骤S3.3:最后,经连通域筛选排除噪声信息干扰,得到只包含不同类别告警信息的连通域,获得每个类别告警信息所在的位置,即实现文字信息的检测。
步骤S4所述采用结合卷积神经网络、注意力模型和循环神经网络的深度学习算法端到端识别步骤S3检测到的所有文字区域,获得一帧图像上的所有告警信息的方法包括:
步骤S4.1:构建网络结构,该结构由卷积神经网络、注意力模型和循环神经网络构成,首先,卷积神经网络在整个网络结构前端,从输入的图片中提取特征;接着,注意力模型根据循环神经网络的隐藏状态以及卷积神经网络输出的特征计算出注意力权重;最后,将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布,概率最高的编号所对应的字符为最后的识别结果;
步骤S4.2:训练深度学习模型:首先采集每个类别告警信息的图片组成训练集,制作数据集的图片来源于拍摄到的电子屏幕告警信息的视频图像,对原图片上的告警信息按类分割,获得的每幅图像只包含一类告警信息,最后获得的图像涵盖所有告警信息,并且数据集由这些子图像组成;在获得数据集之后分别对文字信息进行标记,一幅图像对应一个标签,并且统计告警信息字符集;最后使用数据集根据构建出的网络结构迭代训练深度学习模型;
步骤S4.3:识别告警信息:告警信息识别是一次按行识别每一类告警信息,输入为包含文字的告警信息图片,将这些图片输入到训练好的深度学习模型,输出为对应的文字序列;识别过程中无需将这些文字依次分割。
步骤S4.1中,从输入的图片中提取特征的表达式为:
f={fi,j,c}
式中:f表示特征图谱,i,j表示在特征图谱中的位置,c表示通道数;
注意力权重的计算方法为:
注意力模型根据循环神经网络的隐藏状态计算得到注意力掩模,表示为:
Figure BDA0001973134630000031
式中,αt,i,j表示注意力掩模,Vα表示一个向量,st表示循环神经网络的隐藏状态,fi,j表示特征图谱中坐标为i,j处的特征,ei、ej分别表示坐标i,j的独热编码,W表示对应的参数;
结合卷积神经网络输出的特征计算出注意力权重:
ut,c=αt,i,jfi,j,c
式中,ut,c表示注意力权重,αt,i,j表示注意力掩模,fi,j,c表示卷积神经网络输出的特征。
所述将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布的方法为:
循环神经网络中加入了长短时记忆模块(LSTM),使得循环神经网络可以对任意长度的序列进行操作,将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布;循环神经网络在t时刻的输入表示为:
Figure BDA0001973134630000032
式中,
Figure BDA0001973134630000033
表示循环神经网络在t时刻的输入,
Figure BDA0001973134630000034
表示前一时刻预测出的字符的独热编码,ut-1表示前一时刻的注意力权重,W表示对应参数;
循环神经网络的输出表示为:
Figure BDA0001973134630000035
式中,(ot,st)表示循环神经网络的输出,
Figure BDA0001973134630000036
分别表示输入和上一时刻的隐藏状态;
经过softmax层得到对应字符集的概率分布:
Figure BDA0001973134630000037
Figure BDA0001973134630000041
表示字符集概率分布,ot表示t时刻循环神经网络的输出,ut表示t时刻注意力权重,W表示对应参数;
概率最高的编号所对应的字符为最后的识别结果:
Figure BDA0001973134630000042
ct表示字符最后识别结果,
Figure BDA0001973134630000043
表示字符对应的概率分布。
本发明有益效果:
本发明具有较强的工程适用性,通过所提出的图像预处理可以得到只包含告警信息的图像区域,排除了其他信息的干扰,并且经畸变和倾斜矫正后可以使告警信息按行水平显示,为后续处理提供关键依据;按行分割图像,依次检测识别行图像片文字信息,可以排除其他告警信息的干扰,使得整个识别结果更加准确;采用结合卷积神经网络、注意力模型和循环神经网络的深度学习算法端到端的识别每类告警信息,避免了文字分割对识别准确率的影响,对字体颜色、模糊具有一定的鲁棒性,在网络中融合的注意力模型进一步提高了识别结果的准确率;解决了解决现有技术基于深度学习的文字识别算法多用于单句文字或短语的识别,对于大篇幅的文字识别效果并不理想存在识别准确率差等技术问题。
附图说明
图1是本发明流程示意图;
图2是本发明中融合注意力模型的深度学习网络结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施方式,进一步阐明本发明。应当理解,此处所描述的具体实施方式仅用于说明本发明而不用于限制本发明,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均属于本申请所附权利要求所限定的范围。
本发明提出一种基于深度学习的端到端告警信息识别方法,该方法针对变电运行智能辅助***,对后台电子屏幕上大篇幅按行显示的复杂告警信息进行视频图像监控时,精准地检测和识别所有告警信息,从而可以高效地获取电子屏幕上的告警信息,及时将信息反馈给数据分析***,以供后续设备根据告警信息做出相应处理,从而及时排除变电运行***的故障。
在实施过程中关键是要构建结合卷积神经网络、注意力模型和循环神经网络的深度神经网络结构,实现端到端地识别每类告警信息,避免了文字分割对识别准确率的影响,对字体颜色、模糊具有一定的鲁棒性,在网络中融合的注意力模型进一步提高了识别结果的准确率。如图1所示是本发明中一种基于深度学习的端到端告警信息识别的整体框图的,具体实施过程包括以下步骤:
步骤S1:首先,截取由固定相机拍摄的视频帧图像,并且用该相机拍摄标定板图像;然后,根据标定板图像获取相机内参和畸变参数,并且根据参数矫正原图像;最后,在截取到的第一帧图像上标定实际告警信息区域的四个顶点,同时矫正由于拍摄角度造成的告警信息倾斜,获得矫正后的只包含告警信息的矩形区域。
步骤S2:采用水平投影算法对步骤S1获得的告警信息矩形区域图像进行水平投影,根据投影结果将告警信息图像按行分割,获得告警信息的行图像片。
步骤S3:采用传统算法阈值分割、形态学变换、连通域筛选等检测出步骤S2获得的所有图像片中的文字区域。
步骤S4:采用结合卷积神经网络、注意力模型和循环神经网络的深度学习算法端到端识别步骤S3检测到的所有文字,获得一帧图像上的所有告警信息。
以下详细说明本发明方法涉及的关键点:
(1)在获取视频图像时需要固定相机,将相机固定在正对电子屏幕的位置,能保证可以拍下屏幕中所有的告警信息,并且在拍摄过程中拍摄角度以及相机相关参数都恒定不变,同时电子屏幕的位置必须固定。
(2)图像中的告警信息按行近似水平显示,文字背景为黑色,字体颜色相对于黑色对比度高但具体不固定,文字内容包括数字、英文、汉字、标点符号,每一行告警信息包含几类告警信息,每类告警信息长度不一定。
(3)图像预处理时标定告警信息区域可以得到只包含告警信息的图像区域,排除了其他信息的干扰,并且只需要标定第一帧图像,后续其他帧图像不需要标定,因为电子屏幕和相机位置及相机参数保持不变,所以后续帧图像可以使用第一帧图像的标定点;对图像进行畸变和倾斜矫正后可以使告警信息按行水平显示,为后续的图像按行分割提供了关键性依据。
(4)采用水平投影的方法可以将大篇幅的告警信息分割成多行,分别对每一行进行后续处理,并且每一行的告警信息分多个类别,每类信息间的间隔距离明显比字间距大。这样按行分割图像,依次检测识别行图像片文字信息,可以排除其他告警信息的干扰,使得整个识别结果更加准确。
(5)检测文字信息具体包括:首先,对告警信息行图像片进行阈值分割,由于黑色背景和文字的对比度高,阈值分割的效果好;然后,对阈值分割后的二值图进行形态学变换,将所有相邻的文字信息经膨胀形成连通区域,不同类别的告警信息形成不同的连通区域;最后,经连通域筛选排除噪声信息干扰,得到只包含不同类别告警信息的连通域,因此获得每个类别告警信息所在的位置,即实现文字信息的检测。
(6)识别告警信息的过程具体被分为构建网络结构、训练深度学习模型和识别告警信息三个阶段。其中每次识别的对象是一类不定长度的告警信息,输出则是该类告警信息的文字信息。
(6-1)如图2所示是融合注意力模型的深度学习网络结构示意图构建网络结构,该结构主要由卷积神经网络、注意力模型和循环神经网络构成。
卷积神经网络在整个网络结构前端,它结合inception-v2,inception-v3以及inception-resnet-v2这三种卷积神经网络而组成,从输入的图片中提取特征,特征图谱可以表示为:
f={fi,j,c}
其中,f表示特征图谱,i,j表示在特征图谱中的位置,c表示通道数。
注意力模型根据循环神经网络的隐藏状态可以计算得到注意力掩模,可以表示为:
Figure BDA0001973134630000061
其中,αt,i,j表示注意力掩模,Vα表示一个向量,st表示循环神经网络的隐藏状态,fi,j表示特征图谱中坐标为i,j处的特征,ei、ej分别表示坐标i,j的独热编码,W表示对应的参数。
结合卷积神经网络输出的特征计算出注意力权重:
ut,c=αt,i,jfi,j,c
其中,ut,c表示注意力权重,αt,i,j表示注意力掩模,fi,j,c表示卷积神经网络输出的特征。
循环神经网络中加入了长短时记忆模块(LSTM),使得循环神经网络可以对任意长度的序列进行操作。将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布。循环神经网络在t时刻的输入可以表示为:
Figure BDA0001973134630000062
其中,
Figure BDA0001973134630000063
表示循环神经网络在t时刻的输入,
Figure BDA0001973134630000064
表示前一时刻预测出的字符的独热编码,ut-1表示前一时刻的注意力权重,W表示对应参数。
循环神经网络的输出可以表示为:
Figure BDA0001973134630000065
其中,(ot,st)表示循环神经网络的输出,
Figure BDA0001973134630000066
分别表示输入和上一时刻的隐藏状态。
而经过softmax层得到对应字符集的概率分布:
Figure BDA0001973134630000067
其中,
Figure BDA0001973134630000068
表示字符集概率分布,ot表示t时刻循环神经网络的输出,ut表示t时刻注意力权重,W表示对应参数。
概率最高的编号所对应的字符为最后的识别结果:
Figure BDA0001973134630000071
其中,ct表示字符最后识别结果,
Figure BDA0001973134630000072
表示字符对应的概率分布
(6-2)训练阶段首先是采集每个类别告警信息的图片组成训练集,在本发明实施过程中制作数据集的图片来源于前期拍摄到的电子屏幕告警信息的视频图像,每一帧图像上有26行告警信息,每一行有8类告警信息。对原图片上的告警信息按类分割,获得的每幅图像只包含一类告警信息,一帧原图像可以获得208幅这样的子图像。最后获得的子图像涵盖所有告警信息,并且数据集由这些子图像组成。在获得数据集之后还需要分别对他们的文字信息进行标记,一幅图像对应一个标签。
告警信息中包含52类大小写英文字符,10类数字,11类标点符号,1000类中文字符,并且每类告警信息的字符个数不超过40。
最后使用数据集根据(6-1)构建出的网络结构迭代训练深度学习模型,迭代次数为20000次,使用最大似然估计来训练模型,似然函数为:
Figure BDA0001973134630000073
其中,T为输入图像所含文字的最大个数40,x是输入的图像,y1:t-1表示输入图像对应标签上的字符,yt是在t时刻的预测结果。如果预测出的字符个数小于40,那么其他的字符被预测为了空字符。p(yt|y1:t-1,x)为(6-1)中网络结构最后识别结果对应的概率值。在训练过程中最大化L,模型参数W在训练过程中不断优化,直到迭代周期结束,最终的模型参数和网络结构形成深度学习模型。
(6-3)告警信息识别阶段是一次按行识别每一类告警信息,输入为包含多个文字的不定长的告警信息图片,将这些图片输入到训练好的深度学习模型,输出为对应的文字序列。识别过程中无需将这些文字依次分割,以这种端到端的方式完成识别,可以排除字符分割效果对识别结果的影响。
本发明提出的基于深度学习的端到端告警信息识别方法,对电子屏幕上大篇幅按行显示的复杂告警信息可以实现精准地检测和识别,对文字的颜色、模糊具有良好的鲁棒性,从而可以高效地获取电子屏幕上的告警信息,及时将信息反馈给数据分析***,以供后续设备根据告警信息做出相应处理。

Claims (4)

1.一种基于深度学习的端到端告警信息识别方法,它包括:
步骤S1:图像预处理:首先,截取由固定相机拍摄的视频帧图像,并且用该相机拍摄标定板图像;然后根据标定板图像获取相机内参和畸变参数,并且根据参数矫正原图像;最后,在截取到的第一帧图像上标定实际告警信息区域的四个顶点,同时矫正由于拍摄角度造成的告警信息倾斜,获得矫正后的只包含告警信息的矩形区域;
步骤S2:采用水平投影算法对步骤S1获得的告警信息矩形区域图像进行水平投影,根据投影结果将告警信息图像按行分割,获得告警信息的行图像片;
步骤S3:采用传统算法阈值分割、形态学变换和连通域筛选检测出步骤S2获得的所有图像片中的文字区域;
步骤S4:采用结合卷积神经网络、注意力模型和循环神经网络的深度学习算法端到端识别步骤S3检测到的所有文字区域,获得一帧图像上的所有告警信息;具体步骤包括:
步骤S4.1:构建网络结构,该结构由卷积神经网络、注意力模型和循环神经网络构成,首先,卷积神经网络在整个网络结构前端,从输入的图片中提取特征;接着,注意力模型根据循环神经网络的隐藏状态以及卷积神经网络输出的特征计算出注意力权重;最后,将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布,概率最高的编号所对应的字符为最后的识别结果;
步骤S4.1中,从输入的图片中提取特征的表达式为:
f={fi,j,c}
式中:f表示特征图谱,i,j表示在特征图谱中的位置,c表示通道数;
注意力权重的计算方法为:
注意力模型根据循环神经网络的隐藏状态计算得到注意力掩模,表示为:
Figure FDA0002296759000000011
式中,αt,i,j表示注意力掩模,Vα表示一个向量,st表示循环神经网络的隐藏状态,fi,j表示特征图谱中坐标为i,j处的特征,ei、ej分别表示坐标i,j的独热编码,W表示对应的参数;
结合卷积神经网络输出的特征计算出注意力权重:
ut,c=αt,i,jfi,j,c
式中,ut,c表示注意力权重,αt,i,j表示注意力掩模,fi,j,c表示卷积神经网络输出的特征;
所述将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布的方法为:
循环神经网络中加入了长短时记忆模块(LSTM),使得循环神经网络可以对任意长度的序列进行操作,将卷积神经网络输出的特征图谱与注意力权重结合起来,输入循环神经网络进行编码,得到整个字符集的概率分布;循环神经网络在t时刻的输入表示为:
Figure FDA0002296759000000021
式中,
Figure FDA0002296759000000022
表示循环神经网络在t时刻的输入,
Figure FDA0002296759000000023
表示前一时刻预测出的字符的独热编码,ut-1表示前一时刻的注意力权重,W表示对应参数;
循环神经网络的输出表示为:
Figure FDA0002296759000000024
式中,(ot,st)表示循环神经网络的输出,
Figure FDA0002296759000000025
分别表示输入和上一时刻的隐藏状态;
经过softmax层得到对应字符集的概率分布:
Figure FDA0002296759000000026
Figure FDA0002296759000000027
表示字符集概率分布,ot表示t时刻循环神经网络的输出,ut表示t时刻注意力权重,W表示对应参数;
概率最高的编号所对应的字符为最后的识别结果:
Figure FDA0002296759000000031
ct表示字符最后识别结果,
Figure FDA0002296759000000032
表示字符对应的概率分布;
步骤S4.2:训练深度学习模型:首先采集每个类别告警信息的图片组成训练集,制作数据集的图片来源于拍摄到的电子屏幕告警信息的视频图像,对原图片上的告警信息按类分割,获得的每幅图像只包含一类告警信息,最后获得的图像涵盖所有告警信息,并且数据集由这些子图像组成;在获得数据集之后分别对文字信息进行标记,一幅图像对应一个标签,并且统计告警信息字符集;最后使用数据集根据构建出的网络结构迭代训练深度学习模型;
步骤S4.3:识别告警信息:告警信息识别是一次按行识别每一类告警信息,输入为包含文字的告警信息图片,将这些图片输入到训练好的深度学习模型,输出为对应的文字序列;识别过程中无需将这些文字依次分割。
2.根据权利要求1所述一种基于深度学习的端到端告警信息识别方法,其特征在于:所述固定相机是固定在正对电子屏幕的位置,在拍摄过程中拍摄角度以及相机参数恒定不变,同时电子屏幕的位置固定不变。
3.根据权利要求1所述一种基于深度学习的端到端告警信息识别方法,其特征在于:所述步骤S1中进行图像预处理的具体步骤为:
步骤S1.1:截取视频帧图像,并且用相机拍摄一组标定板图像;
步骤S1.2:用标定板图像计算获得相机内参和畸变参数,根据参数矫正原图像;
步骤S1.3:在第一帧图像上标定告警信息所在的实际区域,保存该区域四个顶点的坐标信息,根据标定的顶点坐标对步骤S1.2校正后的图像进行透视变换,然后保留只包含告警信息的矩形区域,该区域内的告警信息按行水平显示。
4.根据权利要求1所述一种基于深度学习的端到端告警信息识别方法,其特征在于:所述步骤S3的具体步骤包括:
步骤S3.1:首先,对告警信息行图像片进行阈值分割;
步骤S3.2:然后,对阈值分割后的二值图进行形态学变换,将所有相邻的文字信息经膨胀形成连通区域,不同类别的告警信息形成不同的连通区域;
步骤S3.3:最后,经连通域筛选排除噪声信息干扰,得到只包含不同类别告警信息的连通域,获得每个类别告警信息所在的位置,即实现文字信息的检测。
CN201910124684.9A 2019-02-20 2019-02-20 一种基于深度学习的端到端告警信息识别方法 Active CN109886978B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910124684.9A CN109886978B (zh) 2019-02-20 2019-02-20 一种基于深度学习的端到端告警信息识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910124684.9A CN109886978B (zh) 2019-02-20 2019-02-20 一种基于深度学习的端到端告警信息识别方法

Publications (2)

Publication Number Publication Date
CN109886978A CN109886978A (zh) 2019-06-14
CN109886978B true CN109886978B (zh) 2020-03-13

Family

ID=66928479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910124684.9A Active CN109886978B (zh) 2019-02-20 2019-02-20 一种基于深度学习的端到端告警信息识别方法

Country Status (1)

Country Link
CN (1) CN109886978B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079749B (zh) * 2019-12-12 2023-12-22 创新奇智(重庆)科技有限公司 一种带姿态校正的端到端商品价签文字识别方法和***
CN111200540A (zh) * 2019-12-27 2020-05-26 合肥学院 一种基于深度递归网络的大数据计算机***故障检测方法
CN112001394A (zh) * 2020-07-13 2020-11-27 上海翎腾智能科技有限公司 基于ai视觉下的听写交互方法、***、装置
CN111985483B (zh) * 2020-07-31 2022-08-26 厦门市美亚柏科信息股份有限公司 一种拍屏文件图片检测方法、装置及存储介质
CN112084930A (zh) * 2020-09-04 2020-12-15 厦门大学 一种全视野数字病理切片的病灶区域分类方法及其***
CN113591593B (zh) * 2021-07-06 2023-08-15 厦门路桥信息股份有限公司 基于因果干预的异常天气下目标检测方法、设备及介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069450A (zh) * 2015-07-16 2015-11-18 福州大学 一种快速的多文字识别方法
CN105590102A (zh) * 2015-12-30 2016-05-18 中通服公众信息产业股份有限公司 一种基于深度学习的前车车脸识别方法
CN106650736A (zh) * 2016-09-28 2017-05-10 浪潮软件集团有限公司 一种基于深度学习的汉字识别***的实现方法
CN106503711A (zh) * 2016-11-16 2017-03-15 广西大学 一种文字识别方法
CN107247950A (zh) * 2017-06-06 2017-10-13 电子科技大学 一种基于机器学习的身份证图像文本识别方法
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN108388348B (zh) * 2018-03-19 2020-11-24 浙江大学 一种基于深度学习和注意力机制的肌电信号手势识别方法
CN108665496B (zh) * 2018-03-21 2021-01-26 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN108898137B (zh) * 2018-05-25 2022-04-12 黄凯 一种基于深度神经网络的自然图像字符识别方法及***
CN108694393A (zh) * 2018-05-30 2018-10-23 深圳市思迪信息技术股份有限公司 一种基于深度卷积的证件图像文本区域提取方法

Also Published As

Publication number Publication date
CN109886978A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN109886978B (zh) 一种基于深度学习的端到端告警信息识别方法
CN111325203B (zh) 一种基于图像校正的美式车牌识别方法及***
CN110060238B (zh) 基于深度学习的pcb板标注印刷质量检测方法
CN111160352B (zh) 一种基于图像分割的工件金属表面文字识别方法及***
CN108960245B (zh) 轮胎模具字符的检测与识别方法、装置、设备及存储介质
CN113077453B (zh) 一种基于深度学习的电路板元器件缺陷检测方法
CN108334881B (zh) 一种基于深度学习的车牌识别方法
CN111967313B (zh) 一种深度学习目标检测算法辅助的无人机图像标注方法
CN107480585B (zh) 基于dpm算法的目标检测方法
CN114155527A (zh) 一种场景文本识别方法和装置
CN111401353A (zh) 一种数学公式的识别方法、装置及设备
CN109800756B (zh) 一种用于中文历史文献密集文本的文字检测识别方法
CN111680690A (zh) 一种文字识别方法及装置
CN111814576A (zh) 一种基于深度学习的购物小票图片识别方法
CN115393861B (zh) 一种手写体文本精准分割方法
CN111539330A (zh) 一种基于双svm多分类器的变电站数显仪表识别方法
CN111160107B (zh) 一种基于特征匹配的动态区域检测方法
CN113989794A (zh) 一种车牌检测和识别方法
CN111626145A (zh) 一种简捷有效的残缺表格识别及跨页拼接方法
CN116704490B (zh) 车牌识别方法、装置和计算机设备
CN110287970B (zh) 一种基于cam与掩盖的弱监督物体定位方法
CN115830514B (zh) 一种适用于带弯曲河道的全河段表面流速计算方法及***
CN112528903A (zh) 人脸图像获取方法、装置、电子设备及介质
CN116740528A (zh) 一种基于阴影特征的侧扫声呐图像目标检测方法及***
CN110956174A (zh) 一种器件编号的识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant