CN106407969A - 一种健壮的复杂背景视频文本定位和抽取方法 - Google Patents
一种健壮的复杂背景视频文本定位和抽取方法 Download PDFInfo
- Publication number
- CN106407969A CN106407969A CN201610778073.2A CN201610778073A CN106407969A CN 106407969 A CN106407969 A CN 106407969A CN 201610778073 A CN201610778073 A CN 201610778073A CN 106407969 A CN106407969 A CN 106407969A
- Authority
- CN
- China
- Prior art keywords
- text
- angle point
- area
- positioning
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
Abstract
本发明公开了一种健壮的复杂背景视频文本定位和抽取方法。主要是解决目前的视频文本定位和抽取方法在复杂背景下不够健壮的难题。在文本定位阶段,本发明选取角点作为文字的基本特征,然后利用粗定位和精定位相结合的方法实现文本行的定位。粗定位是利用二值文本区域分布图的Area,Saturation,Ratio和Position四个特性得到候选文本区域,最后,利用角点的水平投影和角点密度融合的方法将候选文本区域分割成文本行,实现文本行精确定位并去除伪文本行。文本抽取阶段,通过基于二值图像的极性判断与改进的局部OTSU方法来完成,可以有效的解决复杂背景下的最佳阈值选取和笔画细节丢失的问题。本发明在各类节目视频文本定位和抽取中具有较高的召回率。
Description
技术领域
本发明属于视频图像处理领域,具体涉及一种健壮的复杂背景视频文本定位和抽取方法。
背景技术
随着现代科技的快速发展,生活中的很多信息都是通过多媒体的形式传递。其中,视频中的文字是最有用的信息类型之一,这些文本提供了很多有价值的信息,例如节目介绍、场景位置、特别公告、扬声器的名称、赛事比分、日期和时间、房地产走势、新闻事件和视频内容等。文本识别已经有很多现实应用,如视频分类、文档分析、基于视频内容的视频检索、帮助盲人、自动标注、车牌识别等。所以对视频的文本信息进行提取,对理解视频的深层语义信息具有重要意义。
现在国内外已有了很多视频文字定位和抽取的算法,主要可以分为基于连通域的、基于纹理的、基于边缘的和基于学习的方法。其中基于连通域的方法定位速度比较快,但是易受图像对比度变化的干扰;基于纹理和边缘的方法定位比较稳定,但却有时间复杂度高的缺点;而基于学习的方法定位好坏完全取决于样本的训练。
发明内容
本发明针对现有技术中复杂背景下视频文本定位不健壮的问题,提出了一种视频中复杂背景文本的定位和抽取健壮方法。
本发明的目的是通过以下技术方案来实现的:一种健壮的复杂背景视频文本定位和抽取方法,包括以下步骤:
预处理:输入视频帧,将视频帧转化为灰度图像,对视频帧进行角点检测,得到角点二值分布图;
文本粗定位:首先利用角点二值分布图通过滑动窗口进行区域合并,形成二值文本区域分布图,然后利用二值文本区域分布图的四个属性过滤掉非文本区域内的角点,实现文本区域粗定位;
文本精定位:通过角点水平投影和角点密度融合的方法,实现文本行精定位;
文本抽取:对定位后的文本行图像进行基于二值图像的极性判断,然后利用改进的局部OTSU算法计算每一块区域内的阈值,并根据极性判断结果调整为最佳阈值,最后完成文本行的二值化。
进一步地,所述的二值文本区域分布图经过区域融合得到,具体是选择一个n*n的矩形框,5≤n≤15,以角点为中心,对矩形框区域内的颜色置为角点颜色,遍历完所有角点,最终得到二值文本区域分布图。
进一步地,所述的二值文本区域分布图具有多个连通区域。
进一步地,所述的二值文本区域分布图的属性包括:Area,Saturation,Ratio和Position。
进一步地,所述的过滤掉非文本区域内的角点是指通过四个属性特征Area,Saturation,Ratio和Position逐步进行过滤,具体是:
首先,Area属性过滤是指对当前二值文本区域分布图中的每一个连通区域Area按照面积大小进行排序,过滤掉相对较小的区域Area;然后,Saturation过滤是指计算每个连通区域Area的面积A(Area)与外接矩形框Rect的面积A(Rect)的比例,Saturation=A(Area)/A(Rect),(Saturation∈(0,1)),过滤掉Saturation较小的连通区域;然后,Ratio过滤是指计算每个连通区域外接矩形框的高宽比,过滤掉Ratio大于1:2.5的连通区域;最后,Position过滤方法具体是计算连通区域的位置信息,过滤掉视频帧2/3上部分的连通区域。
进一步地,所述的角点水平投影和角点密度融合的方法是指:
首先,通过统计每行的角点直方图,利用直方图的波峰波谷将文本区域分割为文本行,其波谷判断依据是将连续q行的角点数小于角点平均值数的1/4或1/3视为波谷,3≤q≤6。然后利用角点密度融合的方法去除文本行的背景区域或伪文本行。
进一步地,所述的角点密度融合的方法是指过滤掉文本行残存的背景或去除伪文本行,其过滤规则利用H*1/2H(H为文本行的高度)水平滑动窗口进行水平滑动,去除角点密度小于阈值C的区域,C为角点个数,最后再将矩形框间距小于H的矩形框融合成新的文本行。
进一步地,所述的基于二值图像的极性判断是基于局部OTSU二值图像进行的极性判断,首先,利用局部OTSU方法进行文本行的二值化,然后把上述二值图像后的四个边界作为种子像素点,进行四连通域种子填充算法填充,填充值为p,0<p<255,最后计算黑白二值所占的比例,比重大的颜色则为文字的极性。
进一步地,所述的根据极性判断结果调整为最佳阈值是指利用局部OTSU算法计算出每个块内的阈值T,但不进行二值化处理。然后利用文本极性判断结果,再修改当前阈值为最佳阈值,最后利用修改后的最佳阈值执行二值化操作。
进一步地,所述的修改当前阈值为最佳阈值具体是指,如果极性判断文字颜色为黑色,则新阈值T1=T-T*0.1,反之,白色文字时,新阈值T1=T+T*0.1。
本发明的有益效果是:在文本定位阶段,本发明选取健壮的角点作为文字的基本特征,然后通过粗定位完成候选文本区域的定位,尽可能多的保留文本区域;再利用精定位实现文本区域的文本行的分割和校验。文本抽取阶段,通过基于二值图像的极性判断与局部OTSU相结合的方法完成复杂背景下最佳阈值选取困难的问题。经过对本发明的大量实验测试,本发明的文本定位和抽取算法对复杂背景视频具有很好的健壮性。
附图说明
图1为本发明方法流程图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,本发明提供的一种健壮的复杂背景视频文本定位和抽取方法,包括以下步骤:
预处理:输入视频帧,将视频帧转化为灰度图像,对视频帧进行角点检测,得到角点二值分布图;
文本粗定位:首先利用角点二值分布图通过滑动窗口进行区域合并,形成二值文本区域分布图,然后利用二值文本区域分布图的四个属性过滤掉非文本区域内的角点,实现文本区域粗定位;
文本精定位:通过角点水平投影和角点密度融合的方法,实现文本行精定位;
文本抽取:对定位后的文本行图像进行基于二值图像的极性判断,然后利用改进的局部OTSU算法计算每一块区域内的阈值,并根据极性判断结果调整为最佳阈值,最后完成文本行的二值化。
进一步地,所述的二值文本区域分布图经过区域融合得到,具体是选择一个n*n的矩形框,5≤n≤15,以角点为中心,对矩形框区域内的颜色置为角点颜色,遍历完所有角点,最终得到二值文本区域分布图。
进一步地,所述的二值文本区域分布图具有多个连通区域。
进一步地,所述的二值文本区域分布图的属性包括:Area,Saturation,Ratio和Position。
进一步地,所述的过滤掉非文本区域内的角点是指通过四个属性特征Area,Saturation,Ratio和Position逐步进行过滤,具体是:
首先,Area属性过滤是指对当前二值文本区域分布图中的每一个连通区域Area按照面积大小进行排序,过滤掉相对较小的区域Area;然后,Saturation过滤是指计算每个连通区域Area的面积A(Area)与外接矩形框Rect的面积A(Rect)的比例,Saturation=A(Area)/A(Rect),(Saturation∈(0,1)),过滤掉Saturation较小的连通区域;然后,Ratio过滤是指计算每个连通区域外接矩形框的高宽比,过滤掉Ratio大于1:2.5的连通区域;最后,Position过滤方法具体是计算连通区域的位置信息,过滤掉视频帧2/3上部分的连通区域。
进一步地,所述的角点水平投影和角点密度融合的方法是指:
首先,通过统计每行的角点直方图,利用直方图的波峰波谷将文本区域分割为文本行,其波谷判断依据是将连续q行的角点数小于角点平均值数的1/4或1/3视为波谷,3≤q≤6。然后利用角点密度融合的方法去除文本行的背景区域或伪文本行。
进一步地,所述的角点密度融合的方法是指过滤掉文本行残存的背景或去除伪文本行,其过滤规则利用H*1/2H(H为文本行的高度)水平滑动窗口进行水平滑动,去除角点密度小于阈值C的区域,C为角点个数,最后再将矩形框间距小于H的矩形框融合成新的文本行。
进一步地,所述的基于二值图像的极性判断是基于局部OTSU二值图像进行的极性判断,首先,利用局部OTSU方法进行文本行的二值化,然后把上述二值图像后的四个边界作为种子像素点,进行四连通域种子填充算法填充,填充值为p,0<p<255,最后计算黑白二值所占的比例,比重大的颜色则为文字的极性。
进一步地,所述的根据极性判断结果调整为最佳阈值是指利用局部OTSU算法计算出每个块内的阈值T,但不进行二值化处理。然后利用文本极性判断结果,再修改当前阈值为最佳阈值,最后利用修改后的最佳阈值执行二值化操作。
进一步地,所述的修改当前阈值为最佳阈值具体是指,如果极性判断文字颜色为黑色,则新阈值T1=T-T*0.1,反之,白色文字时,新阈值T1=T+T*0.1。
实施例
本实施例的实现,包括以下步骤:
1、输入视频帧,对视频帧进行预处理,例如转化为灰度图像;采用Harris算法对视频帧进行角点检测,得到背景为黑色、角点为白色的角点二值分布图;
2、利用6*6的矩形框,以角点为中心,将每个角点的矩形框内置为角点一致的颜色,得到二值文本区域分布图;
3、采用由粗到精的文本定位方法进行文本定位;
粗定位:选取二值文本区域分布图的四个属性去除伪文本区域,得到候选文本区域。分别是面积,饱和度,高宽比和位置,记为Area,Saturation,Ratio,Position。
Area:找到每一个连通区域Area,然后按照连通区域的面积大小进行排序,过滤掉相对较小的区域。因为面积较小的区域一定不是视频帧反映的主要内容,并且小面积区域很容易被过滤掉。
Saturation:即角点的饱和度特征,统计每个连通区域的外接矩形框Rect。过滤掉Saturation较小的连通区域。
Saturation=A(Area)/A(Rect),(Saturation∈(0,1));
其中A(Area)是连通域的面积,A(Rect)是连通域的外接矩形框的面积。由于视频中的叠加字幕都是水平的,因此Saturation的值接近于1,而伪文本连通区域的Saturation值接近于0。
Ratio:连通区域外接矩形框高宽比,根据汉字的自身特点,本发明过滤掉Ratio大于1:2.5的连通区域。
Position:连通区域的位置信息,过滤掉视频帧上2/3的连通区域。因为视频帧中的叠加字幕信息一般都是在视频帧的下方。
精定位:由于每个候选的连通区域中可能包含多行文本或者是伪文本,因此,可以利用角点进行水平投影,将每个候选的连通区域分割成文本行并实现精确定位;最后利用角点密度融合方法对文本行的背景或者伪文本行进一步过滤,过滤窗口大小为H*1/2H(H为文本行的高度),之后再将矩形框间距小于H的矩形框融合成新的文本行,文本行定位完成;
4、文本抽取。本发明采用基于二值图像的极性判断和改进的局部OTSU二值化相结合的方法完成文本行的抽取。
局部OTSU二值化:将文本行图像划分为等大小的区域,每个小区域的大小为H*H(文本行的高度)。每个区域进行局部OTSU二值化;
基于二值图像的极性判断:把上述二值图像后的四个边界作为种子像素点,进行四连通域种子填充算法填充,填充的值为128,最后计算黑白二值所占的比例,比重大的颜色则为文字的极性;
改进的局部OTSU二值化:首先对文本行图像处理跟局部OTSU算法一样,将文本行分成多个大小为H*H的区域,然后执行OTSU算法计算出每个块内的阈值T,但此时不进行二值化处理。因为此时的T不是文本分割的最佳阈值。因此需要根据文本极性判断结果,再修改此阈值(如果极性判断文字颜色为黑色,则新阈值T1=T-T*0.1,反之,白色文字时,新阈值T1=T+T*0.1),最后利用修改后的最佳阈值执行二值化操作。
Claims (10)
1.一种健壮的复杂背景视频文本定位和抽取方法,其特征在于,包括以下步骤:
预处理:输入视频帧,将视频帧转化为灰度图像,对视频帧进行角点检测,得到角点二值分布图;
文本粗定位:首先利用角点二值分布图通过滑动窗口进行区域合并,形成二值文本区域分布图,然后利用二值文本区域分布图的四个属性过滤掉非文本区域内的角点,实现文本区域粗定位;
文本精定位:通过角点水平投影和角点密度融合的方法,实现文本行精定位;
文本抽取:对定位后的文本行图像进行基于二值图像的极性判断,然后利用改进的局部OTSU算法计算每一块区域内的阈值,并根据极性判断结果调整为最佳阈值,最后完成文本行的二值化。
2.根据权利要求1所述的方法,其特征在于,所述的二值文本区域分布图经过区域融合得到,具体是选择一个n*n的矩形框,5≤n≤15,以角点为中心,对矩形框区域内的颜色置为角点颜色,遍历完所有角点,最终得到二值文本区域分布图。
3.根据权利要求2所述的方法,其特征在于,所述的二值文本区域分布图具有多个连通区域。
4.根据权利要求1所述的方法,其特征在于,所述的二值文本区域分布图的属性包括:Area,Saturation,Ratio和Position。
5.根据权利要求1所述的方法,其特征在于,所述的过滤掉非文本区域内的角点是指通过四个属性特征Area,Saturation,Ratio和Position逐步进行过滤,具体是:
首先,Area属性过滤是指对当前二值文本区域分布图中的每一个连通区域Area按照面积大小进行排序,过滤掉相对较小的区域Area;然后,Saturation过滤是指计算每个连通区域Area的面积A(Area)与外接矩形框Rect的面积A(Rect)的比例,Saturation=A(Area)/A(Rect),(Saturation∈(0,1)),过滤掉Saturation较小的连通区域;然后,Ratio过滤是指计算每个连通区域外接矩形框的高宽比,过滤掉Ratio大于1:2.5的连通区域;最后,Position过滤方法具体是计算连通区域的位置信息,过滤掉视频帧2/3上部分的连通区域。
6.根据权利要求1所述的方法,其特征在于,所述的角点水平投影和角点密度融合的方法是指:
首先,通过统计每行的角点直方图,利用直方图的波峰波谷将文本区域分割为文本行,其波谷判断依据是将连续q行的角点数小于角点平均值数的1/4或1/3视为波谷,3≤q≤6。然后利用角点密度融合的方法去除文本行的背景区域或伪文本行。
7.根据权利要求6所述的方法,其特征在于,所述的角点密度融合的方法是指过滤掉文本行残存的背景或去除伪文本行,其过滤规则利用H*1/2H(H为文本行的高度)水平滑动窗口进行水平滑动,去除角点密度小于阈值C的区域,C为角点个数,最后再将矩形框间距小于H的矩形框融合成新的文本行。
8.根据权利要求1所述的方法,其特征在于,所述的基于二值图像的极性判断是基于局部OTSU二值图像进行的极性判断,首先,利用局部OTSU方法进行文本行的二值化,然后把上述二值图像后的四个边界作为种子像素点,进行四连通域种子填充算法填充,填充值为p,0<p<255,最后计算黑白二值所占的比例,比重大的颜色则为文字的极性。
9.根据权利要求1所述的方法,其特征在于,所述的根据极性判断结果调整为最佳阈值是指利用局部OTSU算法计算出每个块内的阈值T,但不进行二值化处理。然后利用文本极性判断结果,再修改当前阈值为最佳阈值,最后利用修改后的最佳阈值执行二值化操作。
10.根据权利要求9所述的方法,其特征在于,所述的修改当前阈值为最佳阈值具体是指,如果极性判断文字颜色为黑色,则新阈值T1=T-T*0.1,反之,白色文字时,新阈值T1=T+T*0.1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610778073.2A CN106407969A (zh) | 2016-08-30 | 2016-08-30 | 一种健壮的复杂背景视频文本定位和抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610778073.2A CN106407969A (zh) | 2016-08-30 | 2016-08-30 | 一种健壮的复杂背景视频文本定位和抽取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106407969A true CN106407969A (zh) | 2017-02-15 |
Family
ID=58003924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610778073.2A Pending CN106407969A (zh) | 2016-08-30 | 2016-08-30 | 一种健壮的复杂背景视频文本定位和抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106407969A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107302718A (zh) * | 2017-08-17 | 2017-10-27 | 河南科技大学 | 一种基于角点检测的视频字幕区域定位方法 |
CN107688788A (zh) * | 2017-08-31 | 2018-02-13 | 平安科技(深圳)有限公司 | 文档图表抽取方法、电子设备及计算机可读存储介质 |
CN109993165A (zh) * | 2019-03-28 | 2019-07-09 | 永康市几米电子科技有限公司 | 药片板药名识别及药片板信息获取方法、装置与*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101593277A (zh) * | 2008-05-30 | 2009-12-02 | 电子科技大学 | 一种复杂彩色图像中文本区域自动定位方法及装置 |
CN103268481A (zh) * | 2013-05-29 | 2013-08-28 | 焦点科技股份有限公司 | 一种复杂背景图像中的文本提取方法 |
CN104182750A (zh) * | 2014-07-14 | 2014-12-03 | 上海交通大学 | 一种在自然场景图像中基于极值连通域的中文检测方法 |
-
2016
- 2016-08-30 CN CN201610778073.2A patent/CN106407969A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101593277A (zh) * | 2008-05-30 | 2009-12-02 | 电子科技大学 | 一种复杂彩色图像中文本区域自动定位方法及装置 |
CN103268481A (zh) * | 2013-05-29 | 2013-08-28 | 焦点科技股份有限公司 | 一种复杂背景图像中的文本提取方法 |
CN104182750A (zh) * | 2014-07-14 | 2014-12-03 | 上海交通大学 | 一种在自然场景图像中基于极值连通域的中文检测方法 |
Non-Patent Citations (4)
Title |
---|
张洋: "电视视频字幕文字的提取方法研究", 《中国优秀硕士学位论文全文数据库_信息科技辑》 * |
王刚: "新闻视频字幕的自动提取和识别", 《中国优秀硕士学位论文全文数据库_信息科技辑》 * |
胡倩 等: "自然场景下的文本定位", 《电脑知识与技术》 * |
黄晓冬: "基于特征融合的视频文本获取研究", 《中国博士学位论文全文数据库_信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107302718A (zh) * | 2017-08-17 | 2017-10-27 | 河南科技大学 | 一种基于角点检测的视频字幕区域定位方法 |
CN107302718B (zh) * | 2017-08-17 | 2019-12-10 | 河南科技大学 | 一种基于角点检测的视频字幕区域定位方法 |
CN107688788A (zh) * | 2017-08-31 | 2018-02-13 | 平安科技(深圳)有限公司 | 文档图表抽取方法、电子设备及计算机可读存储介质 |
CN107688788B (zh) * | 2017-08-31 | 2021-01-08 | 平安科技(深圳)有限公司 | 文档图表抽取方法、电子设备及计算机可读存储介质 |
CN109993165A (zh) * | 2019-03-28 | 2019-07-09 | 永康市几米电子科技有限公司 | 药片板药名识别及药片板信息获取方法、装置与*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104751142B (zh) | 一种基于笔划特征的自然场景文本检测方法 | |
CN107679502A (zh) | 一种基于深度学习图像语义分割的人数估计方法 | |
CN101183425B (zh) | 粤港两地车牌定位方法 | |
CN105205488B (zh) | 基于Harris角点和笔画宽度的文字区域检测方法 | |
CN109255350B (zh) | 一种基于视频监控的新能源车牌检测方法 | |
CN102542268B (zh) | 用于视频中文本区域检测与定位的方法 | |
Yang et al. | Lecture video indexing and analysis using video ocr technology | |
CN104077577A (zh) | 一种基于卷积神经网络的商标检测方法 | |
CN101515325A (zh) | 基于字符切分和颜色聚类的数字视频中的字符提取方法 | |
CN1312625C (zh) | 基于游程邻接图的复杂背景彩色图像中字符提取方法 | |
CN101593277A (zh) | 一种复杂彩色图像中文本区域自动定位方法及装置 | |
CN104598907B (zh) | 一种基于笔画宽度图的图像中文字数据提取方法 | |
CN102208023A (zh) | 基于边缘信息和分布熵的视频字幕识别设计方法 | |
CN104463134B (zh) | 一种车牌检测方法和*** | |
CN103336961A (zh) | 一种交互式的自然场景文本检测方法 | |
CN107977645B (zh) | 一种视频新闻海报图的生成方法及装置 | |
CN104766076A (zh) | 一种视频图像文字的检测方法和装置 | |
CN104299009A (zh) | 基于多特征融合的车牌字符识别方法 | |
CN101106716A (zh) | 一种分水岭图象分割处理方法 | |
CN106650728B (zh) | 一种阴影车牌图像二值化方法 | |
KR20120019425A (ko) | 화상 처리 장치 및 방법, 및 프로그램 | |
CN106407969A (zh) | 一种健壮的复杂背景视频文本定位和抽取方法 | |
CN102073872B (zh) | 基于图像的寄生虫虫卵形状识别方法 | |
CN113191358B (zh) | 金属零件表面文本检测方法和*** | |
CN109829910A (zh) | 一种基于邻域查找的pcb缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170215 |
|
RJ01 | Rejection of invention patent application after publication |