CN103034856A - 定位图像中文字区域的方法及装置 - Google Patents
定位图像中文字区域的方法及装置 Download PDFInfo
- Publication number
- CN103034856A CN103034856A CN2012105523891A CN201210552389A CN103034856A CN 103034856 A CN103034856 A CN 103034856A CN 2012105523891 A CN2012105523891 A CN 2012105523891A CN 201210552389 A CN201210552389 A CN 201210552389A CN 103034856 A CN103034856 A CN 103034856A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- zone
- gray level
- positional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Input (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种定位图像中文字区域的方法,包括:获取原始图像;通过Roberts算子对所述原始图像进行转换生成灰度图像;将所述灰度图像二值化得到边缘图像;将所述边缘图像膨胀,提取所述边缘图像的连通域的位置信息。此外,还包括一种定位图像中文字区域的装置。上述定位图像中文字区域的方法及装置可以提高定位的准确性。
Description
技术领域
本发明涉及图像处理领域,特别是涉及一种定位图像中文字区域的方法及装置。
背景技术
商务活动中,用户通常采用名片作为表明身份的工具。但传统技术中的纸质名片不方便携带和保管,用户通常需要手动将纸质名片上的信息录入到智能终端中。
为了能够自动识别纸质名片上的信息,现用的名片管理软件通常需要先定位拍照得到的名片图像中的文字区域,然后再通过OCR(Optical CharacterRecognition,光学字符识别)***将文字区域转化成文本信息。
然而,传统技术中,定位图像中文字区域的方法不准确,会漏掉关键信息,使得定位的准确度不高。
发明内容
基于此,有必要提供一种能提高准确度的定位图像中文字区域的方法。
一种定位图像中文字区域的方法,包括:
获取原始图像;
通过Roberts算子对所述原始图像进行转换生成灰度图像;
将所述灰度图像二值化得到边缘图像;
将所述边缘图像膨胀,提取所述边缘图像的连通域的位置信息。
在其中一个实施例中,所述通过Roberts算子将所述原始图像转换成灰度图像的步骤为:
根据公式:
生成灰度图像;其中(i,j)为所述原始图像中的像素点,I(i,j,R)、I(i,j,G)和I(i,j,B)分别为像素点(i,j)的红绿蓝颜色分量,A1为像素点(i,j)与邻近的像素点(i+1,j+1)的彩色欧拉距离,A2为像素点(i,j+1)与邻近的像素点(i+1,j+1)的彩色欧拉距离,Ig(i,j)为所述生成的灰度图像在像素点(i,j)处的灰度值。
在其中一个实施例中,所述将所述灰度图像二值化得到边缘图像的步骤为:
通过最大类间方差算法对所述灰度图像进行二值化得到边缘图像。
在其中一个实施例中,所述提取所述边缘图像的连通域的位置信息的步骤为:
根据区域标记算法提取所述边缘图像的连通域的位置信息。
在其中一个实施例中,所述提取所述边缘图像的连通域的位置信息的步骤之后还包括:
获取所述连通域的纹理特征和/或直方图特征;
获取预设的支持向量机的分类器;
利用所述分类器根据所述纹理特征和/或直方图特征筛选所述位置信息。
此外,还有必要提供一种能提高准确度的定位图像中文字区域的装置。
一种定位图像中文字区域的装置,包括:
图像获取模块,用于获取原始图像;
灰度图像生成模块,用于通过Roberts算子对所述原始图像进行转换生成灰度图像;
图像二值化模块,用于将所述灰度图像二值化得到边缘图像;
区域定位模块,用于将所述边缘图像膨胀,提取所述边缘图像的连通域的位置信息。
在其中一个实施例中,所述灰度图像生成模块还用于根据公式:
生成灰度图像;其中(i,j)为所述原始图像中的像素点,I(i,j,R)、I(i,j,G)和I(i,j,B)分别为像素点(i,j)的红绿蓝颜色分量,A1为像素点(i,j)与邻近的像素点(i+1,j+1)的彩色欧拉距离,A2为像素点(i,j+1)与邻近的像素点(i+1,j+1)的彩色欧拉距离,Ig(i,j)为所述生成的灰度图像在像素点(i,j)处的灰度值。
在其中一个实施例中,所述图像二值化模块还用于通过最大类间方差算法对所述灰度图像进行二值化得到边缘图像。
在其中一个实施例中,所述区域定位模块还用于根据区域标记算法提取所述边缘图像的连通域的位置信息。
在其中一个实施例中,所述装置还包括区域筛选模块,用于获取所述连通域的纹理特征和/或直方图特征,获取预设的支持向量机的分类器,利用所述分类器根据所述纹理特征和/或直方图特征筛选所述位置信息。
上述定位图像中文字区域的方法及装置,先通过Roberts算子对原始图像进行转换,得到灰度值包含了边缘信息的灰度图像,然后通过将灰度图像二值化得到边缘图像,从而提取出了灰度图像中的边缘信息,然后通过将其膨胀即得到连通域的位置信息,即图像中文字区域在原始图像中所处的位置,使得定位更加准确。
附图说明
图1为一个实施例中定位图像中文字区域的方法的流程图;
图2为一个实施例中原始图像的效果图;
图3为一个实施例中边缘图像的效果图;
图4为一个实施例中获取到的连通域的位置信息的示意图;
图5为一个实施例中经过筛选后的连通域的位置信息的示意图;
图6为一个实施例中定位图像中文字区域的装置的结构示意图;
图7为另一个实施例中定位图像中文字区域的装置的结构示意图。
具体实施方式
在一个实施例中,如图1所示,一种定位图像中文字区域的方法,包括:
步骤S102,获取原始图像。
原始图像可通过拍照得到。例如,在一个场景中,可通过移动终端对名片进行拍照,获取拍照得到的相片图像。
步骤S104,通过Roberts算子对原始图像进行转换生成灰度图像。
Roberts算子是一种通过局部差分寻找边缘的算子。本实施例中,可根据公式:
生成灰度图像;其中(i,j)为原始图像中的像素点,I(i,j,R)、I(i,j,G)和I(i,j,B)分别为像素点(i,j)的红绿蓝颜色分量,A1为像素点(i,j)与邻近的像素点(i+1,j+1)的彩色欧拉距离,A2为像素点(i,j+1)与邻近的像素点(i+1,j+1)的彩色欧拉距离,Ig(i,j)为生成的灰度图像在像素点(i,j)处的灰度值。
由上述公式可以看出,若原始图像中的像素点(i+1,j+1)与其相邻的像素点(i,j)和(i,j+1)在红绿蓝颜色份量上差距较大,则在生成的灰度图像Ig中,像素点(i,j)的灰度值较大。也就是说,灰度图像Ig中灰度值较高的部分为原始图像中的边缘区域。
步骤S106,将灰度图像二值化得到边缘图像。
在本实施例中,可将步骤S 106生成灰度图像通过最大类间方差算法对区域块进行二值化得到边缘图像。
最大类间方差算法又叫大津算法(OTSU算法)。该算法通过遍历图像区域中的像素点得到阈值T,且阈值T使得灰度图像的最大类间方差的值为最大值,然后根据阈值T将图像区域二值化。即灰度图像中灰度值小于阈值T的像素点在二值化后得到的边缘图像中对应的像素点的灰度值为0;灰度图像中灰度值大于阈值T的像素点在二值化后得到的边缘图像中对应的像素点的灰度值为255。
在本实施例中,通过遍历图像区域中的像素点得到阈值T的步骤之前还可根据预设的阈值区间对像素点进行过滤。优选的,阈值区间为:
(Min+w1×Len,Max+w2×Len);
且Len=Max-Min+1
其中,Min为灰度图像中灰度值的最小值,Max为灰度图像中灰度值的最大值,Len为中间变量,w1和w2为权重系数,优选的w1和w2均取值于0.1至0.4之间。
也就是说,可预先根据上述阈值区间过滤掉灰度值过低或者灰度值过高的像素点,然后根据最大类间方差算法遍历属于上述阈值区间内的像素点得到阈值T。过滤掉灰度值过低或过高的部分,可去除低灰度像素点和高灰度像素点对阈值T的影响,从而使得定位更加准确。
步骤S108,将边缘图像膨胀,提取边缘图像的连通域的位置信息。
二值图像的膨胀即通过采用结构元素遍历图像中的像素点,若结构元素覆盖的像素点中存在灰度值为0的像素点,则膨胀后的边缘图像中,该结构元素覆盖的区域内的像素点的灰度值均为0。结构元素即像素大小为M×N的模板,在本实施例中,M和N为3,即结构元素为3×3大小的模板。
在本实施例中,提取边缘图像的连通域的位置信息的步骤可具体为:根据区域标记算法提取边缘图像的连通域的位置信息。
区域标记算法可将膨胀后的边缘图像(二值化后的灰度图像)中灰度值相同且连续的像素点构成的连通域(连续的图像区域)标记出来,并获取其位置信息。
在本实施例中,进一步的,提取边缘图像的连通域的位置信息的步骤之后还可获取连通域的纹理特征和/或直方图特征,获取预设的支持向量机的分类器,利用分类器根据纹理特征和/或直方图特征筛选位置信息。
可预先提取具有典型文字特征的训练图像的纹理特征和/或直方图特征,然后将其输入支持向量机中从而生成分类器的核函数。在获取到边缘图像的连通域的位置信息之后,再获取连通域的位置信息标定的图像区域的纹理特征和/或直方图特征,并输入到支持向量机中,通过分类器的核函数对连通域进行筛选,从而筛选出符合典型文字特征的图像区域。
由于通过上述步骤S102、步骤S102、步骤S106步骤S108得到的图像区域中,可能包含非文字类型的图像区域,例如,文字型的logo,矢量图等,通过支持向量机的分类器对其进行筛选,可以更加准确地获取具有典型文字特征的图像区域,从而使得定位更加准确。
在一个实施例中,请同时参考图2、图3、图4和图5,其中,图2为拍照采集的名片(虚拟人物)的原始图像,图3为二值化后得到边缘图像,图4为采用区域标记算法得到的连通域的位置信息的效果图,该位置信息以矩形框的形式展示,图5为经过分类器筛选后得到的连通域的位置信息,该位置信息以矩形框的形式展示。由上述示例图可以看出,该名片图像中的文字区域的位置信息已被准确地提取出来。
在一个实施例中,如图6所示,一种定位图像中文字区域的装置,包括:图像获取模块102、图像模糊模块104、混合系数获取模块106以及图像混合模块108。其中:
图像获取模块102,用于获取原始图像。
原始图像可通过拍照得到。例如,在一个场景中,可通过移动终端对名片进行拍照,获取拍照得到的相片图像。
灰度图像生成模块104,用于通过Roberts算子对原始图像进行转换生成灰度图像。
Roberts算子是一种通过局部差分寻找边缘的算子。本实施例中,灰度图像生成模块104可用于根据公式:
生成灰度图像;其中(i,j)为原始图像中的像素点,I(i,j,R)、I(i,j,G)和I(i,j,B)分别为像素点(i,j)的红绿蓝颜色分量,A1为像素点(i,j)与邻近的像素点(i+1,j+1)的彩色欧拉距离,A2为像素点(i,j+1)与邻近的像素点(i+1,j+1)的彩色欧拉距离,Ig(i,j)为生成的灰度图像在像素点(i,j)处的灰度值。
由上述公式可以看出,若原始图像中的像素点(i+1,j+1)与其相邻的像素点(i,j)和(i,j+1)在红绿蓝颜色份量上差距较大,则在生成的灰度图像Ig中,像素点(i,j)的灰度值较大。也就是说,灰度图像Ig中灰度值较高的部分为原始图像中的边缘区域。
图像二值化模块106,用于将灰度图像二值化得到边缘图像。
在本实施例中,图像二值化模块106可用于将灰度图像生成模块104生成灰度图像通过最大类间方差算法对区域块进行二值化得到边缘图像。
最大类间方差算法又叫大津算法(OTSU算法)。该算法通过遍历图像区域中的像素点得到阈值T,且阈值T使得灰度图像的最大类间方差的值为最大值,然后根据阈值T将图像区域二值化。即灰度图像中灰度值小于阈值T的像素点在二值化后得到的边缘图像中对应的像素点的灰度值为0;灰度图像中灰度值大于阈值T的像素点在二值化后得到的边缘图像中对应的像素点的灰度值为255。
在本实施例中,图像二值化模块106还可用于根据预设的阈值区间对像素点进行过滤。优选的,阈值区间为:
(Min+w1×Len,Max+w2×Len);
且Len=Max-Min+1
其中,Min为灰度图像中灰度值的最小值,Max为灰度图像中灰度值的最大值,Len为中间变量,w1和w2为权重系数,优选的w1和w2均取值于0.1至0.4之间。
也就是说,可预先根据上述阈值区间过滤掉灰度值过低或者灰度值过高的像素点,然后根据最大类间方差算法遍历属于上述阈值区间内的像素点得到阈值T。过滤掉灰度值过低或过高的部分,可去除低灰度像素点和高灰度像素点对阈值T的影响,从而使得定位更加准确。
区域定位模块108,用于将边缘图像膨胀,提取边缘图像的连通域的位置信息。
二值图像的膨胀即通过采用结构元素遍历图像中的像素点,若结构元素覆盖的像素点中存在灰度值为0的像素点,则膨胀后的边缘图像中,该结构元素覆盖的区域内的像素点的灰度值均为0。结构元素即像素大小为M×N的模板,在本实施例中,M和N为3,即结构元素为3×3大小的模板。
在本实施例中,区域定位模块108可用于根据区域标记算法提取边缘图像的连通域的位置信息。
区域标记算法可将膨胀后的边缘图像(二值化后的灰度图像)中灰度值相同且连续的像素点构成的连通域(连续的图像区域)标记出来,并获取其位置信息。
在本实施例中,如图7所示,进一步的,定位图像中文字区域的装置还包括区域筛选模块110,用于获取连通域的纹理特征和/或直方图特征,获取预设的支持向量机的分类器,利用分类器根据纹理特征和/或直方图特征筛选位置信息。
可预先提取具有典型文字特征的训练图像的纹理特征和/或直方图特征,然后将其输入支持向量机中从而生成分类器的核函数。在获取到边缘图像的连通域的位置信息之后,区域筛选模块110可用于获取连通域的位置信息标定的图像区域的纹理特征和/或直方图特征,并输入到支持向量机中,通过分类器的核函数对连通域进行筛选,从而筛选出符合典型文字特征的图像区域。
由于通过前述模块得到的图像区域中,可能包含非文字类型的图像区域,例如,文字形的logo,矢量图等,通过支持向量机的分类器对其进行筛选,可以更加准确地获取具有典型文字特征的图像区域,从而使得定位更加准确。
在一个实施例中,请同时参考图2、图3、图4和图5,其中,图2为拍照采集的名片(虚拟人物)的原始图像,图3为二值化后得到边缘图像,图4为采用区域标记算法得到的连通域的位置信息的效果图,该位置信息以矩形框的形式展示,图5为经过分类器筛选后得到的连通域的位置信息,该位置信息以矩形框的形式展示。由上述示例图可以看出,该名片图像中的文字区域的位置信息已被准确地提取出来。
上述定位图像中文字区域的方法及装置,先通过Roberts算子对原始图像进行转换,得到灰度值包含了边缘信息的灰度图像,然后通过将灰度图像二值化得到边缘图像,从而提取出了灰度图像中的边缘信息,然后通过将其膨胀即得到连通域的位置信息,即图像中文字区域在原始图像中所处的位置,使得定位更加准确。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种定位图像中文字区域的方法,包括:
获取原始图像;
通过Roberts算子对所述原始图像进行转换生成灰度图像;
将所述灰度图像二值化得到边缘图像;
将所述边缘图像膨胀,提取所述边缘图像的连通域的位置信息。
2.根据权利要求1所述的定位图像中文字区域的方法,其特征在于,所述通过Roberts算子将所述原始图像转换成灰度图像的步骤为:
根据公式:
生成灰度图像;其中(i,j)为所述原始图像中的像素点,I(i,j,R)、I(i,j,G)和I(i,j,B)分别为像素点(i,j)的红绿蓝颜色分量,A1为像素点(i,j)与邻近的像素点(i+1,j+1)的彩色欧拉距离,A2为像素点(i,j+1)与邻近的像素点(i+1,j+1)的彩色欧拉距离,Ig(i,j)为所述生成的灰度图像在像素点(i,j)处的灰度值。
3.根据权利要求1所述的定位图像中文字区域的方法,其特征在于,所述将所述灰度图像二值化得到边缘图像的步骤为:
通过最大类间方差算法对所述灰度图像进行二值化得到边缘图像。
4.根据权利要求1所述的定位图像中文字区域的方法,其特征在于,所述提取所述边缘图像的连通域的位置信息的步骤为:
根据区域标记算法提取所述边缘图像的连通域的位置信息。
5.根据权利要求1所述的定位图像中文字区域的方法,其特征在于,所述提取所述边缘图像的连通域的位置信息的步骤之后还包括:
获取所述连通域的纹理特征和/或直方图特征;
获取预设的支持向量机的分类器;
利用所述分类器根据所述纹理特征和/或直方图特征筛选所述位置信息。
6.一种定位图像中文字区域的装置,其特征在于,包括:
图像获取模块,用于获取原始图像;
灰度图像生成模块,用于通过Roberts算子对所述原始图像进行转换生成灰度图像;
图像二值化模块,用于将所述灰度图像二值化得到边缘图像;
区域定位模块,用于将所述边缘图像膨胀,提取所述边缘图像的连通域的位置信息。
7.根据权利要求6所述的定位图像中文字区域的装置,其特征在于,所述灰度图像生成模块还用于根据公式:
生成灰度图像;其中(i,j)为所述原始图像中的像素点,I(i,j,R)、I(i,j,G)和I(i,j,B)分别为像素点(i,j)的红绿蓝颜色分量,A1为像素点(i,j)与邻近的像素点(i+1,j+1)的彩色欧拉距离,A2为像素点(i,j+1)与邻近的像素点(i+1,j+1)的彩色欧拉距离,Ig(i,j)为所述生成的灰度图像在像素点(i,j)处的灰度值。
8.根据权利要求6所述的定位图像中文字区域的装置,其特征在于,所述图像二值化模块还用于通过最大类间方差算法对所述灰度图像进行二值化得到边缘图像。
9.根据权利要求6所述的定位图像中文字区域的装置,其特征在于,所述区域定位模块还用于根据区域标记算法提取所述边缘图像的连通域的位置信息。
10.根据权利要求6所述的定位图像中文字区域的装置,其特征在于,所述装置还包括区域筛选模块,用于获取所述连通域的纹理特征和/或直方图特征,获取预设的支持向量机的分类器,利用所述分类器根据所述纹理特征和/或直方图特征筛选所述位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210552389.1A CN103034856B (zh) | 2012-12-18 | 2012-12-18 | 定位图像中文字区域的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210552389.1A CN103034856B (zh) | 2012-12-18 | 2012-12-18 | 定位图像中文字区域的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103034856A true CN103034856A (zh) | 2013-04-10 |
CN103034856B CN103034856B (zh) | 2016-01-20 |
Family
ID=48021735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210552389.1A Expired - Fee Related CN103034856B (zh) | 2012-12-18 | 2012-12-18 | 定位图像中文字区域的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103034856B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106033528A (zh) * | 2015-03-09 | 2016-10-19 | 富士通株式会社 | 从彩色文档图像中提取特定区域的方法和设备 |
CN106127751A (zh) * | 2016-06-20 | 2016-11-16 | 北京小米移动软件有限公司 | 图像检测方法、装置以及*** |
CN106250831A (zh) * | 2016-07-22 | 2016-12-21 | 北京小米移动软件有限公司 | 图像检测方法、装置和用于图像检测的装置 |
WO2017140233A1 (zh) * | 2016-02-18 | 2017-08-24 | 腾讯科技(深圳)有限公司 | 文字检测方法及***、设备、存储介质 |
CN108573251A (zh) * | 2017-03-15 | 2018-09-25 | 北京京东尚科信息技术有限公司 | 文字区域定位方法和装置 |
CN108597003A (zh) * | 2018-04-20 | 2018-09-28 | 腾讯科技(深圳)有限公司 | 一种文章封面生成方法、装置、处理服务器及存储介质 |
CN108647680A (zh) * | 2018-04-28 | 2018-10-12 | 北京盒子鱼教育科技有限公司 | 图像定位框检测方法和装置 |
CN109389150A (zh) * | 2018-08-28 | 2019-02-26 | 东软集团股份有限公司 | 图像一致性比对方法、装置、存储介质及电子设备 |
CN109874051A (zh) * | 2019-02-21 | 2019-06-11 | 百度在线网络技术(北京)有限公司 | 视频内容处理方法、装置及设备 |
CN109993749A (zh) * | 2017-12-29 | 2019-07-09 | 北京京东尚科信息技术有限公司 | 提取目标图像的方法和装置 |
CN110058991A (zh) * | 2018-11-30 | 2019-07-26 | 阿里巴巴集团控股有限公司 | 一种应用软件的自动测试方法和*** |
WO2020248676A1 (zh) * | 2019-06-13 | 2020-12-17 | 深圳云里物里科技股份有限公司 | 一种电子价签显示方法、***及服务器和存储介质 |
CN112308057A (zh) * | 2020-10-13 | 2021-02-02 | 山东国赢大数据产业有限公司 | 一种基于文字位置信息的ocr优化方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5818964A (en) * | 1994-12-27 | 1998-10-06 | Texas Instruments Incorporated | Method and apparatus for selecting an adaptive filter for image data |
CN101430768A (zh) * | 2007-11-07 | 2009-05-13 | 刘涛 | 一种二维条码***及其定位方法 |
CN102375985A (zh) * | 2010-08-10 | 2012-03-14 | 富士通株式会社 | 目标检测方法和设备 |
CN102496020A (zh) * | 2011-10-31 | 2012-06-13 | 天津大学 | 基于累积边缘点可视灰度范围直方图的图像二值化方法 |
-
2012
- 2012-12-18 CN CN201210552389.1A patent/CN103034856B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5818964A (en) * | 1994-12-27 | 1998-10-06 | Texas Instruments Incorporated | Method and apparatus for selecting an adaptive filter for image data |
CN101430768A (zh) * | 2007-11-07 | 2009-05-13 | 刘涛 | 一种二维条码***及其定位方法 |
CN102375985A (zh) * | 2010-08-10 | 2012-03-14 | 富士通株式会社 | 目标检测方法和设备 |
CN102496020A (zh) * | 2011-10-31 | 2012-06-13 | 天津大学 | 基于累积边缘点可视灰度范围直方图的图像二值化方法 |
Non-Patent Citations (1)
Title |
---|
刘倩: "基于彩色图像的文本区域提取研究", 《西南交通大学研究生学位论文》, 15 September 2003 (2003-09-15) * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106033528A (zh) * | 2015-03-09 | 2016-10-19 | 富士通株式会社 | 从彩色文档图像中提取特定区域的方法和设备 |
WO2017140233A1 (zh) * | 2016-02-18 | 2017-08-24 | 腾讯科技(深圳)有限公司 | 文字检测方法及***、设备、存储介质 |
CN106127751A (zh) * | 2016-06-20 | 2016-11-16 | 北京小米移动软件有限公司 | 图像检测方法、装置以及*** |
CN106127751B (zh) * | 2016-06-20 | 2020-04-14 | 北京小米移动软件有限公司 | 图像检测方法、装置以及*** |
CN106250831A (zh) * | 2016-07-22 | 2016-12-21 | 北京小米移动软件有限公司 | 图像检测方法、装置和用于图像检测的装置 |
CN108573251A (zh) * | 2017-03-15 | 2018-09-25 | 北京京东尚科信息技术有限公司 | 文字区域定位方法和装置 |
CN108573251B (zh) * | 2017-03-15 | 2021-09-07 | 北京京东尚科信息技术有限公司 | 文字区域定位方法和装置 |
US11017260B2 (en) | 2017-03-15 | 2021-05-25 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Text region positioning method and device, and computer readable storage medium |
CN109993749A (zh) * | 2017-12-29 | 2019-07-09 | 北京京东尚科信息技术有限公司 | 提取目标图像的方法和装置 |
CN108597003A (zh) * | 2018-04-20 | 2018-09-28 | 腾讯科技(深圳)有限公司 | 一种文章封面生成方法、装置、处理服务器及存储介质 |
CN108647680A (zh) * | 2018-04-28 | 2018-10-12 | 北京盒子鱼教育科技有限公司 | 图像定位框检测方法和装置 |
CN108647680B (zh) * | 2018-04-28 | 2021-11-12 | 北京盒子鱼教育科技有限公司 | 图像定位框检测方法和装置 |
CN109389150A (zh) * | 2018-08-28 | 2019-02-26 | 东软集团股份有限公司 | 图像一致性比对方法、装置、存储介质及电子设备 |
CN110058991A (zh) * | 2018-11-30 | 2019-07-26 | 阿里巴巴集团控股有限公司 | 一种应用软件的自动测试方法和*** |
CN109874051A (zh) * | 2019-02-21 | 2019-06-11 | 百度在线网络技术(北京)有限公司 | 视频内容处理方法、装置及设备 |
WO2020248676A1 (zh) * | 2019-06-13 | 2020-12-17 | 深圳云里物里科技股份有限公司 | 一种电子价签显示方法、***及服务器和存储介质 |
US11763504B2 (en) | 2019-06-13 | 2023-09-19 | Shenzhen Minew Technologies Co Ltd | Method for displaying electronic price tag, server and storage medium |
CN112308057A (zh) * | 2020-10-13 | 2021-02-02 | 山东国赢大数据产业有限公司 | 一种基于文字位置信息的ocr优化方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN103034856B (zh) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103034856B (zh) | 定位图像中文字区域的方法及装置 | |
CN102163284B (zh) | 面向中文环境的复杂场景文本定位方法 | |
CN104200209B (zh) | 一种图像文字检测方法 | |
EP3232371A1 (en) | Object recognition method, object recognition device, and classifier training method | |
CN103942797B (zh) | 基于直方图和超像素的场景图像文字检测方法及*** | |
CN104616021B (zh) | 交通标志图像处理方法及装置 | |
CN108146093B (zh) | 一种去除票据***的方法 | |
CN102956029B (zh) | 图像处理装置以及图像处理方法 | |
CN104794479B (zh) | 基于局部笔画宽度变换的自然场景图片中文本检测方法 | |
CN105516590B (zh) | 一种图片处理方法及装置 | |
US20060153452A1 (en) | Visual enhancement for reduction of visual noise in a text field | |
US10455163B2 (en) | Image processing apparatus that generates a combined image, control method, and storage medium | |
KR20130066819A (ko) | 촬영 이미지 기반의 문자 인식 장치 및 방법 | |
Panchal et al. | Character detection and recognition system for visually impaired people | |
KR20110129158A (ko) | 영상 처리 시스템에서의 객체 후보 영역 검출 방법 및 시스템 | |
CN102915522A (zh) | 一种智能手机的名片提取***及其实现方法 | |
Grover et al. | Text extraction from document images using edge information | |
JP2010074342A (ja) | 画像処理装置、画像形成装置、及びプログラム | |
CN107145883A (zh) | 文本检测方法和设备 | |
Nor et al. | Image segmentation and text extraction: application to the extraction of textual information in scene images | |
CN106469267B (zh) | 一种验证码样本收集方法及*** | |
Tsai et al. | Text detection in bus panel for visually impaired people" seeing" bus route number | |
KR20150047060A (ko) | 명함 이미지 여부를 판별하는 장치 및 방법 | |
JP7156771B1 (ja) | 個人情報マスキング方法、及び個人情報マスキング装置 | |
Huang et al. | A new video text extraction method based on stroke |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160120 Termination date: 20181218 |