JPH0581475A - Character area extracting method - Google Patents

Character area extracting method

Info

Publication number
JPH0581475A
JPH0581475A JP3329956A JP32995691A JPH0581475A JP H0581475 A JPH0581475 A JP H0581475A JP 3329956 A JP3329956 A JP 3329956A JP 32995691 A JP32995691 A JP 32995691A JP H0581475 A JPH0581475 A JP H0581475A
Authority
JP
Japan
Prior art keywords
character string
character
area
image
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3329956A
Other languages
Japanese (ja)
Other versions
JP3187895B2 (en
Inventor
Takashi Saito
高志 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP32995691A priority Critical patent/JP3187895B2/en
Publication of JPH0581475A publication Critical patent/JPH0581475A/en
Application granted granted Critical
Publication of JP3187895B2 publication Critical patent/JP3187895B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PURPOSE:To accurately extract a character string area and a column from a slanting image. CONSTITUTION:A document is inputted as a binary image by an image input part 101 such as a scanner. An image tilt detection part 102 detects the tilt from the input image and an image reduction part 103 reduces the input image. A run-length data generation part 104 generates run-length data from the reduced image and a block generation and classification part 105 extracts a block by performing a defocusing process for the run-length data and classifies the block by a character string determined area and a character string candidate area. A character area integration part 106 integrates the character string determined area and character string candidate area in the character string and column.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、所定の書式で書かれた
文書画像中から文字列、コラムを抽出する文字領域抽出
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character area extracting method for extracting character strings and columns from a document image written in a predetermined format.

【0002】[0002]

【従来の技術】従来から文字列の抽出方法として、種々
のアルゴリズムが提案されているが、その代表的なもの
を挙げると、その第1の方法は、黒画素の水平、垂直方
向のヒストグラムをとり、黒画素の分布の高い部分を文
字列として抽出する方法がある(例えば、電子通信学会
論文誌、83年 Vol.J66−DNo.1 pp.111〜
118、同86/8 Vol.J69−D No.8,pp.1
187−1195)。
2. Description of the Related Art Conventionally, various algorithms have been proposed as a method for extracting a character string. A typical method is to extract a histogram of black pixels in the horizontal and vertical directions. For example, there is a method of extracting a portion having a high distribution of black pixels as a character string (eg, Institute of Electronics and Communication Engineers, 1983, Vol. J66-DNo.1 pp.111-).
118, same 86/8 Vol.J69-D No.8, pp.1
187-1195).

【0003】第2の方法としては、文字列方向のスキャ
ンラインの短い白ランを黒ランに置き換えることによ
り、小さな白領域を一旦黒で埋めてしまい、その後、黒
の連結領域を求め、この連結領域を文書の構成要素とし
て抽出した後に、領域の大きいものを写真、文字列方向
に長いものは文字列として判定する方法がある(Compu
ter Graphics and Image Processing 20,375
〜390,1982)。
As a second method, a small white area is once filled with black by replacing a white run with a short scan line in the character string direction with a black run, and then a black connected area is obtained, and this connected area is obtained. After extracting a region as a component of a document, there is a method of determining a large region as a photograph and a long region as a character string (Compu
ter Graphics and Image Processing 20,375
~ 390, 1982).

【0004】第3の方法としては、画像中の黒画素連結
成分の外接矩形の大きさから図、文字、文字の一部、ノ
イズ等に分類し、文字および文字の一部を文字列方向に
統合処理する方法がある(特開昭62−165284号
公報)。
As a third method, the size of the circumscribed rectangle of the black pixel connected component in the image is classified into a figure, a character, a part of the character, noise, etc., and the character and the part of the character are arranged in the character string direction. There is a method of integrated processing (Japanese Patent Laid-Open No. 62-165284).

【0005】[0005]

【発明が解決しようとする課題】上記第1の方法は、画
像が傾いている場合に文字列の方向が投射面に対して垂
直でなくなるため、画像の傾きを補正する必要があり、
その補正のための処理量が多くなり、また、画像中に写
真領域が存在している場合には、文字列の黒画素の分布
と写真の黒画素の分布とを識別することが困難であっ
た。
In the first method, when the image is tilted, the direction of the character string is not perpendicular to the projection surface, so it is necessary to correct the tilt of the image.
The amount of processing for the correction is large, and when there is a photo area in the image, it is difficult to distinguish the black pixel distribution of the character string from the black pixel distribution of the photo. It was

【0006】また、第2の方法では、反転する白ランの
長さが問題となる。すなわち、反転の閾値を長くする
と、文字列が図や写真等の領域と統合されたり、あるい
は別の文章領域の文字列と統合される場合が生じる。他
方、反転の閾値を短くすると、多数の文字列に分離され
ることになり、このような分離状態からの文字列、さら
にはコラムの抽出が難しいという問題があった。
In the second method, the length of the white run to be reversed becomes a problem. That is, if the inversion threshold value is increased, a character string may be integrated with an area such as a figure or a photograph, or may be integrated with a character string in another text area. On the other hand, when the inversion threshold value is shortened, the character string is separated into a large number of character strings, and there is a problem that it is difficult to extract the character string and the column from such a separated state.

【0007】第3の方法では、黒画素の外接矩形を処理
単位としているので、処理量が多くなり、また局所的な
情報を用いて統合処理を行っているので、ノイズや統合
時の距離等のパラメータに影響される傾向が強く、文字
列の統合に失敗することもある。
In the third method, since a circumscribed rectangle of black pixels is used as a processing unit, the processing amount is large, and since integration processing is performed using local information, noise, distance at integration, etc. There is a strong tendency to be affected by the parameters of and the string integration may fail.

【0008】本発明の目的は、傾きのある画像から正確
に文字列領域およびコラムの抽出を可能とする文字領域
抽出方法を提供することにある。
It is an object of the present invention to provide a character area extraction method which enables accurate extraction of a character string area and a column from an inclined image.

【0009】本発明の他の目的は、長い文字列の下に、
行間や文字サイズの類似したコラムが並んでいても確実
にコラムを抽出することができる文字領域抽出方法を提
供することにある。
Another object of the present invention is to provide a long string
An object of the present invention is to provide a character area extraction method that can reliably extract columns even if columns with similar line spacing or similar character sizes are lined up.

【0010】本発明の更に他の目的は、ぼかし処理によ
って融合した行を検出して、正確に行を抽出することが
できる文字領域抽出方法を提供することにある。
Still another object of the present invention is to provide a character area extraction method capable of detecting a line fused by a blurring process and accurately extracting the line.

【0011】[0011]

【課題を解決するための手段】前記目的を達成するため
に、請求項1記載の発明では、文書画像から文字領域を
抽出する方法において、文書画像を文字列方向にスキャ
ンして入力するステップと、入力文書画像の傾きを検出
するステップと、該入力文書画像を縮小するステップ
と、縮小された画像のランレングスデータを作成するス
テップと、該ランレングスデータから、所定の閾値以上
の長さの白ランによって区切られた黒ランと短い白ラン
の繋がりを一つの範囲とする、ぼかし処理を行うステッ
プと、該範囲で上下に連絡するランの集合をブロックと
して抽出するステップと、該抽出されたブロックを文字
列確定領域と文字列候補領域に分類するステップと、該
分類された領域を統合することによって文字列を抽出す
るステップとを有することを特徴としている。
In order to achieve the above object, according to the invention of claim 1, in a method of extracting a character area from a document image, a step of scanning and inputting the document image in a character string direction, , A step of detecting the inclination of the input document image, a step of reducing the input document image, a step of creating run length data of the reduced image, and a step of generating a length of a predetermined threshold value or more from the run length data. A step of performing a blurring process in which a connection between a black run and a short white run separated by a white run is set as one range, a step of extracting a set of runs that are vertically connected in the range as a block, and the extracted There is a step of classifying the block into a character string fixed area and a character string candidate area, and a step of extracting a character string by integrating the classified areas. It is characterized in that.

【0012】請求項2に記載の発明では、前記文字列と
包含関係にある他の文字列を統合して文字列を更新する
ことを特徴としている。
The invention according to claim 2 is characterized in that another character string having an inclusive relation with the character string is integrated to update the character string.

【0013】請求項3に記載の発明では、前記文字列方
向に対して垂直方向に並ぶ文字列を統合してコラムを抽
出することを特徴としている。
According to a third aspect of the present invention, the character strings arranged in the direction perpendicular to the character string direction are integrated to extract the column.

【0014】請求項4に記載の発明では、前記文字列方
向において複数の文字列によって文字行が構成され、該
複数の文字列の内、任意の文字列間が所定の距離以上離
れているとき、該文字列間で文字行を分割し、該分割さ
れた文字行をそれぞれコラムとして抽出することを特徴
としている。
According to a fourth aspect of the present invention, when a character line is formed by a plurality of character strings in the character string direction, and any character string among the plurality of character strings is separated by a predetermined distance or more. Character lines are divided between the character strings, and the divided character lines are extracted as columns.

【0015】請求項5に記載の発明では、文書画像にぼ
かし処理を施こすことによってブロックを抽出し、該抽
出されたブロックを文字列領域とそれ以外の領域に分類
し、該分類された文字列領域を統合することによって文
字領域を抽出する方法において、該抽出された文字列領
域内で複数の文字行の融合を検出するステップと、該融
合した行を分離するステップとを有することを特徴とし
ている。
According to the fifth aspect of the invention, blocks are extracted by subjecting the document image to blurring processing, the extracted blocks are classified into a character string area and other areas, and the classified characters are classified. A method of extracting a character region by integrating column regions, comprising: detecting a fusion of a plurality of character lines in the extracted character string region; and separating the fused lines. I am trying.

【0016】[0016]

【作用】実施例1では、スキャナ等の画像入力部によっ
て文書を2値画像として取り込み、画像傾き検出部は、
入力画像から傾きを検出し、画像縮小部において入力画
像を縮小する。縮小画像からランレングスデータを生成
し、ブロック生成、分類部は、ランレングスデータに対
してぼかし処理を施すことによってブロックを抽出し、
ブロックを文字列確定領域と文字列候補領域に分類す
る。文字領域統合部は、文字列確定領域と文字列候補領
域を文字列、コラムへと統合する。
In the first embodiment, a document is captured as a binary image by an image input unit such as a scanner, and the image inclination detection unit
The inclination is detected from the input image, and the input image is reduced in the image reduction unit. Run length data is generated from the reduced image, and the block generation and classification unit extracts blocks by performing blurring processing on the run length data,
The blocks are classified into a character string confirmation area and a character string candidate area. The character area integration unit integrates the character string confirmation area and the character string candidate area into a character string and a column.

【0017】実施例2では、統合されたコラムの最下行
において、文字行が複数の文字列によって構成されてい
るとき、これら文字列の間隔が閾値以上あるか調べる。
間隔が閾値以上であれば、文字行を文字列間で分割し、
これら分割された文字行をそれぞれ新しいコラムとす
る。
In the second embodiment, when the character line is composed of a plurality of character strings in the bottom line of the integrated column, it is checked whether the space between these character strings is equal to or more than a threshold value.
If the spacing is greater than or equal to the threshold, split the character line between the strings,
Each of these divided character lines becomes a new column.

【0018】[0018]

【実施例】以下、本発明の一実施例を図面を用いて具体
的に説明する。図1は、本発明の実施例のブロック構成
図であり、101は、文書画像を取り込むスキャナ等の
画像入力部、102は、画像の傾きを検出する画像傾き
検出部、103は、入力画像を縮小する画像縮小部、1
04は、縮小画像からランレングスデータを生成するラ
ンレングスデータ生成部、105は、生成されたランレ
ングスデータに対して、後述するぼかし処理を施すこと
によってブロックを生成し、生成されたブロックを文字
列確定領域と文字列候補領域に分類するブロック生成・
分類部、106は、生成されたブロックの内、文字列確
定領域と文字列候補領域から文字列、コラムへと統合処
理する文字領域統合部、107は、入力画像や縮小画
像、生成されたブロック情報等の各種データを一時記憶
するデータ記憶部、108は、各部に動作指示を与えて
制御する制御部である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be specifically described below with reference to the drawings. FIG. 1 is a block configuration diagram of an embodiment of the present invention, 101 is an image input unit such as a scanner that captures a document image, 102 is an image inclination detection unit that detects an image inclination, and 103 is an input image. Image reduction unit for reduction, 1
Reference numeral 04 denotes a run-length data generation unit that generates run-length data from a reduced image, and 105 generates a block by performing a blurring process, which will be described later, on the generated run-length data, and the generated block is a character. Block generation that classifies into a definite area and a character string candidate area
A classification unit 106 is a character region integration unit that performs an integration process from a character string confirmation region and a character string candidate region to a character string and a column in the generated blocks, and 107 is an input image, a reduced image, and a generated block. A data storage unit 108 that temporarily stores various data such as information is a control unit that gives an operation instruction to each unit and controls the operation.

【0019】図2および図3は、本発明の処理の流れを
示すフローチャートである。以下、本発明の動作を図を
参照して詳細に説明する。図2のステップ201では、
スキャナ等の画像入力部101によって文書を2値画像
として取り込む。次いで、ステップ202において、画
像傾き検出部102は入力画像から傾きを検出する。こ
の傾きの検出方法としては、例えば、文書画像に対して
2次元フーリエ変換処理を行うことによって画像の傾き
を検出する方法(情報処理学会第22回全国大会、pp
677−678)、あるいは画像を複数の帯状領域に分
割し、各領域内における周辺分布を求め、周辺分布間の
位相のずれから画像の傾きを検出する方法(電子通信学
会論文誌、1983年 Vol.J66−D No.1 pp.
111〜118)等を用いればよい。
2 and 3 are flowcharts showing the flow of processing of the present invention. Hereinafter, the operation of the present invention will be described in detail with reference to the drawings. In step 201 of FIG. 2,
The document is captured as a binary image by the image input unit 101 such as a scanner. Next, in step 202, the image tilt detection unit 102 detects tilt from the input image. As a method of detecting this inclination, for example, a method of detecting the inclination of an image by performing a two-dimensional Fourier transform process on a document image (The 22nd National Convention of Information Processing Society, pp.
677-678) or a method in which an image is divided into a plurality of strip-shaped regions, the peripheral distribution in each region is obtained, and the inclination of the image is detected from the phase shift between the peripheral distributions (The Institute of Electronics and Communication Engineers, 1983 Vol. .J66-D No. 1 pp.
111-118) or the like may be used.

【0020】ステップ203では、画像縮小部103に
おいて入力画像を縮小する。この画像の縮小の比率は、
上下の文字や異なるコラムの文字が上下左右で接触しな
い程度に縦横に画像を縮小するものであり、例えば40
0dpiの解像度で入力した場合、横8画素、縦4画素
の計32画素を1画素に縮小する。
In step 203, the image reduction unit 103 reduces the input image. The reduction ratio of this image is
The image is vertically and horizontally reduced to the extent that upper and lower characters and characters in different columns do not come in contact with the upper, lower, left and right sides.
When inputting with a resolution of 0 dpi, a total of 32 pixels of 8 pixels horizontally and 4 pixels vertically are reduced to 1 pixel.

【0021】ランレングスデータ生成部104は、この
縮小画像からランレングスデータを生成する(ステップ
204)。次いで、ブロック生成・分類部105は、生
成されたランレングスデータに対してぼかし処理を施す
ことによってブロックを抽出する(ステップ205)。
The run length data generator 104 generates run length data from this reduced image (step 204). Next, the block generation / classification unit 105 extracts blocks by performing blurring processing on the generated run length data (step 205).

【0022】ここで、ぼかし処理とは、スキャンライン
方向に連なるランにおいて、セパレータすなわち閾値以
上の長い白ランによって区切られた黒ランと短い白ラン
の集合をいう。すなわち、図4のスキャンライン30
1、302において、303、304、305が長い白
ランであり、306、307、308、309、310
がぼかし処理で得られたランの集合である。また、ぼか
し処理で得られたランの集合で、上下に連結するものを
統合してブロックとする。図4では、ランの集合306
と307が一つのブロックを構成し、308から310
がまた一つのブロックを構成する。
The term "blurring process" as used herein refers to a set of black runs and short white runs that are separated by separators, that is, long white runs that are equal to or greater than a threshold value, in runs that run in the scan line direction. That is, the scan line 30 of FIG.
In 1, 302, 303, 304, 305 are long white runs, and 306, 307, 308, 309, 310.
Is a set of runs obtained by the blurring process. Further, in the set of runs obtained by the blurring process, those that are connected vertically are integrated into a block. In FIG. 4, the set of runs 306
And 307 form one block, and 308 to 310
Form another block.

【0023】本発明のぼかし処理において、そのぼかし
処理の基準となる白ランの長さは、異なる文章の文字列
間よりも少し短い程度(つまり、文字列が融合しない程
度)、例えば、400dpiの解像度の場合、横8画素
かける縦4画素の縮小画像では、3画素以上の白ランを
長い白ランとする。
In the blurring process of the present invention, the length of the white run, which is the basis of the blurring process, is a little shorter than the character strings of different sentences (that is, the character strings are not fused), for example, 400 dpi. In the case of resolution, a white run of 3 pixels or more is a long white run in a reduced image of 8 horizontal pixels × 4 vertical pixels.

【0024】ブロック生成・分類部105は、以上の処
理によって生成されたブロックを分類する(ステップ2
06)。この分類は、図、写真等のハーフトーン領域、
表、縦横の領域分割線(セパレータ)、文字列または文
字の一部である確率の高い文字列確定領域、文字または
文字列の一部か、またはノイズや図の一部などか判断し
にくい文字列候補領域に分類する。この分類の方法とし
ては、ブロックの大きさと文字サイズとの比較による方
法、あるいはブロック内の黒白画素数の比を調べること
により判定する方法、更には、ランの数を調べることに
より判定する方法等、公知の方法を用いて行う。
The block generation / classification unit 105 classifies the blocks generated by the above processing (step 2).
06). This classification includes halftone areas such as figures and photographs,
Table, vertical / horizontal area dividing line (separator), character string fixed area with high probability of being a character string or character, character or part of character string, or character that is difficult to determine whether it is noise or part of figure Classify into the column candidate area. As the method of this classification, a method of comparing the size of the block with the character size, a method of determining by checking the ratio of the number of black and white pixels in the block, a method of determining by checking the number of runs, etc. , Using a known method.

【0025】全てのランをブロックとして抽出した後
(ステップ207)、文字列確定領域、文字列候補領域
として得たブロックを文字列、コラムへと統合してい
く。
After extracting all the runs as blocks (step 207), the blocks obtained as the character string confirmation area and the character string candidate area are integrated into a character string and a column.

【0026】まず、文字領域統合部106における、文
字列への統合(ステップ208)について説明すると、
図5は、文字列への統合処理の詳細なフローチャートで
ある。図6は、生成されたブロック501と、後述する
ように統合処理された複数ブロックからなる文字列50
2と、後述するように統合処理されたコラム(文字列の
集まり、あるいは文章領域)503との関係を示す図で
ある。
First, the integration into a character string (step 208) in the character area integration unit 106 will be described.
FIG. 5 is a detailed flowchart of the integration process into a character string. FIG. 6 shows a character string 50 including a generated block 501 and a plurality of blocks that are integrated as described later.
2 is a diagram showing a relationship between 2 and a column (collection of character strings or a text area) 503 that has been integrated as described later.

【0027】図7(a)は、文字列への統合処理を説明
するための図で、601は、既に作成済みの文字列60
2の右端の領域にある文字列確定領域であり、603
は、未処理の文字列候補領域である。そして、この図で
はスキャンラインに対して画像が角度θだけ傾いている
ものとする(なお、図7(a)の場合は、文字列確定領
域と文字列候補領域との統合の例であるが、文字列確定
領域同志、文字列候補領域同志の統合処理も基本的には
同様に行われる。)。
FIG. 7A is a diagram for explaining the integration processing into a character string, and 601 is the already created character string 60.
The character string confirmation area at the rightmost area of 2 is 603
Is an unprocessed character string candidate area. Then, in this figure, it is assumed that the image is inclined by an angle θ with respect to the scan line (note that FIG. 7A is an example of integration of the character string determination area and the character string candidate area. , Character string fixed area comrades, character string candidate area comrades are basically the same process).

【0028】図5のステップ401では、未処理の文字
列候補領域603を次の処理対象として選択し、これら
文字列の端の領域同志で領域の結合を行う(ステップ4
03)。さて、領域601と領域603とを結合するか
否かは以下の条件を満たすかどうかを判定することによ
って行う。すなわち、 (1)領域間の距離604が閾値以下である。 (2)領域の上下の実効範囲(領域601については線
605と線606の範囲、領域603については線60
7と線608の範囲)に重なり(609)がある。 (3)実効範囲から求めた文字サイズ(領域601は6
10、領域603は611)の差が閾値以下である。 (4)領域間に領域分割線つまりコラムを仕切る線が存
在しない。
In step 401 of FIG. 5, an unprocessed character string candidate area 603 is selected as the next processing target, and the areas are joined at the end areas of these character strings (step 4).
03). Now, whether or not to combine the regions 601 and 603 is determined by determining whether or not the following conditions are satisfied. That is, (1) the distance 604 between the areas is less than or equal to the threshold value. (2) Effective range above and below the region (the range of lines 605 and 606 for region 601 and line 60 for region 603)
7 and the range of the line 608) have an overlap (609). (3) Character size obtained from the effective range (area 601 is 6
10, the difference 611) in the area 603 is less than or equal to the threshold value. (4) There is no area dividing line, that is, a line that divides columns between areas.

【0029】領域の上下の実効範囲について説明する
と、画像が傾いている場合には、領域の外接矩形の高さ
は、実際の文字の高さよりも大きくなるので、画像の傾
きθを考慮して実際の文字の占める範囲を表したものが
実効範囲である。すなわち、ぼかし処理で得た黒ランと
短い白ランの集合によって領域601の外接矩形が構成
されていると(領域603も同様である)、領域601
の外接矩形の横幅の2分の1の位置を612、領域60
1の右端から領域の高さ613分の距離だけ離れた位置
を614、同様に領域の左端から同様に離れた位置を6
15とする。そして、文字列確定領域については、画像
が右上がりに傾いている場合、領域601内の一番上の
ランの集合の左端616を通り、画像の傾きθを有する
線605と、領域601内の一番下のランの集合の右端
617を通り、画像の傾きθを有する線606との間
が、領域601の上下の実効範囲となる。
Explaining the effective range above and below the area, when the image is tilted, the height of the circumscribed rectangle of the area becomes larger than the actual height of the character, so the tilt θ of the image is taken into consideration. The effective range represents the range occupied by the actual characters. That is, if the circumscribed rectangle of the region 601 is formed by the set of black runs and short white runs obtained by the blurring process (the same applies to the region 603), the region 601
612, the position of half the width of the circumscribed rectangle of
A position 614 separated from the right end of 1 by the height of the region 613, and a position 6 similarly separated from the left end of the region by 6
Set to 15. Then, regarding the character string confirmation region, when the image is inclined to the right, the line 605 having the image inclination θ and the line 605 having the image inclination θ passing through the left end 616 of the top run set in the region 601. The effective range above and below the region 601 is between the right end 617 of the bottom run set and the line 606 having the image inclination θ.

【0030】ただし、一番上のランの集合の左端616
が位置612と614を逸脱し、図7(b)に示すよう
に、一番上のランの集合の左端616が位置612の左
側にあれば、線605は、点618(612と外接矩形
との交点)を通る線に修正され、図7(c)に示すよう
に、一番上のランの集合の左端616が位置614の右
側にあれば、線605は、点619(614と外接矩形
との交点)を通る線に修正される。同様に、一番下のラ
ンの集合の右端617が位置612と615を逸脱して
いる場合も、線606を同様にして修正する。また、画
像が逆に右下がりに傾いている場合は、図7(a)を左
右反転することによって上下の実効範囲を求めればよ
い。つまり、線605は、一番上のランの集合の右端を
通り、612から615の範囲で修正する。
However, the left end 616 of the top set of runs
7 deviates from the positions 612 and 614, and the left end 616 of the set of the uppermost runs is on the left side of the position 612 as shown in FIG. 7B, the line 605 becomes a point 618 (612 and the circumscribed rectangle). If the left end 616 of the set of top runs is on the right side of the position 614 as shown in FIG. 7C, the line 605 becomes a point 619 (614 and a circumscribed rectangle). It is corrected to a line passing through (intersection with). Similarly, if the right edge 617 of the bottom set of runs deviates from positions 612 and 615, line 606 is similarly modified. On the other hand, when the image is tilted downward to the right, the upper and lower effective ranges may be obtained by horizontally reversing FIG. That is, line 605 passes through the right edge of the top set of runs and corrects in the range 612-615.

【0031】領域603(文字列候補領域)について
は、領域の左端の上下の位置620と621を通る線6
07と608の間を、領域603の上下の実効範囲と
し、線607と608との距離が文字サイズ611とな
る。そして、領域601と領域603とを結合して文字
列602を更新した文字列622の上下の実効範囲は、
文字列602の上下の実効範囲(623、624)と、
領域603の上下の実効範囲(607、608)の和、
すなわち623から608となる。
For the area 603 (character string candidate area), a line 6 passing through the upper and lower positions 620 and 621 at the left end of the area.
The area between 07 and 608 is the effective range above and below the area 603, and the distance between the lines 607 and 608 is the character size 611. Then, the upper and lower effective ranges of the character string 622 obtained by combining the region 601 and the region 603 and updating the character string 602 are:
The upper and lower effective ranges (623, 624) of the character string 602,
The sum of the upper and lower effective ranges (607, 608) of the region 603,
That is, 623 to 608.

【0032】上記した条件(1)から(4)を満たすこ
とによって結合処理された(図5のステップ401から
405)文字列確定領域と文字列候補領域の例を図8
(a)に示す。図8(a)において、領域は701、7
02、703、704の順に結合され、705から70
7は領域の結合を表すリンクである(なお、図8(a)
において、領域701と領域702が結合済みであり、
領域701が未処理の領域であるときは、先のステップ
401から405において領域701と領域709との
結合処理を行わない)。
An example of the character string definite area and the character string candidate area which are combined by satisfying the above conditions (1) to (4) (steps 401 to 405 in FIG. 5) are shown in FIG.
It shows in (a). In FIG. 8A, areas 701 and 7 are provided.
02, 703, 704 are combined in this order, and 705 to 70
Reference numeral 7 is a link indicating the combination of areas (note that FIG. 8A).
In, the area 701 and the area 702 have already been combined,
If the area 701 is an unprocessed area, the combining processing of the area 701 and the area 709 is not performed in the previous steps 401 to 405).

【0033】次いで、ステップ406において、文字列
の包含関係を調べて統合する。すなわち、図8(a)に
おいて、ステップ405までの処理によって、結合され
た領域(701〜704)からなる文字列708と、文
字列709と、文字列710の3つの文字列が生成され
たとする。これら文字列間で、左右の範囲および上下の
実効範囲(文字列708は、711〜712であり、文
字列709は、713〜714であり、文字列710
は、715〜716である)を比較し、包含関係にある
場合は、これを統合する。図8(a)の場合では、文字
列708は文字列709を含むので、これを統合し、文
字列708は文字列710を含まないので、文字列71
0を統合しない。これによって図8(b)に示すよう
に、更新された文字列717は、領域701、702、
703、704、709を構成要素とし、結合リンク7
18、719、720、721を形成する。なお、新し
いリンクを形成する場合の順序は、リンクの左端の位置
に従う。
Next, in step 406, the inclusion relations of the character strings are examined and integrated. That is, in FIG. 8A, it is assumed that three character strings of the character string 708, the character string 709, and the character string 710, which are composed of the combined regions (701 to 704), are generated by the processing up to step 405. .. Between these character strings, the left and right ranges and the upper and lower effective ranges (the character string 708 is 711 to 712, the character string 709 is 713 to 714, and the character string 710 is
Are 715 to 716), and if there is an inclusion relation, they are integrated. In the case of FIG. 8A, since the character string 708 includes the character string 709, it is integrated, and the character string 708 does not include the character string 710.
Do not integrate 0. As a result, as shown in FIG. 8B, the updated character string 717 is displayed in the areas 701, 702,
703, 704 and 709 are constituent elements, and the connecting link 7
18, 719, 720, 721 are formed. The order of forming a new link depends on the position of the left end of the link.

【0034】以上のようにして文字列への統合処理が行
われると、次いでコラムへの統合処理(ステップ20
9)が行われる。図9は、コラムへの統合処理のフロー
チャートである。また、図10は、コラムへの統合処理
を説明するための図で、901は、コラム、902、9
03、904、905は文字列である。また、線90
6、907は、文字列902の上下の実効範囲、線90
6と907との距離908が文字サイズとなり、同様
に、線909、910は、文字列903の上下の実効範
囲、911は文字サイズ、線912、913は、文字列
904の実効範囲、914は文字サイズ、線915、9
16は、文字列905の実効範囲、917は文字サイズ
である。なお、前述したと同様に画像がスキャンライン
に対してθだけ傾いている。
When the character string integration processing is performed as described above, the column integration processing is then performed (step 20).
9) is performed. FIG. 9 is a flowchart of a column integration process. Further, FIG. 10 is a diagram for explaining the integration processing into columns, and 901 is a column, 902, 9
03, 904, and 905 are character strings. Also, line 90
6, 907 are the upper and lower effective ranges of the character string 902, the line 90
The distance 908 between 6 and 907 is the character size. Similarly, lines 909 and 910 are the upper and lower effective ranges of the character string 903, 911 is the character size, lines 912 and 913 are the effective range of the character string 904, and 914 is the same. Font size, lines 915, 9
16 is an effective range of the character string 905, and 917 is a character size. Note that the image is tilted by θ with respect to the scan line as described above.

【0035】まず、上記した処理によって生成された文
字列で、未だコラムへと統合されていない文字列を探す
(ステップ801)。図10においては、文字列の位置
が上にあるものから、つまり文字列902、903、9
04、905の順に処理を行う。ここで、いま文字列9
03が処理対象であるとすると、コラム901の最下行
902(行は一または複数の文字列から構成され、90
2は文字列であり、また行でもある)に対して、以下の
条件を満たせば、文字列903は文字列902の次の行
となる。すなわち、 (1)文字サイズ908と文字サイズ911の差が閾値
以下である。 (2)文字列902と文字列903の上下の距離(90
7〜909)つまり行間が所定の範囲内にある。 (3)コラムを構成する行が閾値以上(例えば、3以
上)ある場合に、該コラム内の行間の平均値に比べて、
条件(2)の行間が閾値以上大きくない。 (4)コラムの左右の実効範囲(918〜919)と文
字列903の左右の範囲(920〜921)が重なりを
有する。 (5)文字列902と文字列903の行間に領域分割線
がない。
First, the character string generated by the above process is searched for a character string that has not yet been integrated into a column (step 801). In FIG. 10, the character strings are located at the top, that is, the character strings 902, 903, 9
The processing is performed in the order of 04 and 905. Here, the character string 9
If 03 is the processing target, the bottom line 902 of the column 901 (the line is composed of one or more character strings,
2 is a character string and is also a line), the character string 903 becomes the next line of the character string 902 if the following conditions are satisfied. That is, (1) the difference between the character size 908 and the character size 911 is less than or equal to the threshold value. (2) The vertical distance between the character string 902 and the character string 903 (90
7-909) That is, the line spacing is within a predetermined range. (3) When the number of rows forming a column is equal to or more than a threshold value (for example, 3 or more), compared to the average value between the rows in the column,
The line spacing of condition (2) is not larger than the threshold. (4) The left and right effective ranges (918 to 919) of the column and the left and right ranges (920 to 921) of the character string 903 have an overlap. (5) There is no area dividing line between the lines of the character strings 902 and 903.

【0036】ここで、条件(4)におけるコラムの左右
の実効範囲は次のようにして求める。先ず各行、例えば
902について、左右の実効範囲(918〜922)を
求める。すなわち、図10のように画像が右上がりの方
向に傾いている場合は、各行の左下端を通り、画像の傾
きと同じ傾きを持つ線(918)と各行の右上端を通
り、画像の傾きと同じ傾きを持つ線(922)の範囲と
し、画像が右下がりの場合は、各行の左上端と右下端を
通る線の範囲とする。そして、各行について左右の範囲
を求めたら、それらの和をとる(コラム901は、その
範囲が918〜919となる)。この処理はコラムに新
しい行を統合するときなど、更新を行う際に順次行う。
Here, the effective ranges on the left and right of the column under condition (4) are determined as follows. First, the left and right effective ranges (918 to 922) are obtained for each row, for example, 902. That is, when the image is tilted in the upward right direction as shown in FIG. 10, the line passes through the lower left corner of each line, passes through the line (918) having the same slope as the image and the upper right end of each line, and tilts the image. The range of the line (922) having the same inclination as is, and in the case of the image falling to the right, the range of the line passing through the upper left corner and the lower right corner of each row. Then, when the left and right ranges are obtained for each row, their sum is calculated (the range of column 901 is 918 to 919). This process is sequentially performed when updating, such as when merging a new row in a column.

【0037】以上の条件を満足する文字列903をコラ
ム901に統合し、文字列903は新しい行903を構
成する。続いて、文字列904が処理対象になる。上記
処理によってコラム901は行903まで含むので、最
下行903と処理対象文字列904を比較した場合、先
の条件(2)を満たさない。そこで、文字列904が次
の条件(6)から(8)を満たす場合に、文字列904
を最下行903に統合する。すなわち、その条件は、 (6)最下行の一つ上の行(図10の行902)との間
で、先の条件(1)から条件(4)を満たす。 (7)最下行に対して、上下の実効範囲に共通する部分
(923)が閾値以上ある。 (8)最下行との間(位置920と924)に領域分割
線がない。
Character strings 903 satisfying the above conditions are integrated into a column 901, and the character string 903 constitutes a new line 903. Subsequently, the character string 904 becomes the processing target. Since the column 901 includes the line 903 by the above process, the condition (2) above is not satisfied when the bottom line 903 and the process target character string 904 are compared. Therefore, if the character string 904 satisfies the following conditions (6) to (8), the character string 904
Are integrated into the bottom line 903. That is, the condition (6) satisfies the above conditions (1) to (4) with the line immediately above the bottom line (the line 902 in FIG. 10). (7) The portion (923) common to the upper and lower effective ranges is equal to or more than the threshold with respect to the bottom row. (8) There is no area dividing line between the bottom row (positions 920 and 924).

【0038】文字列904は、条件(6)を、行902
と903との間で処理したと同様に満たす。また、最下
行903の上下の実効範囲(909、910)と文字列
904の上下の実効範囲(912、913)との共通部
分(923)が閾値以上であるので、条件(7)も満た
す。従って、文字列904は、文字列904と903を
要素とする行(924)に更新される。以下、同様にし
て文字列905が処理される。そして、ある処理対象の
文字列であって、既存のコラムと先の条件を満たさない
ときは、新しい文字列を生成し(ステップ805)、未
処理の文字列がなくなったら処理が終了する(ステップ
802)。以上の処理によって、文書画像からのコラム
の抽出が行われる。
The character string 904 defines the condition (6) on the line 902.
And 903 and fill the same as processed. Further, since the common part (923) of the upper and lower effective ranges (909, 910) of the bottom row 903 and the upper and lower effective ranges (912, 913) of the character string 904 is equal to or more than the threshold value, the condition (7) is also satisfied. Therefore, the character string 904 is updated to the row (924) having the character strings 904 and 903 as elements. Thereafter, the character string 905 is processed in the same manner. Then, if it is a character string to be processed and does not satisfy the above condition with the existing column, a new character string is generated (step 805), and the process ends when there are no unprocessed character strings (step 805). 802). By the above processing, columns are extracted from the document image.

【0039】上記した実施例の統合方法では、長い文字
列の下に、行間や文字サイズの類似したコラムが並んだ
場合、誤って統合することがある。そこで、本実施例2
では、このような場合でも正しくコラムを抽出するもの
で、図を参照して説明する。
In the merging method of the above-described embodiment, when columns having similar line spacing or character size are arranged below a long character string, they may be erroneously combined. Therefore, the second embodiment
Now, even in such a case, the columns are correctly extracted, which will be described with reference to the drawings.

【0040】図11は、本実施例2のコラムへの統合方
法を説明するための図で、1001は、既に幾つかの文
字列を統合して得たコラム、1002、1003、10
04、1005は領域を統合して得た文字列(ただし、
文字列1002は、コラム1001の一つの行でもあ
る)、1006、1007はコラム1001の左右の実
効幅、1008〜1015は文字列1002〜1005
の上下の実効範囲を示す線、1016〜1019はこの
線によって規定される文字列の実効高さ、1020は文
字行である。
FIG. 11 is a diagram for explaining a method of integrating into columns according to the second embodiment, in which 1001 is a column obtained by integrating several character strings, 1002, 1003, and 10.
04 and 1005 are character strings obtained by integrating the areas (however,
The character string 1002 is also one row of the column 1001), 1006 and 1007 are effective widths of the left and right of the column 1001, and 1008 to 1015 are character strings 1002 to 1005.
A line 1016 to 1019 indicating the effective range above and below is the effective height of the character string defined by this line, and 1020 is the character line.

【0041】前述した実施例と同様に、傾いた画像にお
いて文字列の外接矩形の高さが実際の文字サイズより大
きくなるのを修正するために、文字列の実効高さは、各
文字行において画像の傾きや黒ランの位置から求めたも
のであり、また、実効幅はコラムの各行について求めた
ものの和をとったものである。
Similar to the above-described embodiment, in order to correct the height of the circumscribed rectangle of the character string being larger than the actual character size in the tilted image, the effective height of the character string is It is obtained from the image tilt and the position of the black run, and the effective width is the sum of those obtained for each row of the column.

【0042】文書が横書きとすると、図11のように文
字列が横に並び、また上下に並ぶので、文字列の実効高
さの位置(1008、1010、1012、1014)
が上の文字列から順に処理するものとする。そして、
今、処理対象が文字列1003であるとすると、先の実
施例1で説明した方法によって、コラム1001の最下
行1002との位置関係、文字サイズから、コラム10
01の次の行としてコラム1001に加えてコラムを更
新する。
When the document is written horizontally, the character strings are arranged horizontally and vertically as shown in FIG. 11, so that the positions of the effective heights of the character strings (1008, 1010, 1012, 1014).
Process from the above character string in order. And
Now, assuming that the processing target is the character string 1003, according to the method described in the first embodiment, from the positional relationship with the bottom row 1002 of the column 1001 and the character size, the column 10 is determined.
The column next to 01 is updated in addition to the column 1001.

【0043】次いで、文字列1004が処理対象とな
り、コラム1001の左右の実効幅(1006〜100
7)と文字列1004の左右の端の位置(1021、1
022)から、文字列1004はコラム1001の一部
と判定され、また更新したコラムの最下行1003との
実効高さの位置関係および文字サイズから、文字列10
03と1004は同一行と判定する。
Next, the character string 1004 is processed, and the left and right effective widths (1006 to 1006) of the column 1001 are processed.
7) and the positions of the left and right ends of the character string 1004 (1021, 1
022), the character string 1004 is determined to be a part of the column 1001, and the character string 10 is determined from the positional relationship of the effective height with the bottom row 1003 of the updated column and the character size.
03 and 1004 are determined to be in the same row.

【0044】さて、図9のステップ803におけるコラ
ムへの文字列の統合処理において、本実施例2では、以
下のように処理する。処理対象の文字列が、あるコラム
の最下行の次の新しい行である条件を満たすとき(例え
ば、図11において、上記処理によって、コラム100
1に行1020を加えて更新しているので、行1020
が最下行であり、その次の行に相当するのは文字列10
05である)、該コラムの最下行(1020)におい
て、該文字行が複数の文字列によって構成されていると
き、これら文字列の間隔1023が閾値以上あるか否か
調べる。間隔が閾値以上(例えば、該文字行の文字サイ
ズの4倍程度)であれば、文字行を文字列間で分割し、
これら分割された文字行をそれぞれ新しいコラムとし、
既に作成されたコラムも分割する。
Now, in the process of integrating a character string into a column in step 803 of FIG. 9, in the second embodiment, the following process is performed. When the character string to be processed satisfies the condition of being a new line next to the bottom line of a certain column (for example, in the process shown in FIG.
Since line 1020 is added to 1 and updated, line 1020 is updated.
Is the bottom line, and the next line is the character string 10
If the character line is composed of a plurality of character strings in the bottom row (1020) of the column, it is checked whether or not the spacing 1023 between these character strings is equal to or more than a threshold value. If the interval is greater than or equal to the threshold value (for example, about four times the character size of the character line), the character line is divided between the character strings,
Each of these divided character lines becomes a new column,
The already created column is also split.

【0045】従って、図11においては、文字列100
2を最下行とするコラム1001と、文字列(行)10
03のみからなるコラムと、文字列(行)1004のみ
からなるコラムとが生成される。そして、文字列100
5は、生成された新しいコラムを対象にして統合処理が
行われる。文字列全てに対して以上の処理が行われる
と、コラムの抽出処理が終了する(ステップ805、8
02)。
Therefore, in FIG. 11, the character string 100
Column 1001 with 2 as the bottom row, and character string (row) 10
A column including only 03 and a column including only a character string (row) 1004 are generated. And the character string 100
In No. 5, integration processing is performed on the generated new column. When the above processing is performed on all the character strings, the column extraction processing ends (steps 805 and 8).
02).

【0046】このように、実施例2では、長い文字列の
下に並んだ複数のコラムを統合することなく、確実に抽
出することができる。
As described above, in the second embodiment, it is possible to reliably extract a plurality of columns arranged under a long character string without integrating them.

【0047】本実施例の文字領域抽出方法においては、
文字行を正確に抽出することによって文字領域が正確に
抽出されることになる。しかるに、行間が狭く、アルフ
ァベットのように、文字が上下に伸びる場合には、ぼか
し処理によって行の融合が発生する可能性がある。この
ため、融合された複数行は一つの行として分類され、そ
の結果、文字サイズの判定処理が正しく行われず、正し
い文字領域への統合が妨げられる。そこで、本実施例3
では、行の融合を検出して、行の分離処理を行うことに
よって、正確な行の抽出を行っている。
In the character area extraction method of this embodiment,
By accurately extracting the character line, the character area can be accurately extracted. However, when the space between lines is narrow and the characters extend vertically like an alphabet, the blurring process may cause the fusion of lines. Therefore, the merged plural lines are classified as one line, and as a result, the character size determination process is not correctly performed, and integration into the correct character area is hindered. Therefore, the third embodiment
In this case, the line fusion is detected, and the line separation processing is performed to accurately extract the lines.

【0048】図12は、本実施例3のブロック構成図
で、文字行融合検出部1204と行分離部1205が新
たに付加され、他の構成部分は実施例1のものと同一の
機能を有している。以下、本実施例3の動作を図13の
処理フローチャートを参照しつつ説明する。
FIG. 12 is a block diagram of the third embodiment, in which a character / line fusion detecting unit 1204 and a line separating unit 1205 are newly added, and other components have the same functions as those in the first embodiment. is doing. The operation of the third embodiment will be described below with reference to the processing flowchart of FIG.

【0049】まず、画像入力部1201によって文書画
像を入力する(ステップ1301)。ブロック生成、分
類部1202は、前述した実施例と同様にして入力され
た文書画像からブロックを抽出し、分類する(ステップ
1302)。このブロックの抽出時には、前述したよう
に、ぼかし処理が行われる。次いで、傾き検出部120
3は、画像の傾き角度を求める(ステップ1303)。
この傾き角度を求める方法としては、本出願人が先に提
案した方法(特願平3−128341号)あるいは前掲
した論文に記載の方法等を用いる。
First, a document image is input by the image input section 1201 (step 1301). The block generation / classification unit 1202 extracts blocks from the input document image in the same manner as in the above-described embodiment and classifies the blocks (step 1302). When extracting this block, the blurring process is performed as described above. Next, the tilt detection unit 120
3 determines the tilt angle of the image (step 1303).
As a method for obtaining this tilt angle, the method previously proposed by the present applicant (Japanese Patent Application No. 3-128341) or the method described in the above-mentioned paper is used.

【0050】次に、文字行融合検出部1204は、文字
行の融合検出を行う(ステップ1304)。この文字行
の融合検出を図14を参照して説明すると、図におい
て、1401は、抽出された文字列領域のブロックであ
り、1402から1415は、ブロック内の原画像の黒
画素連結成分の外接矩形であり、1416、1417
は、画像の傾きを持った線分で、文字列の上辺、下辺の
位置を表している。
Next, the character line fusion detection unit 1204 performs character line fusion detection (step 1304). This fusion detection of character lines will be described with reference to FIG. 14. In the figure, 1401 is a block of the extracted character string region, and 1402 to 1415 are circumscribing black pixel connected components of the original image in the block. Rectangular, 1416, 1417
Is a line segment having the inclination of the image and represents the positions of the upper side and the lower side of the character string.

【0051】ここで、黒画素連結成分1405と141
2は、その外接矩形が重なるほど近接していて、ぼかし
処理を行うと融合してしまう。このような融合が生ずる
例を図15に示す。従って、ぼかし処理によって外接矩
形1402から1408は1405に融合し、外接矩形
1409から1415は1412に融合するので、結
局、外接矩形1402から1415は全て融合して一つ
のブロック1401となる。
Here, the black pixel connected components 1405 and 141
2 is so close that the circumscribing rectangles overlap, and they are fused when the blurring process is performed. An example where such fusion occurs is shown in FIG. Therefore, since the circumscribing rectangles 1402 to 1408 are merged into 1405 and the circumscribing rectangles 1409 to 1415 are merged into 1412 by the blurring process, all of the circumscribing rectangles 1402 to 1415 are merged into one block 1401.

【0052】そこで、本実施例では、図14の外接矩形
に関して、図16に示すような外接矩形の高さについて
のヒストグラムを作成し、高さの最頻値を求める。この
値を外接矩形の高さの標準値として、ブロック内の文字
列の予想高さと比較する。ここで、予想高さ(つまり領
域の高さ)は、線分1416と1417の間の距離であ
る。線分1416、1417は、ステップ1303で求
めた画像の傾き角度をもつ線分であり、各外接矩形の存
在範囲の上限、下限の位置から求める。そして、求めた
予想高さ(傾きを考慮して得られた領域の高さ)が、図
16における1601であったとすると、1602が1
603に比べて閾値以下の比率であるとき、言い替える
と、外接矩形の高さの最頻値が、傾きを考慮して得られ
た領域の高さに比べて一定比率以下の大きさであると
き、該ブロック内で行が融合しているものとして、検出
される。
Therefore, in the present embodiment, for the circumscribed rectangle of FIG. 14, a histogram of the height of the circumscribed rectangle as shown in FIG. 16 is created and the mode of the height is calculated. This value is used as the standard value of the height of the circumscribed rectangle and compared with the expected height of the character string in the block. Here, the predicted height (that is, the height of the area) is the distance between the line segments 1416 and 1417. Line segments 1416 and 1417 are line segments having the inclination angle of the image obtained in step 1303, and are obtained from the upper and lower positions of the existence range of each circumscribing rectangle. Then, assuming that the obtained predicted height (height of the region obtained by considering the inclination) is 1601 in FIG. 16, 1602 is 1
When the ratio is less than or equal to the threshold value as compared with 603, in other words, when the mode of the height of the circumscribed rectangle is less than or equal to a certain ratio compared to the height of the region obtained by considering the inclination. , The lines are detected as being fused in the block.

【0053】行分離部1205は、行の融合が検出され
たときに、行の分離を行う(ステップ1305)。すな
わち、まず図14の傾きを考慮して文字列と垂直方向に
射影(1418)をとり、射影のヒストグラムにおいて
閾値以下の分布密度の谷部分1419を検出する。谷の
部分と、他の谷の部分または分布の端との距離、つまり
図14の1420、1421が外接矩形の高さの基準値
よりも大きい場合に、この谷1419の位置を分岐点と
して、谷1419を通る線分1422によってブロック
を上下に分割する。これにより、各外接矩形は、線分1
422の位置と比較して上下何れかのブロックに属する
ことになる。
The line separating unit 1205 separates lines when the fusion of lines is detected (step 1305). That is, first, a projection (1418) is taken in the direction perpendicular to the character string in consideration of the inclination of FIG. 14, and a valley portion 1419 having a distribution density equal to or less than a threshold value is detected in the projection histogram. When the distance between the valley portion and another valley portion or the end of the distribution, that is, 1420 and 1421 in FIG. 14 is larger than the reference value of the height of the circumscribed rectangle, the position of this valley 1419 is set as a branch point, The block is vertically divided by a line segment 1422 passing through the valley 1419. As a result, each circumscribing rectangle becomes a line segment 1
Compared with the position of 422, it belongs to one of upper and lower blocks.

【0054】正しく行分離が行われると、前記した実施
例と同様にして、統合処理により文字領域が抽出される
(ステップ1306)。このように、本実施例3によれ
ば、ぼかし処理によって文字行が融合しても、確実に行
の分離、抽出を行うことができる。
When the line separation is correctly performed, the character area is extracted by the integration processing in the same manner as in the above-described embodiment (step 1306). As described above, according to the third embodiment, even if the character lines are merged by the blurring process, the lines can be reliably separated and extracted.

【0055】[0055]

【発明の効果】以上、説明したように、請求項1乃至3
に記載の発明によれば、縮小画像に対してぼかし処理を
施すことによって生成、抽出されたブロックを処理対象
にしているので、画像の傾きに対処できると共に、他の
領域との融合を防いで確実に文字列およびコラムを抽出
することが可能となる。また、請求項4に記載の発明に
よれば、長い文字列の下に並んだ複数のコラムを融合す
ることなく、正確にコラムを分離抽出することができ
る。更に、請求項5の記載の発明によれば、ぼかし処理
によって融合した文字行を検出し、分離処理しているの
で、正確に文字行を抽出することができる。
As described above, according to claims 1 to 3,
According to the invention described in (3), since the block generated and extracted by performing the blurring process on the reduced image is the processing target, the inclination of the image can be dealt with and fusion with other regions can be prevented. It is possible to reliably extract the character string and the column. Further, according to the invention described in claim 4, it is possible to accurately separate and extract columns without merging a plurality of columns arranged under a long character string. Further, according to the invention described in claim 5, since the character lines fused by the blurring process are detected and separated, the character lines can be accurately extracted.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例のブロック構成図である。FIG. 1 is a block configuration diagram of an embodiment of the present invention.

【図2】本発明の処理の流れを示すフロ−チャ−トであ
る。
FIG. 2 is a flowchart showing a processing flow of the present invention.

【図3】図2と同じく本発明の処理の流れを示すフロ−
チャ−トである。
FIG. 3 is a flow chart showing the processing flow of the present invention as in FIG.
It's a chart.

【図4】ぼかし処理で得られたランの集合を示す図であ
る。
FIG. 4 is a diagram showing a set of runs obtained by blurring processing.

【図5】文字列への統合処理の詳細なフローチャートで
ある。
FIG. 5 is a detailed flowchart of an integration process into a character string.

【図6】ブロックと、文字列と、コラムとの関係を示す
図である。
FIG. 6 is a diagram showing a relationship among blocks, character strings, and columns.

【図7】(a)、(b)、(c)は、文字列への統合処
理を説明するための図である。
7 (a), (b), and (c) are diagrams for explaining the integration processing into a character string.

【図8】(a)は、結合された文字列の例を示す図であ
る。(b)は、包含関係によって更新された文字列の例
を示す図である。
FIG. 8A is a diagram showing an example of a combined character string. (B) is a figure which shows the example of the character string updated by the inclusion relationship.

【図9】コラムへの統合処理のフローチャートである。FIG. 9 is a flowchart of a column integration process.

【図10】コラムへの統合処理を説明するための図であ
る。
FIG. 10 is a diagram illustrating a column integration process.

【図11】他の実施例のコラムへの統合方法を説明する
ための図である。
FIG. 11 is a diagram for explaining a method of integrating into a column of another embodiment.

【図12】他の実施例のブロック構成図である。FIG. 12 is a block diagram of another embodiment.

【図13】他の実施例の処理フローチャートである。FIG. 13 is a processing flowchart of another embodiment.

【図14】文字行の融合検出を説明するための図であ
る。
FIG. 14 is a diagram for explaining fusion detection of character lines.

【図15】融合が生ずる例を示す図である。FIG. 15 is a diagram showing an example in which fusion occurs.

【図16】外接矩形の高さのヒストグラムを示す図であ
る。
FIG. 16 is a diagram showing a histogram of the height of a circumscribed rectangle.

【符号の説明】[Explanation of symbols]

101 画像入力部 102 画像傾き検出部 103 画像縮小部 104 ランレングスデータ生成部 105 ブロック生成、分類部 106 文字領域統合部 107 データ記憶部 108 制御部 Reference Signs List 101 image input unit 102 image inclination detection unit 103 image reduction unit 104 run length data generation unit 105 block generation / classification unit 106 character region integration unit 107 data storage unit 108 control unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 文書画像から文字領域を抽出する方法に
おいて、文書画像を文字列方向にスキャンして入力する
ステップと、入力文書画像の傾きを検出するステップ
と、該入力文書画像を縮小するステップと、縮小された
画像のランレングスデータを作成するステップと、該ラ
ンレングスデータから、所定の閾値以上の長さの白ラン
によって区切られた黒ランと短い白ランの繋がりを一つ
の範囲とする、ぼかし処理を行うステップと、該範囲で
上下に連絡するランの集合をブロックとして抽出するス
テップと、該抽出されたブロックを文字列確定領域と文
字列候補領域に分類するステップと、該分類された領域
を統合することによって文字列を抽出するステップとを
有することを特徴とする文字領域抽出方法。
1. A method of extracting a character area from a document image, the step of scanning and inputting a document image in the character string direction, the step of detecting the inclination of the input document image, and the step of reducing the input document image. And a step of creating run-length data of the reduced image, and, from the run-length data, a connection between a black run and a short white run separated by a white run having a length equal to or longer than a predetermined threshold is set as one range. , A step of performing blurring processing, a step of extracting a set of runs vertically connecting in the range as a block, a step of classifying the extracted block into a character string determination area and a character string candidate area, and And a step of extracting a character string by integrating the extracted areas.
【請求項2】 前記文字列と包含関係にある他の文字列
を統合して文字列を更新することを特徴とする請求項1
記載の文字領域抽出方法。
2. The character string is updated by integrating another character string having an inclusive relationship with the character string.
The described character area extraction method.
【請求項3】 前記文字列方向に対して垂直方向に並ぶ
文字列を統合してコラムを抽出することを特徴とする請
求項1記載の文字領域抽出方法。
3. The character area extracting method according to claim 1, wherein character strings arranged in a direction perpendicular to the character string direction are integrated to extract a column.
【請求項4】 前記文字列方向において複数の文字列に
よって文字行が構成され、該複数の文字列の内、任意の
文字列間が所定の距離以上離れているとき、該文字列間
で文字行を分割し、該分割された文字行をそれぞれコラ
ムとして抽出することを特徴とする請求項3記載の文字
領域抽出方法。
4. A character line is composed of a plurality of character strings in the character string direction, and when any character strings among the plurality of character strings are separated by a predetermined distance or more, characters are separated between the character strings. 4. The character area extracting method according to claim 3, wherein the lines are divided and each of the divided character lines is extracted as a column.
【請求項5】 文書画像にぼかし処理を施こすことによ
ってブロックを抽出し、該抽出されたブロックを文字列
領域とそれ以外の領域に分類し、該分類された文字列領
域を統合することによって文字領域を抽出する方法にお
いて、該抽出された文字列領域内で複数の文字行の融合
を検出するステップと、該融合した行を分離するステッ
プとを有することを特徴とする文字領域抽出方法。
5. A block is extracted by subjecting a document image to blurring processing, the extracted block is classified into a character string area and an area other than the character string area, and the classified character string areas are integrated. A method for extracting a character region, comprising: detecting a fusion of a plurality of character lines in the extracted character string region; and separating the fused lines.
JP32995691A 1991-05-02 1991-11-19 Character area extraction method Expired - Fee Related JP3187895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32995691A JP3187895B2 (en) 1991-05-02 1991-11-19 Character area extraction method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP3-128340 1991-05-02
JP12834091 1991-05-02
JP32995691A JP3187895B2 (en) 1991-05-02 1991-11-19 Character area extraction method

Publications (2)

Publication Number Publication Date
JPH0581475A true JPH0581475A (en) 1993-04-02
JP3187895B2 JP3187895B2 (en) 2001-07-16

Family

ID=26464036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32995691A Expired - Fee Related JP3187895B2 (en) 1991-05-02 1991-11-19 Character area extraction method

Country Status (1)

Country Link
JP (1) JP3187895B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774580A (en) * 1993-05-12 1998-06-30 Ricoh Company, Ltd. Document image processing method and system having function of determining body text region reading order
JP2014044500A (en) * 2012-08-24 2014-03-13 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4856925B2 (en) 2005-10-07 2012-01-18 株式会社リコー Image processing apparatus, image processing method, and image processing program
JP5865856B2 (en) 2013-02-27 2016-02-17 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus having the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774580A (en) * 1993-05-12 1998-06-30 Ricoh Company, Ltd. Document image processing method and system having function of determining body text region reading order
US5907631A (en) * 1993-05-12 1999-05-25 Ricoh Company, Ltd. Document image processing method and system having function of determining body text region reading order
JP2014044500A (en) * 2012-08-24 2014-03-13 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP3187895B2 (en) 2001-07-16

Similar Documents

Publication Publication Date Title
JP3253356B2 (en) Document image area identification method
US5384864A (en) Method and apparatus for automatic determination of text line, word and character cell spatial features
JP3278471B2 (en) Area division method
US6574375B1 (en) Method for detecting inverted text images on a digital scanning device
JP3308032B2 (en) Skew correction method, skew angle detection method, skew correction device, and skew angle detection device
EP0621552B1 (en) Method and apparatus for automatic character script determination
JP2001297303A (en) Method and device for recognizing document image and computer readable recording medium
US20020015525A1 (en) Image processor for character recognition
JP3411472B2 (en) Pattern extraction device
JP2001043313A (en) Character segmenting method
JPH1031716A (en) Method and device for extracting character line
JP3187895B2 (en) Character area extraction method
JP3607753B2 (en) Document image region dividing method and apparatus, and column type discrimination method and apparatus
JPH064704A (en) Ruled line discriminating method and area discriminating method
JP2868134B2 (en) Image processing method and apparatus
JP3019897B2 (en) Line segmentation method
JP3187894B2 (en) Document image tilt detection method
JP3281469B2 (en) Document image inclination detecting method and apparatus
JP2003317107A (en) Method and device for ruled-line detection
JPH0679348B2 (en) Line cutting method
JPH05128306A (en) Attribute discriminating method for sentence picture
JP3086277B2 (en) Document image processing device
JP2877548B2 (en) Document image attribute discrimination method
JPH0728934A (en) Document image processor
JP2917394B2 (en) Character recognition device and character segmentation method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees