JP3634248B2 - Character area extraction method, character area extraction apparatus, and recording medium - Google Patents

Character area extraction method, character area extraction apparatus, and recording medium Download PDF

Info

Publication number
JP3634248B2
JP3634248B2 JP2000239914A JP2000239914A JP3634248B2 JP 3634248 B2 JP3634248 B2 JP 3634248B2 JP 2000239914 A JP2000239914 A JP 2000239914A JP 2000239914 A JP2000239914 A JP 2000239914A JP 3634248 B2 JP3634248 B2 JP 3634248B2
Authority
JP
Japan
Prior art keywords
pixel
value
character
extreme
character area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000239914A
Other languages
Japanese (ja)
Other versions
JP2002056355A (en
Inventor
秀豪 桑野
行信 谷口
治彦 児島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000239914A priority Critical patent/JP3634248B2/en
Publication of JP2002056355A publication Critical patent/JP2002056355A/en
Application granted granted Critical
Publication of JP3634248B2 publication Critical patent/JP3634248B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データ処理の分野に係り、特に、動画像データや静止画データ中の文字領域を抽出する技術に関する。
【0002】
【従来の技術】
テレビ放送映像等の動画像データ中のテロップ文字や静止画データ中の文字の認識などを行うためには、画像データより文字領域を抽出する必要がある。
【0003】
このような文字領域抽出のための従来技術としては、文献「桑野、新井、倉掛、杉村:”ライン単位の二値化による映像中文字領域抽出方法”、信学秋大、D−12−42、p.264(1996−09)」に述べられているように、水平方向及び垂直方向のライン内で局所的に輝度値が周辺部と比較して予め設定した値だけ高い範囲又は低い範囲を文字領域として抽出し、文字領域内の画素とそれ以外の画素とに異なった輝度値を付与することによってライン毎の二値化を行い、各方向での二値化結果を比較し、両者ともに位置、大きさ、形状が共通して存在する領域を最終的に文字領域とする方法がある。
【0004】
【発明が解決しようとする課題】
テレビ放送映像では、画像中の水平ラインに沿って画素値(本明細書において画素値とは、画素の輝度成分もしくは濃度成分と、色成分の両方を指す)が隣接画素に滲み込む傾向がある。滲みによる画素値の変化の程度は、一般に、画像中に表示される文字の大きさに依存する。文字の大きさが40×40画素程度以上であれば、文字内部への背景の画素値の滲み込みも比較的少なく、また文字ストローク間の背景の画素値もほとんど変化しない。一方、30×30画素程度以下の小さい文字の場合、文字の画素値は背景の画素値の滲みの影響を強く受け、また、文字ストローク間の背景にも文字の画素値が滲み込むため、文字は全体的にコントラストがぼける。
【0005】
例えば、図8に示す30×30画素の文字「地」では、細い縦ストロークは背景の影響を強く受けて本来の白色から灰色に変化し、「也」の部分のストローク間の背景も文字の画素値の滲みの影響で本来の黒色から灰色に変化しており、文字全体としてコントラストがぼけている。
【0006】
さて、比較的大きな文字については前記従来技術によって文字領域を適切に抽出できる場合が多い。しかし、例えば図8の「地」ような小さい文字では、各ライン上の文字部分の画素値分布は、文字と、その外側の背景との画素値差分と、文字とそのストロークに挟まれる背景との画素値差分とが大きく異なることがあるため、各ラインの二値化に予め設定された1つの閾値を用いる前記従来技術では、文字内部のストローク間の背景画素(図9に参照番号81で示す部分の画素。以下、文字内背景領域と呼ぶ)を文字領域から取り除くことができず、文字の正確な輪郭形状を抽出できない場合がある。
【0007】
よって、本発明の目的は、画素値の滲み込みの影響を受けやすい比較的小さな文字に対しても、文字内背景領域を除去した的確な文字領域の抽出が可能な文字領域抽出方法及び装置を提供することにある。
【0008】
【課題を解決するための手段】
本発明の文字領域抽出方法は、画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出し、前記抽出した文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、画素値が前記第1の極値画素の画素値より所定以下にある画素範囲を文字内背景領域として抽出し、前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出することを特徴とする。
【0009】
また、本発明の文字領域抽出方法は、画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出し、前記抽出した文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、該第2の極値画素の画素値との差が所定値以内にある画素範囲を文字内背景領域として抽出し、前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出することを特徴とする。
【0010】
また、本発明の文字領域抽出装置は、画像のデータを入力する画像入力手段と、前記画像入力手段により入力された画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出する文字領域候補抽出手段と、前記文字領域候補抽出手段により抽出された文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、画素値が前記第1の極値画素の画素値より所定以下にある画素範囲を文字内背景領域として抽出し、前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出する文字領域抽出手段とを有することを特徴とする。
【0011】
また、本発明の文字領域抽出装置は、画像のデータを入力する画像入力手段と、前記画像入力手段により入力された画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出する文字領域候補抽出手段と、前記文字領域候補抽出手段により抽出された文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、該第2の極値画素の画素値との差が所定値以内にある画素範囲を文字内背景領域として抽出し、前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出する文字領域抽出手段とを有することを特徴とする。
【0012】
また、本発明の文字領域抽出装置は、前記文字領域抽出手段により抽出された各ライン上の文字領域に含まれる画素に第1画素値を付与し、文字領域に含まれない画素に前記第 1画素値と異なる第2画素値を付与するライン二値化手段と、前記ライン二値化手段により得られたライン毎の二値化結果を統合して二値化画像データを得るライン二値化結果統合手段とをさらに有することを特徴とする。
【0013】
【発明の実施の形態】
以下、添付図面を参照し、本発明の実施の形態について説明する。
図1は、本発明による文字領域抽出装置のブロック構成の一例を示すブロック図である。ここに示す文字領域抽出装置100は、画像入力部1、文字領域候補抽出部2、文字領域抽出部3、ライン二値化部4、ライン二値化結果統合部5、結果出力部6、画像メモリ7及びデータメモリ8から構成される。なお、図1中の太線の矢線は、処理の流れを示す。
【0014】
画像入力部1は処理対象の画像データを入力するための手段である。この画像入力部1により入力された画像データは画像メモリ7に記憶される。
【0015】
文字領域候補抽出部2は、画像メモリ7に記憶されている入力画像データの水平方向の各ラインで、画素値分布の高画素値方向(以下第1方向)への凸部範囲より、その周辺部との画素値の差に基づいて文字領域候補を抽出する手段である。
【0016】
文字領域抽出部3は、文字領域候補抽出部2により抽出された文字領域候補の内部において、画素値分布の凹部範囲より、周辺部との画素値の差に基づいて文字内背景領域を抽出し、それを当該文字領域候補より除いた領域を文字領域として抽出する手段である。
【0017】
ライン二値化部4は、文字領域抽出部3により抽出された各ライン上の文字領域に含まれる画素に第1画素値を付与し、文字領域に含まれない画素に前記第1画素値と異なる第2画素値を付与することにより、各ラインを2値化する手段である。ライン二値化結果統合部5は、ライン二値化部4により得られたライン毎の二値化結果を統合して二値化画像データを得る手段である。
【0018】
データメモリ8は、文字領域候補抽出部2、文字領域抽出部3、ライン二値化部4及びライン二値化結果統合部5によってデータの一時記憶域として利用される。結果出力部6は、ライン二値化結果統合部5によりデータメモリ8上に生成された二値化画像データを外部に出力する手段である。
【0019】
このような文字領域抽出装置100は、例えば、図2に示すように、文字認識装置200において前処理部として利用し得る。図2において、201は文字切出部であり、これは文字領域抽出装置100より出力される二値化画像データから個々の文字画像データを切り出す処理を行う。202は特徴抽出部であり、文字切出部201により切り出された個々の文字画像データの特徴量を抽出する。203はマッチング部であり、特徴抽出部202により抽出された特徴量と認識辞書204に登録されている特徴量とのマッチングを行って認識結果を得る。この認識結果は、認識結果出力部205により、例えば外部の記憶装置やディスプレイ装置などに出力される。
【0020】
本発明による文字領域抽出装置100によれば、画素値の滲み込みの影響を受けやすい比較的小さな文字などについても的確な文字領域抽出が可能である。したがって、文字領域抽出装置100を文字認識の前処理部として利用するならば、テレビ映像中のテロップ文字などの認識性能が向上する。
【0021】
なお、図1に示した文字領域抽出装置100は、文字領域抽出結果として二値化画像データを生成して出力する構成であるが、文字領域抽出部3で得られる文字領域の情報を出力することも可能である。ただし、図示のような二値画像データを出力する構成の文字領域抽出装置は、文字認識の前処理部として利用するような場合や文字領域抽出結果をディスプレイ装置に表示するような場合に都合がよい。
【0022】
次に、文字領域候補抽出部2について、より具体的に説明する。文字領域候補抽出部2は、例えば、図1に示すように、第1極値画素検出部21と文字領域候補決定部22とからなる。第1極値画素検出部21は、画像メモリ7内の入力画像データを参照し、水平方向の各ライン上の前記第1方向への極値をとる極値画素(第1の極値画素)を検出する手段である。検出された極値画素の座標情報はデータメモリ8に記憶され、文字領域候補決定部22により参照される。文字領域候補決定部22は、データメモリ8内の極値画素の座標情報と画像メモリ7内の入力画像データを参照し、極値画素の両側にある画素の中から、当該極値画素との画素値の差に基づいて文字領域候補の端点画素を決定する手段である。決定された端点画素の座標情報はデータメモリ8に記憶され、文字領域抽出部3により参照される。
【0023】
入力画像データのある水平ライン上において、文字部分の画素値分布が図3に太線で示すような分布となった場合を例にして、文字領域候補抽出部2の処理を説明する。この例では、文字が高画素値、背景が低画素値であり、画素値分布の高画素値方向(第1方向)へ凸の凸部範囲より文字領域候補が抽出される。
【0024】
まず、第1極値画素検出部21によって、ライン上で第1方向への極値すなわち極大値をとる極値画素(第1の極値画素)が検出される。図3に示す画素値分布の凸部範囲では、極大値をとるA画素とB画素が極値画素として検出されることになる。
【0025】
文字領域候補決定部22は、検出された極値画素の中から例えば画素値の降順に1つの極値画素を処理対象として選択し、その極値画素より左側(ライン先端側)及び右側(ライン終端側)へ向かって、文字領域候補の左端点画素及び右端点画素を探索する。例えば、極値画素の左側及び右側に、極値画素の画素値より低く、かつ、極値画素との画素値の差が予め定めた閾値Th1を越える画素を探索する。一実施例では、処理対象の極値画素の両側に、そのような画素が見つかったならば、その画素の中で極値画素に最も近い画素をそれぞれ左端点画素、右端点画素とする。ただし、そのような画素と極値画素との間に、極値画素より高画素値の画素が存在しないものとする。左端点画素と右端点画素の少なくとも一方が見つからない場合には、現在処理対象となっている極値画素に関する処理は打ち切り、他に選択できる極値画素があるならば、その極値画素に関して同様の処理を行う。
【0026】
例えば、図3の極値画素A(最大極値画素)が処理対象に選ばれたとすると、図3に示すように座標x1,x4の画素が左端点画素、右端点画素として決定される。すなわち、x1からx4までの画素範囲が文字領域候補として抽出される。極値画素Bが処理対象に選ばれた場合には、その右側に極値画素Aがあるため、端点画素の探索は失敗となる。
【0027】
他の実施例にあっては、図4に示すように、極値画素Bの左側に、極値画素Bとの画素値の差が閾値Th1を越える画素がある場合に、それら画素の中で極値画素Aに最も近い画素を文字領域候補の左端点画素とする。
【0028】
次に、文字領域抽出部3について、より具体的に説明する。この文字領域抽出部3は、例えば図1に示すように、第2極値画素検出部31と文字領域決定部32とからなる。第2極値画素検出部31は、データメモリ8内の文字領域候補の端点画素の座標情報と画像メモリ7内の入力画像データを参照し、文字領域候補の画素範囲内において前記第1方向と反対の第2方向への極値をとる極値画素(第2の極値画素)を検出する手段である。検出された極値画素の座標情報はデータメモリ8に記憶され、文字領域決定部32により参照される。文字領域決定部32は、データメモリ8内の極値画素の座標情報と画像メモリ7内の入力画像データを参照して、文字内背景領域の端点画素を決定し、文字領域候補よ字領域として抽出する手段である。抽出された文字領域の端点画素の座標情報はデータメモリ8に記憶され、ライン二値化部4により参照される。
【0029】
一実施例にあっては、文字領域決定部32は、文字領域候補の内部において検出された第2方向の極値画素(第2の極値画素)から1つの極値画素を処理対象として選択し、その極値画素の両側にある画素の中から、文字領域候補抽出部2により当該文字領域候補内で検出された前記第1方向の極値画素(第1の極値画素)との画素値の差に基づいて、文字内背景領域の端点画素を決定する。
【0030】
図3に示した文字領域候補(x1−x4)を例にすると、図5に示すように、極小値をとるC画素が極値画素(第2の極値画素)として検出される。この極値画素Cの左側において(ただし極値画素Bより右側において)、極値画素Bとの画素値の差が予め極められた閾値Th2(<Th1)より大きい画素の中で、極値画素Cから最も遠い座標x2の画素を左端点画素とする。また、極値画素Cの右側において(ただし極値画素Aより左側において)、極値画素Aとの画素値の差が閾値Th2より大きい画素の中で、極値画素Cから最も遠い座標x3の画素を右端点画素とする。すなわち、x2からx3までの画素範囲が文字内背景領域として抽出され、これが文字領域候補から除かれることになる。
【0031】
なお、以上に述べたような条件が満たされない場合には、第2方向への極値画素が他に検出されているならば、その極値画素に関して同様の端点画素の探索が行われる。いずれの端点画素でも条件が満たされない場合は、その文字領域候補には文字内背景領域が含まれていないので、文字領域候補が文字領域として抽出されることになる。
【0032】
別の実施例にあっては、文字領域決定部32は、文字領域候補の画素範囲内において検出された第2方向への極値画素(第2の極値画素)の両側にある画素の中から、当該第2方向への検極値画素との画素値の差に基づいて文字内背景領域の端点画素を決定する。
【0033】
図3に示した文字領域候補(x1−x4)を例にすると、図6に示すように、極小値をとるC画素が極値画素として検出される。この極値画素Cの両側において(極値画素A,Bより内側において)、極値画素Cとの画素値の差が予め定めた閾値Th3(<Th1)より大きい画素の中で、極値画素Cと最も近い座標x2とx3の画素を左端点画素、右端点画素とする。すなわち、x2からx3までの画素範囲が文字内背景領域として抽出され、これが文字領域候補から除かれることになる。
【0034】
なお、以上に述べたような条件が満たされない場合には、他の極値画素が検出されているならば、その極値画素に関して同様の端点画素の探索が行われる。いずれの端点画素でも条件が満たされない場合は、その文字領域候補には文字内背景領域が含まれていないということになる。
【0035】
以上に説明した文字領域候補抽出部2の処理と文字領域抽出部3の処理を切り離さず、一連の処理として実行することも可能である。この処理形態における処理の概略を説明すれば、第1極値画素検出部21により検出された極値画素の中から処理対象として選択された極値画素と、それに隣接した未だ文字領域として判定されていない同ライン上の画素との画素値を比較し、画素値の差が閾値Th1又は閾値Th2よりも小さいならば、その隣接画素を仮の文字領域とする。以後、逐次、画素値の比較対象を、仮の文字領域の中の極値画素と統合されて新しく得られた仮の文字領域に隣接する画素として、画素値の比較及び文字領域の判定を繰り返す。この繰り返し処理は、(1)画素値の差分が閾値Th1よりも大きい場合、又は、(2)一旦、画素値の差分が、閾値Th1より小さく、閾値Th2よりも大きな値をとった後に、再び予め設定した値より小さくなった場合、に終了する。終了条件(1)は文字の外側輪郭(例えば図3乃至図6の座標x1,x4)の検出に有効であり、終了条件(2)は、文字の内側輪郭(例えば図5又は図6のx2,x3)の検出に有効である。そして、このいずれかの終了条件が満たされた時に、極値画素との画素値差分が最も大きい画素が文字領域の端点画素として確定される。すなわち、仮の文字領域が文字領域として確定される。文字領域の判定の繰り返し処理のもう1つの終了条件は、文字領域の端点を検出する前に既に確定した文字領域の端点とぶつかった場合であり、この場合は仮の文字領域は破棄される。
【0036】
図7は、このような処理形態のフローチャートの一例を示す。図7において、ステップ41で1つのラインのデータを読み込む。ステップ42で、そのラインのデータから極大値又は極小値をとる極値画素を検出する。以後、極値画素の座標値をMi,...,Mnと表す。そして、ステップ43でカウンタ変数iを1に初期化する。
【0037】
ステップ44でカウンタ変数jを(Mi+1)に初期化し、ステップ45でフラグ変数Flagを0に初期化する。ステップ46で、座標値jにおける画素が既に抽出済みの文字領域に含まれるか判定し、含まれている場合はステップ47でカウンタ変数iをインクリメントしてステップ44に戻るが、含まれていない場合にはステップ48に進む。
【0038】
ステップ48では、座標値Miの極値画素の画素値I(Mi)と座標値jの画素の画素値I(j)の差が、閾値Th2(<Th1)よりも大きいか判定し、大きい場合はステップ49に進み、大きくない場合はステップ51に進む。ステップ49ではフラグ変数Flagを1に設定する。これは、ステップ48の判断の結果を一時的に記憶するためである。ステップ50では、一時記憶用の変数Inに(j−1)を設定する。
【0039】
ステップ51では、Flagが1であり、かつ、座標値jにおける画素値I(j)が、座標値Inにおける画素値I(n)と閾値Th2の和よりも大きいか判定し、大きい場合はステップ52に進むが、大きくない場合はステップ53に進む。
【0040】
ステップ52では、座標値Inの画素を文字領域の端点(右端点)として確定する。ステップ53では、座標値Miにおける極値画素の画素値I(Mi)と座標値jにおける画素値I(j)の差が閾値Th1より大きいか判定し、大きい場合はステップ55に進み、大きくない場合はステップ54でカウンタ変数jをインクリメントしてステップ46に戻る。ステップ55では、座標値jにおける画素を文字領域の端点(右端点)として確定する。
【0041】
ステップ52又はステップ55で文字領域の右端点が確定すると、ステップ56で文字領域の左端点探索処理が行われる。この処理は、探索方向が逆になる以外は右端点探索処理と同様であるので、その説明を割愛する。
【0042】
以上に述べた本発明による文字領域抽出装置によれば、換言すれば、同文字領域抽出装置で実施される本発明の文字領域抽出方法によれば、比較的小さな文字についても、文字内のストローク間の背景部分(文字内背景領域)を文字領域から確実に排除し、より的確な文字領域抽出が可能である。例えば、図8に示す文字「地」の画像に対して、図10に示すような的確な文字領域抽出結果が得られる。また、本発明によれば、画素値として画素の色成分を用いることにより、画像中の輝度だけでなく色が変化する文字についても、である。
【0043】
以上に説明した本発明による文字領域抽出装置の処理内容、つまり本発明の文字領域抽出法のための処理手順を、プロセッサとメモリなどからなるパソコンなどのコンピュータを利用して実施することも可能である。この場合、処理対象の画像データは、例えばパソコンなどに装着した画像取り込みボードを利用して、例えばビデオレコーダなどの映像再生装置よりメモリに取り込まれる。処理手順をコンピュータに実行させるためのプログラムは、それが記録された磁気ディスク、光ディスク、光磁気ディスク、半導体記憶素子などの各種記録媒体よりコンピュータのメモリに読み込まれ、プロセッサによって実行される。このようなプログラムが記録された各種記録媒体も本発明に包含される。
【0044】
【発明の効果】
以上の説明から明らかなように、本発明によれば、画素値の滲みの影響によって文字と背景の画素値が変化し、文字と外側の背景の画素値差と、文字とそのストローク間の背景部の画素値差との違いが大きく異なるような、比較的小さな文字に関しても、ストローク間の背景部分を除去した的確な文字領域の抽出が可能となる。したがって、本発明を例えば文字認識の前処理に適用すれば、テレビ映像中のテロップ文字などの文字認識精度を向上させることができる、等々の効果を得られる。
【図面の簡単な説明】
【図1】本発明の文字領域抽出装置のブロック構成の一例を示すブロック図である。
【図2】本発明の文字領域抽出装置を前処理部として利用した文字認識装置の一例を示すブロック図である。
【図3】文字領域候補の端点画素の決定方法の説明図である。
【図4】文字領域候補の端点画素の決定方法の説明図である。
【図5】文字内背景領域の端点画素の決定方法の説明図である。
【図6】文字内背景画素の端点画素の決定方法の説明図である。
【図7】文字領域候補抽出部と文字領域抽出部の処理を一連の処理として実行する形態を説明するためのフローチャートである。
【図8】入力画像の一例を示す図である。
【図9】図8の入力画像に対する従来技術による文字領域抽出結果を示す図である。
【図10】図8の入力画像に対する本発明による文字領域抽出結果を示す図である。
【符号の説明】
1 画像入力部
2 文字領域候補抽出部
3 文字領域抽出部
4 ライン二値化部
5 ライン二値化結果統合部
6 結果出力部
7 画像メモリ
8 データメモリ
21 第1極値画素検出部
22 文字領域候補決定部
31 第2極値画素検出部
32 文字領域決定部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to the field of image data processing, and more particularly to a technique for extracting a character area in moving image data or still image data.
[0002]
[Prior art]
In order to recognize telop characters in moving image data such as TV broadcast video and characters in still image data, it is necessary to extract a character area from the image data.
[0003]
As conventional techniques for such character region extraction, documents “Kuwano, Arai, Kurakake, Sugimura:“ Character region extraction method in video by binarization in line units ”, Shingaku Aki Univ., D-12-42. , P. 264 (1996-09) ", a range in which the luminance value is locally higher or lower by a preset value than the peripheral portion in the horizontal and vertical lines. Extracted as a character area, binarized for each line by assigning different brightness values to the pixels in the character area and other pixels, compare the binarized results in each direction, both There is a method in which an area having a common position, size, and shape is finally used as a character area.
[0004]
[Problems to be solved by the invention]
In a television broadcast video, a pixel value (in this specification, a pixel value refers to both a luminance component or a density component of a pixel and a color component) tends to soak into adjacent pixels along a horizontal line in the image. . The degree of change in pixel value due to bleeding generally depends on the size of characters displayed in the image. If the size of the character is about 40 × 40 pixels or more, the background pixel value is relatively less likely to penetrate into the character, and the background pixel value between character strokes hardly changes. On the other hand, in the case of a small character of about 30 × 30 pixels or less, the character pixel value is strongly affected by the blur of the background pixel value, and the character pixel value also blurs in the background between character strokes. Is totally out of contrast.
[0005]
For example, in the character “ground” of 30 × 30 pixels shown in FIG. 8, the thin vertical stroke is strongly influenced by the background and changes from the original white to gray, and the background between the strokes of the “ya” portion is also the character of the character. The original black color is changed to gray color due to the blur of the pixel value, and the contrast of the entire character is blurred.
[0006]
For a relatively large character, the character region can often be appropriately extracted by the conventional technique. However, a small character such as "earth" in FIG. 8, for example, the pixel value distribution of the character portion on each line, and character, sandwiched between the pixel value difference between the outside of the background, text and its stroke background The pixel value difference between and the pixel value may differ greatly from each other. Therefore, in the conventional technique using one threshold value that is preset for binarization of each line, the background pixel between strokes inside the character (reference numeral 81 in FIG. 9). (Hereinafter, referred to as a character background area) cannot be removed from the character area, and an accurate outline shape of the character may not be extracted.
[0007]
Therefore, an object of the present invention is to provide a character area extraction method and apparatus capable of extracting an accurate character area from which a background area in a character is removed even for a relatively small character that is easily affected by the bleeding of pixel values. It is to provide.
[0008]
[Means for Solving the Problems]
The character region extraction method of the present invention detects one or a plurality of first extreme pixels that take the extreme value of the convex portion in the high pixel value direction of the pixel value distribution in each horizontal line of the image data. Selecting a maximum extreme value pixel having a maximum pixel value from the detected first extreme value pixel, and a pixel value of the maximum extreme value pixel and a pixel value of the maximum extreme value pixel as a center A pixel range in which the difference between them is within a predetermined value is extracted as a character region candidate, and one or a plurality of second values taking an extreme value of a concave portion opposite to the convex portion within the pixel range of the extracted character region candidate An extreme pixel is detected, and a pixel range whose pixel value is not more than a predetermined value from the pixel value of the first extreme pixel is extracted as a character inner background region around the second extreme pixel. The pixel range of the background area in the character is excluded from the pixel range of the area candidate The frequency, and extracting as a character area.
[0009]
In the character region extraction method of the present invention, one or a plurality of first extreme pixels that take the extreme values of the convex portions in the high pixel value direction of the pixel value distribution are obtained for each horizontal line of the image data. And detecting a maximum extreme value pixel that takes a maximum pixel value from the detected first extreme value pixel, and centering on the selected maximum extreme value pixel, the pixel value of the maximum extreme value pixel A pixel range in which a difference in pixel values is within a predetermined value is extracted as a character region candidate, and one or a plurality of second values taking an extreme value of a concave portion opposite to the convex portion in the pixel range of the extracted character region candidate. 2 extreme pixels are detected, and a pixel range in which the difference from the pixel value of the second extreme pixel is within a predetermined value around the second extreme pixel is extracted as an in-character background area. The pixel range of the background area in the character is excluded from the pixel range of the character area candidate. The area, and extracting as a character area.
[0010]
The character area extracting apparatus according to the present invention includes an image input unit for inputting image data, and a horizontal line of the image data input by the image input unit in a high pixel value direction of the pixel value distribution. One or a plurality of first extreme value pixels having an extreme value of a convex portion are detected, and a maximum extreme value pixel having a maximum pixel value is selected from the detected first extreme value pixels, and the selected A character area candidate extracting means for extracting, as a character area candidate, a pixel range having a pixel value difference within a predetermined value centered on the maximum extremum pixel, and the character area candidate extraction In the pixel range of the character region candidate extracted by the means, one or a plurality of second extreme pixels that take the extreme value of the concave portion opposite to the convex portion are detected, and the second extreme pixel is detected respectively. In the center, the pixel value is the image of the first extreme pixel. A character area extracting unit that extracts a pixel range that is less than or equal to a predetermined value as a background area within a character, and that extracts a region that excludes the pixel range of the background area within the character from the pixel range of the candidate character area as a character area; It is characterized by having.
[0011]
The character area extracting apparatus according to the present invention includes an image input unit for inputting image data, and a horizontal line of the image data input by the image input unit in a high pixel value direction of the pixel value distribution. One or a plurality of first extreme value pixels having an extreme value of a convex portion are detected, and a maximum extreme value pixel having a maximum pixel value is selected from the detected first extreme value pixels, and the selected A character area candidate extracting means for extracting, as a character area candidate, a pixel range having a pixel value difference within a predetermined value centered on the maximum extremum pixel, and the character area candidate extraction In the pixel range of the character region candidate extracted by the means, one or a plurality of second extreme pixels that take the extreme value of the concave portion opposite to the convex portion are detected, and the second extreme pixel is detected respectively. In the center, the difference from the pixel value of the second extreme pixel A character area extraction unit that extracts a pixel range within a predetermined value as a character background area, and extracts a region excluding the pixel range of the character background area from the pixel range of the character area candidate, as a character area; It is characterized by having.
[0012]
The character region extracting apparatus of the present invention, the character region of the first pixel value assigned to pixels contained in the character space on each line extracted by the extraction means, the on pixels that are not included in the character region first A line binarization unit that obtains binarized image data by integrating a line binarization unit that gives a second pixel value different from the pixel value and a binarization result for each line obtained by the line binarization unit And a result integrating means.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is a block diagram showing an example of a block configuration of a character area extracting apparatus according to the present invention. A character area extraction device 100 shown here includes an image input unit 1, a character area candidate extraction unit 2, a character region extraction unit 3, a line binarization unit 4, a line binarization result integration unit 5, a result output unit 6, and an image. It consists of a memory 7 and a data memory 8. In addition, the arrow of the thick line in FIG. 1 shows the flow of a process.
[0014]
The image input unit 1 is a means for inputting image data to be processed. The image data input by the image input unit 1 is stored in the image memory 7.
[0015]
The character area candidate extraction unit 2 is arranged in the horizontal direction of each line of the input image data stored in the image memory 7 from the convex part range in the high pixel value direction (hereinafter referred to as the first direction) of the pixel value distribution. This is means for extracting a character area candidate based on a difference in pixel value from the part.
[0016]
The character area extraction unit 3 extracts an in-character background area based on the difference in pixel value from the peripheral part from the recessed part range of the pixel value distribution inside the character area candidate extracted by the character area candidate extraction unit 2. This is means for extracting a region obtained by removing the character region candidate from the candidate character region as a character region.
[0017]
The line binarization unit 4 assigns a first pixel value to pixels included in the character region on each line extracted by the character region extraction unit 3, and the first pixel value and the pixels not included in the character region. This is means for binarizing each line by giving different second pixel values . The line binarization result integration unit 5 is a unit that obtains binarized image data by integrating the binarization results for each line obtained by the line binarization unit 4.
[0018]
The data memory 8 is used as a temporary data storage area by the character region candidate extraction unit 2, the character region extraction unit 3, the line binarization unit 4, and the line binarization result integration unit 5. The result output unit 6 is means for outputting the binarized image data generated on the data memory 8 by the line binarization result integration unit 5 to the outside.
[0019]
Such a character region extraction device 100 can be used as a preprocessing unit in the character recognition device 200 as shown in FIG. 2, for example. In FIG. 2, reference numeral 201 denotes a character cutout unit, which performs a process of cutting out individual character image data from the binarized image data output from the character region extraction device 100. A feature extraction unit 202 extracts feature amounts of individual character image data extracted by the character extraction unit 201. A matching unit 203 performs matching between the feature amount extracted by the feature extraction unit 202 and the feature amount registered in the recognition dictionary 204 to obtain a recognition result. The recognition result is output by the recognition result output unit 205 to, for example, an external storage device or a display device.
[0020]
According to the character region extraction apparatus 100 of the present invention, accurate character region extraction can be performed even for relatively small characters that are easily affected by pixel value bleeding. Therefore, if the character region extraction device 100 is used as a character recognition pre-processing unit, the recognition performance of telop characters and the like in television images is improved.
[0021]
The character area extraction apparatus 100 shown in FIG. 1 is configured to generate and output binarized image data as a character area extraction result, but outputs the character area information obtained by the character area extraction unit 3. It is also possible. However, the character area extraction apparatus configured to output binary image data as shown in the figure is convenient when used as a pre-processing unit for character recognition or when displaying the result of character area extraction on a display device. Good.
[0022]
Next, the character area candidate extraction unit 2 will be described more specifically. The character region candidate extraction unit 2 includes, for example, a first extreme value pixel detection unit 21 and a character region candidate determination unit 22 as shown in FIG. The first extreme value pixel detection unit 21 refers to input image data in the image memory 7 and takes an extreme value in the first direction on each line in the horizontal direction (first extreme value pixel). It is a means to detect. The detected coordinate information of the extreme pixel is stored in the data memory 8 and is referred to by the character region candidate determination unit 22. The character region candidate determination unit 22 refers to the coordinate information of the extreme value pixel in the data memory 8 and the input image data in the image memory 7, and selects the extreme value pixel from the pixels on both sides of the extreme value pixel. This is means for determining an end point pixel of a character area candidate based on a difference in pixel values. The determined coordinate information of the end point pixel is stored in the data memory 8 and is referred to by the character area extraction unit 3.
[0023]
The processing of the character region candidate extraction unit 2 will be described by taking as an example a case where the pixel value distribution of the character portion becomes a distribution shown by a thick line in FIG. 3 on a horizontal line with input image data. In this example, the character has a high pixel value, the background has a low pixel value, and a character area candidate is extracted from a convex portion range that is convex in the high pixel value direction (first direction) of the pixel value distribution.
[0024]
First, an extreme value pixel (first extreme value pixel) having an extreme value in the first direction, that is, a maximum value on the line is detected by the first extreme value pixel detection unit 21. In the convex range of the pixel value distribution shown in FIG. 3, the A pixel and the B pixel having the maximum values are detected as extreme value pixels .
[0025]
The character region candidate determination unit 22 selects, for example, one extreme pixel as a processing target from the detected extreme pixels in descending order of the pixel value, and the left side (line tip side) and the right side (line) of the extreme pixel. The left end point pixel and the right end point pixel of the character area candidate are searched toward the end side. For example, on the left side and the right side of the extreme value pixel, a pixel that is lower than the pixel value of the extreme value pixel and whose pixel value difference with the extreme value pixel exceeds a predetermined threshold Th1 is searched. In one embodiment, if such pixels are found on both sides of the extreme pixel to be processed, the pixels closest to the extreme pixel among the pixels are set as the left end pixel and the right end pixel, respectively. However, it is assumed that there is no pixel having a higher pixel value than the extreme pixel between such a pixel and the extreme pixel . If at least one of the leftmost pixel and the rightmost pixel is not found, processing for the extreme pixel currently being processed is aborted. If there are other extreme pixels that can be selected, the same applies to the extreme pixel. Perform the process.
[0026]
For example, if the extreme pixel A (maximum extreme pixel) in FIG. 3 is selected as a processing target, the pixels at coordinates x1 and x4 are determined as the left end point pixel and the right end point pixel as shown in FIG. That is, a pixel range from x1 to x4 is extracted as a character area candidate. When the extreme pixel B is selected as a processing target, since there is the extreme pixel A on the right side, the search for the end point pixel fails.
[0027]
In another embodiment, as shown in FIG. 4, when there is a pixel on the left side of the extreme value pixel B whose pixel value difference with the extreme value pixel B exceeds the threshold Th1, among these pixels, The pixel closest to the extreme pixel A is set as the left end point pixel of the character region candidate.
[0028]
Next, the character area extraction unit 3 will be described more specifically. For example, as shown in FIG. 1, the character region extraction unit 3 includes a second extreme value pixel detection unit 31 and a character region determination unit 32. The second extreme value pixel detection unit 31 refers to the coordinate information of the end point pixel of the character area candidate in the data memory 8 and the input image data in the image memory 7, and within the pixel range of the character area candidate, the first direction It is means for detecting an extreme pixel (second extreme pixel) that takes an extreme value in the opposite second direction. The detected coordinate information of the extreme pixel is stored in the data memory 8 and is referred to by the character area determination unit 32. The character region determination unit 32 refers to the coordinate information of the extreme pixel in the data memory 8 and the input image data in the image memory 7 to determine the end pixel of the background region in the character, and serves as a character region candidate character region. It is a means to extract. The extracted coordinate information of the end pixel of the character area is stored in the data memory 8 and is referenced by the line binarization unit 4.
[0029]
In one embodiment, the character area determination unit 32 selects one extreme pixel as a processing target from the extreme pixels (second extreme pixels) in the second direction detected inside the character area candidate. And the pixel with the extreme value pixel (first extreme value pixel) in the first direction detected in the character region candidate by the character region candidate extraction unit 2 from the pixels on both sides of the extreme value pixel Based on the value difference, the end point pixel of the background area within the character is determined.
[0030]
Taking the character region candidate (x1-x4) shown in FIG. 3 as an example, as shown in FIG. 5, a C pixel having a minimum value is detected as an extreme value pixel (second extreme value pixel). Among the pixels on the left side of the extreme pixel C (but on the right side of the extreme pixel B), the pixel having the pixel value difference from the extreme pixel B is larger than a predetermined threshold Th2 (<Th1). Let the pixel at the coordinate x2 furthest from C be the leftmost point pixel. Further, on the right side of the extreme pixel C (but on the left side of the extreme pixel A), the coordinate x3 farthest from the extreme pixel C among the pixels whose pixel value difference from the extreme pixel A is larger than the threshold Th2 is shown. Let the pixel be the rightmost point pixel. That is, the pixel range from x2 to x3 is extracted as the background area within the character, and this is excluded from the character region candidates.
[0031]
When the above-described conditions are not satisfied, if another extreme pixel in the second direction is detected, the same end pixel search is performed for the extreme pixel. When the condition is not satisfied in any of the end point pixels, the character region candidate is extracted as the character region because the character region candidate does not include the background region in the character.
[0032]
In another embodiment, the character region determination unit 32 is configured to select a pixel located on both sides of an extreme pixel (second extreme pixel) in the second direction detected within the pixel range of the character region candidate. Then, the end point pixel of the background area in the character is determined based on the difference in pixel value from the detected polarity value pixel in the second direction.
[0033]
Taking the character area candidate (x1-x4) shown in FIG. 3 as an example, as shown in FIG. 6, a C pixel having a minimum value is detected as an extreme value pixel. Among the pixels of the extreme value pixel C (inside the extreme value pixels A and B), the extreme value pixel is selected from among the pixels whose pixel value difference from the extreme value pixel C is larger than a predetermined threshold Th3 (<Th1). The pixels with the coordinates x2 and x3 closest to C are defined as the left end point pixel and the right end point pixel. That is, the pixel range from x2 to x3 is extracted as the background area within the character, and this is excluded from the character region candidates.
[0034]
When the above-described conditions are not satisfied, if another extreme pixel is detected, the same end pixel search is performed for the extreme pixel. If the condition is not satisfied in any of the end point pixels, it means that the character region candidate does not include the character background region.
[0035]
The processing of the character region candidate extraction unit 2 and the processing of the character region extraction unit 3 described above can be executed as a series of processing without being separated. Explaining the outline of the processing in this processing mode, the extreme pixel selected as the processing target from the extreme pixels detected by the first extreme pixel detection unit 21 and the character area adjacent to the selected extreme pixel are determined. The pixel values of pixels on the same line that are not compared are compared, and if the difference between the pixel values is smaller than the threshold value Th1 or the threshold value Th2, the adjacent pixel is set as a temporary character area. Thereafter, the comparison of pixel values and the determination of the character area are repeated by sequentially setting the pixel value comparison target as a pixel adjacent to the newly obtained temporary character area integrated with the extreme value pixels in the temporary character area. . This iterative process is performed again when (1) the difference between the pixel values is larger than the threshold value Th1 or (2) once the difference between the pixel values is smaller than the threshold value Th1 and larger than the threshold value Th2. When it becomes smaller than a preset value, the process ends. The end condition (1) is effective for detecting the outer contour of the character (for example, coordinates x1 and x4 in FIGS. 3 to 6), and the end condition (2) is the inner contour of the character (for example, x2 in FIG. 5 or FIG. 6). , X3). Then, when any one of these end conditions is satisfied, the pixel having the largest pixel value difference from the extreme pixel is determined as the end pixel of the character area. That is, the temporary character area is determined as the character area. Another end condition of the character area determination repetitive process is a case where the end point of the character area that has already been determined before the end point of the character area is detected. In this case, the temporary character area is discarded.
[0036]
FIG. 7 shows an example of a flowchart of such a processing form. In FIG. 7, in step 41, data of one line is read. In step 42, an extreme pixel having a maximum value or a minimum value is detected from the data of the line. Thereafter, the coordinate values of the extreme pixels are set to Mi,. . . , Mn. In step 43, the counter variable i is initialized to 1.
[0037]
In step 44, the counter variable j is initialized to (Mi + 1), and in step 45, the flag variable Flag is initialized to 0. In step 46, it is determined whether the pixel at the coordinate value j is already included in the extracted character area. If it is included, the counter variable i is incremented in step 47 and the process returns to step 44. Go to step 48.
[0038]
In step 48, it is determined whether the difference between the pixel value I (Mi) of the extreme pixel having the coordinate value Mi and the pixel value I (j) of the pixel having the coordinate value j is larger than the threshold value Th2 (<Th1). Proceeds to step 49, otherwise proceeds to step 51. In step 49, the flag variable Flag is set to 1. This is for temporarily storing the result of determination in step 48. In step 50, (j-1) is set to the temporary storage variable In.
[0039]
In step 51, it is determined whether Flag is 1 and the pixel value I (j) at the coordinate value j is larger than the sum of the pixel value I (n) and the threshold value Th2 at the coordinate value In. If it is not large, the process proceeds to step 53.
[0040]
In step 52, the pixel having the coordinate value In is determined as the end point (right end point) of the character area. In step 53, it is determined whether or not the difference between the pixel value I (Mi) of the extreme pixel at the coordinate value Mi and the pixel value I (j) at the coordinate value j is larger than the threshold value Th1, and if so, the process proceeds to step 55 and is not large. In this case, the counter variable j is incremented at step 54 and the process returns to step 46. In step 55, the pixel at the coordinate value j is determined as the end point (right end point) of the character area.
[0041]
When the right end point of the character area is determined in step 52 or step 55, the left end point searching process of the character area is performed in step 56. Since this process is the same as the right end point search process except that the search direction is reversed, the description thereof is omitted.
[0042]
According to the character area extracting apparatus according to the present invention described above, in other words, according to the character area extracting method of the present invention implemented by the character area extracting apparatus, even within a relatively small character, the stroke in the character The background portion (intra-character background region) in between is surely excluded from the character region, and more accurate character region extraction is possible. For example, an accurate character region extraction result as shown in FIG. 10 is obtained for the image of the character “ground” shown in FIG. Further, according to the present invention, not only the luminance in the image but also the character whose color changes by using the color component of the pixel as the pixel value.
[0043]
The processing contents of the character area extracting apparatus according to the present invention described above, that is, the processing procedure for the character area extracting method of the present invention can be implemented using a computer such as a personal computer including a processor and a memory. is there. In this case, the image data to be processed is captured into a memory from a video reproduction device such as a video recorder, for example, using an image capture board mounted on a personal computer or the like. A program for causing a computer to execute the processing procedure is read into a computer memory from various recording media such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element on which the program is recorded, and is executed by a processor. Various recording media on which such a program is recorded are also included in the present invention.
[0044]
【The invention's effect】
As is clear from the above description, according to the present invention, the pixel value of the character and the background changes due to the influence of the blur of the pixel value, the pixel value difference between the character and the outer background, and the background between the character and its stroke. Even for a relatively small character whose difference from the pixel value difference of the portion is greatly different, it is possible to accurately extract a character region by removing the background portion between strokes. Therefore, when the present invention is applied to, for example, pre-processing for character recognition, it is possible to improve the character recognition accuracy of telop characters and the like in television images, and so on.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of a block configuration of a character region extraction device of the present invention.
FIG. 2 is a block diagram showing an example of a character recognition device using the character region extraction device of the present invention as a pre-processing unit.
FIG. 3 is an explanatory diagram of a method for determining an end point pixel of a character area candidate.
FIG. 4 is an explanatory diagram of a method for determining an end point pixel of a character region candidate.
FIG. 5 is an explanatory diagram of a method for determining an end point pixel of a background area in a character.
FIG. 6 is an explanatory diagram of a method for determining an end point pixel of a background pixel in a character.
FIG. 7 is a flowchart for explaining a mode in which the processes of the character area candidate extraction unit and the character area extraction unit are executed as a series of processes.
FIG. 8 is a diagram illustrating an example of an input image.
FIG. 9 is a diagram showing a result of character area extraction according to the prior art for the input image of FIG. 8;
10 is a diagram showing a result of character area extraction according to the present invention for the input image of FIG. 8; FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part 2 Character area candidate extraction part 3 Character area extraction part 4 Line binarization part 5 Line binarization result integration part 6 Result output part 7 Image memory 8 Data memory 21 1st extreme value pixel detection part 22 Character area Candidate determination unit 31 Second extreme value pixel detection unit 32 Character region determination unit

Claims (6)

画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出し、
前記抽出した文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、画素値が前記第1の極値画素の画素値より所定以下にある画素範囲を文字内背景領域として抽出し、
前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出することを特徴とする文字領域抽出方法。
In the horizontal direction of each line of the image data, a first electrode for detecting one or more first extremum pixel an extreme value of the convex portion to the high pixel value direction of the pixel value distribution, which is the detected A pixel having a maximum pixel value that takes a maximum pixel value from a value pixel, a pixel having a pixel value difference within a predetermined value centered on the selected maximum extreme pixel and a pixel value of the maximum extreme pixel Extract the range as a character area candidate,
In the pixel range of the extracted character region candidate, one or a plurality of second extreme pixels having an extreme value of a concave portion opposite to the convex portion are detected, and each of the second extreme pixel is centered. , A pixel range having a pixel value equal to or less than a predetermined value from the pixel value of the first extreme pixel is extracted as a character background area,
A character region extraction method, wherein a region excluding the pixel range of the character background region from the pixel range of the character region candidate is extracted as a character region.
画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出し、In each horizontal line of the image data, one or a plurality of first extreme value pixels taking the extreme value of the convex portion in the high pixel value direction of the pixel value distribution are detected, and the detected first extreme value is detected. A pixel having a maximum pixel value that takes a maximum pixel value from a value pixel, a pixel having a pixel value difference within a predetermined value centered on the selected maximum extreme pixel and a pixel value of the maximum extreme pixel Extract the range as a character area candidate,
前記抽出した文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、該第2の極値画素の画素値との差が所定値以内にある画素範囲を文字内背景領域として抽出し、In the pixel range of the extracted character area candidate, one or a plurality of second extreme pixels that take the extreme value of the concave portion opposite to the convex portion are detected, and the second extreme pixel is centered respectively. , A pixel range in which the difference from the pixel value of the second extreme pixel is within a predetermined value is extracted as a background area within the character,
前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出することを特徴とする文字領域抽出方法。A character region extraction method, wherein a region excluding the pixel range of the character background region from the pixel range of the character region candidate is extracted as a character region.
画像のデータを入力する画像入力手段と、Image input means for inputting image data;
前記画像入力手段により入力された画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出する文字領域候補抽出手段と、Detecting one or a plurality of first extreme value pixels taking the extreme values of the convex portions in the high pixel value direction of the pixel value distribution in each horizontal line of the image data input by the image input means; The maximum extreme value pixel having the maximum pixel value is selected from the detected first extreme value pixels, and the pixel value of the pixel value of the maximum extreme value pixel is set around the selected maximum extreme value pixel. Character area candidate extraction means for extracting a pixel range having a difference within a predetermined value as a character area candidate;
前記文字領域候補抽出手段により抽出された文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、画素値が前記第1の極値画素の画素値より所定以下にある画素範囲を文字内背景領域として抽出し、前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出する文字領域抽出手段とを有することを特徴とする文字領域抽出装置。In the pixel range of the character area candidate extracted by the character area candidate extracting means, one or a plurality of second extreme pixels taking the extreme value of the concave portion opposite to the convex portion are detected, and the second A pixel range whose pixel value is a predetermined value or less than the pixel value of the first extreme value pixel is extracted as a character inner background region, and the character inner background is extracted from the character region candidate pixel range. A character area extraction device comprising: character area extraction means for extracting an area excluding the pixel range of the area as a character area.
画像のデータを入力する画像入力手段と、Image input means for inputting image data;
前記画像入力手段により入力された画像データの水平方向の各ラインにおいて、画素値分布の高画素値方向への凸部の極値をとる1つあるいは複数の第1の極値画素を検出し、前記検出された第1の極値画素から最大の画素値をとる最大極値画素を選択し、前記選択された最大極値画素を中心に、該最大極値画素の画素値との画素値の差が所定値以内にある画素範囲を文字領域候補として抽出する文字領域候補抽出手段と、Detecting one or a plurality of first extreme value pixels taking the extreme values of the convex portions in the high pixel value direction of the pixel value distribution in each horizontal line of the image data input by the image input means; The maximum extreme value pixel having the maximum pixel value is selected from the detected first extreme value pixels, and the pixel value of the pixel value of the maximum extreme value pixel is set around the selected maximum extreme value pixel. Character area candidate extraction means for extracting a pixel range having a difference within a predetermined value as a character area candidate;
前記文字領域候補抽出手段により抽出された文字領域候補の画素範囲内において、前記凸部と反対の凹部の極値をとる1つあるいは複数の第2の極値画素を検出し、それぞれ前記第2の極値画素を中心に、該第2の極値画素の画素値との差が所定値以内にある画素範囲を文字内背景領域として抽出し、前記文字領域候補の画素範囲より、前記文字内背景領域の画素範囲を除いた領域を、文字領域として抽出する文字領域抽出手段とを有することを特徴とする文字領域抽出装置。In the pixel range of the character area candidate extracted by the character area candidate extracting means, one or a plurality of second extreme pixels taking the extreme value of the concave portion opposite to the convex portion are detected, and the second A pixel range having a difference from the pixel value of the second extreme value pixel within a predetermined value is extracted as a background area within the character, and the character area candidate pixel range is extracted from the pixel range of the character area candidate. A character area extracting device comprising: a character area extracting means for extracting an area excluding a pixel range of a background area as a character area.
前記文字領域抽出手段により抽出された各ライン上の文字領域に含まIncluded in the character area on each line extracted by the character area extraction means れる画素に第1画素値を付与し、文字領域に含まれない画素に前記第1画素値と異なる第2画素値を付与するライン二値化手段と、Line binarization means for providing a first pixel value to a pixel to be applied and a second pixel value different from the first pixel value to a pixel not included in the character region;
前記ライン二値化手段により得られたライン毎の二値化結果を統合して二値化画像データを得るライン二値化結果統合手段とをさらに有することを特徴とする請求項3もしくは4記載の文字領域抽出装置。5. The line binarization result integration unit for integrating the binarization results for each line obtained by the line binarization unit to obtain binarized image data. Character area extraction device.
コンピュータが読み取り可能な記録媒体であって、請求項1もしくは2記載の文字領域抽出方法のための処理手順をコンピュータに実行させるためのプログラムが記録されたことを特徴とする記録媒体。A computer-readable recording medium on which a program for causing a computer to execute the processing procedure for the character region extraction method according to claim 1 or 2 is recorded.
JP2000239914A 2000-08-08 2000-08-08 Character area extraction method, character area extraction apparatus, and recording medium Expired - Lifetime JP3634248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000239914A JP3634248B2 (en) 2000-08-08 2000-08-08 Character area extraction method, character area extraction apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000239914A JP3634248B2 (en) 2000-08-08 2000-08-08 Character area extraction method, character area extraction apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2002056355A JP2002056355A (en) 2002-02-20
JP3634248B2 true JP3634248B2 (en) 2005-03-30

Family

ID=18731371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000239914A Expired - Lifetime JP3634248B2 (en) 2000-08-08 2000-08-08 Character area extraction method, character area extraction apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3634248B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145126B (en) * 2019-12-31 2023-04-07 陈文海 Image character fast erasing method

Also Published As

Publication number Publication date
JP2002056355A (en) 2002-02-20

Similar Documents

Publication Publication Date Title
US9053361B2 (en) Identifying regions of text to merge in a natural image or video frame
JP4626886B2 (en) Method and apparatus for locating and extracting captions in digital images
US10559067B2 (en) Removal of shadows from document images while preserving fidelity of image contents
US20130129216A1 (en) Text Detection Using Multi-Layer Connected Components With Histograms
CN107784669A (en) A kind of method that hot spot extraction and its barycenter determine
US9176043B2 (en) Cell image analysis apparatus, cell image analysis method, and program
US9171224B2 (en) Method of improving contrast for text extraction and recognition applications
TW201437925A (en) Object identification device, method, and storage medium
JP2002133426A (en) Ruled line extracting device for extracting ruled line from multiple image
US8000535B2 (en) Methods and systems for refining text segmentation results
CN108960247B (en) Image significance detection method and device and electronic equipment
JP5870745B2 (en) Image processing apparatus, binarization threshold value calculation method, and computer program
JP2008011484A (en) Apparatus and method for extracting character and graphic string, program for executing the method, recording medium with the program stored therein
US9076225B2 (en) Image processing device, an image processing method and a program to be used to implement the image processing
JP2010152800A (en) Image processing apparatus, image processing method and program
Giri Text information extraction and analysis from images using digital image processing techniques
JP2010186246A (en) Image processing apparatus, method, and program
US20020025080A1 (en) Image processing apparatus, image processing method, and computer readable recording medium recording image processing program for processing image obtained by picking up or reading original
JP2000182053A (en) Method and device for processing video and recording medium in which a video processing procedure is recorded
JP3634248B2 (en) Character area extraction method, character area extraction apparatus, and recording medium
JP3544324B2 (en) CHARACTER STRING INFORMATION EXTRACTION DEVICE AND METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD
CN113076952A (en) Method and device for automatically identifying and enhancing text
Huang et al. An efficient method of license plate location in natural-scene image
JP3016687B2 (en) Image processing device
JPH09305707A (en) Image extracting system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041222

R151 Written notification of patent or utility model registration

Ref document number: 3634248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term