JP2005018176A - Character area extracting device, character area extracting method and character area extracting program - Google Patents
Character area extracting device, character area extracting method and character area extracting program Download PDFInfo
- Publication number
- JP2005018176A JP2005018176A JP2003178825A JP2003178825A JP2005018176A JP 2005018176 A JP2005018176 A JP 2005018176A JP 2003178825 A JP2003178825 A JP 2003178825A JP 2003178825 A JP2003178825 A JP 2003178825A JP 2005018176 A JP2005018176 A JP 2005018176A
- Authority
- JP
- Japan
- Prior art keywords
- character
- color
- statistical
- area
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Input (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像の色の統計分布に基づいて、その画像から文字領域を抽出する文字領域抽出装置、文字領域抽出方法及び文字領域抽出プログラムに関する。
【0002】
【従来の技術】
従来、画像から、文字が描かれた文字領域を抽出する装置としては、自動車道路等に設置されて、車両のナンバープレートから車両番号を読み取るナンバープレート読み取り装置等が存在している。このナンバープレート読み取り装置では、車両番号の文字認識を行う前処理として、ナンバープレートを撮影した画像から文字領域の抽出を行っている。このような、画像から文字領域を抽出する手法としては、以下に示す種々の手法が存在する。
【0003】
まず、第1の手法としては、入力された画像を、画像の明度によって2値化画像に変換し、その2値化画像から文字領域を抽出する手法が提案されている(例えば、特許文献1、特許文献2参照。)。
また、第2の手法としては、入力された画像に対して微分処理を施すことで、エッジ画像を生成し、そのエッジ画像から文字領域を抽出する手法が提案されている(例えば、特許文献3参照。)。
さらに、第3の手法としては、文字が水平方向に並んでいる等の文字の幾何学的な特徴を、予め定めた基準値と比較することで文字領域を抽出する手法が提案されている(例えば、特許文献4参照。)。
【0004】
【特許文献1】
特開平6−111058号公報(第3−5頁、第1図)
【特許文献2】
特開2001−331803号公報(第3−5頁、第1図)
【特許文献3】
特開2000−187732号公報(第4頁、第1−3図)
【特許文献4】
特開平9−319995号公報(第5−9頁、第1図及び第4図)
【0005】
【発明が解決しようとする課題】
前記従来の技術において、第1の手法のように、2値化画像を用いて文字領域を抽出する手法では、コントラストや明度のヒストグラム等によって、2値化を行う閾値を自動で設定することも可能で、容易に2値化画像を生成することができるが、色情報を考慮していないため、文字色と背景色とが異なっていても明度が同じである場合は、文字領域と背景領域とを同一の領域であると判定してしまい、文字領域を抽出することができないという問題があった。
なお、色情報を考慮して閾値を設定する場合、例えばRGB等の多次元の空間で閾値を設定する必要があり、任意の文字色及び任意の背景色で描かれた画像に対して閾値を設定できるような、汎用的な手法は存在していない。
【0006】
また、第2の手法のように、エッジ画像を用いて文字領域を抽出する手法では、微分演算を行う必要があるため、ノイズや汚れに弱く、文字以外の領域を文字領域と誤認識してしまうという問題があった。
さらに、第3の手法のように、文字の幾何学的な特徴によって文字領域を抽出する手法では、文字列の長さが短い、文字列の並びが不規則である、あるいは、文字列が定型の位置に配置されていない場合、その有効性を発揮することができないという問題があった。
【0007】
本発明は、以上のような問題点に鑑みてなされたものであり、任意の文字色及び任意の背景色で描かれた画像であっても、汎用的に文字領域を抽出することが可能な文字領域抽出装置、文字領域抽出方法及び文字領域抽出プログラムを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載の文字領域抽出装置は、任意の文字色、及び、その文字色以外の任意の背景色で描かれた画像から、前記文字色で描かれた文字領域を抽出する文字領域抽出装置であって、統計パラメータを生成するパラメータ生成手段と、画像における色の広がりの指標を示す広がり指標を算出する広がり指標算出手段と、文字色の統計パラメータを選択するパラメータ選択手段と、文字色類似度を算出する類似度算出手段と、画像を領域分割する領域分割手段と、を備える構成とした。
【0009】
かかる構成によれば、文字領域抽出装置は、パラメータ生成手段によって、入力された画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成する。例えば、画像から色の統計分布の加重和である混合モデルを構築することで、文字色と背景色とを異なる確率密度関数で近似する。この確率密度関数は、平均ベクトルや分散等の統計パラメータによって、統計分布を特定することができる。これによって、任意の色であっても、文字色と背景色とを統計パラメータによって区分することが可能になる。
【0010】
そして、文字領域抽出装置は、広がり指標算出手段によって、統計パラメータから画像における色の広がり指標を算出し、その広がり指標に基づいて、パラメータ選択手段が、文字色の統計パラメータを選択する。ここで広がり指標とは、画像上で、ある色が統計分布において、どれだけの広がりを持っているかを示す指標であって、分散等の値を用いることができる。
【0011】
例えば、背景の上に文字が描かれている画像の場合、背景色と文字色との2色が、画像を占める大部分の色となり、色の統計分布は2つの分布で表現されることになる。さらに、一般的に画像上では、文字領域の周りに背景領域が存在するため、文字色よりも背景色の方が大きな広がりを持っている。そこで、最も大きい分散を持つ統計分布は、背景色のものであり、2番目に大きい分散を持つ統計分布は、文字色のものであると仮定することができる。このように統計分布の広がり(分散)を求めることで、文字色の統計分布(統計パラメータ)を特定することができる。
【0012】
なお、色の分布が3つ以上となる場合は、背景色及び文字色以外の色をノイズとみなし、例えば、統計分布の重み係数によって、背景色及び文字色の2組の統計パラメータのみを選択すればよい。
【0013】
そして、文字領域抽出装置は、類似度算出手段によって、文字色の統計パラメータと、画像の各画素の画素値(色ベクトル)とに基づいて、文字色類似度を算出し、領域分割手段によって、画像を文字領域とそれ以外の領域(背景領域)とに分割する。文字色類似度は、画素値(色ベクトル)が、文字色に類似する度合いを示すものであって、例えば、色ベクトルが文字色の統計分布に属する確率である。
このように、文字領域抽出装置は、画像の色の統計分布から、文字色の統計分布を特定する確率密度関数の統計パラメータを求め、画像の各画素の画素値が文字色の統計分布に属するかどうかを判定することで、文字領域を抽出する。
【0014】
また、請求項2に記載の文字領域抽出装置は、任意の文字色、及び、任意の背景色で描かれた画像から、前記文字色で描かれた文字領域を抽出する文字領域抽出装置であって、統計パラメータを生成するパラメータ生成手段と、画像における色の広がりの指標を示す広がり指標を算出する広がり指標算出手段と、文字色及び背景色の統計パラメータを選択するパラメータ選択手段と、文字色類似度及び背景色類似度を算出する類似度算出手段と、画像を領域分割する領域分割手段と、を備える構成とした。
【0015】
かかる構成によれば、文字領域抽出装置は、パラメータ生成手段によって、入力された画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成する。例えば、画像から色の統計分布の加重和である混合モデルを構築することで、文字色と背景色とを異なる確率密度関数で近似することで、任意の色であっても、文字色と背景色とを統計パラメータによって区分することが可能になる。
そして、文字領域抽出装置は、広がり指標算出手段によって、統計パラメータから画像における色の広がり指標(例えば、分散)を算出し、その広がり指標に基づいて、パラメータ選択手段が、文字色及び背景色の統計パラメータを選択する。
【0016】
そして、文字領域抽出装置は、類似度算出手段によって、文字色及び背景色の統計パラメータと、画像の各画素の画素値(色ベクトル)とに基づいて、文字色類似度及び背景色類似度を算出する。この文字色類似度及び背景色類似度は、それぞれ、画素値(色ベクトル)が、文字色又は背景色に類似する度合いを示すものであって、例えば、色ベクトルが文字色又は背景色の統計分布に属する確率である。この確率(文字色類似度及び背景色類似度)に基づいて、領域分割手段が、画像を文字領域と背景領域とに分割することが可能になる。
【0017】
さらに、請求項3に記載の文字領域抽出装置は、請求項1又は請求項2に記載の文字領域抽出装置において、領域計測手段と、領域変更手段と、を備える構成とした。
【0018】
かかる構成によれば、文字領域抽出装置は、領域計測手段によって、領域分割手段で分割された文字領域における各画素の連結領域の大きさを計測する。この連結領域とは、文字領域を構成する画素のまとまりであって、その大きさとは、連結領域の面積、例えば画素数を示す。そして、文字領域抽出装置は、領域変更手段によって、連結領域の大きさが所定の閾値より小さい場合に、その連結領域を文字領域とは異なるノイズと判断して、背景領域に変更する。これによって、文字領域抽出装置は、画像から精度よく文字領域を抽出することができる。
【0019】
また、請求項4に記載の文字領域抽出装置は、請求項1乃至請求項3のいずれか1項に記載の文字領域抽出装置において、前記統計パラメータには、混合モデルを構成するガウス分布のパラメータを用いることを特徴とする。
【0020】
かかる構成によれば、文字領域抽出装置は、統計パラメータに混合モデルを構成するガウス分布のパラメータを用いることとすると、EM(Expectation−Maximization)アルゴリズム等の従来のアルゴリズムに基づいて、統計パラメータを容易に算出することができる。この確率密度関数をガウス分布のパラメータである平均ベクトル、共分散行列及び当該共分散行列の混合重みで表すことで、文字色、背景色を一意に特定することが可能になる。
【0021】
また、文字領域抽出装置において、統計パラメータにガウス分布のパラメータを用いることとすると、その統計パラメータを、本願出願人が出願した(「統計解析装置、統計解析方法及び統計解析プログラム」特願2002−313611)で提案した統計解析装置等を用いて算出することも可能になる。これによって、EMアルゴリズムのような反復収束演算を行う必要がないため、演算速度を早めることができる。
【0022】
さらに、請求項5に記載の文字領域抽出方法は、任意の文字色、及び、その文字色以外の任意の背景色で描かれた画像から、前記文字色で描かれた文字領域を抽出する文字領域抽出方法であって、パラメータ生成ステップと、パラメータ選択ステップと、類似度算出ステップと、領域分割ステップと、を含んでいることを特徴とする。
【0023】
この手順によれば、文字領域抽出方法は、パラメータ生成ステップで、入力された画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成する。例えば、画像から色の統計分布の加重和である混合モデルを構築することで、文字色と背景色とを異なる確率密度関数で近似する。これによって、任意の色であっても、文字色と背景色とを統計パラメータによって区分することが可能になる。
【0024】
そして、文字領域抽出方法は、パラメータ選択ステップで、統計パラメータから画像における色の広がり指標(例えば分散)を算出し、その広がり指標に基づいて、文字色の統計パラメータを選択する。この広がり指標によって、色の広がりが大きい方を背景色、小さい方を文字色というように特定することができる。
【0025】
さらに、文字領域抽出方法は、類似度算出ステップで、文字色の統計パラメータと、画像の各画素の色ベクトルとに基づいて、文字色類似度を算出し、領域分割ステップで、画像を文字領域とそれ以外の領域(背景領域)とに分割する。この文字色類似度は、例えば、色ベクトルが文字色の統計分布に属する確率である。そして、この確率によって、画素が文字領域に含まれる画素かどうかを判定することが可能になる。
【0026】
また、請求項6に記載の文字領域抽出プログラムは、任意の文字色、及び、その文字色以外の任意の背景色で描かれた画像から、前記文字色で描かれた文字領域を抽出するために、コンピュータを、パラメータ生成手段、広がり指標算出手段、パラメータ選択手段、類似度算出手段、領域分割手段、として機能させることを特徴とする。
【0027】
かかる構成によれば、文字領域抽出プログラムは、パラメータ生成手段によって、入力された画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成する。これによって、任意の色であっても、文字色と背景色とを統計パラメータによって区分することが可能になる。
【0028】
そして、文字領域抽出プログラムは、広がり指標算出手段によって、統計パラメータから画像における色の広がり指標(例えば分散)を算出し、その広がり指標に基づいて、パラメータ選択手段が、文字色の統計パラメータを選択する。この広がり指標によって、色の広がりが大きい方を背景色、小さい方を文字色というように特定することができる。
【0029】
さらに、文字領域抽出プログラムは、類似度算出手段によって、文字色の統計パラメータと、画像の各画素の色ベクトルとから、文字色類似度を算出し、領域分割手段によって、画像を文字領域とそれ以外の領域(背景領域)とに分割する。この文字色類似度は、例えば、色ベクトルが文字色の統計分布に属する確率である。そして、この確率によって、画素が文字領域に含まれる画素かどうかを判定することが可能になる。
【0030】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
[第一の実施の形態:文字領域抽出装置]
図1は、本発明における第一の実施の形態に係る文字領域抽出装置の構成を示したブロック図である。図1に示すように、文字領域抽出装置1は、入力された任意の文字色、及び、その文字色以外の任意の背景色で描かれた画像(入力画像)を、文字領域と背景領域とに分割することで、入力画像から文字領域を抽出するものである。ここでは、文字領域抽出装置1は、統計パラメータ算出手段10と、類似度判定分割手段20とを備えて構成している。
【0031】
統計パラメータ算出手段10は、入力画像内の色の統計分布から、混合モデルによる確率密度関数における、文字色及び背景色の統計パラメータを算出するものである。なお、統計パラメータ算出手段10は、統計パラメータ生成部11と、統計パラメータ選択部12とにより構成されている。
【0032】
統計パラメータ生成部(パラメータ生成手段)11は、M組(Mは2以上の自然数)の確率密度関数の加重和によって表される混合モデルによって、入力画像内における色の統計分布を近似し、その混合モデルにおける各確率密度関数の統計パラメータを生成するものである。なお、色は、例えば色の3原色によって表現される色空間におけるベクトル(以降、色ベクトルと呼ぶ)である。また、混合モデルにおける各確率密度関数を基底要素と呼ぶ。
【0033】
ここで、色ベクトルをx、mを1以上M以下の自然数とし、混合モデルp(x)を構成する第m番目の基底要素をem(x)、当該基底要素の混合重み(重み係数)をwmとすると、混合モデルp(x)は、(1)式で表される。
【0034】
【数1】
【0035】
ただし、第m番目の基底要素の混合重みwmは、(2)式を満たしているものとする。
【0036】
【数2】
【0037】
このように、混合モデルp(x)によって、入力画像の色(色ベクトル)の統計分布を近似することにより、入力画像の特徴となるM個の支配的な色(例えば、背景色及び文字色)の分布である基底要素em(x)を抽出することができる。
【0038】
なお、この基底要素em(x)には、例えばガウス分布の確率密度関数(ガウス基底要素)を用いることができる。ここで、dを色ベクトルxの色空間における次数(次元)、μmを第m番目の平均ベクトル、Σm及びΣm −1をそれぞれ共分散行列及びその逆行列とし、Tを行列の転置を表すものとすると、ガウス基底要素N(x;μm,Σm)は、(3)式で表される。
【0039】
【数3】
【0040】
なお、3原色のカラーカメラで撮影された画像を扱う場合は、次数d=3となり、モノクロームのカメラを用いる場合は、次数d=1となる。また、D(2以上)個の波長帯に分光する撮像手段を用いる場合は次数d=Dとなる。このように、次数dの次元は、扱う画像に応じて1以上の自然数であればよい。
【0041】
以降、基底要素em(x)については、ガウス分布の確率密度関数を例として説明する。すなわち、基底要素em(x)は、(4)式に示すようにガウス基底要素N(x;μm,Σm)を用いる。なお、以降の説明において、ガウス基底要素は、単に基底要素と呼ぶこととする。
【0042】
【数4】
【0043】
この統計パラメータ生成部11は、(4)式に示した基底要素(ガウス基底要素)em(x)に対して、EM(Expectation−Maximization)アルゴリズムによって、反復収束演算を行うことで、第m番目の基底要素の統計パラメータである平均ベクトルμm、共分散行列Σm及び当該共分散行列Σmの混合重みwmを得る。ここでは、EMアルゴリズムをM回実行することで、M組の統計パラメータ(μm,Σm,wm)(m=1,2,…,M)を得る。ここで生成されたM組の統計パラメータは、統計パラメータ選択部12へ出力される。
【0044】
ここで、図2及び図3を参照して、EMアルゴリズムを用いた統計パラメータ(平均ベクトルμm、共分散行列Σm及び混合重みwm)を算出する手法について説明する。図2は、文字が描かれた画像(入力画像)の一例を示す図である。図3は、入力画像を色空間上の混合モデルで表現した図である。
【0045】
図2に示すように、入力画像Mには、任意の文字色及び任意の背景色で描かれた文字領域C及び背景領域Nと、ノイズ(文字色及び背景色以外の第3色のノイズE1、文字色と同色の文字色ノイズE2)とが混在しているものとする。
また、図3に示すように、ここでは、色の3原色(R、G、B)によって表現される色空間上の混合モデル(ガウス混合モデル)によって、入力画像Mの色の統計分布を近似することとし、統計パラメータの数は3(M=3)とする。
【0046】
ここで、EMアルゴリズムの第k反復終了後における平均ベクトルの推定値をμm (k)、共分散行列の推定値をΣm (k)、及び、混合重みの推定値をwm (k)とすると、wm (k)は、(5)式により求められる。
【0047】
【数5】
【0048】
なお、ζm (k−1)(x)は、第(k−1)反復終了後までに推定された平均ベクトルμm (k−1)、共分散行列Σm (k−1)、及び、混合重みwm (k−1)に基づいて計算される値で、第m番目の基底要素から色ベクトルxが出力される確率を表す。このζm (k−1)(x)は、(6)式により与えられる。
【0049】
【数6】
【0050】
また、第k反復終了後における平均ベクトルの推定値μm (k)、及び、共分散行列の推定値をΣm (k)は、それぞれ、(7)式及び(8)式により求められる。
【0051】
【数7】
【0052】
【数8】
【0053】
このように、統計パラメータ(平均ベクトルμm、共分散行列Σm及び混合重みwm)は、平均ベクトルμm (0)、共分散行列Σm (0)、及び、混合重みwm (0)を初期値として与え、帰納的に前記(5)式乃至(8)式に代入することにより算出される。すなわち、(9)式に示すようにk回の反復演算によって、混合モデルp(x)((1)式及び(4)式参照)を構成する基底要素の統計パラメータ(μm,Σm,wm)を推定することができる。
【0054】
【数9】
【0055】
この反復演算は、反復の回数(k)を予め定めた一定回数(例えば100回)として演算を行ってもよいし、kの増加に対して基底要素の統計パラメータの変化量が、ある閾値を下回った時点で反復演算を終了することとしてもよい。
また、初期値として与える統計パラメータの初期値は、例えば、入力画像全体の色ベクトルの平均ベクトル及び共分散行列に乱数を加えて、μm (0)及びΣm (0)とし、wm (0)は全て1/Mとする。
【0056】
このように、初期値を設定することで、図3において、第1番目(m=1)の初期値P1 (0)(μ1 (0),Σ1 (0),w1 (0))からは、基底要素の統計パラメータP1(μ1,Σ1,w1)が算出される。また、第2番目(m=2)の初期値P2 (0)(μ2 (0),Σ2 (0),w2 (0))からは、基底要素の統計パラメータP2(μ2,Σ2,w2)が算出される。また、第3番目(m=3)の初期値P3 (0)(μ3 (0),Σ3 (0),w3 (0))からは、基底要素の統計パラメータP3(μ3,Σ3,w3)が算出される。
【0057】
これによって、図2の文字領域C、背景領域N及び第3色ノイズE1は、基底要素の統計パラメータP1、P2及びP3で表現されたいずれかの統計分布に属することになる。また、文字色ノイズE2は、文字領域Cと同じ統計分布に属することになる。なお、文字領域C及び背景領域Nが、どの統計分布に属するかの判定は、後記する統計パラメータ選択部12(図1)によって行われる。
図1に戻って説明を続ける。
【0058】
統計パラメータ選択部12は、統計パラメータ生成部11で生成されたM組の統計パラメータから、文字色及び背景色の統計パラメータを選択するものである。この統計パラメータ選択部12では、M組の統計パラメータ(μm,Σm,wm)(m=1,2,…,M)のうち、混合重みwmの大きい方から2組の統計パラメータを選択し、その2組の統計パラメータの一方を文字色の統計パラメータ、他方を背景色の統計パラメータとする。また、ここで選択された文字色の統計パラメータ及び背景色の統計パラメータは、領域分割手段20へ通知される。なお、ここでは、統計パラメータ選択部12を、広がり指標算出部12aとパラメータ選択部12bとにより構成した。
【0059】
広がり指標算出部(広がり指標算出手段)12aは、混合重みwmの大きい方から2組の統計パラメータを選択し、それぞれの統計パラメータで表される統計分布(色分布)の広がりを示す指標(広がり指標)を算出するものである。ここで算出された2つの広がり指数は、パラメータ選択部12bへ通知される。
【0060】
この広がり指標算出部12aでは、画像上の広がりを示す指標を、統計分布の分散によって求めるものとする。すなわち、広がり指標算出部12aは、入力画像の各画素の色ベクトルxが、その統計パラメータで示された統計分布に属する確率ζm(x)を(10)式による演算により求め、(11)式及び(12)式によって、統計分布の共分散行列Smを求める。
【0061】
【数10】
【0062】
【数11】
【0063】
【数12】
【0064】
なお、(11)式及び(12)式において、rは画像内の座標を表している。また、Wmは横方向の分散、Hmは縦方向の分散、Cmは共分散を表している。
このように、広がり指標算出部12aは、横方向の分散Wm又は縦方向の分散Hmによって、統計分布(色分布)の広がり指標を求めることができる。そこで、広がり指標算出部12aは、混合重みwmの大きい2組の統計分布の広がり指標(Wm又はHm)を(10)式乃至(12)式で求め、パラメータ選択部12bに通知する。
【0065】
パラメータ選択部(パラメータ選択手段)12bは、広がり指標算出部12aで算出された2つの広がり指標に基づいて、混合重みwmの大きい2組の統計パラメータを、それぞれ文字色の統計パラメータ、及び、背景色の統計パラメータとして選択するものである。なお、ここでは、文字領域の周りに背景色となる余白(余白は白色とは限らない)が存在する場合を想定し、文字領域よりも背景領域(非文字領域)の方が画像上で大きな広がりを持っているものとする。
【0066】
ここで、混合重みwmの大きい順に2組の統計パラメータを(μa,Σa,wa)、(μb,Σb,wb)とし、それぞれの広がり指標をWa、Wb(ここでは、(11)式の横方向の分散Wmを用いることとする)とすると、Wa<Wbの場合は、(μa,Σa,wa)が文字色の統計パラメータ、(μb,Σb,wb)が背景色の統計パラメータとなる。また、Wa≧Wbの場合は、(μb,Σb,wb)が文字色の統計パラメータ、(μa,Σa,wa)が背景色の統計パラメータとなる。すなわち、パラメータ選択部12bは、(13)式に示す判定によって、文字色の統計パラメータ(μc,Σc,wc)と、背景色の統計パラメータ(μn,Σn,wn)とを特定する。
【0067】
【数13】
【0068】
ここで、特定された文字色の統計パラメータ(μc,Σc,wc)と、背景色の統計パラメータ(μn,Σn,wn)とは、類似度判定分割手段20へ通知される。また、文字色及び背景色以外の色(例えば、図2の第3色ノイズE1)の統計パラメータは、以降の判定には使用されない。
【0069】
類似度判定分割手段20は、統計パラメータ算出手段10で算出された文字色の統計パラメータ(μc,Σc,wc)及び背景色の統計パラメータ(μn,Σn,wn)に基づいて、入力画像の各画素の色ベクトルが、文字色又は背景色のどちらの統計パラメータに類似するかを判定し、入力画像を文字領域と背景領域とに分割した2値化画像を生成するものである。ここでは、類似度判定分割手段20を、類似度算出部21と、領域分割部22とにより構成した。
【0070】
類似度算出部(類似度算出手段)21は、統計パラメータ算出手段10の統計パラメータ選択部12で選択された文字色の統計パラメータ(μc,Σc,wc)及び背景色の統計パラメータ(μn,Σn,wn)と、入力画像内の各画素の画素値(色ベクトル)とに基づいて、各画素の色が、文字色及び背景色に類似する度合いを示す類似度(それぞれの類似度を、文字色類似度及び背景色類似度と呼ぶ)を算出するものである。ここで算出された文字色類似度及び背景色類似度は、領域分割部22へ通知される。
【0071】
この類似度算出部21は、類似度を前記(3)式に示したガウス基底要素Nの類似性に基づいて算出する。すなわち、類似度算出部21は、入力画像の各画素の座標rにおける色ベクトルx(r)が文字色の統計パラメータに類似する文字色類似度ζc(x(r))と、色ベクトルx(r)が背景色の統計パラメータに類似する背景色類似度ζn(x(r))とを、(14)式による演算により求める。この各類似度は、色ベクトルx(r)が、各統計パラメータで表される統計分布に属する確率である。
【0072】
【数14】
【0073】
領域分割部(領域分割手段)22は、類似度算出部21で算出された類似度である文字色類似度ζc(x(r))と、背景色類似度ζn(x(r))とに基づいて、入力画像内の各画素を、文字領域と背景領域とに分割するものである。この領域分割部22では、入力画像内の各画素の座標rにおける類似度を、予め定めた閾値と比較し、その画素が文字領域の画素か、背景領域の画素かを判定することで、入力画像を文字領域と背景領域とに分割した2値化画像を生成する。
【0074】
例えば、文字色類似度ζc(x(r))が予め定めた閾値θc以上で、かつ、背景色類似度ζn(x(r))が予め定めた閾値θn未満の場合は、その座標rの画素の色は、文字色であると判定し、それ以外の場合は、背景色であると判定する。すなわち、領域分割部22は、(15)式に示すように、入力画像内の各画素の座標r毎に、文字色類似度ζc(x(r))及び背景色類似度ζn(x(r))と、予め定めた閾値θc及びθnとを比較し、座標rの画素の色ベクトルx(r)が、文字色と判定される場合は「1」、背景色と判定される場合は「0」となる2値化画像B(x(r))を生成する。
【0075】
【数15】
【0076】
このように、領域分割部22は、入力画像を文字領域と背景領域とに分割することで、文字領域を抽出した文字領域抽出画像(2値化画像)を生成し出力する。
【0077】
以上、本発明に係る文字領域抽出装置1の構成について説明したが、本発明はこれに限定されるものではない。例えば、ここでは、領域分割部22で、文字領域抽出画像(2値化画像)B(x(r))を生成するときに、文字色類似度ζc(x(r))及び背景色類似度ζn(x(r))の両方を用いたが、文字色類似度ζc(x(r))のみによって、入力画像内の各画素を、文字領域と背景領域とに分割することとしてもよい。
【0078】
すなわち、類似度算出部21では、前記(14)式のうちで、文字色類似度ζc(x(r))のみを算出することとし、領域分割部22では、(16)式に示すように、文字色類似度ζc(x(r))が予め定めた閾値θc以上の場合に、座標rの画素の色は文字色であると判定し、それ以外の場合は背景色であると判定する。この場合、統計パラメータ算出手段10の統計パラメータ選択部12は、文字色の統計パラメータのみを選択するだけでよい。
【0079】
【数16】
【0080】
なお、文字領域抽出装置1は、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合して文字領域抽出プログラムとして動作させることも可能である。
【0081】
(文字領域抽出装置の動作)
次に、図4を参照(適宜図1参照)して、文字領域抽出装置1の動作について説明する。図4は、文字領域抽出装置1の動作を示すフローチャートである。
【0082】
<パラメータ生成ステップ>
まず、文字領域抽出装置1は、統計パラメータ算出手段10の統計パラメータ生成部11によって、任意の文字色及び任意の背景色で描かれた画像(入力画像)から、その入力画像内における色の統計分布を確率密度関数の加重和によって表される混合モデルによって近似することで、その混合モデルにおける各確率密度関数の統計パラメータを生成する(ステップS1)。
【0083】
このステップS1では、M組(Mは2以上の自然数)の統計パラメータ(平均ベクトルμm、共分散行列Σm及び混合重みwm)(m=1,2,…,M)が生成される。なお、この統計パラメータは、EMアルゴリズムによる反復収束演算(前記(5)式乃至(8)式参照)を行うことで算出される。なお、この統計パラメータは、本願出願人が出願した(「統計解析装置、統計解析方法及び統計解析プログラム」特願2002−313611)で提案した統計解析装置等を用いて求めることも可能である。
【0084】
<パラメータ選択ステップ>
また、文字領域抽出装置1は、統計パラメータ選択部12の広がり指標算出部12aによって、統計パラメータ生成部11で生成されたM組の統計パラメータ(μm、Σm、wm)の中から、混合重みwmの大きい2組の統計パラメータを選択する(ステップS2)。ここでは、2組の統計パラメータをそれぞれ(μa、Σa、wa)、(μb、Σb、wb)とする。
このステップS2では、M組の統計パラメータから、混合重みwmの大きい2組の統計パラメータを選択することで、入力画像の中で支配的な色である文字色及び背景色の統計パラメータを選択することになる。
【0085】
また、文字領域抽出装置1は、広がり指標算出部12aによって、統計パラメータで表される統計分布の広がり指標(例えば分散)を算出する(ステップS3)。ここでは、統計パラメータ(μa、Σa、wa)の分散をWa、統計パラメータ(μb、Σb、wb)の分散をWbとする
【0086】
このステップS3では、広がり指標算出部12aが、入力画像の各画素の色ベクトルが2組の統計パラメータで示された統計分布に属する確率を求め、それぞれの統計分布の共分散行列を求めることで、統計分布の広がりである分散を得ることができる(前記(10)式乃至(12)式参照)。
【0087】
そして、文字領域抽出装置1は、統計パラメータ選択部12のパラメータ選択部12bによって、広がり指標算出部12aで算出された2つの広がり指標(分散)の大小を比較する(ステップS4)。ここで、分散Waが分散Wbより大きい場合(Wa>Wb)は、統計パラメータ(μa、Σa、wa)を背景色の統計パラメータ(μn、Σn、wn)、統計パラメータ(μb、Σb、wb)を文字色の統計パラメータ(μc、Σc、wc)と判定する(ステップS5)。また、分散Waが分散Wbより小さい場合(Wa≦Wb)は、統計パラメータ(μa、Σa、wa)を文字色の統計パラメータ(μc、Σc、wc)、統計パラメータ(μb、Σb、wb)を背景色の統計パラメータ(μn、Σn、wn)と判定する(ステップS6)。
【0088】
<類似度算出ステップ>
そして、文字領域抽出装置1は、類似度判定分割手段20の類似度算出部21によって、統計パラメータ選択部12で選択(判定)された文字色の統計パラメータ(μc,Σc,wc)及び背景色の統計パラメータ(μn,Σn,wn)と、入力画像内の各画素の画素値(色ベクトル)とに基づいて、各画素の色が、文字色及び背景色に類似する度合いを示す文字色類似度及び背景色類似度を算出する(ステップS7)。
このステップS7では、類似度算出部21が、ガウス基底要素Nの類似性に基づいて、入力画像内の各画素の色ベクトルが、文字色又は背景色の統計パラメータに類似する類似度を算出する(前記(14)式参照)。
【0089】
<領域分割ステップ>
そして、文字領域抽出装置1は、類似度判定分割手段20の領域分割部22によって、類似度算出部21で算出された文字色類似度及び背景色類似度と、予め定めたそれぞれの閾値とに基づいて、入力画像を文字領域と、背景領域とに分割(2値化;前記(15)式参照)する(ステップS8)。
以上の動作によって、文字領域抽出装置1は、任意の文字色及び任意の背景色で描かれた入力画像から、文字色で描かれた文字領域を抽出した画像(2値画像)を生成することができる。
【0090】
[第二の実施の形態:文字領域抽出装置]
次に、図5を参照して、本発明における第二の実施の形態に係る文字領域抽出装置について説明する。図5は、第二の実施の形態に係る文字領域抽出装置の構成を示したブロック図である。図5に示すように、文字領域抽出装置1Bは、入力された任意の文字色及び任意の背景色で描かれた画像(入力画像)を、文字領域と背景領域とに分割することで、入力画像から文字領域を抽出するものである。ここでは、文字領域抽出装置1Bは、統計パラメータ算出手段10と、類似度判定分割手段20と、ノイズ除去手段30とを備えて構成している。ノイズ除去手段30以外の構成は、図1に示した文字領域抽出装置1と同一であるので、同一の符号を付し説明を省略する。
【0091】
ノイズ除去手段30は、類似度判定分割手段20から2値化画像として出力される文字領域抽出画像から、文字領域と判定すべきではない小さな領域(領域分割の誤り)を背景領域とすることで、ノイズの除去を行うものである。ここでは、ノイズ除去手段30を、領域計測部31と、領域変更部32とにより構成した。
【0092】
領域計測部(領域計測手段)31は、類似度判定分割手段20の領域分割部22で分割された2値化画像(文字領域抽出画像)で、文字領域と判定された領域(前記(15)式でB(x(r))=1となる領域)を構成する連結領域の画素数(領域の大きさ)を計測するものである。ここで計測された領域の大きさは領域変更部32へ通知される。
【0093】
領域変更部(領域変更手段)32は、領域計測部31で計測された文字領域となる連結領域の画素数(領域の大きさ)と、所定の閾値とを比較して、連結領域の画素数(大きさ)が閾値より小さい場合に、その連結領域で示される文字領域を背景領域に変更するものである。すなわち、領域変更部32は、連結領域の画素数(大きさ)が閾値より小さい場合に、前記(15)式で示した2値化画像内B(x(r))で、連結領域に含まれる座標rの画素について、B(x(r))=0と変更する。
なお、この所定の閾値は、入力画像内で文字の概略の大きさが分かっている場合に、最小の文字の大きさ以下とする。すなわち、この所定の閾値は、入力画像の内容によって、予め設定しておくものである。
【0094】
以上の構成によって、文字領域抽出装置1Bは、画像ノイズ等に起因して誤って文字領域と認識した領域を、背景領域に修正することができる。例えば、図2に示した文字色と同色の文字色ノイズE2を、背景領域に修正することができる。
【0095】
【発明の効果】
以上説明したとおり、本発明に係る文字領域抽出装置、文字領域抽出方法及び文字領域抽出プログラムでは、以下に示す優れた効果を奏する。
【0096】
請求項1、請求項2、請求項5又は請求項6に記載の発明によれば、任意の文字色及び背景色の組み合わせで構成されている入力画像を、文字領域及び背景領域に分割することで、入力画像から文字領域を抽出することができる。このとき、色情報を考慮して閾値を設定する必要がなく、文字色及び背景色の組み合わせが任意の組み合わせであっても、汎用的に文字領域を抽出することができる。
【0097】
このように文字領域と背景領域とを分けて認識できるので、例えば、車両のナンバープレートから車両番号の領域を抽出したり、スポーツ選手のユニフォームから背番号の領域を抽出したり等の文字領域の抽出を行うことができる。また、文字色及び背景色の色の組み合わせが任意の組み合わせであっても、文字領域を抽出することができるので、例えば、車両のナンバープレートの色が異なっていたり、スポーツ選手のチームによってユニフォームの色が異なっていても、車両番号や背番号の領域を抽出することができる。
【0098】
また、背景色及び文字色以外の色が混在していても、統計パラメータを用いることで、例えば重み係数によって、背景色及び文字色以外の色であると認識することができ、入力画像から精度よく文字領域を抽出することができる。
【0099】
請求項3に記載の発明によれば、画像内に文字色と同じ色を持つ領域(ノイズ)が含まれていても、そのノイズを文字領域から削除することができ、入力画像から精度よく文字領域を抽出することができる。
【0100】
請求項4に記載の発明によれば、統計パラメータとして、ガウス分布のパラメータを用いるため、従来のEMアルゴリズム等に基づいて、容易に統計パラメータを算出することができる。また、このガウス分布のパラメータによって、必要かつ充分に色分布を表現することができるため、文字領域を抽出するための演算量やメモリの消費を抑えることができる。
【図面の簡単な説明】
【図1】本発明の第一の実施の形態に係る文字領域抽出装置の構成を示すブロック図である。
【図2】文字領域抽出装置に入力される、文字が描かれた画像の一例を示す図である。
【図3】入力画像を色空間上の混合モデルで表現した図である。
【図4】本発明の第一の実施の形態に係る文字領域抽出装置の動作を示すフローチャートである。
【図5】本発明の第二の実施の形態に係る文字領域抽出装置の構成を示すブロック図である。
【符号の説明】
1、1B 文字領域抽出装置
10 統計パラメータ算出手段
11 統計パラメータ生成部(パラメータ生成手段)
12 統計パラメータ選択部
12a 広がり指標算出部(広がり指標算出手段)
12b パラメータ選択部(パラメータ選択手段)
20 類似度判定分割手段
21 類似度算出部(類似度算出手段)
22 領域分割部(領域分割手段)
30 ノイズ除去手段
31 領域計測部(領域計測手段)
32 領域変更部(領域変更手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a character region extraction device, a character region extraction method, and a character region extraction program for extracting a character region from an image based on a statistical distribution of the color of the image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a device for extracting a character region in which characters are drawn from an image, there is a license plate reading device or the like that is installed on an automobile road or the like and reads a vehicle number from a vehicle license plate. In this license plate reading apparatus, character regions are extracted from an image obtained by photographing a license plate as preprocessing for character recognition of a vehicle number. As such a method for extracting a character region from an image, there are various methods described below.
[0003]
First, as a first method, a method is proposed in which an input image is converted into a binarized image according to the brightness of the image, and a character region is extracted from the binarized image (for example, Patent Document 1). , See Patent Document 2).
As a second method, a method is proposed in which an edge image is generated by performing differentiation processing on an input image, and a character region is extracted from the edge image (for example, Patent Document 3). reference.).
Furthermore, as a third method, a method of extracting a character region by comparing a geometric characteristic of a character such as characters arranged in a horizontal direction with a predetermined reference value has been proposed ( For example, see Patent Document 4.)
[0004]
[Patent Document 1]
JP-A-6-111058 (page 3-5, Fig. 1)
[Patent Document 2]
Japanese Patent Laid-Open No. 2001-331803 (page 3-5, FIG. 1)
[Patent Document 3]
Japanese Unexamined Patent Publication No. 2000-187732 (page 4, FIG. 1-3)
[Patent Document 4]
Japanese Patent Laid-Open No. 9-319995 (page 5-9, FIGS. 1 and 4)
[0005]
[Problems to be solved by the invention]
In the conventional technique, in the method of extracting a character region using a binarized image as in the first method, a threshold value for binarization may be automatically set by a contrast or brightness histogram. It is possible and can easily generate a binarized image. However, since the color information is not taken into consideration, the character region and the background region are the same if the lightness is the same even if the character color and the background color are different. Are determined to be the same area, and the character area cannot be extracted.
When setting a threshold value in consideration of color information, for example, it is necessary to set a threshold value in a multidimensional space such as RGB, and the threshold value is set for an image drawn with an arbitrary character color and an arbitrary background color. There is no universal method that can be set.
[0006]
Also, in the method of extracting a character region using an edge image as in the second method, since it is necessary to perform a differential operation, it is vulnerable to noise and dirt, and a region other than a character is erroneously recognized as a character region. There was a problem that.
Furthermore, as in the third method, in the method of extracting a character region based on the geometrical characteristics of a character, the length of the character string is short, the character string is irregularly arranged, or the character string is in a fixed form. If it is not arranged at the position, there is a problem that the effectiveness cannot be exhibited.
[0007]
The present invention has been made in view of the above problems, and it is possible to extract a character area for a general purpose even in an image drawn with an arbitrary character color and an arbitrary background color. An object of the present invention is to provide a character area extraction device, a character area extraction method, and a character area extraction program.
[0008]
[Means for Solving the Problems]
The present invention has been developed to achieve the above object. First, the character region extraction device according to
[0009]
According to this configuration, the character region extraction device generates a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the statistical color distribution in the input image by the parameter generation unit. For example, by constructing a mixed model that is a weighted sum of color statistical distributions from an image, the character color and the background color are approximated by different probability density functions. This probability density function can specify a statistical distribution by a statistical parameter such as an average vector or variance. Thereby, even if it is arbitrary colors, it becomes possible to distinguish a character color and a background color by a statistical parameter.
[0010]
Then, the character region extraction device calculates a color spread index in the image from the statistical parameter by the spread index calculating means, and the parameter selection means selects the statistical parameter of the character color based on the spread index. Here, the spread index is an index indicating how much a certain color has in the statistical distribution on the image, and a value such as dispersion can be used.
[0011]
For example, in the case of an image in which characters are drawn on the background, the background color and the character color are the most colors that occupy the image, and the statistical distribution of colors is expressed by two distributions. Become. Further, generally, on the image, since the background area exists around the character area, the background color has a larger spread than the character color. Therefore, it can be assumed that the statistical distribution having the largest variance is that of the background color, and the statistical distribution having the second largest variance is that of the character color. Thus, by obtaining the spread (dispersion) of the statistical distribution, it is possible to specify the statistical distribution (statistical parameter) of the character color.
[0012]
When there are three or more color distributions, colors other than the background color and the character color are regarded as noise, and only two sets of statistical parameters of the background color and the character color are selected by, for example, the weighting coefficient of the statistical distribution. do it.
[0013]
Then, the character area extraction device calculates the character color similarity based on the statistical parameter of the character color and the pixel value (color vector) of each pixel of the image by the similarity calculation means, and the area division means The image is divided into a character area and other areas (background areas). The character color similarity indicates the degree to which the pixel value (color vector) is similar to the character color, and is, for example, the probability that the color vector belongs to the character color statistical distribution.
As described above, the character region extraction device obtains a statistical parameter of a probability density function for specifying the statistical distribution of the character color from the statistical distribution of the color of the image, and the pixel value of each pixel of the image belongs to the statistical distribution of the character color. The character area is extracted by determining whether or not.
[0014]
The character area extraction device according to
[0015]
According to this configuration, the character region extraction device generates a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the statistical color distribution in the input image by the parameter generation unit. For example, by constructing a mixed model that is a weighted sum of statistical distributions of colors from an image, approximating the character color and the background color with different probability density functions, the character color and the background can be any color. Colors can be distinguished by statistical parameters.
Then, the character region extraction device calculates a color spread index (for example, variance) in the image from the statistical parameters by the spread index calculation means, and the parameter selection means calculates the character color and the background color based on the spread index. Select statistical parameters.
[0016]
Then, the character area extraction device calculates the character color similarity and the background color similarity based on the statistical parameters of the character color and the background color and the pixel value (color vector) of each pixel of the image by the similarity calculation means. calculate. The character color similarity and the background color similarity indicate the degree to which the pixel value (color vector) is similar to the character color or background color. For example, the color vector is a character color or background color statistic. Probability of belonging to the distribution. Based on this probability (character color similarity and background color similarity), the region dividing means can divide the image into character regions and background regions.
[0017]
Furthermore, the character area extraction device according to
[0018]
According to such a configuration, the character area extraction device measures the size of the connected area of each pixel in the character area divided by the area dividing means by the area measuring means. The connected area is a group of pixels constituting the character area, and the size indicates the area of the connected area, for example, the number of pixels. When the size of the connected area is smaller than a predetermined threshold, the character area extracting apparatus determines that the connected area is different from the character area and changes the background area to the background area. Thereby, the character area extracting apparatus can extract the character area from the image with high accuracy.
[0019]
The character region extraction device according to claim 4 is the character region extraction device according to any one of
[0020]
According to such a configuration, if the character region extraction device uses a Gaussian distribution parameter constituting the mixed model for the statistical parameter, the statistical parameter can be easily obtained based on a conventional algorithm such as an EM (Expectation-Maximization) algorithm. Can be calculated. By expressing this probability density function with a mean vector, a covariance matrix, and a mixture weight of the covariance matrix, which are parameters of a Gaussian distribution, it is possible to uniquely specify a character color and a background color.
[0021]
In addition, if a Gaussian distribution parameter is used as a statistical parameter in the character region extraction apparatus, the applicant of the present application has applied for the statistical parameter ("Statistical analysis apparatus, statistical analysis method and statistical analysis program" Japanese Patent Application 2002-2002 It is also possible to calculate using the statistical analysis device proposed in 313611). As a result, it is not necessary to perform iterative convergence calculation as in the EM algorithm, so that the calculation speed can be increased.
[0022]
Furthermore, the character area extraction method according to
[0023]
According to this procedure, the character region extraction method generates a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the color statistical distribution in the input image in the parameter generation step. For example, by constructing a mixed model that is a weighted sum of color statistical distributions from an image, the character color and the background color are approximated by different probability density functions. Thereby, even if it is arbitrary colors, it becomes possible to distinguish a character color and a background color by a statistical parameter.
[0024]
In the character region extraction method, in the parameter selection step, a color spread index (for example, variance) in the image is calculated from the statistical parameter, and the character color statistical parameter is selected based on the spread index. With this spread index, it is possible to specify a color having a larger color spread as a background color and a character having a smaller color spread as a character color.
[0025]
Further, in the character region extraction method, the similarity calculation step calculates the character color similarity based on the statistical parameter of the character color and the color vector of each pixel of the image, and the region division step converts the image into the character region. And the other area (background area). This character color similarity is, for example, the probability that a color vector belongs to a statistical distribution of character colors. This probability makes it possible to determine whether the pixel is a pixel included in the character area.
[0026]
The character region extraction program according to claim 6 is for extracting a character region drawn in the character color from an image drawn in an arbitrary character color and an arbitrary background color other than the character color. In addition, the computer is caused to function as a parameter generation unit, a spread index calculation unit, a parameter selection unit, a similarity calculation unit, and a region division unit.
[0027]
According to such a configuration, the character region extraction program generates a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the color statistical distribution in the input image by the parameter generation unit. Thereby, even if it is arbitrary colors, it becomes possible to distinguish a character color and a background color by a statistical parameter.
[0028]
Then, the character area extraction program calculates a color spread index (for example, variance) in the image from the statistical parameter by the spread index calculating means, and the parameter selection means selects the statistical parameter for the character color based on the spread index. To do. With this spread index, it is possible to specify a color having a larger color spread as a background color and a character having a smaller color spread as a character color.
[0029]
Further, the character area extraction program calculates the character color similarity from the statistical parameter of the character color and the color vector of each pixel of the image by the similarity calculation means, and the image is separated from the character area by the area dividing means. It is divided into areas other than (background area). This character color similarity is, for example, the probability that a color vector belongs to a statistical distribution of character colors. This probability makes it possible to determine whether the pixel is a pixel included in the character area.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment: Character Area Extraction Device]
FIG. 1 is a block diagram showing a configuration of a character area extracting apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the character
[0031]
The statistical parameter calculation means 10 calculates the statistical parameters of the character color and the background color in the probability density function based on the mixed model from the color statistical distribution in the input image. The statistical parameter calculation means 10 includes a statistical parameter generation unit 11 and a statistical
[0032]
The statistical parameter generation unit (parameter generation means) 11 approximates the color statistical distribution in the input image by a mixed model represented by a weighted sum of probability density functions of M groups (M is a natural number of 2 or more) A statistical parameter of each probability density function in the mixed model is generated. Note that the color is a vector (hereinafter referred to as a color vector) in a color space expressed by, for example, the three primary colors. Each probability density function in the mixed model is called a base element.
[0033]
Here, the color vector is x, m is a natural number not less than 1 and not more than M, and the mth base element constituting the mixed model p (x) is em(X), the mixing weight (weight coefficient) of the base element is wmThen, the mixed model p (x) is expressed by equation (1).
[0034]
[Expression 1]
[0035]
However, the mixing weight w of the mth base elementmSatisfies the equation (2).
[0036]
[Expression 2]
[0037]
In this way, by approximating the statistical distribution of the color (color vector) of the input image by the mixed model p (x), M dominant colors (for example, background color and character color) that characterize the input image are obtained. ) Base element em(X) can be extracted.
[0038]
This base element emFor (x), for example, a probability density function (Gaussian basis element) of Gaussian distribution can be used. Where d is the order (dimension) in the color space of the color vector x, μmIs the mth average vector, ΣmAnd Σm -1Are the covariance matrix and its inverse matrix, and T represents the transpose of the matrix, the Gaussian basis element N (x; μm, Σm) Is expressed by equation (3).
[0039]
[Equation 3]
[0040]
Note that the order d = 3 when an image taken with a three-primary color camera is handled, and the order d = 1 when a monochrome camera is used. In addition, when an imaging unit that performs spectroscopy in D (2 or more) wavelength bands is used, the order d = D. Thus, the dimension of the order d may be a natural number of 1 or more depending on the image to be handled.
[0041]
Thereafter, the base element em(X) will be described using a Gaussian probability density function as an example. That is, the base element em(X) is a Gaussian basis element N (x; μm, Σm) Is used. In the following description, the Gaussian base element is simply referred to as a base element.
[0042]
[Expression 4]
[0043]
The statistical parameter generation unit 11 uses the basis element (Gauss basis element) e shown in the equation (4).mAn average vector μ that is a statistical parameter of the mth basis element is obtained by performing an iterative convergence operation on (x) by an EM (Expectation-Maximization) algorithm.m, Covariance matrix ΣmAnd the covariance matrix ΣmMixing weight wmGet. Here, by executing the EM algorithm M times, M sets of statistical parameters (μm, Σm, Wm) (M = 1, 2,..., M). The M sets of statistical parameters generated here are output to the statistical
[0044]
Here, referring to FIG. 2 and FIG. 3, a statistical parameter (average vector μ) using the EM algorithm is used.m, Covariance matrix ΣmAnd mixing weight wm) Will be described. FIG. 2 is a diagram illustrating an example of an image (input image) on which characters are drawn. FIG. 3 is a diagram representing an input image by a mixed model on a color space.
[0045]
As shown in FIG. 2, the input image M includes a character area C and a background area N drawn with an arbitrary character color and an arbitrary background color, and noise (noise E of a third color other than the character color and the background color).1, Character color noise E of the same color as the character color2).
Further, as shown in FIG. 3, here, the statistical distribution of the color of the input image M is approximated by a mixed model (Gaussian mixed model) on a color space expressed by the three primary colors (R, G, B). It is assumed that the number of statistical parameters is 3 (M = 3).
[0046]
Here, the estimated value of the average vector after the end of the kth iteration of the EM algorithm is expressed as μm (K), And estimate the covariance matrix Σm (K), And the estimated value of the mixing weight wm (K)Then, wm (K)Is obtained by equation (5).
[0047]
[Equation 5]
[0048]
Ζm (K-1)(X) is the average vector μ estimated until after the (k−1) th iteration.m (K-1), Covariance matrix Σm (K-1)And mixing weight wm (K-1)Is a value calculated based on, and represents the probability that the color vector x is output from the mth base element. This ζm (K-1)(X) is given by equation (6).
[0049]
[Formula 6]
[0050]
In addition, the estimated value μ of the average vector after the end of the k-th iterationm (K), And estimate the covariance matrix Σm (K)Are obtained by the equations (7) and (8), respectively.
[0051]
[Expression 7]
[0052]
[Equation 8]
[0053]
Thus, statistical parameters (mean vector μm, Covariance matrix ΣmAnd mixing weight wm) Means vector μm (0), Covariance matrix Σm (0)And mixing weight wm (0)Is given as an initial value, and is recursively substituted into the equations (5) to (8). That is, as shown in the equation (9), the statistical parameters (μ) of the base elements constituting the mixed model p (x) (see the equations (1) and (4)) are obtained by k iterations.m, Σm, Wm) Can be estimated.
[0054]
[Equation 9]
[0055]
This iterative calculation may be performed by setting the number of iterations (k) as a predetermined number of times (for example, 100), and the change amount of the statistical parameter of the base element is set to a certain threshold with respect to the increase of k It is also possible to end the iterative calculation when it falls below.
The initial value of the statistical parameter given as the initial value is, for example, by adding a random number to the average vector and covariance matrix of the color vectors of the entire input image, and μm (0)And Σm (0)And wm (0)Are all 1 / M.
[0056]
In this way, by setting the initial value, the first (m = 1) initial value P in FIG.1 (0)(Μ1 (0), Σ1 (0), W1 (0)) From the statistical parameter P of the base element1(Μ1, Σ1, W1) Is calculated. Also, the second (m = 2) initial value P2 (0)(Μ2 (0), Σ2 (0), W2 (0)) From the statistical parameter P of the base element2(Μ2, Σ2, W2) Is calculated. Also, the third (m = 3) initial value P3 (0)(Μ3 (0), Σ3 (0), W3 (0)) From the statistical parameter P of the base element3(Μ3, Σ3, W3) Is calculated.
[0057]
As a result, the character area C, background area N, and third color noise E in FIG.1Is the statistical parameter P of the base element1, P2And P3Belongs to one of the statistical distributions represented by. In addition, character color noise E2Belong to the same statistical distribution as the character region C. The statistical parameter selection unit 12 (FIG. 1), which will be described later, determines which statistical distribution the character area C and the background area N belong to.
Returning to FIG. 1, the description will be continued.
[0058]
The statistical
[0059]
The spread index calculation unit (spread index calculation means) 12amTwo sets of statistical parameters are selected from the larger one, and an index (spreading index) indicating the spread of the statistical distribution (color distribution) represented by each statistical parameter is calculated. The two spread indexes calculated here are notified to the
[0060]
In the spread
[0061]
[Expression 10]
[0062]
## EQU11 ##
[0063]
[Expression 12]
[0064]
In the equations (11) and (12), r represents the coordinates in the image. WmIs the lateral dispersion, HmIs the vertical dispersion, CmRepresents covariance.
In this way, the spread
[0065]
The parameter selection unit (parameter selection unit) 12b is configured to mix the mixing weight w based on the two spread indexes calculated by the spread index calculation unit 12a.mThe two large statistical parameters are selected as a character color statistical parameter and a background color statistical parameter, respectively. In this example, it is assumed that there is a background color margin (the margin is not necessarily white) around the character area, and the background area (non-character area) is larger on the image than the character area. It shall have a spread.
[0066]
Where the mixing
[0067]
[Formula 13]
[0068]
Here, the statistical parameter (μc, Σc, Wc) And statistical parameter of background color (μn, Σn, Wn) Is notified to the similarity determination dividing means 20. Further, colors other than the character color and the background color (for example, the third color noise E in FIG. 2).1) Statistical parameters are not used for subsequent determinations.
[0069]
The similarity
[0070]
The similarity calculation unit (similarity calculation unit) 21 is a statistical parameter (μ for character color) selected by the statistical
[0071]
The
[0072]
[Expression 14]
[0073]
The area dividing unit (area dividing unit) 22 is a character color similarity ζ that is the similarity calculated by the similarity calculating unit 21.c(X (r)) and background color similarity ζnBased on (x (r)), each pixel in the input image is divided into a character area and a background area. The
[0074]
For example, character color similarity ζc(X (r)) is a predetermined threshold value θcAbove, and background color similarity ζn(X (r)) is a predetermined threshold value θnIf it is less than that, it is determined that the color of the pixel at the coordinate r is a character color, otherwise it is determined that it is a background color. That is, as shown in the equation (15), the
[0075]
[Expression 15]
[0076]
In this manner, the
[0077]
The configuration of the character
[0078]
That is, in the
[0079]
[Expression 16]
[0080]
Note that the character
[0081]
(Operation of character area extraction device)
Next, referring to FIG. 4 (refer to FIG. 1 as appropriate), the operation of the character
[0082]
<Parameter generation step>
First, the character
[0083]
In this step S1, statistical parameters (average vector μ) of M groups (M is a natural number of 2 or more)m, Covariance matrix ΣmAnd mixing weight wm) (M = 1, 2,..., M) is generated. This statistical parameter is calculated by performing an iterative convergence calculation (see the above formulas (5) to (8)) by the EM algorithm. This statistical parameter can also be obtained using the statistical analysis device proposed by the applicant of the present application (“Statistical analysis device, statistical analysis method and statistical analysis program” Japanese Patent Application No. 2002-313611).
[0084]
<Parameter selection step>
Further, the character
In this step S2, the mixture weight w is calculated from M sets of statistical parameters.mBy selecting two sets of statistical parameters having large values, the statistical parameters of the character color and background color, which are dominant colors in the input image, are selected.
[0085]
Further, the character
[0086]
In this step S3, the spread
[0087]
Then, the character
[0088]
<Similarity calculation step>
Then, the character
In step S7, the
[0089]
<Region division step>
Then, the character
Through the above operation, the character
[0090]
[Second Embodiment: Character Area Extraction Device]
Next, with reference to FIG. 5, a character area extracting apparatus according to the second embodiment of the present invention will be described. FIG. 5 is a block diagram showing the configuration of the character area extracting apparatus according to the second embodiment. As shown in FIG. 5, the character
[0091]
The
[0092]
The area measuring unit (area measuring unit) 31 is a binarized image (character area extracted image) divided by the
[0093]
The area changing unit (area changing unit) 32 compares the number of pixels (area size) of the connected area to be a character area measured by the
Note that the predetermined threshold is set to be equal to or smaller than the minimum character size when the approximate size of the character is known in the input image. That is, the predetermined threshold is set in advance according to the content of the input image.
[0094]
With the above configuration, the character region extraction device 1B can correct a region erroneously recognized as a character region due to image noise or the like to a background region. For example, the character color noise E of the same color as that shown in FIG.2Can be corrected to the background area.
[0095]
【The invention's effect】
As described above, the character region extraction device, the character region extraction method, and the character region extraction program according to the present invention have the following excellent effects.
[0096]
According to the invention of
[0097]
Since the character area and the background area can be recognized separately in this way, for example, the area of the vehicle number is extracted from the license plate of the vehicle, or the area of the back number is extracted from the uniform of the athlete. Extraction can be performed. Moreover, even if the combination of the character color and the background color is an arbitrary combination, the character region can be extracted. For example, the color of the license plate of the vehicle is different, or the uniform of the sports team Even if the colors are different, the region of the vehicle number or the number can be extracted.
[0098]
Even if colors other than the background color and the character color are mixed, by using the statistical parameter, it can be recognized as a color other than the background color and the character color by using, for example, a weighting factor, and the accuracy can be determined from the input image. The character area can be extracted well.
[0099]
According to the third aspect of the present invention, even if a region (noise) having the same color as the character color is included in the image, the noise can be deleted from the character region, and the character can be accurately extracted from the input image. Regions can be extracted.
[0100]
According to the fourth aspect of the present invention, since a Gaussian distribution parameter is used as the statistical parameter, the statistical parameter can be easily calculated based on a conventional EM algorithm or the like. Further, since the color distribution can be expressed as necessary and sufficiently by the parameters of the Gaussian distribution, it is possible to suppress the calculation amount and memory consumption for extracting the character area.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a character area extracting apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of an image on which characters are drawn, which is input to the character region extraction device.
FIG. 3 is a diagram representing an input image by a mixed model on a color space.
FIG. 4 is a flowchart showing the operation of the character area extracting apparatus according to the first embodiment of the present invention.
FIG. 5 is a block diagram showing a configuration of a character area extracting apparatus according to a second embodiment of the present invention.
[Explanation of symbols]
1, 1B character area extraction device
10 Statistical parameter calculation means
11 Statistical parameter generator (parameter generator)
12 Statistical parameter selector
12a Spread index calculation unit (spread index calculation means)
12b Parameter selection unit (parameter selection means)
20 similarity determination division means
21. Similarity calculation unit (similarity calculation means)
22 Region dividing unit (region dividing means)
30 Noise removal means
31 Area measurement unit (area measurement means)
32 Area change section (area change means)
Claims (6)
前記画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成するパラメータ生成手段と、
このパラメータ生成手段で生成された複数の統計パラメータ毎に、その統計パラメータに基づいて、前記画像における色の広がりの指標を示す広がり指標を算出する広がり指標算出手段と、
この広がり指標算出手段で算出された広がり指標に基づいて、複数の前記統計パラメータから、前記文字色の統計パラメータを選択するパラメータ選択手段と、
このパラメータ選択手段で選択された前記文字色の統計パラメータと、前記画像の各画素の画素値とに基づいて、当該画素の色が前記文字色に類似する度合いを示す文字色類似度を算出する類似度算出手段と、
この類似度算出手段で算出された文字色類似度に基づいて、前記画像を前記文字領域と背景領域とに分割する領域分割手段と、
を備えていることを特徴とする文字領域抽出装置。A character region extraction device that extracts a character region drawn in the character color from an image drawn in an arbitrary character color and an arbitrary background color other than the character color,
Parameter generation means for generating a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the statistical distribution of colors in the image;
For each of a plurality of statistical parameters generated by the parameter generating means, a spread index calculating means for calculating a spread index indicating a color spread index in the image based on the statistical parameters;
Based on the spread index calculated by the spread index calculation means, parameter selection means for selecting the text color statistical parameter from the plurality of statistical parameters;
Based on the statistical parameter of the character color selected by the parameter selection unit and the pixel value of each pixel of the image, the character color similarity indicating the degree of similarity of the color of the pixel to the character color is calculated. Similarity calculation means;
Area dividing means for dividing the image into the character area and the background area based on the character color similarity calculated by the similarity calculating means;
A character area extracting apparatus comprising:
前記画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成するパラメータ生成手段と、
このパラメータ生成手段で生成された複数の統計パラメータ毎に、その統計パラメータに基づいて、前記画像における色の広がりの指標を示す広がり指標を算出する広がり指標算出手段と、
この広がり指標算出手段で算出された広がり指標に基づいて、複数の前記統計パラメータから、前記文字色及び前記背景色の統計パラメータをそれぞれ選択するパラメータ選択手段と、
このパラメータ選択手段で選択された前記文字色及び前記背景色の各統計パラメータと、前記画像の各画素の画素値とに基づいて、当該画素の色が前記文字色及び前記背景色にそれぞれ類似する度合いを示す文字色類似度及び背景色類似度を算出する類似度算出手段と、
この類似度算出手段で算出された文字色類似度及び背景色類似度に基づいて、前記画像を前記文字領域と背景領域とに分割する領域分割手段と、
を備えていることを特徴とする文字領域抽出装置。A character region extraction device that extracts a character region drawn in the character color from an image drawn in an arbitrary character color and an arbitrary background color other than the character color,
Parameter generation means for generating a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the statistical distribution of colors in the image;
For each of a plurality of statistical parameters generated by the parameter generating means, a spread index calculating means for calculating a spread index indicating a color spread index in the image based on the statistical parameters;
Based on the spread index calculated by the spread index calculation means, parameter selection means for selecting each of the text color and background color statistical parameters from a plurality of the statistical parameters;
Based on the statistical parameters of the character color and the background color selected by the parameter selection unit and the pixel value of each pixel of the image, the color of the pixel is similar to the character color and the background color, respectively. A similarity calculating means for calculating a character color similarity indicating a degree and a background color similarity;
Area dividing means for dividing the image into the character area and the background area based on the character color similarity and background color similarity calculated by the similarity calculating means;
A character area extracting apparatus comprising:
この領域計測手段で計測された連結領域の大きさに基づいて、前記連結領域の大きさが所定の閾値より小さい場合に、その連結領域で示される文字領域を前記背景領域に変更する領域変更手段と、
を備えていることを特徴とする請求項1又は請求項2に記載の文字領域抽出装置。Area measuring means for measuring the size of the connected area of each pixel in the character area divided by the area dividing means;
Based on the size of the connected area measured by the area measuring means, the area changing means for changing the character area indicated by the connected area to the background area when the size of the connected area is smaller than a predetermined threshold. When,
The character region extraction device according to claim 1, wherein the character region extraction device is provided.
前記画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成するパラメータ生成ステップと、
このパラメータ生成ステップで生成された複数の統計パラメータ毎に、その統計パラメータに基づいて、前記画像における色の広がりの指標を示す広がり指標を算出し、その広がり指標に基づいて、複数の前記統計パラメータから、前記文字色の統計パラメータを選択するパラメータ選択ステップと、
このパラメータ選択ステップで選択された前記文字色の統計パラメータと、前記画像の各画素の画素値とに基づいて、当該画素の色が前記文字色に類似する度合いを示す文字色類似度を算出する類似度算出ステップと、
この類似度算出ステップで算出された文字色類似度に基づいて、前記画像を前記文字領域と背景領域とに分割する領域分割ステップと、
を含んでいることを特徴とする文字領域抽出方法。A character region extraction method for extracting a character region drawn in the character color from an image drawn in an arbitrary character color and an arbitrary background color other than the character color,
A parameter generation step of generating a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the statistical distribution of colors in the image;
For each of the plurality of statistical parameters generated in the parameter generation step, a spread index indicating a color spread index in the image is calculated based on the statistical parameter, and the plurality of statistical parameters are calculated based on the spread index. From the parameter selection step of selecting the statistical parameter of the character color,
Based on the statistical parameter of the character color selected in the parameter selection step and the pixel value of each pixel of the image, the character color similarity indicating the degree of similarity of the color of the pixel to the character color is calculated. Similarity calculation step;
An area dividing step for dividing the image into the character area and the background area based on the character color similarity calculated in the similarity calculating step;
A character region extraction method characterized by including a character string.
前記画像における色の統計分布から、その統計分布を特定する確率密度関数の統計パラメータを複数生成するパラメータ生成手段、
このパラメータ生成手段で生成された複数の統計パラメータ毎に、その統計パラメータに基づいて、前記画像における色の広がりの指標を示す広がり指標を算出する広がり指標算出手段、
この広がり指標算出手段で算出された広がり指標に基づいて、複数の前記統計パラメータから、前記文字色の統計パラメータを選択するパラメータ選択手段、
このパラメータ選択手段で選択された前記文字色の統計パラメータと、前記画像の各画素の画素値とに基づいて、当該画素の色が前記文字色に類似する度合いを示す文字色類似度を算出する類似度算出手段、
この類似度算出手段で算出された文字色類似度に基づいて、前記画像を前記文字領域と背景領域とに分割する領域分割手段、
として機能させることを特徴とする文字領域抽出プログラム。In order to extract a character area drawn in the character color from an image drawn in an arbitrary character color and an arbitrary background color other than the character color,
Parameter generation means for generating a plurality of statistical parameters of a probability density function for specifying the statistical distribution from the statistical distribution of colors in the image;
For each of the plurality of statistical parameters generated by the parameter generating unit, a spread index calculating unit that calculates a spread index indicating a color spread index in the image based on the statistical parameter;
Parameter selection means for selecting the character color statistical parameter from the plurality of statistical parameters based on the spread index calculated by the spread index calculation means;
Based on the statistical parameter of the character color selected by the parameter selection unit and the pixel value of each pixel of the image, the character color similarity indicating the degree of similarity of the color of the pixel to the character color is calculated. Similarity calculation means,
Area dividing means for dividing the image into the character area and the background area based on the character color similarity calculated by the similarity calculating means;
Character area extraction program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003178825A JP4243144B2 (en) | 2003-06-24 | 2003-06-24 | Character area extraction device, character area extraction method, and character area extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003178825A JP4243144B2 (en) | 2003-06-24 | 2003-06-24 | Character area extraction device, character area extraction method, and character area extraction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005018176A true JP2005018176A (en) | 2005-01-20 |
JP4243144B2 JP4243144B2 (en) | 2009-03-25 |
Family
ID=34180292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003178825A Expired - Fee Related JP4243144B2 (en) | 2003-06-24 | 2003-06-24 | Character area extraction device, character area extraction method, and character area extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4243144B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100446538C (en) * | 2005-11-02 | 2008-12-24 | 致伸科技股份有限公司 | Monochrome image processing system and method for removing background of image based on dynamic data |
JP2009044739A (en) * | 2007-08-08 | 2009-02-26 | Sharp Corp | Method and system for determining background color in digital image |
JP2013183180A (en) * | 2012-02-29 | 2013-09-12 | Ricoh Co Ltd | Image processor and colorless toner image display method |
US9177205B2 (en) | 2010-03-15 | 2015-11-03 | Omron Corporation | Image attribute discrimination apparatus, attribute discrimination support apparatus, image attribute discrimination method, attribute discrimination support apparatus controlling method, and control program |
JP2017215768A (en) * | 2016-05-31 | 2017-12-07 | 日本電信電話株式会社 | Pattern identification device, method and program |
-
2003
- 2003-06-24 JP JP2003178825A patent/JP4243144B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100446538C (en) * | 2005-11-02 | 2008-12-24 | 致伸科技股份有限公司 | Monochrome image processing system and method for removing background of image based on dynamic data |
JP2009044739A (en) * | 2007-08-08 | 2009-02-26 | Sharp Corp | Method and system for determining background color in digital image |
JP4516994B2 (en) * | 2007-08-08 | 2010-08-04 | シャープ株式会社 | Method and system for determining the background color of a digital image |
US9177205B2 (en) | 2010-03-15 | 2015-11-03 | Omron Corporation | Image attribute discrimination apparatus, attribute discrimination support apparatus, image attribute discrimination method, attribute discrimination support apparatus controlling method, and control program |
JP2013183180A (en) * | 2012-02-29 | 2013-09-12 | Ricoh Co Ltd | Image processor and colorless toner image display method |
JP2017215768A (en) * | 2016-05-31 | 2017-12-07 | 日本電信電話株式会社 | Pattern identification device, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP4243144B2 (en) | 2009-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bui et al. | Single image dehazing using color ellipsoid prior | |
US9483835B2 (en) | Depth value restoration method and system | |
US10387748B2 (en) | Method for salient object segmentation of image by aggregating multi-linear exemplar regressors | |
US8121403B2 (en) | Methods and systems for glyph-pixel selection | |
JP2004348674A (en) | Region detection method and its device | |
CN111881933B (en) | Hyperspectral image classification method and system | |
CN109978848B (en) | Method for detecting hard exudation in fundus image based on multi-light-source color constancy model | |
JP2006260401A (en) | Image processing device, method, and program | |
CN108510499A (en) | A kind of carrying out image threshold segmentation method and device based on fuzzy set and Otsu | |
Limper et al. | Mesh Saliency Analysis via Local Curvature Entropy. | |
CN114841846A (en) | Self-coding color image robust watermark processing method based on visual perception | |
JP4243144B2 (en) | Character area extraction device, character area extraction method, and character area extraction program | |
JPWO2005057910A1 (en) | Color balance correction program, color balance correction apparatus, and color balance correction method | |
CN111080722A (en) | Color migration method and system based on significance detection | |
Gimenez et al. | Unsupervised edge map scoring: A statistical complexity approach | |
US20130259373A1 (en) | Image processing device capable of determining types of images accurately | |
Wang et al. | A variational histogram equalization method for image contrast enhancement | |
Wang | Image matting with transductive inference | |
Matsushita et al. | A probabilistic intensity similarity measure based on noise distributions | |
Yang et al. | Blind image quality assessment on authentically distorted images with perceptual features | |
JP2004246618A (en) | Method, device, and program for generating image used for collating in pattern recognition and pattern recognition using the image | |
Ball et al. | Towards automated segmentation and classification of masses in mammograms | |
KR101774158B1 (en) | Apparatus and method of processing fog in image based on statistical vertor ellipsoid | |
Fazal et al. | Underwater image enhancement using bi-histogram equalization with fuzzy plateau limit | |
JP2007018025A (en) | Complexity measuring method, processing selection method, image processing method, its program and record medium, image processing device, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081226 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120109 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140109 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |