JP3966404B2 - Image processing method, image processing apparatus, and image forming apparatus - Google Patents
Image processing method, image processing apparatus, and image forming apparatus Download PDFInfo
- Publication number
- JP3966404B2 JP3966404B2 JP2002002692A JP2002002692A JP3966404B2 JP 3966404 B2 JP3966404 B2 JP 3966404B2 JP 2002002692 A JP2002002692 A JP 2002002692A JP 2002002692 A JP2002002692 A JP 2002002692A JP 3966404 B2 JP3966404 B2 JP 3966404B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- pixel
- color component
- character
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Color, Gradation (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、たとえばスキャナ等のカラー画像入力装置によって読取られた画像データに含まれる色文字領域の再現性を向上させる画像処理方法および画像処理装置ならびに画像形成装置に関する。
【0002】
【従来の技術】
原稿に形成される画像を読取る画像入力装置、たとえばデジタルスキャナおよびデジタルスチルカメラは、原稿画像から3刺激値レッドR、グリーンGおよびブルーBに関する色情報を、蓄積電荷結合素子(charge coupled device:略称CCD)イメージセンサなどの固体撮像素子によって得て、3刺激値の色情報をアナログ信号からデジタル信号にそれぞれ変換して、原稿画像を表す入力画像データとして画像処理装置に与える。
【0003】
従来の技術の画像処理装置では、入力画像データに含まれる文字領域、網点領域および写真領域の各領域を、色情報に基づいて、局所単位で識別し、各領域の特性に応じて画質向上処理を切替えることによって、原稿画像の再現性を高める構成になっている。特に、文字領域を識別できる画像処理装置では、入力画像データのうち急峻な濃度変化を示すエッジ部分の検出結果と、3刺激値レッドR、グリーンGおよびブルーBを補色反転した3刺激値であるシアンC、マゼンタMおよびイエローYの濃度値の最小値と最大値との差が最大になるときの色相情報とによって、文字領域を抽出する。そして抽出された文字領域に対し強調処理といった補正処理を施して、出力時に文字領域の再現性を高くすることができる画像データに補正している。さらにこれらの画像処理装置は、シアンC、マゼンタMおよびイエローYのうち最小値を示すmin(C,M,Y)に係数αをかけたα×{min(C,M,Y)}をグレイ成分と考えて、このグレイ成分を取り除く下色除去(Under Color Removal:略称UCR)をして、下色除去されたグレイ成分に見合う黒Kを加える。これによって黒文字の再現性を向上させるとともに、各色の位置ずれによって生じる色にじみを防ぐことができる画像データが得られる。文字領域が、黒文字領域と識別された場合、シアンC、マゼンタMおよびイエローYの色成分を完全に取り除いて黒Kだけで表すように補正処理し、有彩色文字を含む文字領域である色文字領域と識別された場合、反対に黒Kを用いずに、3色の色材シアンC、マゼンタMおよびイエローYだけを用いて、画像を表すように補正処理する。
【0004】
たとえば特開平1−264847号公報に示される画像処理装置では、入力画像データに対して、色成分の濃度値に基づいてエッジ部および色相を検出して、この色相の検出結果に基づいて、色文字領域の色成分を補正することができる構成になっている。色相の検出結果に基づいて、エッジ部が有彩と判定された場合において、色文字領域の色成分が閾値と比較されて、不必要な色成分と判断された場合、色成分の彩度が低くなって色濁りの原因となる不必要色成分が消去されるとともに、必要な色成分と判断された場合、必要色成分を強調する。これによって色文字領域の色成分の彩度が高くなるように、色文字領域の色成分が補正される。たとえばレッド系に分類される色を有する文字が、原稿画像に形成されている場合、不必要色成分であるシアンCの色成分を消去し、必要色成分であるイエローYの色成分を強調することによって、彩度の低下によって生じる色の濁りを除去して、再現性を高めている。
【0005】
【発明が解決しようとする課題】
これらの従来技術の画像処理装置では、入力画像データのうち、色文字領域の色成分の補正において、3刺激値シアンC、マゼンタMおよびイエローYの色成分で表される純粋な色、すなわち彩度が最も高い純色に近づくように補正する。このように色文字領域の色成分を、純色に近づけるように補正する場合、原稿画像に存在する色文字が、純色によって形成されていることが前提である。しかし、さまざまな色材を用いて色文字を形成する方法が確立されるにつれて、原稿画像に存在する色文字が、中間色によって形成される機会が多くなっている。したがってこれらの画像処理装置における画像処理方法では、原稿画像の実際の中間色を純色に近づけるように、色文字領域の色成分を補正するので、画像出力時に原稿画像の色文字を忠実に再現することができない。
【0006】
さらに特開平1−264847号公報に示される画像処理装置では、色文字領域の不必要色成分を消去し、必要色成分を強調することによって、色文字領域の色が、より純粋なレッドR、グリーンG、ブルーB、シアンC、マゼンタM、イエローY、黒Kおよび白Wの1次色および2次色に近づいてしまう。このように入力画像データの色成分が、本来の原稿画像の色成分に近づくように補正されないので、原稿画像の色文字を忠実に再現することができない。またうまく色文字領域の色成分を検出できない場合、雑音が色文字領域に混在すると、まれに雑音を強調させる不具合も予想される。たとえば雑音が色文字領域に混在する場合、レッド系に分類される色を有する色文字領域の色成分と、雑音にあたる1画素の色成分とが異なると、雑音にあたる画素の色成分は、色文字領域の補正後の色と異なった純色に近づくように補正されるので、レッド系とは異なった色になる。これによって雑音が誤って強調されてしまうことが起こりうる。
【0007】
したがって本発明の目的は、画像出力時に文字領域の色を忠実に再現することができる画像処理方法および画像処理装置ならびに画像形成装置を提供することである。
【0008】
【課題を解決するための手段】
本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を解析し、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均を求める解析工程と、
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法である。
【0009】
本発明に従えば、解析工程において、画像データに対して、文字部分の各色成分の分布状態が解析される。補正工程において、解析工程における解析結果に基づいて、文字部分の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。
解析工程において、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均が求められ、補正工程において、文字部分の各画素の色相を示す色成分が、解析工程において求められた色成分の平均に近づくように補正される。このように色成分の平均に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素毎の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0010】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字領域のすべての点について、予め定める直線との距離の2乗値を求めて、文字部分と下地部分との総和をとり、この総和を誤差として、この誤差を最小にすることによって前記分布状態を近似する近似直線を求める解析工程と、
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法である。
【0011】
本発明に従えば、解析工程において、文字領域の各色成分の分布状態が明度、彩度および色相を3軸とする空間座標で表され、分布状態を近似する近似直線が求められ、補正工程において、文字領域の各画素の色成分が、近似直線に垂直に近似直線に近づくように補正される。したがって文字部分だけでなく、文字部分を含む文字領域全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0012】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字部分の色相を示す色成分の分散状態を求め、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一の明度の明度軸上の点とを結ぶ等明度直線を求める解析工程と、
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正工程とを含むことを特徴とする画像処理方法である。
【0013】
本発明に従えば、解析工程において、文字部分の各色成分の分布状態を表す明度、彩度および色相を3軸とする空間座標系を用いて、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一な明度軸上の点とを結ぶ等明度直線が求められ、補正工程において、文字部分の各画素の色成分が、等明度直線に垂直に等明度直線に近づくように補正されるので、彩度を示す色成分の分散の状態が、補正前とほぼ同じ状態に保たれたまま、色相を示す色成分の分散が小さくなるように補正することができる。したがって原稿に形成される画像を再現する場合に違和感が生じないように、文字部分の色成分が補正されるので、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0014】
また本発明は、解析工程の前に、入力される画像データから文字部分を含む文字領域を抽出する抽出工程を有することを特徴とする。
【0015】
本発明に従えば、入力される全体の画像データから、文字部分を含む文字領域が抽出工程によって抽出される。これによって補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0016】
また本発明は、補正工程は、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えるように補正することを特徴とする。
【0017】
本発明に従えば、補正工程において、文字部分の各画素の明度を示す色成分が、予め定める補正明度に置き換えられる。これによって各画素の明度を示す色成分が、予め定める値だけを有するので、明度の分散が小さくなり、原稿に形成される画像の良好な再現性を得ることができる補正をすることができる。
【0018】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の色相を示す色成分の分布状態を解析し、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均を求める解析手段と、
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置である。
【0019】
本発明によれば、解析手段において、画像データに対して、文字部分の各色成分の分布状態が解析される。補正手段において、解析工程における解析結果に基づいて、文字部分の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。
解析手段において、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均が求められ、補正手段において、文字部分の各画素の色相を示す色成分が、解析手段において求められた色成分の平均に近づくように補正される。このように色成分の平均に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素毎の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0020】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字領域のすべての点について、予め定める直線との距離の2乗値を求めて、文字部分と下地部分との総和をとり、この総和を誤差として、この誤差を最小にすることによって前記分布状態を近似する近似直線を求める解析手段と、
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置である。
【0021】
本発明に従えば、解析手段において、文字領域の各色成分の分布状態が明度、彩度および色相を3軸とする空間座標で表され、分布状態を近似する近似直線が求められ、補正手段において、文字領域の各画素の色成分が、近似直線に垂直に近似直線に近づくように補正される。したがって文字部分だけでなく、文字部分を含む文字領域全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0022】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字部分の色相を示す色成分の分散状態を求め、注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一の明度の明度軸上の点とを結ぶ等明度直線を求める解析手段と、
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正手段とを含むことを特徴とする画像処理装置である。
【0023】
本発明に従えば、解析手段において、文字部分の各色成分の分布状態を表す明度、彩度および色相を3軸とする空間座標系を用いて、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一な明度軸上の点とを結ぶ等明度直線が求められ、補正手段において、文字部分の各画素の色成分が、等明度直線に垂直に等明度直線に近づくように補正されるので、彩度を示す色成分の分散の状態が、補正前とほぼ同じ状態に保たれたまま、色相を示す色成分の分散が小さくなるように補正することができる。したがって原稿に形成される画像を再現する場合に違和感が生じないように、文字部分の色成分が補正されるので、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0024】
また本発明は、入力される画像データから文字部分を含む文字領域を抽出する抽出手段を有することを特徴とする。
【0025】
本発明に従えば、入力される全体の画像データから、文字部分を含む文字領域が、抽出手段によって抽出される。これによって補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0028】
また本発明は、補正手段は、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えるように補正することを特徴とする。
【0029】
本発明に従えば、文字部分の各画素の明度を示す色成分が、予め定める補正明度に補正手段によって置き換えられる。これによって各画素の明度を示す色成分が、予め定める値だけを有するので、明度の分散が小さくなり、原稿に形成される画像の良好な再現性を得ることができる補正をすることができる。
【0032】
また本発明は、前記画像処理装置を含むことを特徴とする画像形成装置である。
【0033】
本発明に従えば、入力される画像データから文字部分を含む文字領域が、抽出手段によって抽出され、文字部分の色成分の分布状態が、解析手段によって解析される。解析手段の解析結果に基づいて、文字部分の色成分の分散が、小さくなるように補正手段によって補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。
【0034】
【発明の実施の形態】
本明細書において、数式に記載される文字に右向き矢印を付して記載される変数文字は、ベクトルであることを示し、文章中には同一の文字の後に「~」を付して記載し、数式に記載される文字に上スコアを付して記載される変数文字は、平均値であることを示し、同一の文字の後に「_」を付して記載する。
【0035】
図1は、本発明の実施の一形態である画像処理装置3を含む画像形成装置1の構成を示すブロック図である。画像形成装置1は、紙および紙以外の材料からなる記録用のシートを含む記録材に、画像を形成するための装置であって、画像入力装置2、画像処理装置3および画像出力装置4を含んで構成される。
【0036】
画像入力装置2は、原稿に形成される画像を読取るための装置であって、固体撮像素子、たとえば蓄積電荷結合素子(charge coupled device:略称CCD)を用いたイメージセンサを備えるスキャナ部を含んで構成される。画像入力装置2は、光源によって白色光を原稿に照射して、原稿からの反射光の色、すなわち波長と強度とを、CCDイメージセンサによって、主走査方向および副走査方向に並ぶ複数の画素に分割して検出して、原稿画像を読取り、各画素の色および強度によって原稿画像を表す原稿画像データを、電気信号によって画像処理装置3に与える。
【0037】
原稿画像データは、3つの色成分である赤、緑および青の濃度に対応する数値によって表され、赤R’、緑G’および青B’信号として画像処理装置3に与えられる。赤R’信号は、原稿からの赤色光の反射率を画素毎にアナログで表す電気信号である。緑G’信号は、原稿からの緑色光の反射率を画素毎にアナログで表す電気信号である。青B’信号は、原稿からの青色光の反射率を画素毎にアナログで表す電気信号である。
【0038】
画像処理装置3は、画像出力時に原稿画像の再現性を向上させることができるように、与えられる画像データを補正する画像処理をするための装置である。画像処理装置3は、アナログ/デジタル変換部(以下、A/D変換部という)5、シェーディング補正部6、入力階調補正部7、領域分離処理部8、色補正部9、黒生成下色除去部10、空間フィルタ処理部11、出力階調補正部12および階調再現処理部13を含んで構成される。
【0039】
A/D変換部5は、与えられるアナログ信号をデジタル信号に変換する。A/D変換部5は、アナログ信号である赤R’信号、緑G’信号および青B’信号を、各画素毎に赤色光、緑色光および青色光の反射率をデジタルで表すデジタル信号である赤R信号、緑G信号および青B信号にそれぞれ変換する。A/D変換部5は、赤R信号、緑G信号および青B信号を、シェーディング補正部6に与える。
【0040】
シェーディング補正部6は、赤R信号、緑G信号および青B信号の表すデータに含まれる歪み成分を取り除く処理をする。シェーディング補正部6は、赤R信号、緑G信号および青B信号に対して、画像入力装置2の照明系、結像光学系および撮像系(受像系)で生じる各種の歪み成分を取り除く処理をし、処理後の赤R信号、緑G信号および青B信号を、入力階調補正部7に与える。
【0041】
入力階調補正部7は、与えられる信号に対して、その信号の表すデータのカラーバランスを整えると同時に、画像処理をするときに扱いやすいデータの信号に変換する。入力階調補正部7は、シェーディング補正部6からの赤R信号、緑G信号および青B信号に対して、各反射率値をこれに基づいてカラーバランスを整えるように補正するとともに、各色成分の光の反射率値を赤、緑および青である各色成分の濃度値を表す信号に変換する。その後さらに、入力階調補正部7は、赤、緑および青の濃度値で表される各画素の信号を、補色反転した他の3つの色成分であるシアン、マゼンタおよびイエローの濃度値で表す信号、したがって各画素のシアンの濃度をデジタルで表すシアンC’信号、各画素のマゼンタの濃度をデジタルで表すマゼンタM’信号および各画素のイエローの濃度をデジタルで表すイエローY’信号に変換して、領域分離処理部8に与える。シアンC’信号、マゼンタM’信号およびイエローY’信号は、原稿画像を表すデジタル信号である。以下、シアンC’信号を「C’信号」、マゼンタM’信号を「M’信号」およびイエローY’信号を「Y’信号」という場合がある。
【0042】
領域分離処理部8は、与えられる画像データによって表される原稿画像全体から補正の対象となる補正対象画像部分を含む補正対象画像領域を抽出する抽出手段である。領域分離処理部8は、入力階調補正部7からのC’信号、M’信号およびY’信号に基づいて、原稿画像データによって表される原稿画像の各画素を複数の画像領域の構成要素として分離することによって補正対象画像領域を抽出する。本実施の形態では、画像領域は、文字を表す文字領域、網点で像を表す網点領域および写真を表す写真領域である。領域画像処理部8は、入力階調補正部7からのC’信号、M’信号およびY’信号をそのまま色補正部9に与えるとともに、領域分離結果に基づいて、各画素がどの画像領域に属すかを表す領域識別信号を色補正部9、黒生成下色除去部10、空間フィルタ処理部11および階調再現処理部13に与える。
【0043】
色補正部9は、画像出力時に原稿画像の再現性を向上することができるように、画像出力時に用いられるシアン、マゼンタおよびイエローの各色材に含まれる不要吸収成分を、シアン、マゼンタおよびイエローの各色材の分光特性に基づいて色濁りを取り除く処理をする。色補正部9は、上記複数の画像領域の1つである色補正部9での補正の対象となる画像領域であって、上記の各色成分で表される補正対象画像部分を含む補正対象画像領域の色の補正をする。本実施の形態では、補正対象画像領域は、文字領域であり、補正対象画像部分は、文字部分である。この色補正部9は、補正対象画像領域の画像データに対して、少なくとも補正対象画像部分の各色成分の分布状態を解析する解析手段である分布解析部14と、解析手段14の解析結果に基づいて、補正対象画像部分の色成分の分散が、小さくなるように補正する補正手段である補正部15とを含んで構成される。
【0044】
C’信号、M’信号、Y’信号および領域識別信号が、色補正部9に領域分離処理部8によって与えられると、領域分離処理部8からの領域識別信号に基づいて、補正対象画像部分の各色成分の分布状態が、分布解析部14によって解析される。分布解析部14の解析結果に基づいて、補正対象画像部分の各色成分の分散が、小さくなるように補正部15によって補正される。色補正部9は、補正後の色成分を表すC”信号、M”信号およびY”信号を黒生成下色除去部10に与える。
【0045】
黒生成下色除去部10は、与えられるシアン、マゼンタおよびイエローの色成分の濃度値に基づいて、黒を生成する黒生成処理およびシアン、マゼンタおよびイエローの色成分から黒生成処理で得られる黒の色成分を差し引いて、新たなシアン、マゼンタおよびイエローの色成分の濃度値を求める下色除去(Under Color Removal:略称UCR)処理をする。色補正部9による補正後の色成分を表すシアンC”信号、マゼンタM”信号およびイエローY”信号の3色の信号は、黒生成下色除去部10による処理によって、シアンC信号、マゼンタM信号、イエローY信号および黒K信号の4色の信号に変換される。以下、シアンC信号を「C信号」、マゼンタM信号を「M信号」、イエローY信号を「Y信号」および黒K信号を「K信号」という場合がある。黒生成処理の一例として、スケルトンブラックによる黒生成の方法が挙げられる。この方法では、スケルトンカーブの入出力特性を表す関数をy=f(x)で表し、入力される値をC”信号、M”信号およびY”信号の表す色成分で表し、C”信号、M”信号およびY”信号の表す色成分の濃度値の下色除去率をα(0<α<1)とすると、黒生成処理および下色除去処理後のシアン、マゼンタ、イエローおよび黒の色成分は、以下の式(1)によって求められる。黒生成下色除去部10は、黒生成および下色除去後のC信号、M信号、Y信号およびK信号を、空間フィルタ処理部11に与える。
K=f{min(C”, M”, Y”)}
C=C”−αK
M=M”−αK
Y=Y”−αK …(1)
【0046】
空間フィルタ処理部11は、画像データに対して、領域識別信号に基づいて各画像領域の空間周波数特性を補正することによって、出力画像のぼやけおよび粒状性劣化を防ぐように、デジタルフィルタを用いる空間フィルタ処理をする。出力階調補正部12は、与えられる信号を、画像出力するときに画像出力装置4の特性値を表す信号に変換する処理をする。階調再現処理部13は、与えられる信号に基づいて、画像を出力するための階調再現処理をする。
【0047】
たとえば領域分離処理部8によって抽出された文字領域の画像データは、画像出力時に文字の再現性を向上させるように、空間フィルタ処理部11による空間フィルタ処理によって、高周波数の強調量を大きくされる。その後文字領域の画像データは、階調再現処理部13において、高域の周波数の再現に適した高解像度のスクリーンによって、二値化または多値化処理される。
【0048】
領域分離処理部8によって抽出された網点領域の画像データは、空間フィルタ処理部11において、入力網点成分を除去するためのローパスフィルタを用いて処理される。さらに網点領域の画像データは、出力階調補正部12において、濃度値などが表す信号を画像出力装置4の特性値である網点面積率に変換された後、階調再現処理部13において、最終的に画像を画素に分離して、それぞれの階調を再現できるように処理される。
【0049】
領域分離処理部8によって抽出された写真領域の画像データは、階調再現処理部13において、階調再現性を重視したスクリーンによって、二値化または多値化処理される。
【0050】
階調再現処理部13による処理後の画像データは、記憶手段に一旦記憶されて、所定のタイミングで記憶手段から読み出されて画像出力装置4に与えられる。
【0051】
画像出力装置4は、画像処理装置3によって画像処理された画像データに基づいて、画像を記録材に形成するための装置である。画像出力装置4の例として、たとえば電子写真方式およびインクジェット方式を用いたカラー画像出力装置などを挙げることができるが、特に限定されるものではない。
【0052】
図2は、領域分離処理部8および色補正部9の構成を示すブロック図である。領域分離処理部8は、領域判定部20および文字領域判定部21を含んで構成される。領域判定部20は、入力階調補正部7からの原稿画像データを表すシアンC’信号、マゼンタM’信号およびイエローY’信号に基づいて、原稿画像データが表す原稿画像の各画素が文字領域、網点領域および写真領域のどの画像領域に属するかを判定する。また領域判定部20は、原稿画像を各画像領域に分離、すなわち各画素毎に、どの画像領域に属するかを表す識別データを与え、この識別データを表す領域識別信号を色補正部9、黒生成下色除去部10、空間フィルタ処理部11、階調再現処理部13および文字領域判定部21に与える。領域識別信号は、領域判定された画素が文字領域に属することを表す文字領域識別信号と、領域判定された画素が網点領域に属することを表す網点領域識別信号と、領域判定された画素が写真領域に属することを表す写真領域識別信号とを含む信号である。
【0053】
領域判定部20は、少なくとも文字領域の画像データを含む原稿画像データと、文字領域識別信号とを文字領域判定部21に与える。また領域判定部20は、文字領域識別信号、網点領域識別信号および写真領域識別信号を色補正部9、黒生成下色除去部10、空間フィルタ処理部11および階調再現処理部13に与える。文字領域判定部21は、領域判定部20によって原稿画像データから分離される文字領域の画像データと、文字領域識別信号とに基づいて、文字部分を抽出する。
【0054】
原稿画像は、以下の方法を用いて、文字領域、網点領域および写真領域の画像データに、領域判定部20によって分離され、抽出される。領域判定部20は、原稿画像データの任意の画素である注目画素を中心に、主走査方向および副走査方向に自然数個の画素を含む領域、すなわちM×N個の画素を含むブロックをとり、このブロック内の画素のデータに基づいて、注目画素がどの領域に属するかを判定する。MまたNは、自然数であって相互に同一であってもよいし、異なっていてもよい。
【0055】
その判定結果は、注目画素の領域識別信号として用いられる。ブロックに含まれる画素において、画素の濃度である信号がもつ値(以下、「信号レベル」という場合がある)の最大値および最小値を求めて、最大値を最大画素信号レベルDmax、最小値を最小画素信号レベルDminとする。ブロックに含まれる画素のうち、たとえば注目画素と注目画素の周囲にある8個の画素とを合わせた9個の画素の信号レベルの平均値Daveを求める。この平均値Daveを閾値として用いて、ブロックの画像が各画素の信号レベルを0(閾値未満)と1(閾値以上)とに置換えられて二値化される。
【0056】
このような二値化処理後、まず注目画素が、網点領域に属する画素であるか否かを判定する。網点領域では、背景、すなわち下地に、下地と大きく濃度値の異なる複数の点(網点)を配置して、たとえば下地に対して網点の信号レベルが大きい画像が形成されており、ブロック内の各画素の信号レベルが主走査方向および副走査方向に、隣接する画素間で大きく変化するとともに、主走査方向および副走査方向に関して、隣接する画素間での信号レベルの変化の回数が多い。領域判定部20は、このような条件を満たすブロックの注目画素を網点領域に属する画素であると判定する。網点を表す画素と下地を表す画素との誤判定が生じないように、最大画素信号レベルDmaxと平均値Daveとの差が、閾値B1と比較され、平均値Daveと最小画素信号レベルDminとの差が、閾値B2と比較される。主走査方向において、二値化された各画素の信号レベルが、0から1および1から0に変化する点の数KHが求められ、その変化点数KHが閾値THと比較される。副走査方向において、二値化された各画素の信号レベルが、0から1および1から0に変化する点の数KVが求められ、その変化点数KVが閾値TVと比較される。最大画素信号レベルDmaxと平均値Daveとの差と、平均値Daveと最小画素信号レベルDminとの差と、変化点数KHと、変化点数KVとを閾値と比較して、以下の条件を用いて、注目画素が属する画像領域を判定する。
Dmax−Dave>B1かつDave−Dmin>B2
かつKH>THかつKV>TV … 網点領域
上の条件以外 … 非網点領域
【0057】
注目画素が網点領域に属する画素であるか否かの判定の条件には、最大画素信号レベルDmaxと平均値Daveとの差が、閾値B1よりも大きいという条件と、平均値Daveと最小画素信号レベルDminとの差が、閾値B2よりも大きいという条件と、主走査方向の変化点数KHが、閾値THよりも大きいという条件と、副走査方向の変化点数KVが、閾値TVよりも大きいという条件とがあり、これらの条件をすべて満たす場合、注目画素が網点領域に属する画素であると判定される。これらの条件のうち、ひとつでも満たない条件がある場合、注目画素は、文字領域および写真領域である非網点領域に属する画素であると判定される。
【0058】
注目画素が非網点領域に属する画素であると判定された場合、注目画素が、文字領域および写真領域のどちらに属する画素であるか判定する。文字領域では、最大画素信号レベルDmaxと最小画素信号レベルDminとの差が大きく、文字領域に属する画素の信号レベルも全体的に高いと考えられるので、以下の条件を用いて、注目画素が属する画像領域を判定する。
Dmax>PAまたはDmin<PBまたは
DmaxとDminとの差分Dsub>PC … 文字領域
上の条件以外 … 写真領域
【0059】
注目画素が、文字領域に属する画素であるか否かを判定する条件には、最大画素信号レベルDmaxが、閾値PAよりも大きいという条件と、最小画素信号レベルDminが、閾値PBよりも小さいという条件と、最大画素信号レベルDmaxと最小画素信号レベルDminとの差分Dsubが、閾値PCよりも大きいという条件とがあり、これらの条件のうち少なくとも1つの条件を満たす場合、注目画素が文字領域に属する画素であると判定される。これらの条件をすべて満たさない場合、すなわち最大画素信号レベルDmaxが閾値PA以下であって、かつ最小画素信号レベルDminが閾値PB以上であって、かつ最大画素信号レベと最小画素信号レベルとの差分Dsubが閾値PC以下である場合、注目画素は、写真領域に属する画素であると判定される。ある注目画素の領域判定が終了した後、他の画素を新たな注目画素として、新たな注目画素を中心にM×N個の画素を含むブロックをとり、前述の画像領域の判定をする。注目画素がどの領域に属するかの判定は、注目画素のシアン、マゼンタおよびイエローの各色成分ごとにされ、2つの色成分において、注目画素が網点領域に属する条件を満たす場合、注目画素が網点領域に属する画素であると判定される。このような領域判定が原稿画像の全ての画素について、注目画素にあてはめて、領域判定される。
【0060】
領域判定部20は、文字領域に属すると判定された画素が原稿画像のどの画素であるかを表す文字領域識別信号を、文字領域判定部21に与え、網点および写真領域に属すると判定された画素が原稿画像のどの画素であるかを表す網点および写真領域識別信号を、色補正部9に与える。
【0061】
文字領域判定部21は、文字領域識別信号に基づいて、文字領域から、文字部分を抽出する手段であって、エッジ判定部22、色判定部23および色文字判定部24を含んで構成される。エッジ判定部22は、隣接する画素との間の急峻な信号レベルの変化、すなわち急峻な濃度変化を示すエッジ部にあたる画素を検出する手段であって、領域判定部20からの文字領域識別信号に基づいて、文字領域に属する画素がエッジ部に属するか否かを判定して、その判定結果を表すエッジ判定信号を色文字判定部24に与える。このエッジ部が文字部分となる。
【0062】
色判定部23は、画素が有彩色を表す画素であるか、無彩色を表す画素であるかの判定をする手段であって、領域判定部20からの文字領域識別信号に基づいて、文字領域に属する画素が、有彩色を表す画素であるか否かの判定をして、その判定結果を表す有彩判定信号を色文字判定部24に与える。色文字判定部24は、エッジ判定部22および色判定部23の判定結果に基づいて、文字領域に属する画素が、有彩色の文字部分であるか、無彩色の文字部分であるかを判定する手段である。
【0063】
図3は、領域分離処理部8に含まれるエッジ判定部22の構成を示すブロック図である。図4は、エッジ部検出用のマスクおよびフィルタを示す図であって、図4(1)は、エッジ検出用のマスクを示し、図4(2)は、主走査方向のゾーベルフィルタ40を示し、図4(3)は、副走査方向のゾーベルフィルタ41を示す。エッジ判定部22は、主走査ゾーベルフィルタ部30、副走査ゾーベルフィルタ部31、各色絶対値算出部32、各色加算器33、各色比較器34、加算器35および比較器36を含んで構成される。エッジ判定部22は、エッジを検出するためのフィルタを用いて、画素が文字部分であるエッジ部であるか否かの判定をする。画素がエッジ部であるか否かの判定は、シアン、マゼンタおよびイエローの色成分ごとにされる。主走査ゾーベルフィルタ部30、副走査ゾーベルフィルタ部31、各色絶対値算出部32、各色加算器33および各色比較器34の処理は、シアン、マゼンタおよびイエローの色成分において、同じ処理であるので具体的な処理の説明はシアンの色成分についてだけする。マゼンタ、イエローに関しても同様の手段を有する。
【0064】
ある画素を注目画素37として、注目画素37を中心とする主走査方向および副走査方向に所定数の画素を有するマスク、たとえば図4(1)に示す5×5マスク38が、図示しないラインメモリから読み出され、さらに5×5マスク38から注目画素37を中心とする3×3マスク39が抽出される。マスクは、複数の画素を含む局所領域を表わし、たとえば3×3マスクは、画素が3行3列に並んで形成される局所領域を表す。
【0065】
主走査ゾーベルフィルタ部30において、シアンC’信号が与えられると、注目画素37の主走査方向の差分値を求めるための主走査方向のゾーベルフィルタ40が3×3マスク39に畳み込まれる。畳み込み処理は、具体的には、3×3マスク39の1行1列目の画素42の値と、主走査ゾーベルフィルタ40の1行1列目の画素42aの値とを積算する。同様に1行2列目の画素43の値と、主走査方向のゾーベルフィルタ40の1行2列目の画素43aの値とを積算する。さらに3×3マスク39の他の画素の値と対応する主走査ゾーベルフィルタ40の画素の値とを積算し、積算して求められた値の総和を求めて差分値とする。副走査ゾーベルフィルタ部31において、シアンC’信号が与えられると、注目画素37の副走査方向の差分値を求めるための副走査方向のゾーベルフィルタ41が3×3マスク39に畳み込まれる。主走査ゾーベルフィルタ部30の処理と同様に、副走査ゾーベルフィルタ部31で3×3マスク39の画素の値と、対応する副走査方向のゾーベルフィルタ41の画素の値とを積算して求めた値の和を求めて、注目画素37の各走査方向の差分値が求められる。
【0066】
各走査方向のゾーベルフィルタ40,41が、3×3マスク39に畳み込まれた結果は、各色絶対値算出部32に与えられる。各色絶対値算出部32では、注目画素37の差分値の絶対値が、各色絶対値算出部32によって求められ、差分値の絶対値が各色加算器33に与えられる。各色加算器33では注目画素37の差分値である加算値が、各色加算器33によって求められ、加算値が各色比較器34に与えられる。差分値の絶対値を求める処理は、各走査方向ゾーベルフィルタ40,41に負の係数が存在することを考慮する処理であって、加算値を求める処理は、主走査方向と副走査方向との両方の結果を考慮するための処理である。
【0067】
各色比較器34は、注目画素37の加算値を、予め定める閾値edgeTHと比較して、加算値が閾値以上であれば、「1」を表す信号を加算器35に与え、閾値よりも小さければ、「0」を表す信号を加算器35に与える。主走査ゾーベルフィルタ部30、副走査ゾーベルフィルタ部31、各色絶対値算出部32、各色加算器33および各色比較器34における処理は、注目画素37のシアン、マゼンタおよびイエローの各色成分に対してエッジ部であるか否かの判定をする処理である。
【0068】
加算器35は、各色比較器34からのシアン、マゼンタおよびイエローの各色成分についての比較結果を表す信号がもつ値を加算し、加算結果を表す信号を比較器36に与える。比較器36は、加算器35からの加算結果に基づいて、加算値を予め定める閾値addTHと比較して、注目画素37がエッジ部であれば「1」を表すエッジ判定信号を、色文字判定部24に与え、注目画素37がエッジ部でないならば「0」を表すエッジ判定信号を、色文字判定部24に与える。たとえば各色比較器34によって、シアン、マゼンタおよびイエローの色成分すべてがエッジ部であると判定されるときだけ、注目画素37がエッジ部であると判定されるならば、閾値addTHを「3」と定め、1つの色成分だけでもエッジ部であると判定されれば、注目画素37がエッジ部であると判定されるならば、閾値addTHを「1」と定められる。
【0069】
図5は、有彩色および無彩色の判定に用いられる閾値を説明する図である。色判定部23では、シアンC’信号、マゼンタM’信号およびイエローY’信号に基づいて、注目画素37の各色成分の濃度値の最大値max(C’,M’, Y’)と最小値min(C’,M’, Y’)との差が、予め定める閾値Δと比較される。たとえば図5に示すように、シアンの色成分が最大値であって、イエローの色成分が最小値である場合、これらの差が閾値Δと比較される。差が閾値Δ以上である場合、注目画素37が有彩色を表す画素であると判定され、閾値よりも小さい場合、注目画素37が無彩色を表す画素であると判定されて、判定結果を表す有彩判定信号が色文字判定部24に与えられる。
【0070】
色文字判定部24では、以下の条件基づいて、画素が色文字部分および黒文字部分であると判定される。
(エッジ)かつ(有彩色) → 色文字部分
(エッジ)かつ(無彩色) → 黒文字部分
【0071】
色文字判定部24では、注目画素37がエッジ部であるとエッジ判定部22によって判定され、注目画素37が有彩色を表す画素であると色判定部23によって判定される場合、注目画素37が色文字部分であると判定され、注目画素37がエッジ部であるとエッジ判定部22によって判定され、注目画素37が無彩色を表す画素であると色判定部23によって判定される場合、注目画素が黒文字部分であると判定されて、その判定結果である色文字判定信号が色補正部9に与えられる。
【0072】
色補正部9は、色文字補正処理部25および他領域補正処理部26を含んで構成される。色文字補正処理部25は、色文字判定部24からの色文字判定信号に基づいて、色文字部分であると判定され、かつ所定の条件を満たす色文字部分である各画素に対して、各画素の色成分を補正して、色成分の分散が小さくなる処理をする。他領域補正処理部26は、領域判定部20からの網点および写真領域識別信号に基づいて、網点および写真領域に属する画素に対して、画素の色成分を補正する処理をする。他領域補正処理部26では、網点および写真領域に属する画素に対して、たとえば直接変換法および三次元補間法を用いて、色成分の補正をする。直接変換法は、与えられる画像データを表すシアン、マゼンタおよびイエローの色成分において、すべての色成分の組合せに対して色変換データを予め求めて、その結果を色変換テーブルに格納しておき、網点および写真領域の画像データが与えられると、テーブル値を参照して、テーブル値に変換した画像データを出力する方法である。この直接変換法は、色変換テーブルを用いる方法であり、回路構成も簡単で比較的高速に処理でき、色成分がいかなる非線形特性であっても適用することができる。三次元補間法は、選択される一部のシアン、マゼンタおよびイエローの色成分の組合せに対するテーブル値を予め求めて色変換テーブルテーブルに格納しておき、予めテーブル値が格納されていない色成分の組合せに対しては、色変換テーブルに格納されるテーブル値を用いて、色変換値を求める三次元補間演算によって算出する方法である。この三次元補間法は、予め求めるテーブル値の数を限定した場合でも、すべての与えられる画像データの色成分の組合せに対して、色変換値を求めることができ、色変換テーブルのサイズを小型化することができる方法である。各画素の色成分が、色文字補正処理部25および他領域補正処理部26によって補正されると、補正後の色成分を表すC”信号、M”信号およびY”信号が黒生成下色除去部10に与えられ、前述の黒生成および下色除去処理が施される。
【0073】
図6は、色文字補正処理部25の構成を示すブロック図である。色文字補正処理部25は、画像メモリ50、第1の色空間変換部51、閾値設定部52、分布解析部14、補正部15および第2の色空間変換部53を含んで構成される。画像メモリ50は、少なくともM×N個の画素のブロックで表される画像データを格納する手段である。領域分離処理部8からの原稿画像データを表すC’信号、M’信号およびY’信号と、色文字判定部24からの色文字判定信号とが、色文字補正処理部25に与えられると、画像メモリ50は、文字部分を含む文字領域の画像データを格納するとともに、第1の色空間変換部51に与える。第1の色空間変換部51は、複数の第1色成分であるシアン、マゼンタ、イエローを含む第1表色系であるCMY表色系で表される文字領域の画像データを、複数の第2色成分である明度、彩度、色相を含む均等色空間を用いる第2表色系であるL*a*b*表色系で表される画像データに変換する手段である。文字領域の画像データが、画像メモリ50によって第1の色空間変換部51に与えられると、第1の色空間変換部51は、シアン、マゼンタおよびイエローの色成分で表される文字領域の画像データを、明度を表すL*と彩度および色相を含む色度を表すためのa*およびb*との色成分を含むCIE1976L*a*b*表色系の色空間で表される文字領域の画像データに変換し、変換された文字領域の画像データを分布解析部14に与える。以下、色度をa*,b*と表すことにする。閾値設定部52は、画像データの色成分を補正するか否かの判断するための閾値を格納する手段である。分布解析部14は、変換された文字領域の画像データにおいて、少なくとも文字部分の色成分の分布状態を解析し、閾値設定部52に格納される閾値に基づいて、文字部分の色成分を補正するか否かを判断する。
【0074】
補正部15は、分布解析部14によって補正すると判断された文字部分の色成分の分散が小さくなるように補正し、補正後の画像データを第2の色空間変換部53に与える。第2の色空間変換部53は、色成分を補正した後のCIE1976L*a*b*表色系の色空間で表される文字領域の画像データを、シアン、マゼンタおよびイエローの色成分で表される文字領域の画像データに変換し、変換後の画像データを表すC”信号、M”信号およびY”信号を黒生成下色除去部10に与える。
【0075】
図7は、文字部分61の色成分の分散を小さくするように補正するときのイメージを示す第1表色系の色空間を示すグラフである。文字部分61の分布解析部14および補正部15における画像処理方法を簡単に説明する。文字部分61の各画素の色成分は、CMY表色系で表される色空間60に分布させることができる。CMY表色系は、シアン、マゼンタおよびイエローの色成分を含む表色系である。領域分離処理部8に与えられるシアンC’信号、マゼンタM’信号およびイエローY’信号に基づいて、領域分離処理部8によって文字部分61を含む文字領域62に属する画素の集合を画素集合Pとすると、色成分を補正するための条件は、少なくとも領域分離処理部8によって、注目画素が文字部分61であると判定されることが必要である。たとえば注目画素が原稿画像のi行j列にある場合、(i,j)で表す。注目画素(i,j)における各色成分を表す信号を、C’(i,j)信号、M’(i,j)信号およびY’(i,j)信号とし、注目画素(i,j)が属する画像領域の領域分離結果をseg(i,j)とすると、注目画素(i,j)の色成分を補正するための条件として、少なくとも以下の条件を満足する必要がある。
seg(i,j)∈P
【0076】
領域分離結果seg(i,j)が、画素集合Pに含まれるという条件を満たす場合、注目画素(i,j)の色成分が補正される。注目画素の色成分C’(i,j)、M’(i,j)およびY’(i,j)は、補正されて、Ccorrect(i,j)、Mcorrect(i,j)およびY correct(i,j)になる。
Ccorrect(i,j) ← C’(i,j)
Mcorrect(i,j) ← M’(i,j)
Ycorrect(i,j) ← Y’(i,j)
【0077】
ただし、画素集合Pに含まれる領域分離結果seg(i,j)において、すべての画素の色成分が補正されるのではなく、注目画素が、注目画素を中心とするあるマスクに含まれる複数の画素に対し、分布解析部14によって、たとえば色相がどれくらい外れているかが解析され、その外れ具合に基づいて、色成分の補正をするか否かが判断される。注目画素が属すべき文字部分61の色成分を表す信号は、注目画素を中心とするマスクに属する複数の画素に基づいて求められ、求められる色成分を、Celement(i,j)、Melement(i,j)およびYelement(i,j)とする。補正後の注目画素の色成分を、Ccorrect(i,j)、Mcorrect(i,j)およびYcorrect(i,j)とすると、補正後の色成分は、補正前の色成分に比べて、注目画素が属すべき文字部分61の色成分に近づく。言換えると、注目画素が属すべき文字部分61の色成分を表す点から、補正後の注目画素の色成分を表す点までの距離は、注目画素が属すべき文字部分61の色成分を表す点から、補正前の注目画素の色成分を表す点までの距離よりも短い。たとえば色成分C1,M1およびY1を表す点から、色成分C2,M2およびY2を表す点までの距離を以下のように表す。
D{(C1,M1,Y1),(C2,M2,Y2)}
【0078】
前述のように、注目画素が属すべき文字部分61の色成分を表す点から、補正後の注目画素の色成分を表す点までの距離は、注目画素が属すべき文字部分61の色成分を表す点から、補正前の注目画素の色成分を表す点までの距離よりも短いので、以下のように表せる。
【0079】
文字領域62に属する画素の色成分が、この画素を中心とするマスクによって代表される色成分に近づくように補正されることによって、少なくとも文字部分61の色成分の分散、特に色相を示す色成分の分散を小さくして、画像出力時に原稿画像の再現性を向上させるように補正する。
【0080】
図8は、色文字部分63の色成分の分散を代表値に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。図9は、明度を示す色成分を補正するときのイメージを示す第2表色系の色空間を示すグラフである。図10は、色文字部分63の色成分の分散を、代表値66に近づけるように補正する手順を示すフローチャートである。図11は、注目画素37を中心とする3×3マスク75を示す図である。図12は、注目画素37と3×3マスク75内の注目画素37を除く他の画素との色相の関係を示す図である。代表値66は、色成分を補正するときの目標となる値であって、たとえばあるマスクの平均値を表す。画像データの色成分を補正において、具体的には色文字部分63の色成分が、色文字部分63を含む局所領域の代表値66に近づくように補正される。色文字部分63の色成分を補正するための色空間を限定するものではないが、色文字部分63の色成分は、均等色空間を用いるCIE1976L*a*b*表色系(Commission Internatinale de l’Eclairage:CIE)に、第1の色空間変換部51によって変換される。以下、CIE1976L*a*b*表色系を「L*a*b*表色系」という。L*a*b*表色系の色成分は、L*,a*,b*であって、L*軸、a*軸およびb*軸の3つの軸によって座標系が形成される。以下、L*軸、a*軸およびb*軸によって形成される座標系を、「L*a*b*座標系65」という。L*は、明度を表す色成分である。a*およびb*は、これらを用いて色相および彩度を表すことができる色成分であって、色相は、tan-1(b*/a*)によって表される式を用いて求められる。L*a*b*表色系の色成分は、シアン、マゼンタおよびイエローの色成分の線形和で表すことができるので、シアン、マゼンタおよびイエローの色成分によって表されるCMY表色系60は、単純な3行3列のマトリックスを用いて、L*a*b*表色系に変換される。したがってシアン、マゼンタおよびイエローの色成分によって表される表色系からL*a*b*表色系への変換式は、以下のように表すことができる。
【0081】
【数1】
【0082】
原稿画像データのi行j列にある注目画素(i,j)が、色文字領域64に属する画素、すなわち色文字部分63であると領域分離処理部8によって判定され、注目画素の色成分が補正された後の色成分を{L* correct(i,j),a* correct(i,j),b* correct(i,j)}とすると、補正を表す変換は、以下のように表せる。
【0083】
【数2】
【0084】
この変換によって、色文字領域64に対応する画像を出力するときに、再現性が向上するように色成分の分散を補正する。
【0085】
L*a*b*表色系で表される画像データにおいて、色文字部分63である注目画素を中心にM行N列のマスクを考える。このマスクに属する画素を(i,j)で表し、マスクをmask(M,N)で表すと、画素(i,j)は、以下の条件を満たす。
(i,j)∈mask(M,N)
【0086】
マスクに属する画素の色成分は、色成分の分布状態の解析結果に基づいて、マスクに属する画素の色成分の代表値66、たとえば平均値および中央値を色成分の補正をするときの目標値として求めて、この代表値66に近づけるように補正部15によって補正される。
【0087】
つぎに色文字部分63の色成分を補正する手順を示す。ステップd0において、色文字領域64の画像データが、L*a*b*表色系で表される色成分に第1の色空間変換部51によって変換されて、分布解析部14に与えられて、ステップd1に進む。
【0088】
ステップd1において、L*a*b*表色系で表される色文字領域64の画像データについて、分布解析部14によって、ある注目画素を中心とするM行N列のマスクに含まれる画素のL*a*b*座標系65における分布状態が解析されて、さらにこの各画素の色成分が求められて、ステップd2に進む。
【0089】
ステップd2において、色度a*・b*を示す色成分であるa*およびb*の分布状態に基づいて、マスクに属する画素の色成分が、注目画素の色成分よりも著しく離れた色成分をもつ場合、この画素の色成分を除いて、a*およびb*の平均値であるa*_およびb*_が、分布解析部14によって求められる。
【0090】
ステップd2において、M行N列のマスク内の画素の色成分は、その画素の色相と注目画素37の色相とに基づいて、除くべき色成分であるか否かが分布解析部14によって判定される。M行N列のマスク内の色成分を除くか否かの判定には、たとえば図11に示すように、注目画素37を中心とする3×3マスク75が用いられる。
【0091】
3×3マスク75において、注目画素37の画素番号を0番とし、3×3マスク75内の注目画素37を除く8個の近傍画素76の画素番号を1〜8番とする。L*a*b*座標系65における注目画素37を表す注目画素点37aの座標を(L*0,a*0,b*0)で表し、近傍画素76を表す近傍画素点76aの座標を(L*i,a*i,b*i)(i=1,2,…,8)で表す。注目画素37の色相、すなわち注目画素点37aと原点とを結ぶ直線と、a*軸とが成す角度である色相に基づいて、所定の範囲外である図12に示される斜線部にある画素点の色成分を除く。
【0092】
色成分を除く処理にはL*値は関係ないので、3×3マスク75内の各画素の座標は、L*値を省略して表し、かつベクトルで表すと、注目画素点37aのベクトルはA~=(a*0,b*0)で表され、近傍画素点76aのベクトルをB~=(a*i,b*i)で表される。注目画素点37aと原点とを結ぶ直線と、ある近傍画素点76aと原点とを結ぶ直線との成す角度をθ0iで表すと、角度θ0iの余弦Cosθ0iは、ベクトルA~とベクトルB~との内積A~・B~を、ベクトルA~の大きさ|A~|とベクトルB~の大きさ|B~|との積|A~||B~|で除算して求められる。角度θ0iの余弦Cosθ0iは以下の式のように表される。
Cosθ0i=A~・B~/(|A~||B~|)
【0093】
角度θ0iの余弦Cosθ0iは、−1≦Cosθ0i≦1を満たす値となり、内積A~・B~は、A~・B~=a*0×a*i+b*0×b*iで求められる。
【0094】
したがって注目画素37の色成分よりも著しく離れた画素とは、前記角度θ0iの余弦Cosθ0iの値が、予め定める閾値THoutよりも小さい、すなわち0<Cosθ0i<THoutを満たす画素である。たとえば閾値THoutの値が1/2(1/2)である場合、角度θ0iの余弦Cosθ0iの値が1/2(1/2)よりも小さい、すなわち角度θ0iが45度よりも大きくなる近傍画素76の色成分が除かれる。
【0095】
色成分を除く他の方法として、上述の色相を求める式θ=tan-1(b*/a*)を用いて、注目画素点37aの色相θ0と近傍画素76aの色相θiとをそれぞれ求めて、|θ0−θi|>45を満たす近傍画素76の色成分を除く方法を用いてもよい。
【0096】
M行N列のマスクにおいて、i行j列にある注目画素(i,j)を中心に属する画素の数をnumとすると、補正をするための目標値となる平均値は、マスクに属する各画素の色成分の総和を、マスクに属する画素の数で除算した値であり、以下のように表される。M,Nは自然数であって、相互に同一であってもよいし、異なってもよい。
【0097】
【数3】
【0098】
ステップd2において、平均値a*_およびb*_が、分布解析部14によって求められてステップd3に進む。
【0099】
ステップd3において、補正された画素の数を表す初期値が0の補正画素数Hに1を与えて、ステップd4に進む。
【0100】
ステップd4において、分布解析部14によって、マスクの平均値a*_とマスクに属する注目画素の色成分a*との差の絶対値が、閾値設定部52に格納される閾値と比較され、前記差の絶対値が閾値以上であると判断される場合、すなわち|a*_−a*|≧THaであると判断される場合、ステップd5に進み、前記差の絶対値が閾値よりも小さいと判断される場合、すなわち|a*_−a*|<THaであると判断される場合、ステップd8に進む。
【0101】
ステップd5において、注目画素の色成分a*およびb*が、マスクの平均値に近づくように補正部15によって補正される。補正後の注目画素の色成分は、補正前の注目画素の色成分に、マスクの平均値と注目画素の色成分との差に予め定める補正の度合いを調整するためのパラメータβを積算した値を加算した値である。パラメータβは、0以上1以下、すなわち0≦β≦1を満たす定数である。パラメータβは、操作者によって予め設定されることを想定するが、たとえば明度L*の値によって、パラメータβの値をリアルタイムに変更させることができ、明度L*の値が小さい場合、すなわち画素が暗い場合は、パラメータβの値を大きくして、平均値にさらに近づくように補正を強くする。補正前の注目画素の色成分をL*(i,j),a*(i,j)およびb*(i,j)と表し、マスクの平均値をL*_(i,j),a*_(i,j)およびb*_(i,j)と表すと、補正後の注目画素の色成分L* correct(i,j),a* correct(i,j)およびb* correct(i,j)は、以下のように表される。
【0102】
【数4】
【0103】
注目画素の明度を示す色成分L*は、補正することによって画像出力時に色文字部分63を自然に再現することができないおそれがあるので、たとえば予め定める複数の補正明度値74であるL*0,L*1,…,L*iによって代表される値に置換えられる。たとえば注目画素の明度を示す色成分がL*(i,j)であって、注目画素の明度を示す色成分L*(i,j)が、予め定める補正明度値L*iに近い場合、注目画素の色成分a*(i,j)およびb*(i,j)は、マスクの平均値に近づくように補正され、明度を示す色成分L*(i,j)は、明度値L*iに置換えられる。注目画素の色成分が変換された後の色成分は、以下のように表される。
【0104】
【数5】
【0105】
各画素の明度を示す色成分は、予め定める明度値だけをもつようになるので、図9に示すように明度を示す色成分の分散が小さくなる。この画素の明度を示す色成分を、予め定める明度値に置換える補正処理は、画像出力装置4の画像出力の性能があまり高くない場合に有効な処理である。画像出力装置4の階調再現性が悪い場合、画像出力装置4の画像の出力特性を予め測定しておき、この出力特性に基づいて、安定して画像出力できるときの濃度値を求めて、それに対応する明度値に置換えるので、再現することが難しい明度値で画像出力するよりも、制御しやすく利点も多い。ステップd5において、注目画素の色成分の補正が終了すると、ステップd6に進む。
【0106】
ステップd6において、補正画素数Hがマスクに属する画像データの数Jに等しいか否か、すなわちマスクに属する色文字部分63の色成分の補正がすべて終了したか否かが、分布解析部14によって判断される。補正画素数Hが画像データの数Jに等しいと判断された場合、ステップd7に進み、そうでない場合、ステップd9に進んで補正画素数に1を加えて、さらにステップd4に進み、マスクに属する画素であって、まだ色成分が補正されていない画素の色成分が補正される。
【0107】
ステップd7において、色文字部分63と判断されたすべての画素について、色成分の補正が終了したか否かを、分布解析部14によって判断され、すべて終了したと判断された場合、ステップd10に進んで色成分の補正処理を終了し、まだ終了していないと判断された場合、ステップd1に進む。
【0108】
ステップd8において、分布解析部14によって、マスクの平均値b*_とマスクに属する注目画素の色成分b*との差の絶対値が、閾値設定部52に格納される閾値と比較され、前記差の絶対値が閾値以上であると判断される場合、すなわち|b*_−b*|≧THbであると判断される場合、ステップd5に進み、前記差の絶対値が閾値よりも小さいと判断される場合、すなわち|b*_−b*|<THbであると判断される場合、ステップd6に進む。
【0109】
本発明の実施の形態によれば、色文字部分63の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。またたとえば色相を示す色成分だけを補正し、色文字部分63の周辺における画像の濃淡の調子を表す階調を保持させることによって、自然な色再現ができるように補正をすることができる。
【0110】
また入力される全体の画像データから、補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0111】
また色文字部分63の色成分を、色文字部分63の色成分の代表値66に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0112】
また色文字部分63の各画素の明度を示す色成分を、予め定める補正明度74に置き換えることによって、明度を示す色成分の分散が小さくなり、画像出力時に原稿に形成される画像を良好に再現することができる補正をすることができる。また明度を示す色成分の分散を小さくすることによって、色文字部分63が、くっきりと再現することができるように補正することができる。また、たとえば画像の濃淡の調子を表す階調の再現性が悪い画像出力装置において、明度を示す色成分を補正明度74に置き換えた画像データを用いて、画像出力するときに原稿に形成される画像を少ない階調数で良好に再現することができる。
【0113】
また入力される画像データに含まれる色文字部分63の色成分の分散が、小さくなるように補正されるので、補正した画像データを用いて、画像出力するときに原稿に形成される画像の再現性を向上させることができる。
【0114】
図13は、本発明の実施の他の形態の画像形成装置における色文字領域64の色成分の分散を近似直線68に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。図14は、近似直線68と観測点69との関係を示す図である。図15は、色文字領域64の色成分を、近似直線68を用いて補正する手順を示すフローチャートである。本実施の形態では、色文字部分63の色成分を、色文字部分63を含む領域の代表値66に近づけるように補正したが、本発明の実施の他の形態として、たとえば色文字部分63および下地部分67によって形成される色文字領域64の分布状態を、近似直線68で近似して、この近似直線68に垂直に近似直線68に近づけるように、色文字領域64に属する画素の色成分を補正する構成にしてもよい。その他の構成は、図1に示す画像形成装置1の構成と同様である。同様の構成については、説明を省略し、同様の参照符号を付す。
【0115】
この画像処理方法では、色文字領域64が、領域分離処理部8によって原稿画像データから抽出されるとともに、色文字領域64に含まれる下地部分67も領域分離処理部8によって抽出される。下地部分67は、たとえば色文字領域64の局所領域であるマスクにおいて、マスク内平均濃度値を用いて、マスクに属する各画素の色成分を二値化する処理をする方法、あるいはクラスタリングの手法を用いて検出される。色文字領域64に属する下地部分67は、領域分離処理部8によって、有彩色および無彩色の判定がなされる。ここでは色文字領域64に属する下地部分67は、有彩色である場合を想定するが、仮に下地部分67が無彩色である場合においても有効である。
【0116】
領域分離処理部8によって抽出される色文字部分63と、色文字領域64に属する下地部分67を任意の色空間、ここでは代表的な均等色空間を用いるL*a*b*表色系で表されるL*a*b*座標系65に分布させる。検出される下地部分67が有彩色を表す場合、理想的な画像入力装置による色文字部分の色成分と有彩色の下地部分の色成分との分布は、直線状に配置されることが想定されるので、色文字部分63の色成分と下地部分64の色成分とを直線で近似することができる。
【0117】
補正の対象となる画素は、領域分離処理部8によって抽出される色文字部分63および下地部分67に属するので、補正の対象となる画素を(i,j)で表し、色文字部分66の集合をP’で表し、下地部分67の集合をPbackで表すと、(i,j),P’およびPbackの関係は、以下のように示される。
(i,j)∈P’∪ Pback
【0118】
画素(i,j)の色成分が、L*a*b*表色系において、L*(i,j),a*(i,j),b*(i,j)であって、(i,j)∈P’∪ Pbackの関係を満たす画素の分布に対して、近似直線68を用いて色成分を補正する。
【0119】
近似直線68は、最小2乗法を用いて求められる。最小2乗法では、ある領域に含まれる注目画素を表す観測点69と、予め定める任意の直線との距離の2乗値を領域のすべての点について求めて、総和をとり、この総和を誤差として、この誤差を最小にすることによって近似直線68が求められる。L*a*b*座標系65において、色文字部分63および下地部分67の集合に含まれるある画素の色成分、すなわち座標が(L*(i,j),a*(i,j),b*(i,j))で表されるとすると、以下の誤差εを最小にすることによって近似直線68を求める。
【0120】
【数6】
【0121】
最小2乗法を用いて求められる近似直線68は、ベクトルで表される場合、2つのベクトル、すなわち近似直線68上のある1点の位置ベクトルと、近似直線68の方向ベクトルとが与えられれば決定することができる。L*a*b*座標系65において、近似直線68上のある1点の位置ベクトルをA~=(L*,a*,b*)で表し、方向ベクトルをB~=(b1,b2,b3)で表し、近似直線68上の点の位置ベクトルX~は、任意の定数であるパラメータtと方向ベクトルとの積に、ある1点の位置ベクトルを加算して求められ、以下の式のように表せる。
【0122】
【数7】
【0123】
観測点69の位置ベクトルをC~=(L*(i,j),a*(i,j),b*(i,j))で表すと、この観測点69と近似直線68との距離の2乗値を求めた場合、距離の2乗値は、パラメータtの関数と考えることができるので、パラメータtの関数が最も最小値をとるとき観測点69と近似直線68との距離が最も小さくなる。パラメータtの関数は、観測点69と近似直線68との距離の2乗値を変形して、以下のように表される。
【0124】
【数8】
【0125】
したがってt=−B~・(A~−C~)/|B~|2であるときに距離が最小となる。ただし、|B~|は方向ベクトルの大きさを表す。t=−B~・(A~−C~)/|B~|2であるときの観測点69と近似直線68との距離は、(−B~・(A~−C~)/|B~|2)+|A~−C~|2で表される。観測点69と近似直線68との距離が最小となるとき、近似直線68と、観測点69を通り、近似直線68に垂直に交わる垂線との交点70の位置ベクトルは、t=−B~・(A~−C~)/|B~|2を用いて求めることができる。
【0126】
図14に示すように、観測点69の座標を(L*(i,j),a*(i,j),b*(i,j))で表し、前述のようにして求められる近似直線68に観測点69から下ろした垂線との交点70の座標を、(L*’(i,j),a*’(i,j),b*’(i,j))で表すと、観測点69と交点70とを結ぶ垂線71は、近似直線68に垂直に交わる。
【0127】
文字領域64の色成分の補正処理は、文字領域64に属する画素の色成分を近似直線68に垂直に近似直線68に近づける、すなわち観測点69を交点70に近づけるように補正する処理であって、色文字領域64の画素に対して補正処理する。ただし補正の対象となる画素を表す点と近似直線68との距離Lが、閾値設定部52に格納される閾値THcと比較され、L≧THcを満たす画素だけに対して、色成分が補正される。
【0128】
補正後の注目画素の色成分は、交点70の色成分と補正前の注目画素の色成分との差に、補正の度合いを調整するパラメータγを積算した値を、補正前の注目画素の色成分に加算して求められる。パラメータγは、0≦γ≦1を満たす定数である。補正後の注目画素の色成分が、(L* correct(i,j),a* correct(i,j),b* correct(i,j))で表されるとすると、以下のように求められる。
【0129】
【数9】
【0130】
色文字領域64の色成分を補正する手順を示す。ステップe0において、領域分離処理部8によって、色文字領域が抽出されるとともに、色文字部分63および下地部分67が抽出されて、ステップe1に進む。
【0131】
ステップe1において、分布解析部14によって、色文字領域64のうち注目画素を中心とするM行N列、すなわちM×Nのマスクの色文字部分63および下地部分67を表す画素の色成分の分布状態が求められる、すなわちL*a*b*座標系65における各画素の座標が求められて、ステップe2に進む。
【0132】
ステップe2において、分布解析部14によって、色文字部分63の色成分だけでなく、下地部分67の色成分を表す画像データを用いて、分布状態を近似する近似直線68が前述のように求められて、ステップe3に進む。
【0133】
ステップe3において、分布解析部14によって、各画像データについて、近似直線68に下した垂線71の距離Lがそれぞれ求められて、ステップe4に進む。ステップe4において、初期値が0の補正画素数Hに1を与えて、ステップe5に進む。
【0134】
ステップe5において、分布解析部14によって、近似直線68と補正の対象となる画素を表す点との距離Lが、閾値THc以上であるか否かを判断して、距離Lが閾値以上であると判断された場合、ステップe6に進み、距離Lが閾値よりも小さいと判断された場合、ステップe7に進む。
【0135】
ステップe6において、補正部15によって、前述のように補正の対象となる画素の色成分を、近似直線68に垂直に近似直線68に近づけるように補正して、ステップe7に進む。
【0136】
ステップe7において、補正画素数Hがマスクに属する画像データの数Jに等しいか否か、すなわちマスクに属する色文字部分63の色成分の補正がすべて終了したか否かが、分布解析部14によって判断される。補正画素数Hが画像データの数Jに等しいと判断された場合、ステップe8に進み、そうでない場合、ステップe9に進んで補正画素数Hに1を加えて、さらにステップe5に進み、マスクに属する画素であって、まだ色成分が補正されていない画素において、距離Lが閾値以上であるか否かを、分布解析部14によって判断される。
【0137】
ステップe8において、分布解析部14によって、色文字領域64に属するすべての画素について、色成分の補正が終了したか否かが判断され、色成分の補正が終了したと判断された場合、ステップe10に進んで色成分の補正を終了し、色成分の補正がまだ終了していないと判断された場合、ステップe1に進む。
【0138】
また本発明の実施の他の形態において、色文字領域64の各画素の各色成分が、近似直線68に垂直に近似直線68に近づくように補正されることによって、色文字部分63だけでなく、色文字部分63を含む色文字領域64全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0139】
図16は、本発明の実施の他の形態の画像形成装置における色文字部分63の色成分を、等明度直線72を用いて補正するときのイメージを示す第2表色系の色空間を示すグラフである。図17は、色文字部分63の色成分を、等明度直線72を用いて補正する手順を示すフローチャートである。本実施の形態では、色文字部分63の色成分を、代表値66の画素の点と、この代表値66の明度と同一の明度軸上の点とを結ぶ等明度直線72に垂直に等明度直線72に近づけるように補正される。図1〜図15に示す画像形成装置1の構成と同様の構成については、同様の符号を付して説明を省略する。
【0140】
色文字部分63である注目画素(i,j)の色成分を表す点Pが、{L*(i,j),a*(i,j),b*(i,j)}で表され、注目画素を中心とするM×N個の画素を含むマスクの代表値、たとえば平均値を表す点Qが{L*_(i,j),a*_(i,j),b*_(i,j)}で表され、補正後の注目画素の色成分を表す点P’が{L* correct(i,j),a* correct(i,j),b* correct(i,j)}で表されるとする。注目画素の色成分の補正処理は、マスクの平均値を表す点Q{L*_(i,j),a*_(i,j),b*_(i,j)}と、明度値が同一な無彩色点Q’{L*_(i,j),0,0}とを結ぶ等明度直線72に、注目画素を表す点を、垂直に等明度直線72に近づけるように、補正部14によって補正される。
【0141】
L*a*b*座標系65において、注目画素の色成分を表す点と、平均値を表す点と、補正後の注目画素の色成分を表す点と、無彩色点とをベクトル量で考える。注目画素の色成分を表す点の位置ベクトルは、{L*(i,j),a*(i,j),b*(i,j)}で表され、平均値を表す点の位置ベクトルは、{L*_(i,j),a*_(i,j),b*_(i,j)}で表され、補正後の注目画素の色成分を表す点の位置ベクトルは、{L* correct(i,j),a* correct(i,j),b* correct(i,j)}で表され、無彩色点の位置ベクトルは、{L*_(i,j),0,0}で表される。各点P,P’,QおよびQ’において、ベクトルPP’_およびベクトルQQ’ _の内積は、零になり、以下のように表せる。
【0142】
【数10】
【0143】
補正後の注目画素の色成分を表す点P’を求める方法は、たとえば前述のように直線と点との距離に基づいて、直線に垂直に交わる点を検出して求める方法と、ベクトルの直交条件を用いる方法とがある。等明度直線72に垂直に等明度直線72に近づけるように、色成分を補正する場合においても、補正の対象となる画素を表す点から等明度直線72までの距離L’を、閾値設定部52に格納される閾値THdと比較し、L’≧THdを満たすすべての色文字部分63に対して色成分が補正される。
【0144】
たとえば補正の度合いを調整するパラメータδを用いる場合、2点QおよびQ’を通る直線と、2点PおよびP’を通る直線との交点をP”で表すと、点P’の位置ベクトルは、点Pの位置ベクトルと、ベクトルPP’~にパラメータδを積算して求められるベクトルとを加算したベクトルであって、以下のように表せる。
【0145】
【数11】
【0146】
補正対象画像部分の色成分を、等明度直線72に垂直に等明度直線72に近づけるように補正する方法は、近似直線68に垂直に近似直線68に近づけるように補正する方法に比べて若干、計算量が増加するだけで同様の効果を得ることができる。
【0147】
色文字部分63の各画素の色成分を、等明度直線72に垂直に等明度直線72に近づけるように補正する手順を示す。ステップf0において、領域分離処理部8によって、原稿画像から色文字部分63が抽出されて、ステップf1に進む。
【0148】
ステップf1において、色文字部分63のある画素を注目画素とし、その注目画素を中心とするM×N個の画素を含むマスクの分布状態が、分布解析部14によって求められる、すなわちマスクに属する各画素のL*a*b*座標系65における座標が求められて、ステップf2に進む。
【0149】
ステップf2において、明度L*および色度a*・b*を示す色成分の分布状態が、分布解析部14によって解析され、その分布状態において、色成分が著しく離れた色文字部分63の画像データを除き、マスクの平均値を求めて、ステップf3に進む。
【0150】
ステップf3において、分布解析部14によって、明度の平均値と同一の明度値をもつ無彩色点が求められるとともに、等明度直線72を求めて、ステップf4に進む。
【0151】
ステップf4において、分布解析部14によって、色文字部分63の各画素と等明度直線72との距離L’をそれぞれ求めて、ステップf5に進む。ステップf5において、初期値0の補正画像数Hに1を与えて、ステップf6に進む。
【0152】
ステップf6において、分布解析部14によって、補正の対象となる画素における距離L’が閾値Thd以上であるか否かを判断され、距離L’が閾値Thd以上であると判断されると、ステップf7に進み、距離L’が閾値Thdよりも小さいと判断されると、ステップf8に進む。
【0153】
ステップf7において、前述のように補正の対象となる画素の色成分を、等明度直線72に垂直に等明度直線72に近づけるように、補正手段15によって補正されて、ステップf8に進む。
【0154】
ステップf8において、補正画素数Hがマスクに属する画像データの数Jに等しいか否か、すなわちマスクに属する色文字部分63の色成分の補正がすべて終了したか否かが、分布解析部14によって判断される。補正画素数Hが画像データの数Jに等しいと判断された場合、ステップf9に進み、そうでない場合、ステップf10に進んで補正画素数Hに1を加えて、さらにステップf6に進み、マスクに属する画素であって、まだ色成分が補正されていない画素において、距離L’が閾値以上であるか否かを、分布解析部14によって判断される。
【0155】
ステップf9において、色文字部分63であるすべての画素の色成分の補正が終了したか否かを分布解析部14によって判断され、すべての画素の色成分の補正が終了したと判断された場合、ステップf11に進んですべての手順を終了し、すべての画素の色成分の補正がまだ終了していないと判断された場合、ステップf1に進む。このような本実施の形態においても図1〜図15に示す実施の形態と同様の効果が得られる。
【0156】
また本発明の実施の他の形態において色文字部分63の各画素の色成分が、等明度直線72に垂直に等明度直線72に近づくように補正されることによって、彩度を示す色成分の分散の状態を、補正前とほぼ同じ状態に保ったまま、色相を示す色成分の分散が小さくなるように補正することができるので、原稿に形成される画像を再現する場合に違和感が生じないように、色文字部分63の色成分が補正され、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0157】
前述の実施の形態は、本発明の例示にすぎず、本発明の範囲内において、構成を変更することができる。たとえば色補正部9を色文字補正処理部25だけで構成し、領域分離処理部8によって抽出される網点および写真領域については、分布解析部14および補正部15における処理をせずに、第1の色空間変換部51によって、与えられた画像データをL*a*b*表色系で表される画像データに変換し、予め用意されるL*a*b*表色系における色変換テーブルに基づいて、画像データの色成分を補正して、第2の色空間変換部53において、シアン、マゼンタおよびイエローで表される画像データに変換する構成にしてもよい。
【0158】
【発明の効果】
以上のように本発明によれば、文字部分の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。また文字部分の色相を示す色成分だけを補正し、文字部分周辺における画像の濃淡の調子を表す階調を保持させることによって、自然な色再現ができるように補正をすることができる。
【0159】
また本発明によれば、入力される全体の画像データから、補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0160】
また本発明によれば、文字部分の色成分を、文字部分の色成分の代表値、すなわち文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0161】
また本発明によれば、文字領域の各画素の各色成分が、近似直線に垂直に近似直線に近づくように補正されることによって、文字部分だけでなく、文字部分を含む文字領域全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0162】
また本発明によれば、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えることによって、明度を示す色成分の分散が小さくなり、画像出力時に原稿に形成される画像を良好に再現することができる補正をすることができる。また明度を示す色成分の分散を小さくすることによって、文字部分が、くっきりと再現することができるように補正することができる。また、たとえば画像の濃淡の調子を表す階調の再現性が悪い画像出力装置において、明度を示す色成分を補正明度に置き換えた画像データを用いて、画像出力するときに原稿に形成される画像を少ない階調数で良好に再現することができる
【0163】
また本発明によれば、文字部分の各画素の色成分が、等明度直線に垂直に等明度直線に近づくように補正されることによって、彩度を示す色成分の分散の状態を、補正前とほぼ同じ状態に保ったまま、色相を示す色成分の分散が小さくなるように補正することができるので、原稿に形成される画像を再現する場合に違和感が生じないように、文字部分の色成分が補正され、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0164】
また本発明によれば、入力される画像データに含まれる文字部分の色成分の分散が、小さくなるように補正されるので、補正した画像データを用いて、画像出力するときに原稿に形成される画像の再現性を向上させることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像処理装置3を含む画像形成装置1の構成を示すブロック図である。
【図2】領域分離処理部8および色補正部9の構成を示すブロック図である。
【図3】領域分離処理部8に含まれるエッジ判定部22の構成を示すブロック図である。
【図4】エッジ部検出用のマスクおよびフィルタを示す図であって、図4(1)は、エッジ検出用のマスクを示し、図4(2)は、主走査方向のゾーベルフィルタ40を示し、図4(3)は、副走査方向のゾーベルフィルタ41を示す。
【図5】有彩色および無彩色の判定に用いられる閾値を説明する図である。
【図6】色文字補正処理部25の構成を示すブロック図である。
【図7】文字部分61の色成分の分散を小さくするように補正するときのイメージを示す第1表色系の色空間を示すグラフである。
【図8】色文字部分63の色成分の分散を代表値に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図9】明度を示す色成分を補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図10】色文字部分63の色成分の分散を、代表値66に近づけるように補正する手順を示すフローチャートである。
【図11】注目画素37を中心とする3×3マスク75を示す図である。
【図12】注目画素37と3×3マスク75内の注目画素37を除く他の画素との色相の関係を示す図である。
【図13】本発明の実施の他の形態の画像形成装置における色文字領域64の色成分の分散を近似直線68に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図14】近似直線68と観測点69との関係を示す図である。
【図15】色文字領域64の色成分を、近似直線68を用いて補正する手順を示すフローチャートである。
【図16】本発明の実施の他の形態の画像形態装置における色文字部分63の色成分を、等明度直線72を用いて補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図17】色文字部分63の色成分を、等明度直線72を用いて補正する手順を示すフローチャートである。
【符号の説明】
1 画像形成装置
3 画像処理装置
8 領域分離処理部
9 色補正部
14 分布解析部
15 補正部
63 色文字部分
64 色文字領域
66 代表値
68 近似直線
72 等明度直線
74 補正明度[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, an image processing apparatus, and an image forming apparatus that improve the reproducibility of a color character area included in image data read by a color image input apparatus such as a scanner.
[0002]
[Prior art]
An image input device that reads an image formed on a document, such as a digital scanner and a digital still camera, stores color information about tristimulus values red R, green G, and blue B from a document image by a charge coupled device (abbreviation). Obtained by a solid-state imaging device such as a CCD) image sensor, the color information of tristimulus values is converted from an analog signal to a digital signal, respectively, and given as input image data representing a document image to an image processing apparatus.
[0003]
In a conventional image processing apparatus, character areas, halftone dot areas, and photo areas included in input image data are identified in local units based on color information, and image quality is improved according to the characteristics of each area. By changing the processing, the reproducibility of the document image is improved. In particular, in an image processing apparatus that can identify a character region, a detection result of an edge portion showing a steep density change in input image data, and tristimulus values obtained by reversing the tristimulus values Red R, Green G, and Blue B in complementary colors. A character area is extracted based on hue information when the difference between the minimum value and the maximum value of the density values of cyan C, magenta M, and yellow Y is maximized. Then, correction processing such as emphasis processing is performed on the extracted character area to correct the image data so that the reproducibility of the character area can be enhanced at the time of output. Further, these image processing apparatuses apply gray α × {min (C, M, Y)} obtained by multiplying min (C, M, Y) indicating the minimum value among cyan C, magenta M, and yellow Y by a coefficient α. Considering this as a component, under color removal (abbreviated as UCR) for removing the gray component is performed, and black K corresponding to the gray component from which the under color is removed is added. As a result, the reproducibility of black characters can be improved, and image data can be obtained that can prevent color blurring caused by the displacement of each color. When the character area is identified as a black character area, the color component is a character area including a chromatic color character by performing correction processing so that the color components of cyan C, magenta M, and yellow Y are completely removed and represented by only black K If the region is identified, on the contrary, correction processing is performed so as to represent an image using only the three color materials cyan C, magenta M, and yellow Y without using black K.
[0004]
For example, in the image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 1-264847, edge portions and hues are detected from input image data based on density values of color components, and colors are detected based on the detection results of the hues. The color component of the character area can be corrected. Based on the detection result of the hue, when the edge portion is determined to be chromatic, the color component of the color character area is compared with the threshold value, and if it is determined that the color component is an unnecessary color component, the saturation of the color component is Unnecessary color components that become low and cause color turbidity are eliminated, and if the necessary color components are determined, the necessary color components are emphasized. As a result, the color component of the color character region is corrected so that the saturation of the color component of the color character region is increased. For example, when a character having a color classified as red is formed on a document image, the cyan C color component that is an unnecessary color component is deleted, and the yellow Y color component that is a necessary color component is emphasized. As a result, the turbidity of the color caused by the decrease in saturation is removed, thereby improving the reproducibility.
[0005]
[Problems to be solved by the invention]
In these image processing apparatuses of the prior art, in the correction of the color components of the color character area in the input image data, pure colors represented by the tristimulus values cyan C, magenta M, and yellow Y color components, that is, chroma Correct the color so that it approaches the highest pure color. Thus, when correcting the color component of the color character region so as to be close to a pure color, it is premised that the color character existing in the document image is formed with a pure color. However, as methods for forming color characters using various color materials have been established, there are increasing opportunities for color characters existing in a document image to be formed with intermediate colors. Therefore, in the image processing method in these image processing apparatuses, the color component of the color character area is corrected so that the actual intermediate color of the original image is close to a pure color, so that the color character of the original image is faithfully reproduced at the time of image output. I can't.
[0006]
Further, in the image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 1-264847, unnecessary color components in the color character area are erased and the necessary color components are emphasized, so that the color of the color character area is more pure red R, It approaches the primary and secondary colors of green G, blue B, cyan C, magenta M, yellow Y, black K and white W. As described above, since the color component of the input image data is not corrected so as to approach the color component of the original document image, the color characters of the document image cannot be faithfully reproduced. In addition, if the color component of the color character area cannot be detected well, and if noise is mixed in the color character area, there is a rare problem that noise is emphasized. For example, when noise is mixed in the color character area, if the color component of the color character area having a color classified as red is different from the color component of one pixel corresponding to the noise, the color component of the pixel corresponding to the noise is the color character. Since the correction is performed so as to approach a pure color different from the corrected color of the region, the color is different from that of the red system. This can cause noise to be erroneously emphasized.
[0007]
Therefore, an object of the present invention is to provide an image processing method, an image processing apparatus, and an image forming apparatus that can faithfully reproduce the color of a character area when outputting an image.
[0008]
[Means for Solving the Problems]
The present invention is represented by a plurality of color componentsletterIncluding partletterFor area image data,letterAnalyzing the distribution of each color componentThe average of the color components indicating the hues belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is obtained.Analysis process
In order to adjust the degree of correction predetermined for the difference between the average and the color component of the target pixel to the color component representing the hue of the target pixel so that the color component indicating the hue of each pixel of the character portion approaches the average Add the value obtained by integrating the parameters β (constants satisfying 0 ≦ parameter β ≦ 1)A correction process for correctingIt is characterized byThis is an image processing method.
[0009]
According to the present invention, in the analysis step, for the image data,letterThe distribution state of each color component of the part is analyzed. In the correction process, based on the analysis result in the analysis process,letterCorrection is made so that the dispersion of the color components of the portion becomes small. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved.
In the analysis step, an average of the color components indicating the hues belonging to the mask of M rows and N columns centering on the target pixel included in the character portion is obtained, and in the correction step, the color components indicating the hue of each pixel in the character portion are obtained. The correction is made so as to approach the average of the color components obtained in the analysis step. In this way, by correcting the color components so as to approximate the average of the color components, the amount of calculation for obtaining the corrected value of the color components in each pixel can be suppressed, and the dispersion of the color components of each pixel can be easily reduced. At the same time, the correction amount of the color component of each pixel can be kept small, and the image data can be corrected so that the image formed on the original can be faithfully reproduced. Further, variation in the correction direction for each pixel can be suppressed to a small value, and correction that can further improve reproducibility can be performed so that natural color reproduction can be performed.
[0010]
The present invention also provides a distribution state of each color component of a character portion with respect to image data of a character region including a character portion represented by a plurality of color components, in spatial coordinates having lightness, saturation and hue as three axes. Represent, characterFor all points in the regionFind the square value of the distance to a predetermined straight lineThe character part and the base partAn analysis step for obtaining an approximate straight line that approximates the distribution state by taking the sum, taking the sum as an error, and minimizing the error;
In order to bring the color component of each pixel in the character area close to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. And a correction step of correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to the difference from the color component of the pixel. It is.
[0011]
According to the present invention,In the analysis step, the distribution state of each color component in the character area is represented by spatial coordinates having lightness, saturation, and hue as three axes, and an approximate straight line that approximates the distribution state is obtained. In the correction step, each pixel in the character area Are corrected so as to approach the approximate line perpendicular to the approximate line. Therefore, it is possible to reduce the dispersion of color components not only in the character portion but also in the entire character area including the character portion, so that the image data is corrected so that the image formed on the document can be reproduced more faithfully.can do.
[0012]
The present invention also providesFor image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having lightness, saturation, and hue as three axes. The distribution state of the color component indicating the hue is obtained, and the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is the same as the brightness of this pixel. An analysis process for obtaining a straight line of lightness connecting points on the lightness axis of the lightness;
The color component of each pixel of the character part is set to an iso-lightness line perpendicular to the iso-lightness lineCorrect to get closer toCorrection processIt is characterized byImage processing method.
[0013]
According to the present invention, in the analysis step,The hues belonging to the mask of M rows and N columns centering on the pixel of interest included in the character part are shown using a spatial coordinate system having three axes of lightness, saturation and hue representing the distribution state of each color component of the character part. An equal lightness straight line connecting the average pixel point of the color component and a point on the same lightness axis as the lightness of this pixel is obtained, and in the correction process, the color component of each pixel in the character portion is converted to an equal lightness straight line. Since the correction is made so that the straight line approaches the straightness line, the dispersion state of the color component indicating the saturation is kept the same as before the correction, and the dispersion of the color component indicating the hue is reduced. It can be corrected. Therefore, the color component of the character portion is corrected so that a sense of incongruity does not occur when the image formed on the document is reproduced, so that the image data can be improved to improve the reproducibility of the image formed on the document.can do.
[0014]
The present invention also provides an analysis process.An extraction process for extracting a character area including a character portion from input image data.It is characterized by doing.
[0015]
According to the present invention,A character region including a character portion is extracted from the entire input image data by an extraction process. As a result, only the image portion to be corrected is extracted, and only the portion that needs to be processed is processed, reducing the amount of calculation required for the image processing.can do.
[0016]
In the present invention, the correction step includesletterThe color component indicating the brightness of each pixel in the portion is corrected so as to be replaced with a predetermined corrected brightness.
[0017]
According to the present invention, in the correction step,letterThe color component indicating the brightness of each pixel in the portion is replaced with a predetermined corrected brightness. Accordingly, since the color component indicating the brightness of each pixel has only a predetermined value, the dispersion of the brightness is reduced, and correction can be performed so that good reproducibility of the image formed on the document can be obtained.
[0018]
The present invention also providesFor the image data of the character area including the character portion represented by a plurality of color components, the distribution state of the color component indicating the hue of the character portion is analyzed, and M rows N centering on the target pixel included in the character portion. An analysis means for obtaining an average of color components indicating hues belonging to the mask of the column;
In order to adjust the degree of correction predetermined for the difference between the average and the color component of the pixel of interest to the color component representing the hue of the pixel of interest so that the color component indicating the hue of each pixel of the character portion approaches the average Correction means for adding and correcting a value obtained by integrating the parameter β (a constant satisfying 0 ≦ parameter β ≦ 1)It is characterized byIt is an image processing device.
[0019]
According to the present invention, the analysisIn the means, the distribution state of each color component of the character portion is analyzed with respect to the image data. In the correcting means, correction is made so that the dispersion of the color component of the character portion becomes small based on the analysis result in the analyzing step. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved.
In the analyzing means, an average of the color components indicating the hues belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is obtained, and in the correcting means, the color components indicating the hue of each pixel in the character portion are obtained. The correction is made so as to approach the average of the color components obtained by the analyzing means. In this way, by correcting the color components so as to approximate the average of the color components, the amount of calculation for obtaining the corrected value of the color components in each pixel can be suppressed, and the dispersion of the color components of each pixel can be easily reduced. At the same time, the correction amount of the color component of each pixel can be kept small, and the image data can be corrected so that the image formed on the original can be faithfully reproduced. In addition, it is possible to minimize the variation in the correction direction for each pixel, and to improve the reproducibility so that natural color reproduction is possible.can do.
[0020]
The present invention also provides a distribution state of each color component of a character portion with respect to image data of a character region including a character portion represented by a plurality of color components, in spatial coordinates having lightness, saturation and hue as three axes. Represent, characterFor all points in the regionFind the square value of the distance to a predetermined straight lineThe character part and the base partAnalyzing means for obtaining an approximate straight line that approximates the distribution state by taking the sum and taking the sum as an error and minimizing the error;
In order to bring the color component of each pixel in the character area close to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. An image processing apparatus comprising: correction means for correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to a difference from a color component of a pixel It is.
[0021]
According to the present invention,In the analyzing means, the distribution state of each color component in the character area is represented by spatial coordinates having lightness, saturation and hue as three axes, and an approximate straight line approximating the distribution state is obtained, and in the correcting means, each pixel in the character area Are corrected so as to approach the approximate line perpendicular to the approximate line. Accordingly, since the dispersion of color components not only in the character portion but also in the entire character area including the character portion can be reduced, the image data is corrected so that the image formed on the original can be reproduced more faithfully.Can.
[0022]
The present invention also providesFor image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having lightness, saturation, and hue as three axes. The dispersion state of the color component indicating the hue is obtained, the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centering on the target pixel, and the lightness axis of the same lightness as the lightness of this pixel An analysis means for obtaining an isoluminance straight line connecting the points of
Correction means for correcting the color component of each pixel of the character portion so as to be close to the iso-lightness line perpendicular to the iso-lightness lineIt is characterized byIt is an image processing device.
[0023]
According to the present invention,The analysis means uses a spatial coordinate system having lightness, saturation, and hue as three axes representing the distribution state of each color component in the character part to form a mask of M rows and N columns centered on the pixel of interest included in the character part. An equal lightness straight line connecting the average pixel point of the color component indicating the hue to which it belongs and a point on the same lightness axis as the lightness of this pixel is obtained, and in the correcting means, the color component of each pixel of the character portion is Since the correction is made so as to approach the isoluminance line perpendicular to the isoluminance line, the dispersion of the color component indicating the hue is maintained while the dispersion state of the color component indicating the saturation is maintained substantially the same as before the correction. Correction can be made so as to decrease. Therefore, the color component of the character portion is corrected so that a sense of incongruity does not occur when the image formed on the document is reproduced, so that the image data can be improved to improve the reproducibility of the image formed on the document.can do.
[0024]
The present invention also providesHas extraction means to extract character area including character part from input image dataIt is characterized by doing.
[0025]
According to the present invention,A character area including a character portion is extracted from the entire input image data by the extracting means. As a result, only the image portion to be corrected is extracted, and only the portion that needs to be processed is processed, reducing the amount of calculation required for the image processing.can do.
[0028]
In the present invention, the correcting means isletterThe color component indicating the brightness of each pixel in the portion is corrected so as to be replaced with a predetermined corrected brightness.
[0029]
According to the present invention,letterThe color component indicating the brightness of each pixel in the portion is replaced with a corrected brightness determined in advance by the correcting means. Accordingly, since the color component indicating the brightness of each pixel has only a predetermined value, the dispersion of the brightness is reduced, and correction can be performed so that good reproducibility of the image formed on the document can be obtained.
[0032]
In addition, the present invention is an image forming apparatus including the image processing apparatus.
[0033]
According to the present invention, from input image dataletterIncluding partletterThe region is extracted by the extraction means,letterThe distribution state of the color component of the part is analyzed by the analyzing means. Based on the analysis result of the analysis means,letterThe correction means corrects the variance of the color components of the portion so as to be small. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved.
[0034]
DETAILED DESCRIPTION OF THE INVENTION
In this specification, a variable character written with a right-pointing arrow added to a character described in a mathematical formula indicates a vector, and is described with `` ~ '' after the same character in a sentence. The variable character described with the upper score added to the character described in the mathematical formula indicates an average value, and is described by adding “_” after the same character.
[0035]
FIG. 1 is a block diagram showing a configuration of an
[0036]
The
[0037]
The document image data is represented by numerical values corresponding to the densities of the three color components red, green and blue, and is given to the
[0038]
The
[0039]
The A /
[0040]
The
[0041]
The input
[0042]
The region
[0043]
The
[0044]
When the C ′ signal, the M ′ signal, the Y ′ signal, and the region identification signal are given to the
[0045]
Based on the density values of the cyan, magenta and yellow color components given, the black generation and under
K = f {min (C ", M", Y ")}
C = C "-αK
M = M ″ −αK
Y = Y ″ −αK (1)
[0046]
The spatial
[0047]
For example, the image data of the character region extracted by the region
[0048]
The image data of the halftone area extracted by the area
[0049]
The image data of the photographic region extracted by the region
[0050]
The image data processed by the gradation
[0051]
The
[0052]
FIG. 2 is a block diagram showing the configuration of the region
[0053]
The
[0054]
The document image is separated and extracted by the
[0055]
The determination result is used as a region identification signal of the target pixel. For the pixels included in the block, the maximum value and the minimum value of the signal having the pixel density (hereinafter, sometimes referred to as “signal level”) are obtained, the maximum value is the maximum pixel signal level Dmax, and the minimum value is The minimum pixel signal level is Dmin. Among the pixels included in the block, for example, an average value Dave of the signal levels of nine pixels including the target pixel and the eight pixels around the target pixel is obtained. Using this average value Dave as a threshold value, the image of the block is binarized by replacing the signal level of each pixel with 0 (less than the threshold value) and 1 (above the threshold value).
[0056]
After such binarization processing, it is first determined whether or not the target pixel is a pixel belonging to the halftone dot region. In the halftone dot region, a plurality of dots (halftone dots) having a large density value different from that of the background are arranged on the background, that is, the background, for example, an image having a large signal level of the halftone dot relative to the background is formed. The signal level of each of the pixels changes greatly between adjacent pixels in the main scanning direction and the sub-scanning direction, and the number of signal level changes between adjacent pixels in the main scanning direction and the sub-scanning direction is large. . The
Dmax-Dave> B1And Dave-Dmin> B2
And KH> THAnd KV> TV ... halftone dot area
Other than the above conditions ... Non-halftone area
[0057]
The condition for determining whether or not the pixel of interest is a pixel belonging to the halftone dot region is that the difference between the maximum pixel signal level Dmax and the average value Dave is the threshold value B1And the difference between the average value Dave and the minimum pixel signal level Dmin is a threshold value B.2And the number of change points K in the main scanning directionHIs the threshold THAnd the number of change points K in the sub-scanning directionVIs the threshold TVIf all of these conditions are satisfied, it is determined that the pixel of interest is a pixel belonging to the halftone dot region. If any one of these conditions is not satisfied, the pixel of interest is determined to be a pixel belonging to a non-halftone dot region that is a character region and a photo region.
[0058]
When it is determined that the target pixel is a pixel belonging to the non-halftone area, it is determined whether the target pixel is a pixel belonging to the character area or the photograph area. In the character area, the difference between the maximum pixel signal level Dmax and the minimum pixel signal level Dmin is large, and it is considered that the signal level of the pixels belonging to the character area is generally high. Therefore, the target pixel belongs using the following conditions: The image area is determined.
Dmax> PAOr Dmin <PBOr
Difference Dsub> P between Dmax and DminC … Character area
Other than the above conditions ... Photo area
[0059]
The condition for determining whether or not the pixel of interest is a pixel belonging to the character area is that the maximum pixel signal level Dmax is a threshold value PAAnd the minimum pixel signal level Dmin is greater than the threshold value PBAnd the difference Dsub between the maximum pixel signal level Dmax and the minimum pixel signal level Dmin is a threshold value PCIf at least one of these conditions is satisfied, it is determined that the pixel of interest is a pixel belonging to the character area. When all of these conditions are not satisfied, that is, the maximum pixel signal level Dmax is the threshold value PAAnd the minimum pixel signal level Dmin is the threshold value PBThe difference Dsub between the maximum pixel signal level and the minimum pixel signal level is the threshold value P.CIn the following cases, the target pixel is determined to be a pixel belonging to the photographic area. After the region determination of a certain pixel of interest is completed, another pixel is used as a new pixel of interest, and a block including M × N pixels around the new pixel of interest is taken, and the above-described image region is determined. The region to which the pixel of interest belongs is determined for each of the cyan, magenta, and yellow color components of the pixel of interest, and when the pixel of interest satisfies the condition that the pixel of interest belongs to the halftone dot region in the two color components, It is determined that the pixel belongs to the point area. Such area determination is applied to the target pixel for all pixels of the document image, and the area determination is performed.
[0060]
The
[0061]
The character
[0062]
The
[0063]
FIG. 3 is a block diagram illustrating a configuration of the
[0064]
A mask having a certain pixel as the
[0065]
When the cyan C ′ signal is given in the main scanning
[0066]
The result of convolution of the Sobel filters 40 and 41 in each scanning direction with the 3 × 3
[0067]
Each
[0068]
The adder 35 adds the values of the signals representing the comparison results for the cyan, magenta, and yellow color components from the
[0069]
FIG. 5 is a diagram illustrating threshold values used for determination of chromatic and achromatic colors. In the
[0070]
The color
(Edge) and (Chromatic) → Colored characters
(Edge) and (Natural) → Black text
[0071]
In the color
[0072]
The
[0073]
FIG. 6 is a block diagram illustrating a configuration of the color character
[0074]
The
[0075]
FIG. 7 is a graph showing a color space of the first color system showing an image when correction is made to reduce the dispersion of the color components of the
seg (i, j) ∈P
[0076]
When the region separation result seg (i, j) satisfies the condition that it is included in the pixel set P, the color component of the target pixel (i, j) is corrected. The color components C ′ (i, j), M ′ (i, j) and Y ′ (i, j) of the pixel of interest are corrected to Ccorrect(I, j), Mcorrect(I, j) and Ycorrect(I, j).
Ccorrect(I, j) ← C '(i, j)
Mcorrect(I, j) <-M '(i, j)
Ycorrect(I, j) ← Y '(i, j)
[0077]
However, in the region separation result seg (i, j) included in the pixel set P, the color components of all the pixels are not corrected, but the target pixel is included in a plurality of masks included in a certain mask centered on the target pixel. For example, how much the hue deviates from the pixel is analyzed by the
D {(C1, M1, Y1), (C2, M2, Y2)}
[0078]
As described above, the distance from the point representing the color component of the
[0079]
By correcting the color component of the pixel belonging to the
[0080]
FIG. 8 is a graph showing a color space of the second color system showing an image when the dispersion of the color components of the
[0081]
[Expression 1]
[0082]
The region
[0083]
[Expression 2]
[0084]
By this conversion, when an image corresponding to the
[0085]
L*a*b*In the image data represented by the color system, consider a mask of M rows and N columns centering on the pixel of interest that is the
(I, j) εmask (M, N)
[0086]
The color component of the pixel belonging to the mask is a target value when correcting the color component of the
[0087]
Next, a procedure for correcting the color component of the
[0088]
In step d1, L*a*b*For the image data of the
[0089]
In step d2, chromaticity a*・ B*A which is a color component indicating*And b*If the color component of the pixel belonging to the mask has a color component that is significantly separated from the color component of the pixel of interest based on the distribution state of*And b*Which is the average value of*_ And b*_ Is obtained by the
[0090]
In step d2, the
[0091]
In the 3 × 3
[0092]
L for processing to remove color components*Since the value does not matter, the coordinates of each pixel in the 3 × 3
Cosθ0i= A ~ ・ B ~ / (| A ~ || B ~ |)
[0093]
Angle θ0iCosine of Cosθ0iIs −1 ≦ Cos θ0i≦ 1 and the inner product A ~ · B ~ is A ~ · B ~ = a*0xa*i + b*0xb*It is obtained by i.
[0094]
Therefore, a pixel that is significantly distant from the color component of the pixel of
[0095]
As another method for removing color components, the above-described equation for obtaining the hue θ = tan-1(B*/ A*), The hue θ of the target pixel point 37a0And the hue θ of the neighboring pixel 76aiFor each of the0−θiA method of removing the color component of the neighboring pixel 76 that satisfies |> 45 may be used.
[0096]
In the mask of M rows and N columns, assuming that the number of pixels belonging to the pixel of interest (i, j) in the i row and j column as the center is num, the average value serving as the target value for correction is the respective values belonging to the mask. This is a value obtained by dividing the sum of the color components of the pixels by the number of pixels belonging to the mask, and is expressed as follows. M and N are natural numbers, and may be the same or different from each other.
[0097]
[Equation 3]
[0098]
In step d2, the average value a*_ And b*_ Is obtained by the
[0099]
In step d3, 1 is given to the corrected pixel number H whose initial value indicating the number of corrected pixels is 0, and the process proceeds to step d4.
[0100]
In step d4, the
[0101]
In step d5, the color component a of the target pixel*And b*Is corrected by the
[0102]
[Expression 4]
[0103]
Color component L indicating the brightness of the pixel of interest*Since there is a possibility that the
[0104]
[Equation 5]
[0105]
Since the color component indicating the lightness of each pixel has only a predetermined lightness value, the dispersion of the color components indicating the lightness becomes small as shown in FIG. The correction process for replacing the color component indicating the brightness of the pixel with a predetermined brightness value is an effective process when the image output performance of the
[0106]
In step d6, the
[0107]
In step d7, the
[0108]
In step d8, the
[0109]
According to the embodiment of the present invention, correction is made so that the dispersion of the color components of the
[0110]
Further, only the image portion to be corrected is extracted from the entire input image data, and only the portion that needs to be processed is subjected to image processing, thereby reducing the amount of calculation required for the image processing.
[0111]
Further, by correcting the color component of the
[0112]
Also, by replacing the color component indicating the brightness of each pixel of the
[0113]
In addition, since the dispersion of the color components of the
[0114]
FIG. 13 shows a color space of the second color system showing an image when the dispersion of the color components in the
[0115]
In this image processing method, the
[0116]
The
[0117]
Since the pixel to be corrected belongs to the
(I, j) ∈P′∪ Pback
[0118]
The color component of the pixel (i, j) is L*a*b*In the color system, L*(I, j), a*(I, j), b*The color component is corrected using the approximate
[0119]
The
[0120]
[Formula 6]
[0121]
The approximate
[0122]
[Expression 7]
[0123]
The position vector of the
[0124]
[Equation 8]
[0125]
Therefore, t = -B ~. (A ~ -C ~) / | B ~ |2The distance is minimized when. However, | B˜ | represents the magnitude of the direction vector. t = -B ~ ・ (A ~ -C ~) / | B ~ |2The distance between the
[0126]
As shown in FIG. 14, the coordinates of the
[0127]
The correction process of the color component of the
[0128]
The color component of the target pixel after correction is obtained by adding a parameter γ that adjusts the degree of correction to the difference between the color component of the
[0129]
[Equation 9]
[0130]
A procedure for correcting the color component of the
[0131]
In step e1, the
[0132]
In step e2, the
[0133]
In step e3, the
[0134]
In step e5, the
[0135]
In step e6, the
[0136]
In step e7, the
[0137]
In step e8, if the
[0138]
In another embodiment of the present invention, each color component of each pixel in the
[0139]
FIG. 16 shows a color space of the second color system showing an image when the color component of the
[0140]
A point P representing the color component of the pixel of interest (i, j) which is the
[0141]
L*a*b*In the coordinate
[0142]
[Expression 10]
[0143]
The method for obtaining the point P ′ representing the corrected color component of the target pixel is, for example, as described above, based on the distance between the straight line and the point and detecting the point perpendicular to the straight line, and the orthogonality of the vector. There is a method using conditions. Even in the case of correcting the color component so as to be close to the equal lightness
[0144]
For example, when the parameter δ for adjusting the degree of correction is used, if the intersection of a straight line passing through the two points Q and Q ′ and a straight line passing through the two points P and P ′ is represented by P ″, the position vector of the point P ′ is , A vector obtained by adding the position vector of the point P and a vector obtained by adding the parameter δ to the vector PP′˜, and can be expressed as follows.
[0145]
## EQU11 ##
[0146]
The method of correcting the color component of the correction target image portion so as to be close to the equal lightness
[0147]
A procedure for correcting the color component of each pixel of the
[0148]
In step f1, a pixel having a
[0149]
In step f2, the lightness L*And chromaticity a*・ B*Is analyzed by the
[0150]
In step f3, the
[0151]
In step f4, the
[0152]
In step f6, the
[0153]
In step f7, as described above, the color component of the pixel to be corrected is corrected by the correcting
[0154]
In step f8, the
[0155]
In step f9, the
[0156]
In another embodiment of the present invention, the color component of each pixel of the
[0157]
The above-described embodiment is merely an example of the present invention, and the configuration can be changed within the scope of the present invention. For example, the
[0158]
【The invention's effect】
As described above, according to the present invention,letterCorrection is made so that the dispersion of the color components of the portion becomes small. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved. AlsoCharacter partBy correcting only the color component indicating the hue and maintaining the gradation representing the tone of the image in the vicinity of the character portion, correction can be performed so that natural color reproduction can be performed.
[0159]
Further, according to the present invention, only the image portion to be corrected is extracted from the entire input image data, and only the portion that needs to be processed is subjected to image processing, thereby reducing the amount of calculation required for the image processing. .
[0160]
Also according to the invention,letterThe color component of the partletterTypical value of color componentThat is, the average of the color components indicating the hues belonging to the mask of M rows and N columns centered on the pixel of interest included in the character portionBy making the correction close to, the amount of calculation for obtaining the corrected value of the color component in each pixel can be suppressed, and the dispersion of the color component of each pixel can be easily reduced, and the color component of each pixel Therefore, the image data can be corrected so that the image formed on the original can be faithfully reproduced. Further, variations in the correction direction of each pixel can be suppressed, and correction that can further improve reproducibility can be performed so that natural color reproduction can be performed.
[0161]
Also according to the invention,letterBy correcting each color component of each pixel in the region so as to approach the approximate line perpendicular to the approximate line,letterNot only the partletterIncluding partletterSince the dispersion of the color components in the entire area can be reduced, the image data can be corrected so that the image formed on the original can be reproduced more faithfully.
[0162]
Also according to the invention,letterBy replacing the color component indicating the brightness of each pixel in the portion with a predetermined correction brightness, the dispersion of the color component indicating the brightness is reduced, and the correction that can reproduce the image formed on the document at the time of image output satisfactorily Can do. In addition, by reducing the dispersion of color components indicating brightness,letterThe part can be corrected so that it can be reproduced clearly. Further, for example, in an image output apparatus having poor reproducibility of gradation representing the tone of the image, an image formed on a document when outputting an image using image data in which a color component indicating lightness is replaced with corrected lightness Can be reproduced well with a small number of gradations
[0163]
Also according to the invention,letterThe color component of each pixel in the portion is corrected so as to be close to the isoluminance line perpendicular to the isoluminance line, so that the state of dispersion of the color components indicating saturation remains substantially the same as before the correction. Since the dispersion of the color component indicating the hue can be corrected to be small, when reproducing the image formed on the original,letterThe color component of the part is corrected, and correction can be made to image data that can improve the reproducibility of the image formed on the document.
[0164]
Further, according to the present invention, it is included in the input image data.letterSince the dispersion of the color component of the portion is corrected so as to be reduced, it is possible to improve the reproducibility of the image formed on the document when outputting the image using the corrected image data.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an
FIG. 2 is a block diagram illustrating configurations of a region
3 is a block diagram showing a configuration of an
4A and 4B are diagrams showing edge detection masks and filters. FIG. 4A shows an edge detection mask, and FIG. 4B shows a
FIG. 5 is a diagram illustrating threshold values used for determination of chromatic and achromatic colors.
6 is a block diagram showing a configuration of a color character
FIG. 7 is a graph showing a color space of a first color system showing an image when correction is performed so as to reduce the dispersion of the color components of the
FIG. 8 is a graph showing a color space of a second color system showing an image when the dispersion of the color components of the
FIG. 9 is a graph showing a color space of a second color system showing an image when correcting a color component indicating brightness.
10 is a flowchart showing a procedure for correcting the dispersion of the color components of the
11 is a diagram showing a 3 × 3
12 is a diagram showing a hue relationship between the
FIG. 13 shows a color space of the second color system showing an image when correcting the dispersion of the color components in the
14 is a diagram showing a relationship between an
FIG. 15 is a flowchart showing a procedure for correcting a color component of a
FIG. 16 shows a color space of a second color system showing an image when a color component of a
FIG. 17 is a flowchart showing a procedure for correcting the color component of the
[Explanation of symbols]
1 Image forming device
3 Image processing device
8 Region separation processing unit
9 Color correction part
14 Distribution analyzer
15 Correction unit
63 color characters
64-color character area
66 typical values
68 Approximate line
72 equal lightness straight line
74 Corrected brightness
Claims (11)
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法。With respect to image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is analyzed, and a mask of M rows and N columns centering on a target pixel included in the character portion. An analysis step for obtaining an average of color components indicating hues belonging to
In order to adjust the degree of correction predetermined for the difference between the average and the color component of the target pixel to the color component representing the hue of the target pixel so that the color component indicating the hue of each pixel of the character portion approaches the average And a correction step of correcting by adding a value obtained by integrating the parameters β (constants satisfying 0 ≦ parameter β ≦ 1).
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法。For image data of a character area including a character part represented by a plurality of color components, the distribution state of each color component of the character part is represented by spatial coordinates having lightness, saturation, and hue as three axes . For all the points, the square value of the distance to a predetermined straight line is obtained , the sum of the character part and the background part is taken, the sum is taken as an error, and the distribution state is approximated by minimizing this error. An analysis process for obtaining an approximate straight line;
In order to bring the color component of each pixel in the character area close to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. And a correction step of correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to the difference from the color component of the pixel. .
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正工程とを含むことを特徴とする画像処理方法。For image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having three axes of lightness, saturation, and hue, The dispersion state of the color component indicating the hue is obtained, and the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centered on the pixel of interest and the lightness axis of the same lightness as the lightness of this pixel An analysis process for obtaining an isoluminance straight line connecting the points of
And a correction step of correcting the color component of each pixel of the character portion so as to be close to the iso-lightness line perpendicular to the iso-lightness line.
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置。For the image data of the character area including the character portion represented by a plurality of color components, the distribution state of the color component indicating the hue of the character portion is analyzed, and M rows N centering on the target pixel included in the character portion. An analysis means for obtaining an average of color components indicating hues belonging to the mask of the column;
In order to adjust the degree of correction predetermined for the difference between the average and the color component of the pixel of interest to the color component representing the hue of the pixel of interest so that the color component indicating the hue of each pixel of the character portion approaches the average An image processing apparatus comprising: a correction unit that adds and corrects a value obtained by integrating the parameters β (constants satisfying 0 ≦ parameter β ≦ 1).
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置。For image data of a character region including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having three axes of lightness, saturation, and hue . For all the points, the square value of the distance to a predetermined straight line is obtained , the sum of the character part and the background part is taken, the sum is taken as an error, and the distribution state is approximated by minimizing this error. An analysis means for obtaining an approximate straight line;
In order to bring the color component of each pixel in the character area closer to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. An image processing apparatus comprising: correction means for correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to a difference from a color component of a pixel .
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正手段とを含むことを特徴とする画像処理装置。For image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having lightness, saturation, and hue as three axes. The distribution state of the color component indicating the hue is obtained, and the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is the same as the brightness of this pixel An analysis means for obtaining an isoluminance straight line connecting points on the brightness axis of the brightness,
An image processing apparatus comprising: a correcting unit that corrects a color component of each pixel of a character portion so as to be close to the iso-lightness line perpendicular to the iso-lightness line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002002692A JP3966404B2 (en) | 2002-01-09 | 2002-01-09 | Image processing method, image processing apparatus, and image forming apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002002692A JP3966404B2 (en) | 2002-01-09 | 2002-01-09 | Image processing method, image processing apparatus, and image forming apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003204445A JP2003204445A (en) | 2003-07-18 |
JP3966404B2 true JP3966404B2 (en) | 2007-08-29 |
Family
ID=27642478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002002692A Expired - Fee Related JP3966404B2 (en) | 2002-01-09 | 2002-01-09 | Image processing method, image processing apparatus, and image forming apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3966404B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5003646B2 (en) * | 2008-10-08 | 2012-08-15 | セイコーエプソン株式会社 | Image processing apparatus and image processing program |
JP2010093588A (en) * | 2008-10-08 | 2010-04-22 | Seiko Epson Corp | Image processing apparatus and image processing program |
-
2002
- 2002-01-09 JP JP2002002692A patent/JP3966404B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003204445A (en) | 2003-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7227990B2 (en) | Color image processing device and color image processing method | |
US7502150B2 (en) | Color converting device, image forming apparatus, color conversion method, computer program and recording medium | |
JP4197346B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium | |
JP4331159B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor | |
JP3966404B2 (en) | Image processing method, image processing apparatus, and image forming apparatus | |
JP2003209704A (en) | Image processing method, image processor, image forming device, image processing program, and recording medium | |
JP4522978B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium | |
JP2004297617A (en) | Image processing device, image forming device, image processing method, image processing program, and computer readable recording medium recorded with image processing program | |
JP4080252B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and recording medium | |
JP4149368B2 (en) | Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium | |
JP3927426B2 (en) | Image processing method, image processing apparatus, and image forming apparatus including the same | |
JP2003264701A (en) | Image processing method, image processor and image forming device provided with the same | |
JP2003230006A (en) | Image processing method, image processing apparatus, and image forming device | |
JP7076268B2 (en) | Image processing equipment, image processing method and recording medium | |
JP4086537B2 (en) | Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium | |
JP4176656B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program | |
JP4101741B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium | |
JP2008271131A (en) | Method and device for image processing, and image forming apparatus | |
JP2005191890A (en) | Image processing device, image processing method, image processing program, recording medium stored with image processing program and image forming apparatus with image processor | |
JP2004088663A (en) | Image processing apparatus, image forming apparatus, and image processing method | |
JP2003234912A (en) | Image processing method, image processing apparatus and image forming apparatus | |
JP4266002B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium | |
JP2009065559A (en) | Image processing apparatus, image processing method, and storage medium with image processing program stored thereon | |
JP2004104248A (en) | Image processing apparatus, image reader, image forming apparatus, and image processing method | |
JP2004214908A (en) | Image processing apparatus and image forming apparatus provided with the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061010 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070227 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070523 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100608 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110608 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120608 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120608 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130608 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |