JP3966404B2 - Image processing method, image processing apparatus, and image forming apparatus - Google Patents

Image processing method, image processing apparatus, and image forming apparatus Download PDF

Info

Publication number
JP3966404B2
JP3966404B2 JP2002002692A JP2002002692A JP3966404B2 JP 3966404 B2 JP3966404 B2 JP 3966404B2 JP 2002002692 A JP2002002692 A JP 2002002692A JP 2002002692 A JP2002002692 A JP 2002002692A JP 3966404 B2 JP3966404 B2 JP 3966404B2
Authority
JP
Japan
Prior art keywords
color
pixel
color component
character
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002002692A
Other languages
Japanese (ja)
Other versions
JP2003204445A (en
Inventor
誠 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002002692A priority Critical patent/JP3966404B2/en
Publication of JP2003204445A publication Critical patent/JP2003204445A/en
Application granted granted Critical
Publication of JP3966404B2 publication Critical patent/JP3966404B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、たとえばスキャナ等のカラー画像入力装置によって読取られた画像データに含まれる色文字領域の再現性を向上させる画像処理方法および画像処理装置ならびに画像形成装置に関する。
【0002】
【従来の技術】
原稿に形成される画像を読取る画像入力装置、たとえばデジタルスキャナおよびデジタルスチルカメラは、原稿画像から3刺激値レッドR、グリーンGおよびブルーBに関する色情報を、蓄積電荷結合素子(charge coupled device:略称CCD)イメージセンサなどの固体撮像素子によって得て、3刺激値の色情報をアナログ信号からデジタル信号にそれぞれ変換して、原稿画像を表す入力画像データとして画像処理装置に与える。
【0003】
従来の技術の画像処理装置では、入力画像データに含まれる文字領域、網点領域および写真領域の各領域を、色情報に基づいて、局所単位で識別し、各領域の特性に応じて画質向上処理を切替えることによって、原稿画像の再現性を高める構成になっている。特に、文字領域を識別できる画像処理装置では、入力画像データのうち急峻な濃度変化を示すエッジ部分の検出結果と、3刺激値レッドR、グリーンGおよびブルーBを補色反転した3刺激値であるシアンC、マゼンタMおよびイエローYの濃度値の最小値と最大値との差が最大になるときの色相情報とによって、文字領域を抽出する。そして抽出された文字領域に対し強調処理といった補正処理を施して、出力時に文字領域の再現性を高くすることができる画像データに補正している。さらにこれらの画像処理装置は、シアンC、マゼンタMおよびイエローYのうち最小値を示すmin(C,M,Y)に係数αをかけたα×{min(C,M,Y)}をグレイ成分と考えて、このグレイ成分を取り除く下色除去(Under Color Removal:略称UCR)をして、下色除去されたグレイ成分に見合う黒Kを加える。これによって黒文字の再現性を向上させるとともに、各色の位置ずれによって生じる色にじみを防ぐことができる画像データが得られる。文字領域が、黒文字領域と識別された場合、シアンC、マゼンタMおよびイエローYの色成分を完全に取り除いて黒Kだけで表すように補正処理し、有彩色文字を含む文字領域である色文字領域と識別された場合、反対に黒Kを用いずに、3色の色材シアンC、マゼンタMおよびイエローYだけを用いて、画像を表すように補正処理する。
【0004】
たとえば特開平1−264847号公報に示される画像処理装置では、入力画像データに対して、色成分の濃度値に基づいてエッジ部および色相を検出して、この色相の検出結果に基づいて、色文字領域の色成分を補正することができる構成になっている。色相の検出結果に基づいて、エッジ部が有彩と判定された場合において、色文字領域の色成分が閾値と比較されて、不必要な色成分と判断された場合、色成分の彩度が低くなって色濁りの原因となる不必要色成分が消去されるとともに、必要な色成分と判断された場合、必要色成分を強調する。これによって色文字領域の色成分の彩度が高くなるように、色文字領域の色成分が補正される。たとえばレッド系に分類される色を有する文字が、原稿画像に形成されている場合、不必要色成分であるシアンCの色成分を消去し、必要色成分であるイエローYの色成分を強調することによって、彩度の低下によって生じる色の濁りを除去して、再現性を高めている。
【0005】
【発明が解決しようとする課題】
これらの従来技術の画像処理装置では、入力画像データのうち、色文字領域の色成分の補正において、3刺激値シアンC、マゼンタMおよびイエローYの色成分で表される純粋な色、すなわち彩度が最も高い純色に近づくように補正する。このように色文字領域の色成分を、純色に近づけるように補正する場合、原稿画像に存在する色文字が、純色によって形成されていることが前提である。しかし、さまざまな色材を用いて色文字を形成する方法が確立されるにつれて、原稿画像に存在する色文字が、中間色によって形成される機会が多くなっている。したがってこれらの画像処理装置における画像処理方法では、原稿画像の実際の中間色を純色に近づけるように、色文字領域の色成分を補正するので、画像出力時に原稿画像の色文字を忠実に再現することができない。
【0006】
さらに特開平1−264847号公報に示される画像処理装置では、色文字領域の不必要色成分を消去し、必要色成分を強調することによって、色文字領域の色が、より純粋なレッドR、グリーンG、ブルーB、シアンC、マゼンタM、イエローY、黒Kおよび白Wの1次色および2次色に近づいてしまう。このように入力画像データの色成分が、本来の原稿画像の色成分に近づくように補正されないので、原稿画像の色文字を忠実に再現することができない。またうまく色文字領域の色成分を検出できない場合、雑音が色文字領域に混在すると、まれに雑音を強調させる不具合も予想される。たとえば雑音が色文字領域に混在する場合、レッド系に分類される色を有する色文字領域の色成分と、雑音にあたる1画素の色成分とが異なると、雑音にあたる画素の色成分は、色文字領域の補正後の色と異なった純色に近づくように補正されるので、レッド系とは異なった色になる。これによって雑音が誤って強調されてしまうことが起こりうる。
【0007】
したがって本発明の目的は、画像出力時に文字領域の色を忠実に再現することができる画像処理方法および画像処理装置ならびに画像形成装置を提供することである。
【0008】
【課題を解決するための手段】
本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を解析し、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均を求める解析工程と、
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法である。
【0009】
本発明に従えば、解析工程において、画像データに対して、文字部分の各色成分の分布状態が解析される。補正工程において、解析工程における解析結果に基づいて、文字部分の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。
解析工程において、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均が求められ、補正工程において、文字部分の各画素の色相を示す色成分が、解析工程において求められた色成分の平均に近づくように補正される。このように色成分の平均に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素毎の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0010】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字領域のすべての点について、予め定める直線との距離の2乗値を求めて、文字部分と下地部分との総和をとり、この総和を誤差として、この誤差を最小にすることによって前記分布状態を近似する近似直線を求める解析工程と、
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法である。
【0011】
本発明に従えば、解析工程において、文字領域の各色成分の分布状態が明度、彩度および色相を3軸とする空間座標で表され、分布状態を近似する近似直線が求められ、補正工程において、文字領域の各画素の色成分が、近似直線に垂直に近似直線に近づくように補正される。したがって文字部分だけでなく、文字部分を含む文字領域全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0012】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字部分の色相を示す色成分の分散状態を求め、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一の明度の明度軸上の点とを結ぶ等明度直線を求める解析工程と、
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正工程とを含むことを特徴とする画像処理方法である
【0013】
本発明に従えば、解析工程において、文字部分の各色成分の分布状態を表す明度、彩度および色相を3軸とする空間座標系を用いて、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一な明度軸上の点とを結ぶ等明度直線が求められ、補正工程において、文字部分の各画素の色成分が、等明度直線に垂直に等明度直線に近づくように補正されるので、彩度を示す色成分の分散の状態が、補正前とほぼ同じ状態に保たれたまま、色相を示す色成分の分散が小さくなるように補正することができる。したがって原稿に形成される画像を再現する場合に違和感が生じないように、文字部分の色成分が補正されるので、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0014】
また本発明は、解析工程の前に、入力される画像データから文字部分を含む文字領域を抽出する抽出工程を有することを特徴とする。
【0015】
本発明に従えば、入力される全体の画像データから、文字部分を含む文字領域が抽出工程によって抽出される。これによって補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0016】
また本発明は、補正工程は、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えるように補正することを特徴とする。
【0017】
本発明に従えば、補正工程において、文字部分の各画素の明度を示す色成分が、予め定める補正明度に置き換えられる。これによって各画素の明度を示す色成分が、予め定める値だけを有するので、明度の分散が小さくなり、原稿に形成される画像の良好な再現性を得ることができる補正をすることができる。
【0018】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の色相を示す色成分の分布状態を解析し、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均を求める解析手段と、
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置である
【0019】
本発明によれば、解析手段において、画像データに対して、文字部分の各色成分の分布状態が解析される。補正手段において、解析工程における解析結果に基づいて、文字部分の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。
解析手段において、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均が求められ、補正手段において、文字部分の各画素の色相を示す色成分が、解析手段において求められた色成分の平均に近づくように補正される。このように色成分の平均に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素毎の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0020】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字領域のすべての点について、予め定める直線との距離の2乗値を求めて、文字部分と下地部分との総和をとり、この総和を誤差として、この誤差を最小にすることによって前記分布状態を近似する近似直線を求める解析手段と、
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置である。
【0021】
本発明に従えば、解析手段において、文字領域の各色成分の分布状態が明度、彩度および色相を3軸とする空間座標で表され、分布状態を近似する近似直線が求められ、補正手段において、文字領域の各画素の色成分が、近似直線に垂直に近似直線に近づくように補正される。したがって文字部分だけでなく、文字部分を含む文字領域全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0022】
また本発明は、複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字部分の色相を示す色成分の分散状態を求め、注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一の明度の明度軸上の点とを結ぶ等明度直線を求める解析手段と、
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正手段とを含むことを特徴とする画像処理装置である
【0023】
本発明に従えば、解析手段において、文字部分の各色成分の分布状態を表す明度、彩度および色相を3軸とする空間座標系を用いて、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一な明度軸上の点とを結ぶ等明度直線が求められ、補正手段において、文字部分の各画素の色成分が、等明度直線に垂直に等明度直線に近づくように補正されるので、彩度を示す色成分の分散の状態が、補正前とほぼ同じ状態に保たれたまま、色相を示す色成分の分散が小さくなるように補正することができる。したがって原稿に形成される画像を再現する場合に違和感が生じないように、文字部分の色成分が補正されるので、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0024】
また本発明は、入力される画像データから文字部分を含む文字領域を抽出する抽出手段を有することを特徴とする。
【0025】
本発明に従えば、入力される全体の画像データから、文字部分を含む文字領域が、抽出手段によって抽出される。これによって補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0028】
また本発明は、補正手段は、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えるように補正することを特徴とする。
【0029】
本発明に従えば、文字部分の各画素の明度を示す色成分が、予め定める補正明度に補正手段によって置き換えられる。これによって各画素の明度を示す色成分が、予め定める値だけを有するので、明度の分散が小さくなり、原稿に形成される画像の良好な再現性を得ることができる補正をすることができる。
【0032】
また本発明は、前記画像処理装置を含むことを特徴とする画像形成装置である。
【0033】
本発明に従えば、入力される画像データから文字部分を含む文字領域が、抽出手段によって抽出され、文字部分の色成分の分布状態が、解析手段によって解析される。解析手段の解析結果に基づいて、文字部分の色成分の分散が、小さくなるように補正手段によって補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。
【0034】
【発明の実施の形態】
本明細書において、数式に記載される文字に右向き矢印を付して記載される変数文字は、ベクトルであることを示し、文章中には同一の文字の後に「~」を付して記載し、数式に記載される文字に上スコアを付して記載される変数文字は、平均値であることを示し、同一の文字の後に「_」を付して記載する。
【0035】
図1は、本発明の実施の一形態である画像処理装置3を含む画像形成装置1の構成を示すブロック図である。画像形成装置1は、紙および紙以外の材料からなる記録用のシートを含む記録材に、画像を形成するための装置であって、画像入力装置2、画像処理装置3および画像出力装置4を含んで構成される。
【0036】
画像入力装置2は、原稿に形成される画像を読取るための装置であって、固体撮像素子、たとえば蓄積電荷結合素子(charge coupled device:略称CCD)を用いたイメージセンサを備えるスキャナ部を含んで構成される。画像入力装置2は、光源によって白色光を原稿に照射して、原稿からの反射光の色、すなわち波長と強度とを、CCDイメージセンサによって、主走査方向および副走査方向に並ぶ複数の画素に分割して検出して、原稿画像を読取り、各画素の色および強度によって原稿画像を表す原稿画像データを、電気信号によって画像処理装置3に与える。
【0037】
原稿画像データは、3つの色成分である赤、緑および青の濃度に対応する数値によって表され、赤R’、緑G’および青B’信号として画像処理装置3に与えられる。赤R’信号は、原稿からの赤色光の反射率を画素毎にアナログで表す電気信号である。緑G’信号は、原稿からの緑色光の反射率を画素毎にアナログで表す電気信号である。青B’信号は、原稿からの青色光の反射率を画素毎にアナログで表す電気信号である。
【0038】
画像処理装置3は、画像出力時に原稿画像の再現性を向上させることができるように、与えられる画像データを補正する画像処理をするための装置である。画像処理装置3は、アナログ/デジタル変換部(以下、A/D変換部という)5、シェーディング補正部6、入力階調補正部7、領域分離処理部8、色補正部9、黒生成下色除去部10、空間フィルタ処理部11、出力階調補正部12および階調再現処理部13を含んで構成される。
【0039】
A/D変換部5は、与えられるアナログ信号をデジタル信号に変換する。A/D変換部5は、アナログ信号である赤R’信号、緑G’信号および青B’信号を、各画素毎に赤色光、緑色光および青色光の反射率をデジタルで表すデジタル信号である赤R信号、緑G信号および青B信号にそれぞれ変換する。A/D変換部5は、赤R信号、緑G信号および青B信号を、シェーディング補正部6に与える。
【0040】
シェーディング補正部6は、赤R信号、緑G信号および青B信号の表すデータに含まれる歪み成分を取り除く処理をする。シェーディング補正部6は、赤R信号、緑G信号および青B信号に対して、画像入力装置2の照明系、結像光学系および撮像系(受像系)で生じる各種の歪み成分を取り除く処理をし、処理後の赤R信号、緑G信号および青B信号を、入力階調補正部7に与える。
【0041】
入力階調補正部7は、与えられる信号に対して、その信号の表すデータのカラーバランスを整えると同時に、画像処理をするときに扱いやすいデータの信号に変換する。入力階調補正部7は、シェーディング補正部6からの赤R信号、緑G信号および青B信号に対して、各反射率値をこれに基づいてカラーバランスを整えるように補正するとともに、各色成分の光の反射率値を赤、緑および青である各色成分の濃度値を表す信号に変換する。その後さらに、入力階調補正部7は、赤、緑および青の濃度値で表される各画素の信号を、補色反転した他の3つの色成分であるシアン、マゼンタおよびイエローの濃度値で表す信号、したがって各画素のシアンの濃度をデジタルで表すシアンC’信号、各画素のマゼンタの濃度をデジタルで表すマゼンタM’信号および各画素のイエローの濃度をデジタルで表すイエローY’信号に変換して、領域分離処理部8に与える。シアンC’信号、マゼンタM’信号およびイエローY’信号は、原稿画像を表すデジタル信号である。以下、シアンC’信号を「C’信号」、マゼンタM’信号を「M’信号」およびイエローY’信号を「Y’信号」という場合がある。
【0042】
領域分離処理部8は、与えられる画像データによって表される原稿画像全体から補正の対象となる補正対象画像部分を含む補正対象画像領域を抽出する抽出手段である。領域分離処理部8は、入力階調補正部7からのC’信号、M’信号およびY’信号に基づいて、原稿画像データによって表される原稿画像の各画素を複数の画像領域の構成要素として分離することによって補正対象画像領域を抽出する。本実施の形態では、画像領域は、文字を表す文字領域、網点で像を表す網点領域および写真を表す写真領域である。領域画像処理部8は、入力階調補正部7からのC’信号、M’信号およびY’信号をそのまま色補正部9に与えるとともに、領域分離結果に基づいて、各画素がどの画像領域に属すかを表す領域識別信号を色補正部9、黒生成下色除去部10、空間フィルタ処理部11および階調再現処理部13に与える。
【0043】
色補正部9は、画像出力時に原稿画像の再現性を向上することができるように、画像出力時に用いられるシアン、マゼンタおよびイエローの各色材に含まれる不要吸収成分を、シアン、マゼンタおよびイエローの各色材の分光特性に基づいて色濁りを取り除く処理をする。色補正部9は、上記複数の画像領域の1つである色補正部9での補正の対象となる画像領域であって、上記の各色成分で表される補正対象画像部分を含む補正対象画像領域の色の補正をする。本実施の形態では、補正対象画像領域は、文字領域であり、補正対象画像部分は、文字部分である。この色補正部9は、補正対象画像領域の画像データに対して、少なくとも補正対象画像部分の各色成分の分布状態を解析する解析手段である分布解析部14と、解析手段14の解析結果に基づいて、補正対象画像部分の色成分の分散が、小さくなるように補正する補正手段である補正部15とを含んで構成される。
【0044】
C’信号、M’信号、Y’信号および領域識別信号が、色補正部9に領域分離処理部8によって与えられると、領域分離処理部8からの領域識別信号に基づいて、補正対象画像部分の各色成分の分布状態が、分布解析部14によって解析される。分布解析部14の解析結果に基づいて、補正対象画像部分の各色成分の分散が、小さくなるように補正部15によって補正される。色補正部9は、補正後の色成分を表すC”信号、M”信号およびY”信号を黒生成下色除去部10に与える。
【0045】
黒生成下色除去部10は、与えられるシアン、マゼンタおよびイエローの色成分の濃度値に基づいて、黒を生成する黒生成処理およびシアン、マゼンタおよびイエローの色成分から黒生成処理で得られる黒の色成分を差し引いて、新たなシアン、マゼンタおよびイエローの色成分の濃度値を求める下色除去(Under Color Removal:略称UCR)処理をする。色補正部9による補正後の色成分を表すシアンC”信号、マゼンタM”信号およびイエローY”信号の3色の信号は、黒生成下色除去部10による処理によって、シアンC信号、マゼンタM信号、イエローY信号および黒K信号の4色の信号に変換される。以下、シアンC信号を「C信号」、マゼンタM信号を「M信号」、イエローY信号を「Y信号」および黒K信号を「K信号」という場合がある。黒生成処理の一例として、スケルトンブラックによる黒生成の方法が挙げられる。この方法では、スケルトンカーブの入出力特性を表す関数をy=f(x)で表し、入力される値をC”信号、M”信号およびY”信号の表す色成分で表し、C”信号、M”信号およびY”信号の表す色成分の濃度値の下色除去率をα(0<α<1)とすると、黒生成処理および下色除去処理後のシアン、マゼンタ、イエローおよび黒の色成分は、以下の式(1)によって求められる。黒生成下色除去部10は、黒生成および下色除去後のC信号、M信号、Y信号およびK信号を、空間フィルタ処理部11に与える。
K=f{min(C”, M”, Y”)}
C=C”−αK
M=M”−αK
Y=Y”−αK …(1)
【0046】
空間フィルタ処理部11は、画像データに対して、領域識別信号に基づいて各画像領域の空間周波数特性を補正することによって、出力画像のぼやけおよび粒状性劣化を防ぐように、デジタルフィルタを用いる空間フィルタ処理をする。出力階調補正部12は、与えられる信号を、画像出力するときに画像出力装置4の特性値を表す信号に変換する処理をする。階調再現処理部13は、与えられる信号に基づいて、画像を出力するための階調再現処理をする。
【0047】
たとえば領域分離処理部8によって抽出された文字領域の画像データは、画像出力時に文字の再現性を向上させるように、空間フィルタ処理部11による空間フィルタ処理によって、高周波数の強調量を大きくされる。その後文字領域の画像データは、階調再現処理部13において、高域の周波数の再現に適した高解像度のスクリーンによって、二値化または多値化処理される。
【0048】
領域分離処理部8によって抽出された網点領域の画像データは、空間フィルタ処理部11において、入力網点成分を除去するためのローパスフィルタを用いて処理される。さらに網点領域の画像データは、出力階調補正部12において、濃度値などが表す信号を画像出力装置4の特性値である網点面積率に変換された後、階調再現処理部13において、最終的に画像を画素に分離して、それぞれの階調を再現できるように処理される。
【0049】
領域分離処理部8によって抽出された写真領域の画像データは、階調再現処理部13において、階調再現性を重視したスクリーンによって、二値化または多値化処理される。
【0050】
階調再現処理部13による処理後の画像データは、記憶手段に一旦記憶されて、所定のタイミングで記憶手段から読み出されて画像出力装置4に与えられる。
【0051】
画像出力装置4は、画像処理装置3によって画像処理された画像データに基づいて、画像を記録材に形成するための装置である。画像出力装置4の例として、たとえば電子写真方式およびインクジェット方式を用いたカラー画像出力装置などを挙げることができるが、特に限定されるものではない。
【0052】
図2は、領域分離処理部8および色補正部9の構成を示すブロック図である。領域分離処理部8は、領域判定部20および文字領域判定部21を含んで構成される。領域判定部20は、入力階調補正部7からの原稿画像データを表すシアンC’信号、マゼンタM’信号およびイエローY’信号に基づいて、原稿画像データが表す原稿画像の各画素が文字領域、網点領域および写真領域のどの画像領域に属するかを判定する。また領域判定部20は、原稿画像を各画像領域に分離、すなわち各画素毎に、どの画像領域に属するかを表す識別データを与え、この識別データを表す領域識別信号を色補正部9、黒生成下色除去部10、空間フィルタ処理部11、階調再現処理部13および文字領域判定部21に与える。領域識別信号は、領域判定された画素が文字領域に属することを表す文字領域識別信号と、領域判定された画素が網点領域に属することを表す網点領域識別信号と、領域判定された画素が写真領域に属することを表す写真領域識別信号とを含む信号である。
【0053】
領域判定部20は、少なくとも文字領域の画像データを含む原稿画像データと、文字領域識別信号とを文字領域判定部21に与える。また領域判定部20は、文字領域識別信号、網点領域識別信号および写真領域識別信号を色補正部9、黒生成下色除去部10、空間フィルタ処理部11および階調再現処理部13に与える。文字領域判定部21は、領域判定部20によって原稿画像データから分離される文字領域の画像データと、文字領域識別信号とに基づいて、文字部分を抽出する。
【0054】
原稿画像は、以下の方法を用いて、文字領域、網点領域および写真領域の画像データに、領域判定部20によって分離され、抽出される。領域判定部20は、原稿画像データの任意の画素である注目画素を中心に、主走査方向および副走査方向に自然数個の画素を含む領域、すなわちM×N個の画素を含むブロックをとり、このブロック内の画素のデータに基づいて、注目画素がどの領域に属するかを判定する。MまたNは、自然数であって相互に同一であってもよいし、異なっていてもよい。
【0055】
その判定結果は、注目画素の領域識別信号として用いられる。ブロックに含まれる画素において、画素の濃度である信号がもつ値(以下、「信号レベル」という場合がある)の最大値および最小値を求めて、最大値を最大画素信号レベルDmax、最小値を最小画素信号レベルDminとする。ブロックに含まれる画素のうち、たとえば注目画素と注目画素の周囲にある8個の画素とを合わせた9個の画素の信号レベルの平均値Daveを求める。この平均値Daveを閾値として用いて、ブロックの画像が各画素の信号レベルを0(閾値未満)と1(閾値以上)とに置換えられて二値化される。
【0056】
このような二値化処理後、まず注目画素が、網点領域に属する画素であるか否かを判定する。網点領域では、背景、すなわち下地に、下地と大きく濃度値の異なる複数の点(網点)を配置して、たとえば下地に対して網点の信号レベルが大きい画像が形成されており、ブロック内の各画素の信号レベルが主走査方向および副走査方向に、隣接する画素間で大きく変化するとともに、主走査方向および副走査方向に関して、隣接する画素間での信号レベルの変化の回数が多い。領域判定部20は、このような条件を満たすブロックの注目画素を網点領域に属する画素であると判定する。網点を表す画素と下地を表す画素との誤判定が生じないように、最大画素信号レベルDmaxと平均値Daveとの差が、閾値B1と比較され、平均値Daveと最小画素信号レベルDminとの差が、閾値B2と比較される。主走査方向において、二値化された各画素の信号レベルが、0から1および1から0に変化する点の数KHが求められ、その変化点数KHが閾値THと比較される。副走査方向において、二値化された各画素の信号レベルが、0から1および1から0に変化する点の数KVが求められ、その変化点数KVが閾値TVと比較される。最大画素信号レベルDmaxと平均値Daveとの差と、平均値Daveと最小画素信号レベルDminとの差と、変化点数KHと、変化点数KVとを閾値と比較して、以下の条件を用いて、注目画素が属する画像領域を判定する。
Dmax−Dave>B1かつDave−Dmin>B2
かつKH>THかつKV>TV … 網点領域
上の条件以外 … 非網点領域
【0057】
注目画素が網点領域に属する画素であるか否かの判定の条件には、最大画素信号レベルDmaxと平均値Daveとの差が、閾値B1よりも大きいという条件と、平均値Daveと最小画素信号レベルDminとの差が、閾値B2よりも大きいという条件と、主走査方向の変化点数KHが、閾値THよりも大きいという条件と、副走査方向の変化点数KVが、閾値TVよりも大きいという条件とがあり、これらの条件をすべて満たす場合、注目画素が網点領域に属する画素であると判定される。これらの条件のうち、ひとつでも満たない条件がある場合、注目画素は、文字領域および写真領域である非網点領域に属する画素であると判定される。
【0058】
注目画素が非網点領域に属する画素であると判定された場合、注目画素が、文字領域および写真領域のどちらに属する画素であるか判定する。文字領域では、最大画素信号レベルDmaxと最小画素信号レベルDminとの差が大きく、文字領域に属する画素の信号レベルも全体的に高いと考えられるので、以下の条件を用いて、注目画素が属する画像領域を判定する。
Dmax>PAまたはDmin<PBまたは
DmaxとDminとの差分Dsub>PC … 文字領域
上の条件以外 … 写真領域
【0059】
注目画素が、文字領域に属する画素であるか否かを判定する条件には、最大画素信号レベルDmaxが、閾値PAよりも大きいという条件と、最小画素信号レベルDminが、閾値PBよりも小さいという条件と、最大画素信号レベルDmaxと最小画素信号レベルDminとの差分Dsubが、閾値PCよりも大きいという条件とがあり、これらの条件のうち少なくとも1つの条件を満たす場合、注目画素が文字領域に属する画素であると判定される。これらの条件をすべて満たさない場合、すなわち最大画素信号レベルDmaxが閾値PA以下であって、かつ最小画素信号レベルDminが閾値PB以上であって、かつ最大画素信号レベと最小画素信号レベルとの差分Dsubが閾値PC以下である場合、注目画素は、写真領域に属する画素であると判定される。ある注目画素の領域判定が終了した後、他の画素を新たな注目画素として、新たな注目画素を中心にM×N個の画素を含むブロックをとり、前述の画像領域の判定をする。注目画素がどの領域に属するかの判定は、注目画素のシアン、マゼンタおよびイエローの各色成分ごとにされ、2つの色成分において、注目画素が網点領域に属する条件を満たす場合、注目画素が網点領域に属する画素であると判定される。このような領域判定が原稿画像の全ての画素について、注目画素にあてはめて、領域判定される。
【0060】
領域判定部20は、文字領域に属すると判定された画素が原稿画像のどの画素であるかを表す文字領域識別信号を、文字領域判定部21に与え、網点および写真領域に属すると判定された画素が原稿画像のどの画素であるかを表す網点および写真領域識別信号を、色補正部9に与える。
【0061】
文字領域判定部21は、文字領域識別信号に基づいて、文字領域から、文字部分を抽出する手段であって、エッジ判定部22、色判定部23および色文字判定部24を含んで構成される。エッジ判定部22は、隣接する画素との間の急峻な信号レベルの変化、すなわち急峻な濃度変化を示すエッジ部にあたる画素を検出する手段であって、領域判定部20からの文字領域識別信号に基づいて、文字領域に属する画素がエッジ部に属するか否かを判定して、その判定結果を表すエッジ判定信号を色文字判定部24に与える。このエッジ部が文字部分となる。
【0062】
色判定部23は、画素が有彩色を表す画素であるか、無彩色を表す画素であるかの判定をする手段であって、領域判定部20からの文字領域識別信号に基づいて、文字領域に属する画素が、有彩色を表す画素であるか否かの判定をして、その判定結果を表す有彩判定信号を色文字判定部24に与える。色文字判定部24は、エッジ判定部22および色判定部23の判定結果に基づいて、文字領域に属する画素が、有彩色の文字部分であるか、無彩色の文字部分であるかを判定する手段である。
【0063】
図3は、領域分離処理部8に含まれるエッジ判定部22の構成を示すブロック図である。図4は、エッジ部検出用のマスクおよびフィルタを示す図であって、図4(1)は、エッジ検出用のマスクを示し、図4(2)は、主走査方向のゾーベルフィルタ40を示し、図4(3)は、副走査方向のゾーベルフィルタ41を示す。エッジ判定部22は、主走査ゾーベルフィルタ部30、副走査ゾーベルフィルタ部31、各色絶対値算出部32、各色加算器33、各色比較器34、加算器35および比較器36を含んで構成される。エッジ判定部22は、エッジを検出するためのフィルタを用いて、画素が文字部分であるエッジ部であるか否かの判定をする。画素がエッジ部であるか否かの判定は、シアン、マゼンタおよびイエローの色成分ごとにされる。主走査ゾーベルフィルタ部30、副走査ゾーベルフィルタ部31、各色絶対値算出部32、各色加算器33および各色比較器34の処理は、シアン、マゼンタおよびイエローの色成分において、同じ処理であるので具体的な処理の説明はシアンの色成分についてだけする。マゼンタ、イエローに関しても同様の手段を有する。
【0064】
ある画素を注目画素37として、注目画素37を中心とする主走査方向および副走査方向に所定数の画素を有するマスク、たとえば図4(1)に示す5×5マスク38が、図示しないラインメモリから読み出され、さらに5×5マスク38から注目画素37を中心とする3×3マスク39が抽出される。マスクは、複数の画素を含む局所領域を表わし、たとえば3×3マスクは、画素が3行3列に並んで形成される局所領域を表す。
【0065】
主走査ゾーベルフィルタ部30において、シアンC’信号が与えられると、注目画素37の主走査方向の差分値を求めるための主走査方向のゾーベルフィルタ40が3×3マスク39に畳み込まれる。畳み込み処理は、具体的には、3×3マスク39の1行1列目の画素42の値と、主走査ゾーベルフィルタ40の1行1列目の画素42aの値とを積算する。同様に1行2列目の画素43の値と、主走査方向のゾーベルフィルタ40の1行2列目の画素43aの値とを積算する。さらに3×3マスク39の他の画素の値と対応する主走査ゾーベルフィルタ40の画素の値とを積算し、積算して求められた値の総和を求めて差分値とする。副走査ゾーベルフィルタ部31において、シアンC’信号が与えられると、注目画素37の副走査方向の差分値を求めるための副走査方向のゾーベルフィルタ41が3×3マスク39に畳み込まれる。主走査ゾーベルフィルタ部30の処理と同様に、副走査ゾーベルフィルタ部31で3×3マスク39の画素の値と、対応する副走査方向のゾーベルフィルタ41の画素の値とを積算して求めた値の和を求めて、注目画素37の各走査方向の差分値が求められる。
【0066】
各走査方向のゾーベルフィルタ40,41が、3×3マスク39に畳み込まれた結果は、各色絶対値算出部32に与えられる。各色絶対値算出部32では、注目画素37の差分値の絶対値が、各色絶対値算出部32によって求められ、差分値の絶対値が各色加算器33に与えられる。各色加算器33では注目画素37の差分値である加算値が、各色加算器33によって求められ、加算値が各色比較器34に与えられる。差分値の絶対値を求める処理は、各走査方向ゾーベルフィルタ40,41に負の係数が存在することを考慮する処理であって、加算値を求める処理は、主走査方向と副走査方向との両方の結果を考慮するための処理である。
【0067】
各色比較器34は、注目画素37の加算値を、予め定める閾値edgeTHと比較して、加算値が閾値以上であれば、「1」を表す信号を加算器35に与え、閾値よりも小さければ、「0」を表す信号を加算器35に与える。主走査ゾーベルフィルタ部30、副走査ゾーベルフィルタ部31、各色絶対値算出部32、各色加算器33および各色比較器34における処理は、注目画素37のシアン、マゼンタおよびイエローの各色成分に対してエッジ部であるか否かの判定をする処理である。
【0068】
加算器35は、各色比較器34からのシアン、マゼンタおよびイエローの各色成分についての比較結果を表す信号がもつ値を加算し、加算結果を表す信号を比較器36に与える。比較器36は、加算器35からの加算結果に基づいて、加算値を予め定める閾値addTHと比較して、注目画素37がエッジ部であれば「1」を表すエッジ判定信号を、色文字判定部24に与え、注目画素37がエッジ部でないならば「0」を表すエッジ判定信号を、色文字判定部24に与える。たとえば各色比較器34によって、シアン、マゼンタおよびイエローの色成分すべてがエッジ部であると判定されるときだけ、注目画素37がエッジ部であると判定されるならば、閾値addTHを「3」と定め、1つの色成分だけでもエッジ部であると判定されれば、注目画素37がエッジ部であると判定されるならば、閾値addTHを「1」と定められる。
【0069】
図5は、有彩色および無彩色の判定に用いられる閾値を説明する図である。色判定部23では、シアンC’信号、マゼンタM’信号およびイエローY’信号に基づいて、注目画素37の各色成分の濃度値の最大値max(C’,M’, Y’)と最小値min(C’,M’, Y’)との差が、予め定める閾値Δと比較される。たとえば図5に示すように、シアンの色成分が最大値であって、イエローの色成分が最小値である場合、これらの差が閾値Δと比較される。差が閾値Δ以上である場合、注目画素37が有彩色を表す画素であると判定され、閾値よりも小さい場合、注目画素37が無彩色を表す画素であると判定されて、判定結果を表す有彩判定信号が色文字判定部24に与えられる。
【0070】
色文字判定部24では、以下の条件基づいて、画素が色文字部分および黒文字部分であると判定される。
(エッジ)かつ(有彩色) → 色文字部分
(エッジ)かつ(無彩色) → 黒文字部分
【0071】
色文字判定部24では、注目画素37がエッジ部であるとエッジ判定部22によって判定され、注目画素37が有彩色を表す画素であると色判定部23によって判定される場合、注目画素37が色文字部分であると判定され、注目画素37がエッジ部であるとエッジ判定部22によって判定され、注目画素37が無彩色を表す画素であると色判定部23によって判定される場合、注目画素が黒文字部分であると判定されて、その判定結果である色文字判定信号が色補正部9に与えられる。
【0072】
色補正部9は、色文字補正処理部25および他領域補正処理部26を含んで構成される。色文字補正処理部25は、色文字判定部24からの色文字判定信号に基づいて、色文字部分であると判定され、かつ所定の条件を満たす色文字部分である各画素に対して、各画素の色成分を補正して、色成分の分散が小さくなる処理をする。他領域補正処理部26は、領域判定部20からの網点および写真領域識別信号に基づいて、網点および写真領域に属する画素に対して、画素の色成分を補正する処理をする。他領域補正処理部26では、網点および写真領域に属する画素に対して、たとえば直接変換法および三次元補間法を用いて、色成分の補正をする。直接変換法は、与えられる画像データを表すシアン、マゼンタおよびイエローの色成分において、すべての色成分の組合せに対して色変換データを予め求めて、その結果を色変換テーブルに格納しておき、網点および写真領域の画像データが与えられると、テーブル値を参照して、テーブル値に変換した画像データを出力する方法である。この直接変換法は、色変換テーブルを用いる方法であり、回路構成も簡単で比較的高速に処理でき、色成分がいかなる非線形特性であっても適用することができる。三次元補間法は、選択される一部のシアン、マゼンタおよびイエローの色成分の組合せに対するテーブル値を予め求めて色変換テーブルテーブルに格納しておき、予めテーブル値が格納されていない色成分の組合せに対しては、色変換テーブルに格納されるテーブル値を用いて、色変換値を求める三次元補間演算によって算出する方法である。この三次元補間法は、予め求めるテーブル値の数を限定した場合でも、すべての与えられる画像データの色成分の組合せに対して、色変換値を求めることができ、色変換テーブルのサイズを小型化することができる方法である。各画素の色成分が、色文字補正処理部25および他領域補正処理部26によって補正されると、補正後の色成分を表すC”信号、M”信号およびY”信号が黒生成下色除去部10に与えられ、前述の黒生成および下色除去処理が施される。
【0073】
図6は、色文字補正処理部25の構成を示すブロック図である。色文字補正処理部25は、画像メモリ50、第1の色空間変換部51、閾値設定部52、分布解析部14、補正部15および第2の色空間変換部53を含んで構成される。画像メモリ50は、少なくともM×N個の画素のブロックで表される画像データを格納する手段である。領域分離処理部8からの原稿画像データを表すC’信号、M’信号およびY’信号と、色文字判定部24からの色文字判定信号とが、色文字補正処理部25に与えられると、画像メモリ50は、文字部分を含む文字領域の画像データを格納するとともに、第1の色空間変換部51に与える。第1の色空間変換部51は、複数の第1色成分であるシアン、マゼンタ、イエローを含む第1表色系であるCMY表色系で表される文字領域の画像データを、複数の第2色成分である明度、彩度、色相を含む均等色空間を用いる第2表色系であるL***表色系で表される画像データに変換する手段である。文字領域の画像データが、画像メモリ50によって第1の色空間変換部51に与えられると、第1の色空間変換部51は、シアン、マゼンタおよびイエローの色成分で表される文字領域の画像データを、明度を表すL*と彩度および色相を含む色度を表すためのa*およびb*との色成分を含むCIE1976L***表色系の色空間で表される文字領域の画像データに変換し、変換された文字領域の画像データを分布解析部14に与える。以下、色度をa*,b*と表すことにする。閾値設定部52は、画像データの色成分を補正するか否かの判断するための閾値を格納する手段である。分布解析部14は、変換された文字領域の画像データにおいて、少なくとも文字部分の色成分の分布状態を解析し、閾値設定部52に格納される閾値に基づいて、文字部分の色成分を補正するか否かを判断する。
【0074】
補正部15は、分布解析部14によって補正すると判断された文字部分の色成分の分散が小さくなるように補正し、補正後の画像データを第2の色空間変換部53に与える。第2の色空間変換部53は、色成分を補正した後のCIE1976L***表色系の色空間で表される文字領域の画像データを、シアン、マゼンタおよびイエローの色成分で表される文字領域の画像データに変換し、変換後の画像データを表すC”信号、M”信号およびY”信号を黒生成下色除去部10に与える。
【0075】
図7は、文字部分61の色成分の分散を小さくするように補正するときのイメージを示す第1表色系の色空間を示すグラフである。文字部分61の分布解析部14および補正部15における画像処理方法を簡単に説明する。文字部分61の各画素の色成分は、CMY表色系で表される色空間60に分布させることができる。CMY表色系は、シアン、マゼンタおよびイエローの色成分を含む表色系である。領域分離処理部8に与えられるシアンC’信号、マゼンタM’信号およびイエローY’信号に基づいて、領域分離処理部8によって文字部分61を含む文字領域62に属する画素の集合を画素集合Pとすると、色成分を補正するための条件は、少なくとも領域分離処理部8によって、注目画素が文字部分61であると判定されることが必要である。たとえば注目画素が原稿画像のi行j列にある場合、(i,j)で表す。注目画素(i,j)における各色成分を表す信号を、C’(i,j)信号、M’(i,j)信号およびY’(i,j)信号とし、注目画素(i,j)が属する画像領域の領域分離結果をseg(i,j)とすると、注目画素(i,j)の色成分を補正するための条件として、少なくとも以下の条件を満足する必要がある。
seg(i,j)∈P
【0076】
領域分離結果seg(i,j)が、画素集合Pに含まれるという条件を満たす場合、注目画素(i,j)の色成分が補正される。注目画素の色成分C’(i,j)、M’(i,j)およびY’(i,j)は、補正されて、Ccorrect(i,j)、Mcorrect(i,j)およびY correct(i,j)になる。
correct(i,j) ← C’(i,j)
correct(i,j) ← M’(i,j)
correct(i,j) ← Y’(i,j)
【0077】
ただし、画素集合Pに含まれる領域分離結果seg(i,j)において、すべての画素の色成分が補正されるのではなく、注目画素が、注目画素を中心とするあるマスクに含まれる複数の画素に対し、分布解析部14によって、たとえば色相がどれくらい外れているかが解析され、その外れ具合に基づいて、色成分の補正をするか否かが判断される。注目画素が属すべき文字部分61の色成分を表す信号は、注目画素を中心とするマスクに属する複数の画素に基づいて求められ、求められる色成分を、Celement(i,j)、Melement(i,j)およびYelement(i,j)とする。補正後の注目画素の色成分を、Ccorrect(i,j)、Mcorrect(i,j)およびYcorrect(i,j)とすると、補正後の色成分は、補正前の色成分に比べて、注目画素が属すべき文字部分61の色成分に近づく。言換えると、注目画素が属すべき文字部分61の色成分を表す点から、補正後の注目画素の色成分を表す点までの距離は、注目画素が属すべき文字部分61の色成分を表す点から、補正前の注目画素の色成分を表す点までの距離よりも短い。たとえば色成分C1,M1およびY1を表す点から、色成分C2,M2およびY2を表す点までの距離を以下のように表す。
D{(C1,M1,Y1),(C2,M2,Y2)}
【0078】
前述のように、注目画素が属すべき文字部分61の色成分を表す点から、補正後の注目画素の色成分を表す点までの距離は、注目画素が属すべき文字部分61の色成分を表す点から、補正前の注目画素の色成分を表す点までの距離よりも短いので、以下のように表せる。

Figure 0003966404
【0079】
文字領域62に属する画素の色成分が、この画素を中心とするマスクによって代表される色成分に近づくように補正されることによって、少なくとも文字部分61の色成分の分散、特に色相を示す色成分の分散を小さくして、画像出力時に原稿画像の再現性を向上させるように補正する。
【0080】
図8は、色文字部分63の色成分の分散を代表値に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。図9は、明度を示す色成分を補正するときのイメージを示す第2表色系の色空間を示すグラフである。図10は、色文字部分63の色成分の分散を、代表値66に近づけるように補正する手順を示すフローチャートである。図11は、注目画素37を中心とする3×3マスク75を示す図である。図12は、注目画素37と3×3マスク75内の注目画素37を除く他の画素との色相の関係を示す図である。代表値66は、色成分を補正するときの目標となる値であって、たとえばあるマスクの平均値を表す。画像データの色成分を補正において、具体的には色文字部分63の色成分が、色文字部分63を含む局所領域の代表値66に近づくように補正される。色文字部分63の色成分を補正するための色空間を限定するものではないが、色文字部分63の色成分は、均等色空間を用いるCIE1976L***表色系(Commission Internatinale de l’Eclairage:CIE)に、第1の色空間変換部51によって変換される。以下、CIE1976L***表色系を「L***表色系」という。L***表色系の色成分は、L*,a*,b*であって、L*軸、a*軸およびb*軸の3つの軸によって座標系が形成される。以下、L*軸、a*軸およびb*軸によって形成される座標系を、「L***座標系65」という。L*は、明度を表す色成分である。a*およびb*は、これらを用いて色相および彩度を表すことができる色成分であって、色相は、tan-1(b*/a*)によって表される式を用いて求められる。L***表色系の色成分は、シアン、マゼンタおよびイエローの色成分の線形和で表すことができるので、シアン、マゼンタおよびイエローの色成分によって表されるCMY表色系60は、単純な3行3列のマトリックスを用いて、L***表色系に変換される。したがってシアン、マゼンタおよびイエローの色成分によって表される表色系からL***表色系への変換式は、以下のように表すことができる。
【0081】
【数1】
Figure 0003966404
【0082】
原稿画像データのi行j列にある注目画素(i,j)が、色文字領域64に属する画素、すなわち色文字部分63であると領域分離処理部8によって判定され、注目画素の色成分が補正された後の色成分を{L* correct(i,j),a* correct(i,j),b* correct(i,j)}とすると、補正を表す変換は、以下のように表せる。
【0083】
【数2】
Figure 0003966404
【0084】
この変換によって、色文字領域64に対応する画像を出力するときに、再現性が向上するように色成分の分散を補正する。
【0085】
***表色系で表される画像データにおいて、色文字部分63である注目画素を中心にM行N列のマスクを考える。このマスクに属する画素を(i,j)で表し、マスクをmask(M,N)で表すと、画素(i,j)は、以下の条件を満たす。
(i,j)∈mask(M,N)
【0086】
マスクに属する画素の色成分は、色成分の分布状態の解析結果に基づいて、マスクに属する画素の色成分の代表値66、たとえば平均値および中央値を色成分の補正をするときの目標値として求めて、この代表値66に近づけるように補正部15によって補正される。
【0087】
つぎに色文字部分63の色成分を補正する手順を示す。ステップd0において、色文字領域64の画像データが、L***表色系で表される色成分に第1の色空間変換部51によって変換されて、分布解析部14に与えられて、ステップd1に進む。
【0088】
ステップd1において、L***表色系で表される色文字領域64の画像データについて、分布解析部14によって、ある注目画素を中心とするM行N列のマスクに含まれる画素のL***座標系65における分布状態が解析されて、さらにこの各画素の色成分が求められて、ステップd2に進む。
【0089】
ステップd2において、色度a*・b*を示す色成分であるa*およびb*の分布状態に基づいて、マスクに属する画素の色成分が、注目画素の色成分よりも著しく離れた色成分をもつ場合、この画素の色成分を除いて、a*およびb*の平均値であるa*_およびb*_が、分布解析部14によって求められる。
【0090】
ステップd2において、M行N列のマスク内の画素の色成分は、その画素の色相と注目画素37の色相とに基づいて、除くべき色成分であるか否かが分布解析部14によって判定される。M行N列のマスク内の色成分を除くか否かの判定には、たとえば図11に示すように、注目画素37を中心とする3×3マスク75が用いられる。
【0091】
3×3マスク75において、注目画素37の画素番号を0番とし、3×3マスク75内の注目画素37を除く8個の近傍画素76の画素番号を1〜8番とする。L***座標系65における注目画素37を表す注目画素点37aの座標を(L*0,a*0,b*0)で表し、近傍画素76を表す近傍画素点76aの座標を(L*i,a*i,b*i)(i=1,2,…,8)で表す。注目画素37の色相、すなわち注目画素点37aと原点とを結ぶ直線と、a*軸とが成す角度である色相に基づいて、所定の範囲外である図12に示される斜線部にある画素点の色成分を除く。
【0092】
色成分を除く処理にはL*値は関係ないので、3×3マスク75内の各画素の座標は、L*値を省略して表し、かつベクトルで表すと、注目画素点37aのベクトルはA~=(a*0,b*0)で表され、近傍画素点76aのベクトルをB~=(a*i,b*i)で表される。注目画素点37aと原点とを結ぶ直線と、ある近傍画素点76aと原点とを結ぶ直線との成す角度をθ0iで表すと、角度θ0iの余弦Cosθ0iは、ベクトルA~とベクトルB~との内積A~・B~を、ベクトルA~の大きさ|A~|とベクトルB~の大きさ|B~|との積|A~||B~|で除算して求められる。角度θ0iの余弦Cosθ0iは以下の式のように表される。
Cosθ0i=A~・B~/(|A~||B~|)
【0093】
角度θ0iの余弦Cosθ0iは、−1≦Cosθ0i≦1を満たす値となり、内積A~・B~は、A~・B~=a*0×a*i+b*0×b*iで求められる。
【0094】
したがって注目画素37の色成分よりも著しく離れた画素とは、前記角度θ0iの余弦Cosθ0iの値が、予め定める閾値THoutよりも小さい、すなわち0<Cosθ0i<THoutを満たす画素である。たとえば閾値THoutの値が1/2(1/2)である場合、角度θ0iの余弦Cosθ0iの値が1/2(1/2)よりも小さい、すなわち角度θ0iが45度よりも大きくなる近傍画素76の色成分が除かれる。
【0095】
色成分を除く他の方法として、上述の色相を求める式θ=tan-1(b*/a*)を用いて、注目画素点37aの色相θ0と近傍画素76aの色相θiとをそれぞれ求めて、|θ0−θi|>45を満たす近傍画素76の色成分を除く方法を用いてもよい。
【0096】
M行N列のマスクにおいて、i行j列にある注目画素(i,j)を中心に属する画素の数をnumとすると、補正をするための目標値となる平均値は、マスクに属する各画素の色成分の総和を、マスクに属する画素の数で除算した値であり、以下のように表される。M,Nは自然数であって、相互に同一であってもよいし、異なってもよい。
【0097】
【数3】
Figure 0003966404
【0098】
ステップd2において、平均値a*_およびb*_が、分布解析部14によって求められてステップd3に進む。
【0099】
ステップd3において、補正された画素の数を表す初期値が0の補正画素数Hに1を与えて、ステップd4に進む。
【0100】
ステップd4において、分布解析部14によって、マスクの平均値a*_とマスクに属する注目画素の色成分a*との差の絶対値が、閾値設定部52に格納される閾値と比較され、前記差の絶対値が閾値以上であると判断される場合、すなわち|a*_−a*|≧THaであると判断される場合、ステップd5に進み、前記差の絶対値が閾値よりも小さいと判断される場合、すなわち|a*_−a*|<THaであると判断される場合、ステップd8に進む。
【0101】
ステップd5において、注目画素の色成分a*およびb*が、マスクの平均値に近づくように補正部15によって補正される。補正後の注目画素の色成分は、補正前の注目画素の色成分に、マスクの平均値と注目画素の色成分との差に予め定める補正の度合いを調整するためのパラメータβを積算した値を加算した値である。パラメータβは、0以上1以下、すなわち0≦β≦1を満たす定数である。パラメータβは、操作者によって予め設定されることを想定するが、たとえば明度L*の値によって、パラメータβの値をリアルタイムに変更させることができ、明度L*の値が小さい場合、すなわち画素が暗い場合は、パラメータβの値を大きくして、平均値にさらに近づくように補正を強くする。補正前の注目画素の色成分をL*(i,j),a*(i,j)およびb*(i,j)と表し、マスクの平均値をL*_(i,j),a*_(i,j)およびb*_(i,j)と表すと、補正後の注目画素の色成分L* correct(i,j),a* correct(i,j)およびb* correct(i,j)は、以下のように表される。
【0102】
【数4】
Figure 0003966404
【0103】
注目画素の明度を示す色成分L*は、補正することによって画像出力時に色文字部分63を自然に再現することができないおそれがあるので、たとえば予め定める複数の補正明度値74であるL*0,L*1,…,L*iによって代表される値に置換えられる。たとえば注目画素の明度を示す色成分がL*(i,j)であって、注目画素の明度を示す色成分L*(i,j)が、予め定める補正明度値L*iに近い場合、注目画素の色成分a*(i,j)およびb*(i,j)は、マスクの平均値に近づくように補正され、明度を示す色成分L*(i,j)は、明度値L*iに置換えられる。注目画素の色成分が変換された後の色成分は、以下のように表される。
【0104】
【数5】
Figure 0003966404
【0105】
各画素の明度を示す色成分は、予め定める明度値だけをもつようになるので、図9に示すように明度を示す色成分の分散が小さくなる。この画素の明度を示す色成分を、予め定める明度値に置換える補正処理は、画像出力装置4の画像出力の性能があまり高くない場合に有効な処理である。画像出力装置4の階調再現性が悪い場合、画像出力装置4の画像の出力特性を予め測定しておき、この出力特性に基づいて、安定して画像出力できるときの濃度値を求めて、それに対応する明度値に置換えるので、再現することが難しい明度値で画像出力するよりも、制御しやすく利点も多い。ステップd5において、注目画素の色成分の補正が終了すると、ステップd6に進む。
【0106】
ステップd6において、補正画素数Hがマスクに属する画像データの数Jに等しいか否か、すなわちマスクに属する色文字部分63の色成分の補正がすべて終了したか否かが、分布解析部14によって判断される。補正画素数Hが画像データの数Jに等しいと判断された場合、ステップd7に進み、そうでない場合、ステップd9に進んで補正画素数に1を加えて、さらにステップd4に進み、マスクに属する画素であって、まだ色成分が補正されていない画素の色成分が補正される。
【0107】
ステップd7において、色文字部分63と判断されたすべての画素について、色成分の補正が終了したか否かを、分布解析部14によって判断され、すべて終了したと判断された場合、ステップd10に進んで色成分の補正処理を終了し、まだ終了していないと判断された場合、ステップd1に進む。
【0108】
ステップd8において、分布解析部14によって、マスクの平均値b*_とマスクに属する注目画素の色成分b*との差の絶対値が、閾値設定部52に格納される閾値と比較され、前記差の絶対値が閾値以上であると判断される場合、すなわち|b*_−b*|≧THbであると判断される場合、ステップd5に進み、前記差の絶対値が閾値よりも小さいと判断される場合、すなわち|b*_−b*|<THbであると判断される場合、ステップd6に進む。
【0109】
本発明の実施の形態によれば、色文字部分63の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。またたとえば色相を示す色成分だけを補正し、色文字部分63の周辺における画像の濃淡の調子を表す階調を保持させることによって、自然な色再現ができるように補正をすることができる。
【0110】
また入力される全体の画像データから、補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0111】
また色文字部分63の色成分を、色文字部分63の色成分の代表値66に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0112】
また色文字部分63の各画素の明度を示す色成分を、予め定める補正明度74に置き換えることによって、明度を示す色成分の分散が小さくなり、画像出力時に原稿に形成される画像を良好に再現することができる補正をすることができる。また明度を示す色成分の分散を小さくすることによって、色文字部分63が、くっきりと再現することができるように補正することができる。また、たとえば画像の濃淡の調子を表す階調の再現性が悪い画像出力装置において、明度を示す色成分を補正明度74に置き換えた画像データを用いて、画像出力するときに原稿に形成される画像を少ない階調数で良好に再現することができる。
【0113】
また入力される画像データに含まれる色文字部分63の色成分の分散が、小さくなるように補正されるので、補正した画像データを用いて、画像出力するときに原稿に形成される画像の再現性を向上させることができる。
【0114】
図13は、本発明の実施の他の形態の画像形成装置における色文字領域64の色成分の分散を近似直線68に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。図14は、近似直線68と観測点69との関係を示す図である。図15は、色文字領域64の色成分を、近似直線68を用いて補正する手順を示すフローチャートである。本実施の形態では、色文字部分63の色成分を、色文字部分63を含む領域の代表値66に近づけるように補正したが、本発明の実施の他の形態として、たとえば色文字部分63および下地部分67によって形成される色文字領域64の分布状態を、近似直線68で近似して、この近似直線68に垂直に近似直線68に近づけるように、色文字領域64に属する画素の色成分を補正する構成にしてもよい。その他の構成は、図1に示す画像形成装置1の構成と同様である。同様の構成については、説明を省略し、同様の参照符号を付す。
【0115】
この画像処理方法では、色文字領域64が、領域分離処理部8によって原稿画像データから抽出されるとともに、色文字領域64に含まれる下地部分67も領域分離処理部8によって抽出される。下地部分67は、たとえば色文字領域64の局所領域であるマスクにおいて、マスク内平均濃度値を用いて、マスクに属する各画素の色成分を二値化する処理をする方法、あるいはクラスタリングの手法を用いて検出される。色文字領域64に属する下地部分67は、領域分離処理部8によって、有彩色および無彩色の判定がなされる。ここでは色文字領域64に属する下地部分67は、有彩色である場合を想定するが、仮に下地部分67が無彩色である場合においても有効である。
【0116】
領域分離処理部8によって抽出される色文字部分63と、色文字領域64に属する下地部分67を任意の色空間、ここでは代表的な均等色空間を用いるL***表色系で表されるL***座標系65に分布させる。検出される下地部分67が有彩色を表す場合、理想的な画像入力装置による色文字部分の色成分と有彩色の下地部分の色成分との分布は、直線状に配置されることが想定されるので、色文字部分63の色成分と下地部分64の色成分とを直線で近似することができる。
【0117】
補正の対象となる画素は、領域分離処理部8によって抽出される色文字部分63および下地部分67に属するので、補正の対象となる画素を(i,j)で表し、色文字部分66の集合をP’で表し、下地部分67の集合をPbackで表すと、(i,j),P’およびPbackの関係は、以下のように示される。
(i,j)∈P’∪ Pback
【0118】
画素(i,j)の色成分が、L***表色系において、L*(i,j),a*(i,j),b*(i,j)であって、(i,j)∈P’∪ Pbackの関係を満たす画素の分布に対して、近似直線68を用いて色成分を補正する。
【0119】
近似直線68は、最小2乗法を用いて求められる。最小2乗法では、ある領域に含まれる注目画素を表す観測点69と、予め定める任意の直線との距離の2乗値を領域のすべての点について求めて、総和をとり、この総和を誤差として、この誤差を最小にすることによって近似直線68が求められる。L***座標系65において、色文字部分63および下地部分67の集合に含まれるある画素の色成分、すなわち座標が(L*(i,j),a*(i,j),b*(i,j))で表されるとすると、以下の誤差εを最小にすることによって近似直線68を求める。
【0120】
【数6】
Figure 0003966404
【0121】
最小2乗法を用いて求められる近似直線68は、ベクトルで表される場合、2つのベクトル、すなわち近似直線68上のある1点の位置ベクトルと、近似直線68の方向ベクトルとが与えられれば決定することができる。L***座標系65において、近似直線68上のある1点の位置ベクトルをA~=(L*,a*,b*)で表し、方向ベクトルをB~=(b1,b2,b3)で表し、近似直線68上の点の位置ベクトルX~は、任意の定数であるパラメータtと方向ベクトルとの積に、ある1点の位置ベクトルを加算して求められ、以下の式のように表せる。
【0122】
【数7】
Figure 0003966404
【0123】
観測点69の位置ベクトルをC~=(L*(i,j),a*(i,j),b*(i,j))で表すと、この観測点69と近似直線68との距離の2乗値を求めた場合、距離の2乗値は、パラメータtの関数と考えることができるので、パラメータtの関数が最も最小値をとるとき観測点69と近似直線68との距離が最も小さくなる。パラメータtの関数は、観測点69と近似直線68との距離の2乗値を変形して、以下のように表される。
【0124】
【数8】
Figure 0003966404
【0125】
したがってt=−B~・(A~−C~)/|B~|2であるときに距離が最小となる。ただし、|B~|は方向ベクトルの大きさを表す。t=−B~・(A~−C~)/|B~|2であるときの観測点69と近似直線68との距離は、(−B~・(A~−C~)/|B~|2)+|A~−C~|2で表される。観測点69と近似直線68との距離が最小となるとき、近似直線68と、観測点69を通り、近似直線68に垂直に交わる垂線との交点70の位置ベクトルは、t=−B~・(A~−C~)/|B~|2を用いて求めることができる。
【0126】
図14に示すように、観測点69の座標を(L*(i,j),a*(i,j),b*(i,j))で表し、前述のようにして求められる近似直線68に観測点69から下ろした垂線との交点70の座標を、(L*’(i,j),a*’(i,j),b*’(i,j))で表すと、観測点69と交点70とを結ぶ垂線71は、近似直線68に垂直に交わる。
【0127】
文字領域64の色成分の補正処理は、文字領域64に属する画素の色成分を近似直線68に垂直に近似直線68に近づける、すなわち観測点69を交点70に近づけるように補正する処理であって、色文字領域64の画素に対して補正処理する。ただし補正の対象となる画素を表す点と近似直線68との距離Lが、閾値設定部52に格納される閾値THcと比較され、L≧THcを満たす画素だけに対して、色成分が補正される。
【0128】
補正後の注目画素の色成分は、交点70の色成分と補正前の注目画素の色成分との差に、補正の度合いを調整するパラメータγを積算した値を、補正前の注目画素の色成分に加算して求められる。パラメータγは、0≦γ≦1を満たす定数である。補正後の注目画素の色成分が、(L* correct(i,j),a* correct(i,j),b* correct(i,j))で表されるとすると、以下のように求められる。
【0129】
【数9】
Figure 0003966404
【0130】
色文字領域64の色成分を補正する手順を示す。ステップe0において、領域分離処理部8によって、色文字領域が抽出されるとともに、色文字部分63および下地部分67が抽出されて、ステップe1に進む。
【0131】
ステップe1において、分布解析部14によって、色文字領域64のうち注目画素を中心とするM行N列、すなわちM×Nのマスクの色文字部分63および下地部分67を表す画素の色成分の分布状態が求められる、すなわちL***座標系65における各画素の座標が求められて、ステップe2に進む。
【0132】
ステップe2において、分布解析部14によって、色文字部分63の色成分だけでなく、下地部分67の色成分を表す画像データを用いて、分布状態を近似する近似直線68が前述のように求められて、ステップe3に進む。
【0133】
ステップe3において、分布解析部14によって、各画像データについて、近似直線68に下した垂線71の距離Lがそれぞれ求められて、ステップe4に進む。ステップe4において、初期値が0の補正画素数Hに1を与えて、ステップe5に進む。
【0134】
ステップe5において、分布解析部14によって、近似直線68と補正の対象となる画素を表す点との距離Lが、閾値THc以上であるか否かを判断して、距離Lが閾値以上であると判断された場合、ステップe6に進み、距離Lが閾値よりも小さいと判断された場合、ステップe7に進む。
【0135】
ステップe6において、補正部15によって、前述のように補正の対象となる画素の色成分を、近似直線68に垂直に近似直線68に近づけるように補正して、ステップe7に進む。
【0136】
ステップe7において、補正画素数Hがマスクに属する画像データの数Jに等しいか否か、すなわちマスクに属する色文字部分63の色成分の補正がすべて終了したか否かが、分布解析部14によって判断される。補正画素数Hが画像データの数Jに等しいと判断された場合、ステップe8に進み、そうでない場合、ステップe9に進んで補正画素数Hに1を加えて、さらにステップe5に進み、マスクに属する画素であって、まだ色成分が補正されていない画素において、距離Lが閾値以上であるか否かを、分布解析部14によって判断される。
【0137】
ステップe8において、分布解析部14によって、色文字領域64に属するすべての画素について、色成分の補正が終了したか否かが判断され、色成分の補正が終了したと判断された場合、ステップe10に進んで色成分の補正を終了し、色成分の補正がまだ終了していないと判断された場合、ステップe1に進む。
【0138】
また本発明の実施の他の形態において、色文字領域64の各画素の各色成分が、近似直線68に垂直に近似直線68に近づくように補正されることによって、色文字部分63だけでなく、色文字部分63を含む色文字領域64全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0139】
図16は、本発明の実施の他の形態の画像形成装置における色文字部分63の色成分を、等明度直線72を用いて補正するときのイメージを示す第2表色系の色空間を示すグラフである。図17は、色文字部分63の色成分を、等明度直線72を用いて補正する手順を示すフローチャートである。本実施の形態では、色文字部分63の色成分を、代表値66の画素の点と、この代表値66の明度と同一の明度軸上の点とを結ぶ等明度直線72に垂直に等明度直線72に近づけるように補正される。図1〜図15に示す画像形成装置1の構成と同様の構成については、同様の符号を付して説明を省略する。
【0140】
色文字部分63である注目画素(i,j)の色成分を表す点Pが、{L*(i,j),a*(i,j),b*(i,j)}で表され、注目画素を中心とするM×N個の画素を含むマスクの代表値、たとえば平均値を表す点Qが{L*_(i,j),a*_(i,j),b*_(i,j)}で表され、補正後の注目画素の色成分を表す点P’が{L* correct(i,j),a* correct(i,j),b* correct(i,j)}で表されるとする。注目画素の色成分の補正処理は、マスクの平均値を表す点Q{L*_(i,j),a*_(i,j),b*_(i,j)}と、明度値が同一な無彩色点Q’{L*_(i,j),0,0}とを結ぶ等明度直線72に、注目画素を表す点を、垂直に等明度直線72に近づけるように、補正部14によって補正される。
【0141】
***座標系65において、注目画素の色成分を表す点と、平均値を表す点と、補正後の注目画素の色成分を表す点と、無彩色点とをベクトル量で考える。注目画素の色成分を表す点の位置ベクトルは、{L*(i,j),a*(i,j),b*(i,j)}で表され、平均値を表す点の位置ベクトルは、{L*_(i,j),a*_(i,j),b*_(i,j)}で表され、補正後の注目画素の色成分を表す点の位置ベクトルは、{L* correct(i,j),a* correct(i,j),b* correct(i,j)}で表され、無彩色点の位置ベクトルは、{L*_(i,j),0,0}で表される。各点P,P’,QおよびQ’において、ベクトルPP’_およびベクトルQQ’ _の内積は、零になり、以下のように表せる。
【0142】
【数10】
Figure 0003966404
【0143】
補正後の注目画素の色成分を表す点P’を求める方法は、たとえば前述のように直線と点との距離に基づいて、直線に垂直に交わる点を検出して求める方法と、ベクトルの直交条件を用いる方法とがある。等明度直線72に垂直に等明度直線72に近づけるように、色成分を補正する場合においても、補正の対象となる画素を表す点から等明度直線72までの距離L’を、閾値設定部52に格納される閾値THdと比較し、L’≧THdを満たすすべての色文字部分63に対して色成分が補正される。
【0144】
たとえば補正の度合いを調整するパラメータδを用いる場合、2点QおよびQ’を通る直線と、2点PおよびP’を通る直線との交点をP”で表すと、点P’の位置ベクトルは、点Pの位置ベクトルと、ベクトルPP’~にパラメータδを積算して求められるベクトルとを加算したベクトルであって、以下のように表せる。
【0145】
【数11】
Figure 0003966404
【0146】
補正対象画像部分の色成分を、等明度直線72に垂直に等明度直線72に近づけるように補正する方法は、近似直線68に垂直に近似直線68に近づけるように補正する方法に比べて若干、計算量が増加するだけで同様の効果を得ることができる。
【0147】
色文字部分63の各画素の色成分を、等明度直線72に垂直に等明度直線72に近づけるように補正する手順を示す。ステップf0において、領域分離処理部8によって、原稿画像から色文字部分63が抽出されて、ステップf1に進む。
【0148】
ステップf1において、色文字部分63のある画素を注目画素とし、その注目画素を中心とするM×N個の画素を含むマスクの分布状態が、分布解析部14によって求められる、すなわちマスクに属する各画素のL***座標系65における座標が求められて、ステップf2に進む。
【0149】
ステップf2において、明度L*および色度a*・b*を示す色成分の分布状態が、分布解析部14によって解析され、その分布状態において、色成分が著しく離れた色文字部分63の画像データを除き、マスクの平均値を求めて、ステップf3に進む。
【0150】
ステップf3において、分布解析部14によって、明度の平均値と同一の明度値をもつ無彩色点が求められるとともに、等明度直線72を求めて、ステップf4に進む。
【0151】
ステップf4において、分布解析部14によって、色文字部分63の各画素と等明度直線72との距離L’をそれぞれ求めて、ステップf5に進む。ステップf5において、初期値0の補正画像数Hに1を与えて、ステップf6に進む。
【0152】
ステップf6において、分布解析部14によって、補正の対象となる画素における距離L’が閾値Thd以上であるか否かを判断され、距離L’が閾値Thd以上であると判断されると、ステップf7に進み、距離L’が閾値Thdよりも小さいと判断されると、ステップf8に進む。
【0153】
ステップf7において、前述のように補正の対象となる画素の色成分を、等明度直線72に垂直に等明度直線72に近づけるように、補正手段15によって補正されて、ステップf8に進む。
【0154】
ステップf8において、補正画素数Hがマスクに属する画像データの数Jに等しいか否か、すなわちマスクに属する色文字部分63の色成分の補正がすべて終了したか否かが、分布解析部14によって判断される。補正画素数Hが画像データの数Jに等しいと判断された場合、ステップf9に進み、そうでない場合、ステップf10に進んで補正画素数Hに1を加えて、さらにステップf6に進み、マスクに属する画素であって、まだ色成分が補正されていない画素において、距離L’が閾値以上であるか否かを、分布解析部14によって判断される。
【0155】
ステップf9において、色文字部分63であるすべての画素の色成分の補正が終了したか否かを分布解析部14によって判断され、すべての画素の色成分の補正が終了したと判断された場合、ステップf11に進んですべての手順を終了し、すべての画素の色成分の補正がまだ終了していないと判断された場合、ステップf1に進む。このような本実施の形態においても図1〜図15に示す実施の形態と同様の効果が得られる。
【0156】
また本発明の実施の他の形態において色文字部分63の各画素の色成分が、等明度直線72に垂直に等明度直線72に近づくように補正されることによって、彩度を示す色成分の分散の状態を、補正前とほぼ同じ状態に保ったまま、色相を示す色成分の分散が小さくなるように補正することができるので、原稿に形成される画像を再現する場合に違和感が生じないように、色文字部分63の色成分が補正され、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0157】
前述の実施の形態は、本発明の例示にすぎず、本発明の範囲内において、構成を変更することができる。たとえば色補正部9を色文字補正処理部25だけで構成し、領域分離処理部8によって抽出される網点および写真領域については、分布解析部14および補正部15における処理をせずに、第1の色空間変換部51によって、与えられた画像データをL***表色系で表される画像データに変換し、予め用意されるL***表色系における色変換テーブルに基づいて、画像データの色成分を補正して、第2の色空間変換部53において、シアン、マゼンタおよびイエローで表される画像データに変換する構成にしてもよい。
【0158】
【発明の効果】
以上のように本発明によれば、文字部分の色成分の分散が小さくなるように補正される。これによって、たとえば原稿に形成される画像を読取るときなどの画像入力時に色成分のばらつきが生じても、この色成分のばらつきを含む画像データを、色成分のばらつきを小さくした画像データに補正し、画像出力時に原稿に形成される画像の再現性を向上させることができる。また文字部分の色相を示す色成分だけを補正し、文字部分周辺における画像の濃淡の調子を表す階調を保持させることによって、自然な色再現ができるように補正をすることができる。
【0159】
また本発明によれば、入力される全体の画像データから、補正の対象となる画像部分だけを抽出し、処理が必要な部分だけ画像処理され、画像処理に要する計算量を小さくすることができる。
【0160】
また本発明によれば、文字部分の色成分を、文字部分の色成分の代表値、すなわち文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均に近づける補正をすることによって、各画素における色成分の補正後の値を求めるための計算量を抑えて、各画素の色成分の分散を容易に小さくすることができるとともに、各画素の色成分の補正量を小さく抑えることができ、原稿に形成される画像を忠実に再現できるように画像データを補正することができる。また各画素の補正の方向のばらつきを小さく抑えることができ、自然な色再現ができるように再現性をさらに向上できる補正をすることができる。
【0161】
また本発明によれば、文字領域の各画素の各色成分が、近似直線に垂直に近似直線に近づくように補正されることによって、文字部分だけでなく、文字部分を含む文字領域全体における色成分の分散を小さくすることができるので、原稿に形成される画像をさらに忠実に再現することができるように画像データを補正することができる。
【0162】
また本発明によれば、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えることによって、明度を示す色成分の分散が小さくなり、画像出力時に原稿に形成される画像を良好に再現することができる補正をすることができる。また明度を示す色成分の分散を小さくすることによって、文字部分が、くっきりと再現することができるように補正することができる。また、たとえば画像の濃淡の調子を表す階調の再現性が悪い画像出力装置において、明度を示す色成分を補正明度に置き換えた画像データを用いて、画像出力するときに原稿に形成される画像を少ない階調数で良好に再現することができる
【0163】
また本発明によれば、文字部分の各画素の色成分が、等明度直線に垂直に等明度直線に近づくように補正されることによって、彩度を示す色成分の分散の状態を、補正前とほぼ同じ状態に保ったまま、色相を示す色成分の分散が小さくなるように補正することができるので、原稿に形成される画像を再現する場合に違和感が生じないように、文字部分の色成分が補正され、原稿に形成される画像の再現性を向上させることができる画像データに補正することができる。
【0164】
また本発明によれば、入力される画像データに含まれる文字部分の色成分の分散が、小さくなるように補正されるので、補正した画像データを用いて、画像出力するときに原稿に形成される画像の再現性を向上させることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像処理装置3を含む画像形成装置1の構成を示すブロック図である。
【図2】領域分離処理部8および色補正部9の構成を示すブロック図である。
【図3】領域分離処理部8に含まれるエッジ判定部22の構成を示すブロック図である。
【図4】エッジ部検出用のマスクおよびフィルタを示す図であって、図4(1)は、エッジ検出用のマスクを示し、図4(2)は、主走査方向のゾーベルフィルタ40を示し、図4(3)は、副走査方向のゾーベルフィルタ41を示す。
【図5】有彩色および無彩色の判定に用いられる閾値を説明する図である。
【図6】色文字補正処理部25の構成を示すブロック図である。
【図7】文字部分61の色成分の分散を小さくするように補正するときのイメージを示す第1表色系の色空間を示すグラフである。
【図8】色文字部分63の色成分の分散を代表値に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図9】明度を示す色成分を補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図10】色文字部分63の色成分の分散を、代表値66に近づけるように補正する手順を示すフローチャートである。
【図11】注目画素37を中心とする3×3マスク75を示す図である。
【図12】注目画素37と3×3マスク75内の注目画素37を除く他の画素との色相の関係を示す図である。
【図13】本発明の実施の他の形態の画像形成装置における色文字領域64の色成分の分散を近似直線68に近づけるように補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図14】近似直線68と観測点69との関係を示す図である。
【図15】色文字領域64の色成分を、近似直線68を用いて補正する手順を示すフローチャートである。
【図16】本発明の実施の他の形態の画像形態装置における色文字部分63の色成分を、等明度直線72を用いて補正するときのイメージを示す第2表色系の色空間を示すグラフである。
【図17】色文字部分63の色成分を、等明度直線72を用いて補正する手順を示すフローチャートである。
【符号の説明】
1 画像形成装置
3 画像処理装置
8 領域分離処理部
9 色補正部
14 分布解析部
15 補正部
63 色文字部分
64 色文字領域
66 代表値
68 近似直線
72 等明度直線
74 補正明度[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, an image processing apparatus, and an image forming apparatus that improve the reproducibility of a color character area included in image data read by a color image input apparatus such as a scanner.
[0002]
[Prior art]
An image input device that reads an image formed on a document, such as a digital scanner and a digital still camera, stores color information about tristimulus values red R, green G, and blue B from a document image by a charge coupled device (abbreviation). Obtained by a solid-state imaging device such as a CCD) image sensor, the color information of tristimulus values is converted from an analog signal to a digital signal, respectively, and given as input image data representing a document image to an image processing apparatus.
[0003]
In a conventional image processing apparatus, character areas, halftone dot areas, and photo areas included in input image data are identified in local units based on color information, and image quality is improved according to the characteristics of each area. By changing the processing, the reproducibility of the document image is improved. In particular, in an image processing apparatus that can identify a character region, a detection result of an edge portion showing a steep density change in input image data, and tristimulus values obtained by reversing the tristimulus values Red R, Green G, and Blue B in complementary colors. A character area is extracted based on hue information when the difference between the minimum value and the maximum value of the density values of cyan C, magenta M, and yellow Y is maximized. Then, correction processing such as emphasis processing is performed on the extracted character area to correct the image data so that the reproducibility of the character area can be enhanced at the time of output. Further, these image processing apparatuses apply gray α × {min (C, M, Y)} obtained by multiplying min (C, M, Y) indicating the minimum value among cyan C, magenta M, and yellow Y by a coefficient α. Considering this as a component, under color removal (abbreviated as UCR) for removing the gray component is performed, and black K corresponding to the gray component from which the under color is removed is added. As a result, the reproducibility of black characters can be improved, and image data can be obtained that can prevent color blurring caused by the displacement of each color. When the character area is identified as a black character area, the color component is a character area including a chromatic color character by performing correction processing so that the color components of cyan C, magenta M, and yellow Y are completely removed and represented by only black K If the region is identified, on the contrary, correction processing is performed so as to represent an image using only the three color materials cyan C, magenta M, and yellow Y without using black K.
[0004]
For example, in the image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 1-264847, edge portions and hues are detected from input image data based on density values of color components, and colors are detected based on the detection results of the hues. The color component of the character area can be corrected. Based on the detection result of the hue, when the edge portion is determined to be chromatic, the color component of the color character area is compared with the threshold value, and if it is determined that the color component is an unnecessary color component, the saturation of the color component is Unnecessary color components that become low and cause color turbidity are eliminated, and if the necessary color components are determined, the necessary color components are emphasized. As a result, the color component of the color character region is corrected so that the saturation of the color component of the color character region is increased. For example, when a character having a color classified as red is formed on a document image, the cyan C color component that is an unnecessary color component is deleted, and the yellow Y color component that is a necessary color component is emphasized. As a result, the turbidity of the color caused by the decrease in saturation is removed, thereby improving the reproducibility.
[0005]
[Problems to be solved by the invention]
In these image processing apparatuses of the prior art, in the correction of the color components of the color character area in the input image data, pure colors represented by the tristimulus values cyan C, magenta M, and yellow Y color components, that is, chroma Correct the color so that it approaches the highest pure color. Thus, when correcting the color component of the color character region so as to be close to a pure color, it is premised that the color character existing in the document image is formed with a pure color. However, as methods for forming color characters using various color materials have been established, there are increasing opportunities for color characters existing in a document image to be formed with intermediate colors. Therefore, in the image processing method in these image processing apparatuses, the color component of the color character area is corrected so that the actual intermediate color of the original image is close to a pure color, so that the color character of the original image is faithfully reproduced at the time of image output. I can't.
[0006]
Further, in the image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 1-264847, unnecessary color components in the color character area are erased and the necessary color components are emphasized, so that the color of the color character area is more pure red R, It approaches the primary and secondary colors of green G, blue B, cyan C, magenta M, yellow Y, black K and white W. As described above, since the color component of the input image data is not corrected so as to approach the color component of the original document image, the color characters of the document image cannot be faithfully reproduced. In addition, if the color component of the color character area cannot be detected well, and if noise is mixed in the color character area, there is a rare problem that noise is emphasized. For example, when noise is mixed in the color character area, if the color component of the color character area having a color classified as red is different from the color component of one pixel corresponding to the noise, the color component of the pixel corresponding to the noise is the color character. Since the correction is performed so as to approach a pure color different from the corrected color of the region, the color is different from that of the red system. This can cause noise to be erroneously emphasized.
[0007]
Therefore, an object of the present invention is to provide an image processing method, an image processing apparatus, and an image forming apparatus that can faithfully reproduce the color of a character area when outputting an image.
[0008]
[Means for Solving the Problems]
  The present invention is represented by a plurality of color componentsletterIncluding partletterFor area image data,letterAnalyzing the distribution of each color componentThe average of the color components indicating the hues belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is obtained.Analysis process
  In order to adjust the degree of correction predetermined for the difference between the average and the color component of the target pixel to the color component representing the hue of the target pixel so that the color component indicating the hue of each pixel of the character portion approaches the average Add the value obtained by integrating the parameters β (constants satisfying 0 ≦ parameter β ≦ 1)A correction process for correctingIt is characterized byThis is an image processing method.
[0009]
  According to the present invention, in the analysis step, for the image data,letterThe distribution state of each color component of the part is analyzed. In the correction process, based on the analysis result in the analysis process,letterCorrection is made so that the dispersion of the color components of the portion becomes small. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved.
  In the analysis step, an average of the color components indicating the hues belonging to the mask of M rows and N columns centering on the target pixel included in the character portion is obtained, and in the correction step, the color components indicating the hue of each pixel in the character portion are obtained. The correction is made so as to approach the average of the color components obtained in the analysis step. In this way, by correcting the color components so as to approximate the average of the color components, the amount of calculation for obtaining the corrected value of the color components in each pixel can be suppressed, and the dispersion of the color components of each pixel can be easily reduced. At the same time, the correction amount of the color component of each pixel can be kept small, and the image data can be corrected so that the image formed on the original can be faithfully reproduced. Further, variation in the correction direction for each pixel can be suppressed to a small value, and correction that can further improve reproducibility can be performed so that natural color reproduction can be performed.
[0010]
  The present invention also provides a distribution state of each color component of a character portion with respect to image data of a character region including a character portion represented by a plurality of color components, in spatial coordinates having lightness, saturation and hue as three axes. Represent, characterFor all points in the regionFind the square value of the distance to a predetermined straight lineThe character part and the base partAn analysis step for obtaining an approximate straight line that approximates the distribution state by taking the sum, taking the sum as an error, and minimizing the error;
  In order to bring the color component of each pixel in the character area close to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. And a correction step of correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to the difference from the color component of the pixel. It is.
[0011]
  According to the present invention,In the analysis step, the distribution state of each color component in the character area is represented by spatial coordinates having lightness, saturation, and hue as three axes, and an approximate straight line that approximates the distribution state is obtained. In the correction step, each pixel in the character area Are corrected so as to approach the approximate line perpendicular to the approximate line. Therefore, it is possible to reduce the dispersion of color components not only in the character portion but also in the entire character area including the character portion, so that the image data is corrected so that the image formed on the document can be reproduced more faithfully.can do.
[0012]
  The present invention also providesFor image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having lightness, saturation, and hue as three axes. The distribution state of the color component indicating the hue is obtained, and the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is the same as the brightness of this pixel. An analysis process for obtaining a straight line of lightness connecting points on the lightness axis of the lightness;
  The color component of each pixel of the character part is set to an iso-lightness line perpendicular to the iso-lightness lineCorrect to get closer toCorrection processIt is characterized byImage processing method.
[0013]
  According to the present invention, in the analysis step,The hues belonging to the mask of M rows and N columns centering on the pixel of interest included in the character part are shown using a spatial coordinate system having three axes of lightness, saturation and hue representing the distribution state of each color component of the character part. An equal lightness straight line connecting the average pixel point of the color component and a point on the same lightness axis as the lightness of this pixel is obtained, and in the correction process, the color component of each pixel in the character portion is converted to an equal lightness straight line. Since the correction is made so that the straight line approaches the straightness line, the dispersion state of the color component indicating the saturation is kept the same as before the correction, and the dispersion of the color component indicating the hue is reduced. It can be corrected. Therefore, the color component of the character portion is corrected so that a sense of incongruity does not occur when the image formed on the document is reproduced, so that the image data can be improved to improve the reproducibility of the image formed on the document.can do.
[0014]
  The present invention also provides an analysis process.An extraction process for extracting a character area including a character portion from input image data.It is characterized by doing.
[0015]
  According to the present invention,A character region including a character portion is extracted from the entire input image data by an extraction process. As a result, only the image portion to be corrected is extracted, and only the portion that needs to be processed is processed, reducing the amount of calculation required for the image processing.can do.
[0016]
  In the present invention, the correction step includesletterThe color component indicating the brightness of each pixel in the portion is corrected so as to be replaced with a predetermined corrected brightness.
[0017]
  According to the present invention, in the correction step,letterThe color component indicating the brightness of each pixel in the portion is replaced with a predetermined corrected brightness. Accordingly, since the color component indicating the brightness of each pixel has only a predetermined value, the dispersion of the brightness is reduced, and correction can be performed so that good reproducibility of the image formed on the document can be obtained.
[0018]
  The present invention also providesFor the image data of the character area including the character portion represented by a plurality of color components, the distribution state of the color component indicating the hue of the character portion is analyzed, and M rows N centering on the target pixel included in the character portion. An analysis means for obtaining an average of color components indicating hues belonging to the mask of the column;
  In order to adjust the degree of correction predetermined for the difference between the average and the color component of the pixel of interest to the color component representing the hue of the pixel of interest so that the color component indicating the hue of each pixel of the character portion approaches the average Correction means for adding and correcting a value obtained by integrating the parameter β (a constant satisfying 0 ≦ parameter β ≦ 1)It is characterized byIt is an image processing device.
[0019]
  According to the present invention, the analysisIn the means, the distribution state of each color component of the character portion is analyzed with respect to the image data. In the correcting means, correction is made so that the dispersion of the color component of the character portion becomes small based on the analysis result in the analyzing step. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved.
  In the analyzing means, an average of the color components indicating the hues belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is obtained, and in the correcting means, the color components indicating the hue of each pixel in the character portion are obtained. The correction is made so as to approach the average of the color components obtained by the analyzing means. In this way, by correcting the color components so as to approximate the average of the color components, the amount of calculation for obtaining the corrected value of the color components in each pixel can be suppressed, and the dispersion of the color components of each pixel can be easily reduced. At the same time, the correction amount of the color component of each pixel can be kept small, and the image data can be corrected so that the image formed on the original can be faithfully reproduced. In addition, it is possible to minimize the variation in the correction direction for each pixel, and to improve the reproducibility so that natural color reproduction is possible.can do.
[0020]
  The present invention also provides a distribution state of each color component of a character portion with respect to image data of a character region including a character portion represented by a plurality of color components, in spatial coordinates having lightness, saturation and hue as three axes. Represent, characterFor all points in the regionFind the square value of the distance to a predetermined straight lineThe character part and the base partAnalyzing means for obtaining an approximate straight line that approximates the distribution state by taking the sum and taking the sum as an error and minimizing the error;
  In order to bring the color component of each pixel in the character area close to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. An image processing apparatus comprising: correction means for correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to a difference from a color component of a pixel It is.
[0021]
  According to the present invention,In the analyzing means, the distribution state of each color component in the character area is represented by spatial coordinates having lightness, saturation and hue as three axes, and an approximate straight line approximating the distribution state is obtained, and in the correcting means, each pixel in the character area Are corrected so as to approach the approximate line perpendicular to the approximate line. Accordingly, since the dispersion of color components not only in the character portion but also in the entire character area including the character portion can be reduced, the image data is corrected so that the image formed on the original can be reproduced more faithfully.Can.
[0022]
  The present invention also providesFor image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having lightness, saturation, and hue as three axes. The dispersion state of the color component indicating the hue is obtained, the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centering on the target pixel, and the lightness axis of the same lightness as the lightness of this pixel An analysis means for obtaining an isoluminance straight line connecting the points of
  Correction means for correcting the color component of each pixel of the character portion so as to be close to the iso-lightness line perpendicular to the iso-lightness lineIt is characterized byIt is an image processing device.
[0023]
  According to the present invention,The analysis means uses a spatial coordinate system having lightness, saturation, and hue as three axes representing the distribution state of each color component in the character part to form a mask of M rows and N columns centered on the pixel of interest included in the character part. An equal lightness straight line connecting the average pixel point of the color component indicating the hue to which it belongs and a point on the same lightness axis as the lightness of this pixel is obtained, and in the correcting means, the color component of each pixel of the character portion is Since the correction is made so as to approach the isoluminance line perpendicular to the isoluminance line, the dispersion of the color component indicating the hue is maintained while the dispersion state of the color component indicating the saturation is maintained substantially the same as before the correction. Correction can be made so as to decrease. Therefore, the color component of the character portion is corrected so that a sense of incongruity does not occur when the image formed on the document is reproduced, so that the image data can be improved to improve the reproducibility of the image formed on the document.can do.
[0024]
  The present invention also providesHas extraction means to extract character area including character part from input image dataIt is characterized by doing.
[0025]
  According to the present invention,A character area including a character portion is extracted from the entire input image data by the extracting means. As a result, only the image portion to be corrected is extracted, and only the portion that needs to be processed is processed, reducing the amount of calculation required for the image processing.can do.
[0028]
  In the present invention, the correcting means isletterThe color component indicating the brightness of each pixel in the portion is corrected so as to be replaced with a predetermined corrected brightness.
[0029]
  According to the present invention,letterThe color component indicating the brightness of each pixel in the portion is replaced with a corrected brightness determined in advance by the correcting means. Accordingly, since the color component indicating the brightness of each pixel has only a predetermined value, the dispersion of the brightness is reduced, and correction can be performed so that good reproducibility of the image formed on the document can be obtained.
[0032]
In addition, the present invention is an image forming apparatus including the image processing apparatus.
[0033]
  According to the present invention, from input image dataletterIncluding partletterThe region is extracted by the extraction means,letterThe distribution state of the color component of the part is analyzed by the analyzing means. Based on the analysis result of the analysis means,letterThe correction means corrects the variance of the color components of the portion so as to be small. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved.
[0034]
DETAILED DESCRIPTION OF THE INVENTION
In this specification, a variable character written with a right-pointing arrow added to a character described in a mathematical formula indicates a vector, and is described with `` ~ '' after the same character in a sentence. The variable character described with the upper score added to the character described in the mathematical formula indicates an average value, and is described by adding “_” after the same character.
[0035]
FIG. 1 is a block diagram showing a configuration of an image forming apparatus 1 including an image processing apparatus 3 according to an embodiment of the present invention. The image forming apparatus 1 is an apparatus for forming an image on a recording material including a recording sheet made of paper and a material other than paper, and includes an image input device 2, an image processing device 3, and an image output device 4. Consists of including.
[0036]
The image input device 2 is a device for reading an image formed on a document, and includes a scanner unit including a solid-state imaging device, for example, an image sensor using a storage charge coupled device (abbreviated as CCD). Composed. The image input device 2 irradiates the original with white light from the light source, and changes the color of reflected light from the original, that is, the wavelength and intensity, to a plurality of pixels arranged in the main scanning direction and the sub-scanning direction by the CCD image sensor. The original image is read by dividing it, the original image is read, and original image data representing the original image by the color and intensity of each pixel is given to the image processing device 3 by an electric signal.
[0037]
The document image data is represented by numerical values corresponding to the densities of the three color components red, green and blue, and is given to the image processing device 3 as red R ′, green G ′ and blue B ′ signals. The red R ′ signal is an electrical signal that represents the reflectance of red light from the original in an analog manner for each pixel. The green G ′ signal is an electrical signal that represents the reflectance of green light from the original in an analog manner for each pixel. The blue B ′ signal is an electrical signal that represents the reflectance of blue light from the document in an analog manner for each pixel.
[0038]
The image processing apparatus 3 is an apparatus for performing image processing for correcting given image data so that the reproducibility of a document image can be improved during image output. The image processing apparatus 3 includes an analog / digital conversion unit (hereinafter referred to as an A / D conversion unit) 5, a shading correction unit 6, an input tone correction unit 7, a region separation processing unit 8, a color correction unit 9, and a black generation lower color. It includes a removal unit 10, a spatial filter processing unit 11, an output tone correction unit 12, and a tone reproduction processing unit 13.
[0039]
The A / D converter 5 converts an applied analog signal into a digital signal. The A / D conversion unit 5 is a digital signal that represents the red R ′ signal, the green G ′ signal, and the blue B ′ signal, which are analog signals, digitally representing the reflectance of red light, green light, and blue light for each pixel. The signals are converted into a certain red R signal, green G signal, and blue B signal. The A / D conversion unit 5 gives the red R signal, the green G signal, and the blue B signal to the shading correction unit 6.
[0040]
The shading correction unit 6 performs processing for removing distortion components included in data represented by the red R signal, the green G signal, and the blue B signal. The shading correction unit 6 performs processing for removing various distortion components generated in the illumination system, the imaging optical system, and the imaging system (image receiving system) of the image input device 2 from the red R signal, the green G signal, and the blue B signal. Then, the processed red R signal, green G signal and blue B signal are supplied to the input tone correction unit 7.
[0041]
The input tone correction unit 7 adjusts the color balance of the data represented by the given signal, and at the same time converts it into a data signal that is easy to handle when performing image processing. The input tone correction unit 7 corrects the reflectance values of the red R signal, the green G signal, and the blue B signal from the shading correction unit 6 so as to adjust the color balance based on the red R signal, the green G signal, and the blue B signal. Is converted into a signal representing the density value of each color component of red, green and blue. Thereafter, the input tone correction unit 7 expresses the signal of each pixel represented by the density values of red, green, and blue as density values of cyan, magenta, and yellow, which are the other three color components that have been subjected to complementary color inversion. The signal is converted into a cyan C ′ signal that digitally represents the cyan density of each pixel, a magenta M ′ signal that digitally represents the magenta density of each pixel, and a yellow Y ′ signal that digitally represents the yellow density of each pixel. To the region separation processing unit 8. The cyan C ′ signal, the magenta M ′ signal, and the yellow Y ′ signal are digital signals representing a document image. Hereinafter, the cyan C ′ signal may be referred to as “C ′ signal”, the magenta M ′ signal as “M ′ signal”, and the yellow Y ′ signal as “Y ′ signal”.
[0042]
The region separation processing unit 8 is an extraction unit that extracts a correction target image region including a correction target image portion to be corrected from the entire original image represented by the given image data. The region separation processing unit 8 converts each pixel of the document image represented by the document image data based on the C ′ signal, the M ′ signal, and the Y ′ signal from the input tone correction unit 7 into a plurality of image region components. As a result, the correction target image area is extracted. In the present embodiment, the image area is a character area representing a character, a halftone dot area representing an image with halftone dots, and a photograph area representing a photograph. The region image processing unit 8 gives the C ′ signal, M ′ signal, and Y ′ signal from the input tone correction unit 7 to the color correction unit 9 as they are, and based on the region separation result, to which image region each pixel is located. An area identification signal indicating whether the image belongs to the color correction unit 9, the black generation and under color removal unit 10, the spatial filter processing unit 11, and the gradation reproduction processing unit 13 is given.
[0043]
The color correction unit 9 converts the unnecessary absorption components contained in the cyan, magenta, and yellow color materials used at the time of image output into cyan, magenta, and yellow so that the reproducibility of the original image can be improved at the time of image output. A process of removing color turbidity is performed based on the spectral characteristics of each color material. The color correction unit 9 is an image region to be corrected by the color correction unit 9 that is one of the plurality of image regions, and includes a correction target image portion represented by each of the color components. Correct the color of the area. In the present embodiment, the correction target image region is a character region, and the correction target image portion is a character portion. The color correction unit 9 is based on the analysis result of the distribution analysis unit 14 that is an analysis unit that analyzes at least the distribution state of each color component of the correction target image portion with respect to the image data of the correction target image region, and the analysis result of the analysis unit 14. The correction unit 15 is a correction unit that corrects the dispersion of the color components of the correction target image portion to be small.
[0044]
When the C ′ signal, the M ′ signal, the Y ′ signal, and the region identification signal are given to the color correction unit 9 by the region separation processing unit 8, the correction target image portion is based on the region identification signal from the region separation processing unit 8. The distribution state of each color component is analyzed by the distribution analysis unit 14. Based on the analysis result of the distribution analysis unit 14, the correction unit 15 corrects the variance of each color component in the correction target image portion so as to be small. The color correction unit 9 gives a C ″ signal, an M ″ signal, and a Y ″ signal representing the corrected color components to the black generation and under color removal unit 10.
[0045]
Based on the density values of the cyan, magenta and yellow color components given, the black generation and under color removal unit 10 generates black and generates black from the cyan, magenta and yellow color components. Under color removal (abbreviated as UCR) processing is performed to obtain new cyan, magenta and yellow color component density values. The cyan C ″ signal, magenta M ″ signal, and yellow Y ″ signal representing the color components corrected by the color correction unit 9 are processed by the black generation and under color removal unit 10 so that the cyan C signal, magenta M Signal, yellow Y signal and black K signal, which are converted into four color signals, the cyan C signal is “C signal”, the magenta M signal is “M signal”, the yellow Y signal is “Y signal” and the black K signal. The signal may be referred to as a “K signal”. An example of black generation processing is a black generation method using skeleton black. In this method, the function representing the input / output characteristics of the skeleton curve is represented by y = f (x), the input value is represented by the color components represented by the C ″ signal, the M ″ signal, and the Y ″ signal, and the C ″ signal, Assuming that the lower color removal rate of the density values of the color components represented by the M ″ signal and the Y ″ signal is α (0 <α <1), the cyan, magenta, yellow, and black colors after the black generation process and the lower color removal process A component is calculated | required by the following formula | equation (1). The black generation and under color removal unit 10 gives the C signal, M signal, Y signal and K signal after black generation and under color removal to the spatial filter processing unit 11.
K = f {min (C ", M", Y ")}
C = C "-αK
M = M ″ −αK
Y = Y ″ −αK (1)
[0046]
The spatial filter processing unit 11 corrects the spatial frequency characteristics of each image region based on the region identification signal with respect to the image data, and thereby uses a digital filter to prevent blurring and graininess deterioration of the output image. Filter. The output tone correction unit 12 performs processing for converting a given signal into a signal representing a characteristic value of the image output device 4 when outputting an image. The gradation reproduction processing unit 13 performs gradation reproduction processing for outputting an image based on a given signal.
[0047]
For example, the image data of the character region extracted by the region separation processing unit 8 is increased in high frequency enhancement amount by the spatial filter processing by the spatial filter processing unit 11 so as to improve the reproducibility of characters at the time of image output. . Thereafter, the image data of the character area is binarized or multi-valued by the gradation reproduction processing unit 13 using a high-resolution screen suitable for reproducing the high frequency.
[0048]
The image data of the halftone area extracted by the area separation processing unit 8 is processed by the spatial filter processing unit 11 using a low-pass filter for removing the input halftone component. Further, the image data in the halftone dot region is converted by the output tone correction unit 12 after the signal represented by the density value or the like is converted into a halftone dot area ratio which is a characteristic value of the image output device 4 and then in the tone reproduction processing unit 13. Finally, the image is separated into pixels and processed so that each gradation can be reproduced.
[0049]
The image data of the photographic region extracted by the region separation processing unit 8 is binarized or multi-valued by the gradation reproduction processing unit 13 using a screen that emphasizes gradation reproducibility.
[0050]
The image data processed by the gradation reproduction processing unit 13 is temporarily stored in the storage unit, read out from the storage unit at a predetermined timing, and supplied to the image output device 4.
[0051]
The image output device 4 is a device for forming an image on a recording material based on the image data image-processed by the image processing device 3. Examples of the image output device 4 include, for example, a color image output device using an electrophotographic method and an inkjet method, but are not particularly limited.
[0052]
FIG. 2 is a block diagram showing the configuration of the region separation processing unit 8 and the color correction unit 9. The area separation processing unit 8 includes an area determination unit 20 and a character area determination unit 21. Based on the cyan C ′ signal, magenta M ′ signal, and yellow Y ′ signal representing the document image data from the input tone correction unit 7, the region determination unit 20 converts each pixel of the document image represented by the document image data into a character region. Then, it is determined which image area the halftone dot area and the photographic area belong to. The area determination unit 20 separates the original image into image areas, that is, gives identification data indicating which image area belongs to each pixel, and outputs an area identification signal indicating the identification data to the color correction unit 9, the black The generated under color removal unit 10, the spatial filter processing unit 11, the gradation reproduction processing unit 13, and the character area determination unit 21 are given. The area identification signal includes a character area identification signal indicating that the area-determined pixel belongs to the character area, a halftone area identification signal indicating that the area-determined pixel belongs to the halftone area, and an area-determined pixel. Is a signal including a photographic region identification signal indicating that the image belongs to a photographic region.
[0053]
The region determination unit 20 provides the character region determination unit 21 with document image data including at least character region image data and a character region identification signal. The area determination unit 20 provides the character area identification signal, the dot area identification signal, and the photographic area identification signal to the color correction unit 9, the black generation and under color removal unit 10, the spatial filter processing unit 11, and the gradation reproduction processing unit 13. . The character area determination unit 21 extracts a character portion based on the image data of the character area separated from the document image data by the area determination unit 20 and the character area identification signal.
[0054]
The document image is separated and extracted by the region determination unit 20 into image data of a character region, a halftone dot region, and a photographic region using the following method. The region determination unit 20 takes a region including a natural number of pixels in the main scanning direction and the sub-scanning direction around a target pixel which is an arbitrary pixel of the document image data, that is, a block including M × N pixels, Based on the pixel data in this block, it is determined to which region the pixel of interest belongs. M and N are natural numbers, and may be the same or different from each other.
[0055]
The determination result is used as a region identification signal of the target pixel. For the pixels included in the block, the maximum value and the minimum value of the signal having the pixel density (hereinafter, sometimes referred to as “signal level”) are obtained, the maximum value is the maximum pixel signal level Dmax, and the minimum value is The minimum pixel signal level is Dmin. Among the pixels included in the block, for example, an average value Dave of the signal levels of nine pixels including the target pixel and the eight pixels around the target pixel is obtained. Using this average value Dave as a threshold value, the image of the block is binarized by replacing the signal level of each pixel with 0 (less than the threshold value) and 1 (above the threshold value).
[0056]
After such binarization processing, it is first determined whether or not the target pixel is a pixel belonging to the halftone dot region. In the halftone dot region, a plurality of dots (halftone dots) having a large density value different from that of the background are arranged on the background, that is, the background, for example, an image having a large signal level of the halftone dot relative to the background is formed. The signal level of each of the pixels changes greatly between adjacent pixels in the main scanning direction and the sub-scanning direction, and the number of signal level changes between adjacent pixels in the main scanning direction and the sub-scanning direction is large. . The region determination unit 20 determines that the target pixel of the block that satisfies such a condition is a pixel belonging to the halftone dot region. The difference between the maximum pixel signal level Dmax and the average value Dave is a threshold value B so that erroneous determination between a pixel representing a halftone dot and a pixel representing the background does not occur.1The difference between the average value Dave and the minimum pixel signal level Dmin is the threshold value B.2Compared with Number K of points at which the signal level of each binarized pixel changes from 0 to 1 and from 1 to 0 in the main scanning directionHIs obtained, and the number of change points is KHIs the threshold THCompared with Number K of points at which the signal level of each binarized pixel changes from 0 to 1 and from 1 to 0 in the sub-scanning directionVIs obtained, and the number of change points is KVIs the threshold TVCompared with The difference between the maximum pixel signal level Dmax and the average value Dave, the difference between the average value Dave and the minimum pixel signal level Dmin, and the number of change points KHAnd the number of change points KVAre compared with the threshold value, and the image region to which the target pixel belongs is determined using the following conditions.
Dmax-Dave> B1And Dave-Dmin> B2
And KH> THAnd KV> TV  ... halftone dot area
Other than the above conditions ... Non-halftone area
[0057]
The condition for determining whether or not the pixel of interest is a pixel belonging to the halftone dot region is that the difference between the maximum pixel signal level Dmax and the average value Dave is the threshold value B1And the difference between the average value Dave and the minimum pixel signal level Dmin is a threshold value B.2And the number of change points K in the main scanning directionHIs the threshold THAnd the number of change points K in the sub-scanning directionVIs the threshold TVIf all of these conditions are satisfied, it is determined that the pixel of interest is a pixel belonging to the halftone dot region. If any one of these conditions is not satisfied, the pixel of interest is determined to be a pixel belonging to a non-halftone dot region that is a character region and a photo region.
[0058]
When it is determined that the target pixel is a pixel belonging to the non-halftone area, it is determined whether the target pixel is a pixel belonging to the character area or the photograph area. In the character area, the difference between the maximum pixel signal level Dmax and the minimum pixel signal level Dmin is large, and it is considered that the signal level of the pixels belonging to the character area is generally high. Therefore, the target pixel belongs using the following conditions: The image area is determined.
Dmax> PAOr Dmin <PBOr
Difference Dsub> P between Dmax and DminC  … Character area
Other than the above conditions ... Photo area
[0059]
The condition for determining whether or not the pixel of interest is a pixel belonging to the character area is that the maximum pixel signal level Dmax is a threshold value PAAnd the minimum pixel signal level Dmin is greater than the threshold value PBAnd the difference Dsub between the maximum pixel signal level Dmax and the minimum pixel signal level Dmin is a threshold value PCIf at least one of these conditions is satisfied, it is determined that the pixel of interest is a pixel belonging to the character area. When all of these conditions are not satisfied, that is, the maximum pixel signal level Dmax is the threshold value PAAnd the minimum pixel signal level Dmin is the threshold value PBThe difference Dsub between the maximum pixel signal level and the minimum pixel signal level is the threshold value P.CIn the following cases, the target pixel is determined to be a pixel belonging to the photographic area. After the region determination of a certain pixel of interest is completed, another pixel is used as a new pixel of interest, and a block including M × N pixels around the new pixel of interest is taken, and the above-described image region is determined. The region to which the pixel of interest belongs is determined for each of the cyan, magenta, and yellow color components of the pixel of interest, and when the pixel of interest satisfies the condition that the pixel of interest belongs to the halftone dot region in the two color components, It is determined that the pixel belongs to the point area. Such area determination is applied to the target pixel for all pixels of the document image, and the area determination is performed.
[0060]
The area determination unit 20 gives a character area identification signal indicating which pixel of the original image the pixel determined to belong to the character area to the character area determination unit 21, and is determined to belong to the halftone dot and the photograph area. A halftone dot indicating which pixel of the original image is a pixel and a photographic region identification signal are supplied to the color correction unit 9.
[0061]
The character area determination unit 21 is a means for extracting a character portion from a character area based on a character area identification signal, and includes an edge determination unit 22, a color determination unit 23, and a color character determination unit 24. . The edge determination unit 22 is a means for detecting a sharp signal level change between adjacent pixels, that is, a pixel corresponding to an edge portion showing a sharp density change. The edge determination unit 22 receives a character region identification signal from the region determination unit 20. Based on this, it is determined whether or not the pixels belonging to the character area belong to the edge portion, and an edge determination signal representing the determination result is given to the color character determination portion 24. This edge portion becomes a character portion.
[0062]
The color determination unit 23 is a means for determining whether the pixel is a pixel representing a chromatic color or a pixel representing an achromatic color, and based on the character region identification signal from the region determination unit 20, the character region It is determined whether or not the pixel belonging to is a pixel representing a chromatic color, and a chromatic determination signal representing the determination result is given to the color character determination unit 24. Based on the determination results of the edge determination unit 22 and the color determination unit 23, the color character determination unit 24 determines whether a pixel belonging to the character region is a chromatic character portion or an achromatic character portion. Means.
[0063]
FIG. 3 is a block diagram illustrating a configuration of the edge determination unit 22 included in the region separation processing unit 8. 4A and 4B are diagrams showing an edge detection mask and a filter. FIG. 4A shows an edge detection mask, and FIG. 4B shows a Sobel filter 40 in the main scanning direction. 4 (3) shows the Sobel filter 41 in the sub-scanning direction. The edge determination unit 22 includes a main scanning sobel filter unit 30, a sub scanning sobel filter unit 31, each color absolute value calculation unit 32, each color adder 33, each color comparator 34, an adder 35, and a comparator 36. Is done. The edge determination unit 22 determines whether or not the pixel is an edge portion that is a character portion, using a filter for detecting an edge. Whether or not a pixel is an edge portion is determined for each of the cyan, magenta, and yellow color components. The processes of the main scanning sobel filter section 30, the sub scanning sobel filter section 31, each color absolute value calculation section 32, each color adder 33, and each color comparator 34 are the same for cyan, magenta, and yellow color components. Therefore, the specific processing will be described only for the cyan color component. A similar means is provided for magenta and yellow.
[0064]
A mask having a certain pixel as the target pixel 37 and a predetermined number of pixels in the main scanning direction and the sub-scanning direction centering on the target pixel 37, for example, a 5 × 5 mask 38 shown in FIG. And a 3 × 3 mask 39 centered on the target pixel 37 is extracted from the 5 × 5 mask 38. The mask represents a local region including a plurality of pixels. For example, a 3 × 3 mask represents a local region in which pixels are formed in 3 rows and 3 columns.
[0065]
When the cyan C ′ signal is given in the main scanning sobel filter unit 30, the sobel filter 40 in the main scanning direction for obtaining the difference value in the main scanning direction of the pixel of interest 37 is convolved with the 3 × 3 mask 39. . Specifically, the convolution process adds the value of the pixel 42 in the first row and the first column of the 3 × 3 mask 39 and the value of the pixel 42 a in the first row and the first column of the main scanning Sobel filter 40. Similarly, the value of the pixel 43 in the first row and the second column and the value of the pixel 43a in the first row and the second column of the Sobel filter 40 in the main scanning direction are integrated. Further, the values of the other pixels of the 3 × 3 mask 39 and the corresponding pixel values of the main scanning Sobel filter 40 are integrated, and the sum of the values obtained by the integration is obtained as a difference value. When the cyan C ′ signal is given in the sub-scanning sobel filter unit 31, the sub-scanning direction sobel filter 41 for obtaining the difference value in the sub-scanning direction of the target pixel 37 is convolved with the 3 × 3 mask 39. . Similar to the processing of the main scanning sobel filter unit 30, the sub scanning sobel filter unit 31 integrates the pixel value of the 3 × 3 mask 39 and the corresponding pixel value of the sobel filter 41 in the sub scanning direction. The sum of the obtained values is obtained, and the difference value in each scanning direction of the target pixel 37 is obtained.
[0066]
The result of convolution of the Sobel filters 40 and 41 in each scanning direction with the 3 × 3 mask 39 is given to each color absolute value calculation unit 32. In each color absolute value calculation unit 32, the absolute value of the difference value of the target pixel 37 is obtained by each color absolute value calculation unit 32, and the absolute value of the difference value is given to each color adder 33. In each color adder 33, an addition value which is a difference value of the target pixel 37 is obtained by each color adder 33, and the addition value is given to each color comparator 34. The process of obtaining the absolute value of the difference value is a process that takes into account the presence of negative coefficients in each scanning direction Sobel filter 40, 41, and the process of obtaining the added value includes the main scanning direction and the sub-scanning direction. This is a process for considering both results.
[0067]
Each color comparator 34 compares the addition value of the pixel of interest 37 with a predetermined threshold edgeTH, and if the addition value is equal to or greater than the threshold value, gives a signal representing “1” to the adder 35, and if the addition value is smaller than the threshold value. , A signal representing “0” is supplied to the adder 35. The processes in the main scanning sobel filter section 30, the sub scanning sobel filter section 31, each color absolute value calculation section 32, each color adder 33, and each color comparator 34 are performed on the cyan, magenta, and yellow color components of the target pixel 37. This is a process for determining whether or not it is an edge portion.
[0068]
The adder 35 adds the values of the signals representing the comparison results for the cyan, magenta, and yellow color components from the color comparators 34, and gives a signal representing the addition result to the comparator 36. Based on the addition result from the adder 35, the comparator 36 compares the added value with a predetermined threshold value addTH, and if the target pixel 37 is an edge portion, an edge determination signal indicating “1” is determined as a color character determination. If the target pixel 37 is not an edge portion, an edge determination signal representing “0” is supplied to the color character determination portion 24. For example, if it is determined by the color comparators 34 that the pixel of interest 37 is an edge only when all the color components of cyan, magenta, and yellow are determined to be edges, the threshold value addTH is set to “3”. If it is determined that only one color component is an edge portion, the threshold value addTH is determined to be “1” if the target pixel 37 is determined to be an edge portion.
[0069]
FIG. 5 is a diagram illustrating threshold values used for determination of chromatic and achromatic colors. In the color determination unit 23, based on the cyan C ′ signal, the magenta M ′ signal, and the yellow Y ′ signal, the maximum value max (C ′, M ′, Y ′) and the minimum value of the density value of each color component of the pixel of interest 37. The difference from min (C ′, M ′, Y ′) is compared with a predetermined threshold value Δ. For example, as shown in FIG. 5, when the cyan color component has the maximum value and the yellow color component has the minimum value, these differences are compared with the threshold value Δ. When the difference is greater than or equal to the threshold Δ, it is determined that the pixel of interest 37 is a pixel representing a chromatic color, and when the difference is smaller than the threshold, the pixel of interest 37 is determined to be a pixel representing an achromatic color and represents the determination result. A chromatic determination signal is supplied to the color character determination unit 24.
[0070]
The color character determination unit 24 determines that the pixel is a color character portion and a black character portion based on the following conditions.
(Edge) and (Chromatic) → Colored characters
(Edge) and (Natural) → Black text
[0071]
In the color character determination unit 24, when the edge determination unit 22 determines that the pixel of interest 37 is an edge, and the color determination unit 23 determines that the pixel of attention 37 is a pixel representing a chromatic color, When it is determined that the portion is a color character portion, the edge determination unit 22 determines that the target pixel 37 is an edge portion, and the color determination unit 23 determines that the target pixel 37 is a pixel representing an achromatic color, Is a black character part, and a color character determination signal as a result of the determination is given to the color correction unit 9.
[0072]
The color correction unit 9 includes a color character correction processing unit 25 and another area correction processing unit 26. The color character correction processing unit 25 determines, based on the color character determination signal from the color character determination unit 24, that each pixel is a color character part that is determined to be a color character part and satisfies a predetermined condition. A process of correcting the color component of the pixel to reduce the dispersion of the color component is performed. The other area correction processing unit 26 performs a process of correcting the color component of the pixel for the pixels belonging to the halftone dot and the photographic area based on the halftone dot and the photographic area identification signal from the area determination unit 20. The other area correction processing unit 26 corrects the color components of the pixels belonging to the halftone dots and the photographic area using, for example, a direct conversion method and a three-dimensional interpolation method. In the direct conversion method, in the cyan, magenta, and yellow color components representing given image data, color conversion data is obtained in advance for all color component combinations, and the result is stored in a color conversion table. This is a method for outputting image data converted into a table value by referring to a table value when image data of a halftone dot and a photo area is given. This direct conversion method uses a color conversion table, has a simple circuit configuration, can be processed at a relatively high speed, and can be applied to any non-linear characteristic of color components. In the three-dimensional interpolation method, table values for a combination of selected cyan, magenta, and yellow color components are obtained in advance and stored in a color conversion table, and color components for which no table value has been previously stored are stored. For the combination, the table value stored in the color conversion table is used to calculate the color conversion value by a three-dimensional interpolation calculation. In this three-dimensional interpolation method, even when the number of table values to be obtained in advance is limited, color conversion values can be obtained for all combinations of color components of given image data, and the size of the color conversion table can be reduced. It is a method that can be realized. When the color component of each pixel is corrected by the color character correction processing unit 25 and the other area correction processing unit 26, the C "signal, the M" signal, and the Y "signal representing the corrected color components are removed from the black under generation color. The above-described black generation and under color removal processing is applied to the unit 10.
[0073]
FIG. 6 is a block diagram illustrating a configuration of the color character correction processing unit 25. The color character correction processing unit 25 includes an image memory 50, a first color space conversion unit 51, a threshold setting unit 52, a distribution analysis unit 14, a correction unit 15, and a second color space conversion unit 53. The image memory 50 is means for storing image data represented by a block of at least M × N pixels. When the C ′ signal, the M ′ signal, and the Y ′ signal representing the document image data from the region separation processing unit 8 and the color character determination signal from the color character determination unit 24 are supplied to the color character correction processing unit 25, The image memory 50 stores the image data of the character area including the character part and supplies it to the first color space conversion unit 51. The first color space conversion unit 51 converts image data of a character area represented by a CMY color system, which is a first color system including cyan, magenta, and yellow, which are a plurality of first color components. L, which is a second color system that uses a uniform color space including lightness, saturation, and hue, which are two color components.*a*b*It is means for converting into image data expressed in a color system. When the image data of the character area is provided to the first color space conversion unit 51 by the image memory 50, the first color space conversion unit 51 displays the image of the character area represented by cyan, magenta, and yellow color components. L representing the lightness of the data*And a for expressing chromaticity including saturation and hue*And b*CIE1976L including color components*a*b*The image data of the character area expressed in the color space of the color system is converted, and the converted image data of the character area is given to the distribution analysis unit 14. Hereinafter, the chromaticity is a*, B*It will be expressed as The threshold setting unit 52 is a means for storing a threshold for determining whether or not to correct the color component of the image data. The distribution analysis unit 14 analyzes at least the color component distribution state in the converted character region image data, and corrects the character component color component based on the threshold value stored in the threshold value setting unit 52. Determine whether or not.
[0074]
The correction unit 15 performs correction so that the variance of the color component of the character portion determined to be corrected by the distribution analysis unit 14 is reduced, and provides the corrected image data to the second color space conversion unit 53. The second color space conversion unit 53 performs CIE 1976 L after correcting the color components.*a*b*The image data of the character area represented by the color space of the color system is converted into the image data of the character area represented by the color components of cyan, magenta, and yellow, and the C ″ signal representing the converted image data, M The “signal and Y” signal is supplied to the black generation and under color removal unit 10.
[0075]
FIG. 7 is a graph showing a color space of the first color system showing an image when correction is made to reduce the dispersion of the color components of the character portion 61. An image processing method in the distribution analysis unit 14 and the correction unit 15 of the character portion 61 will be briefly described. The color component of each pixel of the character portion 61 can be distributed in the color space 60 represented by the CMY color system. The CMY color system is a color system including cyan, magenta, and yellow color components. Based on the cyan C ′ signal, the magenta M ′ signal, and the yellow Y ′ signal given to the region separation processing unit 8, a set of pixels belonging to the character region 62 including the character portion 61 by the region separation processing unit 8 is defined as a pixel set P. Then, the condition for correcting the color component needs to determine that the target pixel is the character portion 61 by at least the region separation processing unit 8. For example, when the pixel of interest is in i row and j column of the document image, it is represented by (i, j). A signal representing each color component in the pixel of interest (i, j) is a C ′ (i, j) signal, an M ′ (i, j) signal, and a Y ′ (i, j) signal, and the pixel of interest (i, j) If the region separation result of the image region to which the image belongs is seg (i, j), it is necessary to satisfy at least the following condition as a condition for correcting the color component of the target pixel (i, j).
seg (i, j) ∈P
[0076]
When the region separation result seg (i, j) satisfies the condition that it is included in the pixel set P, the color component of the target pixel (i, j) is corrected. The color components C ′ (i, j), M ′ (i, j) and Y ′ (i, j) of the pixel of interest are corrected to Ccorrect(I, j), Mcorrect(I, j) and Ycorrect(I, j).
Ccorrect(I, j) ← C '(i, j)
Mcorrect(I, j) <-M '(i, j)
Ycorrect(I, j) ← Y '(i, j)
[0077]
However, in the region separation result seg (i, j) included in the pixel set P, the color components of all the pixels are not corrected, but the target pixel is included in a plurality of masks included in a certain mask centered on the target pixel. For example, how much the hue deviates from the pixel is analyzed by the distribution analysis unit 14, and it is determined whether or not to correct the color component based on the degree of deviation. A signal representing the color component of the character portion 61 to which the pixel of interest belongs is obtained based on a plurality of pixels belonging to a mask centered on the pixel of interest, and the obtained color component is represented by Celement(I, j), Melement(I, j) and Yelement(I, j). The color component of the target pixel after correction is expressed as Ccorrect(I, j), Mcorrect(I, j) and YcorrectAssuming (i, j), the corrected color component is closer to the color component of the character portion 61 to which the pixel of interest belongs than the color component before correction. In other words, the distance from the point representing the color component of the character portion 61 to which the pixel of interest belongs to the point representing the color component of the pixel of interest after correction is the point representing the color component of the character portion 61 to which the pixel of interest belongs. To a point representing the color component of the target pixel before correction. For example, the distance from the point representing the color components C1, M1, and Y1 to the point representing the color components C2, M2, and Y2 is expressed as follows.
D {(C1, M1, Y1), (C2, M2, Y2)}
[0078]
As described above, the distance from the point representing the color component of the character portion 61 to which the pixel of interest belongs to the point representing the color component of the pixel of interest after correction represents the color component of the character portion 61 to which the pixel of interest belongs. Since it is shorter than the distance from the point to the point representing the color component of the target pixel before correction, it can be expressed as follows.
Figure 0003966404
[0079]
By correcting the color component of the pixel belonging to the character region 62 so as to approach the color component represented by the mask centered on this pixel, at least the color component of the character portion 61, particularly the color component indicating the hue. Is reduced so that the reproducibility of the original image is improved when the image is output.
[0080]
FIG. 8 is a graph showing a color space of the second color system showing an image when the dispersion of the color components of the color character portion 63 is corrected so as to approach the representative value. FIG. 9 is a graph showing a color space of the second color system showing an image when a color component indicating brightness is corrected. FIG. 10 is a flowchart showing a procedure for correcting the dispersion of the color components of the color character portion 63 so as to approach the representative value 66. FIG. 11 is a diagram showing a 3 × 3 mask 75 centered on the target pixel 37. FIG. 12 is a diagram illustrating a hue relationship between the target pixel 37 and other pixels excluding the target pixel 37 in the 3 × 3 mask 75. The representative value 66 is a target value when correcting the color component, and represents an average value of a certain mask, for example. In correcting the color component of the image data, specifically, the color component of the color character portion 63 is corrected so as to approach the representative value 66 of the local region including the color character portion 63. Although the color space for correcting the color component of the color character portion 63 is not limited, the color component of the color character portion 63 is CIE 1976 L using a uniform color space.*a*b*The color space is converted into a color system (Commission Interternale de l'Eclairage: CIE) by the first color space conversion unit 51. Hereinafter, CIE1976L*a*b*Set the color system to “L*a*b*It is called “color system”. L*a*b*The color component of the color system is L*, A*, B*And L*Axis, a*Shaft and b*A coordinate system is formed by the three axes. Hereinafter, L*Axis, a*Shaft and b*The coordinate system formed by the axes is denoted by “L*a*b*It is referred to as “coordinate system 65”. L*Is a color component representing lightness. a*And b*Are color components that can be used to express hue and saturation, and the hue is tan-1(B*/ A*). L*a*b*Since the color components of the color system can be expressed by a linear sum of the color components of cyan, magenta, and yellow, the CMY color system 60 represented by the color components of cyan, magenta, and yellow is a simple three-row 3 Using a matrix of columns, L*a*b*Converted to the color system. Therefore, from the color system represented by the color components of cyan, magenta and yellow, L*a*b*The conversion formula to the color system can be expressed as follows.
[0081]
[Expression 1]
Figure 0003966404
[0082]
The region separation processing unit 8 determines that the pixel of interest (i, j) in the i row and j column of the document image data is a pixel belonging to the color character region 64, that is, the color character portion 63, and the color component of the pixel of interest is The corrected color component is {L* correct(I, j), a* correct(I, j), b* correctAssuming that (i, j)}, the conversion representing the correction can be expressed as follows.
[0083]
[Expression 2]
Figure 0003966404
[0084]
By this conversion, when an image corresponding to the color character area 64 is output, the dispersion of the color components is corrected so as to improve reproducibility.
[0085]
L*a*b*In the image data represented by the color system, consider a mask of M rows and N columns centering on the pixel of interest that is the color character portion 63. When a pixel belonging to the mask is represented by (i, j) and the mask is represented by mask (M, N), the pixel (i, j) satisfies the following condition.
(I, j) εmask (M, N)
[0086]
The color component of the pixel belonging to the mask is a target value when correcting the color component of the representative value 66 of the color component of the pixel belonging to the mask, for example, the average value and the median value, based on the analysis result of the color component distribution state. And corrected by the correction unit 15 so as to approach the representative value 66.
[0087]
Next, a procedure for correcting the color component of the color character portion 63 will be described. In step d0, the image data of the color character area 64 is L*a*b*The color components expressed in the color system are converted by the first color space conversion unit 51 and given to the distribution analysis unit 14, and the process proceeds to step d1.
[0088]
In step d1, L*a*b*For the image data of the color character area 64 expressed in the color system, the distribution analysis unit 14 uses the L of pixels included in the mask of M rows and N columns centered on a certain target pixel.*a*b*The distribution state in the coordinate system 65 is analyzed, the color component of each pixel is further obtained, and the process proceeds to step d2.
[0089]
In step d2, chromaticity a*・ B*A which is a color component indicating*And b*If the color component of the pixel belonging to the mask has a color component that is significantly separated from the color component of the pixel of interest based on the distribution state of*And b*Which is the average value of*_ And b*_ Is obtained by the distribution analysis unit 14.
[0090]
In step d2, the distribution analysis unit 14 determines whether or not the color component of the pixel in the mask of M rows and N columns is a color component to be excluded based on the hue of the pixel and the hue of the target pixel 37. The For example, as shown in FIG. 11, a 3 × 3 mask 75 centered on the pixel of interest 37 is used to determine whether or not to remove the color components in the mask of M rows and N columns.
[0091]
In the 3 × 3 mask 75, the pixel number of the target pixel 37 is 0, and the pixel numbers of the eight neighboring pixels 76 excluding the target pixel 37 in the 3 × 3 mask 75 are 1-8. L*a*b*The coordinates of the target pixel point 37a representing the target pixel 37 in the coordinate system 65 are represented by (L*0, a*0, b*0), and the coordinates of the neighboring pixel point 76a representing the neighboring pixel 76 are represented by (L*i, a*i, b*i) (i = 1, 2,..., 8) The hue of the pixel of interest 37, that is, a straight line connecting the pixel point of interest 37a and the origin, and a*Based on the hue that is the angle formed by the axis, the color component of the pixel point in the shaded area shown in FIG.
[0092]
L for processing to remove color components*Since the value does not matter, the coordinates of each pixel in the 3 × 3 mask 75 are L*When the value is omitted and expressed as a vector, the vector of the pixel point of interest 37a is A˜ = (a*0, b*0), and a vector of neighboring pixel points 76a is represented by B ~ = (a*i, b*i). An angle between a straight line connecting the target pixel point 37a and the origin and a straight line connecting a certain neighboring pixel point 76a and the origin is θ0iIs expressed as angle θ0iCosine of Cosθ0iIs the inner product A˜ · B˜ of the vector A˜ and the vector B˜, and the product of the magnitude of the vector A˜ | A˜ | and the magnitude of the vector B˜ | B˜ | It is obtained by dividing by |. Angle θ0iCosine of Cosθ0iIs expressed as:
Cosθ0i= A ~ ・ B ~ / (| A ~ || B ~ |)
[0093]
Angle θ0iCosine of Cosθ0iIs −1 ≦ Cos θ0i≦ 1 and the inner product A ~ · B ~ is A ~ · B ~ = a*0xa*i + b*0xb*It is obtained by i.
[0094]
Therefore, a pixel that is significantly distant from the color component of the pixel of interest 37 is the angle θ0iCosine of Cosθ0iIs smaller than a predetermined threshold THout, that is, 0 <Cosθ0i<A pixel that satisfies THout. For example, the threshold value THout is 1/2.(1/2)The angle θ0iCosine of Cosθ0iThe value is 1/2(1/2)Less than, that is, the angle θ0iThe color component of the neighboring pixel 76 where is larger than 45 degrees is removed.
[0095]
As another method for removing color components, the above-described equation for obtaining the hue θ = tan-1(B*/ A*), The hue θ of the target pixel point 37a0And the hue θ of the neighboring pixel 76aiFor each of the0−θiA method of removing the color component of the neighboring pixel 76 that satisfies |> 45 may be used.
[0096]
In the mask of M rows and N columns, assuming that the number of pixels belonging to the pixel of interest (i, j) in the i row and j column as the center is num, the average value serving as the target value for correction is the respective values belonging to the mask. This is a value obtained by dividing the sum of the color components of the pixels by the number of pixels belonging to the mask, and is expressed as follows. M and N are natural numbers, and may be the same or different from each other.
[0097]
[Equation 3]
Figure 0003966404
[0098]
In step d2, the average value a*_ And b*_ Is obtained by the distribution analysis unit 14 and proceeds to step d3.
[0099]
In step d3, 1 is given to the corrected pixel number H whose initial value indicating the number of corrected pixels is 0, and the process proceeds to step d4.
[0100]
In step d4, the distribution analysis unit 14 uses the mask average value a.*_ And the color component a of the pixel of interest belonging to the mask*Is compared with a threshold value stored in the threshold value setting unit 52, and it is determined that the absolute value of the difference is equal to or greater than the threshold value, that is, | a*_-A*When it is determined that | ≧ THa, the process proceeds to step d5, and when it is determined that the absolute value of the difference is smaller than the threshold, that is, | a*_-A*If it is determined that | <THa, the process proceeds to step d8.
[0101]
In step d5, the color component a of the target pixel*And b*Is corrected by the correction unit 15 so as to approach the average value of the mask. The color component of the target pixel after correction is a value obtained by adding a parameter β for adjusting the degree of correction predetermined to the difference between the average value of the mask and the color component of the target pixel to the color component of the target pixel before correction. Is a value obtained by adding The parameter β is a constant that satisfies 0 or more and 1 or less, that is, 0 ≦ β ≦ 1. It is assumed that the parameter β is set in advance by the operator.*The value of the parameter β can be changed in real time depending on the value of the lightness L*When the value of is small, that is, when the pixel is dark, the value of the parameter β is increased and the correction is strengthened so as to be closer to the average value. The color component of the target pixel before correction is L*(I, j), a*(I, j) and b*(I, j) and the average value of the mask is L*_ (I, j), a*_ (I, j) and b*When expressed as _ (i, j), the color component L of the target pixel after correction* correct(I, j), a* correct(I, j) and b* correct(I, j) is expressed as follows.
[0102]
[Expression 4]
Figure 0003966404
[0103]
Color component L indicating the brightness of the pixel of interest*Since there is a possibility that the color character portion 63 cannot be naturally reproduced when the image is output by correcting, for example, a plurality of predetermined correction lightness values 74 of L*0, L*1, ..., L*is replaced by a value represented by i. For example, the color component indicating the brightness of the target pixel is L*(I, j), a color component L indicating the brightness of the pixel of interest*(I, j) is a predetermined corrected brightness value L*If it is close to i, the color component a of the pixel of interest*(I, j) and b*(I, j) is corrected so as to approach the average value of the mask, and the color component L indicating lightness*(I, j) is the lightness value L*is replaced by i. The color component after the color component of the pixel of interest is converted is expressed as follows.
[0104]
[Equation 5]
Figure 0003966404
[0105]
Since the color component indicating the lightness of each pixel has only a predetermined lightness value, the dispersion of the color components indicating the lightness becomes small as shown in FIG. The correction process for replacing the color component indicating the brightness of the pixel with a predetermined brightness value is an effective process when the image output performance of the image output device 4 is not so high. When the gradation reproducibility of the image output device 4 is poor, the output characteristics of the image of the image output device 4 are measured in advance, and based on the output characteristics, the density value when the image can be output stably is obtained. Since it is replaced with the corresponding brightness value, there are many advantages that it is easier to control than outputting an image with a brightness value that is difficult to reproduce. When the correction of the color component of the target pixel is completed in step d5, the process proceeds to step d6.
[0106]
In step d6, the distribution analysis unit 14 determines whether or not the correction pixel number H is equal to the number J of image data belonging to the mask, that is, whether or not the correction of all color components of the color character portion 63 belonging to the mask has been completed. To be judged. If it is determined that the correction pixel number H is equal to the number J of image data, the process proceeds to step d7. If not, the process proceeds to step d9, 1 is added to the correction pixel number, and the process further proceeds to step d4. The color component of a pixel that has not been corrected yet is corrected.
[0107]
In step d7, the distribution analysis unit 14 determines whether or not the correction of the color component has been completed for all the pixels determined to be the color character portion 63, and if it is determined that all have been completed, the process proceeds to step d10. When it is determined that the color component correction process has been completed and the process has not been completed, the process proceeds to step d1.
[0108]
In step d8, the distribution analysis unit 14 uses the mask average value b.*_ And the color component b of the pixel of interest belonging to the mask*Is compared with the threshold value stored in the threshold value setting unit 52, and it is determined that the absolute value of the difference is equal to or greater than the threshold value, that is, | b*_-B*When it is determined that | ≧ THb, the process proceeds to step d5, and when it is determined that the absolute value of the difference is smaller than the threshold, that is, | b*_-B*If it is determined that | <THb, the process proceeds to step d6.
[0109]
According to the embodiment of the present invention, correction is made so that the dispersion of the color components of the color character portion 63 is reduced. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved. Further, for example, by correcting only the color component indicating the hue and maintaining the gradation representing the tone of the image around the color character portion 63, it is possible to perform correction so that natural color reproduction can be performed.
[0110]
Further, only the image portion to be corrected is extracted from the entire input image data, and only the portion that needs to be processed is subjected to image processing, thereby reducing the amount of calculation required for the image processing.
[0111]
Further, by correcting the color component of the color character portion 63 to be close to the representative value 66 of the color component of the color character portion 63, the calculation amount for obtaining the corrected value of the color component in each pixel can be suppressed, Dispersion of color components of pixels can be easily reduced, correction amount of color components of each pixel can be kept small, and image data is corrected so that an image formed on a document can be faithfully reproduced Can do. Further, variations in the correction direction of each pixel can be suppressed, and correction that can further improve reproducibility can be performed so that natural color reproduction can be performed.
[0112]
Also, by replacing the color component indicating the brightness of each pixel of the color character portion 63 with a predetermined corrected brightness 74, the dispersion of the color component indicating the brightness is reduced, and the image formed on the document at the time of image output is reproduced well. Corrections that can be made. Further, by reducing the dispersion of the color component indicating the brightness, the color character portion 63 can be corrected so that it can be clearly reproduced. Further, for example, in an image output device with poor gradation reproducibility representing the tone of an image, it is formed on a document when outputting an image using image data in which a color component indicating lightness is replaced with corrected lightness 74. An image can be reproduced well with a small number of gradations.
[0113]
In addition, since the dispersion of the color components of the color character portion 63 included in the input image data is corrected so as to be reduced, reproduction of an image formed on the document when the image is output using the corrected image data. Can be improved.
[0114]
FIG. 13 shows a color space of the second color system showing an image when the dispersion of the color components in the color character area 64 is corrected to approach the approximate straight line 68 in the image forming apparatus according to another embodiment of the present invention. It is a graph to show. FIG. 14 is a diagram illustrating the relationship between the approximate line 68 and the observation point 69. FIG. 15 is a flowchart showing a procedure for correcting the color component of the color character area 64 using the approximate straight line 68. In the present embodiment, the color component of the color character portion 63 is corrected so as to approach the representative value 66 of the region including the color character portion 63. However, as another embodiment of the present invention, for example, the color character portion 63 and The distribution state of the color character area 64 formed by the base portion 67 is approximated by an approximate line 68, and the color components of the pixels belonging to the color character area 64 are approximated to the approximate line 68 perpendicular to the approximate line 68. You may make the structure correct | amended. Other configurations are the same as those of the image forming apparatus 1 shown in FIG. Description of similar components is omitted, and similar reference numerals are given.
[0115]
In this image processing method, the color character region 64 is extracted from the original image data by the region separation processing unit 8, and the background portion 67 included in the color character region 64 is also extracted by the region separation processing unit 8. For the background portion 67, for example, in a mask which is a local region of the color character region 64, a method of binarizing the color component of each pixel belonging to the mask using a mask average density value or a clustering method is used. Detected. The background portion 67 belonging to the color character region 64 is determined by the region separation processing unit 8 as a chromatic color or an achromatic color. Here, it is assumed that the background portion 67 belonging to the color character region 64 is a chromatic color, but it is also effective if the background portion 67 is an achromatic color.
[0116]
The color character portion 63 extracted by the region separation processing unit 8 and the background portion 67 belonging to the color character region 64 can be set to an arbitrary color space, here using a typical uniform color space.*a*b*L expressed in color system*a*b*Distributed in the coordinate system 65. When the detected background portion 67 represents a chromatic color, it is assumed that the distribution of the color component of the color character portion and the color component of the background portion of the chromatic color by an ideal image input device is arranged linearly. Therefore, the color component of the color character portion 63 and the color component of the background portion 64 can be approximated by a straight line.
[0117]
Since the pixel to be corrected belongs to the color character portion 63 and the background portion 67 extracted by the region separation processing unit 8, the pixel to be corrected is represented by (i, j), and a set of color character portions 66. Is represented by P ′, and a set of the background portion 67 is represented by Pback, the relationship between (i, j), P ′ and Pback is expressed as follows.
(I, j) ∈P′∪ Pback
[0118]
The color component of the pixel (i, j) is L*a*b*In the color system, L*(I, j), a*(I, j), b*The color component is corrected using the approximate straight line 68 for the distribution of pixels satisfying the relationship of (i, j) and (i, j) εP′∪Pback.
[0119]
  The approximate line 68 is obtained using the least square method. In the least square method, the square of the distance between an observation point 69 representing a target pixel included in a certain area and a predetermined arbitrary straight line.The valueAn approximate straight line 68 is obtained by obtaining all points of the region, taking the sum, taking the sum as an error, and minimizing this error. L*a*b*In the coordinate system 65, the color component of a pixel included in the set of the color character portion 63 and the background portion 67, that is, the coordinates are (L*(I, j), a*(I, j), b*(I, j)), the approximate straight line 68 is obtained by minimizing the following error ε.
[0120]
[Formula 6]
Figure 0003966404
[0121]
The approximate straight line 68 obtained by using the least square method is determined if given by two vectors, that is, a position vector of a certain point on the approximate straight line 68 and a direction vector of the approximate straight line 68. can do. L*a*b*In the coordinate system 65, a position vector of a certain point on the approximate straight line 68 is represented by A˜ = (L*, A*, B*), The direction vector is represented by B˜ = (b1, b2, b3), and the position vector X˜ of the point on the approximate straight line 68 is a product of an arbitrary constant parameter t and the direction vector. It is obtained by adding the position vectors of the points and can be expressed as the following equation.
[0122]
[Expression 7]
Figure 0003966404
[0123]
The position vector of the observation point 69 is C ~ = (L*(I, j), a*(I, j), b*(I, j)), when the square value of the distance between the observation point 69 and the approximate line 68 is obtained, the square value of the distance can be considered as a function of the parameter t. The distance between the observation point 69 and the approximate straight line 68 is the smallest when the function (1) takes the smallest value. The function of the parameter t is expressed as follows by transforming the square value of the distance between the observation point 69 and the approximate straight line 68.
[0124]
[Equation 8]
Figure 0003966404
[0125]
Therefore, t = -B ~. (A ~ -C ~) / | B ~ |2The distance is minimized when. However, | B˜ | represents the magnitude of the direction vector. t = -B ~ ・ (A ~ -C ~) / | B ~ |2The distance between the observation point 69 and the approximate straight line 68 is (−B˜ · (A˜−C˜) / | B˜ |2) + | A ~ -C ~ |2It is represented by When the distance between the observation point 69 and the approximate straight line 68 is minimum, the position vector of the intersection 70 between the approximate straight line 68 and the perpendicular passing through the observation point 69 and perpendicular to the approximate straight line 68 is t = −B˜ · (A ~ -C ~) / | B ~ |2Can be obtained using
[0126]
As shown in FIG. 14, the coordinates of the observation point 69 are (L*(I, j), a*(I, j), b*(I, j)), and the coordinates of the intersection 70 with the perpendicular line drawn from the observation point 69 to the approximate straight line 68 obtained as described above, are expressed as (L*'(I, j), a*'(I, j), b*′ (I, j)), a perpendicular line 71 connecting the observation point 69 and the intersection point 70 intersects the approximate straight line 68 perpendicularly.
[0127]
The correction process of the color component of the character region 64 is a process of correcting the color component of the pixel belonging to the character region 64 so as to be close to the approximate line 68 perpendicular to the approximate line 68, that is, to make the observation point 69 close to the intersection 70. Then, correction processing is performed on the pixels in the color character area 64. However, the distance L between the point representing the pixel to be corrected and the approximate straight line 68 is compared with the threshold THc stored in the threshold setting unit 52, and the color component is corrected only for the pixel satisfying L ≧ THc. The
[0128]
The color component of the target pixel after correction is obtained by adding a parameter γ that adjusts the degree of correction to the difference between the color component of the intersection 70 and the color component of the target pixel before correction. It is obtained by adding to the component. The parameter γ is a constant that satisfies 0 ≦ γ ≦ 1. The color component of the target pixel after correction is (L* correct(I, j), a* correct(I, j), b* correct(I, j)), it is obtained as follows.
[0129]
[Equation 9]
Figure 0003966404
[0130]
A procedure for correcting the color component of the color character area 64 will be described. In step e0, the color separation area 8 is extracted by the area separation processing unit 8, and the color character portion 63 and the background portion 67 are extracted, and the process proceeds to step e1.
[0131]
In step e1, the distribution analyzer 14 distributes the color components of the pixels representing the color character portion 63 and the background portion 67 of the M × N mask of the M × N mask centered on the pixel of interest in the color character region 64. State is sought, ie L*a*b*The coordinates of each pixel in the coordinate system 65 are obtained, and the process proceeds to step e2.
[0132]
In step e2, the distribution analysis unit 14 obtains the approximate straight line 68 that approximates the distribution state using the image data representing the color component of the background portion 67 as well as the color component of the color character portion 63 as described above. Then, the process proceeds to step e3.
[0133]
In step e3, the distribution analysis unit 14 obtains the distance L of the perpendicular 71 drawn on the approximate straight line 68 for each image data, and proceeds to step e4. In step e4, 1 is given to the correction pixel number H whose initial value is 0, and the process proceeds to step e5.
[0134]
In step e5, the distribution analysis unit 14 determines whether the distance L between the approximate straight line 68 and the point representing the pixel to be corrected is equal to or greater than the threshold value THc, and the distance L is equal to or greater than the threshold value. If it is determined, the process proceeds to step e6. If it is determined that the distance L is smaller than the threshold value, the process proceeds to step e7.
[0135]
In step e6, the correction unit 15 corrects the color component of the pixel to be corrected as described above so as to be close to the approximate line 68 perpendicular to the approximate line 68, and the process proceeds to step e7.
[0136]
In step e7, the distribution analysis unit 14 determines whether or not the correction pixel number H is equal to the number J of image data belonging to the mask, that is, whether or not the correction of all color components of the color character portion 63 belonging to the mask has been completed. To be judged. If it is determined that the corrected pixel number H is equal to the number J of image data, the process proceeds to step e8. Otherwise, the process proceeds to step e9, 1 is added to the corrected pixel number H, and the process proceeds to step e5. The distribution analysis unit 14 determines whether or not the distance L is greater than or equal to the threshold value in the pixel to which the color component has not been corrected yet.
[0137]
In step e8, if the distribution analysis unit 14 determines whether or not the correction of the color component is completed for all the pixels belonging to the color character area 64, and if it is determined that the correction of the color component is completed, the step e10 If it is determined that the correction of the color component is not completed yet, the process proceeds to step e1.
[0138]
In another embodiment of the present invention, each color component of each pixel in the color character area 64 is corrected so as to approach the approximate straight line 68 perpendicular to the approximate straight line 68, so that not only the color character portion 63, Since the dispersion of the color components in the entire color character area 64 including the color character portion 63 can be reduced, the image data can be corrected so that the image formed on the document can be reproduced more faithfully.
[0139]
FIG. 16 shows a color space of the second color system showing an image when the color component of the color character portion 63 is corrected using the constant lightness line 72 in the image forming apparatus according to another embodiment of the present invention. It is a graph. FIG. 17 is a flowchart showing a procedure for correcting the color component of the color character portion 63 using the constant lightness line 72. In the present embodiment, the color component of the color character portion 63 has the equal lightness perpendicular to the lightness straight line 72 connecting the pixel point of the representative value 66 and the point on the same lightness axis as the lightness of the representative value 66. Correction is made so as to approach the straight line 72. The same components as those of the image forming apparatus 1 shown in FIGS. 1 to 15 are denoted by the same reference numerals and description thereof is omitted.
[0140]
A point P representing the color component of the pixel of interest (i, j) which is the color character portion 63 is represented by {L*(I, j), a*(I, j), b*(I, j)}, and a representative value of a mask including M × N pixels centered on the target pixel, for example, a point Q representing an average value is represented by {L*_ (I, j), a*_ (I, j), b*_ (I, j)}, and the point P ′ representing the corrected color component of the target pixel is represented by {L* correct(I, j), a* correct(I, j), b* correct(I, j)}. The correction process of the color component of the target pixel is performed by a point Q {L representing the average value of the mask.*_ (I, j), a*_ (I, j), b*_ (I, j)} and the achromatic color point Q ′ {L having the same brightness value*The correction unit 14 corrects the point representing the pixel of interest to the iso-lightness straight line 72 connecting _ (i, j), 0,0} so that the point representing the pixel of interest vertically approaches the iso-lightness straight line 72.
[0141]
L*a*b*In the coordinate system 65, a point representing the color component of the pixel of interest, a point representing the average value, a point representing the color component of the pixel of interest after correction, and an achromatic color point are considered as vector quantities. The position vector of the point representing the color component of the pixel of interest is {L*(I, j), a*(I, j), b*(I, j)} and the position vector of the point representing the average value is {L*_ (I, j), a*_ (I, j), b*The position vector of a point represented by _ (i, j)} and representing the color component of the target pixel after correction is {L* correct(I, j), a* correct(I, j), b* correct(I, j)}, and the position vector of the achromatic point is {L*_ (I, j), 0,0}. At each point P, P ′, Q, and Q ′, the inner product of the vector PP′_ and the vector QQ′_ becomes zero and can be expressed as follows.
[0142]
[Expression 10]
Figure 0003966404
[0143]
The method for obtaining the point P ′ representing the corrected color component of the target pixel is, for example, as described above, based on the distance between the straight line and the point and detecting the point perpendicular to the straight line, and the orthogonality of the vector. There is a method using conditions. Even in the case of correcting the color component so as to be close to the equal lightness straight line 72 perpendicular to the constant lightness straight line 72, the threshold value setting unit 52 sets the distance L ′ from the point representing the pixel to be corrected to the constant lightness straight line 72. The color component is corrected for all color character portions 63 that satisfy L ′ ≧ THd.
[0144]
For example, when the parameter δ for adjusting the degree of correction is used, if the intersection of a straight line passing through the two points Q and Q ′ and a straight line passing through the two points P and P ′ is represented by P ″, the position vector of the point P ′ is , A vector obtained by adding the position vector of the point P and a vector obtained by adding the parameter δ to the vector PP′˜, and can be expressed as follows.
[0145]
## EQU11 ##
Figure 0003966404
[0146]
The method of correcting the color component of the correction target image portion so as to be close to the equal lightness straight line 72 perpendicular to the equal lightness straight line 72 is slightly compared to the method of correcting so as to be close to the approximate straight line 68 and perpendicular to the approximate light straight line 72. The same effect can be obtained only by increasing the amount of calculation.
[0147]
A procedure for correcting the color component of each pixel of the color character portion 63 so as to be close to the iso-lightness straight line 72 perpendicular to the iso-lightness straight line 72 is shown. In step f0, the color character portion 63 is extracted from the document image by the region separation processing unit 8, and the process proceeds to step f1.
[0148]
In step f1, a pixel having a color character portion 63 is set as a pixel of interest, and a distribution state of a mask including M × N pixels centered on the pixel of interest is obtained by the distribution analysis unit 14, that is, each pixel belonging to the mask. Pixel L*a*b*The coordinates in the coordinate system 65 are obtained, and the process proceeds to step f2.
[0149]
In step f2, the lightness L*And chromaticity a*・ B*Is analyzed by the distribution analysis unit 14, and the average value of the mask is obtained by excluding the image data of the color character portion 63 in which the color component is significantly separated in the distribution state, and the process proceeds to step f3. .
[0150]
In step f3, the distribution analysis unit 14 obtains an achromatic color point having the same lightness value as the average value of lightness, obtains an isolightness straight line 72, and proceeds to step f4.
[0151]
In step f4, the distribution analysis unit 14 obtains the distance L 'between each pixel of the color character portion 63 and the equal lightness straight line 72, and proceeds to step f5. In step f5, 1 is given to the number of corrected images H having an initial value of 0, and the process proceeds to step f6.
[0152]
In step f6, the distribution analysis unit 14 determines whether or not the distance L ′ in the pixel to be corrected is equal to or greater than the threshold Thd, and if it is determined that the distance L ′ is equal to or greater than the threshold Thd, step f7. If it is determined that the distance L ′ is smaller than the threshold Thd, the process proceeds to step f8.
[0153]
In step f7, as described above, the color component of the pixel to be corrected is corrected by the correcting unit 15 so as to be close to the constant lightness line 72 perpendicular to the constant lightness line 72, and the process proceeds to step f8.
[0154]
In step f8, the distribution analysis unit 14 determines whether or not the correction pixel number H is equal to the number J of image data belonging to the mask, that is, whether or not the correction of all the color components of the color character portion 63 belonging to the mask has been completed. To be judged. If it is determined that the correction pixel number H is equal to the number J of image data, the process proceeds to step f9. If not, the process proceeds to step f10, 1 is added to the correction pixel number H, and the process further proceeds to step f6. The distribution analysis unit 14 determines whether or not the distance L ′ is greater than or equal to the threshold value in the pixels to which the color component has not yet been corrected.
[0155]
In step f9, the distribution analysis unit 14 determines whether or not the correction of the color components of all the pixels that are the color character portion 63 has been completed, and if it is determined that the correction of the color components of all the pixels has been completed, Proceeding to step f11 to end all the procedures, and if it is determined that the correction of the color components of all the pixels has not yet been completed, the process proceeds to step f1. Also in this embodiment, the same effect as the embodiment shown in FIGS. 1 to 15 can be obtained.
[0156]
In another embodiment of the present invention, the color component of each pixel of the color character portion 63 is corrected so as to approach the iso-lightness straight line 72 perpendicularly to the iso-lightness straight line 72, so that The dispersion state can be corrected so as to reduce the dispersion of the color component indicating the hue while maintaining almost the same state as before the correction, so that there is no sense of incongruity when reproducing the image formed on the document. As described above, the color component of the color character portion 63 is corrected, and the image data can be corrected to improve the reproducibility of the image formed on the document.
[0157]
The above-described embodiment is merely an example of the present invention, and the configuration can be changed within the scope of the present invention. For example, the color correction unit 9 is composed only of the color character correction processing unit 25, and the halftone dots and photographic regions extracted by the region separation processing unit 8 are processed in the distribution analysis unit 14 and the correction unit 15 without being processed. 1 color space conversion unit 51 converts the given image data into L*a*b*L converted into image data expressed in a color system and prepared in advance*a*b*The color component of the image data may be corrected based on the color conversion table in the color system, and the second color space conversion unit 53 may convert the image data to image data represented in cyan, magenta, and yellow. .
[0158]
【The invention's effect】
  As described above, according to the present invention,letterCorrection is made so that the dispersion of the color components of the portion becomes small. As a result, even if color component variations occur during image input, for example, when reading an image formed on a document, the image data including the color component variations is corrected to image data with reduced color component variations. Thus, the reproducibility of the image formed on the original when outputting the image can be improved. AlsoCharacter partBy correcting only the color component indicating the hue and maintaining the gradation representing the tone of the image in the vicinity of the character portion, correction can be performed so that natural color reproduction can be performed.
[0159]
Further, according to the present invention, only the image portion to be corrected is extracted from the entire input image data, and only the portion that needs to be processed is subjected to image processing, thereby reducing the amount of calculation required for the image processing. .
[0160]
  Also according to the invention,letterThe color component of the partletterTypical value of color componentThat is, the average of the color components indicating the hues belonging to the mask of M rows and N columns centered on the pixel of interest included in the character portionBy making the correction close to, the amount of calculation for obtaining the corrected value of the color component in each pixel can be suppressed, and the dispersion of the color component of each pixel can be easily reduced, and the color component of each pixel Therefore, the image data can be corrected so that the image formed on the original can be faithfully reproduced. Further, variations in the correction direction of each pixel can be suppressed, and correction that can further improve reproducibility can be performed so that natural color reproduction can be performed.
[0161]
  Also according to the invention,letterBy correcting each color component of each pixel in the region so as to approach the approximate line perpendicular to the approximate line,letterNot only the partletterIncluding partletterSince the dispersion of the color components in the entire area can be reduced, the image data can be corrected so that the image formed on the original can be reproduced more faithfully.
[0162]
  Also according to the invention,letterBy replacing the color component indicating the brightness of each pixel in the portion with a predetermined correction brightness, the dispersion of the color component indicating the brightness is reduced, and the correction that can reproduce the image formed on the document at the time of image output satisfactorily Can do. In addition, by reducing the dispersion of color components indicating brightness,letterThe part can be corrected so that it can be reproduced clearly. Further, for example, in an image output apparatus having poor reproducibility of gradation representing the tone of the image, an image formed on a document when outputting an image using image data in which a color component indicating lightness is replaced with corrected lightness Can be reproduced well with a small number of gradations
[0163]
  Also according to the invention,letterThe color component of each pixel in the portion is corrected so as to be close to the isoluminance line perpendicular to the isoluminance line, so that the state of dispersion of the color components indicating saturation remains substantially the same as before the correction. Since the dispersion of the color component indicating the hue can be corrected to be small, when reproducing the image formed on the original,letterThe color component of the part is corrected, and correction can be made to image data that can improve the reproducibility of the image formed on the document.
[0164]
  Further, according to the present invention, it is included in the input image data.letterSince the dispersion of the color component of the portion is corrected so as to be reduced, it is possible to improve the reproducibility of the image formed on the document when outputting the image using the corrected image data.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image forming apparatus 1 including an image processing apparatus 3 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating configurations of a region separation processing unit 8 and a color correction unit 9;
3 is a block diagram showing a configuration of an edge determination unit 22 included in the region separation processing unit 8. FIG.
4A and 4B are diagrams showing edge detection masks and filters. FIG. 4A shows an edge detection mask, and FIG. 4B shows a Sobel filter 40 in the main scanning direction. 4 (3) shows the Sobel filter 41 in the sub-scanning direction.
FIG. 5 is a diagram illustrating threshold values used for determination of chromatic and achromatic colors.
6 is a block diagram showing a configuration of a color character correction processing unit 25. FIG.
FIG. 7 is a graph showing a color space of a first color system showing an image when correction is performed so as to reduce the dispersion of the color components of the character portion 61;
FIG. 8 is a graph showing a color space of a second color system showing an image when the dispersion of the color components of the color character portion 63 is corrected to be close to the representative value.
FIG. 9 is a graph showing a color space of a second color system showing an image when correcting a color component indicating brightness.
10 is a flowchart showing a procedure for correcting the dispersion of the color components of the color character portion 63 so as to approach the representative value 66. FIG.
11 is a diagram showing a 3 × 3 mask 75 centered on a pixel of interest 37. FIG.
12 is a diagram showing a hue relationship between the target pixel 37 and other pixels excluding the target pixel 37 in the 3 × 3 mask 75. FIG.
FIG. 13 shows a color space of the second color system showing an image when correcting the dispersion of the color components in the color character area 64 so as to approach the approximate straight line 68 in the image forming apparatus according to another embodiment of the present invention. It is a graph to show.
14 is a diagram showing a relationship between an approximate line 68 and an observation point 69. FIG.
FIG. 15 is a flowchart showing a procedure for correcting a color component of a color character area 64 using an approximate line 68;
FIG. 16 shows a color space of a second color system showing an image when a color component of a color character portion 63 is corrected using an iso-lightness straight line 72 in an image forming apparatus according to another embodiment of the present invention. It is a graph.
FIG. 17 is a flowchart showing a procedure for correcting the color component of the color character portion 63 by using an iso-lightness straight line 72;
[Explanation of symbols]
1 Image forming device
3 Image processing device
8 Region separation processing unit
9 Color correction part
14 Distribution analyzer
15 Correction unit
63 color characters
64-color character area
66 typical values
68 Approximate line
72 equal lightness straight line
74 Corrected brightness

Claims (11)

複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を解析し、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均を求める解析工程と、
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法。
With respect to image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is analyzed, and a mask of M rows and N columns centering on a target pixel included in the character portion. An analysis step for obtaining an average of color components indicating hues belonging to
In order to adjust the degree of correction predetermined for the difference between the average and the color component of the target pixel to the color component representing the hue of the target pixel so that the color component indicating the hue of each pixel of the character portion approaches the average And a correction step of correcting by adding a value obtained by integrating the parameters β (constants satisfying 0 ≦ parameter β ≦ 1).
複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字領域のすべての点について、予め定める直線との距離の2乗値を求めて、文字部分と下地部分との総和をとり、この総和を誤差として、この誤差を最小にすることによって前記分布状態を近似する近似直線を求める解析工程と、
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正工程とを含むことを特徴とする画像処理方法。
For image data of a character area including a character part represented by a plurality of color components, the distribution state of each color component of the character part is represented by spatial coordinates having lightness, saturation, and hue as three axes . For all the points, the square value of the distance to a predetermined straight line is obtained , the sum of the character part and the background part is taken, the sum is taken as an error, and the distribution state is approximated by minimizing this error. An analysis process for obtaining an approximate straight line;
In order to bring the color component of each pixel in the character area close to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. And a correction step of correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to the difference from the color component of the pixel. .
複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字部分の色相を示す色成分の分散状態を求め、注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一の明度の明度軸上の点とを結ぶ等明度直線を求める解析工程と、
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正工程とを含むことを特徴とする画像処理方法。
For image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having three axes of lightness, saturation, and hue, The dispersion state of the color component indicating the hue is obtained, and the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centered on the pixel of interest and the lightness axis of the same lightness as the lightness of this pixel An analysis process for obtaining an isoluminance straight line connecting the points of
And a correction step of correcting the color component of each pixel of the character portion so as to be close to the iso-lightness line perpendicular to the iso-lightness line.
解析工程の前に、入力される画像データから文字部分を含む文字領域を抽出する抽出工程を有することを特徴とする請求項1〜3のいずれか1つに記載の画像処理方法。  The image processing method according to claim 1, further comprising an extraction step of extracting a character region including a character portion from input image data before the analysis step. 補正工程は、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えるように補正することを特徴とする請求項1記載の画像処理方法。  The image processing method according to claim 1, wherein the correcting step corrects the color component indicating the lightness of each pixel of the character portion so as to be replaced with a predetermined corrected lightness. 複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の色相を示す色成分の分布状態を解析し、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均を求める解析手段と、
文字部分の各画素の色相を示す色成分を前記平均に近づけるように、注目画素の色相を表す色成分に、前記平均およびこの注目画素の色成分の差に予め定める補正の度合いを調整するためのパラメータβ(0≦パラメータβ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置。
For the image data of the character area including the character portion represented by a plurality of color components, the distribution state of the color component indicating the hue of the character portion is analyzed, and M rows N centering on the target pixel included in the character portion. An analysis means for obtaining an average of color components indicating hues belonging to the mask of the column;
In order to adjust the degree of correction predetermined for the difference between the average and the color component of the pixel of interest to the color component representing the hue of the pixel of interest so that the color component indicating the hue of each pixel of the character portion approaches the average An image processing apparatus comprising: a correction unit that adds and corrects a value obtained by integrating the parameters β (constants satisfying 0 ≦ parameter β ≦ 1).
複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字領域のすべての点について、予め定める直線との距離の2乗値を求めて、文字部分と下地部分との総和をとり、この総和を誤差として、この誤差を最小にすることによって前記分布状態を近似する近似直線を求める解析手段と、
文字領域の各画素の色成分を前記近似直線に垂直に近づけるように、注目画素を示す色成分に、近似直線およびこの注目の色成分から近似直線に下した垂線の交点の色成分とこの注目画素の色成分との差に補正の度合いを調整するパラメータγ(0≦パラメータγ≦1を満たす定数)を積算した値を加算して補正する補正手段とを含むことを特徴とする画像処理装置。
For image data of a character region including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having three axes of lightness, saturation, and hue . For all the points, the square value of the distance to a predetermined straight line is obtained , the sum of the character part and the background part is taken, the sum is taken as an error, and the distribution state is approximated by minimizing this error. An analysis means for obtaining an approximate straight line;
In order to bring the color component of each pixel in the character area closer to the approximate straight line perpendicularly, the color component indicating the target pixel is changed to the approximate straight line and the color component of the intersection of the perpendicular line drawn from the target color component to the approximate straight line. An image processing apparatus comprising: correction means for correcting by adding a value obtained by integrating a parameter γ (a constant satisfying 0 ≦ parameter γ ≦ 1) that adjusts the degree of correction to a difference from a color component of a pixel .
複数の色成分で表される文字部分を含む文字領域の画像データに対して、文字部分の各色成分の分布状態を、明度、彩度および色相を3軸とする空間座標で表し、文字部分の色相を示す色成分の分散状態を求め、文字部分に含まれる注目画素を中心としたM行N列のマスクに属する色相を示す色成分の平均の画素の点と、この画素の明度と同一の明度の明度軸上の点とを結ぶ等明度直線を求める解析手段と、
文字部分の各画素の色成分を、前記等明度直線に垂直に等明度直線に近づけるように補正する補正手段とを含むことを特徴とする画像処理装置。
For image data of a character area including a character portion represented by a plurality of color components, the distribution state of each color component of the character portion is represented by spatial coordinates having lightness, saturation, and hue as three axes. The distribution state of the color component indicating the hue is obtained, and the average pixel point of the color component indicating the hue belonging to the mask of M rows and N columns centering on the pixel of interest included in the character portion is the same as the brightness of this pixel An analysis means for obtaining an isoluminance straight line connecting points on the brightness axis of the brightness,
An image processing apparatus comprising: a correcting unit that corrects a color component of each pixel of a character portion so as to be close to the iso-lightness line perpendicular to the iso-lightness line.
入力される画像データから文字部分を含む文字領域を抽出する抽出手段を有することを特徴とする請求項6〜8のいずれか1つに記載の画像処理装置。  The image processing apparatus according to claim 6, further comprising an extraction unit that extracts a character region including a character part from input image data. 補正手段は、文字部分の各画素の明度を示す色成分を、予め定める補正明度に置き換えるように補正することを特徴とする請求項6記載の画像処理装置。  The image processing apparatus according to claim 6, wherein the correcting unit corrects the color component indicating the lightness of each pixel of the character portion so as to replace the corrected lightness with a predetermined correction lightness. 請求項6〜10のいずれか1つに記載の画像処理装置を含むことを特徴とする画像形成装置。  An image forming apparatus comprising the image processing apparatus according to claim 6.
JP2002002692A 2002-01-09 2002-01-09 Image processing method, image processing apparatus, and image forming apparatus Expired - Fee Related JP3966404B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002002692A JP3966404B2 (en) 2002-01-09 2002-01-09 Image processing method, image processing apparatus, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002002692A JP3966404B2 (en) 2002-01-09 2002-01-09 Image processing method, image processing apparatus, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2003204445A JP2003204445A (en) 2003-07-18
JP3966404B2 true JP3966404B2 (en) 2007-08-29

Family

ID=27642478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002002692A Expired - Fee Related JP3966404B2 (en) 2002-01-09 2002-01-09 Image processing method, image processing apparatus, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP3966404B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5003646B2 (en) * 2008-10-08 2012-08-15 セイコーエプソン株式会社 Image processing apparatus and image processing program
JP2010093588A (en) * 2008-10-08 2010-04-22 Seiko Epson Corp Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2003204445A (en) 2003-07-18

Similar Documents

Publication Publication Date Title
US7227990B2 (en) Color image processing device and color image processing method
US7502150B2 (en) Color converting device, image forming apparatus, color conversion method, computer program and recording medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4331159B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP3966404B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP2003209704A (en) Image processing method, image processor, image forming device, image processing program, and recording medium
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP2004297617A (en) Image processing device, image forming device, image processing method, image processing program, and computer readable recording medium recorded with image processing program
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP3927426B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP2003264701A (en) Image processing method, image processor and image forming device provided with the same
JP2003230006A (en) Image processing method, image processing apparatus, and image forming device
JP7076268B2 (en) Image processing equipment, image processing method and recording medium
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP4101741B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2008271131A (en) Method and device for image processing, and image forming apparatus
JP2005191890A (en) Image processing device, image processing method, image processing program, recording medium stored with image processing program and image forming apparatus with image processor
JP2004088663A (en) Image processing apparatus, image forming apparatus, and image processing method
JP2003234912A (en) Image processing method, image processing apparatus and image forming apparatus
JP4266002B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2009065559A (en) Image processing apparatus, image processing method, and storage medium with image processing program stored thereon
JP2004104248A (en) Image processing apparatus, image reader, image forming apparatus, and image processing method
JP2004214908A (en) Image processing apparatus and image forming apparatus provided with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100608

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110608

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130608

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees