JP3967131B2 - Image data correction method and correction apparatus - Google Patents

Image data correction method and correction apparatus Download PDF

Info

Publication number
JP3967131B2
JP3967131B2 JP2001401630A JP2001401630A JP3967131B2 JP 3967131 B2 JP3967131 B2 JP 3967131B2 JP 2001401630 A JP2001401630 A JP 2001401630A JP 2001401630 A JP2001401630 A JP 2001401630A JP 3967131 B2 JP3967131 B2 JP 3967131B2
Authority
JP
Japan
Prior art keywords
distance
color space
image data
correction
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001401630A
Other languages
Japanese (ja)
Other versions
JP2003198869A (en
Inventor
徳政 有賀
浩基 梅澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2001401630A priority Critical patent/JP3967131B2/en
Publication of JP2003198869A publication Critical patent/JP2003198869A/en
Application granted granted Critical
Publication of JP3967131B2 publication Critical patent/JP3967131B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カラー画像データなど画像データの補正方法及び補正装置に関する。
【0002】
【従来の技術】
新聞紙など下地が灰色の原稿をスキャナで読み取ったり、経年変化した酸性紙などのように下地が黄ばんでいる原稿をスキャナで読み取ったりすると、下地に色がついた画像データが取り込まれる。このままの状態でこの画像データをプリンタで印刷すると、下地に色がついた状態で印刷が行われ、印刷品質が悪くなる。
【0003】
このため、プリンタで印刷する前に画像データを補正する必要がある。この補正で一般的に使用されるのが、CIELAB色空間への変換計算を使用した補正である。この補正は、用紙の下地色をホワイトポイントとしてデバイス非依存の色空間であるLabに変換し、これを出力して下地の色を取り除くようにしている。
具体的に述べると、スキャナで読込んだ画像データのRGB値をXYZ値に変換する。そして、XYZ値から下記式にてLab値を求める。
【0004】

Figure 0003967131
この色空間では、L=100、a=0、b=0が白を表わす。
【0005】
従って、XYZ値がそれぞれXn,Yn,Znになると、L=100、a=0、b=0となり、白を表わす。下地の不要な色を消すためには、Xn,Yn,Znに下地のXYZ値を使用すれば白にすることができる。
また、特開平5−207280号公報のものは、画像の明度によって下地を検出し補正を行っている。
【0006】
【発明が解決しようとする課題】
前者のCIELAB色空間への変換計算を使用した補正においては、ホワイトポイントを代入する場合、全ての色がホワイトポイントの影響を受けるため、全体的に明度の上がった画像に変換され、鮮やかな色の出力ができなくなる可能性があった。
【0007】
また、後者の公報のものは、最大彩度の明度が高いYellowの彩度が無くなり、白になってしまう可能性があった。
本発明は、補正精度の向上を図ることができる画像データの補正方法及び補正装置を提供する。
【0008】
【補正を解決するための手段】
本発明は、CIELAB色空間上に基準座標を定めるとともに、この基準座標から一定な第1の距離で区画される第1の色空間領域、第1の距離と第1の距離より長い一定な第2の距離とで区画される第2の色空間領域、および第2の距離より長い距離を有する第3の色空間領域を定め、第1,第2及び第3の各色空間領域にそれぞれ異なる補正ルールを設定する。そして、入力された画像データのCIELAB色空間上の座標と基準座標との距離を求め、求めた距離がいずれの色空間領域に入るかを判定し、画像データを判定された色空間領域に設定されている補正ルールに基づいて補正することにある。
【0009】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。
(第1の実施の形態)
この実施の形態は、図1に示すように、ホストコンピュータ1に専用もしくは汎用のインターフェースを使用してスキャナ2を接続している。
【0010】
前記ホストコンピュータ1は、図2に示すように、制御部本体を構成するCPU(中央処理装置)11、このCPU11が各部を制御するための基本的なプログラムデータを格納したROM(リード・オンリー・メモリ)12、処理データを一時格納する各種メモリ等を設けたRAM(ランダム・アクセス・メモリ)13、アプリケーション・ソフトウエアの格納や管理するデータの格納等を行うHDD(ハードディスク装置)14、キーボード15、ディスプレイ16、前記スキャナ2とのインターフェース17を備えている。これらはバスライン18によって電気的に接続されている。
【0011】
前記スキャナ2は、図3に示すように、制御部本体を構成するCPU(中央処理装置)21、このCPU11が各部を制御するためのプログラムデータを格納したROM(リード・オンリー・メモリ)22、処理データを一時格納する各種メモリ等を設けたRAM(ランダム・アクセス・メモリ)23、原稿から文字や写真等を画像として読み込むCCDセンサ24、前記ホストコンピュータ1とのインターフェース25を備えている。これらはバスライン26によって電気的に接続されている。
前記ホストコンピュータ1のCPU11は、HDD14に格納されているアプリケーション・ソフトウエアを起動して図4に示す画像読み込み処理を開始させるようになっている。
【0012】
このときの画像読み込み処理は、先ず、ST1にて、スキャナ2へ読み込み命令を送信する。続いて、ST2にて、スキャナ2から画像データを受信し、ST3にて、受信した画像データを画像処理し、最後に、ST4にて、画像処理後の画像データをHDD14に格納する。
【0013】
前記スキャナ2は、図5に示すように、電源をオンすると、ST11にて、前記ホストコンピュータ1からの読み込み命令の受信まで待機し、読み込み命令を受信すると、ST12にて、CCDセンサ24を駆動して原稿を読み取り、画像データを作成する。
続いて、ST13にて、画像データのLog変換処理を行ってRGB値を生成し、ST14にて、RGB値に変換された画像データをインターフェース25からホストコンピュータ1に送信する。
【0014】
前記ホストコンピュータ1において画像処理を行う画像処理部を機能ブロックで示すと図6に示す構成である。すなわち、この画像処理部は、第1の色空間変換手段31、色変換手段32、距離計算手段33、下地レベル作成手段34、領域判定手段35、補正データ作成手段36、補正データ合成手段37、第2の色空間変換手段38からなる。
【0015】
この画像処理部は、スキャナ2から取り込んだRGB値の画像データを入力画像とし、この入力画像に対して前記第1の色空間変換手段31により色の差の計算が行い易いようにRGB値をLab値に色空間変換を行う。この第1の色空間変換手段31においては、入力された画像データを3次元ルックアップテーブルや3×3の行列式などを使用して色空間変換を行う。
【0016】
前記第1の色空間変換手段31により色空間変換された画像データを、次に前記色変換手段32によってデバイス間の色の一致を目的とする希望する色に変換する。そして、変換した画像データをRAM13に格納する。この色変換手段32においては、色空間変換された画像データを3次元ルックアップテーブルや3×3の行列式などを使用して色変換を行う。
なお、前記第1の色空間変換手段31による色空間変換と前記色変換手段32による色変換をまとめて1回で変換することもできる。
【0017】
次に、基準座標を基準白色座標とし、この座標の基準白色と色変換されRAM13に格納された画像データとの色の差の距離計算を前記距離計算手段33によって画素毎に行い、その結果の距離データをRAM13に格納する。このときの距離計算は、Lab3成分のそれぞれの差ΔL,Δa,Δbの二乗和の平方根として下記式で行う。すなわち、色差ΔEは、
ΔE={(ΔL+(Δa+(Δb1/2
となる。
【0018】
なお、ΔLは、画像データと基準白色のL成分の差であり、Δaは、画像データと基準白色のa成分の差であり、Δbは、画像データと基準白色のb成分の差である。
なお、色差計算式はこれに限定するものではなく、他の計算式を使用してもよい。また、色空間変換は、Lab値に限定するものではなく、XYZ、RGB、CMY、あるいは濃度DrDgDbなどに変換することも可能である。
【0019】
XYZの場合の色差ΔEは、
ΔE={(ΔX)+(ΔY)+(ΔZ)1/2
となり、RGBの場合の色差ΔEは、
ΔE={(ΔR)+(ΔG)+(ΔG)1/2
となり、CMYの場合の色差ΔEは、
ΔE={(ΔC)+(ΔM)+(ΔY)1/2
となり、DrDgDbの場合の色差ΔEは、
ΔE={(ΔDr)+(ΔDg)+(ΔDb)1/2
となる。
【0020】
次に、前記下地レベル作成手段34は、RAM13に格納された全ての画像データの距離計算結果と基準白色との色差の距離毎にヒストグラムを生成し、一定の閾値の距離を下地レベルΔEth2としてRAM13に格納する。なお、一定の閾値としては、ヒストグラムの最大値を使用する。但し、下地にはばらつきがあるため最大値の距離よりも若干大き目の数値を下地レベルとして使用することもある。なお、下地レベルΔEth2は予め設定しておいてもよい。
【0021】
次に、前記領域判定手段35は、前記色変換手段32により色変換されてRAM13に格納された画像データを入力として、前記距離計算手段33が算出しRAM13に格納された各画素の距離データΔEと、前記下地レベル作成手段34が作成しRAM13に格納された下地レベルΔEth2と、予め設定した不変レベルΔEth1とから、各画素がどの領域に入るかを判定する。
【0022】
なお、不変レベルとは、色空間での距離で表わされた値であり、この値よりも外側に位置する色は変換しないことを設定するための境界のレベルである。この不変レベルの設定は、予め測定された入力画像の、原色の最大濃度の色と基準白色の距離を計算した値を使用して行う。
【0023】
このようにここでは、不変レベルの設定に入力画像の、原色の最大濃度の色を使用しているが必ずしもこれに限定するものではなく、入力画像の、原色の最大彩度の色を使用してもよい。
前記領域判定手段35が判定した結果を前記補正データ作成手段36に供給している。
【0024】
前記補正データ作成手段36は、判定結果に基づいて補正データを作成する。すなわち、図7は補正データ計算における下地レベルΔEth2と不変レベルΔEth1との関係を示すグラフである。画素の基準白色座標Aからの距離データΔEが不変レベルΔEth1よりも大きければ補正データを作成せず、その画像データの補正を行わないよう補正ルールが設定されている。従って、色は変化しないことになる。
【0025】
また、画素の距離データΔEが下地レベルΔEth2よりも小さければその画素を下地として認識し、所望する基準白色に変換するための補正データを作成するよう補正ルールが設定されている。さらに、画素の距離データΔEが不変レベルΔEth1と下地レベルΔEth2との間にあるときには、距離データΔEの値に応じて所望する基準白色に近づけるための補正データを作成するよう補正ルールが設定されている。
具体的には、下記式で示すような補正計算を行う。
【0026】
Figure 0003967131
但し、L、a、bは入力Lab値、L′、a′、b′は補正Lab値、L WP、a WP、b WPは基準白色のLab値である。
【0027】
前記補正データ作成手段36で作成した補正データは前記補正データ合成手段37に供給される。
前記補正データ合成手段37は、前記補正データ作成手段36で作成された補正データと前記色変換手段32で色変換された画像データを合成して前記RAM13に格納する。各画素の合成は下記式に従って行う。
【0028】
″=L+L
″=a+a
″=b+b
但し、L″、a″、b″は出力Lab値である。
【0029】
なお、前記補正データ作成手段36及び補正データ合成手段37は上記計算式からも分かるように一つの手段として構成することもできる。
前記第2の色空間変換手段38は、前記補正データ合成手段37からのLab値をRGB値に変換しRAM13に格納する。なお、変換する色空間はRGBに限らず所望の色空間に変換することも可能である。
【0030】
このように、Lab色空間上の基準座標を基準白色座標Aとし、この色空間を基準白色座標Aからの距離で表わされる不変レベルΔEth1及び下地レベルΔEth2で区切って複数の領域を形成し、入力画像データと基準白色座標Aとの距離である色差ΔEを算出し、その色差ΔEがどの領域に入っているかを判断する。そして、色差ΔEが下地レベルΔEth2よりも小さければ下地と認識して基準白色点データに変更するための補正データを作成する。また、色差ΔEが不変レベルΔEth1と下地レベルΔEth2との間にあるときには、その色差ΔEの値に応じて基準白色点に近づける変換を行うための補正データを作成する。また、色差ΔEが不変レベルΔEth1よりも大きければ補正データを作成せず補正は行わない。
【0031】
従って、Yellowなどの高彩度高明度色の色は不変レベルΔEth1よりも大きい領域に入るので、白に補正されることはなく、色の再現性が確保される。これにより、補正精度の向上を図ることができる。
【0032】
また、基準白色点以上であり、下地レベルΔEth2より小さい領域、下地レベルΔEth2以上であり、不変レベルΔEth1以下の領域、不変レベルΔEth1を越える領域の3つの領域を設定してそれぞれの領域に異なる補正ルールを設定しているので、領域毎の変換が線形変換であったとしても、全体的な処理では擬似的な非線型の変換を行うことができる。
【0033】
(第2の実施の形態)
この実施の形態は、ホストコンピュータ1における画像処理部の他の実施の形態を示すものである。なお、前述した第1の実施の形態と同一の部分には同一の符号を付し、詳細な説明は省略する。
【0034】
この画像処理部は、図8に示すように、第1の色空間変換手段31、色変換手段32、第2の色空間変換手段38、距離計算手段39、下地レベル作成手段34、領域判定手段35、補正データ作成手段36、補正データ合成手段37、第1、第2の3次元ルックアップテーブル40,41からなる。
【0035】
前記第1の色空間変換手段31は、スキャナ2から取り込んだRGB値の画像データを色の差の計算が行い易いようにRGB値をLab値に色空間変換を行ってRAM13に格納する。前記距離計算手段39は、前記第1の3次元ルックアップテーブル40の格子点データを使用して距離計算を行う。そして、結果の距離データをRAM13に格納する。
【0036】
前記下地レベル作成手段34は、下地レベルΔEth2を作成してRAM13に格納する。前記領域判定手段35は、RAM13に格納された距離データΔEと、RAM13に格納された下地レベルΔEth2と、予め設定した不変レベルΔEth1とから、各画素がどの領域に入るかを判定する。
【0037】
前記補正データ作成手段36は、判定結果に基づいて前記第1の3次元ルックアップテーブル40の格子点データ毎に補正データを作成し、前記補正データ合成手段37は、作成された補正データと前記第1の3次元ルックアップテーブル40の格子点データを合成し、その合成結果を前記第2の3次元ルックアップテーブル41に格納する。
【0038】
前記色変換手段32は、前記第2の3次元ルックアップテーブル41を使用して第1の色空間変換手段31からの画像データを色変換する。そして、この色変換した画像データを前記第2の色空間変換手段38に供給している。前記第2の色空間変換手段38は、色変換手段32で色変換したLab値をRGB値に変換しRAM13に格納する。
【0039】
このような構成においては、基準白色を決めて第2の3次元ルックアップテーブル41のデータを設定する処理を事前に行うことが可能になる。
従って、実際にスキャナ2から取り込んだRGB値の画像データをLab値に色空間変換を行ってRAM13に格納した後は、色変換手段32が直ぐに第2の3次元ルックアップテーブル41のデータを使用して色変換処理を行うことができる。
【0040】
すなわち、距離計算手段39による距離の算出、補正データ作成手段36による補正データの作成、補正データ合成手段37による補正データの合成の各処理はこの時点では行う必要はない。
従って、処理速度を高めることができ、処理の高速化を図ることができる。
【0041】
なお、この実施の形態においてもYellowなどの高彩度高明度色の色は不変レベルΔEth1よりも大きい領域に入るので、白に補正されることはなく、色の再現性が確保される。これにより、補正精度の向上を図ることができる。また、3つの領域を設定しているので、領域毎の変換が線形変換であったとしても、全体的な処理では擬似的な非線型の変換を行うことができる。
【0042】
なお、第1の3次元ルックアップテーブル40と第1の色空間変換手段31が色空間変換に使用する3次元ルックアップテーブルを合成し、1つの3次元ルックアップテーブルで色空間変換と色変換処理を1回で行うことも可能である。
【0043】
なお、前述した各実施の形態は、基準座標を基準白色座標とした場合について述べたが必ずしもこれに限定するものではない。
例えば、基準座標を、複数の被験者から得られた、好ましい肌色の座標点とし、それを基準肌色座標点に設定する。そして、この基準肌色座標点から予め決められた一定の色差にある入力画像データを基準肌色座標点に変換する補正を行い、また、不変レベルを設定し、この不変レベルよりも大きな領域では色補正を行わないようにする。
【0044】
このように設定して、ポートレート写真などの人の肌色を含む画像データを入力した時、基準肌色点に対する入力画像の肌色が一定色差内であれば人間が感じる好ましい肌色になり、それ以上で、かつ不変レベル以下であれば好ましい肌色に近づくように色変換を行う。このような色変換を行うことで、見た目に好ましいと感じる肌色が得られることになる。
【0045】
このように、基準座標として基準白色点のみでなく、基準肌色点等の希望の色を設定することができる。そして、希望色からの色差が同じ時には色相が違っていても同じ色変換処理を行うことができ、色相による変換の偏りが無い。
【0046】
【発明の効果】
以上詳述したように、本発明によれば、補正精度の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を示す全体のブロック図。
【図2】同実施の形態におけるホストコンピュータの構成を示すブロック図。
【図3】同実施の形態におけるスキャナの構成を示すブロック図。
【図4】同実施の形態におけるホストコンピュータによるスキャナからの画像読み込み処理を示す流れ図。
【図5】同実施の形態におけるスキャナによる画像読み込み処理を示す流れ図。
【図6】同実施の形態におけるホストコンピュータの画像処理部の機能ブロック図。
【図7】同実施の形態における補正データ計算における下地レベルと不変レベルとの関係を示すグラフ。
【図8】本発明の第2の実施の形態におけるホストコンピュータの画像処理部の機能ブロック図。
【符号の説明】
1…ホストコンピュータ
2…スキャナ
11,21…CPU
31,38…色空間変換手段
32…色変換手段
33…距離計算手段
34…下地レベル作成手段
35…領域判定手段
36…補正データ作成手段
37…補正データ合成手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a correction method and correction apparatus for image data such as color image data.
[0002]
[Prior art]
When an original with a gray background such as newspaper is read with a scanner, or an original with a yellow background such as acid paper that has changed over time is read with a scanner, image data with a colored background is captured. If this image data is printed with a printer in this state, printing is performed with the background colored, and the print quality deteriorates.
[0003]
For this reason, it is necessary to correct the image data before printing with the printer. Generally used in this correction is correction using conversion calculation to the CIELAB color space. In this correction, the background color of the paper is converted into Lab, which is a device-independent color space, with the white point as a white point, and this is output to remove the background color.
More specifically, the RGB values of the image data read by the scanner are converted into XYZ values. Then, the Lab value is obtained from the XYZ value by the following formula.
[0004]
Figure 0003967131
In this color space, L * = 100, a * = 0, b * = 0 represents white.
[0005]
Therefore, when the XYZ values are Xn, Yn, and Zn, respectively, L * = 100, a * = 0, and b * = 0, representing white. In order to erase the unnecessary color of the background, white can be obtained by using the XYZ values of the background for Xn, Yn, and Zn.
Japanese Patent Application Laid-Open No. 5-207280 detects and corrects a background based on the brightness of an image.
[0006]
[Problems to be solved by the invention]
In the correction using the conversion calculation to the former CIELAB color space, when substituting the white point, all colors are affected by the white point, so the image is converted to a brighter image as a whole, resulting in bright colors. Could not be output.
[0007]
In the latter publication, there is a possibility that the yellow saturation having the highest lightness of the maximum saturation is lost and the color becomes white.
The present invention provides a correction method and a correction apparatus for image data capable of improving correction accuracy.
[0008]
[Means for solving the correction]
The present invention Rutotomoni defines a reference coordinate on the CIELAB color space, the first color space region defined by the distance from the reference coordinates constant first, longer constant it than the first distance and the first distance A second color space region divided by the second distance and a third color space region having a distance longer than the second distance are defined, and each of the first, second, and third color space regions is different. Set correction rules . Then, Me a distance between the coordinate and the reference coordinate of the CIELAB color space of the input image data determined, determined distance purchase determined deviation of whether entering the color space region, the color space is determined images data The correction is based on the correction rule set in the area.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
In this embodiment, as shown in FIG. 1, a scanner 2 is connected to a host computer 1 using a dedicated or general-purpose interface.
[0010]
As shown in FIG. 2, the host computer 1 includes a CPU (central processing unit) 11 that constitutes a control unit main body, and a ROM (read-only memory) that stores basic program data for the CPU 11 to control each unit. (Memory) 12, RAM (random access memory) 13 provided with various memories for temporarily storing processing data, HDD (hard disk device) 14 for storing application software and data for management, etc., keyboard 15 , A display 16 and an interface 17 with the scanner 2. These are electrically connected by a bus line 18.
[0011]
As shown in FIG. 3, the scanner 2 includes a CPU (central processing unit) 21 constituting a control unit main body, a ROM (read only memory) 22 storing program data for the CPU 11 to control each unit, A RAM (Random Access Memory) 23 provided with various memories for temporarily storing processing data, a CCD sensor 24 for reading characters, photographs and the like from an original as an image, and an interface 25 with the host computer 1 are provided. These are electrically connected by a bus line 26.
The CPU 11 of the host computer 1 starts application software stored in the HDD 14 and starts the image reading process shown in FIG.
[0012]
In this image reading process, first, a reading command is transmitted to the scanner 2 in ST1. Subsequently, in ST2, image data is received from the scanner 2, and in ST3, the received image data is subjected to image processing. Finally, in ST4, the image data after image processing is stored in the HDD.
[0013]
As shown in FIG. 5, when the power is turned on, the scanner 2 waits until receiving a read command from the host computer 1 at ST11. When receiving the read command, the scanner 2 drives the CCD sensor 24 at ST12. Scan the document and create image data.
Subsequently, in ST13, log conversion processing of the image data is performed to generate an RGB value, and in ST14, the image data converted into the RGB value is transmitted from the interface 25 to the host computer 1.
[0014]
An image processing unit that performs image processing in the host computer 1 is shown in functional block form in FIG. That is, the image processing unit includes a first color space conversion unit 31, a color conversion unit 32, a distance calculation unit 33, a background level generation unit 34, an area determination unit 35, a correction data generation unit 36, a correction data synthesis unit 37, The second color space conversion means 38 is included.
[0015]
The image processing unit uses the RGB value image data captured from the scanner 2 as an input image, and the RGB value is set so that the first color space conversion unit 31 can easily calculate a color difference for the input image. Color space conversion is performed on the Lab value. In the first color space conversion means 31, the input image data is subjected to color space conversion using a three-dimensional lookup table, a 3 × 3 determinant, or the like.
[0016]
The image data that has been color space converted by the first color space conversion means 31 is then converted by the color conversion means 32 into a desired color for the purpose of color matching between devices. The converted image data is stored in the RAM 13. In this color conversion means 32, color conversion is performed on the image data subjected to color space conversion using a three-dimensional lookup table, a 3 × 3 determinant, or the like.
Note that the color space conversion by the first color space conversion means 31 and the color conversion by the color conversion means 32 may be converted at once.
[0017]
Next, the reference coordinate is set as the reference white coordinate, and the distance calculation means 33 calculates the distance of the color difference between the reference white of this coordinate and the image data that has been color-converted and stored in the RAM 13, and the result is as follows. The distance data is stored in the RAM 13. The distance calculation at this time is performed by the following formula as the square root of the square sum of each difference ΔL * , Δa * , Δb * of the Lab3 component. That is, the color difference ΔE is
ΔE = {(ΔL * ) 2 + (Δa * ) 2 + (Δb * ) 2 } 1/2
It becomes.
[0018]
ΔL * is the difference between the L * component of the image data and the reference white, Δa * is the difference between the a * component of the image data and the reference white, and Δb * is the b * of the image data and the reference white . It is the difference in components.
The color difference calculation formula is not limited to this, and other calculation formulas may be used. The color space conversion is not limited to the Lab value, and can be converted into XYZ, RGB, CMY, or density DrDgDb.
[0019]
The color difference ΔE in the case of XYZ is
ΔE = {(ΔX) 2 + (ΔY) 2 + (ΔZ) 2 } 1/2
The color difference ΔE in the case of RGB is
ΔE = {(ΔR) 2 + (ΔG) 2 + (ΔG) 2 } 1/2
The color difference ΔE in the case of CMY is
ΔE = {(ΔC) 2 + (ΔM) 2 + (ΔY) 2 } 1/2
The color difference ΔE in the case of DrDgDb is
ΔE = {(ΔDr) 2 + (ΔDg) 2 + (ΔDb) 2 } 1/2
It becomes.
[0020]
Next, the background level creation means 34 generates a histogram for each color difference distance between the distance calculation results of all the image data stored in the RAM 13 and the reference white, and sets a certain threshold distance as the background level ΔEth2 in the RAM 13. To store. Note that the maximum value of the histogram is used as the constant threshold. However, since the background varies, a numerical value slightly larger than the maximum distance may be used as the background level. The ground level ΔEth2 may be set in advance.
[0021]
Next, the area determination unit 35 receives the image data color-converted by the color conversion unit 32 and stored in the RAM 13 as an input, and the distance calculation unit 33 calculates the distance data ΔE of each pixel calculated by the distance calculation unit 33 and stored in the RAM 13. Then, based on the ground level ΔEth2 created by the ground level creating means 34 and stored in the RAM 13, and the invariable level ΔEth1 set in advance, it is determined which region each pixel enters.
[0022]
The invariant level is a value represented by a distance in the color space, and is a boundary level for setting that a color located outside this value is not converted. The invariable level is set using a value obtained by calculating the distance between the primary density of the primary color and the reference white of the input image measured in advance.
[0023]
As described above, the maximum density of the primary color of the input image is used for setting the invariant level, but this is not necessarily limited to this, and the maximum saturation color of the primary color of the input image is used. May be.
The result determined by the area determination unit 35 is supplied to the correction data creation unit 36.
[0024]
The correction data creating means 36 creates correction data based on the determination result. That is, FIG. 7 is a graph showing the relationship between the ground level ΔEth2 and the invariant level ΔEth1 in the correction data calculation. A correction rule is set so that if the distance data ΔE from the reference white coordinate A of the pixel is larger than the invariable level ΔEth1, the correction data is not created and the image data is not corrected. Therefore, the color will not change.
[0025]
In addition, if the pixel distance data ΔE is smaller than the background level ΔEth2, the correction rule is set so that the pixel is recognized as the background and correction data for converting to the desired reference white is generated. Further, when the pixel distance data ΔE is between the invariant level ΔEth1 and the background level ΔEth2, a correction rule is set so as to create correction data for approaching the desired reference white according to the value of the distance data ΔE. Yes.
Specifically, correction calculation as shown in the following equation is performed.
[0026]
Figure 0003967131
However, L * , a * , b * are input Lab values, L * ′, a * ′, b * ′ are corrected Lab values, and L * WP , a * WP , b * WP are Lab values of reference white. .
[0027]
The correction data created by the correction data creating means 36 is supplied to the correction data synthesizing means 37.
The correction data synthesizing unit 37 synthesizes the correction data created by the correction data creating unit 36 and the image data color-converted by the color conversion unit 32 and stores them in the RAM 13. The synthesis of each pixel is performed according to the following formula.
[0028]
L * ″ = L * + L *
a * ″ = a * + a *
b * ″ = b * + b *
However, L * ″, a * ″, b * ″ are output Lab values.
[0029]
The correction data creating means 36 and the correction data synthesizing means 37 can be configured as one means as can be seen from the above formula.
The second color space conversion unit 38 converts the Lab value from the correction data synthesis unit 37 into an RGB value and stores it in the RAM 13. Note that the color space to be converted is not limited to RGB and can be converted to a desired color space.
[0030]
In this way, the reference coordinate in the Lab color space is set as the reference white coordinate A, and this color space is divided by the invariant level ΔEth1 and the background level ΔEth2 expressed by the distance from the reference white coordinate A to form a plurality of areas. A color difference ΔE that is the distance between the image data and the reference white coordinate A is calculated, and it is determined which region the color difference ΔE is in. If the color difference ΔE is smaller than the background level ΔEth2, correction data for recognizing the background and changing to the reference white point data is created. Further, when the color difference ΔE is between the invariable level ΔEth1 and the background level ΔEth2, correction data is generated for performing conversion to approach the reference white point according to the value of the color difference ΔE. If the color difference ΔE is larger than the invariable level ΔEth1, no correction data is created and no correction is performed.
[0031]
Accordingly, since the color of high saturation and lightness color such as Yellow enters the region larger than the invariable level ΔEth1, it is not corrected to white and the color reproducibility is ensured. Thereby, the correction accuracy can be improved.
[0032]
In addition, three regions are set, namely, a region above the reference white point and lower than the background level ΔEth2, a region above the background level ΔEth2, a region below the invariable level ΔEth1, and a region above the invariant level ΔEth1, and each region has a different correction. Since the rule is set, even if the conversion for each region is a linear conversion, a pseudo nonlinear conversion can be performed in the overall process.
[0033]
(Second Embodiment)
This embodiment shows another embodiment of the image processing unit in the host computer 1. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment mentioned above, and detailed description is abbreviate | omitted.
[0034]
As shown in FIG. 8, the image processing unit includes a first color space conversion unit 31, a color conversion unit 32, a second color space conversion unit 38, a distance calculation unit 39, a background level creation unit 34, and an area determination unit. 35, a correction data creating means 36, a correction data synthesizing means 37, and first and second three-dimensional lookup tables 40 and 41.
[0035]
The first color space conversion means 31 performs color space conversion of RGB values into Lab values and stores them in the RAM 13 so that the color difference of the RGB image data captured from the scanner 2 can be easily calculated. The distance calculation means 39 performs distance calculation using the grid point data of the first three-dimensional lookup table 40. The resulting distance data is stored in the RAM 13.
[0036]
The ground level creating means 34 creates a ground level ΔEth2 and stores it in the RAM 13. The area determination means 35 determines which area each pixel enters from the distance data ΔE stored in the RAM 13, the ground level ΔEth 2 stored in the RAM 13, and a preset invariable level ΔEth 1.
[0037]
The correction data creation means 36 creates correction data for each grid point data of the first three-dimensional lookup table 40 based on the determination result, and the correction data composition means 37 creates the correction data and the correction data The grid point data of the first three-dimensional lookup table 40 is synthesized, and the synthesis result is stored in the second three-dimensional lookup table 41.
[0038]
The color conversion unit 32 performs color conversion on the image data from the first color space conversion unit 31 using the second three-dimensional lookup table 41. The color-converted image data is supplied to the second color space conversion means 38. The second color space conversion means 38 converts the Lab value color-converted by the color conversion means 32 into an RGB value and stores it in the RAM 13.
[0039]
In such a configuration, it is possible to perform in advance a process of determining the reference white color and setting the data of the second three-dimensional lookup table 41.
Therefore, after the RGB value image data actually captured from the scanner 2 is color space converted into Lab values and stored in the RAM 13, the color conversion means 32 immediately uses the data of the second three-dimensional lookup table 41. Thus, color conversion processing can be performed.
[0040]
That is, the calculation of the distance by the distance calculation unit 39, the generation of correction data by the correction data generation unit 36, and the synthesis of correction data by the correction data synthesis unit 37 do not need to be performed at this time.
Accordingly, the processing speed can be increased and the processing speed can be increased.
[0041]
In this embodiment as well, since the color of high chroma and lightness color such as Yellow enters an area larger than the invariable level ΔEth1, it is not corrected to white and color reproducibility is ensured. Thereby, the correction accuracy can be improved. In addition, since three regions are set, even if the conversion for each region is a linear conversion, pseudo nonlinear conversion can be performed in the overall process.
[0042]
Note that the first three-dimensional lookup table 40 and the first three-dimensional lookup table 31 used by the first color space conversion unit 31 for color space conversion are combined, and color space conversion and color conversion are performed using one three-dimensional lookup table. It is also possible to perform the processing once.
[0043]
In addition, although each embodiment mentioned above described the case where a reference | standard coordinate was made into a reference | standard white coordinate, it does not necessarily limit to this.
For example, the reference coordinates are set as preferred skin color coordinate points obtained from a plurality of subjects, and set as reference skin color coordinate points. Then, correction is performed to convert input image data having a predetermined color difference from the reference skin color coordinate point to the reference skin color coordinate point, and an invariant level is set, and color correction is performed in a region larger than the invariant level. Do not do.
[0044]
When image data including human skin color such as portrait photos is input in this way, if the skin color of the input image with respect to the reference skin color point is within a certain color difference, it becomes a preferable skin color that humans feel, and beyond If it is below the invariant level, color conversion is performed so as to approach a preferable skin color. By performing such color conversion, it is possible to obtain a skin color that is visually favorable.
[0045]
In this way, not only the reference white point but also a desired color such as the reference skin color point can be set as the reference coordinates. When the color difference from the desired color is the same, the same color conversion process can be performed even if the hue is different, and there is no bias in conversion due to the hue.
[0046]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to improve the correction accuracy.
[Brief description of the drawings]
FIG. 1 is an overall block diagram showing a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a host computer in the embodiment.
FIG. 3 is a block diagram showing a configuration of a scanner in the embodiment.
FIG. 4 is a flowchart showing image reading processing from the scanner by the host computer in the embodiment;
FIG. 5 is a flowchart showing image reading processing by the scanner according to the embodiment;
FIG. 6 is a functional block diagram of an image processing unit of the host computer in the embodiment.
FIG. 7 is a graph showing a relationship between a background level and an invariant level in correction data calculation according to the embodiment.
FIG. 8 is a functional block diagram of an image processing unit of a host computer according to the second embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Host computer 2 ... Scanner 11, 21 ... CPU
31, 38 ... Color space conversion means 32 ... Color conversion means 33 ... Distance calculation means 34 ... Background level creation means 35 ... Area determination means 36 ... Correction data creation means 37 ... Correction data composition means

Claims (8)

CIELAB色空間上に基準座標を定め、前記基準座標から一定な第1の距離で区画される第1の色空間領域、前記第1の距離と前記第1の距離より長い一定な第2の距離とで区画される第2の色空間領域、および前記第2の距離より長い距離を有する第3の色空間領域を定め、前記第1,第2及び第3の各色空間領域にそれぞれ異なる補正ルールを設定し、
力された画像データのCIELAB色空間上の座標と前記基準座標との距離を求め、求めた距離がいずれの色空間領域に入るかを判定し、前記画像データを判定された色空間領域に設定されている補正ルールに基づいて補正することを特徴とする画像データの補正方法。
A reference color is defined on the CIELAB color space, a first color space region defined by a fixed first distance from the reference coordinate, a fixed second distance longer than the first distance and the first distance. And a second color space region partitioned by and a third color space region having a distance longer than the second distance, and different correction rules for the first, second, and third color space regions, respectively. Set
Obtains distances of the input coordinates on the CIELAB color space of the image data and the reference coordinates, it is determined whether entering the color space region of the determined meth distance purchase deviation, the pre-outs image data are determine the constant A correction method for image data, wherein correction is performed based on a correction rule set in a color space region.
CIELAB色空間上に基準座標を定め、前記基準座標から一定な第1の距離で定まる第1の境界値及び前記第1の距離より長い一定な第2の距離で定まる第2の境界値を決定し、前記第1及び第2の境界値によって区画される複数の色空間領域にそれぞれ異なる補正ルールを設定し、
力された画像データのCIELAB色空間上の座標と前記基準座標との距離を求め、求めた距離がいずれの色空間領域に入るかを判定し、前記画像データを判定された色空間領域に設定されている補正ルールに基づいて補正することを特徴とする画像データの補正方法。
A reference coordinate is defined on the CIELAB color space, and a first boundary value determined by a constant first distance from the reference coordinate and a second boundary value determined by a constant second distance longer than the first distance are determined. And setting different correction rules for each of the plurality of color space regions partitioned by the first and second boundary values ,
Obtains distances of the input coordinates on the CIELAB color space of the image data and the reference coordinates, it is determined whether entering the color space region of the determined meth distance purchase deviation, the pre-outs image data are determine the constant A correction method for image data, wherein correction is performed based on a correction rule set in a color space region.
基準座標を基準白色座標とし、原稿を読み取って得た画像データを前記入力された画像データとし、前記画像データのCIELAB色空間上の座標と前記基準白色座標との距離に基づいて前記第1の境界値を決定し、前記第1の境界値で区画された領域の内、前記基準白色座標に近い領域に対して、画像データを全て基準白色に変換する補正ルールを設定したことを特徴とする請求項2記載の画像データの補正方法。The reference coordinates are set as the reference white coordinates, and the image data obtained by reading the document is set as the input image data. Based on the distance between the coordinates in the CIELAB color space of the image data and the reference white coordinates, A boundary value is determined, and a correction rule for converting all image data to reference white is set for an area close to the reference white coordinate among the areas partitioned by the first boundary value. The image data correction method according to claim 2. 基準座標を基準白色座標とし、前記基準白色座標と原色の最大濃度の入力画像データのCIELAB色空間上の座標との距離に基づいて前記第2の境界値を作成し、前記第2の境界値で区画された領域の内、前記基準白色座標との距離が離れる外側の領域に対して、画像データに補正を行わないという補正ルールを設定したことを特徴とする請求項2又は3記載の画像データの補正方法。Using the reference coordinates as reference white coordinates, the second boundary value is created based on the distance between the reference white coordinates and the coordinates in the CIELAB color space of the input image data having the maximum density of the primary color, and the second boundary value 4. The image according to claim 2, wherein a correction rule that does not perform correction on image data is set for an outer region that is separated from the reference white coordinate among regions divided by Data correction method. 基準座標を基準白色座標とし、求めた距離が第1の色空間領域内である場合、前記画像データを全て基準白色に変換するという補正ルールを設定したことを特徴とする請求項1記載の画像データの補正方法。2. The image according to claim 1, wherein a correction rule is set to convert all of the image data to reference white when the reference coordinates are set as reference white coordinates and the obtained distance is within the first color space region. Data correction method. 基準座標を基準白色座標とし、求めた距離が第3の色空間領域内である場合、前記画像データに補正を行わないという補正ルールを設定したことを特徴とする請求項1記載の画像データの補正方法。2. The image data according to claim 1, wherein a correction rule is set so that the image data is not corrected when the reference coordinates are set as reference white coordinates and the obtained distance is within the third color space region. Correction method. CIELAB色空間上で色変換処理に使用する第1、第2の3次元ルックアップテーブルと、前記色空間上に定められた基準座標に対する前記第1の3次元ルックアップテーブルの各格子点までの距離を求める距離計算手段と、この距離計算手段で求め距離が、前記基準座標から一定な第1の距離で区画される第1色空間領域、前記第1の距離と前記第1の距離より長い一定な第2の距離とで区画される第2色空間領域、および前記第2の距離より長い距離を有する第3色空間領域のどの領域に入るかを判定する領域判定手段と、前記各格子点の値を格子点が入っている領域毎に設定されている補正ルールで補正する補正手段と、この補正手段で補正した値を前記第2の3次元ルックアップテーブルに格納する格納手段と、この格納手段により格納された各格子点の値を用いて入力画像データを変換する画像変換手段とを具備したこと特徴とする画像データの補正装置。The first is used for color conversion processing in the CIELAB color space, a second 3-dimensional look-up table, to each lattice point of the relative reference coordinates defined in the color space first three-dimensional look-up table A distance calculation means for obtaining a distance , a distance obtained by the distance calculation means, a first color space area defined by a fixed first distance from the reference coordinates, the first distance and the first distance and long constant second color space region defined by the second distance, and the region determination unit determines enter any region of the third color space region having a longer distance the second distance, before Symbol the values of the grid points and correcting means for correcting the correction rules that are set for each region in which the lattice point is entered, storing that stores a value corrected by the correction means to the second three-dimensional look-up table and means, the storage means Correction apparatus of the image data, wherein it has and a image converting means for converting the input image data using the values of the lattice points which are more stores. CIELAB色空間上で色変換処理に使用する第1、第2の3次元ルックアップテーブルと、前記色空間上に定められた基準座標から一定な第1の距離で区画される第1色空間領域、前記第1の距離と前記第1の距離より長い一定な第2の距離とで区画される第2色空間領域、および前記第2の距離より長い距離を有する第3色空間領域を決定する領域決定手段と、前記基準座標に対する前記第1の3次元ルックアップテーブルの各格子点までの距離を求める距離計算手段と、この距離計算手段で求めた距離が前記第1,第2及び第3色空間領域のうちのどの領域に入るかを判定する領域判定手段と、前記各格子点の値を格子点が入っている領域に設定されている補正ルールで補正する補正手段と、この補正手段で補正した値を前記第2の3次元ルックアップテーブルに格納する格納手段と、この格納手段により格納された各格子点の値を用いて入力画像データを変換する画像変換手段とを具備したこと特徴とする画像データの補正装置。First and second three-dimensional look-up table, the first color space region defined by the first distance constant from the reference coordinates defined in the color space used for color conversion processing in the CIELAB color space Determining a second color space region defined by the first distance and a constant second distance longer than the first distance, and a third color space region having a distance longer than the second distance. a region determination unit, a distance calculating means which calculates the distance to each lattice point of the first three-dimensional lookup table with respect to the reference coordinates, determined meth distance the first at this distance calculation unit, the second and a region determination unit determines enter any region of the third color space region, and correction means for correcting the previous SL value of each grid point in the correction rules that are set in the area where the lattice point is on, The value corrected by the correcting means is the second value. Storage means for storing the dimension lookup table, the correction apparatus of the image data, wherein it has and a image converting means for converting the input image data using the values of the lattice points stored by the storing means.
JP2001401630A 2001-12-28 2001-12-28 Image data correction method and correction apparatus Expired - Lifetime JP3967131B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001401630A JP3967131B2 (en) 2001-12-28 2001-12-28 Image data correction method and correction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001401630A JP3967131B2 (en) 2001-12-28 2001-12-28 Image data correction method and correction apparatus

Publications (2)

Publication Number Publication Date
JP2003198869A JP2003198869A (en) 2003-07-11
JP3967131B2 true JP3967131B2 (en) 2007-08-29

Family

ID=27605468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001401630A Expired - Lifetime JP3967131B2 (en) 2001-12-28 2001-12-28 Image data correction method and correction apparatus

Country Status (1)

Country Link
JP (1) JP3967131B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4277890B2 (en) * 2006-09-28 2009-06-10 セイコーエプソン株式会社 Document editing apparatus, program, and storage medium
EP2396963B1 (en) * 2009-02-13 2017-06-21 OCE-Technologies B.V. Image processing system for processing a digital image and image processing method of processing a digital image
JP2012205190A (en) * 2011-03-28 2012-10-22 Fuji Xerox Co Ltd Image processing apparatus and program
JP5709062B2 (en) * 2012-05-28 2015-04-30 株式会社沖データ Image processing device
JP2015211249A (en) * 2014-04-24 2015-11-24 株式会社東芝 Electronic apparatus and image processing method

Also Published As

Publication number Publication date
JP2003198869A (en) 2003-07-11

Similar Documents

Publication Publication Date Title
US9552537B2 (en) Color conversion method and profile generation method
JP4623137B2 (en) Color processing apparatus, method and program
JP5630115B2 (en) Color processing apparatus and program
US7417763B2 (en) Data processing apparatus and method, and image processing apparatus
JP2009033361A (en) Color adjustment unit, image-forming device, and program
JP2009190347A (en) Ink amount data generating method, ink amount data generating device, and program
JP3744808B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2002094812A (en) Image-processing method and device, and record medium
JP4788393B2 (en) Image processing apparatus, image processing method, and image processing program
JP4941331B2 (en) Printing method, printing apparatus, correspondence table generation method, and program
JP3967131B2 (en) Image data correction method and correction apparatus
JP2003338938A (en) Method, apparatus and program for image processing
JP2008123291A (en) Color processing apparatus and program
JP4396479B2 (en) A correction processing method and an image processing apparatus in an image processing apparatus.
JP4044254B2 (en) Color conversion definition creation method, color conversion definition creation device, and color conversion definition creation program storage medium
JP2010050832A (en) Device and method for processing image, program, and recording medium
JP2000050090A (en) Estimating method for measured color value on color batch, generating method for device profile using the same and picture processor
US8203751B2 (en) Color signal converting apparatus, image forming apparatus, color signal conversion method and computer readable medium
JP2008312119A (en) Method of estimating colorimetric value related to color patch, method of preparing device profile using the same and image processor
JP3833170B2 (en) Gray line setting method, image processing apparatus and image processing method
US11729341B2 (en) Image forming apparatus, image forming method, and non-transitory recording medium
JP2005318391A (en) Color conversion definition generating method, color conversion definition generating apparatus, and color conversion definition generating program
CN114898001A (en) Color enhancement method, color enhancement device, image forming apparatus, and storage medium
JP3307617B2 (en) Dot or image data adjustment method, computer-readable recording medium storing image data adjustment program, and electronic duplication device
JP2010278768A (en) Image forming apparatus, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070530

R150 Certificate of patent or registration of utility model

Ref document number: 3967131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100608

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110608

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130608

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130608

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140608

Year of fee payment: 7

EXPY Cancellation because of completion of term