JP3967131B2 - Image data correction method and correction apparatus - Google Patents
Image data correction method and correction apparatus Download PDFInfo
- Publication number
- JP3967131B2 JP3967131B2 JP2001401630A JP2001401630A JP3967131B2 JP 3967131 B2 JP3967131 B2 JP 3967131B2 JP 2001401630 A JP2001401630 A JP 2001401630A JP 2001401630 A JP2001401630 A JP 2001401630A JP 3967131 B2 JP3967131 B2 JP 3967131B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- color space
- image data
- correction
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、カラー画像データなど画像データの補正方法及び補正装置に関する。
【0002】
【従来の技術】
新聞紙など下地が灰色の原稿をスキャナで読み取ったり、経年変化した酸性紙などのように下地が黄ばんでいる原稿をスキャナで読み取ったりすると、下地に色がついた画像データが取り込まれる。このままの状態でこの画像データをプリンタで印刷すると、下地に色がついた状態で印刷が行われ、印刷品質が悪くなる。
【0003】
このため、プリンタで印刷する前に画像データを補正する必要がある。この補正で一般的に使用されるのが、CIELAB色空間への変換計算を使用した補正である。この補正は、用紙の下地色をホワイトポイントとしてデバイス非依存の色空間であるLabに変換し、これを出力して下地の色を取り除くようにしている。
具体的に述べると、スキャナで読込んだ画像データのRGB値をXYZ値に変換する。そして、XYZ値から下記式にてLab値を求める。
【0004】
この色空間では、L*=100、a*=0、b*=0が白を表わす。
【0005】
従って、XYZ値がそれぞれXn,Yn,Znになると、L*=100、a*=0、b*=0となり、白を表わす。下地の不要な色を消すためには、Xn,Yn,Znに下地のXYZ値を使用すれば白にすることができる。
また、特開平5−207280号公報のものは、画像の明度によって下地を検出し補正を行っている。
【0006】
【発明が解決しようとする課題】
前者のCIELAB色空間への変換計算を使用した補正においては、ホワイトポイントを代入する場合、全ての色がホワイトポイントの影響を受けるため、全体的に明度の上がった画像に変換され、鮮やかな色の出力ができなくなる可能性があった。
【0007】
また、後者の公報のものは、最大彩度の明度が高いYellowの彩度が無くなり、白になってしまう可能性があった。
本発明は、補正精度の向上を図ることができる画像データの補正方法及び補正装置を提供する。
【0008】
【補正を解決するための手段】
本発明は、CIELAB色空間上に基準座標を定めるとともに、この基準座標から一定な第1の距離で区画される第1の色空間領域、第1の距離と第1の距離より長い一定な第2の距離とで区画される第2の色空間領域、および第2の距離より長い距離を有する第3の色空間領域を定め、第1,第2及び第3の各色空間領域にそれぞれ異なる補正ルールを設定する。そして、入力された画像データのCIELAB色空間上の座標と基準座標との距離を求め、求めた距離がいずれの色空間領域に入るかを判定し、画像データを判定された色空間領域に設定されている補正ルールに基づいて補正することにある。
【0009】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。
(第1の実施の形態)
この実施の形態は、図1に示すように、ホストコンピュータ1に専用もしくは汎用のインターフェースを使用してスキャナ2を接続している。
【0010】
前記ホストコンピュータ1は、図2に示すように、制御部本体を構成するCPU(中央処理装置)11、このCPU11が各部を制御するための基本的なプログラムデータを格納したROM(リード・オンリー・メモリ)12、処理データを一時格納する各種メモリ等を設けたRAM(ランダム・アクセス・メモリ)13、アプリケーション・ソフトウエアの格納や管理するデータの格納等を行うHDD(ハードディスク装置)14、キーボード15、ディスプレイ16、前記スキャナ2とのインターフェース17を備えている。これらはバスライン18によって電気的に接続されている。
【0011】
前記スキャナ2は、図3に示すように、制御部本体を構成するCPU(中央処理装置)21、このCPU11が各部を制御するためのプログラムデータを格納したROM(リード・オンリー・メモリ)22、処理データを一時格納する各種メモリ等を設けたRAM(ランダム・アクセス・メモリ)23、原稿から文字や写真等を画像として読み込むCCDセンサ24、前記ホストコンピュータ1とのインターフェース25を備えている。これらはバスライン26によって電気的に接続されている。
前記ホストコンピュータ1のCPU11は、HDD14に格納されているアプリケーション・ソフトウエアを起動して図4に示す画像読み込み処理を開始させるようになっている。
【0012】
このときの画像読み込み処理は、先ず、ST1にて、スキャナ2へ読み込み命令を送信する。続いて、ST2にて、スキャナ2から画像データを受信し、ST3にて、受信した画像データを画像処理し、最後に、ST4にて、画像処理後の画像データをHDD14に格納する。
【0013】
前記スキャナ2は、図5に示すように、電源をオンすると、ST11にて、前記ホストコンピュータ1からの読み込み命令の受信まで待機し、読み込み命令を受信すると、ST12にて、CCDセンサ24を駆動して原稿を読み取り、画像データを作成する。
続いて、ST13にて、画像データのLog変換処理を行ってRGB値を生成し、ST14にて、RGB値に変換された画像データをインターフェース25からホストコンピュータ1に送信する。
【0014】
前記ホストコンピュータ1において画像処理を行う画像処理部を機能ブロックで示すと図6に示す構成である。すなわち、この画像処理部は、第1の色空間変換手段31、色変換手段32、距離計算手段33、下地レベル作成手段34、領域判定手段35、補正データ作成手段36、補正データ合成手段37、第2の色空間変換手段38からなる。
【0015】
この画像処理部は、スキャナ2から取り込んだRGB値の画像データを入力画像とし、この入力画像に対して前記第1の色空間変換手段31により色の差の計算が行い易いようにRGB値をLab値に色空間変換を行う。この第1の色空間変換手段31においては、入力された画像データを3次元ルックアップテーブルや3×3の行列式などを使用して色空間変換を行う。
【0016】
前記第1の色空間変換手段31により色空間変換された画像データを、次に前記色変換手段32によってデバイス間の色の一致を目的とする希望する色に変換する。そして、変換した画像データをRAM13に格納する。この色変換手段32においては、色空間変換された画像データを3次元ルックアップテーブルや3×3の行列式などを使用して色変換を行う。
なお、前記第1の色空間変換手段31による色空間変換と前記色変換手段32による色変換をまとめて1回で変換することもできる。
【0017】
次に、基準座標を基準白色座標とし、この座標の基準白色と色変換されRAM13に格納された画像データとの色の差の距離計算を前記距離計算手段33によって画素毎に行い、その結果の距離データをRAM13に格納する。このときの距離計算は、Lab3成分のそれぞれの差ΔL*,Δa*,Δb*の二乗和の平方根として下記式で行う。すなわち、色差ΔEは、
ΔE={(ΔL*)2+(Δa*)2+(Δb*)2}1/2
となる。
【0018】
なお、ΔL*は、画像データと基準白色のL*成分の差であり、Δa*は、画像データと基準白色のa*成分の差であり、Δb*は、画像データと基準白色のb*成分の差である。
なお、色差計算式はこれに限定するものではなく、他の計算式を使用してもよい。また、色空間変換は、Lab値に限定するものではなく、XYZ、RGB、CMY、あるいは濃度DrDgDbなどに変換することも可能である。
【0019】
XYZの場合の色差ΔEは、
ΔE={(ΔX)2+(ΔY)2+(ΔZ)2}1/2
となり、RGBの場合の色差ΔEは、
ΔE={(ΔR)2+(ΔG)2+(ΔG)2}1/2
となり、CMYの場合の色差ΔEは、
ΔE={(ΔC)2+(ΔM)2+(ΔY)2}1/2
となり、DrDgDbの場合の色差ΔEは、
ΔE={(ΔDr)2+(ΔDg)2+(ΔDb)2}1/2
となる。
【0020】
次に、前記下地レベル作成手段34は、RAM13に格納された全ての画像データの距離計算結果と基準白色との色差の距離毎にヒストグラムを生成し、一定の閾値の距離を下地レベルΔEth2としてRAM13に格納する。なお、一定の閾値としては、ヒストグラムの最大値を使用する。但し、下地にはばらつきがあるため最大値の距離よりも若干大き目の数値を下地レベルとして使用することもある。なお、下地レベルΔEth2は予め設定しておいてもよい。
【0021】
次に、前記領域判定手段35は、前記色変換手段32により色変換されてRAM13に格納された画像データを入力として、前記距離計算手段33が算出しRAM13に格納された各画素の距離データΔEと、前記下地レベル作成手段34が作成しRAM13に格納された下地レベルΔEth2と、予め設定した不変レベルΔEth1とから、各画素がどの領域に入るかを判定する。
【0022】
なお、不変レベルとは、色空間での距離で表わされた値であり、この値よりも外側に位置する色は変換しないことを設定するための境界のレベルである。この不変レベルの設定は、予め測定された入力画像の、原色の最大濃度の色と基準白色の距離を計算した値を使用して行う。
【0023】
このようにここでは、不変レベルの設定に入力画像の、原色の最大濃度の色を使用しているが必ずしもこれに限定するものではなく、入力画像の、原色の最大彩度の色を使用してもよい。
前記領域判定手段35が判定した結果を前記補正データ作成手段36に供給している。
【0024】
前記補正データ作成手段36は、判定結果に基づいて補正データを作成する。すなわち、図7は補正データ計算における下地レベルΔEth2と不変レベルΔEth1との関係を示すグラフである。画素の基準白色座標Aからの距離データΔEが不変レベルΔEth1よりも大きければ補正データを作成せず、その画像データの補正を行わないよう補正ルールが設定されている。従って、色は変化しないことになる。
【0025】
また、画素の距離データΔEが下地レベルΔEth2よりも小さければその画素を下地として認識し、所望する基準白色に変換するための補正データを作成するよう補正ルールが設定されている。さらに、画素の距離データΔEが不変レベルΔEth1と下地レベルΔEth2との間にあるときには、距離データΔEの値に応じて所望する基準白色に近づけるための補正データを作成するよう補正ルールが設定されている。
具体的には、下記式で示すような補正計算を行う。
【0026】
但し、L*、a*、b*は入力Lab値、L*′、a*′、b*′は補正Lab値、L* WP、a* WP、b* WPは基準白色のLab値である。
【0027】
前記補正データ作成手段36で作成した補正データは前記補正データ合成手段37に供給される。
前記補正データ合成手段37は、前記補正データ作成手段36で作成された補正データと前記色変換手段32で色変換された画像データを合成して前記RAM13に格納する。各画素の合成は下記式に従って行う。
【0028】
L*″=L*+L*′
a*″=a*+a*′
b*″=b*+b*′
但し、L*″、a*″、b*″は出力Lab値である。
【0029】
なお、前記補正データ作成手段36及び補正データ合成手段37は上記計算式からも分かるように一つの手段として構成することもできる。
前記第2の色空間変換手段38は、前記補正データ合成手段37からのLab値をRGB値に変換しRAM13に格納する。なお、変換する色空間はRGBに限らず所望の色空間に変換することも可能である。
【0030】
このように、Lab色空間上の基準座標を基準白色座標Aとし、この色空間を基準白色座標Aからの距離で表わされる不変レベルΔEth1及び下地レベルΔEth2で区切って複数の領域を形成し、入力画像データと基準白色座標Aとの距離である色差ΔEを算出し、その色差ΔEがどの領域に入っているかを判断する。そして、色差ΔEが下地レベルΔEth2よりも小さければ下地と認識して基準白色点データに変更するための補正データを作成する。また、色差ΔEが不変レベルΔEth1と下地レベルΔEth2との間にあるときには、その色差ΔEの値に応じて基準白色点に近づける変換を行うための補正データを作成する。また、色差ΔEが不変レベルΔEth1よりも大きければ補正データを作成せず補正は行わない。
【0031】
従って、Yellowなどの高彩度高明度色の色は不変レベルΔEth1よりも大きい領域に入るので、白に補正されることはなく、色の再現性が確保される。これにより、補正精度の向上を図ることができる。
【0032】
また、基準白色点以上であり、下地レベルΔEth2より小さい領域、下地レベルΔEth2以上であり、不変レベルΔEth1以下の領域、不変レベルΔEth1を越える領域の3つの領域を設定してそれぞれの領域に異なる補正ルールを設定しているので、領域毎の変換が線形変換であったとしても、全体的な処理では擬似的な非線型の変換を行うことができる。
【0033】
(第2の実施の形態)
この実施の形態は、ホストコンピュータ1における画像処理部の他の実施の形態を示すものである。なお、前述した第1の実施の形態と同一の部分には同一の符号を付し、詳細な説明は省略する。
【0034】
この画像処理部は、図8に示すように、第1の色空間変換手段31、色変換手段32、第2の色空間変換手段38、距離計算手段39、下地レベル作成手段34、領域判定手段35、補正データ作成手段36、補正データ合成手段37、第1、第2の3次元ルックアップテーブル40,41からなる。
【0035】
前記第1の色空間変換手段31は、スキャナ2から取り込んだRGB値の画像データを色の差の計算が行い易いようにRGB値をLab値に色空間変換を行ってRAM13に格納する。前記距離計算手段39は、前記第1の3次元ルックアップテーブル40の格子点データを使用して距離計算を行う。そして、結果の距離データをRAM13に格納する。
【0036】
前記下地レベル作成手段34は、下地レベルΔEth2を作成してRAM13に格納する。前記領域判定手段35は、RAM13に格納された距離データΔEと、RAM13に格納された下地レベルΔEth2と、予め設定した不変レベルΔEth1とから、各画素がどの領域に入るかを判定する。
【0037】
前記補正データ作成手段36は、判定結果に基づいて前記第1の3次元ルックアップテーブル40の格子点データ毎に補正データを作成し、前記補正データ合成手段37は、作成された補正データと前記第1の3次元ルックアップテーブル40の格子点データを合成し、その合成結果を前記第2の3次元ルックアップテーブル41に格納する。
【0038】
前記色変換手段32は、前記第2の3次元ルックアップテーブル41を使用して第1の色空間変換手段31からの画像データを色変換する。そして、この色変換した画像データを前記第2の色空間変換手段38に供給している。前記第2の色空間変換手段38は、色変換手段32で色変換したLab値をRGB値に変換しRAM13に格納する。
【0039】
このような構成においては、基準白色を決めて第2の3次元ルックアップテーブル41のデータを設定する処理を事前に行うことが可能になる。
従って、実際にスキャナ2から取り込んだRGB値の画像データをLab値に色空間変換を行ってRAM13に格納した後は、色変換手段32が直ぐに第2の3次元ルックアップテーブル41のデータを使用して色変換処理を行うことができる。
【0040】
すなわち、距離計算手段39による距離の算出、補正データ作成手段36による補正データの作成、補正データ合成手段37による補正データの合成の各処理はこの時点では行う必要はない。
従って、処理速度を高めることができ、処理の高速化を図ることができる。
【0041】
なお、この実施の形態においてもYellowなどの高彩度高明度色の色は不変レベルΔEth1よりも大きい領域に入るので、白に補正されることはなく、色の再現性が確保される。これにより、補正精度の向上を図ることができる。また、3つの領域を設定しているので、領域毎の変換が線形変換であったとしても、全体的な処理では擬似的な非線型の変換を行うことができる。
【0042】
なお、第1の3次元ルックアップテーブル40と第1の色空間変換手段31が色空間変換に使用する3次元ルックアップテーブルを合成し、1つの3次元ルックアップテーブルで色空間変換と色変換処理を1回で行うことも可能である。
【0043】
なお、前述した各実施の形態は、基準座標を基準白色座標とした場合について述べたが必ずしもこれに限定するものではない。
例えば、基準座標を、複数の被験者から得られた、好ましい肌色の座標点とし、それを基準肌色座標点に設定する。そして、この基準肌色座標点から予め決められた一定の色差にある入力画像データを基準肌色座標点に変換する補正を行い、また、不変レベルを設定し、この不変レベルよりも大きな領域では色補正を行わないようにする。
【0044】
このように設定して、ポートレート写真などの人の肌色を含む画像データを入力した時、基準肌色点に対する入力画像の肌色が一定色差内であれば人間が感じる好ましい肌色になり、それ以上で、かつ不変レベル以下であれば好ましい肌色に近づくように色変換を行う。このような色変換を行うことで、見た目に好ましいと感じる肌色が得られることになる。
【0045】
このように、基準座標として基準白色点のみでなく、基準肌色点等の希望の色を設定することができる。そして、希望色からの色差が同じ時には色相が違っていても同じ色変換処理を行うことができ、色相による変換の偏りが無い。
【0046】
【発明の効果】
以上詳述したように、本発明によれば、補正精度の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を示す全体のブロック図。
【図2】同実施の形態におけるホストコンピュータの構成を示すブロック図。
【図3】同実施の形態におけるスキャナの構成を示すブロック図。
【図4】同実施の形態におけるホストコンピュータによるスキャナからの画像読み込み処理を示す流れ図。
【図5】同実施の形態におけるスキャナによる画像読み込み処理を示す流れ図。
【図6】同実施の形態におけるホストコンピュータの画像処理部の機能ブロック図。
【図7】同実施の形態における補正データ計算における下地レベルと不変レベルとの関係を示すグラフ。
【図8】本発明の第2の実施の形態におけるホストコンピュータの画像処理部の機能ブロック図。
【符号の説明】
1…ホストコンピュータ
2…スキャナ
11,21…CPU
31,38…色空間変換手段
32…色変換手段
33…距離計算手段
34…下地レベル作成手段
35…領域判定手段
36…補正データ作成手段
37…補正データ合成手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a correction method and correction apparatus for image data such as color image data.
[0002]
[Prior art]
When an original with a gray background such as newspaper is read with a scanner, or an original with a yellow background such as acid paper that has changed over time is read with a scanner, image data with a colored background is captured. If this image data is printed with a printer in this state, printing is performed with the background colored, and the print quality deteriorates.
[0003]
For this reason, it is necessary to correct the image data before printing with the printer. Generally used in this correction is correction using conversion calculation to the CIELAB color space. In this correction, the background color of the paper is converted into Lab, which is a device-independent color space, with the white point as a white point, and this is output to remove the background color.
More specifically, the RGB values of the image data read by the scanner are converted into XYZ values. Then, the Lab value is obtained from the XYZ value by the following formula.
[0004]
In this color space, L * = 100, a * = 0, b * = 0 represents white.
[0005]
Therefore, when the XYZ values are Xn, Yn, and Zn, respectively, L * = 100, a * = 0, and b * = 0, representing white. In order to erase the unnecessary color of the background, white can be obtained by using the XYZ values of the background for Xn, Yn, and Zn.
Japanese Patent Application Laid-Open No. 5-207280 detects and corrects a background based on the brightness of an image.
[0006]
[Problems to be solved by the invention]
In the correction using the conversion calculation to the former CIELAB color space, when substituting the white point, all colors are affected by the white point, so the image is converted to a brighter image as a whole, resulting in bright colors. Could not be output.
[0007]
In the latter publication, there is a possibility that the yellow saturation having the highest lightness of the maximum saturation is lost and the color becomes white.
The present invention provides a correction method and a correction apparatus for image data capable of improving correction accuracy.
[0008]
[Means for solving the correction]
The present invention Rutotomoni defines a reference coordinate on the CIELAB color space, the first color space region defined by the distance from the reference coordinates constant first, longer constant it than the first distance and the first distance A second color space region divided by the second distance and a third color space region having a distance longer than the second distance are defined, and each of the first, second, and third color space regions is different. Set correction rules . Then, Me a distance between the coordinate and the reference coordinate of the CIELAB color space of the input image data determined, determined distance purchase determined deviation of whether entering the color space region, the color space is determined images data The correction is based on the correction rule set in the area.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
In this embodiment, as shown in FIG. 1, a
[0010]
As shown in FIG. 2, the host computer 1 includes a CPU (central processing unit) 11 that constitutes a control unit main body, and a ROM (read-only memory) that stores basic program data for the
[0011]
As shown in FIG. 3, the
The
[0012]
In this image reading process, first, a reading command is transmitted to the
[0013]
As shown in FIG. 5, when the power is turned on, the
Subsequently, in ST13, log conversion processing of the image data is performed to generate an RGB value, and in ST14, the image data converted into the RGB value is transmitted from the
[0014]
An image processing unit that performs image processing in the host computer 1 is shown in functional block form in FIG. That is, the image processing unit includes a first color
[0015]
The image processing unit uses the RGB value image data captured from the
[0016]
The image data that has been color space converted by the first color space conversion means 31 is then converted by the color conversion means 32 into a desired color for the purpose of color matching between devices. The converted image data is stored in the
Note that the color space conversion by the first color space conversion means 31 and the color conversion by the color conversion means 32 may be converted at once.
[0017]
Next, the reference coordinate is set as the reference white coordinate, and the distance calculation means 33 calculates the distance of the color difference between the reference white of this coordinate and the image data that has been color-converted and stored in the
ΔE = {(ΔL * ) 2 + (Δa * ) 2 + (Δb * ) 2 } 1/2
It becomes.
[0018]
ΔL * is the difference between the L * component of the image data and the reference white, Δa * is the difference between the a * component of the image data and the reference white, and Δb * is the b * of the image data and the reference white . It is the difference in components.
The color difference calculation formula is not limited to this, and other calculation formulas may be used. The color space conversion is not limited to the Lab value, and can be converted into XYZ, RGB, CMY, or density DrDgDb.
[0019]
The color difference ΔE in the case of XYZ is
ΔE = {(ΔX) 2 + (ΔY) 2 + (ΔZ) 2 } 1/2
The color difference ΔE in the case of RGB is
ΔE = {(ΔR) 2 + (ΔG) 2 + (ΔG) 2 } 1/2
The color difference ΔE in the case of CMY is
ΔE = {(ΔC) 2 + (ΔM) 2 + (ΔY) 2 } 1/2
The color difference ΔE in the case of DrDgDb is
ΔE = {(ΔDr) 2 + (ΔDg) 2 + (ΔDb) 2 } 1/2
It becomes.
[0020]
Next, the background level creation means 34 generates a histogram for each color difference distance between the distance calculation results of all the image data stored in the
[0021]
Next, the
[0022]
The invariant level is a value represented by a distance in the color space, and is a boundary level for setting that a color located outside this value is not converted. The invariable level is set using a value obtained by calculating the distance between the primary density of the primary color and the reference white of the input image measured in advance.
[0023]
As described above, the maximum density of the primary color of the input image is used for setting the invariant level, but this is not necessarily limited to this, and the maximum saturation color of the primary color of the input image is used. May be.
The result determined by the
[0024]
The correction data creating means 36 creates correction data based on the determination result. That is, FIG. 7 is a graph showing the relationship between the ground level ΔEth2 and the invariant level ΔEth1 in the correction data calculation. A correction rule is set so that if the distance data ΔE from the reference white coordinate A of the pixel is larger than the invariable level ΔEth1, the correction data is not created and the image data is not corrected. Therefore, the color will not change.
[0025]
In addition, if the pixel distance data ΔE is smaller than the background level ΔEth2, the correction rule is set so that the pixel is recognized as the background and correction data for converting to the desired reference white is generated. Further, when the pixel distance data ΔE is between the invariant level ΔEth1 and the background level ΔEth2, a correction rule is set so as to create correction data for approaching the desired reference white according to the value of the distance data ΔE. Yes.
Specifically, correction calculation as shown in the following equation is performed.
[0026]
However, L * , a * , b * are input Lab values, L * ′, a * ′, b * ′ are corrected Lab values, and L * WP , a * WP , b * WP are Lab values of reference white. .
[0027]
The correction data created by the correction data creating means 36 is supplied to the correction data synthesizing means 37.
The correction
[0028]
L * ″ = L * + L * ′
a * ″ = a * + a * ′
b * ″ = b * + b * ′
However, L * ″, a * ″, b * ″ are output Lab values.
[0029]
The correction
The second color
[0030]
In this way, the reference coordinate in the Lab color space is set as the reference white coordinate A, and this color space is divided by the invariant level ΔEth1 and the background level ΔEth2 expressed by the distance from the reference white coordinate A to form a plurality of areas. A color difference ΔE that is the distance between the image data and the reference white coordinate A is calculated, and it is determined which region the color difference ΔE is in. If the color difference ΔE is smaller than the background level ΔEth2, correction data for recognizing the background and changing to the reference white point data is created. Further, when the color difference ΔE is between the invariable level ΔEth1 and the background level ΔEth2, correction data is generated for performing conversion to approach the reference white point according to the value of the color difference ΔE. If the color difference ΔE is larger than the invariable level ΔEth1, no correction data is created and no correction is performed.
[0031]
Accordingly, since the color of high saturation and lightness color such as Yellow enters the region larger than the invariable level ΔEth1, it is not corrected to white and the color reproducibility is ensured. Thereby, the correction accuracy can be improved.
[0032]
In addition, three regions are set, namely, a region above the reference white point and lower than the background level ΔEth2, a region above the background level ΔEth2, a region below the invariable level ΔEth1, and a region above the invariant level ΔEth1, and each region has a different correction. Since the rule is set, even if the conversion for each region is a linear conversion, a pseudo nonlinear conversion can be performed in the overall process.
[0033]
(Second Embodiment)
This embodiment shows another embodiment of the image processing unit in the host computer 1. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment mentioned above, and detailed description is abbreviate | omitted.
[0034]
As shown in FIG. 8, the image processing unit includes a first color
[0035]
The first color space conversion means 31 performs color space conversion of RGB values into Lab values and stores them in the
[0036]
The ground
[0037]
The correction data creation means 36 creates correction data for each grid point data of the first three-dimensional lookup table 40 based on the determination result, and the correction data composition means 37 creates the correction data and the correction data The grid point data of the first three-dimensional lookup table 40 is synthesized, and the synthesis result is stored in the second three-dimensional lookup table 41.
[0038]
The
[0039]
In such a configuration, it is possible to perform in advance a process of determining the reference white color and setting the data of the second three-dimensional lookup table 41.
Therefore, after the RGB value image data actually captured from the
[0040]
That is, the calculation of the distance by the
Accordingly, the processing speed can be increased and the processing speed can be increased.
[0041]
In this embodiment as well, since the color of high chroma and lightness color such as Yellow enters an area larger than the invariable level ΔEth1, it is not corrected to white and color reproducibility is ensured. Thereby, the correction accuracy can be improved. In addition, since three regions are set, even if the conversion for each region is a linear conversion, pseudo nonlinear conversion can be performed in the overall process.
[0042]
Note that the first three-dimensional lookup table 40 and the first three-dimensional lookup table 31 used by the first color
[0043]
In addition, although each embodiment mentioned above described the case where a reference | standard coordinate was made into a reference | standard white coordinate, it does not necessarily limit to this.
For example, the reference coordinates are set as preferred skin color coordinate points obtained from a plurality of subjects, and set as reference skin color coordinate points. Then, correction is performed to convert input image data having a predetermined color difference from the reference skin color coordinate point to the reference skin color coordinate point, and an invariant level is set, and color correction is performed in a region larger than the invariant level. Do not do.
[0044]
When image data including human skin color such as portrait photos is input in this way, if the skin color of the input image with respect to the reference skin color point is within a certain color difference, it becomes a preferable skin color that humans feel, and beyond If it is below the invariant level, color conversion is performed so as to approach a preferable skin color. By performing such color conversion, it is possible to obtain a skin color that is visually favorable.
[0045]
In this way, not only the reference white point but also a desired color such as the reference skin color point can be set as the reference coordinates. When the color difference from the desired color is the same, the same color conversion process can be performed even if the hue is different, and there is no bias in conversion due to the hue.
[0046]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to improve the correction accuracy.
[Brief description of the drawings]
FIG. 1 is an overall block diagram showing a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a host computer in the embodiment.
FIG. 3 is a block diagram showing a configuration of a scanner in the embodiment.
FIG. 4 is a flowchart showing image reading processing from the scanner by the host computer in the embodiment;
FIG. 5 is a flowchart showing image reading processing by the scanner according to the embodiment;
FIG. 6 is a functional block diagram of an image processing unit of the host computer in the embodiment.
FIG. 7 is a graph showing a relationship between a background level and an invariant level in correction data calculation according to the embodiment.
FIG. 8 is a functional block diagram of an image processing unit of a host computer according to the second embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ...
31, 38 ... Color space conversion means 32 ... Color conversion means 33 ... Distance calculation means 34 ... Background level creation means 35 ... Area determination means 36 ... Correction data creation means 37 ... Correction data composition means
Claims (8)
入力された画像データのCIELAB色空間上の座標と前記基準座標との距離を求め、求めた距離がいずれの色空間領域に入るかを判定し、前記画像データを判定された色空間領域に設定されている補正ルールに基づいて補正することを特徴とする画像データの補正方法。 A reference color is defined on the CIELAB color space, a first color space region defined by a fixed first distance from the reference coordinate, a fixed second distance longer than the first distance and the first distance. And a second color space region partitioned by and a third color space region having a distance longer than the second distance, and different correction rules for the first, second, and third color space regions, respectively. Set
Obtains distances of the input coordinates on the CIELAB color space of the image data and the reference coordinates, it is determined whether entering the color space region of the determined meth distance purchase deviation, the pre-outs image data are determine the constant A correction method for image data, wherein correction is performed based on a correction rule set in a color space region.
入力された画像データのCIELAB色空間上の座標と前記基準座標との距離を求め、求めた距離がいずれの色空間領域に入るかを判定し、前記画像データを判定された色空間領域に設定されている補正ルールに基づいて補正することを特徴とする画像データの補正方法。 A reference coordinate is defined on the CIELAB color space, and a first boundary value determined by a constant first distance from the reference coordinate and a second boundary value determined by a constant second distance longer than the first distance are determined. And setting different correction rules for each of the plurality of color space regions partitioned by the first and second boundary values ,
Obtains distances of the input coordinates on the CIELAB color space of the image data and the reference coordinates, it is determined whether entering the color space region of the determined meth distance purchase deviation, the pre-outs image data are determine the constant A correction method for image data, wherein correction is performed based on a correction rule set in a color space region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001401630A JP3967131B2 (en) | 2001-12-28 | 2001-12-28 | Image data correction method and correction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001401630A JP3967131B2 (en) | 2001-12-28 | 2001-12-28 | Image data correction method and correction apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003198869A JP2003198869A (en) | 2003-07-11 |
JP3967131B2 true JP3967131B2 (en) | 2007-08-29 |
Family
ID=27605468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001401630A Expired - Lifetime JP3967131B2 (en) | 2001-12-28 | 2001-12-28 | Image data correction method and correction apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3967131B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4277890B2 (en) * | 2006-09-28 | 2009-06-10 | セイコーエプソン株式会社 | Document editing apparatus, program, and storage medium |
EP2396963B1 (en) * | 2009-02-13 | 2017-06-21 | OCE-Technologies B.V. | Image processing system for processing a digital image and image processing method of processing a digital image |
JP2012205190A (en) * | 2011-03-28 | 2012-10-22 | Fuji Xerox Co Ltd | Image processing apparatus and program |
JP5709062B2 (en) * | 2012-05-28 | 2015-04-30 | 株式会社沖データ | Image processing device |
JP2015211249A (en) * | 2014-04-24 | 2015-11-24 | 株式会社東芝 | Electronic apparatus and image processing method |
-
2001
- 2001-12-28 JP JP2001401630A patent/JP3967131B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003198869A (en) | 2003-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9552537B2 (en) | Color conversion method and profile generation method | |
JP4623137B2 (en) | Color processing apparatus, method and program | |
JP5630115B2 (en) | Color processing apparatus and program | |
US7417763B2 (en) | Data processing apparatus and method, and image processing apparatus | |
JP2009033361A (en) | Color adjustment unit, image-forming device, and program | |
JP2009190347A (en) | Ink amount data generating method, ink amount data generating device, and program | |
JP3744808B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2002094812A (en) | Image-processing method and device, and record medium | |
JP4788393B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4941331B2 (en) | Printing method, printing apparatus, correspondence table generation method, and program | |
JP3967131B2 (en) | Image data correction method and correction apparatus | |
JP2003338938A (en) | Method, apparatus and program for image processing | |
JP2008123291A (en) | Color processing apparatus and program | |
JP4396479B2 (en) | A correction processing method and an image processing apparatus in an image processing apparatus. | |
JP4044254B2 (en) | Color conversion definition creation method, color conversion definition creation device, and color conversion definition creation program storage medium | |
JP2010050832A (en) | Device and method for processing image, program, and recording medium | |
JP2000050090A (en) | Estimating method for measured color value on color batch, generating method for device profile using the same and picture processor | |
US8203751B2 (en) | Color signal converting apparatus, image forming apparatus, color signal conversion method and computer readable medium | |
JP2008312119A (en) | Method of estimating colorimetric value related to color patch, method of preparing device profile using the same and image processor | |
JP3833170B2 (en) | Gray line setting method, image processing apparatus and image processing method | |
US11729341B2 (en) | Image forming apparatus, image forming method, and non-transitory recording medium | |
JP2005318391A (en) | Color conversion definition generating method, color conversion definition generating apparatus, and color conversion definition generating program | |
CN114898001A (en) | Color enhancement method, color enhancement device, image forming apparatus, and storage medium | |
JP3307617B2 (en) | Dot or image data adjustment method, computer-readable recording medium storing image data adjustment program, and electronic duplication device | |
JP2010278768A (en) | Image forming apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3967131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100608 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110608 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120608 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130608 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130608 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140608 Year of fee payment: 7 |
|
EXPY | Cancellation because of completion of term |