JP3667171B2 - Image processing method, apparatus, and recording medium - Google Patents

Image processing method, apparatus, and recording medium Download PDF

Info

Publication number
JP3667171B2
JP3667171B2 JP26390599A JP26390599A JP3667171B2 JP 3667171 B2 JP3667171 B2 JP 3667171B2 JP 26390599 A JP26390599 A JP 26390599A JP 26390599 A JP26390599 A JP 26390599A JP 3667171 B2 JP3667171 B2 JP 3667171B2
Authority
JP
Japan
Prior art keywords
white point
color
reference white
conversion
color signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26390599A
Other languages
Japanese (ja)
Other versions
JP2001094800A (en
Inventor
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP26390599A priority Critical patent/JP3667171B2/en
Publication of JP2001094800A publication Critical patent/JP2001094800A/en
Application granted granted Critical
Publication of JP3667171B2 publication Critical patent/JP3667171B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は任意の基準白色点に応じたRGB色空間を用いた処理を行う画像処理方法、装置および記録媒体に関する。
【0002】
【従来の技術】
図1は一般的なカラーマッチングの概念図である。
【0003】
RGBデータである入力データは、入力プロファイルによりデバイスに依存しない色空間のXYZデータに変換される。出力デバイスの色再現範囲外の色は出力デバイスにより表現することができないため、そのすべて色が出力デバイスの色再現範囲内に収まるように、デバイスに依存しない色空間のデータに変換された入力データに色空間圧縮が施される。そして、色空間圧縮が施された後、入力データはデバイスに依存しない色空間から出力デバイスに依存する色空間のCMYKデータへ変換される。
【0004】
カラーマッチングにおいて基準白色点および環境光は固定されている。例えば、International Color Consortium(ICC)によって規定されるプロファイルでは、プロファイルを結び付けるProfile Connection Space(PCS)がD50基準のXYZ値およびLab値である。このため、入力原稿やプリント出力はD50特性の光源下で観察する場合に正しい色再現が保証され、その他の特性の光源下では正しい色再現が保証されない。
【0005】
【発明が解決しようとする課題】
異なる光源下で同一サンプル(例えば画像)を観察した場合、観察されるサンプルに対するXYZ値は当然異なる。異なる光源下におけるXYZ値を予測するために、(1)比率変換、(2)Von Kries変換、(3)色知覚モデルによる予測式などの変換方式がある。
【0006】
比率変換は、基準白色点W1下でのXYZ値を基準白色点W2下のXYZ値に変換するために、W2/W1の比率変換を施す方法である。この方法を、Lab均等色空間に対して適用すると、W1下でのLab値とW2下でのLab値は一致する。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、比率変換によれば次の関係が得られる。
【0007】
X2 = (Xw2 / Xw1)・X1
Y2 = (Yw2 / Yw1)・Y1 …(1)
Z2 = (Zw2 / Zw1)・Z1
【0008】
Von Kries変換は、W1下でのXYZ値をW2下のXYZ値に変換するために、人間の色知覚空間PQR上でW2'/W1'の比率変換を施す方法である。この方法をLabの均等色空間に対して適用すると、W1下でのLab値とW2下でのLab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、Von Kries変換によれば次の関係が得られる。
【0009】
【外1】

Figure 0003667171
【0010】
色知覚モデルによる予測式は、観察条件VC1(W1を含む)下でのXYZ値を観察条件VC2(W2を含む)下のXYZ値に変換するために、例えばCIE CAM97sのような人間の色知覚空間QMH(またはJCH)を利用して変換する方法である。ここで、QMHのQはbrightness、Mはcolourfulness、Hはhuequadratureまたはhueangleを表し、JCHのJはlightness、Cはchroma、Hはhuequadratureまたはhueangleを表す。この変換方法をLabの均等色空間へ適用すると、Von Kries変換と同様に、W1下でのLab値とW2下でのLab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、色知覚モデルによる予測式によれば次の変換が行われる。
【0011】
(X1,Y1,Z1)→[CIE CAM97s順変換]→(Q,M,H)または(J,C,H)
→[CIE CAM97s逆変換]→(X2,Y2,Z2)
つまり、比率変換によって異なる基準白色点下のXYZ値が変換できると仮定するならば、異なる基準白色点下のLab色空間における等色相線は常に一定であるが、Von Kries変換や色知覚モデルによる予測式のように人間の色知覚を考慮した場合には、異なる基準白色点下のLab色空間における等色相線は基準白色点によって変化することになる。
【0012】
上記の理由から、異なる基準白色点下のカラーマッチングにおいて、同一のLab色空間で定義された色空間圧縮(色相保存)を適用した場合、人の視覚では色相が一定ではないと感じられる場合がある。
【0013】
また、現在のICCプロファイルでは、PCSがD50基準のXYZ値やLab値に限定されているため、環境光に対応したカラーマッチングを行うことができない。
【0014】
更には、XYZ空間から3x3マトリクスによる線型変換可能なRGB空間によってPCSやデバイスに依存しない色を表現する方法があるが、基準白色点により変換マトリクスが固定されている場合には、以下のような問題があった。
【0015】
異なる基準白色点下の色を基準白色点が固定された変換マトリクスにより変換すると、デバイスに依存しないRGB空間においてオーバーフローやアンダーフローが発生し、表現できなくなる場合がある(特に白色点付近)デバイスに依存しないRGB空間を入力色空間とする3D LUTにおいて、異なる基準白色点下のグレー色を入力すると、グレー色が3D LUTの対角軸上とならないため、四面体補間において3点以上の格子点を用いた線形補間を行うこととなり、色ずれを発生する場合がある。
【0016】
本発明は上述の点に鑑みてなされたものであり、良好な色再現を実現することを目的とする。
【0017】
【課題を解決するための手段】
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
【0018】
本願請求項1記載の発明は、任意の基準白色点に応じた、デバイスに依存しないRGB色空間で示される色信号を入力する色信号入力工程と、前記基準白色点に関する情報を入力する基準白色点情報入力工程と、前記基準白色点に関する情報に基づき、該任意の基準白色点に応じたRGB色空間で示される色信号を、前記基準白色点に応じたXYZ色空間で示される色信号に変換する変換条件を求める変換条件工程と、前記変換条件に基づき、前記入力した色信号を前記基準白色点に応じたXYZ色空間で示される色信号に変換する変換工程とを有することを特徴とする。
【0019】
本願請求項6記載の発明は、任意の基準白色点に応じたXYZ色空間で示される色信号を入力する色信号入力工程と、前記基準白色点に関する情報を入力する基準白色点情報入力工程と、前記基準白色点に関する情報に基づき、該任意の基準白色点に応じたXYZ色空間で示される色信号を、前記基準白色点に応じ、かつ、デバイスに依存しないRGB色空間で示される色信号に変換する変換条件を求める変換条件工程と、前記変換条件に基づき、前記入力した色信号を前記基準白色点に応じ、かつ、デバイスに依存しないRGB色空間で示される色信号に変換する変換工程とを有することを特徴とする。
【0021】
【発明の実施の形態】
以下、本発明にかかる一実施形態の画像処理装置を図面を参照して詳細に説明する。
【0022】
まず、観察条件に応じた補正処理を行うCAM(Color Appearance model)の1例について説明する。
【0023】
人間の視覚系によって、知覚される色は、照明光の違い、刺激がおかれている背景などの条件によって、目に入ってくる光が同じであっても異なって見えることが知られている。
【0024】
例えば、白熱電球で照明された白色は、目に入ってくる光の特性ほどには赤く感じられなくて、白として知覚される。また、黒い背景におかれた白と、明るい背景に置かれた白とでは黒い背景に置かれた白の方が明るく感じられる。前者の現象は色順応、後者は対比として知られている。このためには、XYZではなく網膜状に分布している視細胞の生理的な活性度に対応する量で色を表示する必要があるが、このような目的に色知覚モデルが開発されている。CIEでは、CIE CAM97sの使用を推奨している。この色知覚モデルは色覚の生理的な三原色を用いており、例えばCIE CAM97sで計算される色知覚の相関量であるJ(明度)、C(クロマ)およびH(色相)、あるいは、Q(ブライトネス)、M(カラフルネス)およびH(色相)の値が、観察条件に依存しない色の表示方法と考えられる。J、C、HまたはQ、M、Hの値がデバイス間で一致するように色再現することによって、入出力画像の観察条件の違いを解決することができる。
【0025】
入力画像を観察する際の観察条件に応じた補正処理(XYZをJCHまたはQMHに変換する処理)を行う色知覚モデルCIE CAM97sの順変換における処理内容を、図13を用いて説明する。
【0026】
まず、入力画像の観察条件情報としてステップS160で、順応視野の輝度(cd/平方メートル、通常、順応視野における白の輝度の20%が選らばれる)であるLA、光源条件における試料の相対三刺激値であるXYZ、光源条件における白色光の相対三刺激値であるXwYwZw、および、光源条件における背景の相対輝度であるYbが設定される。また、ステップS180で指定される観察条件のタイプに基づき、入力画像の観察条件情報として、ステップS170で周囲の影響の定数c、色誘導係数Nc、明度コントラスト係数FLLおよび順応度の係数Fが設定される。
【0027】
ステップS160およびS170で設定された入力画像観察条件情報に基づき、入力画像を示すXYZに対して以下のような処理が行われる。
【0028】
まず、人間の生理的な三原色として考えられているBradfordの三原色に基づき、XYZを変換してBradford錐体応答RGBが求められる(S100)。人間の視覚は常に観察光源に完全順応するわけではないので、輝度レベルと周囲条件(LAおよびF)に基づき順応度を示す変数Dを求め、この変数DおよびXwYwZwに基づき、RGBに対して不完全順応処理を行いRcGcBcに変換される(S110)。
【0029】
次に、人間の生理的な三原色として考えられているHunt-Pointer-Estevezの三原色に基づき、RcGcBcを変換してHunt-Pointer-Estevez錐体応答R'G'B'が求められる(S120)。このR'G'B'に対して刺激強度レベルによる順応度合いの推定が行われ、試料と白の両方に応じた順応後錐体応答R'aG'aB'aが求められる(S130)。なお、ステップS130では、順応視野の輝度LAに基づき求められる変数FLを用いて非線型応答圧縮が行われる。
【0030】
続いて、見えとの相関関係を求めるために、以下の処理が行われる。
【0031】
赤-緑および黄色-青の反対色応答abがR'aG'aB'aから求められ(S140)、反対色応答abおよび偏心係数から色相Hが求められる(S150)。
【0032】
また、Ywおよび背景の相対輝度Ybから求められる背景誘導係数nが求められ、この背景誘導係数nを用いて試料および白の両方に関する無彩色応答AおよびAwが求められ(S190)、背景誘導係数nおよび明度コントラスト係数FLLから求められる係数z、並びに、A、Awおよびcに基づき明度Jが求められ(S151)、色誘導係数Ncから飽和度Sが求められ(S153)、飽和度Sおよび明度JからクロマCが求められ(S152)、明度Jおよび白の無彩色応答Awから輝度Qが求められる(S154)。
【0033】
また、変数FLおよび周囲の影響の定数cからカラフルネスMが求められる(S155)。
【0034】
(実施形態1)
上述した観察条件に応じた補正処理を用いて観察条件に応じて動的にプロファイルを変更する実施形態を説明する。本実施形態では、デバイスに依存しない色空間としてXYZ色空間を使用する。
【0035】
図2において、11は入力デバイスに依存するデータを、入力側の環境光の白色点基準に基づくデバイスに依存しない色空間データへ変換するための変換マトリクスまたは変換ルックアップテーブル(LUT)、12は変換LUT11から得られるデータを人間の色知覚色空間JChまたはQMhへ変換するための色知覚モデルの順変換部(CAM)、13は環境光の基準白色に相対的な色知覚空間であるJCh(またはJCH)、14は照度レベルによって大きさの変化する絶対的な色知覚空間であるQMh(またはQMH)、15は人間の色知覚空間JChまたはQMhから出力側の環境光の白色点基準に基づくデバイスに依存しない色空間データへ変換するための色知覚モデルの逆変換部、16は逆変換部15から得られるデータを出力デバイスに依存する色空間データヘ変換するための変換LUTである。
【0036】
一般に、観察条件における環境光の白色点は、カラーターゲットやカラーパッチなどの色票を測色した際の標準光源の白色点とは異なる。例えば、測色の際に使用される標準光源はD50やD65であるが、実際に画像を観察する場合の環境光はライトブースのD50やD65とは限らず、白熱電球や蛍光灯などの照明光であったり、照明光と太陽光とが混合した光になる場合が多い。以下の説明では、簡単化のために、観察条件における環境光の光源特性をD50、D65およびD93とするが、実際にはメディア上の白色点のXYZ値を白色点として設定する。
【0037】
図3は本実施形態の機能構成例を示すブロック図である。図3において、41は入力プロファイル42と入力側の観察条件1とから入力側の観察条件1に依存するデータを作成するデータ作成部、43はユーザによる指定またはプロファイルによる指定に基づき色空間圧縮をJCH色空間上で行うかQMH色空間上で行うかを選択する色空間圧縮モード選択部、44および45はそれぞれ出力プロファイル46に基づきJCHまたはQMH色知覚空間上でデータに色空間圧縮を施す色空間圧縮部、47は出力プロファイル46と出力側の観察条件2とから出力側の観察条件2に依存するデータを作成するデータ作成部、48は観察条件1に依存するデータ、色空間圧縮データ、観察条件2に依存するデータおよび色知覚モデルを利用してカラーマッチングを行うカラーマッチング部である。
【0038】
本実施形態を実現する装置は、例えばパーソナルコンピュータのような汎用のコンピュータ装置に、図3に示す機能を実現するソフトウェアを供給することによって実現されることは言うまでもない。その場合、本実施形態の機能を実現するソフトウェアは、コンピュータ装置のOS(基本システム)に含まれていても構わないし、OSとは別に例えば入出力デバイスのドライバソフトウェアに含まれていても構わない。
【0039】
なお、本実施形態が対象とする入力デバイスには、ディジタルスチルカメラおよびディジタルビデオカメラなどの撮影機器、並びに、イメージスキャナおよびフィルムスキャナなどイメージリーダをはじめとする各種の画像入力機器が含まれる。また、出力デバイスには、CRTやLCDなどのカラーモニタ、カラープリンタおよびフィルムレコーダなどの画像出力機器が含まれる。
【0040】
また、カラーマッチングを行うための入出力プロファイルはHDに格納されるが、ハードディスクに限らず、MOなどの光ディスクを用いることもできる。
【0041】
以下、入出力プロファイルを利用してカラーマッチングを行う例を説明する。
【0042】
[観察条件1に依存するデータの作成]
データ作成部41を用いて変換LUT 11を作成するが、変換LUT 11を作成する方法には、図4に一例を示すカラーターゲットのXYZ値(またはLab値)および入力デバイスのRGB値の関係から、環境光に対応する変換LUT 11を再構築する方法、並びに、図5に一例を示す入力プロファイル42内のデバイスRGB空間からXYZ空間へ変換するための変換LUTを環境光に対応する変換LUT 11へ更新する方法がある。
【0043】
図4は環境光に対応する変換LUT 11を再構築する処理例を示すフローチャートである。
【0044】
環境光に対応する変換LUT 11を再構築するために、ステップS51で入力プロファイル42からユーザにより指定されたプロファイルを読込む。入力プロファイル内には予めカラーターゲットのXYZ値(またはLab値)と、そのカラーターゲットをある入力デバイスで読んだときのデバイスRGB値を関連付けたXYZ→RGB関係データが格納されている。このXYZ→RGB関係データを、ステップS52でプロファイルから取り出す。プロファイル内には観察条件1も格納されているので、ステップS53で、観察条件1をプロファイルから取り出す。
【0045】
ステップS52で取り出されたXYZ→RGB関係データのXYZ値は、カラーターゲットを測色したときの基準光であるD50またはD65を基準とするデータであるから、測色光源基準のXYZ値を環境光基準のXYZ値に修正する必要がある。ステップS54では、色知覚モデルによって測色光源基準のXYZ値を、測色条件であるD50光源の白色点「D50基準の場合」、照度レベルおよび周囲光の状態等に基づき色知覚モデルにより人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件1である例えばD65光源の白色点、照度レベルおよび周囲光の状態などに基づき色知覚モデルを用いて再びXYZ値へ逆変換することにより、環境光基準のXYZ値を得る。これにより、環境光基準のXYZ値とデバイスRGB値との関係が得られたので、ステップS55でRGB→XYZ関係データに基づくRGB→XYZ変換マトリクスを作成し、反復法などで最適化すれば、環境条件1に対応する変換LUT 11を得ることができる。
【0046】
図5は環境光に対応する変換LUT 11へ更新する処理例を示すフローチャートである。なお、図4と同様の処理が実行されるステップには同一符号を付して、その詳細説明を省略する。
【0047】
一般的に、入力デバイス用のICCプロファイルにはRGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)が格納されているので、RGB→XYZ関係データを、ステップS62でプロファイルから取り出す。
【0048】
そして、ステップS54で環境光基準のXYZ値とデバイスRGB値との関係が得られた後、ステップS66でプロファイル内の変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)を更新すれば、環境条件1に対応する変換LUT 11を得ることができる。
【0049】
なお、一般に、入力デバイス用のICCプロファイルには、RGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)が格納されている。また、図4および図5においてはRGB→XYZ関係データを利用する例を説明したが、これに限らず、RGB→Lab関係データなどの他のデバイス非依存色のデータを利用しても構わない。
【0050】
[色空間圧縮モードの選択および色空間圧縮]
色空間圧縮モードは、ユーザによりユーザインタフェイス経由で選択されるか、ソース側プロファイルのヘッダ内のRendering Intentによって自動的に選択される。プロファイルに基づき自動選択される場合は以下のようになる。
【0051】
Perceptual JCH色空間上の色空間圧縮モード
Relative Colorimetric JCH色空間上の色空間圧縮モード
Saturation JCH色空間上の色空間圧縮モード
Absolute Colorimetric QMH色空間上の色空間圧縮モード
つまり、相対的なカラーマッチングの場合はJCH空間13が選択され、絶対的なカラーマッチングの場合はQMH空間14が選択される。
【0052】
図6はJCH 13またはQMH 14上で色空間圧縮を行う処理例を示すフローチャートである。
【0053】
色知覚空間上で色空間圧縮を行うために、ステップS81で、出力プロファイル46からユーザに指定されたプロファイルを読込む。
【0054】
一般に、出力デバイス用ICCプロファイルには、色再現領域の内か外かを判定(以下「色再現領域の内外判定」と呼ぶ)するために、XYZ値またはLab値を入力する判定LUT(gamut Tag)が格納されている。しかし、そのXYZ値は測色光源の特性であるD50またはD65を基準にしているため、環境光に応じた色再現領域の内外判定に直接利用することはできない。従って、色再現領域の内外判定を行うLUT(gamut Tag)を利用する代わりに、プロファイルに格納されているCMYK→XYZ変換を行うための変換LUT(AtoB0 Tagなど)からCMYK→XYZ関係データを、ステップS82で取り出して利用する。出力プロファイルには観察条件2も格納されているので、ステップS83で観察条件2を出力プロファイルから取り出す。
【0055】
ステップS82で取り出されたCMYK→XYZ関係データのXYZ値は、測色光であるD50またはD65を基準とするデータであるから、環境光基準のXYZ値に修正する必要がある。ステップS84では、色知覚モデルによって測色光基準のXYZ値を、測色条件であるD50光源の白色点「D50基準の場合」、照度レベルおよび周囲光の状態などに基づき色知覚モデルを用いて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件2である例えばD65光源の白色点、照度レベルおよび周囲光の状態などに基づいて、再びXYZ値へ逆変換することにより、環境光基準のXYZ値を得る。このようにステップS84では、デバイスのCMYK値から環境光基準のXYZ値への関係を求める。ステップS85では、ステップS84で得られたCMYK→環境光XYZ関係データに基づきJCHまたはQMH色空間上における出力デバイスの色再現領域を求める。
【0056】
JCHまたはQMH色空間上における出力デバイスの色再現領域は、例えば、
Red (C:0%, M:100%, Y:100%, K:0%)
Yellow (C:0%, M:0%, Y:100%, K:0%)
Green (C:100%, M:0%, Y:100%, K:0%)
Cyan (C:100%, M:0%, Y:0%, K:0%)
Blue (C:100%, M:100%, Y:0%, K:0%)
Magenta(C:0%, M:100%, Y:0%, K:0%)
White (C:0%, M:0%, Y:0%, K:0%)
Black (C:0%, M:0%, Y:0%, K:100%)
の八点に対する環境光基準のXYZ値を、ステップS84で求められたCMYK→環境光XYZ関係データを用いて求め、さらに色知覚モデルによって観察条件2に基づいて人間の色知覚空間JCHまたはQMHの座標値へ変換することで、図7に示されるような12面体によって近似することができる。
【0057】
12面体で近似される色再現領域において、色再現領域の内部の点、例えば無彩色軸上におけるWhiteとBlackの中間点と、内外判定対象の入力色信号の点(JCH値またはQMH値)とが、同じ側にあれば色再現範囲内にあると判断し、反対側にあれば色再現範囲外にあると判断する。
【0058】
ステップS85により得られる色再現領域に基づく内外判定の結果に基づき、ステップS86で色空間圧縮が行われる。図8はJCH色知覚空間における色空間圧縮の概念を、図9はQMH色知覚空間における色空間圧縮の概念をそれぞれ示す図である。上記の内外判定により出力デバイスの色再現範囲外であると判定された入力色信号は、JCH色知覚空間やQMH色知覚空間において、色相角h(またはH)が保存されるように、色再現範囲内へマッピングされる。そして、このマッピング結果は、相対的カラーマッチングの場合にはJCH色知覚空間を入出力色空間とするLUTへ、絶対的カラーマッチングの場合にはQMH色知覚空間を入出力色空間とするLUTへ格納される。
【0059】
図10は異なるデバイス間における色空間圧縮の概念を示す図で、破線は入力デバイスの色再現領域を、実線は出力デバイスの色再現領域をそれぞれ示している。JCH色知覚空間においては、J(lightness)の大きさが観察条件1および2の光源白色点(以下では「白色点1」「白色点2」と略す場合がある)によってそれぞれ正規化されるため、Jは環境条件1および2の照度レベル(以下では「照度レベル1」「照度レベル2」と略す場合がある)に依存しない。QMH一方、色知覚空間においては、Q(brightness)の大きさが照度レベル1および2によって変化する。従って、相対的カラーマッチングでは白色点1がそのまま白色点2になる。一方、絶対的カラーマッチングでは、照度レベル1>照度レベル2の場合には白色点1が白色点2ヘマッピングされる。また、照度レベル1<照度レベル2の場合には白色点1が白色点2より低いのでグレーとして出力される。
【0060】
[観察条件2に依存するデータの作成]
次に、データ作成部47を用いて変換LUT 16を作成する。
【0061】
図11は環境光に対応する変換LUT 16を再構築する処理例を示すフローチャートである。
【0062】
一般に、出力デバイス用のICCプロファイルには、XYZまたはLab値からデバイスのCMYKまたはRGB値への変換を行うためのLUT(BtoA0 Tagなど)が色空間圧縮も含めた形式で格納されている。しかし、LUTへ入力すべきXYZ値はD50またはD65を基準とするデータであるから、環境光に応じた変換LUTとして直接利用することはできない。
【0063】
そこで、色空間圧縮処理と同様に、ステップS71で、出力プロファイル46に格納されているCMYK→XYZ変換を行うための変換LUT(AtoB0 Tagなど)を読み込み、ステップS72で、変換LUTからCMYK→XYZ関係データを取り出す。なお、CMYK→XYZ関係データのCMYK値はRGB値など他のデバイス依存色であっても構わないし、XYZ値はLab値など他のデバイスに依存しない色であっても構わない。次に、ステップS73で、出力プロファイル46内に予め格納された観察条件2を取り出す。
【0064】
取り出されたCMYK→XYZ関係データのXYZ値はD50またはD65を基準とするデータであるから、ステップS74で測色光源基準のXYZ値を環境光基準のXYZ値に修正する。つまり、色知覚モデルによって測色光源基準のXYZ値を、その測色条件(D50光源の白色点「D50基準の場合」、照度レベル、周囲光の状態など)に基づいて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件2(D65光源の白色点、照度レベル、周囲光の状態など)に基づいて、再びXYZ値へ逆変換することにより、測色光源基準のXYZ値を環境光基準のXYZ値に変換することができる。
【0065】
これにより、デバイスCMYK値から環境光基準のXYZ値への関係が得られるので、ステップS75で、CMYK→環境光XYZ関係データを用いて、環境光XYZ→CMYK関係データを反復法などを用いて最適化すれば、所望の環境光に対応する変換LUT 16を得ることができる。
【0066】
[カラーマッチングの実行]
図12はカラーマッチング処理の概念を示す図である。11はデータ作成部41により観察条件1に基づき作成された変換LUT、132は色空間圧縮部44によりJCH色空間上で作成されたLUT、133は色空間圧縮部45によりQMH色空間上で作成されたLUT、16はデータ作成部47により観察条件2に基づき作成された変換LUTである。
【0067】
RGBまたはCMYKの入力色信号は、変換LUT 11により入力デバイスの色信号から観察条件1におけるデバイスに依存しない色信号であるXYZ信号へ変換される。次に、XYZ信号は、色知覚モデル順変換部134および135により観察条件1(D50光源の白色点、照度レベル、周囲光の状態など)に基づいて人間の知覚信号JCHまたはQMHへ変換される。相対的カラーマッチングの場合はJCH空間が、絶対的カラーマッチングの場合はQMH空間がそれぞれ選択される。
【0068】
色知覚信号JCHおよびQMHはLUT 132および133により出力デバイスの色再現範囲内へ圧縮される。色空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデル逆変換部136および137により観察条件2(D65光源の白色点、照度レベル、周囲光の状態など)に基づいて観察条件2におけるデバイスに依存しない色信号であるXYZ信号へ変換される。そして、XYZ信号は変換LUT 134により観察条件2における出力デバイスに依存する色信号へ変換される。
【0069】
以上の処理によって得られたRGBまたはCMYK信号は出力デバイスへ送られて、その色信号によって示される画像がプリント出力される。そのプリントアウトを観察条件2の下で観察すれば、観察条件1の下で観察されるオリジナル原稿と、同じ色味に見える。
【0070】
(実施形態2)
実施形態1ではデバイスに依存しない色空間としてXYZ色空間を例に説明を行っているが、XYZ信号の代わりにデバイスに依存しないRGB色空間を利用することも少なくない。デバイスに依存したい色空間の種類は例えばソースプロファイルによって任意に指定される。
【0071】
以下、デバイスに依存しないRGB色空間を用いた場合の本実施形態の処理を説明する。
【0072】
RGB色空間はXYZ色空間から3x3マトリクスによる1対1対応の線型変換が可能であり、三原色点の色度及び基準白色点により色再現範囲を決定することができる。又、入力色空間としてRGB色空間を利用すれば、3D LUTにおけるグレー軸の配置を対角軸上に行うことが可能となり、格子点数に関係なく四面体補間におけるグレー色の色ずれを防ぐことができる効果がある。一方、入力色空間としてLab色空間等を利用した場合には、3D LUTのa軸/b軸方向の格子点数が奇数個の場合にはグレー軸が格子点上に配置されるため線形補間におけるグレー色の色ずれが生じないが、格子点数が偶数個の場合には線形補間による色ずれが生じる。
【0073】
RGB三原色の色度R(xr, yr), G(xg, yg), B(xb, yb)及び基準白色点の三刺激値(Xw, Yw, Zw)より、RGB色空間とXYZ色空間の変換式は以下の方法によって求めることができる。
zr = 1 xr yr …(7)
zg = 1 xg yg …(8)
zb = 1 xb yb …(9)
【0074】
【外2】
Figure 0003667171
【0075】
例えば、図14に示されるような人間の全可視領域を包含する三原色の色度(x, y):
R (x, y) = (0.7347, 0.2653) …(13)
G (x, y) = (-0.0860, 1.0860) …(14)
B (x, y) = (0.0957, -0.0314) …(15)
と基準白色点D65によって決定される変換マトリクスは(7)〜(12)式を利用すれば以下のようになる。
【0076】
【外3】
Figure 0003667171
【0077】
以下、デバイスRGBとデバイスに依存しないRGBを区別するために、基準白色点及び(13)〜(15)式の三原色によって定義されるRGB色空間をCRGB色空間と呼ぶ。尚、デバイスに依存しないRGBの三原色は(13)〜(15)式に限定されるものではない。
【0078】
基準白色点D65(X, Y, Z) = (0.9505, 1.0000, 1.0891)に対するCRGB値を例えば8ビットの量子化によって表現すれば(11)式を用いて(R, G, B) = (255, 255, 255)となる。
【0079】
これに対して、同変換式を用いて他の基準白色点A(X, Y, Z) = (1.098675, 1.000000, 0.355916)を変換した結果得られる値は8ビットの量子化において(R, G, B) = (562, 106, 83)となり、オーバーフローが発生する。仮に表現できたとしても、CRGB色空間を入力とする3D LUTでは図15に示されるようにグレー軸が対角軸上に配置されないため四面体補間によるグレー色の色ずれが発生する可能性がある。
【0080】
本実施形態では、観察条件下の基準白色点に応じて動的にXYZ色空間とCRGB色空間の変換式を作成することにより、CRGB色空間におけるオーバーフローやアンダーフローを防ぐと共に、3D LUTにおいてグレー軸が対角軸からずれることにより生じるグレー色の色ずれを防ぐ効果がある。
【0081】
図16に観察条件下の基準白色点に応じて動的にXYZ色空間とCRGB色空間の変換式を作成し、異なる観察条件下のカラーマッチングを行った例を示す。
【0082】
同図において、161はRGBやCMYK等のデバイスに依存した信号を観察条件下の白色点基準のCRGB信号へ変換するためのプロファイルである。プロファイル作成手段はデータ作成部41の方法によってRGB→XYZ関係データを作成した後、XYZ→CRGBの変換を適用することによってRGB→CRGB関係データを得ることができる。ここで、XYZ→CRGBの変換マトリクスは、CRGB三原色(13)〜(15)及び入力側の基準白色点D50 (X, Y, Z) = (0.9642, 1.0000, 0.8249)より、以下の(19)式によって与えられる:
【0083】
【外4】
Figure 0003667171
【0084】
得られたRGB→CRGB関係データはLUT形式等へ変換され、入力側の基準白色点D50と共にプロファイルへ格納される。格納されるCRGB値は8ビットの量子化に限定される必要はなく、16ビット等の量子化精度であってもかまわない。また、データ作成部41では色知覚モデルを用いて測色光基準のXYZ値を観察光基準のXYZ値に修正しているが、カラーターゲットの分光反射率及び観察光の分光分布が得られる場合には観察光基準のXYZ値を直接求めてもよい。
【0085】
166は観察条件下の白色点基準のCRGB信号をRGBやCMYK等のデバイスに依存した信号へ変換するためのプロファイルである。プロファイル作成手段はデータ作成部47のステップS74の方法によってRGB→XYZ関係データを作成した後、XYZ→CRGBの変換を適用することによってRGB→CRGB関係データを得ることができる。ここで、XYZ→CRGBの変換マトリクスは、CRGB三原色(13)〜(15)及び入力側の基準白色点A (X, Y, Z) = (1.098675, 1.0000, 0.355916)より、以下の(21)式によって与えられる:
【0086】
【外5】
Figure 0003667171
【0087】
また、データ作成部47では色知覚モデルを用いて測色光基準のXYZ値を観察光基準のXYZ値に修正しているが、カラーパッチの分光反射率及び観察光の分光分布が得られる場合には観察光基準のXYZ値を直接求めてもよい。得られたRGB→CRGB関係データはステップS75の処理によりCRGB→RGB関係データへと変換され、出力側の基準白色点Aと共にプロファイルへ格納される。また、データ作成部47のステップS74の方法によって得られたRGB→XYZ関係データからCRGB→RGB関係データを作成する他の方法として、XYZ→CRGBの変換を適用して逆変換する代わりに、ステップS75の処理によりXYZ→RGB関係データを作成した後、XYZ→RGB変換の前段として(20)式を適用することもできる。
【0088】
入力側の基準白色点D50を格納したプロファイル161と出力側の白色点Aを格納したプロファイル166を用いたカラーマッチングは、以下のような処理の流れになる。
【0089】
まず、プロファイル161によりRGBまたはCMYKの入力色信号は変換LUT等によりD50基準のCRGB信号へ変換される。カラーマッチング手段はプロファイル161に格納された入力側の基準白色点D50を読み出し、(18)式に示されるCRGB→XYZの変換マトリクスを作成し、D50基準のCRGB信号をXYZ信号へ変換する。次に、XYZ信号は、色知覚モデル順変換部134または135により観察条件1(D50光源の白色点、照度レベル、周囲光の状態など)に基づいて人間の知覚信号JCHまたはQMHへ変換される。ここで、相対的カラーマッチングの場合はJCH空間が、絶対的カラーマッチングの場合はQMH空間がそれぞれ選択される。
【0090】
色知覚信号JCHおよびQMHはLUT132および133により出力デバイスの色再現範囲内へ圧縮される。色空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデル逆変換部136または137により観察条件2(A光源の白色点、照度レベル、周囲光の状態など)に基づいてXYZ信号へ変換される。カラーマッチング手段はプロファイル166に格納された出力側の基準白色点Aを読み出し、(21)式に示されるXYZ→CRGBの変換マトリクスを作成し、XYZ信号をA基準のCRGB信号へ変換する。そして、プロファイル166によりA基準のCRGB信号は変換LUT等によりRGBまたはCMYKの出力信号へ変換される。
【0091】
このように、観察条件下の白色点に応じて動的にXYZ色空間とCRGB色空間の変換式を作成することにより、次の効果を得ることができる。
(1)XYZ色空間と任意の基準白色点に応じたRGB色空間の変換マトリクスを動的に作成し、デバイスに依存しない色を基準白色点に応じたRGB色空間において表現することにより、RGB色空間で量子化した際のオーバーフローやアンダーフローを防ぐことができる。
(2)環境光の基準白色点に応じたRGB色空間を3D LUTの入力色空間として用いることにより、グレー色を3D LUTの対角軸上へ配置することが可能となり、格子点数に関係なく四面体補間による色ずれを防ぐことができる。
【0092】
なお、カラーマッチング手段を適用する際に、プロファイル161または166内に基準白色点が格納されていない場合には、例えばICCで規定されているD50をデフォルトの基準白色点として代用する。
【0093】
また、カラーマッチング手段において、観察条件1下のCRGB(またはXYZ)信号が色知覚モデル順変換部134または135により人間の知覚信号JCHまたはQMHへ変換された後、LUT132および133により出力デバイスの色再現範囲内へ圧縮され、色知覚モデル逆変換部136または137により観察条件2下のCRGB(またはXYZ)信号へ変換されることを特徴としているが、色空間圧縮の行われる場所は特にカラーマッチング手段内に限定される必要はない。つまり、カラーマッチング手段では色空間圧縮を行わず、出力側プロファイル内で色空間圧縮を行うことも可能である。観察条件1下のCRGB(またはXYZ)信号は色知覚モデル順変換部134または135により人間の知覚信号JCHまたはQMHへ変換され、色空間圧縮を伴うことなく、色知覚モデル逆変換部136または137により観察条件2下のCRGB(またはXYZ)信号へ変換される。そして、出力側のプロファイル166を作成する際に、観察条件2下のCRGB(またはXYZ)信号を再度、色知覚モデル順変換部134または135により人間の知覚信号JCHまたはQMHへ変換し、LUT132および133により出力デバイスに対する色空間圧縮を施した後、色知覚モデル逆変換部136または137により観察条件2下のCRGB(またはXYZ)信号へ変換し、変換LUT等によりRGBまたはCMYKの出力信号へ変換されるようにしておけばよい。
【0094】
また、プロファイルへ格納された観察光の基準白色点と予め定義されたCRGB三原色の色度を利用することにより、カラーマッチング手段がCRGB色空間とXYZ色空間の変換マトリクスを動的に作成することを特徴としているが、該変換マトリクスを得るためのプロファイル情報は観察光の基準白色点に限定される必要はない。つまり、観察条件に応じたCRGB色空間とXYZ色空間の変換マトリクスをプロファイル情報として保存していてもかまわない。
【0095】
(他の実施形態)
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0096】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0097】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0098】
【発明の効果】
本発明によれば、RGB色信号とXYZ色信号との間の変換で用いる変換条件を、基準白色点に応じて求めるので、任意の基準白色点に応じた入力色信号に対して適切な変換条件を用いて変換を行うことができる。よって、変換により、オーバーフローやアンダーフローが発生することを防ぐことができ、良好な色再現を実現することができる。
【図面の簡単な説明】
【図1】一般的なカラーマッチングの概念図、
【図2】本発明の概念を説明する図、
【図3】第1実施形態の機能構成例を示すブロック図
【図4】環境光に対応する変換LUTを再構築する処理例を示すフローチャート、
【図5】環境光に対応する変換LUTへ更新する処理例を示すフローチャート、
【図6】 JCHまたはQMH色空間上で色空間圧縮を行う処理例を示すフローチャート、
【図7】色再現領域を近似する12面体を示す図、
【図8】 JCH色知覚空間における色空間圧縮の概念を示す図、
【図9】 QMH色知覚空間における色空間圧縮の概念を示す図、
【図10】異なるデバイス間における色空間圧縮の概念を示す図、
【図11】環境光に対応する変換LUTを再構築する処理例を示すフローチャート、
【図12】カラーマッチング処理の概念を示す図、
【図13】本発明にかかる実施形態で使用する色知覚モデルについて説明する図、
【図14】人間の全可視領域を包含するRGB領域を示す図、
【図15】基準白色点が固定されている場合のグレー軸のずれを示す図、
【図16】本発明において入力側基準白色点に応じたCRGB色空間と出力側基準白色点に応じたCRGB色空間を用いた例を示す図。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, apparatus, and recording medium that perform processing using an RGB color space corresponding to an arbitrary reference white point.
[0002]
[Prior art]
FIG. 1 is a conceptual diagram of general color matching.
[0003]
The input data that is RGB data is converted into XYZ data in a color space that does not depend on the device by the input profile. Since colors outside the color gamut of the output device cannot be expressed by the output device, the input data converted to data in a device-independent color space so that all of the colors fall within the color gamut of the output device. Is subjected to color space compression. After color space compression, the input data is converted from a device-independent color space to CMYK data in a color space that depends on the output device.
[0004]
In color matching, the reference white point and the ambient light are fixed. For example, in a profile defined by International Color Consortium (ICC), Profile Connection Space (PCS) for linking profiles is the D50 standard XYZ value and Lab value. For this reason, correct color reproduction is guaranteed when the input document or print output is observed under a light source having D50 characteristics, and correct color reproduction is not guaranteed under a light source having other characteristics.
[0005]
[Problems to be solved by the invention]
When the same sample (for example, an image) is observed under different light sources, the XYZ values for the observed sample are naturally different. In order to predict XYZ values under different light sources, there are conversion methods such as (1) ratio conversion, (2) Von Kries conversion, and (3) a prediction formula based on a color perception model.
[0006]
Ratio conversion is a method of performing ratio conversion of W2 / W1 in order to convert an XYZ value under the reference white point W1 into an XYZ value under the reference white point W2. When this method is applied to the Lab uniform color space, the Lab value under W1 matches the Lab value under W2. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to the ratio conversion, the following relationship is obtained.
[0007]
X2 = (Xw2 / Xw1) ・ X1
Y2 = (Yw2 / Yw1) ・ Y1 (1)
Z2 = (Zw2 / Zw1) ・ Z1
[0008]
Von Kries conversion is a method of performing W2 ′ / W1 ′ ratio conversion on the human color perception space PQR in order to convert XYZ values under W1 into XYZ values under W2. When this method is applied to the Lab uniform color space, the Lab value under W1 does not match the Lab value under W2. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to Von Kries transformation, the following relation is obtained.
[0009]
[Outside 1]
Figure 0003667171
[0010]
The prediction formula based on the color perception model is for human color perception such as CIE CAM97s to convert XYZ values under viewing condition VC1 (including W1) to XYZ values under viewing condition VC2 (including W2). This is a conversion method using space QMH (or JCH). Here, Q in QMH represents brightness, M represents colourfulness, H represents huequadrature or hueangle, J in JCH represents lightness, C represents chroma, and H represents huequadrature or hueangle. When this conversion method is applied to the Lab uniform color space, the Lab value under W1 and the Lab value under W2 do not match as in the Von Kries conversion. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to the prediction formula based on the color perception model, the following conversion is performed.
[0011]
(X1, Y1, Z1) → [CIE CAM97s forward conversion] → (Q, M, H) or (J, C, H)
→ [CIE CAM97s reverse conversion] → (X2, Y2, Z2)
In other words, if it is assumed that XYZ values under different reference white points can be converted by ratio conversion, the equi-hue lines in the Lab color space under different reference white points are always constant, but by Von Kries conversion and color perception model When human color perception is considered as in the prediction formula, the equi-hue line in the Lab color space under a different reference white point changes depending on the reference white point.
[0012]
For the above reasons, when color space compression (hue preservation) defined in the same Lab color space is applied in color matching under different reference white points, it may be felt that the hue is not constant in human vision. is there.
[0013]
In the current ICC profile, PCS is limited to XYZ values and Lab values based on D50, so color matching corresponding to ambient light cannot be performed.
[0014]
Furthermore, there is a method of expressing colors that do not depend on PCS or devices by RGB space that can be linearly converted from 3x3 matrix from XYZ space, but when the conversion matrix is fixed by the reference white point, the following There was a problem.
[0015]
If a color under a different reference white point is converted using a conversion matrix with a fixed reference white point, overflow or underflow may occur in the device-independent RGB space, making it impossible to express (particularly near the white point). In a 3D LUT that uses an independent RGB space as the input color space, if a gray color under a different reference white point is input, the gray color will not be on the diagonal axis of the 3D LUT, so three or more grid points in tetrahedral interpolation In this case, color interpolation may occur.
[0016]
The present invention has been made in view of the above points, and an object of the present invention is to realize good color reproduction.
[0017]
[Means for Solving the Problems]
The present invention has the following configuration as one means for achieving the above object.
[0018]
According to the first aspect of the present invention, there is provided a color signal input step for inputting a color signal indicated in a device-independent RGB color space corresponding to an arbitrary reference white point, and a reference white for inputting information on the reference white point. Based on the point information input step and the information on the reference white point, the color signal indicated in the RGB color space corresponding to the arbitrary reference white point is changed to the color signal indicated in the XYZ color space corresponding to the reference white point. A conversion condition step for obtaining a conversion condition for conversion; and a conversion step for converting the input color signal into a color signal represented in an XYZ color space corresponding to the reference white point based on the conversion condition. To do.
[0019]
The invention according to claim 6 of the present application includes a color signal input step for inputting a color signal indicated by an XYZ color space corresponding to an arbitrary reference white point, and a reference white point information input step for inputting information on the reference white point. Based on the information on the reference white point, the color signal indicated in the XYZ color space corresponding to the arbitrary reference white point is changed to the color signal indicated in the RGB color space corresponding to the reference white point and not depending on the device. A conversion condition step for obtaining a conversion condition for conversion into a color signal, and a conversion step for converting the input color signal into a color signal represented in an RGB color space that is independent of the device and that is based on the reference white point based on the conversion condition It is characterized by having.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0022]
First, an example of a CAM (Color Appearance model) that performs correction processing according to observation conditions will be described.
[0023]
It is known that the color perceived by the human visual system looks different even if the light entering the eye is the same, depending on the conditions of the illumination light, the background where the stimulus is placed, etc. .
[0024]
For example, white illuminated by an incandescent bulb does not feel as red as the characteristics of light entering the eye, and is perceived as white. In addition, white placed on a black background and white placed on a light background feel brighter on white placed on a black background. The former phenomenon is known as chromatic adaptation, and the latter is known as contrast. For this purpose, it is necessary to display the color in an amount corresponding to the physiological activity of photoreceptor cells distributed in the retinal form instead of XYZ, and a color perception model has been developed for such purpose. . CIE recommends using CIE CAM97s. This color perception model uses the three primary colors of color vision, for example, J (brightness), C (chroma) and H (hue), or Q (brightness), which are the correlation amounts of color perception calculated by CIE CAM97s. ), M (colorfulness), and H (hue) values are considered to be color display methods that do not depend on viewing conditions. By reproducing the colors so that the values of J, C, H or Q, M, and H match between the devices, the difference in the observation conditions of the input and output images can be solved.
[0025]
Processing contents in the forward conversion of the color perception model CIE CAM97s for performing correction processing (processing for converting XYZ into JCH or QMH) according to the observation conditions when observing the input image will be described with reference to FIG.
[0026]
First, in step S160 as input image observation condition information, LA, which is the luminance of the adaptation field (cd / square meter, usually 20% of white luminance in the adaptation field) is selected, and the relative tristimulus value of the sample under the light source condition XYZ, XwYwZw which is the relative tristimulus value of white light under the light source condition, and Yb which is the relative luminance of the background under the light source condition are set. Based on the type of viewing condition specified in step S180, the ambient condition constant c, color induction coefficient Nc, brightness contrast coefficient FLL, and adaptation coefficient F are set as viewing condition information for the input image in step S170. Is done.
[0027]
Based on the input image observation condition information set in steps S160 and S170, the following processing is performed on XYZ indicating the input image.
[0028]
First, Bradford cone response RGB is obtained by converting XYZ based on Bradford's three primary colors considered as human's physiological three primary colors (S100). Since human vision is not always fully adapted to the observation light source, a variable D indicating the degree of adaptation is obtained based on the luminance level and ambient conditions (LA and F), and based on this variable D and XwYwZw, it is not suitable for RGB. A complete adaptation process is performed and converted to RcGcBc (S110).
[0029]
Next, RcGcBc is converted based on the three primary colors of Hunt-Pointer-Estevez, which are considered to be human physiological three primary colors, and a Hunt-Pointer-Estevez cone response R′G′B ′ is obtained (S120). An adaptation degree based on the stimulus intensity level is estimated for R′G′B ′, and a post-adaptation cone response R′aG′aB′a corresponding to both the sample and white is obtained (S130). In step S130, nonlinear response compression is performed using the variable FL obtained based on the luminance LA of the adaptation field of view.
[0030]
Subsequently, in order to obtain a correlation with appearance, the following processing is performed.
[0031]
Red-green and yellow-blue opposite color responses ab are determined from R'aG'aB'a (S140), and hue H is determined from the opposite color response ab and the eccentricity coefficient (S150).
[0032]
Also, the background induction coefficient n obtained from Yw and the relative luminance Yb of the background is obtained, and using this background induction coefficient n, achromatic responses A and Aw for both the sample and white are obtained (S190), and the background induction coefficient n is obtained from the coefficient z obtained from the brightness contrast coefficient FLL, and A, Aw and c (S151), the saturation S is obtained from the color induction coefficient Nc (S153), the saturation S and the brightness. Chroma C is determined from J (S152), and brightness Q is determined from lightness J and white achromatic response Aw (S154).
[0033]
Further, the colorfulness M is obtained from the variable FL and the ambient influence constant c (S155).
[0034]
(Embodiment 1)
An embodiment will be described in which the profile is dynamically changed according to the observation condition using the correction process according to the observation condition described above. In the present embodiment, an XYZ color space is used as a device-independent color space.
[0035]
In FIG. 2, 11 is a conversion matrix or conversion look-up table (LUT) for converting data dependent on the input device into device-independent color space data based on the white point criterion of the ambient light on the input side, 12 is The forward conversion part (CAM) of the color perception model for converting the data obtained from the conversion LUT11 into the human color perception color space JCh or QMh, 13 is a color perception space relative to the reference white of ambient light, JCh ( (Or JCH), 14 is QMh (or QMH) which is an absolute color perception space whose size varies with the illumination level, and 15 is based on the white point standard of ambient light on the output side from human color perception space JCh or QMh An inverse conversion unit 16 of the color perception model for converting into device independent color space data, 16 is a conversion LUT for converting data obtained from the inverse conversion unit 15 into color space data depending on the output device.
[0036]
In general, the white point of ambient light under viewing conditions is different from the white point of a standard light source when color charts such as color targets and color patches are measured. For example, the standard light source used for colorimetry is D50 or D65, but the ambient light when actually observing the image is not limited to D50 or D65 in the light booth, such as incandescent bulbs and fluorescent lights In many cases, it is light or a mixture of illumination light and sunlight. In the following description, for simplification, the light source characteristics of the ambient light under the observation conditions are set to D50, D65, and D93, but actually, the XYZ values of the white point on the medium are set as the white point.
[0037]
FIG. 3 is a block diagram showing a functional configuration example of the present embodiment. In FIG. 3, 41 is a data creation unit that creates data depending on the input-side observation condition 1 from the input profile 42 and the input-side observation condition 1, and 43 is a color space compression based on the designation by the user or the designation by the profile. Color space compression mode selection unit for selecting whether to perform in JCH color space or QMH color space, 44 and 45 are colors that perform color space compression on data in JCH or QMH color perception space based on output profile 46, respectively Spatial compression unit 47 is a data creation unit that creates data depending on output-side observation condition 2 from output profile 46 and output-side observation condition 2, 48 is data dependent on observation condition 1, color space compression data, This is a color matching unit that performs color matching using data and a color perception model depending on viewing condition 2.
[0038]
It goes without saying that the apparatus for realizing the present embodiment is realized by supplying software for realizing the functions shown in FIG. 3 to a general-purpose computer apparatus such as a personal computer. In that case, the software that realizes the functions of the present embodiment may be included in the OS (basic system) of the computer apparatus, or may be included in the driver software of the input / output device, for example, separately from the OS. .
[0039]
The input devices targeted by the present embodiment include various image input devices such as image readers such as image scanners such as image scanners and image scanners and film scanners, and digital still cameras and digital video cameras. Output devices include image output devices such as color monitors such as CRT and LCD, color printers, and film recorders.
[0040]
The input / output profile for performing color matching is stored in the HD, but not only the hard disk but also an optical disk such as an MO can be used.
[0041]
Hereinafter, an example in which color matching is performed using an input / output profile will be described.
[0042]
[Create data depending on observation condition 1]
The conversion LUT 11 is created using the data creation unit 41. The method of creating the conversion LUT 11 is based on the relationship between the XYZ values (or Lab values) of the color target and the RGB values of the input device, as shown in FIG. , A method for reconstructing the conversion LUT 11 corresponding to the ambient light, and the conversion LUT 11 for converting from the device RGB space to the XYZ space in the input profile 42 shown in FIG. 5 as an example. There is a way to update to.
[0043]
FIG. 4 is a flowchart showing an example of processing for reconstructing the conversion LUT 11 corresponding to ambient light.
[0044]
In order to reconstruct the conversion LUT 11 corresponding to the ambient light, the profile specified by the user is read from the input profile 42 in step S51. In the input profile, XYZ → RGB relationship data in which an XYZ value (or Lab value) of a color target is associated with a device RGB value when the color target is read by an input device is stored. This XYZ → RGB related data is extracted from the profile in step S52. Since the observation condition 1 is also stored in the profile, the observation condition 1 is extracted from the profile in step S53.
[0045]
The XYZ values in the XYZ → RGB-related data extracted in step S52 are data based on D50 or D65, which is the reference light when the color target is colorimetrically measured. It is necessary to correct it to the standard XYZ value. In step S54, the XYZ values of the colorimetric light source reference are obtained from the color perception model. Convert to color perception space JCH, and reversely convert back to XYZ values using a color perception model based on the observation conditions 1 that are different from the colorimetric conditions, such as the white point of the D65 light source, the illuminance level, and ambient light conditions To obtain the XYZ values of the ambient light reference. As a result, the relationship between the XYZ value of the ambient light standard and the device RGB value was obtained.In step S55, an RGB → XYZ conversion matrix based on the RGB → XYZ relationship data is created and optimized by an iterative method, A conversion LUT 11 corresponding to environmental condition 1 can be obtained.
[0046]
FIG. 5 is a flowchart showing an example of processing for updating to the conversion LUT 11 corresponding to ambient light. Note that steps in which the same processing as in FIG. 4 is executed are denoted by the same reference numerals, and detailed description thereof is omitted.
[0047]
In general, since the conversion matrix (colorant tag) or conversion LUT (AtoB0 Tag) for RGB → XYZ conversion is stored in the ICC profile for input devices, RGB → XYZ related data is stored in step S62. Remove from profile.
[0048]
Then, after the relationship between the XYZ value of the ambient light reference and the device RGB value is obtained in step S54, if the conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) in the profile is updated in step S66, the environmental conditions A conversion LUT 11 corresponding to 1 can be obtained.
[0049]
In general, an ICC profile for an input device stores a conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) for performing RGB → XYZ conversion. 4 and 5, the example of using the RGB → XYZ relation data has been described. However, the present invention is not limited to this, and other device-independent color data such as RGB → Lab relation data may be used. .
[0050]
[Select color space compression mode and color space compression]
The color space compression mode is selected by the user via the user interface or automatically by the Rendering Intent in the header of the source side profile. When automatic selection is performed based on the profile, it is as follows.
[0051]
Color space compression mode on Perceptual JCH color space
Color space compression mode on Relative Colorimetric JCH color space
Color space compression mode on Saturation JCH color space
Color space compression mode on Absolute Colorimetric QMH color space
That is, the JCH space 13 is selected for relative color matching, and the QMH space 14 is selected for absolute color matching.
[0052]
FIG. 6 is a flowchart showing an example of processing for performing color space compression on JCH 13 or QMH 14.
[0053]
In order to perform color space compression on the color perception space, a profile designated by the user is read from the output profile 46 in step S81.
[0054]
In general, an ICC profile for output devices determines whether the color reproduction area is inside or outside (hereinafter referred to as “color reproduction area inside / outside determination”), and a decision LUT (gamut Tag) that inputs an XYZ value or Lab value. ) Is stored. However, since the XYZ values are based on D50 or D65, which are the characteristics of the colorimetric light source, they cannot be directly used for the inside / outside determination of the color reproduction area according to the ambient light. Therefore, instead of using the LUT (gamut Tag) for determining the inside / outside of the color reproduction area, CMYK → XYZ related data from the conversion LUT (AtoB0 Tag, etc.) for CMYK → XYZ conversion stored in the profile, It is taken out and used in step S82. Since observation condition 2 is also stored in the output profile, observation condition 2 is extracted from the output profile in step S83.
[0055]
Since the XYZ value of the CMYK → XYZ relation data extracted in step S82 is data based on D50 or D65 as the colorimetric light, it needs to be corrected to the XYZ value of the ambient light reference. In step S84, the color perception model uses the color perception model based on the color perception model based on the color perception model based on the white point of the D50 light source that is the color measurement condition (in the case of the D50 standard), the illuminance level, the ambient light condition, etc. By converting to human color perception space JCH and back to XYZ values again based on the observation condition 2 that is different from the colorimetric condition, such as the white point of the D65 light source, the illuminance level, and the ambient light condition, Get XYZ value of ambient light standard. Thus, in step S84, the relationship from the CMYK value of the device to the XYZ value of the ambient light reference is obtained. In step S85, the color reproduction region of the output device in the JCH or QMH color space is obtained based on the CMYK → environment light XYZ relationship data obtained in step S84.
[0056]
The color reproduction area of the output device on the JCH or QMH color space is, for example,
Red (C: 0%, M: 100%, Y: 100%, K: 0%)
Yellow (C: 0%, M: 0%, Y: 100%, K: 0%)
Green (C: 100%, M: 0%, Y: 100%, K: 0%)
Cyan (C: 100%, M: 0%, Y: 0%, K: 0%)
Blue (C: 100%, M: 100%, Y: 0%, K: 0%)
Magenta (C: 0%, M: 100%, Y: 0%, K: 0%)
White (C: 0%, M: 0%, Y: 0%, K: 0%)
Black (C: 0%, M: 0%, Y: 0%, K: 100%)
The XYZ values of the ambient light reference for the eight points are obtained using the CMYK → ambient light XYZ relationship data obtained in step S84, and based on the observation condition 2 by the color perception model, the human color perception space JCH or QMH By converting to a coordinate value, it can be approximated by a dodecahedron as shown in FIG.
[0057]
In the color reproduction area approximated by a dodecahedron, the points inside the color reproduction area, for example, the intermediate point of White and Black on the achromatic color axis, and the point (JCH value or QMH value) of the input color signal to be judged inside / outside If they are on the same side, it is determined that they are within the color reproduction range, and if they are on the opposite side, it is determined that they are outside the color reproduction range.
[0058]
Based on the result of the inside / outside determination based on the color reproduction region obtained in step S85, color space compression is performed in step S86. FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space, and FIG. 9 is a diagram showing the concept of color space compression in the QMH color perception space. The input color signal determined to be out of the color reproduction range of the output device by the above internal / external determination is reproduced so that the hue angle h (or H) is preserved in the JCH color perception space or QMH color perception space. Mapped into range. This mapping result is converted to an LUT that uses the JCH color perception space as the input / output color space in the case of relative color matching, and to an LUT that uses the QMH color perception space as the input / output color space in the case of absolute color matching. Stored.
[0059]
FIG. 10 is a diagram showing the concept of color space compression between different devices. The broken line indicates the color reproduction area of the input device, and the solid line indicates the color reproduction area of the output device. In JCH color perception space, the size of J (lightness) is normalized by the light source white point under observation conditions 1 and 2 (hereinafter sometimes abbreviated as “white point 1” and “white point 2”). , J does not depend on the illuminance levels of environmental conditions 1 and 2 (hereinafter sometimes referred to as “illuminance level 1” or “illuminance level 2”). On the other hand, in the color perception space, the magnitude of Q (brightness) varies depending on the illuminance levels 1 and 2. Therefore, in relative color matching, the white point 1 becomes the white point 2 as it is. On the other hand, in absolute color matching, when illuminance level 1> illuminance level 2, white point 1 is mapped to white point 2. When illuminance level 1 <illuminance level 2, since white point 1 is lower than white point 2, it is output as gray.
[0060]
[Create data depending on observation condition 2]
Next, the conversion LUT 16 is created using the data creation unit 47.
[0061]
FIG. 11 is a flowchart showing an example of processing for reconstructing the conversion LUT 16 corresponding to ambient light.
[0062]
In general, an ICC profile for an output device stores an LUT (BtoA0 Tag or the like) for converting from an XYZ or Lab value to a CMYK or RGB value of the device in a format including color space compression. However, since the XYZ values to be input to the LUT are data based on D50 or D65, they cannot be directly used as a conversion LUT corresponding to ambient light.
[0063]
Therefore, similarly to the color space compression processing, in step S71, a conversion LUT (AtoB0 Tag, etc.) for CMYK → XYZ conversion stored in the output profile 46 is read, and in step S72, CMYK → XYZ is converted from the conversion LUT. Retrieve relationship data. Note that the CMYK value of the CMYK → XYZ relationship data may be another device-dependent color such as an RGB value, or the XYZ value may be a color that does not depend on other devices such as an Lab value. Next, in step S73, the observation condition 2 stored in advance in the output profile 46 is taken out.
[0064]
Since the XYZ value of the extracted CMYK → XYZ relation data is data based on D50 or D65, the XYZ value based on the colorimetric light source is corrected to the XYZ value based on the ambient light in step S74. In other words, based on the color perception model, the XYZ values of the colorimetric light source reference are based on the colorimetric conditions (the white point of the D50 light source “D50 standard”, illuminance level, ambient light condition, etc.) Convert to JCH and convert back to XYZ values again based on observation condition 2 (white point of D65 light source, illuminance level, ambient light condition, etc.) that is different from the colorimetric conditions. The value can be converted to an ambient light reference XYZ value.
[0065]
As a result, the relationship from the device CMYK value to the XYZ value of the ambient light reference is obtained, so in step S75, the CMYK → environment light XYZ relationship data is used, and the ambient light XYZ → CMYK relationship data is used using an iterative method or the like. If optimized, the conversion LUT 16 corresponding to the desired ambient light can be obtained.
[0066]
[Perform color matching]
FIG. 12 is a diagram showing the concept of color matching processing. 11 is a conversion LUT created based on observation condition 1 by the data creation unit 41, 132 is a LUT created on the JCH color space by the color space compression unit 44, and 133 is created on the QMH color space by the color space compression unit 45 The LUT 16 is a conversion LUT created based on the observation condition 2 by the data creation unit 47.
[0067]
The input color signal of RGB or CMYK is converted by the conversion LUT 11 from the color signal of the input device into an XYZ signal that is a device-independent color signal in the observation condition 1. Next, the XYZ signal is converted into a human perception signal JCH or QMH by the color perception model forward conversion units 134 and 135 based on the observation condition 1 (white point of D50 light source, illuminance level, ambient light state, etc.). . The JCH space is selected for relative color matching, and the QMH space is selected for absolute color matching.
[0068]
The color perception signals JCH and QMH are compressed by the LUTs 132 and 133 into the color reproduction range of the output device. The color space-compressed color perception signals JCH and QMH are obtained by the color perception model inverse transform units 136 and 137 based on the observation condition 2 (D65 light source white point, illuminance level, ambient light condition, etc.). It is converted into an XYZ signal that is a color signal independent of. Then, the XYZ signal is converted by the conversion LUT 134 into a color signal depending on the output device in the observation condition 2.
[0069]
The RGB or CMYK signal obtained by the above processing is sent to an output device, and an image indicated by the color signal is printed out. If the printout is observed under the observation condition 2, it looks the same color as the original document observed under the observation condition 1.
[0070]
(Embodiment 2)
In the first embodiment, the XYZ color space is described as an example of the device-independent color space, but the device-independent RGB color space is often used instead of the XYZ signal. The type of color space desired to depend on the device is arbitrarily designated by the source profile, for example.
[0071]
Hereinafter, the processing of this embodiment when the RGB color space independent of the device is used will be described.
[0072]
The RGB color space can be converted linearly in a one-to-one correspondence with a 3x3 matrix from the XYZ color space, and the color reproduction range can be determined by the chromaticity of the three primary color points and the reference white point. In addition, if the RGB color space is used as the input color space, the gray axis in the 3D LUT can be placed on the diagonal axis, preventing gray color misregistration in tetrahedral interpolation regardless of the number of grid points. There is an effect that can. On the other hand, when Lab color space or the like is used as the input color space, when the number of grid points in the a-axis / b-axis direction of the 3D LUT is an odd number, the gray axis is arranged on the grid points. Gray color misregistration does not occur, but color misregistration due to linear interpolation occurs when the number of grid points is an even number.
[0073]
The RGB color space and the XYZ color space are determined from the chromaticities R (xr, yr), G (xg, yg), B (xb, yb) of the RGB primary colors and the tristimulus values (Xw, Yw, Zw) of the reference white point. The conversion formula can be obtained by the following method.
zr = 1 xr yr (7)
zg = 1 xg yg… (8)
zb = 1 xb yb (9)
[0074]
[Outside 2]
Figure 0003667171
[0075]
For example, the chromaticities (x, y) of the three primary colors that cover the entire human visible region as shown in FIG. 14:
R (x, y) = (0.7347, 0.2653)… (13)
G (x, y) = (-0.0860, 1.0860)… (14)
B (x, y) = (0.0957, -0.0314)… (15)
The conversion matrix determined by the reference white point D65 is as follows using equations (7) to (12).
[0076]
[Outside 3]
Figure 0003667171
[0077]
Hereinafter, in order to distinguish between device RGB and device-independent RGB, the RGB color space defined by the reference white point and the three primary colors of equations (13) to (15) is referred to as a CRGB color space. Note that the three primary colors of RGB that do not depend on the device are not limited to the equations (13) to (15).
[0078]
If the CRGB value for the reference white point D65 (X, Y, Z) = (0.9505, 1.0000, 1.0891) is expressed by, for example, 8-bit quantization, (R, G, B) = (255 , 255, 255).
[0079]
On the other hand, the value obtained as a result of converting another reference white point A (X, Y, Z) = (1.098675, 1.000000, 0.355916) using the same conversion formula is obtained by (R, G , B) = (562, 106, 83) and overflow occurs. Even if it can be expressed, in a 3D LUT that uses the CRGB color space as an input, the gray axis is not arranged on the diagonal axis as shown in FIG. is there.
[0080]
In this embodiment, by dynamically creating a conversion formula between the XYZ color space and the CRGB color space according to the reference white point under the observation conditions, an overflow or underflow in the CRGB color space is prevented, and a gray level is displayed in the 3D LUT. There is an effect of preventing a gray color shift caused by a shift of the axis from the diagonal axis.
[0081]
FIG. 16 shows an example in which XYZ color space and CRGB color space conversion formulas are dynamically created according to the reference white point under viewing conditions, and color matching under different viewing conditions is performed.
[0082]
In the figure, reference numeral 161 denotes a profile for converting a signal dependent on a device such as RGB or CMYK into a CRGB signal based on a white point under observation conditions. The profile creation means can obtain the RGB → CRGB relation data by creating the RGB → XYZ relation data by the method of the data creation section 41 and then applying the conversion of XYZ → CRGB. Here, the conversion matrix of XYZ → CRGB is the following (19) from the CRGB three primary colors (13) to (15) and the reference white point D50 (X, Y, Z) = (0.9642, 1.0000, 0.8249) on the input side. Given by the expression:
[0083]
[Outside 4]
Figure 0003667171
[0084]
The obtained RGB → CRGB related data is converted into the LUT format or the like and stored in the profile together with the reference white point D50 on the input side. The stored CRGB value need not be limited to 8-bit quantization, and may be quantization accuracy such as 16 bits. The data creation unit 41 uses the color perception model to correct the XYZ values of the colorimetric light reference to the XYZ values of the observation light reference, but when the spectral reflectance of the color target and the spectral distribution of the observation light can be obtained. May directly determine the XYZ values based on the observation light.
[0085]
Reference numeral 166 denotes a profile for converting a CRGB signal based on a white point under observation conditions into a signal dependent on a device such as RGB or CMYK. The profile creation means can obtain the RGB → CRGB relation data by applying the conversion of XYZ → CRGB after creating the RGB → XYZ relation data by the method of step S74 of the data creation section 47. Here, the conversion matrix of XYZ → CRGB is the following (21) from the CRGB three primary colors (13) to (15) and the reference white point A (X, Y, Z) = (1.098675, 1.0000, 0.355916) on the input side. Given by the expression:
[0086]
[Outside 5]
Figure 0003667171
[0087]
In addition, the data creation unit 47 uses the color perception model to correct the XYZ value of the colorimetric light reference to the XYZ value of the observation light reference, but when the spectral reflectance of the color patch and the spectral distribution of the observation light are obtained May directly determine the XYZ values based on the observation light. The obtained RGB → CRGB related data is converted into CRGB → RGB related data by the processing in step S75, and stored in the profile together with the reference white point A on the output side. As another method of creating CRGB → RGB related data from the RGB → XYZ related data obtained by the method of step S74 of the data creating unit 47, instead of performing reverse conversion by applying the conversion of XYZ → CRGB, step After the XYZ → RGB related data is created by the processing of S75, the equation (20) can be applied as the previous stage of the XYZ → RGB conversion.
[0088]
Color matching using the profile 161 storing the input-side reference white point D50 and the profile 166 storing the output-side white point A has the following processing flow.
[0089]
First, an RGB or CMYK input color signal is converted into a D50 standard CRGB signal by a conversion LUT or the like by the profile 161. The color matching means reads the reference-side white point D50 on the input side stored in the profile 161, creates a CRGB → XYZ conversion matrix represented by equation (18), and converts the D50-based CRGB signal into an XYZ signal. Next, the XYZ signal is converted into a human perception signal JCH or QMH by the color perception model forward conversion unit 134 or 135 based on the observation condition 1 (white point of D50 light source, illuminance level, ambient light state, etc.). . Here, the JCH space is selected in the case of relative color matching, and the QMH space is selected in the case of absolute color matching.
[0090]
The color perception signals JCH and QMH are compressed by the LUTs 132 and 133 into the color reproduction range of the output device. The color space compressed color perception signals JCH and QMH are converted into XYZ signals by the color perception model inverse conversion unit 136 or 137 based on the observation condition 2 (white point of the A light source, illuminance level, ambient light state, etc.). The The color matching means reads the reference white point A on the output side stored in the profile 166, creates an XYZ → CRGB conversion matrix represented by equation (21), and converts the XYZ signal into an A-reference CRGB signal. Then, according to the profile 166, the A-reference CRGB signal is converted into an RGB or CMYK output signal by a conversion LUT or the like.
[0091]
As described above, the following effects can be obtained by dynamically creating a conversion formula between the XYZ color space and the CRGB color space according to the white point under the observation condition.
(1) By dynamically creating an RGB color space conversion matrix corresponding to the XYZ color space and an arbitrary reference white point, and expressing a device-independent color in the RGB color space corresponding to the reference white point, RGB Overflow and underflow when quantized in color space can be prevented.
(2) By using the RGB color space according to the reference white point of the ambient light as the input color space of the 3D LUT, it becomes possible to place the gray color on the diagonal axis of the 3D LUT, regardless of the number of grid points. Color shift due to tetrahedral interpolation can be prevented.
[0092]
When applying the color matching means, if the reference white point is not stored in the profile 161 or 166, for example, D50 defined by the ICC is used as a default reference white point.
[0093]
In the color matching means, the CRGB (or XYZ) signal under the viewing condition 1 is converted into the human perceptual signal JCH or QMH by the color perception model forward converter 134 or 135, and then the color of the output device is output by the LUTs 132 and 133. Compressed within the reproduction range and converted into CRGB (or XYZ) signals under viewing condition 2 by the color perception model inverse conversion unit 136 or 137, but the color space compression is performed particularly in color matching It need not be limited to means. That is, the color matching unit can perform color space compression in the output side profile without performing color space compression. The CRGB (or XYZ) signal under the viewing condition 1 is converted into the human perceptual signal JCH or QMH by the color perception model forward conversion unit 134 or 135, and the color perception model inverse conversion unit 136 or 137 without color space compression. Is converted into a CRGB (or XYZ) signal under viewing condition 2. Then, when creating the profile 166 on the output side, the CRGB (or XYZ) signal under the viewing condition 2 is again converted into the human perceptual signal JCH or QMH by the color perception model forward conversion unit 134 or 135, and the LUT 132 and After color space compression is performed on the output device by 133, it is converted to a CRGB (or XYZ) signal under viewing condition 2 by the color perception model inverse conversion unit 136 or 137, and converted to an RGB or CMYK output signal by a conversion LUT, etc. You just have to be done.
[0094]
In addition, by using the reference white point of the observation light stored in the profile and the chromaticity of the CRGB three primary colors defined in advance, the color matching means can dynamically create a conversion matrix between the CRGB color space and the XYZ color space. However, the profile information for obtaining the conversion matrix is not necessarily limited to the reference white point of the observation light. That is, a conversion matrix between the CRGB color space and the XYZ color space corresponding to the viewing conditions may be stored as profile information.
[0095]
(Other embodiments)
Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, and a printer), and a device (for example, a copying machine and a facsimile device) including a single device. You may apply to.
[0096]
Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium Needless to say, this can also be achieved by reading and executing the program code stored in the. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
[0097]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted in the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
[0098]
【The invention's effect】
According to the present invention, since the conversion condition used in the conversion between the RGB color signal and the XYZ color signal is obtained according to the reference white point, appropriate conversion is performed for the input color signal according to any reference white point. Conversion can be performed using conditions. Therefore, it is possible to prevent overflow and underflow from occurring due to the conversion, and to realize good color reproduction.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram of general color matching;
FIG. 2 is a diagram for explaining the concept of the present invention;
FIG. 3 is a block diagram showing a functional configuration example of the first embodiment.
FIG. 4 is a flowchart showing a processing example for reconstructing a conversion LUT corresponding to ambient light;
FIG. 5 is a flowchart showing an example of processing for updating to a conversion LUT corresponding to ambient light;
FIG. 6 is a flowchart showing a processing example for performing color space compression on a JCH or QMH color space;
FIG. 7 is a diagram showing a dodecahedron approximating a color reproduction area;
FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space;
FIG. 9 is a diagram showing the concept of color space compression in the QMH color perception space;
FIG. 10 is a diagram showing the concept of color space compression between different devices;
FIG. 11 is a flowchart showing a processing example for reconstructing a conversion LUT corresponding to ambient light;
FIG. 12 is a diagram showing the concept of color matching processing;
FIG. 13 is a diagram for explaining a color perception model used in the embodiment according to the invention;
FIG. 14 is a diagram showing an RGB region that covers the entire visible region of a human;
FIG. 15 is a diagram showing the deviation of the gray axis when the reference white point is fixed;
FIG. 16 is a diagram showing an example using a CRGB color space corresponding to an input-side reference white point and a CRGB color space corresponding to an output-side reference white point in the present invention.

Claims (10)

任意の基準白色点に応じた、デバイスに依存しないRGB色空間で示される色信号を入力する色信号入力工程と、
前記基準白色点に関する情報を入力する基準白色点情報入力工程と、
前記基準白色点に関する情報に基づき、該任意の基準白色点に応じたRGB色空間で示される色信号を、前記基準白色点に応じたXYZ色空間で示される色信号に変換する変換条件を求める変換条件工程と、
前記変換条件に基づき、前記入力した色信号を前記基準白色点に応じたXYZ色空間で示される色信号に変換する変換工程とを有することを特徴とする画像処理方法。
A color signal input step of inputting a color signal represented in an RGB color space independent of a device according to an arbitrary reference white point;
A reference white point information input step for inputting information on the reference white point;
Based on the information regarding the reference white point, a conversion condition for converting a color signal indicated in the RGB color space corresponding to the arbitrary reference white point into a color signal indicated in the XYZ color space corresponding to the reference white point is obtained. Conversion condition process;
And a conversion step of converting the input color signal into a color signal represented in an XYZ color space corresponding to the reference white point based on the conversion condition.
前記任意の基準白色点に関する情報が入力されない場合は、デフォルトの情報を用いることを特徴とする請求項1記載の画像処理方法。  The image processing method according to claim 1, wherein default information is used when information on the arbitrary reference white point is not input. さらに、前記基準白色点に応じたXYZ色空間で示される色信号に対して観察条件に応じた補正処理を行う補正処理工程を有することを特徴とする請求項1記載の画像処理方法。  The image processing method according to claim 1, further comprising a correction processing step of performing a correction process according to an observation condition on a color signal indicated by an XYZ color space corresponding to the reference white point. さらに、ソース側プロファイルに格納された変換条件を用いて、デバイスに依存した色信号を前記デバイスに依存しないRGB色空間で示される色信号に変換する変換工程を有し、
前記基準白色点に関する情報は、前記ソース側プロファイルに格納された基準白色点であることを特徴とする請求項1記載の画像処理方法。
Furthermore, using a conversion condition stored in the source side profile, it has a conversion step of converting a color signal dependent on the device into a color signal shown in the RGB color space independent of the device,
The image processing method according to claim 1, wherein the information regarding the reference white point is a reference white point stored in the source side profile.
さらに、前記補正処理された色信号に対して、出力プロファイルに格納された変換条件を用いて、出力デバイスに依存するカラー画像信号に変換する変換工程を有することを特徴とする請求項3記載の画像処理方法。  4. The method according to claim 3, further comprising a conversion step of converting the corrected color signal into a color image signal depending on an output device using a conversion condition stored in an output profile. Image processing method. 任意の基準白色点に応じたXYZ色空間で示される色信号を入力する色信号入力工程と、
前記基準白色点に関する情報を入力する基準白色点情報入力工程と、
前記基準白色点に関する情報に基づき、該任意の基準白色点に応じたXYZ色空間で示される色信号を、前記基準白色点に応じ、かつ、デバイスに依存しないRGB色空間で示される色信号に変換する変換条件を求める変換条件工程と、
前記変換条件に基づき、前記入力した色信号を前記基準白色点に応じ、かつ、デバイスに依存しないRGB色空間で示される色信号に変換する変換工程とを有することを特徴とする画像処理方法。
A color signal input step of inputting a color signal indicated by an XYZ color space corresponding to an arbitrary reference white point;
A reference white point information input step for inputting information on the reference white point;
Based on the information on the reference white point, the color signal indicated in the XYZ color space corresponding to the arbitrary reference white point is changed to the color signal indicated in the RGB color space corresponding to the reference white point and not depending on the device. A conversion condition step for obtaining a conversion condition for conversion; and
An image processing method comprising: a conversion step of converting the input color signal into a color signal represented in an RGB color space independent of a device based on the reference white point based on the conversion condition.
請求項1乃至6のいずれかに記載の画像処理方法をコンピュータにて実現するためのプログラム。  A program for realizing the image processing method according to claim 1 by a computer. 請求項1乃至6のいずれかに記載の画像処理方法をコンピュータにて実現するためのプログラムが記録されている記録媒体。  A recording medium on which a program for realizing the image processing method according to claim 1 by a computer is recorded. 任意の基準白色点に応じた、デバイスに依存しないRGB色空間で示される色信号を入力する色信号入力手段と、
前記基準白色点に関する情報を入力する基準白色点情報入力手段と、
前記基準白色点に関する情報に基づき、該任意の基準白色点に応じたRGB色空間で示される色信号を、前記基準白色点に応じたXYZ色空間で示される色信号に変換する変換条件を求める変換条件算出手段と、
前記変換条件に基づき、前記入力した色信号を前記基準白色点に応じたXYZ色空間で示される色信号に変換する変換手段とを有することを特徴とする画像処理装置。
A color signal input means for inputting a color signal indicated in a device-independent RGB color space according to an arbitrary reference white point;
Reference white point information input means for inputting information on the reference white point;
Based on the information regarding the reference white point, a conversion condition for converting a color signal indicated in the RGB color space corresponding to the arbitrary reference white point into a color signal indicated in the XYZ color space corresponding to the reference white point is obtained. Conversion condition calculation means;
An image processing apparatus comprising: conversion means for converting the input color signal into a color signal indicated in an XYZ color space corresponding to the reference white point based on the conversion condition.
任意の基準白色点に応じたXYZ色空間で示される色信号を入力する色信号入力手段と、
前記基準白色点に関する情報を入力する基準白色点情報入力手段と、
前記基準白色点に関する情報に基づき、該任意の基準白色点に応じたXYZ色空間で示される色信号を、前記基準白色点に応じ、かつ、デバイスに依存しないRGB色空間で示される色信号に変換する変換条件を求める変換条件算出手段と、
前記変換条件に基づき、前記入力した色信号を前記基準白色点に応じ、かつ、デバイスに依存しないRGB色空間で示される色信号に変換する変換手段とを有することを特徴とする画像処理装置。
Color signal input means for inputting a color signal indicated in an XYZ color space corresponding to an arbitrary reference white point;
Reference white point information input means for inputting information on the reference white point;
Based on the information on the reference white point, the color signal indicated in the XYZ color space corresponding to the arbitrary reference white point is changed to the color signal indicated in the RGB color space corresponding to the reference white point and not depending on the device. Conversion condition calculation means for obtaining conversion conditions for conversion;
An image processing apparatus comprising: conversion means for converting the input color signal into a color signal represented in an RGB color space independent of a device based on the conversion condition based on the reference white point.
JP26390599A 1999-09-17 1999-09-17 Image processing method, apparatus, and recording medium Expired - Fee Related JP3667171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26390599A JP3667171B2 (en) 1999-09-17 1999-09-17 Image processing method, apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26390599A JP3667171B2 (en) 1999-09-17 1999-09-17 Image processing method, apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2001094800A JP2001094800A (en) 2001-04-06
JP3667171B2 true JP3667171B2 (en) 2005-07-06

Family

ID=17395903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26390599A Expired - Fee Related JP3667171B2 (en) 1999-09-17 1999-09-17 Image processing method, apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3667171B2 (en)

Also Published As

Publication number Publication date
JP2001094800A (en) 2001-04-06

Similar Documents

Publication Publication Date Title
JP3634633B2 (en) Image processing apparatus and method
US6459436B1 (en) Image processing method and apparatus
EP0975150B1 (en) Image processing apparatus and method, and profile generating method
JP4592090B2 (en) Color processing method and apparatus
US6999617B1 (en) Image processing method and apparatus
EP1085749B1 (en) Image processing method and apparatus
JP3805247B2 (en) Image processing apparatus and method
US8115978B2 (en) Information processing method and information processing apparatus for simulating a result output from a first output device based on input data represented in a color space that is dependent on the input device by a second output device
US7843600B2 (en) Information processing apparatus
JP2007174126A (en) Image processing apparatus and method
JP3305266B2 (en) Image processing method
JP4533291B2 (en) Color processing method and apparatus
JP2006238335A (en) Information processing method
JP2001309198A (en) Image processing method
JP3667171B2 (en) Image processing method, apparatus, and recording medium
JP3311295B2 (en) Image processing apparatus and method
JP3535778B2 (en) Image processing method, apparatus and recording medium
JP2002077652A (en) Image processing method and recording medium
JP2008177782A (en) Color conversion device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050405

R150 Certificate of patent or registration of utility model

Ref document number: 3667171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090415

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090415

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100415

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110415

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130415

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130415

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees