JP2002077652A - Image processing method and recording medium - Google Patents

Image processing method and recording medium

Info

Publication number
JP2002077652A
JP2002077652A JP2000263150A JP2000263150A JP2002077652A JP 2002077652 A JP2002077652 A JP 2002077652A JP 2000263150 A JP2000263150 A JP 2000263150A JP 2000263150 A JP2000263150 A JP 2000263150A JP 2002077652 A JP2002077652 A JP 2002077652A
Authority
JP
Japan
Prior art keywords
color
xyz
conversion
signal
white point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000263150A
Other languages
Japanese (ja)
Inventor
Manabu Oga
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000263150A priority Critical patent/JP2002077652A/en
Priority to DE60045503T priority patent/DE60045503D1/en
Priority to US09/662,756 priority patent/US7230737B1/en
Priority to EP00308052A priority patent/EP1085749B1/en
Publication of JP2002077652A publication Critical patent/JP2002077652A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To satisfactorily reproduce an achromatic color under different observing conditions. SOLUTION: In an image processing method to perform a correction processing on a color signal in response to observing conditions, conversion conditions for the color signal into a color space independent of a color device are determined based on a reference white color point of the color signal, it is distinguished whether the color signal converted by the conversion conditions is an achromatic color or not is decided, the correction processing corresponding to the observing conditions is controlled in response to the decided result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】観察条件に応じた補正を行う
ための画像処理方法、装置および記録媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing method, apparatus, and recording medium for performing correction according to observation conditions.

【0002】[0002]

【従来の技術】図1は一般的なカラーマッチングの概念
図である。
2. Description of the Related Art FIG. 1 is a conceptual diagram of general color matching.

【0003】RGBデータである入力データは、入力プロ
ファイルによりデバイスに依存しない色空間のXYZデー
タに変換される。出力デバイスの色再現範囲外の色は出
力デバイスにより表現することができないため、そのす
べて色が出力デバイスの色再現範囲内に収まるように、
デバイスに依存しない色空間のデータに変換された入力
データに色空間圧縮が施される。そして、色空間圧縮が
施された後、入力データはデバイスに依存しない色空間
から出力デバイスに依存する色空間のCMYKデータへ変換
される。
[0003] Input data that is RGB data is converted into XYZ data in a device-independent color space by an input profile. Since colors outside the color gamut of the output device cannot be represented by the output device, all colors fall within the color gamut of the output device.
Color space compression is performed on input data converted into data in a device-independent color space. After the color space compression is performed, the input data is converted from a device-independent color space to CMYK data in an output device-dependent color space.

【0004】カラーマッチングにおいて基準白色点およ
び環境光は固定されている。例えば、International Co
lor Consortium(ICC)によって規定されるプロファイル
では、プロファイルを結び付けるProfile Connection S
pace(PCS)がD50基準のXYZ値およびLab値である。このた
め、入力原稿やプリント出力はD50特性の光源下で観察
する場合に正しい色再現が保証され、その他の特性の光
源下では正しい色再現が保証されない。
In color matching, a reference white point and ambient light are fixed. For example, International Co
In the profile specified by the lor Consortium (ICC), the Profile Connection S
pace (PCS) is the XYZ value and Lab value based on D50. For this reason, when an input document or print output is observed under a light source with D50 characteristics, correct color reproduction is guaranteed, and under a light source with other characteristics, correct color reproduction is not guaranteed.

【0005】[0005]

【発明が解決しようとする課題】異なる光源下で同一サ
ンプル(例えば画像)を観察した場合、観察されるサン
プルに対するXYZ値は当然異なる。異なる光源下におけ
るXYZ値を予測するために、(1)比率変換、(2)Von Kries
変換、(3)色知覚モデルによる予測式などの変換方式が
ある。
When observing the same sample (for example, an image) under different light sources, the XYZ values for the observed sample naturally differ. To predict XYZ values under different light sources, (1) ratio conversion, (2) Von Kries
There are conversion methods such as conversion and (3) a prediction expression using a color perception model.

【0006】比率変換は、基準白色点W1下でのXYZ値を
基準白色点W2下のXYZ値に変換するために、W2/W1の比率
変換を施す方法である。この方法を、Lab均等色空間に
対して適用すると、W1下でのLab値とW2下でのLab値は一
致する。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ
値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ
値を(X2,Y2,Z2)とするとき、比率変換によれば次の関係
が得られる。
The ratio conversion is a method of performing a ratio conversion of W2 / W1 in order to convert an XYZ value below the reference white point W1 into an XYZ value below the reference white point W2. When this method is applied to the Lab uniform color space, the Lab value under W1 matches the Lab value under W2. For example, sample XYZ under W1 (Xw1, Yw1, Zw1)
XYZ of the sample under values (X1, Y1, Z1) and W2 (Xw2, Yw2, Zw2)
When the value is (X2, Y2, Z2), the following relationship is obtained according to the ratio conversion.

【0007】 X2 = (Xw2 / Xw1)・X1 Y2 = (Yw2 / Yw1)・Y1 …(1) Z2 = (Zw2 / Zw1)・Z1X2 = (Xw2 / Xw1) · X1 Y2 = (Yw2 / Yw1) · Y1 ... (1) Z2 = (Zw2 / Zw1) · Z1

【0008】Von Kries変換は、W1下でのXYZ値をW2下の
XYZ値に変換するために、人間の色知覚空間PQR上でW2'/
W1'の比率変換を施す方法である。この方法をLabの均等
色空間に対して適用すると、W1下でのLab値とW2下でのL
ab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下でのサ
ンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサ
ンプルのXYZ値を(X2,Y2,Z2)とするとき、Von Kries変換
によれば次の関係が得られる。
The Von Kries transform converts the XYZ value under W1 into the value under W2.
In order to convert to XYZ values, W2 '/
This is a method of performing ratio conversion of W1 '. When this method is applied to the uniform color space of Lab, the Lab value under W1 and L under W2
Ab values do not match. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to the Von Kries transform, the following relationship is obtained.

【0009】[0009]

【外1】 [Outside 1]

【0010】色知覚モデルによる予測式は、観察条件VC
1(W1を含む)下でのXYZ値を観察条件VC2(W2を含む)
下のXYZ値に変換するために、例えばCIE CAM97sのよう
な人間の色知覚空間QMH(またはJCH)を利用して変換す
る方法である。ここで、QMHのQはbrightness、Mはcolou
rfulness、Hはhuequadratureまたはhueangleを表し、JC
HのJはlightness、Cはchroma、Hはhuequadratureまたは
hueangleを表す。この変換方法をLabの均等色空間へ適
用すると、Von Kries変換と同様に、W1下でのLab値とW2
下でのLab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下
でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下
でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、色知覚
モデルによる予測式によれば次の変換が行われる。
The prediction formula based on the color perception model is based on the viewing condition VC
XYZ values under 1 (including W1) are observed under the viewing condition VC2 (including W2)
In order to convert to the following XYZ values, a conversion method is used using a human color perception space QMH (or JCH) such as CIE CAM97s. Where Q in QMH is brightness and M is colou
rfulness, H stands for huequadrature or hueangle, JC
H is lightness, C is chroma, H is huequadrature or
Represents a hueangle. When this conversion method is applied to Lab's uniform color space, the Lab value under W1 and W2
The Lab values below do not match. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, the following conversion is performed according to the prediction formula based on the color perception model.

【0011】(X1,Y1,Z1)→[CIE CAM97s順変換]→(Q,M,
H)または(J,C,H)→[CIE CAM97s逆変換]→(X2,Y2,Z2) つまり、比率変換によって異なる基準白色点下のXYZ値
が変換できると仮定するならば、異なる基準白色点下の
Lab色空間における等色相線は常に一定であるが、Von K
ries変換や色知覚モデルによる予測式のように人間の色
知覚を考慮した場合には、異なる基準白色点下のLab色
空間における等色相線は基準白色点によって変化するこ
とになる。
(X1, Y1, Z1) → [CIE CAM97s forward conversion] → (Q, M,
H) or (J, C, H) → [CIE CAM97s inverse transform] → (X2, Y2, Z2) In other words, if it is assumed that XYZ values under different reference white points can be converted by ratio conversion, different reference white Below
The constant hue line in Lab color space is always constant, but Von K
When human color perception is taken into consideration, such as in a prediction formula using a ries transform or a color perception model, the iso-hue line in the Lab color space below a different reference white point changes depending on the reference white point.

【0012】上記の理由から、異なる基準白色点下のカ
ラーマッチングにおいて、同一のLab色空間で定義され
た色空間圧縮(色相保存)を適用した場合、人の視覚で
は色相が一定ではないと感じられる場合がある。
For the above reason, when the color space compression (preservation of hue) defined in the same Lab color space is applied to the color matching under different reference white points, the hue is not fixed to human eyes. May be

【0013】また、現在のICCプロファイルでは、PCSが
D50基準のXYZ値やLab値に限定されているため、環境光
に対応したカラーマッチングを行うことができない。
In the current ICC profile, PCS
Since it is limited to XYZ values and Lab values based on D50, color matching corresponding to ambient light cannot be performed.

【0014】更には、XYZ空間から3x3マトリクスによる
線型変換可能なRGB空間によってPCSやデバイスに依存し
ない色を表現する方法があるが、基準白色点により変換
マトリクスが固定されている場合には、以下のような問
題があった。
Further, there is a method of expressing colors independent of PCS and devices by an RGB space that can be linearly converted from an XYZ space by a 3 × 3 matrix. However, when the conversion matrix is fixed by a reference white point, the following method is used. There was such a problem.

【0015】異なる基準白色点下の色を基準白色点が固
定された変換マトリクスにより変換すると、デバイスに
依存しないRGB空間においてオーバーフローやアンダー
フローが発生し、表現できなくなる場合がある(特に白
色点付近)デバイスに依存しないRGB空間を入力色空間
とする3D LUTにおいて、異なる基準白色点下のグレー色
を入力すると、グレー色が3D LUTの対角軸上とならない
ため、四面体補間において3点以上の格子点を用いた線
形補間を行うこととなり、色ずれを発生する場合があ
る。
When a color under a different reference white point is converted by a conversion matrix having a fixed reference white point, an overflow or an underflow occurs in an RGB space that does not depend on a device, which may make it impossible to express (particularly near the white point). ) In a 3D LUT that uses a device-independent RGB space as the input color space, if a gray color below a different reference white point is input, the gray color will not be on the diagonal axis of the 3D LUT, so three or more points in tetrahedral interpolation The linear interpolation using the lattice points is performed, and color shift may occur.

【0016】また、異なる光源下におけるXYZ値を予測
するために、Von Kries変換等の線形なモデルを利用し
た場合には入力側基準白色点下のグレー色(無彩色)が
出力側基準白色点下のグレー色へ変換されるが、色順応
方程式(CIECAT94)や色知覚モデル(CIECAM97s)のような
非線型なモデルを利用した場合にはカラーマッチングに
よって変換されたグレー色が出力側基準白色点下のグレ
ー色を示さない場合がある。ここで、基準白色点下のグ
レー色とは基準白色点と同一色度を有するような色集合
である。
When a linear model such as Von Kries transform is used to predict XYZ values under different light sources, the gray color (achromatic color) below the input-side reference white point is changed to the output-side reference white point. It is converted to the following gray color, but when using a nonlinear model such as the color adaptation equation (CIECAT94) or the color perception model (CIECAM97s), the gray color converted by color matching is the output side reference white point. The lower gray color may not be shown. Here, the gray color below the reference white point is a color set having the same chromaticity as the reference white point.

【0017】一般に、基準白色点下のグレー色の発生確
率は、自然画においては極めて低いが、グラフィックス
画像においては非常に高くなる。このため、グレー色の
再現性はモニタ上のグラフィックス画像を印刷する場合
に特に重要となり、再現性を向上させるためにグレー色
に対して特殊処理を行う場合も少なくない。色知覚モデ
ル等の非線型モデルを利用することによって変換された
グレー色が出力側基準白色点下のグレー色を示さなくな
ると、出力側プロファイルにおいてグレー色を検出する
ことが困難になるため、出力側基準白色点下のグレー色
に対してプリンタ・デバイスのグレー色を割り当てる等
の特殊処理を行うことが不可能となる。
Generally, the probability of occurrence of a gray color below the reference white point is extremely low in a natural image but extremely high in a graphics image. For this reason, gray color reproducibility is particularly important when printing a graphics image on a monitor, and there are many cases where special processing is performed on gray color to improve reproducibility. If the gray color converted by using a nonlinear model such as a color perception model does not show a gray color below the output-side reference white point, it becomes difficult to detect the gray color in the output-side profile. It becomes impossible to perform special processing such as assigning the gray color of the printer device to the gray color below the side reference white point.

【0018】本発明は、上述の問題を解決するためのも
のであり、異なる観察条件下において無彩色を良好に色
再現を行うことができるようにすることを目的とする。
An object of the present invention is to solve the above-mentioned problem, and an object of the present invention is to enable an achromatic color to be favorably reproduced under different observation conditions.

【0019】[0019]

【課題を解決するための手段】本発明は上記目的を達成
するためになされたものであり、カラー信号に対して観
察条件に応じた補正処理を行う画像処理方法において、
カラー信号の基準白色点に基づき、該カラー信号を該カ
ラーデバイスに依存しない色空間への変換条件を求め、
前記変換条件で変換されたカラー信号が無彩色であるか
否かを判定し、前記判定結果に応じて、前記観察条件に
応じた補正処理を制御することを特徴とする。
SUMMARY OF THE INVENTION The present invention has been made to achieve the above object, and an image processing method for performing a correction process on a color signal according to an observation condition is provided.
Based on the reference white point of the color signal, determine the conversion condition of the color signal to a color space independent of the color device,
It is characterized in that it is determined whether or not the color signal converted under the conversion condition is an achromatic color, and a correction process according to the observation condition is controlled according to the determination result.

【0020】[0020]

【発明の実施の形態】以下、本発明にかかる一実施形態
の画像処理装置を図面を参照して詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

【0021】まず、観察条件に応じた補正処理を行うC
AM(Color Appearance model)の1例について説明す
る。
First, C for performing a correction process according to observation conditions
An example of an AM (Color Appearance model) will be described.

【0022】人間の視覚系によって、知覚される色は、
照明光の違い、刺激がおかれている背景などの条件によ
って、目に入ってくる光が同じであっても異なって見え
ることが知られている。
The color perceived by the human visual system is
It is known that even if the same light enters the eyes, they look different depending on conditions such as the difference in illumination light and the background on which the stimulus is applied.

【0023】例えば、白熱電球で照明された白色は、目
に入ってくる光の特性ほどには赤く感じられなくて、白
として知覚される。また、黒い背景におかれた白と、明
るい背景に置かれた白とでは黒い背景に置かれた白の方
が明るく感じられる。前者の現象は色順応、後者は対比
として知られている。このためには、XYZではなく網膜
状に分布している視細胞の生理的な活性度に対応する量
で色を表示する必要があるが、このような目的に色知覚
モデルが開発されている。CIEでは、CIE CAM97sの使用
を推奨している。この色知覚モデルは色覚の生理的な三
原色を用いており、例えばCIE CAM97sで計算される色知
覚の相関量であるJ(明度)、C(クロマ)およびH(色
相)、あるいは、Q(ブライトネス)、M(カラフルネ
ス)およびH(色相)の値が、観察条件に依存しない色
の表示方法と考えられる。J、C、HまたはQ、M、Hの値
がデバイス間で一致するように色再現することによっ
て、入出力画像の観察条件の違いを解決することができ
る。
For example, white illuminated by an incandescent light bulb is not perceived as red as the characteristics of light entering the eyes, but is perceived as white. Also, white on a black background feels brighter between white on a black background and white on a light background. The former phenomenon is known as chromatic adaptation, and the latter as contrast. For this purpose, it is necessary to display colors in an amount corresponding to the physiological activity of photoreceptors distributed in the retina instead of XYZ, but a color perception model has been developed for such purpose . CIE recommends using CIE CAM97s. This color perception model uses physiological three primary colors of color perception. For example, J (brightness), C (chroma) and H (hue), which are correlation amounts of color perception calculated by CIE CAM97s, or Q (brightness) ), M (colorfulness) and H (hue) values are considered to be a color display method independent of viewing conditions. By reproducing colors so that the values of J, C, H or Q, M, H match between devices, it is possible to solve the difference in the viewing conditions of the input and output images.

【0024】入力画像を観察する際の観察条件に応じた
補正処理(XYZをJCHまたはQMHに変換する処理)を行う
色知覚モデルCIE CAM97sの順変換における処理内容を、
図13を用いて説明する。
The processing contents in the forward conversion of the color perception model CIE CAM97s for performing the correction processing (processing for converting XYZ into JCH or QMH) according to the observation conditions when observing the input image are as follows:
This will be described with reference to FIG.

【0025】まず、入力画像の観察条件情報としてステ
ップS160で、順応視野の輝度(cd/平方メートル、通常、
順応視野における白の輝度の20%が選らばれる)であるL
A、光源条件における試料の相対三刺激値であるXYZ、光
源条件における白色光の相対三刺激値であるXwYwZw、お
よび、光源条件における背景の相対輝度であるYbが設定
される。また、ステップS180で指定される観察条件のタ
イプに基づき、入力画像の観察条件情報として、ステッ
プS170で周囲の影響の定数c、色誘導係数Nc、明度コン
トラスト係数FLLおよび順応度の係数Fが設定される。
First, in step S160, as the observation condition information of the input image, the luminance of the adaptive visual field (cd / m 2,
20% of the white brightness in the adaptive field of view is selected) L
A, XYZ which is the relative tristimulus value of the sample under the light source condition, XwYwZw which is the relative tristimulus value of white light under the light source condition, and Yb which is the relative luminance of the background under the light source condition are set. Further, based on the type of the viewing condition specified in step S180, as the viewing condition information of the input image, a constant c of the surrounding influence, a color induction coefficient Nc, a brightness contrast coefficient FLL, and a coefficient F of adaptation are set in step S170. Is done.

【0026】ステップS160およびS170で設定された入力
画像観察条件情報に基づき、入力画像を示すXYZに対し
て以下のような処理が行われる。
Based on the input image observation condition information set in steps S160 and S170, the following processing is performed on XYZ indicating the input image.

【0027】まず、人間の生理的な三原色として考えら
れているBradfordの三原色に基づき、XYZを変換してBra
dford錐体応答RGBが求められる(S100)。人間の視覚は常
に観察光源に完全順応するわけではないので、輝度レベ
ルと周囲条件(LAおよびF)に基づき順応度を示す変数D
を求め、この変数DおよびXwYwZwに基づき、RGBに対して
不完全順応処理を行いRcGcBcに変換される(S110)。
First, XYZ is converted based on Bradford's three primary colors, which are considered as physiological three primary colors of humans, and Bra is converted.
A dford cone response RGB is obtained (S100). Since human vision does not always perfectly adapt to the viewing illuminant, a variable D that indicates the degree of adaptation based on the luminance level and the ambient conditions (LA and F)
Is calculated based on the variables D and XwYwZw, and the RGB is converted to RcGcBc (S110).

【0028】次に、人間の生理的な三原色として考えら
れているHunt-Pointer-Estevezの三原色に基づき、RcGc
Bcを変換してHunt-Pointer-Estevez錐体応答R'G'B'が求
められる(S120)。このR'G'B'に対して刺激強度レベルに
よる順応度合いの推定が行われ、試料と白の両方に応じ
た順応後錐体応答R'aG'aB'aが求められる(S130)。な
お、ステップS130では、順応視野の輝度LAに基づき求め
られる変数FLを用いて非線型応答圧縮が行われる。
Next, based on the three primary colors of Hunt-Pointer-Estevez, which are considered as the three primary colors of human physiology, RcGc
By converting Bc, a Hunt-Pointer-Estevez cone response R'G'B 'is obtained (S120). The adaptation degree based on the stimulus intensity level is estimated for this R'G'B ', and a post-adaptive cone response R'aG'aB'a corresponding to both the sample and white is obtained (S130). In step S130, nonlinear response compression is performed using the variable FL obtained based on the luminance LA of the adaptive visual field.

【0029】続いて、見えとの相関関係を求めるため
に、以下の処理が行われる。
Subsequently, the following processing is performed to determine the correlation with the appearance.

【0030】赤-緑および黄色-青の反対色応答abがR'a
G'aB'aから求められ(S140)、反対色応答abおよび偏心係
数から色相Hが求められる(S150)。
Opposite red-green and yellow-blue responses ab are R'a
The hue H is calculated from G'aB'a (S140), and the hue H is calculated from the opponent color response ab and the eccentricity coefficient (S150).

【0031】また、Ywおよび背景の相対輝度Ybから求め
られる背景誘導係数nが求められ、この背景誘導係数nを
用いて試料および白の両方に関する無彩色応答AおよびA
wが求められ(S190)、背景誘導係数nおよび明度コントラ
スト係数FLLから求められる係数z、並びに、A、Awおよ
びcに基づき明度Jが求められ(S151)、色誘導係数Ncから
飽和度Sが求められ(S153)、飽和度Sおよび明度Jからク
ロマCが求められ(S152)、明度Jおよび白の無彩色応答Aw
から輝度Qが求められる(S154)。
Further, a background induction coefficient n obtained from Yw and the relative luminance Yb of the background is obtained, and the achromatic responses A and A for both the sample and white are obtained using the background induction coefficient n.
w is obtained (S190), a coefficient z obtained from the background induction coefficient n and the lightness contrast coefficient FLL, and a lightness J is obtained based on A, Aw and c (S151), and the saturation S is obtained from the color induction coefficient Nc. The chroma C is obtained from the saturation S and the brightness J (S152), and the brightness J and the white achromatic response Aw
Is obtained from the calculation (S154).

【0032】また、変数FLおよび周囲の影響の定数cか
らカラフルネスMが求められる(S155)。
Further, the colorfulness M is obtained from the variable FL and the constant c of the influence of the surroundings (S155).

【0033】上述した観察条件に応じた補正処理を用い
て観察条件に応じて動的にプロファイルを変更する実施
形態を説明する。本実施形態では、デバイスに依存しな
い色空間としてXYZ色空間を使用する。
An embodiment in which the profile is dynamically changed in accordance with the observation conditions using the above-described correction processing in accordance with the observation conditions will be described. In the present embodiment, an XYZ color space is used as a device-independent color space.

【0034】図2において、11は入力デバイスに依存す
るデータを、入力側の環境光の白色点基準に基づくデバ
イスに依存しない色空間データへ変換するための変換マ
トリクスまたは変換ルックアップテーブル(LUT)、12は
変換LUT11から得られるデータを人間の色知覚色空間JCh
またはQMhへ変換するための色知覚モデルの順変換部(CA
M)、13は環境光の基準白色に相対的な色知覚空間である
JCh(またはJCH)、14は照度レベルによって大きさの変
化する絶対的な色知覚空間であるQMh(またはQMH)、15
は人間の色知覚空間JChまたはQMhから出力側の環境光の
白色点基準に基づくデバイスに依存しない色空間データ
へ変換するための色知覚モデルの逆変換部、16は逆変換
部15から得られるデータを出力デバイスに依存する色空
間データヘ変換するための変換LUTである。
In FIG. 2, reference numeral 11 denotes a conversion matrix or conversion look-up table (LUT) for converting input device-dependent data into device-independent color space data based on the white point reference of the ambient light on the input side. , 12 converts the data obtained from the conversion LUT 11 into a human color perception color space JCh
Or, a color perception model forward conversion unit (CA
M), 13 is the color perception space relative to the reference white of ambient light
JCh (or JCH), 14 is QMh (or QMH), which is an absolute color perception space whose size changes according to the illuminance level, 15
Is the inverse transform unit of the color perception model for converting the human color perception space JCh or QMh to device-independent color space data based on the white point reference of the ambient light on the output side, and 16 is obtained from the inverse transform unit 15. This is a conversion LUT for converting data into color space data depending on an output device.

【0035】一般に、観察条件における環境光の白色点
は、カラーターゲットやカラーパッチなどの色票を測色
した際の標準光源の白色点とは異なる。例えば、測色の
際に使用される標準光源はD50やD65であるが、実際に画
像を観察する場合の環境光はライトブースのD50やD65と
は限らず、白熱電球や蛍光灯などの照明光であったり、
照明光と太陽光とが混合した光になる場合が多い。以下
の説明では、簡単化のために、観察条件における環境光
の光源特性をD50、D65およびD93とするが、実際にはメ
ディア上の白色点のXYZ値を白色点として設定する。
In general, the white point of the ambient light under the viewing conditions is different from the white point of the standard light source when measuring a color chart such as a color target or a color patch. For example, the standard light source used for color measurement is D50 or D65, but the ambient light for actually observing the image is not limited to D50 or D65 in the light booth, and lighting such as incandescent lamps and fluorescent lamps Light,
In many cases, the light is a mixture of illumination light and sunlight. In the following description, for the sake of simplicity, the light source characteristics of environmental light under observation conditions are D50, D65, and D93, but the XYZ values of the white point on the medium are actually set as the white point.

【0036】図3は本実施形態の機能構成例を示すブロ
ック図である。図3において、41は入力プロファイル42
と入力側の観察条件1とから入力側の観察条件1に依存す
るデータを作成するデータ作成部、43はユーザによる指
定またはプロファイルによる指定に基づき色空間圧縮を
JCH色空間上で行うかQMH色空間上で行うかを選択する色
空間圧縮モード選択部、44および45はそれぞれ出力プロ
ファイル46に基づきJCHまたはQMH色知覚空間上でデータ
に色空間圧縮を施す色空間圧縮部、47は出力プロファイ
ル46と出力側の観察条件2とから出力側の観察条件2に依
存するデータを作成するデータ作成部、48は観察条件1
に依存するデータ、色空間圧縮データ、観察条件2に依
存するデータおよび色知覚モデルを利用してカラーマッ
チングを行うカラーマッチング部である。
FIG. 3 is a block diagram showing a functional configuration example of the present embodiment. In FIG. 3, 41 is an input profile 42
A data creation unit for creating data dependent on the input-side viewing condition 1 from the input-side viewing condition 1;
A color space compression mode selection unit 44 and 45 for selecting whether to perform on the JCH color space or on the QMH color space, and a color to be subjected to color space compression on the data on the JCH or QMH color perception space based on the output profile 46, respectively. A spatial compression unit 47 is a data creation unit that creates data depending on the output-side observation condition 2 from the output profile 46 and the output-side observation condition 2, and 48 is an observation condition 1.
Is a color matching unit that performs color matching using data dependent on color space, color space compressed data, data dependent on viewing condition 2, and a color perception model.

【0037】本実施形態を実現する装置は、例えばパー
ソナルコンピュータのような汎用のコンピュータ装置
に、図3に示す機能を実現するソフトウェアを供給する
ことによって実現されることは言うまでもない。その場
合、本実施形態の機能を実現するソフトウェアは、コン
ピュータ装置のOS(基本システム)に含まれていても構
わないし、OSとは別に例えば入出力デバイスのドライバ
ソフトウェアに含まれていても構わない。
It goes without saying that the apparatus for realizing the present embodiment is realized by supplying software for realizing the functions shown in FIG. 3 to a general-purpose computer apparatus such as a personal computer. In that case, the software for realizing the functions of the present embodiment may be included in the OS (basic system) of the computer device, or may be included in the driver software of the input / output device separately from the OS, for example. .

【0038】なお、本実施形態が対象とする入力デバイ
スには、ディジタルスチルカメラおよびディジタルビデ
オカメラなどの撮影機器、並びに、イメージスキャナお
よびフィルムスキャナなどイメージリーダをはじめとす
る各種の画像入力機器が含まれる。また、出力デバイス
には、CRTやLCDなどのカラーモニタ、カラープリンタお
よびフィルムレコーダなどの画像出力機器が含まれる。
The input devices to which the present embodiment is applied include photographing devices such as a digital still camera and a digital video camera, and various image input devices such as an image reader such as an image scanner and a film scanner. It is. Output devices include color monitors such as CRTs and LCDs, and image output devices such as color printers and film recorders.

【0039】また、カラーマッチングを行うための入出
力プロファイルはHDに格納されるが、ハードディスクに
限らず、MOなどの光ディスクを用いることもできる。
Although an input / output profile for performing color matching is stored in the HD, it is not limited to a hard disk, but an optical disk such as an MO can be used.

【0040】以下、入出力プロファイルを利用してカラ
ーマッチングを行う例を説明する。
An example in which color matching is performed using an input / output profile will be described below.

【0041】[観察条件1に依存するデータの作成]デ
ータ作成部41を用いて変換LUT 11を作成するが、変換LU
T 11を作成する方法には、図4に一例を示すカラーター
ゲットのXYZ値(またはLab値)および入力デバイスのRG
B値の関係から、環境光に対応する変換LUT 11を再構築
する方法、並びに、図5に一例を示す入力プロファイル4
2内のデバイスRGB空間からXYZ空間へ変換するための変
換LUTを環境光に対応する変換LUT 11へ更新する方法が
ある。
[Creation of Data Dependent on Observation Condition 1] The conversion LUT 11 is created using the data creation unit 41,
To create T11, the XYZ values (or Lab values) of the color target and the RG of the input device are shown in FIG.
From the relationship of the B value, a method of reconstructing the conversion LUT 11 corresponding to the ambient light, and an input profile 4 shown as an example in FIG.
There is a method of updating the conversion LUT for converting the device RGB space into the XYZ space in 2 into the conversion LUT 11 corresponding to the ambient light.

【0042】図4は環境光に対応する変換LUT 11を再構
築する処理例を示すフローチャートである。
FIG. 4 is a flowchart showing an example of processing for reconstructing the conversion LUT 11 corresponding to ambient light.

【0043】環境光に対応する変換LUT 11を再構築する
ために、ステップS51で入力プロファイル42からユーザ
により指定されたプロファイルを読込む。入力プロファ
イル内には予めカラーターゲットのXYZ値(またはLab
値)と、そのカラーターゲットをある入力デバイスで読
んだときのデバイスRGB値を関連付けたXYZ→RGB関係デ
ータが格納されている。このXYZ→RGB関係データを、ス
テップS52でプロファイルから取り出す。プロファイル
内には観察条件1も格納されているので、ステップS53
で、観察条件1をプロファイルから取り出す。
In step S51, a profile designated by the user is read from the input profile 42 in order to reconstruct the conversion LUT 11 corresponding to the ambient light. The XYZ values of the color target (or Lab
XYZ → RGB data which associates the color target with a device RGB value when the color target is read by a certain input device. The XYZ → RGB related data is extracted from the profile in step S52. Since the viewing condition 1 is also stored in the profile, step S53
Then, the observation condition 1 is taken out from the profile.

【0044】ステップS52で取り出されたXYZ→RGB関係
データのXYZ値は、カラーターゲットを測色したときの
基準光であるD50またはD65を基準とするデータであるか
ら、測色光源基準のXYZ値を環境光基準のXYZ値に修正す
る必要がある。ステップS54では、色知覚モデルによっ
て測色光源基準のXYZ値を、測色条件であるD50光源の白
色点「D50基準の場合」、照度レベルおよび周囲光の状
態等に基づき色知覚モデルにより人間の色知覚空間JCH
へ変換し、測色条件とは異なる観察条件1である例えばD
65光源の白色点、照度レベルおよび周囲光の状態などに
基づき色知覚モデルを用いて再びXYZ値へ逆変換するこ
とにより、環境光基準のXYZ値を得る。これにより、環
境光基準のXYZ値とデバイスRGB値との関係が得られたの
で、ステップS55でRGB→XYZ関係データに基づくRGB→XY
Z変換マトリクスを作成し、反復法などで最適化すれ
ば、環境条件1に対応する変換LUT 11を得ることができ
る。
Since the XYZ values of the XYZ → RGB relation data extracted in step S52 are data based on D50 or D65, which is the reference light when the color target is measured, the XYZ values based on the colorimetric light source are used. Needs to be corrected to the ambient light standard XYZ value. In step S54, the XYZ value of the colorimetric light source reference is determined by the color perception model, and the white point of the D50 light source (in the case of the D50 reference), which is the colorimetric condition, the illuminance level, the state of the ambient light, etc. Color perception space JCH
Is converted to a viewing condition 1 different from the colorimetric condition, for example, D
An XYZ value based on the ambient light is obtained by performing an inverse conversion to an XYZ value again using a color appearance model based on the white point of the 65 light sources, the illuminance level, the state of the ambient light, and the like. As a result, a relationship between the XYZ values of the ambient light reference and the device RGB values was obtained, and in step S55, RGB → XY based on the RGB → XYZ relationship data.
If a Z-transform matrix is created and optimized by an iterative method or the like, a transform LUT 11 corresponding to the environmental condition 1 can be obtained.

【0045】図5は環境光に対応する変換LUT 11へ更新
する処理例を示すフローチャートである。なお、図4と
同様の処理が実行されるステップには同一符号を付し
て、その詳細説明を省略する。
FIG. 5 is a flowchart showing an example of processing for updating the conversion LUT 11 corresponding to the ambient light. Steps in which the same processing as in FIG. 4 is executed are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0046】一般的に、入力デバイス用のICCプロファ
イルにはRGB→XYZ変換を行うための変換マトリクス(col
orant Tag)または変換LUT(AtoB0 Tag)が格納されている
ので、RGB→XYZ関係データを、ステップS62でプロファ
イルから取り出す。
Generally, a conversion matrix (col) for performing RGB → XYZ conversion is included in an ICC profile for an input device.
orant Tag) or the conversion LUT (AtoB0 Tag) is stored, so that RGB → XYZ relation data is extracted from the profile in step S62.

【0047】そして、ステップS54で環境光基準のXYZ値
とデバイスRGB値との関係が得られた後、ステップS66で
プロファイル内の変換マトリクス(colorant Tag)または
変換LUT(AtoB0 Tag)を更新すれば、環境条件1に対応す
る変換LUT 11を得ることができる。
After the relationship between the XYZ values of the ambient light reference and the device RGB values is obtained in step S54, the conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) in the profile is updated in step S66. Thus, the conversion LUT 11 corresponding to the environmental condition 1 can be obtained.

【0048】なお、一般に、入力デバイス用のICCプロ
ファイルには、RGB→XYZ変換を行うための変換マトリク
ス(colorant Tag)または変換LUT(AtoB0 Tag)が格納され
ている。また、図4および図5においてはRGB→XYZ関係デ
ータを利用する例を説明したが、これに限らず、RGB→L
ab関係データなどの他のデバイス非依存色のデータを利
用しても構わない。
Generally, a conversion matrix (colorant tag) or a conversion LUT (AtoB0 Tag) for performing RGB → XYZ conversion is stored in an ICC profile for an input device. 4 and FIG. 5, an example in which RGB → XYZ relation data is used has been described.
Other device-independent color data such as ab-related data may be used.

【0049】[色空間圧縮モードの選択および色空間圧
縮]色空間圧縮モードは、ユーザによりユーザインタフ
ェイス経由で選択されるか、ソース側プロファイルのヘ
ッダ内のRendering Intentによって自動的に選択され
る。プロファイルに基づき自動選択される場合は以下の
ようになる。
[Selection of Color Space Compression Mode and Color Space Compression] The color space compression mode is selected by the user via the user interface or automatically selected by Rendering Intent in the header of the source profile. The case of automatic selection based on the profile is as follows.

【0050】 Perceptual JCH色空間上の色空間圧縮モード Relative ColorimetricJCH色空間上の色空間圧縮モード Saturation JCH色空間上の色空間圧縮モード Absolute ColorimetricQMH色空間上の色空間圧縮モード つまり、相対的なカラーマッチングの場合はJCH空間13
が選択され、絶対的なカラーマッチングの場合はQMH空
間14が選択される。
Color space compression mode on Perceptual JCH color space Relative Colorimetric Color space compression mode on JCH color space Saturation Color space compression mode on JCH color space Absolute Colorimetric compression mode on QMH color space In other words, relative color matching In case of JCH space 13
Is selected, and in the case of absolute color matching, the QMH space 14 is selected.

【0051】図6はJCH 13またはQMH 14上で色空間圧縮
を行う処理例を示すフローチャートである。
FIG. 6 is a flowchart showing an example of processing for performing color space compression on the JCH 13 or the QMH 14.

【0052】色知覚空間上で色空間圧縮を行うために、
ステップS81で、出力プロファイル46からユーザに指定
されたプロファイルを読込む。
In order to perform color space compression on the color perception space,
In step S81, a profile designated by the user is read from the output profile.

【0053】一般に、出力デバイス用ICCプロファイル
には、色再現領域の内か外かを判定(以下「色再現領域
の内外判定」と呼ぶ)するために、XYZ値またはLab値を
入力する判定LUT(gamut Tag)が格納されている。しか
し、そのXYZ値は測色光源の特性であるD50またはD65を
基準にしているため、環境光に応じた色再現領域の内外
判定に直接利用することはできない。従って、色再現領
域の内外判定を行うLUT(gamut Tag)を利用する代わり
に、プロファイルに格納されているCMYK→XYZ変換を行
うための変換LUT(AtoB0 Tagなど)からCMYK→XYZ関係
データを、ステップS82で取り出して利用する。出力プ
ロファイルには観察条件2も格納されているので、ステ
ップS83で観察条件2を出力プロファイルから取り出す。
In general, an output device ICC profile includes a determination LUT for inputting an XYZ value or a Lab value in order to determine whether the color reproduction area is inside or outside (hereinafter referred to as “color reproduction area inside / outside judgment”). (gamut Tag) is stored. However, since the XYZ values are based on D50 or D65, which is a characteristic of the colorimetric light source, they cannot be directly used for determining whether the color reproduction area is inside or outside according to the ambient light. Therefore, instead of using the LUT (gamut Tag) for determining the inside / outside of the color reproduction area, the CMYK → XYZ related data is converted from the conversion LUT (AtoB0 Tag etc.) for performing the CMYK → XYZ conversion stored in the profile. It is taken out and used in step S82. Since the viewing condition 2 is also stored in the output profile, the viewing condition 2 is extracted from the output profile in step S83.

【0054】ステップS82で取り出されたCMYK→XYZ関係
データのXYZ値は、測色光であるD50またはD65を基準と
するデータであるから、環境光基準のXYZ値に修正する
必要がある。ステップS84では、色知覚モデルによって
測色光基準のXYZ値を、測色条件であるD50光源の白色点
「D50基準の場合」、照度レベルおよび周囲光の状態な
どに基づき色知覚モデルを用いて、人間の色知覚空間JC
Hへ変換し、測色条件とは異なる観察条件2である例えば
D65光源の白色点、照度レベルおよび周囲光の状態など
に基づいて、再びXYZ値へ逆変換することにより、環境
光基準のXYZ値を得る。このようにステップS84では、デ
バイスのCMYK値から環境光基準のXYZ値への関係を求め
る。ステップS85では、ステップS84で得られたCMYK→環
境光XYZ関係データに基づきJCHまたはQMH色空間上にお
ける出力デバイスの色再現領域を求める。
Since the XYZ values of the CMYK → XYZ relation data extracted in step S82 are data based on the colorimetric light D50 or D65, it is necessary to correct the XYZ values based on the ambient light. In step S84, the XYZ value of the colorimetric light reference by the color perception model, using the color perception model based on the white point of the D50 light source that is the colorimetric condition `` in the case of the D50 reference '', the illuminance level and the state of the ambient light, Human color perception space JC
Converted to H, it is an observation condition 2 different from the colorimetric condition For example
XYZ values are again converted back to XYZ values based on the white point of the D65 light source, the illuminance level, the state of ambient light, and the like, to obtain the XYZ values based on the ambient light. As described above, in step S84, the relationship between the CMYK values of the device and the XYZ values based on the ambient light is determined. In step S85, a color reproduction area of the output device in the JCH or QMH color space is obtained based on the CMYK → ambient light XYZ relation data obtained in step S84.

【0055】JCHまたはQMH色空間上における出力デバイ
スの色再現領域は、例えば、 Red (C:0%, M:100%, Y:100%, K:0%) Yellow (C:0%, M:0%, Y:100%, K:0%) Green (C:100%, M:0%, Y:100%, K:0%) Cyan (C:100%, M:0%, Y:0%, K:0%) Blue (C:100%, M:100%, Y:0%, K:0%) Magenta(C:0%, M:100%, Y:0%, K:0%) White (C:0%, M:0%, Y:0%, K:0%) Black (C:0%, M:0%, Y:0%, K:100%) の八点に対する環境光基準のXYZ値を、ステップS84で求
められたCMYK→環境光XYZ関係データを用いて求め、さ
らに色知覚モデルによって観察条件2に基づいて人間の
色知覚空間JCHまたはQMHの座標値へ変換することで、図
7に示されるような12面体によって近似することができ
る。
The color reproduction area of the output device in the JCH or QMH color space is, for example, Red (C: 0%, M: 100%, Y: 100%, K: 0%) Yellow (C: 0%, M : 0%, Y: 100%, K: 0%) Green (C: 100%, M: 0%, Y: 100%, K: 0%) Cyan (C: 100%, M: 0%, Y: 0%, K: 0%) Blue (C: 100%, M: 100%, Y: 0%, K: 0%) Magenta (C: 0%, M: 100%, Y: 0%, K: 0 %) White (C: 0%, M: 0%, Y: 0%, K: 0%) Black (C: 0%, M: 0%, Y: 0%, K: 100%) The XYZ values of the ambient light standard are obtained using the CMYK → ambient light XYZ relation data obtained in step S84, and further converted to the coordinate values of the human color perception space JCH or QMH based on the viewing condition 2 by the color perception model. By doing
It can be approximated by a dodecahedron as shown in FIG.

【0056】12面体で近似される色再現領域において、
色再現領域の内部の点、例えば無彩色軸上におけるWhit
eとBlackの中間点と、内外判定対象の入力色信号の点
(JCH値またはQMH値)とが、同じ側にあれば色再現範囲
内にあると判断し、反対側にあれば色再現範囲外にある
と判断する。
In a color reproduction area approximated by a dodecahedron,
Whit on a point inside the color reproduction area, for example, on the achromatic axis
If the midpoint between e and Black and the point (JCH value or QMH value) of the input color signal to be judged inside / outside are on the same side, it is judged to be within the color gamut. Judge that it is outside.

【0057】ステップS85により得られる色再現領域に
基づく内外判定の結果に基づき、ステップS86で色空間
圧縮が行われる。図8はJCH色知覚空間における色空間圧
縮の概念を、図9はQMH色知覚空間における色空間圧縮の
概念をそれぞれ示す図である。上記の内外判定により出
力デバイスの色再現範囲外であると判定された入力色信
号は、JCH色知覚空間やQMH色知覚空間において、色相角
h(またはH)が保存されるように、色再現範囲内へマッ
ピングされる。そして、このマッピング結果は、相対的
カラーマッチングの場合にはJCH色知覚空間を入出力色
空間とするLUTへ、絶対的カラーマッチングの場合にはQ
MH色知覚空間を入出力色空間とするLUTへ格納される。
Color space compression is performed in step S86 based on the result of the inside / outside determination based on the color reproduction area obtained in step S85. FIG. 8 is a diagram illustrating the concept of color space compression in the JCH color perception space, and FIG. 9 is a diagram illustrating the concept of color space compression in the QMH color perception space. The input color signal determined to be out of the color reproduction range of the output device by the above inside / outside determination is a hue angle in the JCH color perception space or the QMH color perception space.
It is mapped into the color gamut so that h (or H) is preserved. Then, this mapping result is converted to an LUT using the JCH color perception space as an input / output color space in the case of relative color matching, and Q in the case of absolute color matching.
It is stored in the LUT that uses the MH color perception space as the input / output color space.

【0058】図10は異なるデバイス間における色空間圧
縮の概念を示す図で、破線は入力デバイスの色再現領域
を、実線は出力デバイスの色再現領域をそれぞれ示して
いる。JCH色知覚空間においては、J(lightness)の大き
さが観察条件1および2の光源白色点(以下では「白色点
1」「白色点2」と略す場合がある)によってそれぞれ正
規化されるため、Jは環境条件1および2の照度レベル
(以下では「照度レベル1」「照度レベル2」と略す場合
がある)に依存しない。QMH一方、色知覚空間において
は、Q(brightness)の大きさが照度レベル1および2によ
って変化する。従って、相対的カラーマッチングでは白
色点1がそのまま白色点2になる。一方、絶対的カラーマ
ッチングでは、照度レベル1>照度レベル2の場合には白
色点1が白色点2ヘマッピングされる。また、照度レベル
1<照度レベル2の場合には白色点1が白色点2より低いの
でグレーとして出力される。
FIG. 10 is a diagram showing the concept of color space compression between different devices. The broken line indicates the color reproduction area of the input device, and the solid line indicates the color reproduction area of the output device. In the JCH color perception space, the magnitude of J (lightness) is determined by the light source white point under observation conditions 1 and 2 (hereinafter, “white point”).
1), which may be abbreviated as "white point 2"), so J is the illuminance level for environmental conditions 1 and 2 (hereinafter sometimes abbreviated as "illumination level 1" and "illumination level 2") Does not depend on QMH On the other hand, in the color perception space, the magnitude of Q (brightness) changes according to the illuminance levels 1 and 2. Therefore, in relative color matching, white point 1 becomes white point 2 as it is. On the other hand, in the absolute color matching, when illuminance level 1> illuminance level 2, white point 1 is mapped to white point 2. Also, the illumination level
If 1 <illuminance level 2, the white point 1 is lower than the white point 2 and is output as gray.

【0059】[観察条件2に依存するデータの作成]次
に、データ作成部47を用いて変換LUT 16を作成する。
[Creation of Data Dependent on Observation Condition 2] Next, the conversion LUT 16 is created using the data creation unit 47.

【0060】図11は環境光に対応する変換LUT 16を再構
築する処理例を示すフローチャートである。
FIG. 11 is a flowchart showing an example of processing for reconstructing the conversion LUT 16 corresponding to ambient light.

【0061】一般に、出力デバイス用のICCプロファイ
ルには、XYZまたはLab値からデバイスのCMYKまたはRGB
値への変換を行うためのLUT(BtoA0 Tagなど)が色空間
圧縮も含めた形式で格納されている。しかし、LUTへ入
力すべきXYZ値はD50またはD65を基準とするデータであ
るから、環境光に応じた変換LUTとして直接利用するこ
とはできない。
Generally, an ICC profile for an output device includes a CMYK or RGB value of a device based on XYZ or Lab values.
An LUT (BtoA0 Tag, etc.) for converting to a value is stored in a format that includes color space compression. However, since the XYZ values to be input to the LUT are data based on D50 or D65, they cannot be directly used as a conversion LUT according to ambient light.

【0062】そこで、色空間圧縮処理と同様に、ステッ
プS71で、出力プロファイル46に格納されているCMYK→X
YZ変換を行うための変換LUT(AtoB0 Tagなど)を読み込
み、ステップS72で、変換LUTからCMYK→XYZ関係データ
を取り出す。なお、CMYK→XYZ関係データのCMYK値はRGB
値など他のデバイス依存色であっても構わないし、XYZ
値はLab値など他のデバイスに依存しない色であっても
構わない。次に、ステップS73で、出力プロファイル46
内に予め格納された観察条件2を取り出す。
Therefore, similarly to the color space compression processing, in step S71, the CMYK → X stored in the output profile 46 is output.
A conversion LUT (AtoB0 Tag or the like) for performing YZ conversion is read, and in step S72, CMYK → XYZ relation data is extracted from the conversion LUT. The CMYK value of the CMYK → XYZ relation data is RGB
Other device-dependent colors such as values may be used, and XYZ
The value may be a color independent of other devices, such as a Lab value. Next, in step S73, the output profile 46
The observation condition 2 stored in advance is taken out.

【0063】取り出されたCMYK→XYZ関係データのXYZ値
はD50またはD65を基準とするデータであるから、ステッ
プS74で測色光源基準のXYZ値を環境光基準のXYZ値に修
正する。つまり、色知覚モデルによって測色光源基準の
XYZ値を、その測色条件(D50光源の白色点「D50基準の
場合」、照度レベル、周囲光の状態など)に基づいて、
人間の色知覚空間JCHへ変換し、測色条件とは異なる観
察条件2(D65光源の白色点、照度レベル、周囲光の状態
など)に基づいて、再びXYZ値へ逆変換することによ
り、測色光源基準のXYZ値を環境光基準のXYZ値に変換す
ることができる。
Since the XYZ values of the extracted CMYK → XYZ relation data are data based on D50 or D65, the XYZ values based on the colorimetric light source are corrected to the XYZ values based on the ambient light in step S74. In other words, the color perception model uses
Based on the colorimetric conditions (white point of D50 light source “D50 reference”, illuminance level, ambient light condition, etc.)
It is converted to human color perception space JCH, and converted back to XYZ values again based on observation conditions 2 (white point of D65 light source, illuminance level, ambient light condition, etc.) different from the colorimetric conditions, The XYZ values based on the color light source can be converted into the XYZ values based on the ambient light.

【0064】これにより、デバイスCMYK値から環境光基
準のXYZ値への関係が得られるので、ステップS75で、CM
YK→環境光XYZ関係データを用いて、環境光XYZ→CMYK関
係データを反復法などを用いて最適化すれば、所望の環
境光に対応する変換LUT 16を得ることができる。
As a result, the relationship between the device CMYK value and the ambient light reference XYZ value can be obtained.
The conversion LUT 16 corresponding to a desired environment light can be obtained by optimizing the environment light XYZ → CMYK relation data using an iterative method or the like using the YK → ambient light XYZ relation data.

【0065】[カラーマッチングの実行]図12はカラー
マッチング処理の概念を示す図である。11はデータ作成
部41により観察条件1に基づき作成された変換LUT、132
は色空間圧縮部44によりJCH色空間上で作成されたLUT、
133は色空間圧縮部45によりQMH色空間上で作成されたLU
T、16はデータ作成部47により観察条件2に基づき作成さ
れた変換LUTである。
[Execution of Color Matching] FIG. 12 is a diagram showing the concept of color matching processing. 11 is a conversion LUT created by the data creation unit 41 based on the observation condition 1, 132
Is the LUT created on the JCH color space by the color space compression unit 44,
133 is an LU created on the QMH color space by the color space compression unit 45
T and 16 are conversion LUTs created by the data creation unit 47 based on the viewing condition 2.

【0066】RGBまたはCMYKの入力色信号は、変換LUT 1
1により入力デバイスの色信号から観察条件1におけるデ
バイスに依存しない色信号であるXYZ信号へ変換され
る。次に、XYZ信号は、色知覚モデル順変換部134および
135により観察条件1(D50光源の白色点、照度レベル、
周囲光の状態など)に基づいて人間の知覚信号JCHまた
はQMHへ変換される。相対的カラーマッチングの場合はJ
CH空間が、絶対的カラーマッチングの場合はQMH空間が
それぞれ選択される。
The input color signal of RGB or CMYK is converted into a conversion LUT 1
1 converts the color signal of the input device into an XYZ signal which is a device-independent color signal under the viewing condition 1. Next, the XYZ signals are output to the color perception model forward conversion unit 134 and
Observation condition 1 (white point of D50 light source, illuminance level,
Is converted to a human perceptual signal JCH or QMH based on ambient light conditions. J for relative color matching
When the CH space is an absolute color matching, a QMH space is selected.

【0067】色知覚信号JCHおよびQMHはLUT 132および1
33により出力デバイスの色再現範囲内へ圧縮される。色
空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデ
ル逆変換部136および137により観察条件2(D65光源の白
色点、照度レベル、周囲光の状態など)に基づいて観察
条件2におけるデバイスに依存しない色信号であるXYZ信
号へ変換される。そして、XYZ信号は変換LUT 134により
観察条件2における出力デバイスに依存する色信号へ変
換される。
The color perception signals JCH and QMH are
33 compresses the data into the color reproduction range of the output device. The color perception signals JCH and QMH compressed in the color space are converted by the color perception model inverse transform units 136 and 137 into devices under the observation condition 2 based on the observation condition 2 (white point of the D65 light source, illuminance level, ambient light state, etc.). Is converted to an XYZ signal which is a color signal which does not depend on. Then, the XYZ signals are converted by the conversion LUT 134 into color signals depending on the output device under the viewing condition 2.

【0068】以上の処理によって得られたRGBまたはCMY
K信号は出力デバイスへ送られて、その色信号によって
示される画像がプリント出力される。そのプリントアウ
トを観察条件2の下で観察すれば、観察条件1の下で観察
されるオリジナル原稿と、同じ色味に見える。
The RGB or CMY obtained by the above processing
The K signal is sent to the output device, and the image indicated by the color signal is printed out. When the printout is observed under the viewing condition 2, it looks the same color as the original document viewed under the viewing condition 1.

【0069】上述の実施形態ではデバイスに依存しない
色空間としてXYZ色空間を例に説明を行っているが、XYZ
信号の代わりにデバイスに依存しないRGB色空間を利用
することも少なくない。デバイスに依存しない色空間の
種類は例えばソースプロファイルによって任意に指定さ
れる。
In the above-described embodiment, an XYZ color space is described as an example of a device-independent color space.
In many cases, a device-independent RGB color space is used instead of a signal. The type of device-independent color space is arbitrarily specified by, for example, a source profile.

【0070】RGB色空間はXYZ色空間から3x3マトリクス
による1対1対応の線型変換が可能であり、三原色点の色
度及び基準白色点により色再現範囲を決定することがで
きる。又、入力色空間としてRGB色空間を利用すれば、3
D LUTにおけるグレー軸の配置を対角軸上に行うことが
可能となり、格子点数に関係なく四面体補間におけるグ
レー色の色ずれを防ぐことができる効果がある。一方、
入力色空間としてLab色空間等を利用した場合には、3D
LUTのa軸/b軸方向の格子点数が奇数個の場合にはグレ
ー軸が格子点上に配置されるため線形補間におけるグレ
ー色の色ずれが生じないが、格子点数が偶数個の場合に
は線形補間による色ずれが生じる。
The RGB color space can be converted linearly from the XYZ color space to a one-to-one correspondence using a 3 × 3 matrix, and the color reproduction range can be determined by the chromaticity of the three primary color points and the reference white point. Also, if the RGB color space is used as the input color space, 3
The arrangement of the gray axis in the D LUT can be performed on the diagonal axis, and there is an effect that the color shift of the gray color in the tetrahedral interpolation can be prevented regardless of the number of grid points. on the other hand,
When using Lab color space etc. as input color space, 3D
When the number of lattice points in the a-axis / b-axis direction of the LUT is an odd number, the gray axis is arranged on the lattice points, so that there is no color shift of the gray color in linear interpolation, but when the number of lattice points is an even number, Causes color shift due to linear interpolation.

【0071】RGB三原色の色度R(xr, yr), G(xg, yg), B
(xb, yb)及び基準白色点の三刺激値(Xw, Yw, Zw)より、
RGB色空間とXYZ色空間の変換式は以下の方法によって求
めることができる。 zr = 1 xr yr …(7) zg = 1 xg yg …(8) zb = 1 xb yb …(9)
Chromaticity R (xr, yr), G (xg, yg), B of RGB three primary colors
From (xb, yb) and the tristimulus values (Xw, Yw, Zw) of the reference white point,
The conversion formula between the RGB color space and the XYZ color space can be obtained by the following method. zr = 1 xr yr ... (7) zg = 1 xg yg ... (8) zb = 1 xbyb ... (9)

【0072】[0072]

【外2】 [Outside 2]

【0073】例えば、図14に示されるような人間の全可
視領域を包含する三原色の色度(x,y): R (x, y) = (0.7347, 0.2653) …(13) G (x, y) = (-0.0860, 1.0860) …(14) B (x, y) = (0.0957, -0.0314) …(15) と基準白色点D65によって決定される変換マトリクスは
(7)〜(12)式を利用すれば以下のようになる。
For example, as shown in FIG. 14, the chromaticity (x, y) of three primary colors including the entire visible region of human: R (x, y) = (0.7347, 0.2653)... (13) G (x, y) = (-0.0860, 1.0860)… (14) B (x, y) = (0.0957, -0.0314)… (15) and the transformation matrix determined by the reference white point D65 is
Using equations (7)-(12) yields:

【0074】[0074]

【外3】 [Outside 3]

【0075】以下、デバイスRGBとデバイスに依存しな
いRGBを区別するために、基準白色点及び(13)〜(15)式
の三原色によって定義されるRGB色空間をCRGB色空間と
呼ぶ。尚、デバイスに依存しないRGBの三原色は(13)〜
(15)式に限定されるものではない。
Hereinafter, in order to distinguish between the device RGB and the device-independent RGB, the RGB color space defined by the reference white point and the three primary colors of the equations (13) to (15) is referred to as a CRGB color space. The three primary colors of RGB that do not depend on the device are (13) ~
It is not limited to the expression (15).

【0076】基準白色点D65(X, Y, Z) = (0.9505, 1.00
00, 1.0891)に対するCRGB値を例えば8ビットの量子化
によって表現すれば(11)式を用いて(R, G, B) = (255,
255,255)となる。
Reference white point D65 (X, Y, Z) = (0.9505, 1.00
If the CRGB value for (00, 1.0891) is represented by, for example, 8-bit quantization, (R, G, B) = (255,
255,255).

【0077】これに対して、同変換式を用いて他の基準
白色点A(X, Y, Z) = (1.098675, 1.000000, 0.355916)
を変換した結果得られる値は8ビットの量子化において
(R, G, B) = (562, 106, 83)となり、オーバーフローが
発生する。仮に表現できたとしても、CRGB色空間を入力
とする3D LUTでは図15に示されるようにグレー軸が対
角軸上に配置されないため四面体補間によるグレー色の
色ずれが発生する可能性がある。
On the other hand, using the same conversion equation, another reference white point A (X, Y, Z) = (1.098675, 1.000000, 0.355916)
Is converted to an 8-bit quantization.
(R, G, B) = (562, 106, 83) and overflow occurs. Even if it can be represented, in a 3D LUT using a CRGB color space as an input, the gray axis is not arranged on the diagonal axis as shown in FIG. is there.

【0078】本実施形態では、観察条件下の基準白色点
に応じて動的にXYZ色空間とCRGB色空間の変換式を作成
する。これにより、CRGB色空間におけるオーバーフロー
やアンダーフローを防ぐと共に、3D LUTにおいてグレー
軸が対角軸からずれることにより四面体補間で生じるグ
レー色の色ずれを防ぐことができる。
In the present embodiment, a conversion formula between the XYZ color space and the CRGB color space is dynamically created according to the reference white point under the viewing condition. As a result, it is possible to prevent overflow and underflow in the CRGB color space, and to prevent gray color shift caused by tetrahedral interpolation due to shift of the gray axis from the diagonal axis in the 3D LUT.

【0079】図16に観察条件下の基準白色点に応じて
動的にXYZ色空間とCRGB色空間の変換式を作成し、異な
る観察条件下のカラーマッチングを行った例を示す。
FIG. 16 shows an example in which a conversion formula between the XYZ color space and the CRGB color space is dynamically created according to the reference white point under the viewing condition, and color matching under different viewing conditions is performed.

【0080】同図において、161はRGBやCMYK等のデバイ
スに依存した信号を観察条件下の白色点基準のCRGB信号
へ変換するためのプロファイルである。プロファイル作
成手段はデータ作成部41の方法によってRGB→XYZ関係デ
ータを作成した後、XYZ→CRGBの変換を適用することに
よってRGB→CRGB関係データを得ることができる。ここ
で、XYZ→CRGBの変換マトリクスは、CRGB三原色(13)〜
(15)及び入力側の基準白色点D50 (X, Y, Z) = (0.9642,
1.0000, 0.8249)より、以下の(19)式によって与えられ
る:
In FIG. 15, reference numeral 161 denotes a profile for converting a device-dependent signal such as RGB or CMYK into a CRGB signal based on a white point under viewing conditions. After creating the RGB → XYZ relationship data by the method of the data creation unit 41, the profile creation unit can obtain the RGB → CRGB relationship data by applying the conversion of XYZ → CRGB. Here, the conversion matrix of XYZ → CRGB is the CRGB three primary colors (13) to
(15) and the reference white point D50 on the input side (X, Y, Z) = (0.9642,
1.0000, 0.8249), given by the following equation (19):

【0081】[0081]

【外4】 [Outside 4]

【0082】得られたRGB→CRGB関係データはLUT形式等
へ変換され、入力側の基準白色点D50と共にプロファイ
ルへ格納される。格納されるCRGB値は8ビットの量子化
に限定される必要はなく、16ビット等の量子化精度であ
ってもかまわない。また、データ作成部41では色知覚モ
デルを用いて測色光基準のXYZ値を観察光基準のXYZ値に
修正しているが、カラーターゲットの分光反射率及び観
察光の分光分布が得られる場合には観察光基準のXYZ値
を直接求めてもよい。
The obtained RGB → CRGB relation data is converted into an LUT format or the like, and stored in a profile together with the input-side reference white point D50. The stored CRGB values need not be limited to 8-bit quantization, and may have quantization accuracy of 16 bits or the like. Further, the data creation unit 41 corrects the XYZ values of the colorimetric light reference to the XYZ values of the observation light reference using the color perception model, but when the spectral reflectance of the color target and the spectral distribution of the observation light are obtained. May directly determine the XYZ values based on the observation light.

【0083】166は観察条件下の白色点基準のCRGB信号
をRGBやCMYK等のデバイスに依存した信号へ変換するた
めのプロファイルである。プロファイル作成手段はデー
タ作成部47のステップS74の方法によってRGB→XYZ関係
データを作成した後、XYZ→CRGBの変換を適用すること
によってRGB→CRGB関係データを得ることができる。こ
こで、XYZ→CRGBの変換マトリクスは、CRGB三原色(13)
〜(15)及び入力側の基準白色点A (X, Y, Z) = (1.09867
5, 1.0000, 0.355916)より、以下の(21)式によって与え
られる:
Reference numeral 166 denotes a profile for converting a CRGB signal based on a white point under observation conditions into a device-dependent signal such as RGB or CMYK. After creating the RGB → XYZ relation data by the method of step S74 of the data creation unit 47, the profile creation means can obtain the RGB → CRGB relation data by applying the conversion of XYZ → CRGB. Here, the conversion matrix of XYZ → CRGB is CRGB three primary colors (13)
To (15) and the reference white point A (X, Y, Z) on the input side = (1.09867
5, 1.0000, 0.355916) is given by the following equation (21):

【0084】[0084]

【外5】 [Outside 5]

【0085】また、データ作成部47では色知覚モデルを
用いて測色光基準のXYZ値を観察光基準のXYZ値に修正し
ているが、カラーパッチの分光反射率及び観察光の分光
分布が得られる場合には観察光基準のXYZ値を直接求め
てもよい。得られたRGB→CRGB関係データはステップS75
の処理によりCRGB→RGB関係データへと変換され、出力
側の基準白色点Aと共にプロファイルへ格納される。ま
た、データ作成部47のステップS74の方法によって得ら
れたRGB→XYZ関係データからCRGB→RGB関係データを作
成する他の方法として、XYZ→CRGBの変換を適用して逆
変換する代わりに、ステップS75の処理によりXYZ→RGB
関係データを作成した後、XYZ→RGB変換の前段として(2
0)式を適用することもできる。
Although the data creation unit 47 corrects the XYZ values based on the colorimetric light to the XYZ values based on the observation light using a color perception model, the spectral reflectance of the color patches and the spectral distribution of the observation light are obtained. In this case, the XYZ values based on the observation light may be directly obtained. The obtained RGB → CRGB relation data is stored in step S75.
Is converted into CRGB → RGB related data, and stored in the profile together with the reference white point A on the output side. Also, as another method of creating CRGB → RGB relation data from the RGB → XYZ relation data obtained by the method of step S74 of the data creation section 47, instead of applying XYZ → CRGB conversion and performing inverse conversion, step XYZ → RGB by S75 processing
After creating the relational data, (2
Equation (0) can also be applied.

【0086】入力側の基準白色点D50を格納したプロフ
ァイル161と出力側の白色点Aを格納したプロファイル16
6を用いたカラーマッチングは、以下のような処理の流
れになる。
The profile 161 storing the reference white point D50 on the input side and the profile 16 storing the white point A on the output side
Color matching using 6 has the following processing flow.

【0087】まず、プロファイル161によりRGBまたはCM
YKの入力色信号は変換LUT等によりD50基準のCRGB信号へ
変換される。カラーマッチング手段はプロファイル161
に格納された入力側の基準白色点D50を読み出し、(18)
式に示されるCRGB→XYZの変換マトリクスを作成し、D50
基準のCRGB信号をXYZ信号へ変換する。次に、XYZ信号
は、色知覚モデル順変換部134または135により観察条件
1(D50光源の白色点、照度レベル、周囲光の状態など)
に基づいて人間の知覚信号JCHまたはQMHへ変換される。
ここで、相対的カラーマッチングの場合はJCH空間が、
絶対的カラーマッチングの場合はQMH空間がそれぞれ選
択される。
First, according to the profile 161, RGB or CM
The YK input color signal is converted into a D50-based CRGB signal by a conversion LUT or the like. Color matching means profile 161
Read out the reference white point D50 on the input side stored in
Create the CRGB → XYZ conversion matrix shown in the formula and
Converts a reference CRGB signal to an XYZ signal. Next, the XYZ signals are subjected to viewing condition 1 (white point of D50 light source, illuminance level, ambient light state, etc.) by the color perception model forward conversion unit 134 or 135.
Is converted into a human perception signal JCH or QMH based on the
Here, in the case of relative color matching, the JCH space is
In the case of absolute color matching, a QMH space is selected.

【0088】色知覚信号JCHおよびQMHはLUT132および13
3により出力デバイスの色再現範囲内へ圧縮される。色
空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデ
ル逆変換部136または137により観察条件2(A光源の白色
点、照度レベル、周囲光の状態など)に基づいてXYZ信号
へ変換される。カラーマッチング手段はプロファイル16
6に格納された出力側の基準白色点Aを読み出し、(21)式
に示されるXYZ→CRGBの変換マトリクスを作成し、XYZ信
号をA基準のCRGB信号へ変換する。そして、プロファイ
ル166によりA基準のCRGB信号は変換LUT等によりRGBまた
はCMYKの出力信号へ変換される。
The color perception signals JCH and QMH are
3 compresses the image into the color reproduction range of the output device. The color perception signals JCH and QMH compressed in the color space are converted into XYZ signals by the color perception model inverse converter 136 or 137 based on the viewing condition 2 (white point of the A light source, illuminance level, ambient light state, etc.). You. Color matching means profile 16
The reference white point A on the output side stored in 6 is read out, a conversion matrix of XYZ → CRGB shown in Expression (21) is created, and the XYZ signal is converted into an A reference CRGB signal. Then, the A-based CRGB signal is converted into an RGB or CMYK output signal by a conversion LUT or the like according to the profile 166.

【0089】このように、観察条件下の白色点に応じて
動的にXYZ色空間とCRGB色空間の変換式を作成すること
により、次の効果を得ることができる。 (1)XYZ色空間と任意の基準白色点に応じたRGB色空間
の変換マトリクスを動的に作成し、デバイスに依存しな
い色を基準白色点に応じたRGB色空間において表現する
ことにより、RGB色空間で量子化した際のオーバーフロ
ーやアンダーフローを防ぐことができる。 (2)環境光の基準白色点に応じたRGB色空間を3D LUT
の入力色空間として用いることにより、グレー色を3D L
UTの対角軸上へ配置することが可能となり、格子点数に
関係なく四面体補間による色ずれを防ぐことができる。
As described above, the following effects can be obtained by dynamically creating the conversion formula between the XYZ color space and the CRGB color space according to the white point under the viewing condition. (1) A conversion matrix of an XYZ color space and an RGB color space according to an arbitrary reference white point is dynamically created, and a device-independent color is expressed in the RGB color space according to the reference white point, thereby achieving RGB. Overflow and underflow when quantizing in the color space can be prevented. (2) 3D LUT for RGB color space corresponding to the reference white point of ambient light
Gray color by 3D L
It is possible to arrange on the diagonal axis of the UT, and it is possible to prevent color shift due to tetrahedral interpolation regardless of the number of grid points.

【0090】なお、カラーマッチング手段を適用する際
に、プロファイル161または166内に基準白色点が格納さ
れていない場合には、例えばICCで規定されているD50を
デフォルトの基準白色点として代用する。
When the reference white point is not stored in the profile 161 or 166 when applying the color matching means, for example, D50 specified by the ICC is used as a default reference white point.

【0091】なお、本実施形態はカラーマッチング手段
において、観察条件1下のCRGB(またはXYZ)信号が色知覚
モデル順変換部134または135により人間の知覚信号JCH
またはQMHへ変換された後、LUT132および133により出力
デバイスの色再現範囲内へ圧縮され、色知覚モデル逆変
換部136または137により観察条件2下のCRGB(またはXY
Z)信号へ変換されることを特徴としているが、色空間圧
縮の行われる場所は特にカラーマッチング手段内に限定
される必要はない。つまり、カラーマッチング手段では
色空間圧縮を行わず、出力側プロファイル内で色空間圧
縮を行うことも可能である。観察条件1下のCRGB(また
はXYZ)信号は色知覚モデル順変換部134または135により
人間の知覚信号JCHまたはQMHへ変換され、色空間圧縮を
伴うことなく、色知覚モデル逆変換部136または137によ
り観察条件2下のCRGB(またはXYZ)信号へ変換される。
そして、出力側のプロファイル166を作成する際に、観
察条件2下のCRGB(またはXYZ)信号を再度、色知覚モデ
ル順変換部134または135により人間の知覚信号JCHまた
はQMHへ変換し、LUT132および133により出力デバイスに
対する色空間圧縮を施した後、色知覚モデル逆変換部13
6または137により観察条件2下のCRGB(またはXYZ)信号
へ変換し、変換LUT等によりRGBまたはCMYKの出力信号へ
変換されるようにしておけばよい。
In this embodiment, in the color matching means, the CRGB (or XYZ) signal under the viewing condition 1 is converted into the human perception signal JCH by the color perception model forward conversion unit 134 or 135.
Or, after being converted to QMH, it is compressed into the color reproduction range of the output device by the LUTs 132 and 133, and the color appearance model inverse conversion unit 136 or 137 converts the CRGB (or XY) under the viewing condition 2.
It is characterized in that it is converted to a Z) signal, but the place where the color space compression is performed does not need to be particularly limited within the color matching means. That is, it is possible to perform color space compression in the output side profile without performing color space compression in the color matching means. The CRGB (or XYZ) signal under the viewing condition 1 is converted into the human perception signal JCH or QMH by the color perception model forward conversion unit 134 or 135, and the color perception model inverse conversion unit 136 or 137 without color space compression. Is converted into a CRGB (or XYZ) signal under the viewing condition 2.
Then, when creating the profile 166 on the output side, the CRGB (or XYZ) signal under the viewing condition 2 is again converted to the human perception signal JCH or QMH by the color perception model forward conversion unit 134 or 135, and the LUT 132 and After performing color space compression on the output device by 133, the color perception model inverse conversion unit 13
The signal may be converted into a CRGB (or XYZ) signal under viewing condition 2 by 6 or 137, and converted into an RGB or CMYK output signal by a conversion LUT or the like.

【0092】また、本実施形態は、プロファイルへ格納
された観察光の基準白色点と予め定義されたCRGB三原色
の色度を利用することにより、カラーマッチング手段が
CRGB色空間とXYZ色空間の変換マトリクスを動的に作成
することを特徴としているが、該変換マトリクスを得る
ためのプロファイル情報は観察光の基準白色点に限定さ
れる必要はない。つまり、観察条件に応じたCRGB色空間
とXYZ色空間の変換マトリクスをプロファイル情報とし
て保存していてもかまわない。
Further, in the present embodiment, the color matching means is realized by utilizing the reference white point of the observation light stored in the profile and the chromaticity of the three primary CRGB colors defined in advance.
It is characterized in that a conversion matrix between the CRGB color space and the XYZ color space is dynamically created, but profile information for obtaining the conversion matrix need not be limited to the reference white point of the observation light. That is, a conversion matrix of the CRGB color space and the XYZ color space according to the viewing conditions may be stored as profile information.

【0093】異なる光源下におけるXYZ値を予測するた
めに色知覚モデル等の非線型モデルを利用した場合に
は、カラーマッチングによって変換された入力側基準白
色点下のグレー色が出力側基準白色点下のグレー色を示
さない場合がある。例えば、図16において色知覚モデ
ル順変換部162の入力となるD50基準のCRGB値がR=G=B
(色度xyはD50と同じ)となるグレー色のCRGB信号を示
しており、色知覚モデルによる変換がグレー色を保存し
ていると仮定すれば、色知覚モデル逆変換部165の出力
となるA基準のCRGB値はR=G=B(色度xyはAと同じ)を示
すはずである。しかし、実際には色知覚モデルが非線型
であるため、入力側と出力側の観察条件の組み合わせに
よってはグレー色を保存できない場合が発生する。
When a non-linear model such as a color perception model is used to predict XYZ values under different light sources, the gray color below the input-side reference white point converted by color matching is used as the output-side reference white point. The lower gray color may not be shown. For example, in FIG. 16, the CRGB value based on the D50 as an input to the color appearance model forward conversion unit 162 is R = G = B
(The chromaticity xy is the same as D50), which indicates a CRGB signal of a gray color. If it is assumed that the conversion by the color perception model preserves the gray color, an output of the color perception model inverse conversion unit 165 is obtained. An A-based CRGB value should show R = G = B (chromaticity xy is the same as A). However, since the color perception model is actually non-linear, gray color may not be preserved depending on the combination of the input and output viewing conditions.

【0094】本実施形態では、色知覚モデル順変換部の
入力信号に対してグレー色の検知を行い、色知覚モデル
逆変換部の出力信号においても入力信号に対するグレー
色が保存されるようにカラーマッチング処理を行う。つ
まり、観察条件に応じた補正処理を行うカラーマッチン
グ処理において、グレーの色再現を補償するグレー補償
処理を行う。本実施形態によれば、グレー色の再現性を
高めることができる。
In this embodiment, a gray color is detected with respect to the input signal of the color appearance model forward conversion unit, and the color is output so that the gray color of the input signal is preserved in the output signal of the color appearance model inverse conversion unit. Perform matching processing. That is, in the color matching process for performing the correction process according to the viewing condition, the gray compensation process for compensating the gray color reproduction is performed. According to the present embodiment, the reproducibility of the gray color can be improved.

【0095】図17にデバイスに依存しない色空間とし
てCRGB以外の色空間も設定可能なカラーマッチングシス
テムにグレー色を補償した処理を適用した場合の処理の
1例を示す。
FIG. 17 shows an example of processing in a case where gray color compensated processing is applied to a color matching system capable of setting a color space other than CRGB as a device-independent color space.

【0096】例えば、入力側プロファイル171のPCSがLa
b、出力側プロファイル176のPCSがXYZ、グレー補償がON
の場合には、カラーマッチング手段において以下のよう
な処理を行う。
For example, if the PCS of the input side profile 171 is La
b, PCS of output side profile 176 is XYZ, gray compensation is ON
In the case of, the following processing is performed in the color matching means.

【0097】まず、入力側プロファイル171によりRGBま
たはCMYKの信号をLab信号へ変換する。次に、入力側プ
ロファイルへ格納された入力側基準白色点に基づいたLa
b→XYZ変換を行うことによりLab信号をXYZ信号へ変換す
る。その後、上述したようにXYZ→CRGB変換を行うため
の入力側基準白色点に基づいた変換マトリクスを作成
し、XYZ信号をCRGB信号へ変換する。
First, RGB or CMYK signals are converted to Lab signals by the input side profile 171. Next, La based on the input-side reference white point stored in the input-side profile is used.
The Lab signal is converted to an XYZ signal by performing b → XYZ conversion. Then, as described above, a conversion matrix based on the input-side reference white point for performing XYZ → CRGB conversion is created, and the XYZ signal is converted into a CRGB signal.

【0098】次に、入力側基準白色点に基づいたCRGB信
号は無彩色検出手段172によって無彩色成分と有彩色成
分に分離される。
Next, the CRGB signal based on the input-side reference white point is separated into an achromatic component and a chromatic component by the achromatic color detecting means 172.

【0099】入力側基準白色点下の無彩色成分はCRGB色
空間においてR'=G'=B'となるので、無彩色検出手段172
ではR'=G'=B'という条件を満たす入力信号を無彩色成分
として検出する。ここで、無彩色検出条件は、演算誤差
等によりR'=G'=B'とならない場合もあるため、若干の許
容範囲を設ける。
Since the achromatic components below the input-side reference white point satisfy R '= G' = B 'in the CRGB color space, the achromatic color detecting means 172
Detects an input signal satisfying the condition of R '= G' = B 'as an achromatic component. Here, since the achromatic color detection condition does not always satisfy R ′ = G ′ = B ′ due to an arithmetic error or the like, a slight tolerance is provided.

【0100】このように、デバイスに依存しない色空間
としてCRGB以外が設定されている場合は、入力側プ
ロファイルによる処理結果をCRGBに変換し、無彩色
検出する。これは、CRGBは無彩色検出を簡単に行う
ことができるからである。
As described above, when a color space other than the RGB is set as the device-independent color space, the processing result based on the input-side profile is converted into the RGB and the achromatic color is detected. This is because CRGB can easily perform achromatic color detection.

【0101】入力側基準白色点に基づいたCRGB信号(R',
G', B')の無彩色成分と有彩色成分は共に、色知覚モデ
ル順変換部173及び色知覚モデル逆変換部174によって出
力側基準白色点に基づいたCRGB信号(R'', G'', B'')へ
変換される。その後、無彩色検出手段172によって検出
された無彩色成分に対応するCRGB信号(R'', G'', B'')
は、更に無彩色生成手段175によって出力側基準白色点
下のグレー色(Rg'', Gg'', Bg'')へ変換される。
The CRGB signal (R ′,
G ′, B ′), both the achromatic component and the chromatic component of the CRGB signal (R ″, G ′) based on the output-side reference white point by the color perception model forward conversion unit 173 and the color perception model inverse conversion unit 174. ', B''). Thereafter, the CRGB signals corresponding to the achromatic components detected by the achromatic color detection means 172 (R '', G '', B '')
Is further converted by the achromatic color generation unit 175 into a gray color (Rg ″, Gg ″, Bg ″) below the output-side reference white point.

【0102】無彩色生成手段175は例えば以下のような
変換を行う。 Rg'' = Gg'' = Bg'' = (R'' + G'' + B'') / 3 …(22)
The achromatic color generating means 175 performs the following conversion, for example. Rg '' = Gg '' = Bg '' = (R '' + G '' + B '') / 3… (22)

【0103】次に、上述したように、CRGB→XYZ変換を
行うための出力側基準白色点に基づいた変換マトリクス
を作成し、CRGB信号をXYZ信号へ変換する。そして、XYZ
信号は出力側プロファイル176によりRGBまたはCMYKの信
号へ変換される。
Next, as described above, a conversion matrix based on the output-side reference white point for performing CRGB → XYZ conversion is created, and the CRGB signal is converted into an XYZ signal. And XYZ
The signal is converted into an RGB or CMYK signal by the output side profile 176.

【0104】グレー補償のON / OFF制御はプロファイル
へ格納されたグレー補償のフラグ情報に基づいて制御さ
れる。例えば、入力側プロファイルにグレー補償ONフ
ラグ[1]が格納され、出力側プロファイルにグレー補償O
FFフラグ[0]が格納されている場合には、 MAX(入力側フラグ値, 出力側フラグ値) …(23) によってMAX(1, 0)となり、カラーマッチングにおける
グレー補償はON[1]となる。
The ON / OFF control of the gray compensation is controlled based on the gray compensation flag information stored in the profile. For example, the gray compensation ON flag [1] is stored in the input side profile, and the gray compensation ON flag is stored in the output side profile.
If the FF flag [0] is stored, MAX (1, 0) is obtained by MAX (input flag value, output flag value) ... (23), and gray compensation in color matching is set to ON [1]. Become.

【0105】また、プロファイルによるグレー補償のON
/ OFF制御に限定される必要はなく、印刷設定パネル等
においてグレー補償用チェックボックス等のユーザ・イ
ンターフェイスを設けることによりユーザが直接グレー
補償のON / OFF制御を行うことも可能である。例えば、
(23)式のようにプロファイル制御によってグレー補償の
ON / OFFが決定されている場合には、アプリケーション
やデバイス・ドライバがグレー補償用チェックボックス
のON / OFF状態に基づいてプロファイルのフラグ情報の
設定を行えば、グレー補償のON / OFF 制御を間接的に
行うことができる。ここで、アプリケーションやデバイ
ス・ドライバがカラーマッチング手段におけるグレー補
償を直接制御することも可能であることは言うまでもな
い。
Also, gray compensation ON by profile
It is not necessary to be limited to the / OFF control, and the user can directly perform the ON / OFF control of the gray compensation by providing a user interface such as a check box for gray compensation on a print setting panel or the like. For example,
As shown in equation (23), gray compensation
If ON / OFF is determined, if the application or device driver sets the flag information of the profile based on the ON / OFF state of the gray compensation check box, the gray compensation ON / OFF control is indirect Can be done Here, it goes without saying that an application or a device driver can directly control gray compensation in the color matching means.

【0106】本実施形態によれば、次の効果を得ること
ができる。 (1)デバイスに依存しない入力色信号から入力側基準
白色点下の無彩色信号を検知し、該無彩色信号を出力側
基準白色点下の無彩色信号へ変換することにより、観察
条件に応じたカラーマッチングにおいて非線型な色知覚
モデルを利用してもグレー色の再現性を保持できる。 (2)出力側基準白色点下の無彩色信号を生成する際に
色知覚モデルの変換結果を反映することにより、観察条
件に対応したカラーマッチングにおけるグレー色の再現
性を高めることができる。 (3)動的に作成された変換式により変換されたCRG
Bに対して無彩色検出を行うので、高精度かつ簡単に検
出を行うことができる。特に、基準白色点の値にかかわ
らず同一の基準で検出することができる。
According to the present embodiment, the following effects can be obtained. (1) An achromatic signal below an input-side reference white point is detected from an input color signal that does not depend on a device, and the achromatic signal is converted into an achromatic signal below an output-side reference white point. Even if a non-linear color perception model is used in the color matching, gray color reproducibility can be maintained. (2) When the achromatic signal below the reference white point on the output side is generated, the reproducibility of the gray color in the color matching corresponding to the viewing condition can be enhanced by reflecting the conversion result of the color appearance model. (3) CRG converted by a dynamically created conversion formula
Since the achromatic color detection is performed on B, the detection can be performed with high accuracy and easily. In particular, detection can be performed with the same reference regardless of the value of the reference white point.

【0107】例えば、XYZ色空間上において、無彩色を
検出するためには、色度値xyが基準白色点の色度値と等
しくなるようなXYZ信号を検知することが必要となる。
したがって、基準白色点を任意に設定できる場合は、処
理が複雑となる。
For example, in order to detect an achromatic color in the XYZ color space, it is necessary to detect an XYZ signal whose chromaticity value xy is equal to the chromaticity value of the reference white point.
Therefore, if the reference white point can be set arbitrarily, the processing becomes complicated.

【0108】なお、本実施形態では、CRGB色空間上
で基準白色点に基づいた無彩色検出を検出したが、他の
色空間(例えばsRGB)を用いても構わない。
In this embodiment, the achromatic color detection based on the reference white point is detected in the CRGB color space, but another color space (for example, sRGB) may be used.

【0109】(変形例)上述の実施形態では、色知覚モ
デル(CIE CAM97sを用いて観察条件に応じた
補正処理を行っている。
(Modification) In the above embodiment, a correction process according to the viewing conditions is performed using the color perception model (CIE CAM97s).

【0110】色知覚モデルCIE CAM97sは、高
精度な補正を実現できる。しかしながら、図13に示さ
れるように、処理が複雑であり、処理時間がかかってし
まう。
The color perception model CIE CAM97s can realize highly accurate correction. However, as shown in FIG. 13, the processing is complicated, and it takes a long processing time.

【0111】これに対して、比率変換やVonkrei
s変換は処理が簡単であり、高速に処理することができ
る。
On the other hand, ratio conversion and Vonkrei
The s-conversion is simple and can be performed at high speed.

【0112】よって、ユーザの用途に対応できるよう
に、システムに、複数の観察条件に応じた補正処理を有
するようにしても構わない。
Therefore, the system may be provided with a correction process corresponding to a plurality of observation conditions so that the system can be adapted to the use of the user.

【0113】非線形処理(CIE CAM97s)が選
択された場合は、グレー色の色ずれが生じる可能性があ
るので、グレー補償を行い、線形処理(比率変換、Vo
nkreis変換)が選択された場合は、グレー色の色
ずれが生じないのでグレー補償を行わない。
When the non-linear processing (CIE CAM 97s) is selected, there is a possibility that a gray color shift occurs, so gray compensation is performed and linear processing (ratio conversion, Vo) is performed.
When nkreis conversion) is selected, gray compensation is not performed because there is no gray color shift.

【0114】このようにすることで、観察条件に応じた
補正処理の種類とグレー補償処理を適切に組み合わせる
ことができ、効率的な処理を実現することができる。
By doing so, it is possible to appropriately combine the type of correction processing according to the viewing conditions with the gray compensation processing, and to realize efficient processing.

【0115】グレー色の再現性は、イメージと比較し
て、グラフィックやテキストで重要である。
The reproducibility of the gray color is more important for graphics and texts than for images.

【0116】したがって、入力されたオブジェクトイメ
ージの種類を識別し、識別結果に応じてグレー補償を制
御するようにしても構わない。
Therefore, the type of the input object image may be identified, and gray compensation may be controlled according to the identification result.

【0117】オブジェクトイメージの種類の識別は、例
えば、アプリケーションからOS(基本システム)を介
して入力されるオフジェクトイメージのコード情報を解
析することにより実現できる。例えば、オブジェクトイ
メージがビットマップで示されている場合はイメージと
識別することができる。また、ベクターデータやテキス
トコマンドが含まれている場合は、グラフィックやテキ
ストと識別することができる。
The type of the object image can be identified, for example, by analyzing the code information of the object image input from the application via the OS (basic system). For example, when an object image is represented by a bitmap, it can be identified as an image. If vector data or text commands are included, they can be identified as graphics or text.

【0118】このように、オブジェクトイメージの種類
に応じてグレー補償を制御することにより、色再現性を
向上させることができる。
As described above, by controlling the gray compensation in accordance with the type of the object image, the color reproducibility can be improved.

【0119】(他の実施形態)なお、本発明は、複数の
機器(例えばホストコンピュータ、インタフェイス機
器、リーダ、プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機、ファクシミリ装置など)に適用してもよい。
(Other Embodiments) Even if the present invention is applied to a system constituted by a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus comprising one device (for example, For example, the present invention may be applied to a copying machine, a facsimile machine, and the like.

【0120】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPUやM
PU)が記憶媒体に格納されたプログラムコードを読出し
実行することによっても、達成されることは言うまでも
ない。この場合、記憶媒体から読出されたプログラムコ
ード自体が前述した実施形態の機能を実現することにな
り、そのプログラムコードを記憶した記憶媒体は本発明
を構成することになる。また、コンピュータが読出した
プログラムコードを実行することにより、前述した実施
形態の機能が実現されるだけでなく、そのプログラムコ
ードの指示に基づき、コンピュータ上で稼働しているOS
(オペレーティングシステム)などが実際の処理の一部
または全部を行い、その処理によって前述した実施形態
の機能が実現される場合も含まれることは言うまでもな
い。
Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU or MPU) of the system or apparatus.
Needless to say, this can also be achieved by the PU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instructions of the program code.
It goes without saying that an (operating system) performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0121】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張カード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張カードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0122】[0122]

【発明の効果】本発明によれば、異なる観察条件下にお
いて無彩色を良好に色再現を行うことができる。
According to the present invention, an achromatic color can be satisfactorily reproduced under different observation conditions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一般的なカラーマッチングの概念図FIG. 1 is a conceptual diagram of general color matching.

【図2】本発明の概念を説明する図FIG. 2 illustrates the concept of the present invention.

【図3】第1実施形態の機能構成例を示すブロック図FIG. 3 is a block diagram illustrating a functional configuration example of the first embodiment;

【図4】環境光に対応する変換LUTを再構築する処理例
を示すフローチャート
FIG. 4 is a flowchart illustrating a processing example of reconstructing a conversion LUT corresponding to ambient light;

【図5】環境光に対応する変換LUTへ更新する処理例を
示すフローチャート
FIG. 5 is a flowchart showing an example of processing for updating to a conversion LUT corresponding to ambient light.

【図6】JCHまたはQMH色空間上で色空間圧縮を行う処理
例を示すフローチャート
FIG. 6 is a flowchart showing an example of processing for performing color space compression on a JCH or QMH color space;

【図7】色再現領域を近似する12面体を示す図FIG. 7 is a diagram showing a dodecahedron approximating a color reproduction area.

【図8】JCH色知覚空間における色空間圧縮の概念を示
す図
FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space.

【図9】QMH色知覚空間における色空間圧縮の概念を示
す図
FIG. 9 is a diagram showing a concept of color space compression in a QMH color perception space.

【図10】異なるデバイス間における色空間圧縮の概念
を示す図
FIG. 10 is a diagram showing the concept of color space compression between different devices.

【図11】環境光に対応する変換LUTを再構築する処理
例を示すフローチャート
FIG. 11 is a flowchart illustrating a processing example of reconstructing a conversion LUT corresponding to ambient light;

【図12】カラーマッチング処理の概念を示す図FIG. 12 is a diagram showing the concept of a color matching process.

【図13】本発明にかかる実施形態で使用する色知覚モ
デルについて説明する図
FIG. 13 is a view for explaining a color perception model used in the embodiment according to the present invention.

【図14】人間の全可視領域を包含するRGB領域を示す
FIG. 14 is a diagram showing an RGB region including the entire visible region of a human;

【図15】基準白色点が固定されている場合のグレー軸
のずれを示す図
FIG. 15 is a diagram showing a shift of a gray axis when a reference white point is fixed.

【図16】本発明において入力側基準白色点に応じたCR
GB色空間と出力側基準白色点に応じたCRGB色空間を用い
た例を示す図
FIG. 16 shows a CR according to an input-side reference white point in the present invention.
Diagram showing an example using GB color space and CRGB color space according to the output-side reference white point

【図17】グレー補償の例を示す図FIG. 17 is a diagram showing an example of gray compensation.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA02 CA01 CA08 CB01 CB08 CE17 CE20 5C055 AA14 BA08 EA03 EA05 HA37 5C066 AA05 BA20 CA08 DD01 EA14 EC01 EE02 EE04 FA01 GA01 GA02 GA05 KE04 KF05 KL13 5C077 MP08 NP02 PP31 PP32 PP33 PP35 PP37 PP39 PQ23 5C079 HB01 HB03 HB05 HB08 HB11 LA03 LA24 LB01 MA04 NA03 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 BA02 CA01 CA08 CB01 CB08 CE17 CE20 5C055 AA14 BA08 EA03 EA05 HA37 5C066 AA05 BA20 CA08 DD01 EA14 EC01 EE02 EE04 FA01 GA01 GA02 GA05 KE04 KF05 KL13 5C031 PP32 PP33 PP39 PQ23 5C079 HB01 HB03 HB05 HB08 HB11 LA03 LA24 LB01 MA04 NA03

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 カラー信号に対して観察条件に応じた補
正処理を行う画像処理方法において、 カラー信号の基準白色点に基づき、該カラー信号を該カ
ラーデバイスに依存しない色空間への変換条件を求め、 前記変換条件で変換されたカラー信号が無彩色であるか
否かを判定し、 前記判定結果に応じて、前記観察条件に応じた補正処理
を制御することを特徴とする画像処理方法。
1. An image processing method for performing a correction process on a color signal according to an observation condition, comprising: converting a color signal into a color space independent of the color device based on a reference white point of the color signal. An image processing method comprising: determining whether a color signal converted under the conversion condition is an achromatic color; and controlling a correction process according to the observation condition according to the determination result.
【請求項2】 前記カラーデバイスに依存しない色空間
は、赤、青、緑の3色成分で定義されることを特徴とす
る請求項1記載の画像処理方法。
2. The image processing method according to claim 1, wherein the color space independent of the color device is defined by three color components of red, blue, and green.
【請求項3】 前記観察条件に応じた補正処理は、カラ
ーアピアランスモデルを用いた補正処理であり、非線形
な補正処理を行うことを特徴とする請求項1記載の画像
処理方法。
3. The image processing method according to claim 1, wherein the correction processing according to the viewing condition is a correction processing using a color appearance model, and performs a non-linear correction processing.
【請求項4】 カラー画像信号が無彩色であると判定さ
れた場合は、前記補正処理されたカラー画像信号を無彩
色に補正する処理を行うことを特徴とする請求項1記載
の画像処理方法。
4. The image processing method according to claim 1, wherein when the color image signal is determined to be an achromatic color, a process of correcting the corrected color image signal to an achromatic color is performed. .
【請求項5】 カラー信号に対して観察条件に応じた補
正処理を行う画像処理方法を実現するためのプログラム
を記録する記録媒体であって、 カラー信号の基準白色点に基づき、該カラー信号を該カ
ラーデバイスに依存しない色空間への変換条件を求め、 前記変換条件で変換されたカラー信号が無彩色であるか
否かを判定し、 前記判定結果に応じて、前記観察条件に応じた補正処理
を制御することを特徴とするプログラムを記録すること
を特徴とする記録媒体。
5. A recording medium for recording a program for realizing an image processing method for performing a correction process on a color signal in accordance with an observation condition, wherein the recording medium stores the color signal based on a reference white point of the color signal. A conversion condition to a color space independent of the color device is obtained, and it is determined whether or not the color signal converted under the conversion condition is an achromatic color. A recording medium for recording a program characterized by controlling processing.
【請求項6】 観察条件に応じて非線形な補正処理を行
う第1の補正処理と、該観察条件に応じて線形な補正処
理を行う第2の補正処理を有し、 無彩色であるカラー信号が入力された場合は、無彩色で
ある出力信号が出力されるようにする変換処理を行う変
換処理を有する画像処理方法であって、 前記第2の補正処理が指示された場合は、前記変換処理
を行わないようにすることを特徴とする画像処理方法。
6. An achromatic color signal, comprising: a first correction process for performing a non-linear correction process in accordance with an observation condition; and a second correction process for performing a linear correction process in accordance with the observation condition. Is an image processing method having a conversion process of performing a conversion process to output an achromatic output signal when the second correction process is input, and the conversion process is performed when the second correction process is instructed. An image processing method, wherein processing is not performed.
JP2000263150A 1999-09-17 2000-08-31 Image processing method and recording medium Withdrawn JP2002077652A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000263150A JP2002077652A (en) 2000-08-31 2000-08-31 Image processing method and recording medium
DE60045503T DE60045503D1 (en) 1999-09-17 2000-09-15 Method and device for image processing
US09/662,756 US7230737B1 (en) 1999-09-17 2000-09-15 Image processing method and apparatus
EP00308052A EP1085749B1 (en) 1999-09-17 2000-09-15 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000263150A JP2002077652A (en) 2000-08-31 2000-08-31 Image processing method and recording medium

Publications (1)

Publication Number Publication Date
JP2002077652A true JP2002077652A (en) 2002-03-15

Family

ID=18750738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000263150A Withdrawn JP2002077652A (en) 1999-09-17 2000-08-31 Image processing method and recording medium

Country Status (1)

Country Link
JP (1) JP2002077652A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007007798A1 (en) * 2005-07-12 2007-01-18 Nikon Corporation Image processing device, image processing program, and image processing method
JP2007158928A (en) * 2005-12-07 2007-06-21 Seiko Epson Corp Apparatus, method and program for color space conversion
JP2008146260A (en) * 2006-12-07 2008-06-26 Canon Inc Image generation device and image generation method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007007798A1 (en) * 2005-07-12 2007-01-18 Nikon Corporation Image processing device, image processing program, and image processing method
JP4883007B2 (en) * 2005-07-12 2012-02-22 株式会社ニコン Image processing apparatus, image processing program, and image processing method
US8270712B2 (en) 2005-07-12 2012-09-18 Nikon Corporation Image processing device, image processing program, and image processing method
JP2007158928A (en) * 2005-12-07 2007-06-21 Seiko Epson Corp Apparatus, method and program for color space conversion
JP4682833B2 (en) * 2005-12-07 2011-05-11 セイコーエプソン株式会社 Color space conversion device, color space conversion method, and color space conversion program
JP2008146260A (en) * 2006-12-07 2008-06-26 Canon Inc Image generation device and image generation method

Similar Documents

Publication Publication Date Title
JP3305265B2 (en) Image processing apparatus and method
US6459436B1 (en) Image processing method and apparatus
JP3634633B2 (en) Image processing apparatus and method
JP5481021B2 (en) Heterogeneous color gamut mapping method and apparatus
JP4592090B2 (en) Color processing method and apparatus
US6999617B1 (en) Image processing method and apparatus
EP1085749B1 (en) Image processing method and apparatus
JP3805247B2 (en) Image processing apparatus and method
US8115978B2 (en) Information processing method and information processing apparatus for simulating a result output from a first output device based on input data represented in a color space that is dependent on the input device by a second output device
JP3305266B2 (en) Image processing method
JP2007174126A (en) Image processing apparatus and method
JP2009071618A (en) Image processor, image processing method and program, and recording medium
JP2001309198A (en) Image processing method
JP4533291B2 (en) Color processing method and apparatus
JP2002077652A (en) Image processing method and recording medium
JP2006238335A (en) Information processing method
JP3535778B2 (en) Image processing method, apparatus and recording medium
JP3311295B2 (en) Image processing apparatus and method
JP2021087152A (en) Image display device and image display method
JP3667171B2 (en) Image processing method, apparatus, and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071106