JP2008278214A - Color processor and method therefor - Google Patents

Color processor and method therefor Download PDF

Info

Publication number
JP2008278214A
JP2008278214A JP2007119616A JP2007119616A JP2008278214A JP 2008278214 A JP2008278214 A JP 2008278214A JP 2007119616 A JP2007119616 A JP 2007119616A JP 2007119616 A JP2007119616 A JP 2007119616A JP 2008278214 A JP2008278214 A JP 2008278214A
Authority
JP
Japan
Prior art keywords
color
input
white point
output device
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007119616A
Other languages
Japanese (ja)
Other versions
JP4863498B2 (en
JP2008278214A5 (en
Inventor
Kimitaka Arai
公崇 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007119616A priority Critical patent/JP4863498B2/en
Publication of JP2008278214A publication Critical patent/JP2008278214A/en
Publication of JP2008278214A5 publication Critical patent/JP2008278214A5/ja
Application granted granted Critical
Publication of JP4863498B2 publication Critical patent/JP4863498B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve color reproductivity by calculating an adaptation white point, in matching with the combination of devices of color matching objects. <P>SOLUTION: A user instruction indicating respective white points of input and output devices, color reproductivity and types of the devices, and respective observation conditions of the input and output device sides is inputted (S202 to S208). A calculation method, based on the white points and the types of the input and output devices, calculates an adaption white point (S209 and S210). A color value, indicating the color reproductivity of the input and output devices, is converted into a color value of uniform color space on the basis of the white points, the adaptation white point and the observation conditions (S211 and S212). Then, a profile for performing color processing of image data of the input device into image data of the output device is created, on the basis of the color value of the uniform color space (S213). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、色再現性を向上させる色処理に関する。   The present invention relates to color processing that improves color reproducibility.

パーソナルコンピュータやワークステーションを用いたデスクトップパブリッシング(DTP)やコンピュータ支援設計(CAD)によって作成されたカラードキュメントが、オフィス業務や日常生活の中で印刷されたりプロジェクタで投影される機会が増えた。その際、ディスプレイとプリンタの色再現特性の違いに起因して、明るさ感や色の印象が異なる問題が発生することがある。   Color documents created by desktop publishing (DTP) and computer-aided design (CAD) using personal computers and workstations have been increasingly printed and projected by projectors in office work and daily life. At that time, due to the difference in color reproduction characteristics between the display and the printer, there may be a problem that the feeling of brightness and the color impression are different.

このような問題に対応するため、以前よりデバイスに寄らず同じ色再現を目指すdevice independent color reproduction(デバイス独立色再現)の研究が行われている。デバイス独立色再現における基本的な考え方は、デバイス間で同一の色度値をもつようにする色再現する、所謂、測色的な色再現が基礎になっている。あるデバイスの三刺激値をX1Y1Z1とし、別のデバイスの三刺激値をX2Y2Z2とするときの測色的色再現は式(1)で表される。
X1 = X2
Y1 = Y2 …(1)
Z1 = Z2
In order to deal with such problems, research on device independent color reproduction (device independent color reproduction) aiming at the same color reproduction regardless of the device has been conducted. The basic idea in device independent color reproduction is based on so-called colorimetric color reproduction in which colors are reproduced so as to have the same chromaticity value between devices. The colorimetric color reproduction when the tristimulus value of one device is X1Y1Z1 and the tristimulus value of another device is X2Y2Z2 is expressed by equation (1).
X1 = X2
Y1 = Y2 (1)
Z1 = Z2

また、画像の観察環境の違いにより、色の見えが異なる問題がある。例えば、店頭でディスプレイやプロジェクタの画像を観察した場合と、同じ商品の画像を自宅で観察した場合、照明光を含む環境光の違い(色温度の違いや強度の違い)などによって、画像の色が異って見えることがある。   In addition, there is a problem that the color appearance varies depending on the observation environment of the image. For example, when the image of a display or projector is observed at a storefront, or when an image of the same product is observed at home, the color of the image may vary due to differences in ambient light including illumination light (differences in color temperature or intensity). May look different.

このような問題を解決するため、観察環境の情報(観察条件)を用いて、人間の視覚順応の考え方に基づく視覚空間における再現色を一致させるカラーマッチングが研究されている。   In order to solve such a problem, color matching that matches reproduction colors in a visual space based on the concept of human visual adaptation using information on observation environments (observation conditions) has been studied.

人間の視覚特性を反映した均等色空間上において、デバイス再現色を一致させることにより、カラーマッチングが得られる。各デバイスの色再現情報を均等色空間上の色値に変換するには、観察条件(照明光を含む環境光、デバイス白色)から算出した順応白色点を用いる。例えば、特許文献1は、環境光の変更に対応して、任意の観察条件から順応白色点を計算し、この順応白色点を用いて上記変換を行う。   Color matching is obtained by matching device reproduction colors in a uniform color space that reflects human visual characteristics. In order to convert the color reproduction information of each device into a color value in a uniform color space, an adaptive white point calculated from observation conditions (environmental light including illumination light, device white color) is used. For example, in Patent Document 1, an adaptive white point is calculated from an arbitrary observation condition in response to a change in ambient light, and the above conversion is performed using this adaptive white point.

しかし、カラーマッチングするデバイスの組み合わせが異なると、たとえ観察光とデバイス白色が同一であっても、最適な順応白色点は異なる。例えば、モニタ(光源色)とプリンタ(物体色)の観察条件(観察光、デバイス白色)に対応する順応白色点を、同一観察条件下のモニタ(光源色)とモニタ(光源色)のカラーマッチングに適用した場合、上記変換後の色は、見た目の印象が一致しない。言い換えれば、均等色空間上で色値を一致させたとしても、カラーマッチングを得ることはできない。   However, when the combination of devices for color matching is different, the optimum adaptation white point is different even if the observation light and the device white color are the same. For example, an adaptive white point corresponding to the monitor (light source color) and printer (object color) observation conditions (observation light, device white) is color-matched between the monitor (light source color) and the monitor (light source color) under the same observation condition. When applied to the above, the color after the conversion does not match the visual impression. In other words, even if the color values are matched in the uniform color space, color matching cannot be obtained.

特開平9-102882号公報JP-A-9-102882

本発明は、カラーマッチング対象のデバイスの組み合わせに応じた順応白色点を算出することにより、色再現性を向上させることを目的とする。   An object of the present invention is to improve color reproducibility by calculating an adaptive white point corresponding to a combination of devices to be color-matched.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる色処理装置は、入力および出力デバイスそれぞれの白色点、色再現特性およびデバイスの種類、並びに、入力および出力デバイス側それぞれの観察条件を入力する入力手段と、前記入力および出力デバイスの白色点および種類に基づく算出方法により、順応白色点を計算する計算手段と、前記白色点、前記順応白色点および前記観察条件に基づき前記入力および出力デバイスの色再現特性を示す色値を均等色空間の色値に変換する変換手段と、前記均等色空間の色値に基づき、前記入力デバイスの画像データを前記出力デバイスの画像データに色処理するプロファイルを作成する作成手段とを有することを特徴とする。   The color processing apparatus according to the present invention includes an input means for inputting a white point of each of the input and output devices, a color reproduction characteristic and a device type, and an observation condition for each of the input and output devices, and the input and output devices. A calculation means for calculating an adaptive white point by a calculation method based on the white point and type, and uniform color values indicating color reproduction characteristics of the input and output devices based on the white point, the adaptive white point, and the observation condition Conversion means for converting to color values of space, and creation means for creating a profile for color processing image data of the input device to image data of the output device based on the color values of the uniform color space. And

本発明にかかる色処理方法は、入力および出力デバイスそれぞれの白色点、色再現特性およびデバイスの種類、並びに、入力および出力デバイス側それぞれの観察条件を入力し、前記入力および出力デバイスの白色点および種類に基づく算出方法により、順応白色点を計算し、前記白色点、前記順応白色点および前記観察条件に基づき前記入力および出力デバイスの色再現特性を示す色値を均等色空間の色値に変換することを特徴とする。   The color processing method according to the present invention inputs the white point of each of the input and output devices, the color reproduction characteristics and the type of the device, and the observation conditions on the input and output device sides respectively, An adaptive white point is calculated by a calculation method based on the type, and color values indicating color reproduction characteristics of the input and output devices are converted into color values in a uniform color space based on the white point, the adaptive white point, and the observation conditions. It is characterized by doing.

本発明によれば、カラーマッチング対象のデバイスの組み合わせに応じた順応白色点を算出することにより、色再現性を向上させることができる。   According to the present invention, it is possible to improve color reproducibility by calculating an adaptive white point corresponding to a combination of devices to be color matched.

以下、本発明にかかる実施例の色処理を図面を参照して詳細に説明する。   Hereinafter, color processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[装置の構成]
図1は実施例の色処理装置100の構成例を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram illustrating a configuration example of a color processing apparatus 100 according to an embodiment.

CPU 101は、RAM 102をワークメモリとし、ROM 108やハードディスク(HDD) 105に格納されたオペレーティングシステム(OS)などのプログラムを実行する。そして、システムバス112を介して、後述する構成を制御するとともに、後述する色処理を実行する。   The CPU 101 uses a RAM 102 as a work memory, and executes a program such as an operating system (OS) stored in a ROM 108 or a hard disk (HDD) 105. Then, the configuration described later is controlled via the system bus 112 and color processing described later is executed.

シリアルATA(SATA)インタフェイス(I/F) 103は、HDD 105とシステムバスを接続するインタフェイスである。ネットワークI/F 104は、ネットワーク113とシステムバス112を接続するインタフェイスである。グラフィックアクセラレータ106は、ディスプレイ107とシステムバス112を接続するインタフェイスである。USB (universal serial bus) I/F 109は、シリアルバスに接続されたキーボード110、マウス111、プリンタ114などのデバイスとシステムバス112を接続するインタフェイスである。   A serial ATA (SATA) interface (I / F) 103 is an interface for connecting the HDD 105 to the system bus. The network I / F 104 is an interface that connects the network 113 and the system bus 112. The graphic accelerator 106 is an interface that connects the display 107 and the system bus 112. A USB (universal serial bus) I / F 109 is an interface that connects the system bus 112 to devices such as a keyboard 110, a mouse 111, and a printer 114 connected to the serial bus.

[色処理]
CPU 101によってOSが起動すると、ディスプレイ107にユーザインタフェイス(UI)が表示される。ユーザは、キーボード110やマウス111を操作し、UIを介して、HDD 105に格納された画像処理アプリケーションプログラム(AP)の実行を指示する。このユーザ指示を入力したOSは、ユーザが指示する画像処理APをCPU 101に起動させる。画像処理APを実行するCPU 101は、ユーザ指示に従い、後述する色処理用のプロファイル作成処理を行い、作成したプロファイルを用いて色処理を行う。
[Color processing]
When the OS is started by the CPU 101, a user interface (UI) is displayed on the display 107. The user operates the keyboard 110 and the mouse 111 to instruct execution of an image processing application program (AP) stored in the HDD 105 via the UI. The OS that has input this user instruction causes the CPU 101 to activate the image processing AP specified by the user. The CPU 101 that executes the image processing AP performs color processing profile creation processing, which will be described later, in accordance with a user instruction, and performs color processing using the created profile.

●プロファイルの作成
図2は色処理用のプロファイル作成処理を示すフローチャートである。
Profile Creation FIG. 2 is a flowchart showing profile creation processing for color processing.

CPU 101は、RAM 102の所定領域を確保し、初期値をRAM 102に書き込み、UIを表示するなどの初期化を行う(S201)。図3はUIの一例を示す図である。   The CPU 101 secures a predetermined area of the RAM 102, writes an initial value into the RAM 102, and performs initialization such as displaying a UI (S201). FIG. 3 is a diagram illustrating an example of a UI.

ユーザは、入力デバイスの白色点を示す情報の設定領域の「ファイル設定」ボタン404を押して、図示しないファイル選択ダイアログを操作して、入力デバイスの白色点情報が記述されたファイルを選択する。ファイルが選択されると、テキストボックス401〜403にはそれぞれCIEXYZ値のX値、Y値、Z値が表示される。なお、テキストボックス401〜403にXYZ値を直接入力してもよい。   The user presses a “file setting” button 404 in the information setting area indicating the white point of the input device, and operates a file selection dialog (not shown) to select a file in which the white point information of the input device is described. When a file is selected, the X, Y, and Z values of the CIEXYZ values are displayed in the text boxes 401 to 403, respectively. Note that the XYZ values may be directly input in the text boxes 401 to 403.

ユーザは、入力デバイス情報の設定領域の「ファイル設定」ボタン405を押して、図示しないファイル選択ダイアログを操作して、入力デバイスの色再現特性が記述されたファイルを設定する。また、テキストボックス406と407に数値を入力するか、スピンボタンをクリックして入力デバイス側の環境(以下、入力環境)の環境光の色温度(照明色温度)および環境光の照度(照明照度)を設定する。   The user presses a “file setting” button 405 in the input device information setting area and operates a file selection dialog (not shown) to set a file in which the color reproduction characteristics of the input device are described. Enter numerical values in the text boxes 406 and 407 or click the spin button to select the ambient light color temperature (illumination color temperature) and ambient light illuminance (illumination illuminance) in the environment on the input device side (hereinafter referred to as input environment). ) Is set.

ユーザは、入力デバイスの種類を設定するリストボックス415を操作して、リストから該当するデバイスの種類を選択し設定する。   The user operates the list box 415 for setting the type of input device, and selects and sets the corresponding device type from the list.

ユーザは、出力デバイスの白色点を示す情報の設定領域の「ファイル設定」ボタン411を押して、図示しないファイル選択ダイアログを操作して、出力デバイスの白色点情報が記述されたファイルを選択する。ファイルが選択されると、テキストボックス408〜410にはそれぞれCIEXYZ値のX値、Y値、Z値が表示される。なお、テキストボックス408〜410にXYZ値を直接入力してもよい。   The user presses a “file setting” button 411 in the information setting area indicating the white point of the output device and operates a file selection dialog (not shown) to select a file in which the white point information of the output device is described. When a file is selected, X, Y, and Z values of CIEXYZ values are displayed in text boxes 408 to 410, respectively. Note that the XYZ values may be directly input in the text boxes 408 to 410.

ユーザは、出力デバイス情報の設定領域の「ファイル設定」ボタン412を押して、図示しないファイル選択ダイアログを操作して、出力デバイスの色再現特性が記述されたファイルを設定する。また、テキストボックス413と414に数値を入力するか、スピンボタンをクリックして出力デバイス側の環境(以下、出力環境)の環境光の色温度(照明色温度)および環境光の照度(照明照度)を設定する。   The user presses a “file setting” button 412 in the output device information setting area, operates a file selection dialog (not shown), and sets a file describing the color reproduction characteristics of the output device. Also, enter numerical values in the text boxes 413 and 414, or click the spin button to select the ambient light color temperature (illumination color temperature) and ambient light illumination (illuminance illumination) ) Is set.

ユーザは、出力デバイスの種類を設定するリストボックス416を操作して、リストから該当するデバイスの種類を選択し設定する。   The user operates the list box 416 for setting the output device type, and selects and sets the corresponding device type from the list.

上記の設定が終了すると、ユーザは「処理実行」ボタン417を押す。CPU 101は、「処理実行」ボタン417が押されるとプロファイルの作成を開始する。また、「終了」ボタン418は、画像処理APの終了をCPU 101に指示するボタンである。   When the above setting is completed, the user presses a “process execution” button 417. When the “execute processing” button 417 is pressed, the CPU 101 starts creating a profile. An “end” button 418 is a button for instructing the CPU 101 to end the image processing AP.

ユーザが図3に示すUIの「処理実行」ボタン417を押すと、CPU 101は、UIに設定された入力デバイスの白色点を示すXYZ値を取得し(S202)、UIに設定された出力デバイスの白色点を示すXYZ値を取得する(S203)。そして、UIに設定された入力環境の照明色温度と照明照度(以下、入力観察条件)を取得し(S204)、UIに設定された出力環境の照明色温度と照明照度(以下、出力観察条件)を取得する(S205)。これら情報はしてRAM 102の所定領域に格納される。   When the user presses the “execute processing” button 417 of the UI shown in FIG. 3, the CPU 101 acquires an XYZ value indicating the white point of the input device set in the UI (S202), and the output device set in the UI An XYZ value indicating the white point of is acquired (S203). Then, the illumination color temperature and illumination illuminance (hereinafter referred to as input observation condition) of the input environment set in the UI are acquired (S204), and the illumination color temperature and illumination illumination (hereinafter referred to as output observation condition) of the output environment set in the UI are acquired. ) Is acquired (S205). These pieces of information are then stored in a predetermined area of the RAM 102.

次に、CPU 101は、UIに設定された入力デバイスの色再現特性が記述されたファイルから色再現情報を取得し(S206)、UIに設定された出力デバイスの色再現特性が記述されたファイルから色再現情報を取得する(S207)。これら情報はRAM 102の所定領域に格納される。   Next, the CPU 101 acquires color reproduction information from a file describing the color reproduction characteristics of the input device set in the UI (S206), and a file describing the color reproduction characteristics of the output device set in the UI. Color reproduction information is acquired from (S207). These pieces of information are stored in a predetermined area of the RAM 102.

図4Aは色再現情報を説明する図、図4Bは色再現情報のデータ構造例を説明する図である。色再現情報は、図4Aに示すように、デバイスのRGB色空間を格子に区切った各格子点の色座標値(R, G, B)と、対応するXYZ値の関係を記述する。図4Bに示すように、色再現情報の先頭にはR、G、B値のステップが記述され、その後に、各格子点のXYZ値が、R、G、Bの順にネストして記述されている。   FIG. 4A is a diagram for explaining color reproduction information, and FIG. 4B is a diagram for explaining an example of the data structure of color reproduction information. As shown in FIG. 4A, the color reproduction information describes the relationship between the color coordinate values (R, G, B) of each grid point obtained by dividing the RGB color space of the device into grids and the corresponding XYZ values. As shown in Fig. 4B, the R, G, and B value steps are described at the beginning of the color reproduction information, and then the XYZ values of each grid point are described in a nested manner in the order of R, G, and B. Yes.

次に、CPU 101は、UIに設定された入出力デバイスの種類を示す情報を取得し(S208)、入出力デバイスの組み合わせから順応白色点の算出方法を選択する(S209)。そして、選択した算出方法を使用して入出力デバイスそれぞれの順応白色点を計算する(S210)。   Next, the CPU 101 acquires information indicating the type of input / output device set in the UI (S208), and selects an adaptive white point calculation method from the combination of input / output devices (S209). Then, the adaptive white point of each input / output device is calculated using the selected calculation method (S210).

次に、CPU 101は、入力デバイスの白色点、入力観察条件、入力デバイスの順応白色点に基づき、入力デバイスの色再現情報(XYZ値)を均等色空間のJab値に変換する(S211)。同様に、出力デバイスの白色点、出力観察条件、出力デバイスの順応白色点に基づき、出力デバイスの色再現情報(XYZ値)を均等色空間のJab値に変換する(S212)。これらの変換には、カラーアピアランスモデル(例えばCIECAM02)の順変換を用いる。   Next, the CPU 101 converts the color reproduction information (XYZ value) of the input device into a Jab value in the uniform color space based on the white point of the input device, the input observation condition, and the adaptive white point of the input device (S211). Similarly, based on the white point of the output device, the output observation condition, and the adaptive white point of the output device, the color reproduction information (XYZ value) of the output device is converted into a Jab value in the uniform color space (S212). For these conversions, forward conversion of a color appearance model (for example, CIECAM02) is used.

次に、CPU 101は、詳細は後述するが、色処理用のプロファイルを作成し、HDD 105の所定領域に格納する(S213)。   Next, as will be described in detail later, the CPU 101 creates a color processing profile and stores it in a predetermined area of the HDD 105 (S213).

図4Cはプロファイルのデータ構造例を説明する図である。つまり、プロファイルは、入力デバイスのRGB色空間の格子点の色座標(R, G, B)と、対応する出力デバイスのRGB値の関係を記述したものである。色処理装置100は、このようなプロファイルに基づき入力デバイスの画像データを色処理して出力デバイスに出力することで、入出力デバイス間の適切なカラーマッチングを行う。   FIG. 4C is a diagram for explaining an example of the data structure of a profile. That is, the profile describes the relationship between the color coordinates (R, G, B) of the grid points in the RGB color space of the input device and the RGB values of the corresponding output device. The color processing apparatus 100 performs appropriate color matching between the input and output devices by performing color processing on the image data of the input device based on such a profile and outputting the processed image data to the output device.

●プロファイル作成時の状態遷移
図5はプロファイル作成時の画像処理APの動作を説明する状態遷移図である。
State Transition at Profile Creation FIG. 5 is a state transition diagram for explaining the operation of the image processing AP at the time of profile creation.

まず、RAM 102の所定領域を確保し、初期値をRAM 102に書き込み、UIを表示するなどの初期化を行い(S501)、ユーザ操作待ち(S502)状態になる。   First, a predetermined area in the RAM 102 is secured, an initial value is written in the RAM 102, and a UI is displayed (S501), and a user operation wait state (S502) is entered.

テキストボックス401〜403が操作されるか「ファイル設定」ボタン404が押されると、入力白色情報設定(S503)へ移行する。「ファイル設定」ボタン405が押されると、入力色再現情報設定(S504)へ移行する。テキストボックス406、407(スピンボタンを含む)が操作されると、入力環境情報設定(S505)へ移行する。リストボックス415が操作されると、入力デバイス種類設定(S506)へ移行する。   When the text boxes 401 to 403 are operated or the “file setting” button 404 is pressed, the process proceeds to input white information setting (S503). When the “file setting” button 405 is pressed, the process proceeds to input color reproduction information setting (S504). When text boxes 406 and 407 (including spin buttons) are operated, the process proceeds to input environment information setting (S505). When the list box 415 is operated, the process proceeds to input device type setting (S506).

また、テキストボックス408〜410が操作されるか「ファイル設定」ボタン411が押されると、出力白色情報設定(S507)へ移行する。「ファイル設定」ボタン412が押されると、出力色再現情報設定(S508)へ移行する。テキストボックス413、414(スピンボタンを含む)が操作されると、出力環境情報設定(S509)へ移行する。リストボックス416が操作されると、出力デバイス種類設定(S510)へ移行する。   When the text boxes 408 to 410 are operated or the “file setting” button 411 is pressed, the process proceeds to output white color information setting (S507). When the “file setting” button 412 is pressed, the process proceeds to output color reproduction information setting (S508). When text boxes 413 and 414 (including spin buttons) are operated, the process proceeds to output environment information setting (S509). When the list box 416 is operated, the process proceeds to output device type setting (S510).

また「処理実行」ボタン417が押されると、プロファイル作成(S511)へ移行し、「終了」ボタン418が押されると終了処理(S512)へ移行して処理を終了する。なお、ステートS503〜S511へ移行した場合は、ユーザの操作後、ユーザ操作待ち(S502)状態に復帰する。   When the “execute process” button 417 is pressed, the process proceeds to profile creation (S511), and when the “end” button 418 is pressed, the process proceeds to end process (S512) to end the process. In the case of transition to the states S503 to S511, after the user's operation, the state returns to the user operation waiting (S502) state.

●順応白色点の算出
図6は順応白色点の算出方法の選択(S209)を説明するフローチャートである。
Calculation of Adapted White Point FIG. 6 is a flowchart illustrating selection of an adaptive white point calculation method (S209).

CPU 101は、入出力デバイスの発色方式(RGB三原色の加法混色か、CMY三原色(さらにK版を加えた)の減法混色か)を判定し(S603)、発色方式が異なる場合は後述する第一の算出方法を選択する(S604)。   The CPU 101 determines the color generation method of the input / output device (additional color mixture of RGB three primary colors or subtractive color mixture of CMY three primary colors (plus K version)) (S603). The calculation method is selected (S604).

発色方式が同一の場合、CPU 101は、入力デバイスの輝度レンジRYsrcと出力デバイスの輝度レンジRYdstを比較する(S605)。そして、入力デバイスの輝度レンジが出力デバイスの輝度レンジ以下(RYsrc≦RYdst)ならば後述する第二の算出方法を選択する(S606)。また、RYsrc>RYdstならば後述する第三の算出方法を選択する(S607)。   When the coloring methods are the same, the CPU 101 compares the luminance range RYsrc of the input device with the luminance range RYdst of the output device (S605). If the luminance range of the input device is equal to or smaller than the luminance range of the output device (RYsrc ≦ RYdst), a second calculation method described later is selected (S606). If RYsrc> RYdst, a third calculation method described later is selected (S607).

なお、デバイスの輝度レンジとは、デバイスが再現できる輝度の範囲を示す情報であり、デバイスの白色点の輝度値に相当する。
第一の算出方法
The device luminance range is information indicating the luminance range that can be reproduced by the device, and corresponds to the luminance value of the white point of the device.
First calculation method

発色方式が異なる場合、入力デバイスの白色点の輝度情報Ysrcと出力デバイスの白色点の輝度情報Ydstを比較する。そして、入力デバイスの白色点の輝度情報が出力デバイスの白色点の輝度情報以下(Ysrc>Ydst)の場合は式(2)(3)より、入力デバイスの白色点Xsrcw Ysrcw Zsrcw、物体色の白色点Xdstw Ydstw Zdstwを計算する。つまり、入力デバイスの白色点は入力デバイスの白色点そのままにし、出力デバイスの白色点として部分順応を考慮した白色点(部分順応白色点)を計算する。
┌ ┐ ┌ ┐
│Xsrcw│ │Xsrc│
│Ysrcw│=│Ysrc│ …(2)
│Zsrcw│ │Zsrc│
└ ┘ └ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xdstw│ │Xdst│ │Xsrc│
│Ydstw│= k│Ydst│+ (1-k)│Ysrc│ …(3)
│Zdstw│ │Zdst│ │Zsrc│
└ ┘ └ ┘ └ ┘
ここで、k = (Ysrc/Ydst)1/3
ここで、XsrcYsrcZsrcは入力デバイスの白色点
XdstYdstZdstは出力デバイスの白色点
When the coloring methods are different, the luminance information Ysrc of the white point of the input device is compared with the luminance information Ydst of the white point of the output device. If the luminance information of the white point of the input device is less than or equal to the luminance information of the white point of the output device (Ysrc> Ydst), the white point Xsrcw Ysrcw Zsrcw of the input device, the white of the object color, from Equation (2) (3) Calculate the point Xdstw Ydstw Zdstw. That is, the white point of the input device is left as it is, and the white point (partially adapted white point) considering partial adaptation is calculated as the white point of the output device.
┌ ┐ ┌ ┐
│Xsrcw│ │Xsrc│
│Ysrcw│ = │Ysrc│… (2)
│Zsrcw│ │Zsrc│
└ ┘ └ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xdstw│ │Xdst│ │Xsrc│
│Ydstw│ = k│Ydst│ + (1-k) │Ysrc│… (3)
│Zdstw│ │Zdst│ │Zsrc│
└ ┘ └ ┘ └ ┘
Where k = (Ysrc / Ydst) 1/3
Where XsrcYsrcZsrc is the white point of the input device
XdstYdstZdst is the white point of the output device

また、Ysrc≦Ydstの場合は式(4)(5)より、入力デバイスの白色点Xsrcw Ysrcw Zsrcw、物体色の順応白色点Xdstw Ydstw Zdstwを計算する。つまり、出力デバイスの白色点は出力デバイスの白色点そのままにし、入力デバイスの白色点として部分順応白色点を計算する。
┌ ┐ ┌ ┐ ┌ ┐
│Xsrcw│ │Xdst│ │Xsrc│
│Ysrcw│= (1-k)│Ydst│+ k│Ysrc│ …(4)
│Zsrcw│ │Zdst│ │Zsrc│
└ ┘ └ ┘ └ ┘
┌ ┐ ┌ ┐
│Xdstw│ │Xdst│
│Ydstw│=│Ydst│ …(5)
│Zdstw│ │Zdst│
└ ┘ └ ┘
When Ysrc ≦ Ydst, the white point Xsrcw Ysrcw Zsrcw of the input device and the adaptive white point Xdstw Ydstw Zdstw of the input device are calculated from the equations (4) and (5). That is, the white point of the output device is left as it is, and the partially adapted white point is calculated as the white point of the input device.
┌ ┐ ┌ ┐ ┌ ┐
│Xsrcw│ │Xdst│ │Xsrc│
│Ysrcw│ = (1-k) │Ydst│ + k│Ysrc│… (4)
│Zsrcw│ │Zdst│ │Zsrc│
└ ┘ └ ┘ └ ┘
┌ ┐ ┌ ┐
│Xdstw│ │Xdst│
│Ydstw│ = │Ydst│… (5)
│Zdstw│ │Zdst│
└ ┘ └ ┘

そして、式(6)(7)により、最終的な、入力デバイスの順応白色点Xsrcw Ysrcw Zsrcw、物体色の順応白色点Xdstw Ydstw Zdstwを計算する。
┌ ┐ ┌ ┐
│Xsrcw│ │Xsrcw│
│Ysrcw│= Ysrc/Ysrcw│Ysrcw│ …(6)
│Zsrcw│ │Zsrcw│
└ ┘ └ ┘
┌ ┐ ┌ ┐
│Xdstw│ │Xdstw│
│Ydstw│= Ydst/Ydstw│Ydstw│ …(7)
│Zdstw│ │Zdstw│
└ ┘ └ ┘
第二の算出方法
Then, the final adaptive white point Xsrcw Ysrcw Zsrcw of the input device and the adaptive white point Xdstw Ydstw Zdstw of the object color are calculated by the equations (6) and (7).
┌ ┐ ┌ ┐
│Xsrcw│ │Xsrcw│
│Ysrcw│ = Ysrc / Ysrcw│Ysrcw│… (6)
│Zsrcw│ │Zsrcw│
└ ┘ └ ┘
┌ ┐ ┌ ┐
│Xdstw│ │Xdstw│
│Ydstw│ = Ydst / Ydstw│Ydstw│… (7)
│Zdstw│ │Zdstw│
└ ┘ └ ┘
Second calculation method

発色方式が同じ、RYsrc≦RYdstの場合は、式(4)(5)によって、最終的な、入力デバイスの順応白色点Xsrcw Ysrcw Zsrcw、物体色の順応白色点Xdstw Ydstw Zdstwを計算する。つまり、出力デバイスの白色点は出力デバイスの白色点そのままにし、入力デバイスの白色点として部分順応白色点を計算する。
第三の算出方法
When the coloring method is the same and RYsrc ≦ RYdst, the final white point Xsrcw Ysrcw Zsrcw of the input device and the white point Xdstw Ydstw Zdstw of the object color are calculated according to the equations (4) and (5). That is, the white point of the output device is left as it is, and the partially adapted white point is calculated as the white point of the input device.
Third calculation method

発色方式が同じ、RYsrc>RYdstの場合は、式(8)(9)によって、入力デバイスの順応白色点Xsrcw Ysrcw Zsrcw、物体色の順応白色点Xdstw Ydstw Zdstwを計算する。つまり、部分順応を考慮しない。
┌ ┐ ┌ ┐
│Xsrcw│ │Xsrc│
│Ysrcw│=│Ysrc│ …(8)
│Zsrcw│ │Zsrc│
└ ┘ └ ┘
┌ ┐ ┌ ┐
│Xdstw│ │Xdst│
│Ydstw│=│Ydst│ …(9)
│Zdstw│ │Zdst│
└ ┘ └ ┘
When the coloring method is the same and RYsrc> RYdst, the adaptive white point Xsrcw Ysrcw Zsrcw of the input device and the adaptive white point Xdstw Ydstw Zdstw of the input color are calculated by the equations (8) and (9). In other words, partial adaptation is not considered.
┌ ┐ ┌ ┐
│Xsrcw│ │Xsrc│
│Ysrcw│ = │Ysrc│… (8)
│Zsrcw│ │Zsrc│
└ ┘ └ ┘
┌ ┐ ┌ ┐
│Xdstw│ │Xdst│
│Ydstw│ = │Ydst│… (9)
│Zdstw│ │Zdst│
└ ┘ └ ┘

●プロファイルの作成
図7は色処理用のプロファイルの作成処理(S213)を示すフローチャートである。
Profile Creation FIG. 7 is a flowchart showing color processing profile creation processing (S213).

まず、CPU 101は、カウンタi (0≦i≦M)、j (0≦j≦M)、k (0≦k≦M)を0に初期化し(S1003)、RGB格子点(i, j, k)に対応する入力デバイスの色再現情報をjabsrc値を取得する(S1004)。そして、出力デバイスの色再現情報(Jab値)を参照して、jabsrc値が出力デバイスの色域に含まれるか否かの内外判定を行う(S1005)。なお、定数Mは入力デバイスのRGB各格子点の数を表す。言い換えれば、入力デバイスのRGB格子はM×M×M格子である。 First, the CPU 101 initializes counters i (0 ≦ i ≦ M), j (0 ≦ j ≦ M), k (0 ≦ k ≦ M) to 0 (S1003), and RGB grid points (i, j, The jab src value of the color reproduction information of the input device corresponding to k) is acquired (S1004). Then, referring to the color reproduction information (Jab value) of the output device, it is determined whether or not the jab src value is included in the color gamut of the output device (S1005). The constant M represents the number of RGB grid points of the input device. In other words, the RGB lattice of the input device is an M × M × M lattice.

jabsrc値が出力デバイスの色域に含まれる場合、CPU 101は、四面体補間などの補間処理を用いて、出力デバイスの色再現情報(Jab値)からjabsrc値に対応する出力デバイスのRGB値を計算する(S1006)。なお、計算結果はRAM 102の所定領域に格納する。 When the jab src value is included in the color gamut of the output device, the CPU 101 uses the interpolation process such as tetrahedral interpolation to calculate the RGB of the output device corresponding to the jab src value from the color reproduction information (Jab value) of the output device. The value is calculated (S1006). The calculation result is stored in a predetermined area of the RAM 102.

また、jabsrc値が出力デバイスの色域に含まれない場合、CPU 101は、後述する方法により、jabsrc値を出力デバイスの色域の境界面にクリッピングしたjabdst値を計算する(S1007)。そして、四面体補間などの補間処理を用いて、出力デバイスの色再現情報(Jab値)からjabdst値に対応する出力デバイスのRGB値を計算し、RAM 102の所定領域に格納する(S1008)。 If the jab src value is not included in the color gamut of the output device, the CPU 101 calculates a jab dst value obtained by clipping the jab src value on the boundary surface of the color gamut of the output device by a method described later (S1007). . Then, using an interpolation process such as tetrahedral interpolation, the RGB value of the output device corresponding to the jab dst value is calculated from the color reproduction information (Jab value) of the output device, and stored in a predetermined area of the RAM 102 (S1008). .

次に、CPU 101は、カウンタiをインクリメントし(S1009)、iとMを比較して(S1010)、i<Mならば処理をステップS1004に戻す。また、i=Mならばカウンタiを0にリセットし、カウンタjをインクリメントする(S1011)。そして、jとMを比較して(S1012)、j<Mならば処理をステップS1004に戻す。また、j=Mならばカウンタjを0にリセットし、カウンタkをインクリメントする(S1013)。そして、kとMを比較して(S1014)、k<Mならば処理をステップS1004に戻し、k=Mならば処理を終了する。   Next, the CPU 101 increments the counter i (S1009), compares i with M (S1010), and if i <M, returns the process to step S1004. If i = M, the counter i is reset to 0 and the counter j is incremented (S1011). Then, j and M are compared (S1012), and if j <M, the process returns to step S1004. If j = M, the counter j is reset to 0 and the counter k is incremented (S1013). Then, k and M are compared (S1014). If k <M, the process returns to step S1004, and if k = M, the process ends.

●クリッピング
図8はクリッピング処理(S1007)を説明するフローチャートである。
Clipping FIG. 8 is a flowchart for explaining the clipping process (S1007).

CPU 101は、jabsrc値とグレイスケール軸上の収束点(焦点、例えばJab=(50, 0, 0))を結ぶ直線Lnを計算する(S1101)。 The CPU 101 calculates a straight line Ln connecting the jab src value and the convergence point on the gray scale axis (focal point, for example, Jab = (50, 0, 0)) (S1101).

次に、CPU 101は、カウンタColを1に初期化(S1102)、カウンタp (0≦p≦N)、q (0≦p≦N)を0に初期化する(S1103)。なお、定数Nは出力デバイスのRGB各格子点の数を表す。言い換えれば、出力デバイスのRGB格子はN×N×N格子である。   Next, the CPU 101 initializes the counter Col to 1 (S1102), and initializes the counters p (0 ≦ p ≦ N) and q (0 ≦ p ≦ N) to 0 (S1103). The constant N represents the number of RGB grid points of the output device. In other words, the RGB lattice of the output device is an N × N × N lattice.

次に、CPU 101は、カウンタColに対応するRGB格子面(Col=1の場合はR=0面)において、RGB格子点(0, p, q)(0, p+1, q)(0, p, q+1)のJab値が載る平面Hnを計算する(S1104)。そして、平面Hnと直線Lnとの交点Pnを算出し(S1105)、交点Pnが、上記三点を頂点とする三角形内にあるか否かを判定する(S1106)。   Next, the CPU 101 sets the RGB grid point (0, p, q) (0, p + 1, q) (0, p) on the RGB grid plane corresponding to the counter Col (R = 0 plane when Col = 1). , q + 1), the plane Hn on which the Jab value is placed is calculated (S1104). Then, an intersection point Pn between the plane Hn and the straight line Ln is calculated (S1105), and it is determined whether or not the intersection point Pn is within a triangle having the three points as vertices (S1106).

交点Pnが当該三角形内に存在する場合、CPU 101は、交点PnのJab値(jabsrc値のクリッピング値)を計算し(S1107)、処理を終了する。 When the intersection point Pn exists in the triangle, the CPU 101 calculates the Jab value (the clipping value of the jab src value) of the intersection point Pn (S1107), and ends the process.

また、交点Pnが当該三角形内に存在しない場合、CPU 101は、カウンタColに対応するRGB格子面で、RGB格子点(0, p+1, q+1)(0, p+1, q)(0, p, q+1)のJab値が載る平面Hnを計算する(S1108)。そして、平面Hnと直線Lnとの交点Pnを算出し(S1109)、交点Pnが、上記三点を頂点とする三角形内にあるか否かを判定する(S1110)。   When the intersection point Pn does not exist within the triangle, the CPU 101 determines that the RGB grid point (0, p + 1, q + 1) (0, p + 1, q) (0) is the RGB grid plane corresponding to the counter Col. , p, q + 1), the plane Hn on which the Jab value is placed is calculated (S1108). Then, an intersection point Pn between the plane Hn and the straight line Ln is calculated (S1109), and it is determined whether or not the intersection point Pn is within a triangle having the three points as vertices (S1110).

交点Pnが当該三角形内に存在する場合、CPU 101は、交点PnのJab値、つまりjabdst値を三頂点のJab値から補間演算し(S1107)、処理を終了する。 If the intersection point Pn exists in the triangle, the CPU 101 interpolates the Jab value of the intersection point Pn, that is, the jab dst value from the Jab values at the three vertices (S1107), and ends the process.

また、交点Pnが当該三角形内に存在しない場合、CPU 101は、カウンタqとNを比較して(S1111)、q<Nならばカウンタqをインクリメントして(S1112)、処理をステップS1104に戻す。また、q=Nならば、カウンタpとNを比較して(S1113)、p<Nならばカウンタqを0にリセットし、カウンタpをインクリメントし(S1114)、処理をステップS1104に戻す。また、p=NならばカウンタColと「6」を比較して(S1115)、Col<5ならばカウンタColをインクリメントして(S1116)、処理をステップS1103に戻す。   If the intersection Pn does not exist within the triangle, the CPU 101 compares the counters q and N (S1111), and if q <N, the counter q is incremented (S1112), and the process returns to step S1104. . If q = N, the counters p and N are compared (S1113). If p <N, the counter q is reset to 0, the counter p is incremented (S1114), and the process returns to step S1104. If p = N, the counter Col is compared with “6” (S1115), and if Col <5, the counter Col is incremented (S1116), and the process returns to step S1103.

カウンタCol=1の場合はRGB格子のR=0面において交点Pnを探索する処理を行うが、Col=2の場合はG=0面において交点Pnを探索する処理を行う。以下同様に、Col=3はB=0面、Col=4はR=255面、Col=5はG=255面、Col=6はB=255面である。なお、通常、Col=6までに交点Pnが探索されるが、もし、交点Pnが探索されずにCol=6になった場合は異常終了を示す警報を発して(S1117)、処理を終了する。   When the counter Col = 1, the process of searching for the intersection point Pn is performed on the R = 0 plane of the RGB grid, but when Col = 2, the process of searching for the intersection point Pn is performed on the G = 0 plane. Similarly, Col = 3 is B = 0 plane, Col = 4 is R = 255 plane, Col = 5 is G = 255 plane, Col = 6 is B = 255 plane. Normally, the intersection point Pn is searched by Col = 6, but if the intersection point Pn is not searched and becomes Col = 6, an alarm indicating abnormal termination is issued (S1117) and the process is terminated. .

●内外判定
出力デバイスの色域は、N×N×NのRGB格子はN3点のデータ、すなわち(N-1)3個の六面体によって表される。従って、jabsrc値が(N-1)3個の六面体の何れかに含まれれば、その格子点データは出力デバイスの色域内にあると判定することができる。そこで、jabsrc値が六面体に含まれるか否かを判定することになるが、図9に示すように、六面体をさらに六つの四面体に分割し、それぞれの四面体について内外判定を行うことで、jabsrc値が六面体に含まれるか否かを判定する。
● Inside / outside judgment The color gamut of the output device is represented by N 3 points of data, that is, (N-1) 3 hexahedrons in an N × N × N RGB grid. Therefore, if the jab src value is included in any of (N-1) three hexahedrons, it can be determined that the lattice point data is within the color gamut of the output device. Therefore, it is determined whether or not the jab src value is included in the hexahedron, but as shown in FIG. 9, the hexahedron is further divided into six tetrahedrons, and the inside / outside determination is performed for each tetrahedron. , Jab src value is determined whether or not included in the hexahedron.

図10は四面体の内外判定を説明する図で、四面体の各頂点をA、B、C、Dとし、格子点データをPとし、例えばA点からB点へ向かうベクトルを↑ABで表すと、式(10)がなり立つ。
↑AP=s↑AB+ t↑AC+ u↑AD …(10)
FIG. 10 is a diagram for explaining inside / outside determination of a tetrahedron, where each vertex of the tetrahedron is A, B, C, D, lattice point data is P, for example, a vector from A point to B point is represented by ↑ AB Then, equation (10) holds.
↑ AP = s ↑ AB + t ↑ AC + u ↑ AD… (10)

このとき、点Pが四面体ABCDに含まれれば式(11)および(12)がなり立つ。
s+ t+ u≦1 …(11)
s≧0, t≧0, u≧0 …(12)
At this time, if the point P is included in the tetrahedron ABCD, equations (11) and (12) hold.
s + t + u ≦ 1… (11)
s≥0, t≥0, u≥0 (12)

点Pは、式(11)および(12)がなり立てば四面体の中、なり立たなければ四面体の外と判定することができる。   The point P can be determined to be inside the tetrahedron if the equations (11) and (12) are established, and outside the tetrahedron if not.

以上の四面体の内外判定を六個の四面体について行うことで、jabsrc値について六面体の内外判定を行うことができる。さらに、この六面体の内外判定を(N-1)3個の六面体について実行することで、jabsrc値についての色域の内外判定が完了する。 By performing the above tetrahedral inside / outside determination for six tetrahedrons, the hexahedron inside / outside determination can be performed for the jab src value. Furthermore, the inside / outside determination of the color gamut for the jab src value is completed by executing this hexahedron inside / outside determination on (N-1) three hexahedrons.

このように、カラーマッチング対象のデバイスの組み合わせに応じて均等色空間への色値の変換に用いるパラメータ(順応白色点)の算出方法を変更する。これにより、デバイスの組み合わせに応じて適切なパラメータを算出することができる。その結果、均等色空間に変換した色値と見た目の色を一致させて、高精度なカラーマッチングを行うことができる。   In this way, the calculation method of the parameter (adapted white point) used for the conversion of the color value to the uniform color space is changed according to the combination of devices to be color matched. Thereby, an appropriate parameter can be calculated according to the combination of devices. As a result, the color value converted into the uniform color space and the apparent color can be matched to perform high-precision color matching.

[変形例]
上記の実施例において、測色的色再現(colorimetric)を行う色処理のプロファイルの作成処理を説明した。しかし、測色的色再現に限らず、鮮やかさ優先(saturation)、知覚的(perceptual)など任意の色再現を行う色処理のプロファイルを作成することが可能である。
[Modification]
In the above embodiment, the process of creating a color processing profile for performing colorimetric color reproduction (colorimetric) has been described. However, it is possible to create a color processing profile for performing arbitrary color reproduction such as vividness priority (saturation) and perceptual (not just colorimetric color reproduction).

さらに、上記の実施例において、色域外のjabsrcを収束点に向かって色域境界にクリッピングする例を説明したが、色域境界面の色差最小点へマッピングしたり、色域内にマッピング(圧縮)してもよい。 Furthermore, in the above embodiment, the example in which the out-of-gamut jab src is clipped to the color gamut boundary toward the convergence point has been described. However, mapping to the minimum color difference on the color gamut boundary surface or mapping (compression) within the color gamut )

上記の実施例において、均等色空間としてJab色空間を用いていたが、JCh、Lab、LCh、Luvなどの他の均等色空間を用いてもよい。   In the above embodiment, the Jab color space is used as the uniform color space. However, other uniform color spaces such as JCh, Lab, LCh, and Luv may be used.

また、上記の実施例では、入力デバイスの色データを出力デバイスの色データに変換するプロファイルを作成する色処理装置について説明した。しかし、入力デバイスの色データを均等色空間値に変換する入力プロファイルと、均等色空間値を出力デバイスの色データに変換する出力プロファイルとを独立に作成する場合に、本発明を使用しても構わない。   In the above-described embodiment, the color processing apparatus that creates the profile for converting the color data of the input device into the color data of the output device has been described. However, the present invention can be used when an input profile for converting color data of an input device into a uniform color space value and an output profile for converting the uniform color space value into color data of an output device are created independently. I do not care.

上記の実施例では、プロファイル作成を行う色処理装置について説明した。しかし、入力デバイスに依存した入力色データを出力デバイスに依存した出力色データに変換するカラーマッチング処理にも本発明を適用することが可能である。この場合は、入力デバイスに依存した入力色データをXYZのようなデバイス非依存の色データに変換する。次に、ステップS211と同様に、入力デバイスの白色点、入力観察条件、入力デバイスの順応白色点を用いて、カラーアピアランスモデルの順変換に応じた変換を行う。そして、出力デバイスの白色点、出力観察条件、出力デバイスの順応白色点を用いて、カラーアピアランスモデルの逆変換に応じた変換を行う。最後に、変換された色データをデバイス依存の色データに変換する処理を行う。   In the above-described embodiment, the color processing apparatus that creates a profile has been described. However, the present invention can also be applied to color matching processing for converting input color data depending on an input device into output color data depending on an output device. In this case, input color data depending on the input device is converted into device-independent color data such as XYZ. Next, similarly to step S211, conversion according to the forward conversion of the color appearance model is performed using the white point of the input device, the input observation condition, and the adaptive white point of the input device. Then, using the white point of the output device, the output observation condition, and the adaptive white point of the output device, conversion according to the inverse transformation of the color appearance model is performed. Finally, a process of converting the converted color data into device-dependent color data is performed.

なお、入力デバイスの順応白色点および出力デバイスの順応白色点については、図6に示した方法を用いて算出する。   Note that the adaptive white point of the input device and the adaptive white point of the output device are calculated using the method shown in FIG.

[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), but an apparatus (for example, a copier, a facsimile machine, a control device) including a single device. Etc.).

また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記憶媒体をシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記憶媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記憶媒体は本発明を構成する。   Another object of the present invention is to supply a storage medium storing a computer program for realizing the functions of the above embodiments to a system or apparatus, and the computer (CPU or MPU) of the system or apparatus executes the computer program. But it is achieved. In this case, the software read from the storage medium itself realizes the functions of the above embodiments, and the computer program and the computer-readable storage medium storing the computer program constitute the present invention. .

また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一、第二、第三、…のプログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   Further, the above functions are not only realized by the execution of the computer program. That is, according to the instruction of the computer program, the operating system (OS) running on the computer and / or the first, second, third,... This includes cases where functions are realized.

また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一、第二、第三、…のデバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   The computer program may be written in a memory of a device such as a function expansion card or unit connected to the computer. That is, the case where the CPU or the like of the first, second, third,... Device performs part or all of the actual processing according to the instruction of the computer program, thereby realizing the above functions.

本発明を前記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。   When the present invention is applied to the storage medium, the storage medium stores a computer program corresponding to or related to the flowchart described above.

実施例の色処理装置の構成例を示すブロック図、A block diagram showing a configuration example of a color processing apparatus of an embodiment, 色処理用のプロファイル作成処理を示すフローチャート、A flowchart showing a profile creation process for color processing; UIの一例を示す図、Figure showing an example of UI, 色再現情報を説明する図、A diagram explaining color reproduction information, 色再現情報のデータ構造例を説明する図、The figure explaining the data structure example of color reproduction information, プロファイルのデータ構造例を説明する図、The figure explaining the data structure example of the profile, プロファイル作成時の画像処理APの動作を説明する状態遷移図、State transition diagram explaining the operation of the image processing AP when creating a profile, 順応白色点の算出方法の選択を説明するフローチャート、A flowchart illustrating selection of a method for calculating an adaptive white point; 色処理用のプロファイルの作成処理を示すフローチャート、A flowchart showing a process for creating a color processing profile; クリッピング処理を説明するフローチャート、A flowchart illustrating clipping processing; 内外判定における六面体の分割を説明する図、The figure explaining the division of the hexahedron in the inside / outside determination, 四面体の内外判定を説明する図である。It is a figure explaining the inside / outside determination of a tetrahedron.

Claims (10)

入力および出力デバイスそれぞれの白色点、色再現特性およびデバイスの種類、並びに、入力および出力デバイス側それぞれの観察条件を入力する入力手段と、
前記入力および出力デバイスの白色点および種類に基づく算出方法により、順応白色点を計算する計算手段と、
前記白色点、前記順応白色点および前記観察条件に基づき前記入力および出力デバイスの色再現特性を示す色値を均等色空間の色値に変換する変換手段と、
前記均等色空間の色値に基づき、前記入力デバイスの画像データを前記出力デバイスの画像データに色処理するプロファイルを作成する作成手段とを有することを特徴とする色処理装置。
Input means for inputting the white point of each of the input and output devices, the color reproduction characteristics and the device type, and the input and output device side observation conditions;
A calculation means for calculating an adaptive white point by a calculation method based on the white point and type of the input and output devices;
Conversion means for converting color values indicating color reproduction characteristics of the input and output devices into color values of a uniform color space based on the white point, the adaptive white point, and the viewing condition;
A color processing apparatus comprising: a creating unit that creates a profile for performing color processing on the image data of the input device to the image data of the output device based on the color value of the uniform color space.
前記計算手段は、前記入力および出力デバイスの発色方法が異なる場合、前記入力および出力デバイスの白色点の輝度情報に応じた前記順応白色点の算出方法を使用することを特徴とする請求項1に記載された色処理装置。   The calculation means uses the method for calculating the adaptive white point according to luminance information of the white point of the input and output devices when the coloring methods of the input and output devices are different. The described color processing apparatus. 前記計算手段は、前記入力デバイスの白色点の輝度情報が前記出力デバイスの白色点の輝度情報よりも大きい場合、前記出力デバイスの部分順応白色点を計算する算出方法を使用することを特徴とする請求項2に記載された色処理装置。   The calculation means uses a calculation method for calculating a partial adaptation white point of the output device when the luminance information of the white point of the input device is larger than the luminance information of the white point of the output device. The color processing apparatus according to claim 2. 前記計算手段は、前記入力デバイスの白色点の輝度情報が前記出力デバイスの白色点の輝度情報以下の場合、前記入力デバイスの部分順応白色点を計算する算出方法を使用することを特徴とする請求項2または請求項3に記載された色処理装置。   The calculation means uses a calculation method for calculating a partial adaptation white point of the input device when luminance information of the white point of the input device is equal to or less than luminance information of the white point of the output device. Item 4. The color processing device according to Item 2 or Item 3. 前記計算手段は、前記入力および出力デバイスの発色方法が同じ場合、前記入力および出力デバイスの輝度レンジに応じた前記順応白色点の算出方法を使用することを特徴とする請求項1から請求項4の何れか一項に記載された色処理装置。   The calculation means uses the method for calculating the adaptive white point according to the luminance range of the input and output devices when the color generation methods of the input and output devices are the same. A color processing apparatus according to any one of the above. 前記計算手段は、前記入力デバイスの輝度レンジが前記出力デバイスの輝度レンジ以下の場合、前記入力デバイスの部分順応白色点を計算する算出方法を使用することを特徴とする請求項5に記載された色処理装置。   6. The calculation unit according to claim 5, wherein the calculation unit uses a calculation method for calculating a partial adaptation white point of the input device when the luminance range of the input device is equal to or less than the luminance range of the output device. Color processing device. 前記計算手段は、前記入力デバイスの輝度レンジが前記出力デバイスの輝度レンジを超える場合、部分順応を考慮しない算出方法を使用することを特徴とする請求項5または請求項6に記載された色処理装置。   7. The color processing according to claim 5, wherein the calculation means uses a calculation method that does not consider partial adaptation when the luminance range of the input device exceeds the luminance range of the output device. apparatus. 入力および出力デバイスそれぞれの白色点、色再現特性およびデバイスの種類、並びに、入力および出力デバイス側それぞれの観察条件を入力し、
前記入力および出力デバイスの白色点および種類に基づく算出方法により、順応白色点を計算し、
前記白色点、前記順応白色点および前記観察条件に基づき前記入力および出力デバイスの色再現特性を示す色値を均等色空間の色値に変換することを特徴とする色処理方法。
Input the white point of each input and output device, color reproduction characteristics and device type, and the input and output device side observation conditions,
The adaptive white point is calculated by a calculation method based on the white point and type of the input and output devices,
A color processing method comprising: converting color values indicating color reproduction characteristics of the input and output devices into color values in a uniform color space based on the white point, the adaptive white point, and the viewing condition.
コンピュータ装置を制御して、請求項1から請求項7の何れか一項に記載された色処理装置の各手段として機能させることを特徴とするコンピュータプログラム。   8. A computer program for controlling a computer device to function as each unit of the color processing device according to claim 1. 請求項9に記載されたコンピュータプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記憶媒体。   10. A computer-readable storage medium on which the computer program according to claim 9 is recorded.
JP2007119616A 2007-04-27 2007-04-27 Color processing apparatus and method Expired - Fee Related JP4863498B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007119616A JP4863498B2 (en) 2007-04-27 2007-04-27 Color processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007119616A JP4863498B2 (en) 2007-04-27 2007-04-27 Color processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2008278214A true JP2008278214A (en) 2008-11-13
JP2008278214A5 JP2008278214A5 (en) 2010-06-17
JP4863498B2 JP4863498B2 (en) 2012-01-25

Family

ID=40055637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007119616A Expired - Fee Related JP4863498B2 (en) 2007-04-27 2007-04-27 Color processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4863498B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148108A (en) * 2008-12-16 2010-07-01 Konica Minolta Systems Lab Inc Systems and methods for color gamut mapping

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281338A (en) * 2001-12-26 2002-09-27 Canon Inc Image processor and image processing method
JP2006303984A (en) * 2005-04-21 2006-11-02 Fuji Photo Film Co Ltd Color conversion definition generating device, program, program storage medium, and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281338A (en) * 2001-12-26 2002-09-27 Canon Inc Image processor and image processing method
JP2006303984A (en) * 2005-04-21 2006-11-02 Fuji Photo Film Co Ltd Color conversion definition generating device, program, program storage medium, and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148108A (en) * 2008-12-16 2010-07-01 Konica Minolta Systems Lab Inc Systems and methods for color gamut mapping

Also Published As

Publication number Publication date
JP4863498B2 (en) 2012-01-25

Similar Documents

Publication Publication Date Title
JP4721398B2 (en) Color processing apparatus and method
JP5344518B2 (en) Image processing method and image processing apparatus
EP2965499B1 (en) Image processing apparatus, image processing system, and image processing method
JP2007274584A (en) Color processing method and device thereof
EP1968305B1 (en) Color processing apparatus and method thereof
JP2009071548A (en) Color processing device and method therefor
JP4579974B2 (en) Color processing apparatus and method
JP2008141237A (en) Color processing apparatus and its method
JP4863498B2 (en) Color processing apparatus and method
JP5709062B2 (en) Image processing device
JP4396479B2 (en) A correction processing method and an image processing apparatus in an image processing apparatus.
JP2017118404A (en) Image processing apparatus
JP5775338B2 (en) Color processing apparatus and method, and image processing apparatus
JP4321586B2 (en) Color conversion condition setting method for image forming apparatus, image forming apparatus, and program
JP6895791B2 (en) Color processing equipment, color processing method
JP2004200938A (en) Image processor and image processing method
JP5605041B2 (en) Image processing device
JP2011019030A (en) Conversion profile generation method and printer
JP2008042835A (en) Image processor, image processing method, program, and recording medium
JP5043512B2 (en) Color processing apparatus and method
JP6740729B2 (en) Data conversion device, data conversion method, and data conversion program
JP2001143065A (en) Image-processing method and recording medium
JP2017103616A (en) Image forming apparatus and program
JP5025446B2 (en) Color processing apparatus and method
JP2018074247A (en) Image forming apparatus and image forming program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees