JP3782244B2 - Color conversion coefficient determination device - Google Patents

Color conversion coefficient determination device Download PDF

Info

Publication number
JP3782244B2
JP3782244B2 JP31999498A JP31999498A JP3782244B2 JP 3782244 B2 JP3782244 B2 JP 3782244B2 JP 31999498 A JP31999498 A JP 31999498A JP 31999498 A JP31999498 A JP 31999498A JP 3782244 B2 JP3782244 B2 JP 3782244B2
Authority
JP
Japan
Prior art keywords
color
output device
conversion coefficient
image output
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31999498A
Other languages
Japanese (ja)
Other versions
JP2000134494A (en
Inventor
小松  学
博顕 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP31999498A priority Critical patent/JP3782244B2/en
Publication of JP2000134494A publication Critical patent/JP2000134494A/en
Application granted granted Critical
Publication of JP3782244B2 publication Critical patent/JP3782244B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力信号をカラー出力装置の制御信号に変換する色変換装置で使われる色変換係数を決定する色変換係数決定装置に関する。
【0002】
【従来の技術】
一般的に、カラー出力装置におけるデバイスインデペンデントなL* * * 信号からカラー出力装置の制御信号であるCMYK信号への変換は、マトリクス演算やルックアップ・テーブルの補間演算が用いられている。例えば、特開平5−22586号公報では、色変換関数を導出するのに、最初に線形変換、線形変換、次に高次の項の関数補正を学習するアルゴリズムにより段階的に行い、各段階では、ある一種の変換関数のパラメータが学習され、第1段階で得られた変換関数のパラメータは、それ以降変化させず、第2段階で得られた変換関数のパラメータは、それより後の段では変化させない各工程を有する装置からなる色変換システムが開示されている。
また、特開平8−102865号公報では、入力色座標値をカラー画像出力装置の色材座標値に変換するルックアップ・テーブルの格子点データを決定する方法において、ルックアップ・テーブルの格子点データを、色変換を行う装置における入力色座標とこれに対応する色材座標値の実測値を学習したニューラルネットワークにより決定する色変換係数決定方法が開示されている。
【0003】
【発明が解決しようとする課題】
上記のような高精度な色変換係数決定にニューラルネットワーク(誤差逆伝搬法)等を利用した技術では、カラー出力装置の制御信号CMYKの各色の変化に対して、測色値の変化が少ない領域(例えば、高濃度部)があり、実際、色変換係数を求める逆変換を実施した場合に、値が一意に定まり難く、階調の連続性等に問題がある。
また、カラー出力装置の色再現範囲外(近傍)の色、つまり未学習領域における信頼性にも問題があった。
そこで、本発明の第1の目的は、全色空間において、カラーマッチングし、かつ、連続性に優れたカラ−出力デバイス間の色変換を実現する色変換係数を決定する色変換係数決定装置を提供することである。
【0004】
本発明の第2の目的は、標準色空間におけるカラー出力デバイスの特性を詳細に把握することで、全色空間において、カラーマッチングし、かつ、連続性に優れたカラー出力デバイス間の色変換を実現する色変換係数を決定する色変換係数決定装置を提供することである。
本発明の第3の目的は、簡単な手法(短時間)で、全色空間において、カラーマッチングし、かつ、連続性に優れたカラー出力デバイス間の色変換を実現する色変換係数を決定する色変換係数決定装置を提供することである。
【0005】
【課題を解決するための手段】
請求項1記載の発明では、任意の入力色信号を、色変換係数の演算でカラ−画像出力デバイスの制御信号に変換し、前記色変換係数を、カラー画像出力デバイスの色材座標と測色値を学習した色予測モデルにより決定する色変換係数決定装置であって、少なくとも2種類のカラー画像出力デバイスの色材座標と測色値を学習した色予測モデルと、標準色空間座標に応じて、重み付けを変更した前記色予測モデルでカラー画像出力デバイスの色を予測する色予測手段と、この色予測手段の予測に基づき、前記色補正係数を決定する色補正係数決定手段とを備えたことにより、前記第1の目的を達成する。
【0006】
請求項2記載の発明では、請求項1記載の発明において、前記重み付けの変更は、標準色空間におけるカラー画像出力デバイスの各色相毎の明度と最高彩度を基準に決定することにより、前記第2の目的を達成する。
【0007】
請求項3記載の発明では、任意の入力色信号を、色変換係数の演算でカラ−画像出力デバイスの制御信号に変換し、前記色変換係数を、カラー画像出力デバイスの色材座標と測色値を学習した色予測モデルにより決定する色変換係数決定装置であって、少なくとも2種類のカラー画像出力デバイスの色材座標と測色値を学習した色予測モデルと、カラー画像出力デバイスの色材座標に応じて、重み付けを変更した前記色予測モデルでカラー画像出力デバイスの色を予測する色予測手段と、この色予測手段の予測に基づき、前記色補正係数を決定する色補正係数決定手段とを備えたことにより、前記第3の目的を達成する。
【0008】
【発明の実施の形態】
以下、本発明の好適な実施の形態を図1ないし図5を参照して詳細に説明する。
まず、入力色信号をカラー出力装置の制御信号に変換する一例として、ルックアップ・テーブル(格子点出力値)による色変換装置を説明する。
図1に示すように、例えば、代表的な色空間であるCIELAB色空間を入力色空間とした場合、CIELAB色空間を同種類の立体図形(ここでは立方体)に分割する。そして、入力の座標(L* * * 値)おける格子点出力値Pを求めるには、前記入力の座標を含む立方体を選択し、該選択された立方体の8点の予め設定した格子点上の出力値と前記入力の前記立方体の中における位置(各格子点からの距離)に基づいて、線形補間を実施する。
【0009】
ここで、4色プリンタの制御信号である場合、格子点出力値Pは、C、M、Y、K値にそれぞれ相当する。
この入力色空間(CIELAB)内全ての格子点上の出力値(C、M、Y、K)を決定する格子点出力値(色変換係数)決定装置の一例のブロック構成図を図2に示してある。
図2において、201は、決定した格子点上の出力値(C、M、Y、K)を記憶した格子点出力値記憶部、202、203は、色変換を実施する入力色空間を複数に分割した際の格子点アドレス(202:RGB、203:L* * * )を発生させる格子点アドレス設定部、204は、格子点アドレスに対応する出力色の目標値(L* * * )とL* * * 入力に対する墨量Kを決定するターゲットデータ作成部である。
【0010】
205は、格子点アドレスに応じて、適当なCMY信号を発生させるCMY信号発生部で、206は、CMY信号発生部205からのCMY入力とターゲットデータ作成部204からのK入力に対するカラー出力装置の出力色(L* * * )を予測する色予測部であり、207の重み付け係数決定部から格子点アドレス(L* * * )に応じた係数を参照して、格子点アドレスを発生する。
208は、ターゲットデータ作成部204で決定したターゲット色(L* * * )と色予測部206で予測した色(L* * * )との差を算出する色差演算部で、209は、色差演算部208で算出される(L* * * Kに対する)色差が最小となるCMYの組み合わせを格子点アドレス毎に抽出する格子点出力値決定部である。
【0011】
次に、この装置の動作について説明すると、格子点アドレス設定部202、203からのRGBあるいはL* * * 信号を受けたターゲットデータ作成部204は、(RGB入力の場合は、L* * * へ変換後)墨量Kの明度レンジに合わせて、例えば、下式の様な線形変換でレンジ調整を実施する。
【0012】
【数1】
* =L* ×(Lwhite−Lblack)÷100+Lblack
ただし、Lwhite:出力装置の最大明度(white point)
Lblack:出力装置の最小明度(black point)
【0013】
さらに、ターゲットデータ作成部204では、L* * * 値に対する予め定めておいた墨量Kを設定する。墨量Kの設定法については、様々な方法が提案されているが、一般的には最大墨量(色再現範囲を狭めない墨量)を超えない範囲で設定するが、最終的にはカラー出力装置の特性に応じて適切な墨量Kを決定する。
【0014】
ターゲットデータ作成部204で作成した格子点アドレスに対するL* * * (K)値を再現するカラー出力装置のCMYの組み合わせを探すため、色予測部206において、カラー出力装置の特性(CMY→L* * * )を予想する。その際、CMY信号発生部205では、解を早く見つけるため、格子点アドレスに応じたCMY信号を順次発生させる。
【0015】
色予測部206は、図3に示すように、階層型ニューラルネットによる色予測部301と、色相分割型線形モデルによる色予測部302からなり、階層型ニューラルネットによる色予測部301では、階層型ニューラルネットを用いた誤差逆伝搬法により、CMYK単色の白色点からL* * * 距離と混色の測色値(L* * * )の関係を学習しており、色相分割型線形モデルによる色予測部302では、CIELAB色空間における同色相毎に、最小二乗誤差法により、CMYK単色の白色点からL* * * 距離と混色の測色値(L* * * )の関係を学習している。
【0016】
重み付け係数決定部207は、格子点アドレス(L* * * 値)に応じた重み付け係数を色予測部206に送り、色予測部206では、重み付け係数に従って、階層型ニューラルネットによる色予測値と色相分割型線形モデルによる色予測値とから、最終的な色予測値(L* * * )を計算する。ここで、重み付け係数決定部207で決定する重み付け係数は、入力色空間(CIELAB)において、例えば、カラー出力デバイスの色材座標値の変化量に対する測色値の変化量を参考にしたテーブル変換等で、連続的に変換するように演算する。なお、この図3に示した色予測部206の構成は、一例であり、これに限定されるものではない。
【0017】
色演算部208では、色予測部206で予測した色(L* * * )との差を算出し、格子点出力値決定部209において、L* * * (K)に対する色差が最小となる(CMY信号発生部205で順次発生させた)CMYの組み合わせを格子点アドレス毎に抽出し、格子点出力値記憶部201に記憶させる。
【0018】
次に、第2の実施の形態を説明する。
図4は第2の実施の形態に係る装置のブロック構成図である。この図4において、410は、入力色空間(CIELAB)におけるカラー出力デバイスの各色相、明度毎の最高彩度(色再現範囲)を記憶したデバイス特性記憶部である。
重み付け係数決定部407は、格子点アドレス(L* * * 値)の色相、彩度を算出し、デバイス特性記憶部にあるカラー出力デバイスの同色相、同明度における最高彩度(色再現範囲)を基準にして、重み付け係数を演算し、この重み付け係数に従って、階層型ニューラルネットによる色予測部301の色予測値と色相分割型線形モデルによる色予測部302の色予測値とから、最終的な色予測値(L* * * )を計算する(図3参照)。
【0019】
ここでは、基本的にカラー出力デバイスの最高彩度近傍に近づくに従い、色相分割型線形モデルによる色予測部302の色予測値の比重を上げ(色相、明度に応じてカーブは異なる)、カラー出力デバイスの最高彩度より外側の格子点アドレス(L* * * 値)については、階層型ニューラルネットによる色予測部301の色予測値を用いないように連続的に変化するように演算する。
格子点アドレス(L* * * 値)に応じた重み付け係数を色予測部206に送り、色予測部206では、重み付け係数に従って、階層型ニューラルネットによる色予測値と色相分割型線形モデルによる色予測値とから、最終的な色予測値(L* * * )を計算する。ここで、重み付け係数決定部207で決定する重み付け係数は、入力色空間(CIELAB)において、例えば、カラー画像デバイスの色材座標値の変化量に対する測色値の変化量等を参考にして、連続的に変化するように演算する。
【0020】
この後の処理は第1の実施の形態と同様で、色差演算部408において、色予測部406で予測した色(L* * * )との差を算出し、格子点出力値決定部409で、L* * * (K)に対する色差が最小となる(CMY信号発生部405で順次発生させた)CMYの組み合わせを格子点アドレス毎に抽出し、格子点出力値記憶部401に記憶させる。
【0021】
次に、第3の実施の形態を説明する。図5は、第3の実施の形態に係る装置のブロック構成図である。
格子点アドレス設定部502、503からのRGBあるいはL* * * 信号を受けたターゲットデータ作成部504は、(RGB入力の場合は、L* * * へ変換後)墨量Kの明度レンジに合わせて、前記の式のような線形変換でレンジ調整を実施する。
さらに、ターゲットデータ作成部では、L* * * 値に対する予め定めておいた墨量Kを設定する。
【0022】
ターゲットデータ作成部504で設定した格子点アドレスに対するL* * * (K)値を再現するカラー出力装置のCMYの組み合わせを探すため、色予測部506において、カラー出力装置の特性(CMYK→L* * * )を予想する。その際、CMY信号発生部505では、解を早く見つけるため、格子点アドレスに応じたCMY信号を順次発生させる。
色予測部506は、図3に示すように、階層型ニューラルネットによる色予測部301と、色相分割型線形モデルによる色予測部302からなり、階層型ニューラルネットによる色予測部301では、階層型ニューラルネットを用いた誤差逆伝搬方法により、CMYK単色の白色点からL* * * 距離と混色の測色値(L* * * )の関係を学習しており、色相分割型線形モデルによる色予測部302では、CIELAB色空間における同色相毎に、最小二乗誤差法により、CMYK単色の白色点からL* * * 距離と混色の測色値(L* * * )の関係を学習している。
【0023】
重み付け係数決定部507は、CMY信号発生部505とターゲットデータ作成部504から送られるカラー出力デバイスの色材座標(CMYK)に応じた重み付け係数を色予測部506に送り、色予測部506では、重み付け係数に従って、階層型ニューラルネットによる色予測値と色相分割型線形モデルによる色予測値とから、最終的な色予測値(L* * * )を計算する。ここで、重み付け係数決定部507で決定する重み付け係数は、例えば、カラー画像デバイスの色材座標値(CMYK)の合計値(総量)等を参照して、連続的に変化するように演算する。
色差演算部508では、色予測部506で予測した色(L* * * )との差を算出し、格子点出力値決定部509において、L* * * (K)に対する色差が最小となる(CMY信号発生部505で順次発生させた)CMYの組み合わせを格子点アドレス毎に抽出し、格子点出力値記憶部501に記憶させる。
【0024】
【発明の効果】
請求項1記載の発明では、カラー出力デバイスの色材座標値の変化量に対する測色値の変化量が少ない領域を含む全色空間において、カラーマッチングし、且つ、連続性に優れたカラー出力デバイス間の色変換を実現する色変換係数を決定することができる。
【0025】
請求項2記載の発明では、標準色空間におけるカラー出力デバイスの特性を詳細に把握し、非学習領域のような精度の劣る領域(色再現領域外)を含む全色空間において、カラーマッチングし、且つ、連続性に優れたカラー出力デバイス間の色変換を実現する色変換係数を決定することができる。
【0026】
請求項3記載の発明では、簡単な手法(短時間)で、カラー出力デバイスの色材座標値の変化量に対する測色値の変化量が少ない領域を含む全色空間において、カラーマッチングし、且つ、連続性に優れたカラー出力デバイス間の色変換を実現する色変換係数を決定することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態の処理を説明する図である
【図2】本発明の第1の実施の形態に係る色変換係数決定装置のブロック構成図である。
【図3】本発明の第1の実施の形態を説明する図である。
【図4】本発明の第2の実施の形態に係る色変換係数決定装置のブロック構成図である。
【図5】本発明の第3の実施の形態に係る色変換係数決定装置のブロック構成図である。
【符号の説明】
201 格子点出力値記憶部
202、203 格子点アドレス設定部
204ターゲットデータ作成部
205 CMY信号発生部
206 色予測部
207 重み付け係数決定部
208 色差演算部
209 格子点出力値決定部
302 色予測部
407 重み付け係数決定部
410 デバイス特性記憶部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a color conversion coefficient determination device that determines a color conversion coefficient used in a color conversion device that converts an input signal into a control signal for a color output device.
[0002]
[Prior art]
In general, conversion from a device-independent L * a * b * signal in a color output device to a CMYK signal that is a control signal of the color output device uses a matrix operation or a look-up table interpolation operation. Yes. For example, in Japanese Patent Application Laid-Open No. 5-22586, a color conversion function is derived step by step by an algorithm that first learns linear conversion, linear conversion, and then higher-order term function correction. A parameter of a certain conversion function is learned, the parameter of the conversion function obtained in the first stage is not changed thereafter, and the parameter of the conversion function obtained in the second stage is not changed in the subsequent stage. A color conversion system including an apparatus having each process that is not changed is disclosed.
Japanese Patent Laid-Open No. 8-102865 discloses a method for determining grid data of a lookup table for converting input color coordinate values into color material coordinate values of a color image output device. A color conversion coefficient determination method is disclosed in which an input color coordinate and a color material coordinate value corresponding to the input color coordinate in an apparatus that performs color conversion are determined by a learned neural network.
[0003]
[Problems to be solved by the invention]
In a technique using a neural network (error back propagation method) or the like for determining a color conversion coefficient with high accuracy as described above, an area where a change in colorimetric value is small with respect to a change in each color of the control signal CMYK of the color output device. (For example, there is a high density portion), and when the inverse conversion for actually obtaining the color conversion coefficient is performed, the value is difficult to be determined uniquely, and there is a problem in the continuity of gradation.
There is also a problem with the reliability of colors outside (near) the color reproduction range of the color output device, that is, the unlearned area.
Accordingly, a first object of the present invention is to provide a color conversion coefficient determination device that determines a color conversion coefficient that realizes color conversion between color output devices excellent in continuity and color matching in the entire color space. Is to provide.
[0004]
The second object of the present invention is to perform color conversion between color output devices that perform color matching and excellent continuity in all color spaces by grasping in detail the characteristics of the color output devices in the standard color space. It is to provide a color conversion coefficient determination device that determines a color conversion coefficient to be realized.
A third object of the present invention is to determine a color conversion coefficient that achieves color conversion between color output devices that perform color matching and excellent continuity in a simple method (short time) in all color spaces. A color conversion coefficient determination device is provided.
[0005]
[Means for Solving the Problems]
According to the first aspect of the present invention, an arbitrary input color signal is converted into a control signal of a color image output device by calculation of a color conversion coefficient, and the color conversion coefficient is converted into a color material coordinate and a colorimetric measurement of the color image output device. A color conversion coefficient determination device that determines a value based on a color prediction model that has learned a value, and that corresponds to a color prediction model in which color material coordinates and colorimetric values of at least two types of color image output devices have been learned, and standard color space coordinates A color prediction unit that predicts the color of the color image output device using the color prediction model with the weight changed, and a color correction coefficient determination unit that determines the color correction coefficient based on the prediction of the color prediction unit. Thus, the first object is achieved.
[0006]
According to a second aspect of the present invention, in the first aspect of the present invention, the weighting is changed based on brightness and maximum saturation for each hue of a color image output device in a standard color space. Achieve the purpose of 2.
[0007]
According to a third aspect of the present invention, an arbitrary input color signal is converted into a control signal of a color image output device by calculation of a color conversion coefficient, and the color conversion coefficient is converted into a color material coordinate and a colorimetric measurement of the color image output device. A color conversion coefficient determination apparatus that determines a value based on a learned color prediction model, a color prediction model that learns color material coordinates and colorimetric values of at least two types of color image output devices, and a color material of a color image output device Color prediction means for predicting the color of the color image output device with the color prediction model with the weight changed according to the coordinates, and color correction coefficient determination means for determining the color correction coefficient based on the prediction of the color prediction means By achieving the above, the third object is achieved.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to FIGS.
First, as an example of converting an input color signal into a control signal for a color output device, a color conversion device using a lookup table (grid point output value) will be described.
As shown in FIG. 1, for example, when the CIELAB color space, which is a representative color space, is used as the input color space, the CIELAB color space is divided into the same type of solid figure (here, a cube). In order to obtain the grid point output value P at the input coordinates (L * a * b * value), a cube including the input coordinates is selected, and eight preset grid points of the selected cube are selected. Linear interpolation is performed based on the output value above and the position of the input in the cube (distance from each grid point).
[0009]
Here, in the case of a control signal for a four-color printer, the grid point output value P corresponds to the C, M, Y, and K values, respectively.
FIG. 2 shows a block configuration diagram of an example of a grid point output value (color conversion coefficient) determination device that determines output values (C, M, Y, K) on all grid points in the input color space (CIELAB). It is.
In FIG. 2, reference numeral 201 denotes a grid point output value storage unit that stores output values (C, M, Y, K) on the determined grid points, and 202 and 203 denote a plurality of input color spaces for performing color conversion. A grid point address setting unit 204 for generating grid point addresses (202: RGB, 203: L * a * b * ) when divided is an output color target value (L * a * b) corresponding to the grid point address. * ) And L * a * b * is a target data creation unit that determines the black amount K for the input.
[0010]
Reference numeral 205 denotes a CMY signal generator that generates an appropriate CMY signal in accordance with the grid point address. Reference numeral 206 denotes a color output device for the CMY input from the CMY signal generator 205 and the K input from the target data generator 204. A color prediction unit that predicts an output color (L * a * b * ), and refers to a coefficient corresponding to the grid point address (L * a * b * ) from the weighting coefficient determination unit 207 to obtain a grid point address. appear.
A color difference calculation unit 208 calculates a difference between the target color (L * a * b * ) determined by the target data creation unit 204 and the color predicted by the color prediction unit 206 (L * a * b * ). Is a grid point output value determination unit that extracts, for each grid point address, a combination of CMY that has the smallest color difference (with respect to L * a * b * K) calculated by the color difference calculation unit 208.
[0011]
Next, the operation of this apparatus will be described. The target data creation unit 204 that has received RGB or L * a * b * signals from the grid point address setting units 202 and 203 (in the case of RGB input, L * a * After conversion to b * ) In accordance with the lightness range of the black amount K, for example, the range is adjusted by linear conversion as shown in the following equation.
[0012]
[Expression 1]
L * = L * × (Lwhite−Lblack) ÷ 100 + Lblack
However, Lwhite: Maximum brightness of the output device (white point)
Lblack: minimum brightness of the output device (black point)
[0013]
Further, the target data creation unit 204 sets a predetermined black amount K for the L * a * b * value. Various methods have been proposed for setting the black amount K. Generally, the black amount is set within a range that does not exceed the maximum black amount (a black amount that does not narrow the color reproduction range). An appropriate black amount K is determined according to the characteristics of the output device.
[0014]
In order to find a combination of CMY of the color output device that reproduces the L * a * b * (K) value for the lattice point address created by the target data creation unit 204, the color prediction unit 206 uses the color output device characteristics (CMY → L * a * b * ) is predicted. At this time, the CMY signal generation unit 205 sequentially generates CMY signals corresponding to the grid point addresses in order to find a solution quickly.
[0015]
As shown in FIG. 3, the color prediction unit 206 includes a color prediction unit 301 based on a hierarchical neural network and a color prediction unit 302 based on a hue division linear model. The relationship between the L * a * b * distance and the colorimetric value (L * a * b * ) of the color mixture from the white point of CMYK single color is learned by the back propagation method using a neural network, and the hue division type linear In the color predicting unit 302 based on the model, for each same hue in the CIELAB color space, the L * a * b * distance and the colorimetric value of the mixed color (L * a * b * ) from the white point of the CMYK single color by the least square error method. Learning the relationship.
[0016]
The weighting coefficient determination unit 207 sends a weighting coefficient corresponding to the lattice point address (L * a * b * value) to the color prediction unit 206, and the color prediction unit 206 performs color prediction values based on the hierarchical neural network according to the weighting coefficient. The final color prediction value (L * a * b * ) is calculated from the color prediction value based on the hue division type linear model. Here, the weighting coefficient determined by the weighting coefficient determination unit 207 is, for example, table conversion with reference to the change amount of the colorimetric value relative to the change amount of the color material coordinate value of the color output device in the input color space (CIELAB). Thus, the operation is performed so as to convert continuously. The configuration of the color prediction unit 206 shown in FIG. 3 is an example, and the present invention is not limited to this.
[0017]
The color calculation unit 208 calculates the difference from the color (L * a * b * ) predicted by the color prediction unit 206, and the grid point output value determination unit 209 determines the color difference with respect to L * a * b * (K). The smallest combination of CMY (sequentially generated by the CMY signal generation unit 205) is extracted for each grid point address and stored in the grid point output value storage unit 201.
[0018]
Next, a second embodiment will be described.
FIG. 4 is a block diagram of an apparatus according to the second embodiment. In FIG. 4, reference numeral 410 denotes a device characteristic storage unit that stores the maximum saturation (color reproduction range) for each hue and lightness of the color output device in the input color space (CIELAB).
The weighting coefficient determination unit 407 calculates the hue and saturation of the lattice point address (L * a * b * value), and the maximum saturation (color reproduction) at the same hue and lightness of the color output device in the device characteristic storage unit. The weighting coefficient is calculated on the basis of the range), and according to this weighting coefficient, the color prediction value of the color prediction unit 301 by the hierarchical neural network and the color prediction value of the color prediction unit 302 by the hue division linear model are used to calculate the final value. A typical color prediction value (L * a * b * ) is calculated (see FIG. 3).
[0019]
Here, as the color saturation of the color output device approaches, the specific gravity of the color prediction value of the color prediction unit 302 based on the hue division type linear model is increased (the curve varies depending on the hue and lightness), and the color output The lattice point addresses (L * a * b * values) outside the maximum saturation of the device are calculated so as to change continuously without using the color prediction values of the color prediction unit 301 by the hierarchical neural network. .
A weighting coefficient corresponding to the grid point address (L * a * b * value) is sent to the color prediction unit 206, and the color prediction unit 206 uses a color prediction value based on a hierarchical neural network and a hue division linear model according to the weighting coefficient. A final color prediction value (L * a * b * ) is calculated from the color prediction value. Here, the weighting coefficient determined by the weighting coefficient determination unit 207 is continuous in the input color space (CIELAB) with reference to, for example, the amount of change in colorimetric value relative to the amount of change in color material coordinate value of the color image device. So as to change.
[0020]
The subsequent processing is the same as in the first embodiment, and the color difference calculation unit 408 calculates a difference from the color (L * a * b * ) predicted by the color prediction unit 406, and outputs a grid point output value determination unit. In 409, a combination of CMY (sequentially generated by the CMY signal generation unit 405) with which the color difference with respect to L * a * b * (K) is minimized is extracted for each grid point address, and is stored in the grid point output value storage unit 401. Remember.
[0021]
Next, a third embodiment will be described. FIG. 5 is a block diagram of an apparatus according to the third embodiment.
Upon receiving the RGB or L * a * b * signals from the grid point address setting units 502 and 503, the target data creation unit 504 (after conversion to L * a * b * in the case of RGB input) In accordance with the lightness range, the range is adjusted by linear conversion as in the above equation.
Further, the target data creation unit sets a predetermined black amount K for the L * a * b * value.
[0022]
In order to find a combination of CMY of the color output device that reproduces the L * a * b * (K) value for the lattice point address set by the target data creation unit 504, the color prediction unit 506 determines the characteristics of the color output device (CMYK → L * a * b * ) is predicted. At that time, the CMY signal generation unit 505 sequentially generates CMY signals corresponding to the lattice point addresses in order to find a solution quickly.
As shown in FIG. 3, the color prediction unit 506 includes a color prediction unit 301 based on a hierarchical neural network and a color prediction unit 302 based on a hue division type linear model. The relationship between the L * a * b * distance and the colorimetric value (L * a * b * ) of the mixed color is learned from the white point of CMYK single color by the back propagation method using a neural network, and the hue division type linearity is learned. In the color predicting unit 302 based on the model, for each same hue in the CIELAB color space, the L * a * b * distance and the colorimetric value of the mixed color (L * a * b * ) from the white point of the CMYK single color by the least square error method. Learning the relationship.
[0023]
The weighting coefficient determination unit 507 sends the weighting coefficient corresponding to the color material coordinates (CMYK) of the color output device sent from the CMY signal generation unit 505 and the target data creation unit 504 to the color prediction unit 506. In the color prediction unit 506, According to the weighting coefficient, a final color prediction value (L * a * b * ) is calculated from the color prediction value obtained by the hierarchical neural network and the color prediction value obtained by the hue division linear model. Here, the weighting coefficient determined by the weighting coefficient determination unit 507 is calculated so as to change continuously with reference to, for example, the total value (total amount) of the color material coordinate values (CMYK) of the color image device.
The color difference calculation unit 508 calculates a difference from the color (L * a * b * ) predicted by the color prediction unit 506, and the grid point output value determination unit 509 calculates the color difference with respect to L * a * b * (K). The minimum combination of CMY (sequentially generated by the CMY signal generation unit 505) is extracted for each grid point address and stored in the grid point output value storage unit 501.
[0024]
【The invention's effect】
According to the first aspect of the present invention, a color output device that performs color matching and has excellent continuity in an entire color space including a region in which the amount of change in colorimetric value relative to the amount of change in color material coordinate value of the color output device It is possible to determine a color conversion coefficient that realizes color conversion in between.
[0025]
In the invention of claim 2, the characteristics of the color output device in the standard color space are grasped in detail, and color matching is performed in the entire color space including an inaccurate area (outside the color reproduction area) such as a non-learning area, In addition, it is possible to determine a color conversion coefficient that realizes color conversion between color output devices excellent in continuity.
[0026]
In a third aspect of the invention, color matching is performed in a simple method (short time) in an entire color space including a region where the change amount of the colorimetric value relative to the change amount of the color material coordinate value of the color output device is small, and The color conversion coefficient that realizes color conversion between color output devices excellent in continuity can be determined.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a process according to an embodiment of the present invention. FIG. 2 is a block configuration diagram of a color conversion coefficient determination device according to a first embodiment of the present invention.
FIG. 3 is a diagram for explaining a first embodiment of the present invention.
FIG. 4 is a block configuration diagram of a color conversion coefficient determination device according to a second embodiment of the present invention.
FIG. 5 is a block configuration diagram of a color conversion coefficient determination device according to a third embodiment of the present invention.
[Explanation of symbols]
201 Grid point output value storage units 202 and 203 Grid point address setting unit 204 Target data creation unit 205 CMY signal generation unit 206 Color prediction unit 207 Weighting coefficient determination unit 208 Color difference calculation unit 209 Grid point output value determination unit 302 Color prediction unit 407 Weighting coefficient determination unit 410 Device characteristic storage unit

Claims (3)

任意の入力色信号を、色変換係数の演算でカラ−画像出力デバイスの制御信号に変換し、前記色変換係数を、カラー画像出力デバイスの色材座標と測色値を学習した色予測モデルにより決定する色変換係数決定装置であって、
少なくとも2種類のカラー画像出力デバイスの色材座標と測色値を学習した色予測モデルと、
標準色空間座標に応じて、重み付けを変更した前記色予測モデルでカラー画像出力デバイスの色を予測する色予測手段と、
この色予測手段の予測に基づき、前記色補正係数を決定する色補正係数決定手段とを備えたことを特徴とする色変換係数決定装置。
An arbitrary input color signal is converted into a color image output device control signal by calculating a color conversion coefficient, and the color conversion coefficient is converted into a color prediction model obtained by learning the color material coordinates and colorimetric values of the color image output device. A color conversion coefficient determination device for determining,
A color prediction model in which color material coordinates and colorimetric values of at least two types of color image output devices are learned;
Color prediction means for predicting the color of the color image output device with the color prediction model with the weighting changed according to the standard color space coordinates;
A color conversion coefficient determination apparatus comprising: a color correction coefficient determination means for determining the color correction coefficient based on the prediction of the color prediction means.
前記重み付けの変更は、標準色空間におけるカラー画像出力デバイスの各色相毎の明度と最高彩度を基準に決定することを特徴とする請求項1に記載の色変換係数決定装置。2. The color conversion coefficient determination apparatus according to claim 1, wherein the weighting change is determined based on brightness and maximum saturation for each hue of a color image output device in a standard color space. 任意の入力色信号を、色変換係数の演算でカラ−画像出力デバイスの制御信号に変換し、前記色変換係数を、カラー画像出力デバイスの色材座標と測色値を学習した色予測モデルにより決定する色変換係数決定装置であって、
少なくとも2種類のカラー画像出力デバイスの色材座標と測色値を学習した色予測モデルと、
カラー画像出力デバイスの色材座標に応じて、重み付けを変更した前記色予測モデルでカラー画像出力デバイスの色を予測する色予測手段と、
この色予測手段の予測に基づき、前記色補正係数を決定する色補正係数決定手段とを備えたことを特徴とする色変換係数決定装置。
An arbitrary input color signal is converted into a color image output device control signal by calculating a color conversion coefficient, and the color conversion coefficient is converted into a color prediction model obtained by learning the color material coordinates and colorimetric values of the color image output device. A color conversion coefficient determination device for determining,
A color prediction model in which color material coordinates and colorimetric values of at least two types of color image output devices are learned;
Color prediction means for predicting the color of the color image output device with the color prediction model with the weighting changed according to the color material coordinates of the color image output device,
A color conversion coefficient determination apparatus comprising: a color correction coefficient determination means for determining the color correction coefficient based on the prediction of the color prediction means.
JP31999498A 1998-10-23 1998-10-23 Color conversion coefficient determination device Expired - Fee Related JP3782244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31999498A JP3782244B2 (en) 1998-10-23 1998-10-23 Color conversion coefficient determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31999498A JP3782244B2 (en) 1998-10-23 1998-10-23 Color conversion coefficient determination device

Publications (2)

Publication Number Publication Date
JP2000134494A JP2000134494A (en) 2000-05-12
JP3782244B2 true JP3782244B2 (en) 2006-06-07

Family

ID=18116572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31999498A Expired - Fee Related JP3782244B2 (en) 1998-10-23 1998-10-23 Color conversion coefficient determination device

Country Status (1)

Country Link
JP (1) JP3782244B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4339988B2 (en) 2000-08-02 2009-10-07 コニカミノルタビジネステクノロジーズ株式会社 COLOR MATCHING METHOD, COLOR MATCHING DEVICE, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING COLOR MATCHING PROGRAM
KR101612818B1 (en) 2014-02-19 2016-04-15 부산대학교 산학협력단 Apparatus and method for converting color values vector of color camera into color values vector of colorimeter

Also Published As

Publication number Publication date
JP2000134494A (en) 2000-05-12

Similar Documents

Publication Publication Date Title
JPH082012A (en) Method for calibrating color printer and color printer
JPH08294014A (en) Image processing unit
JPH0657046B2 (en) Digital color signal processing circuit
US20050052668A1 (en) Color adjusting method, program and program-recorded medium
US6172776B1 (en) Method and apparatus for processing a color image
US6927876B1 (en) Method of and apparatus for generation proof
JP2952489B2 (en) Image recording device
JP2003125210A (en) Color processing method, storage medium, color processor color converter, and image forming device
JP3782244B2 (en) Color conversion coefficient determination device
JP3548589B2 (en) Output device color reproduction method and device
JPH1127553A (en) Method and system for generating color conversion table
JP4077938B2 (en) Colorimetric value estimation method for color patch, device profile creation method using the method, and image processing apparatus
JP2001086356A (en) Color image processing method and color image processor
US5657068A (en) Color image processing apparatus and conversion method
JP2554366B2 (en) Method of estimating color reproduction characteristics using color patches
JPH08116460A (en) Color masking parameter determining device
Tominaga Color control of printers by neural networks
JP3596584B2 (en) Color conversion method
JP2002010095A (en) Color image processing method and color image processor
JPH11146213A (en) Color conversion method
JP4135599B2 (en) Paper difference correction curve calculation apparatus and paper difference correction curve calculation method
JP3611890B2 (en) Color conversion device
JPH09224162A (en) Chrominance converter
JPH1169176A (en) Color reproducing method
US6833838B2 (en) Color adjustment method, color adjustment method implementation program and program storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100317

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120317

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130317

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140317

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees