JP2016015647A - Image processing device, image processing method, and image processing system - Google Patents

Image processing device, image processing method, and image processing system Download PDF

Info

Publication number
JP2016015647A
JP2016015647A JP2014137177A JP2014137177A JP2016015647A JP 2016015647 A JP2016015647 A JP 2016015647A JP 2014137177 A JP2014137177 A JP 2014137177A JP 2014137177 A JP2014137177 A JP 2014137177A JP 2016015647 A JP2016015647 A JP 2016015647A
Authority
JP
Japan
Prior art keywords
image data
color
output
pixel value
ground color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014137177A
Other languages
Japanese (ja)
Inventor
友保 相▲崎▼
Tomoyasu Aizaki
友保 相▲崎▼
聡史 中村
Satoshi Nakamura
聡史 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014137177A priority Critical patent/JP2016015647A/en
Publication of JP2016015647A publication Critical patent/JP2016015647A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of converting a color of output results of the image processing device on the basis of a plurality of color components in consideration of a ground color, an image processing method, and an image processing system.SOLUTION: An image processing device comprises: geometrical conversion parameter estimating means for estimating first and second geometrical conversion parameters; ground color correcting means for converting a pixel value of first output image data or second output image data on the basis of at least one of first and second ground colors; pixel value associating means for generating data associated with a first pixel value using the first geometrical conversion parameter and generating data associated with a second pixel value using the second geometrical conversion parameter; map estimating means for determining a first map based on the data associated with the first pixel value and a second map based on the data associated with the second pixel value; and converting means for converting the pixel value of manuscript image data on the basis of the first and second maps.

Description

本発明は、画像処理装置、画像処理方法、及び画像処理システムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing system.

印刷機やディスプレイなどの画像出力機器のカラープロファイルについて、カラーチャートを用いずに更新することができる技術が従来より知られている(例えば特許文献1参照)。   A technique that can update a color profile of an image output device such as a printing press or a display without using a color chart has been known (see, for example, Patent Document 1).

しかしながら、上記の従来技術においては、例えば二台の画像出力機器間で色合わせを行う場合、各画像出力機器間の色の差が色成分毎に独立でない(換言するとある色成分の値は他の色成分の値と連動している)ときには、色合わせの精度が高くないという問題があった。また、二台の画像出力機器の出力結果において地色(例えば画像出力機器がプリンタの場合は用紙色)が異なる場合には、地色も含めて色合わせがされるため、適切に色合わせがされないという問題があった。   However, in the above-described prior art, for example, when color matching is performed between two image output devices, the color difference between the image output devices is not independent for each color component (in other words, the value of a certain color component is different from the other). In other words, the color matching accuracy is not high. In addition, when the ground color (for example, paper color when the image output device is a printer) is different in the output results of the two image output devices, color matching is performed including the ground color. There was a problem of not being.

本発明の一実施形態は、上記の点に鑑みてなされたもので、地色を考慮した上で、複数の色成分の値に基づき画像処理装置の出力結果の色を変換することを目的とする。   One embodiment of the present invention has been made in view of the above points, and an object thereof is to convert the color of the output result of the image processing apparatus based on the values of a plurality of color components in consideration of the ground color. To do.

上記目的を達成するため、本発明の一実施形態では、第一の画像出力機手段が原稿画像データを出力した第一の出力結果の色を、第二の画像出力機手段が前記原稿画像データを出力した第二の出力結果において再現する画像処理装置であって、読み取り装置が前記第一の出力結果を読み取った第一の出力画像データと前記原稿画像データとの位置を合わせる第一の幾何学変換パラメータを推定し、読み取り装置が前記第二の出力結果を読み取った第二の出力画像データと前記原稿画像データとの位置を合わせる第二の幾何学変換パラメータを推定する幾何学変換パラメータ推定手段と、前記第一の出力結果の地色を表す第一の地色と前記第二の出力結果の地色を表す第二の地色の少なくとも一つに基づいて、前記第一の出力画像データの画素値又は前記第二の出力画像データの画素値を変換する地色補正手段と、前記第一の幾何学変換パラメータを用いて、前記地色補正手段により変換された第一の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第一の画素値対応付けデータを生成し、前記第二の幾何学変換パラメータを用いて、前記地色補正手段により変換された第二の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第二の画素値対応付けデータを生成する画素値対応付け手段と、前記第一の画素値対応付けデータに基づいて前記原稿画像データから前記変換された第一の出力画像データの色を推定する第一の写像と、前記第二の画素値対応付けデータに基づいて前記変換された第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とを決定する写像推定手段と、前記第一の写像と前記第二の写像とに基づいて、前記原稿画像データの画素値を変換する変換手段と、を有することを特徴とする。   In order to achieve the above object, according to an embodiment of the present invention, the first image output machine means outputs the color of the first output result obtained by outputting the original image data, and the second image output machine means uses the original image data. The first geometry for matching the positions of the first output image data obtained by reading the first output result and the original image data by the image processing apparatus that reproduces the second output result obtained by outputting the first output result. Geometric transformation parameter estimation for estimating a geometric transformation parameter and estimating a second geometric transformation parameter for aligning the second output image data obtained by the reading device reading the second output result and the original image data And the first output image based on at least one of a first ground color representing the ground color of the first output result and a second ground color representing the ground color of the second output result. Pixel of data Alternatively, ground color correction means for converting pixel values of the second output image data, and the first output image data converted by the ground color correction means and the original using the first geometric conversion parameter. First pixel value association data in which a combination of color components of corresponding pixels with image data is associated is generated and converted by the ground color correction means using the second geometric conversion parameter Pixel value association means for generating second pixel value association data in which combinations of color components of corresponding pixels of the second output image data and the original image data are associated; and the first pixel value A first mapping for estimating the color of the converted first output image data from the original image data based on the association data, and the converted second based on the second pixel value association data. Output Based on the mapping estimation means for determining the second mapping for estimating the color of the document image data from the color of the image data, and the pixel value of the document image data based on the first mapping and the second mapping Conversion means for converting.

本発明の一実施形態によれば、地色を考慮した上で、複数の色成分の値に基づき画像処理装置の出力結果の色を変換することができる。   According to the embodiment of the present invention, it is possible to convert the color of the output result of the image processing apparatus based on the values of a plurality of color components in consideration of the ground color.

画素値aとbの関係を模式的に説明する一例の図である。It is a figure of an example explaining the relation between pixel values a and b typically. 本実施形態に係る画像処理システムの一例の構成図である。It is a block diagram of an example of the image processing system which concerns on this embodiment. 本実施形態に係る画像処理システムの一例のハードウェア構成図である。It is a hardware block diagram of an example of the image processing system which concerns on this embodiment. 本実施形態に係るコンピュータの一例のハードウェア構成図である。It is a hardware block diagram of an example of the computer which concerns on this embodiment. 本実施形態に係るMFPの一例のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of an example of an MFP according to the present embodiment. 本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である。1 is a functional block diagram of an example of an image processing system or MFP according to an embodiment. 基準色再現特性の推定処理の一例のフローチャートである(実施例1)。10 is a flowchart of an example of a reference color reproduction characteristic estimation process (Example 1); 基準画像データの地色補正前後のRGB値の一例の図である。It is an example of RGB values before and after ground color correction of reference image data. リスト形式で記録したデータの一例の図である。It is a figure of an example of the data recorded in list format. ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例1)。10 is a flowchart of an example of a process for estimating a reverse characteristic of a user color reproduction characteristic (Example 1). リスト形式で記録したデータの一例の図である。It is a figure of an example of the data recorded in list format. 色変換処理の一例のフローチャートである。It is a flowchart of an example of color conversion processing. 基準色再現特性の推定処理の一例のフローチャートである(実施例2)。10 is a flowchart of an example of a reference color reproduction characteristic estimation process (second embodiment). ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例2)。10 is a flowchart of an example of a process for estimating a reverse characteristic of a user color reproduction characteristic (Example 2). ユーザ画像データの地色補正前後のRGB値の一例の図である。It is a figure of an example of the RGB value before and after ground color correction of user image data. 基準色再現特性の推定処理の一例のフローチャートである(実施例3)。10 is a flowchart of an example of a reference color reproduction characteristic estimation process (Example 3). ユーザ画像データの地色補正前後のRGB値の一例の図である。It is a figure of an example of the RGB value before and after ground color correction of user image data. ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例3)。FIG. 10 is a flowchart illustrating an example of a process for estimating a reverse characteristic of a user color reproduction characteristic (third embodiment). FIG. 本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例4)。FIG. 10 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 4). 基準色再現特性の推定処理の一例のフローチャートである(実施例4)。10 is a flowchart of an example of a reference color reproduction characteristic estimation process (Example 4). ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例4)。FIG. 10 is a flowchart illustrating an example of a process for estimating a reverse characteristic of a user color reproduction characteristic (Example 4). FIG.

以下、本発明を実施するための形態について、図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(実施例1)
まず、
第一の画像出力機器の色再現特性をP1(x)、
第二の画像出力機器の色再現特性をP2(x)、
画像読取装置の色再現特性をS(x)、
と定義する。ここで"x"は色又は画素値である。種々の色空間の存在を考慮すると画素値=色とはならないが、同じ色空間内では画素値=色となるので、厳密には区別していない。例えばRGB色空間の場合、x=[R, G, B]tの3次元データである。また、例えばCMYK色空間の場合、x=[C, M, Y, K]tの4次元データである。
第一の色再現特性はS(P1(x))、
第二の色再現特性はS(P2(x))、
と表すことができる。
(Example 1)
First,
P 1 (x), the color reproduction characteristics of the first image output device
P 2 (x), the color reproduction characteristics of the second image output device
The color reproduction characteristics of the image reading device are S (x),
It is defined as Here, “x” is a color or a pixel value. In consideration of the existence of various color spaces, the pixel value is not equal to the color, but in the same color space, the pixel value is equal to the color. For example, in the case of the RGB color space, it is three-dimensional data of x = [R, G, B] t . For example, in the case of the CMYK color space, it is four-dimensional data of x = [C, M, Y, K] t .
The first color reproduction characteristic is S (P 1 (x)),
The second color reproduction characteristic is S (P 2 (x)),
It can be expressed as.

P1(x)は、第一の画像出力機器が画素値xを印刷した場合の色であり、S(P1(x))は画像読取装置が色P1(x)を読み取った場合の色である。P2(x)は、第二の画像出力機器が画素値xを印刷した場合の色であり、S(P2(x))は画像読取装置が色P2(x)を読み取った場合の色である。 P 1 (x) is the color when the first image output device prints the pixel value x, and S (P 1 (x)) is the color when the image reading device reads the color P 1 (x). Color. P 2 (x) is the color when the second image output device prints the pixel value x, and S (P 2 (x)) is the color when the image reading device reads the color P 2 (x). Color.

第一の画像出力機器が印刷する画素値xと、第二の画像出力機器が印刷する画素値xとが同じ場合、色再現特性P1(x)及びP2(x)は互いに異なるので、S(P1(x))=S(P2(x))とはならない。一方、第一の画像出力機器が印刷する画素値と、第二の画像出力機器が印刷する画素値が同じでない場合でも、印刷対象の画像データ(後述する原稿画像データ)には、S(P1(a))=S(P2(b))となる色(a, b)の組み合わせが存在することが期待できる(S(P1(a))とS(P2(b))は完全に一致しなくてもよい)。 When the pixel value x printed by the first image output device is the same as the pixel value x printed by the second image output device, the color reproduction characteristics P 1 (x) and P 2 (x) are different from each other. S (P 1 (x)) = S (P 2 (x)) is not satisfied. On the other hand, even if the pixel value printed by the first image output device and the pixel value printed by the second image output device are not the same, the image data to be printed (original image data described later) has S (P 1 (a)) = S (P 2 (b)) can be expected to have a combination of colors (a, b) (S (P 1 (a)) and S (P 2 (b)) Does not have to match exactly).

本実施形態の画像処理装置は、S(P1(a))=S(P2(b))なる組合せ(a, b)を1つ以上求める。すなわち、第二の画像出力機器が、画素値bを印刷してS(P2(b))が得られるのであるから、aをbとみなす変換を行うことで第二の画像出力機器が画素値aを印刷する際に、実際には画素値bを印刷するので、第二の画像出力機器は第一の画像出力機器と同じ色で印刷することができる。 The image processing apparatus according to the present embodiment obtains one or more combinations (a, b) of S (P 1 (a)) = S (P 2 (b)). That is, since the second image output device prints the pixel value b and obtains S (P 2 (b)), the second image output device performs the conversion that regards a as b, so that the second image output device Since the pixel value b is actually printed when the value a is printed, the second image output device can print in the same color as the first image output device.

図1は、画素値aとbの関係を模式的に説明する一例の図である。第一の画像出力機器と第二の画像出力機器は、共に同じ画像データを印刷する。この画像データを原稿画像データという。   FIG. 1 is a diagram schematically illustrating the relationship between pixel values a and b. Both the first image output device and the second image output device print the same image data. This image data is called original image data.

第一の画像出力機器は画素値aを印刷するとスキャナで読み取った際にsの色となる第一の出力物を印刷する。第二の画像出力機器は画素値bを印刷するとスキャナで読み取った際にsの色となる第二の出力物を印刷する。第二の画像出力機器の色再現特性を第一の画像出力機器にあわせる場合、第二の画像出力機器は画素値aがsになるように(読み取った際にsとなるように)印刷するべきであることが分かる。したがって、第二の画像出力機器は原稿画像データの画素値aをbにて置き換える。この色変換を行うことで、第二の画像出力機器は第一の画像出力機器と同等の色にて印刷することが可能になる。   When the first image output device prints the pixel value “a”, the first image output device prints the first output product having the color s when read by the scanner. When the pixel value b is printed, the second image output device prints a second output product that has the color s when read by the scanner. When the color reproduction characteristics of the second image output device are matched with those of the first image output device, the second image output device performs printing so that the pixel value a becomes s (when read, it becomes s). I know that it should be. Therefore, the second image output device replaces the pixel value a of the document image data with b. By performing this color conversion, the second image output device can print in the same color as the first image output device.

図2は、本実施形態に係る画像処理システム600の一例の構成図である。第一と第二の画像出力機器間の色を合わせるために原稿画像データに色変換を施す流れを、以下の機器の組合せを例として説明する。
・第一の画像出力機器:プリンタ (「基準プリンタ」と呼ぶ)
・第二の画像出力機器:プリンタ (「ユーザプリンタ」と呼ぶ)
・画像読取装置:スキャナ
また、以降で使用する用語を以下のように定義する。
・基準プリンタ:第一の画像出力機器に対応し、色が合わせられる目標となるプリンタ
・ユーザプリンタ:第二の画像出力機器に対応し、基準プリンタ400に色を合わせたいプリンタ
・スキャナ:画像読取装置に対応
・原稿画像データ:プリンタが印刷物を出力する際に用いる画像データ
・基準印刷物:原稿画像データを基準プリンタ400で出力した、色合わせの目標とされる印刷物
・基準画像データ:基準印刷物を画像読取装置で読み取って得られる画像データ
・ユーザ印刷物:原稿画像データをユーザプリンタ200で出力した、基準印刷物に色を合わせたい印刷物
・ユーザ画像データ:ユーザ印刷物を画像読取装置で読み取って得られる画像データ
本実施形態では、基準印刷物とユーザ印刷物とを用い、ユーザプリンタ200に与える原稿画像データに色変換を行うことによって、基準印刷物の色と同等の色のユーザ印刷物が得られるようにする。
FIG. 2 is a configuration diagram of an example of an image processing system 600 according to the present embodiment. The flow of performing color conversion on the document image data in order to match the color between the first and second image output devices will be described using the following combination of devices as an example.
First image output device: Printer (referred to as “reference printer”)
Second image output device: Printer (referred to as “user printer”)
-Image reading device: scanner The terms used in the following are defined as follows.
-Reference printer: a printer that corresponds to the first image output device and is the target of color matching-User printer: a printer that supports the second image output device and matches the color of the reference printer 400-Scanner: image reading Corresponding to the apparatus:-Original image data: image data used when the printer outputs a printed matter-Reference printed matter: A printed matter that is output from the original image data by the reference printer 400 and targeted for color matching-Reference image data: Reference printed matter Image data obtained by reading with an image reading device-User printed matter: original printed image data output by the user printer 200, a printed matter to be matched with a reference printed matter-User image data: an image obtained by reading the user printed matter with an image reading device Data In this embodiment, the reference printer and user print are used, and the user printer 20 Performing the color conversion on the original image data to be supplied to the, so the equivalent color of the user prints the color of the reference printed matter is obtained.

色変換を行う装置は、第二の画像出力機器でもスキャナ300でもよいし、これらとは別体のコンピュータ100でもよい。本実施形態では、情報処理装置の一例としてのコンピュータ100が色変換を行うものとして説明する。   The apparatus for performing color conversion may be the second image output device or the scanner 300, or may be a computer 100 separate from these. In the present embodiment, a description will be given assuming that the computer 100 as an example of the information processing apparatus performs color conversion.

(1)第一の色再現特性の推定
まず、基準プリンタ400とスキャナ300を併せた(基準プリンタだけの色再現特性を取り出すことは困難なため)基準色再現特性S(P1(x))を以下の手順で推定する。なお、基準色再現特性S(P1(x))は、第一の写像の一例である。
(1-1) 基準印刷物をスキャナ300により読み取り、基準画像データを得る
(1-2) 基準画像データに地色補正処理を行う
(1-3) 原稿画像データと基準画像データとの位置、傾き、大きさを合わせる
(1-4) 原稿画像データと基準画像データの対応する位置にある画素の画素値を色成分の組合せごとに対応付けて記憶する
(1-5) 画素値の対応付けデータから原稿画像データのある色が基準画像データのどの色に対応付くかを求める(このとき、複数の色成分値を基にした多次元のデータを用いて求める)
(2)第二の色再現特性の逆特性の推定
次に、ユーザプリンタ200とスキャナ300を併せた(ユーザプリンタだけの色再現特性の逆特性を取り出すことは困難なため)ユーザ色再現特性S(P2(x))の逆特性P2 -1(S-1(x))を以下の手順で推定する。なお、逆特性P2 -1(S-1(x))は、第二の写像の一例である。
ここで、S-1(x)は、画像読取装置で読み取った場合に画素値xとして読み取られる値(色)である。また、P2 -1(S-1(x))は、第二の画像出力機器で出力した場合に色S-1(x)として出力される画素値である。
(2-1) 原稿画像データをユーザプリンタ200で出力し、ユーザ印刷物を得る
(2-2) ユーザ印刷物をスキャナ300により読み取りユーザ画像データを得る
(2-3) ユーザ画像データに地色補正処理を行う
(2-4) 原稿画像データとユーザ画像データとの位置、傾き、大きさを合わせる
(2-5) 原稿画像データとユーザ画像データとの対応する位置にある画素の画素値を色成分の組合せごとに対応付けて記憶する
(2-6) 画素値の対応付けからユーザ画像データのある色が原稿画像データのどの色に対応付くかを求める(このとき、複数の色成分値を基にした多次元データを用いて求める)
(3)原稿画像データの色変換
最後に、推定した基準色再現特性とユーザ色再現特性の逆特性を用いて原稿画像データに色変換を施し、原稿画像データを更新する。
(3-1) 基準色再現特性から、原稿画像データの色aが対応付く基準画像データの色s=S(P1(a))を得る
(3-2) ユーザ色再現特性の逆特性から、ユーザ画像データの色sが対応付く原稿画像データの色b=P2 -1(S-1(s))を得る(すなわち、S(P1(a))=s=S(P2(b))となる組合せ(a, b)を求める)
(3-3) 原稿画像データの色aをbに変換する
上記(1)〜(3)を行うと、ユーザプリンタ200が原稿画像データに色変換を施して印刷するユーザデータは、基準画像データとほぼ同じ色になる。1回だけではユーザ画像データが基準画像データとほぼ同じ色にならない場合、上記(1)〜(3)までの手順を、基準印刷物とユーザ印刷物との色の差が所定の範囲に収まるようになるまで繰り返し行ってもよい。その場合には、ユーザプリンタ200の色再現特性の逆特性を推定する際に用いる原稿画像データとして色変換後の原稿画像データを用いる。
(1) Estimation of the first color reproduction characteristic First, the reference printer 400 and the scanner 300 are combined (because it is difficult to extract the color reproduction characteristic of only the reference printer), the reference color reproduction characteristic S (P 1 (x)) Is estimated by the following procedure. The reference color reproduction characteristic S (P 1 (x)) is an example of the first mapping.
(1-1) Scan the standard printed matter with the scanner 300 to obtain the standard image data
(1-2) Perform ground color correction on the reference image data
(1-3) Matching the position, inclination, and size of document image data and reference image data
(1-4) The pixel values of the pixels at corresponding positions in the document image data and the reference image data are stored in association with each color component combination.
(1-5) Find out which color of the original image data corresponds to the color of the original image data from the pixel value correspondence data (At this time, use multidimensional data based on multiple color component values) Ask)
(2) Estimating the reverse characteristic of the second color reproduction characteristic Next, the user color reproduction characteristic S that combines the user printer 200 and the scanner 300 (because it is difficult to extract the reverse characteristic of the color reproduction characteristic of only the user printer). The inverse characteristic P 2 −1 (S −1 (x)) of (P 2 (x)) is estimated by the following procedure. The inverse characteristic P 2 -1 (S -1 (x)) is an example of the second mapping.
Here, S −1 (x) is a value (color) read as the pixel value x when read by the image reading apparatus. P 2 −1 (S −1 (x)) is a pixel value output as the color S −1 (x) when output from the second image output device.
(2-1) Document image data is output by the user printer 200 to obtain a user print
(2-2) The user print is read by the scanner 300 to obtain user image data.
(2-3) Perform ground color correction processing on user image data
(2-4) Matching the position, inclination, and size of document image data and user image data
(2-5) The pixel values of the pixels at corresponding positions in the document image data and the user image data are stored in association with each color component combination.
(2-6) Find out which color in the original image data corresponds to a certain color of user image data from the association of pixel values (At this time, use multi-dimensional data based on multiple color component values) )
(3) Color Conversion of Document Image Data Finally, the document image data is subjected to color conversion using the inverse characteristics of the estimated reference color reproduction characteristics and user color reproduction characteristics, and the document image data is updated.
(3-1) From the reference color reproduction characteristics, obtain the color s = S (P 1 (a)) of the reference image data to which the color a of the original image data corresponds.
(3-2) The color b = P 2 −1 (S −1 (s)) of the original image data to which the color s of the user image data corresponds is obtained from the inverse characteristic of the user color reproduction characteristic (that is, S (P 1 (a)) = s = S (P 2 (b)) is determined as a combination (a, b))
(3-3) Converting Document Image Data Color a to b When the above (1) to (3) are performed, the user data that the user printer 200 performs color conversion on the document image data is the reference image data. It becomes almost the same color. If the user image data does not have almost the same color as the reference image data only once, the above steps (1) to (3) are performed so that the color difference between the reference print and the user print falls within a predetermined range. You may repeat until it becomes. In that case, the original image data after color conversion is used as the original image data used when estimating the inverse characteristic of the color reproduction characteristic of the user printer 200.

なお、従来技術では、上記(3)の色変換を施すに際して色成分ごとに独立して処理を行っており、第一及び第二の画像出力機器間の出力結果の色の差が色成分ごとに独立していることを前提としている。しかしながら、一般に、第一及び第二の画像出力機器間の出力結果の色の差が色成分ごとに独立であるとは限らない。   In the prior art, when the color conversion of (3) is performed, processing is performed independently for each color component, and the color difference of the output result between the first and second image output devices is different for each color component. It is assumed that they are independent. However, in general, the color difference of the output result between the first and second image output devices is not always independent for each color component.

例えば、S(P1(a))=s=S(P2(a'))となる画素値の組合せ(a, a')と、S(P1(b))=s=S(P2(b'))となる画素値の組合せ(b, b')があったとする。このとき、原稿画像データの画素値aをa'に、bをb'に置き換える事で第一及び第二の画像出力機器間の色が合うことが期待される。ここで、各画素値a, a', b, b'を256階調のRGB空間で表すと、
a =(128, 74, 153)
a'=(138, 79, 159)
b =(128, 23, 24)
b'=(118, 19, 36)
であったとする。画素値aと画素値bの色成分の組合せは異なるが、R成分値は128と同じである。しかし、画素値aに対応するa'のR成分値は138(画素値aとbのR成分値よりも高い値)であるのに対して、画素値bに対応するb'のR成分値は118(画素値aとbのR成分値よりも低い値)である。このような場合、色成分ごとに独立して処理してしまうと、画素値aとbのR成分値には同じ色変換を施すことになり、画素値a, b両方に最適な色変換を施すことができない。よって、第一及び第二の画像出力機器間の色合わせの精度が低下してしまう。
For example, a combination of pixel values (a, a ′) such that S (P 1 (a)) = s = S (P 2 (a ′)) and S (P 1 (b)) = s = S (P Suppose that there is a combination of pixel values (b, b ') of 2 (b')). At this time, it is expected that the colors of the first and second image output devices match by replacing the pixel value a of the document image data with a ′ and b with b ′. Here, when each pixel value a, a ′, b, b ′ is expressed in an RGB space of 256 gradations,
a = (128, 74, 153)
a '= (138, 79, 159)
b = (128, 23, 24)
b '= (118, 19, 36)
Suppose that Although the combination of the color components of the pixel value a and the pixel value b is different, the R component value is the same as 128. However, while the R component value of a ′ corresponding to the pixel value a is 138 (a value higher than the R component values of the pixel values a and b), the R component value of b ′ corresponding to the pixel value b Is 118 (a value lower than the R component values of the pixel values a and b). In such a case, if each color component is processed independently, the same color conversion is applied to the R component values of the pixel values a and b, and an optimal color conversion is performed for both the pixel values a and b. Can not be applied. Therefore, the accuracy of color matching between the first and second image output devices decreases.

また、基準画像データ及びユーザ画像データの地色(用紙色)も含めた全体として色味を合わせているため、基準画像データとユーザ画像データの地色が異なる場合には、適切な色合わせがされない。例えば、原稿画像データの白い部分は、プリンタで出力された場合にはインクやトナーが乗らないことから、本来であれば用紙の色そのままのはずである。しかし、従来技術では、基準画像データとユーザ画像データの地色(用紙色)が異なる場合には、例えば原稿画像データの白い部分に対してユーザプリンタで基準画像データの地色(用紙色)を再現するような色変換が行われてしまう。これにより、色変換後の原稿画像データを出力すると、色かぶりとして知覚され、画像の印象が悪くなることがある。   In addition, since the color tone is adjusted as a whole including the ground color (paper color) of the reference image data and the user image data, when the ground color of the reference image data and the user image data is different, appropriate color matching is performed. Not. For example, since the white portion of the document image data is not printed with ink or toner when output by a printer, it should be the color of the paper as it is. However, in the prior art, if the ground color (paper color) of the reference image data and the user image data is different, for example, the ground color (paper color) of the reference image data is set by the user printer for the white portion of the original image data. Color conversion that reproduces is performed. As a result, when the original image data after color conversion is output, it may be perceived as a color cast and the impression of the image may deteriorate.

したがって、本実施形態では、原稿画像データの画素値と基準画像データまたはユーザ画像データの対応する位置にある画素値の対応付けにおいて、色成分の組合せごとに対応付けて記憶している。また、基準色再現特性またはユーザ色再現特性の逆特性の推定において、複数の色成分値を基にした多次元データを入力として各色成分値を推定している(つまり、色成分の組合せを考慮して処理を行っている)。さらに、基準印刷物及びユーザ印刷物の地色に応じた地色補正処理を行うことにより、基準印刷物及びユーザ印刷物それぞれの地色の差を吸収している。これらにより、基準印刷物及びユーザ印刷物それぞれの地色が異なる場合においても、色かぶりを抑制した色合わせをすることができる。   Therefore, in the present embodiment, the association between the pixel value of the document image data and the pixel value at the corresponding position of the reference image data or the user image data is stored in association with each color component combination. Also, in estimating the inverse characteristics of the reference color reproduction characteristics or the user color reproduction characteristics, each color component value is estimated using multidimensional data based on a plurality of color component values as input (that is, considering the combination of color components). To process). Furthermore, by performing a ground color correction process according to the ground color of the reference printed material and the user printed material, the difference in ground color between the reference printed material and the user printed material is absorbed. As a result, even when the ground colors of the reference print product and the user print product are different, it is possible to perform color matching while suppressing color fog.

<システム構成>
図2に示した画像処理システム600は、ネットワーク500を介して接続された、コンピュータ100、ユーザプリンタ200、及び、スキャナ300を有する。ユーザプリンタ200の代わりにオフセット印刷機やグラビア印刷機などを用いてもよく、また、スキャナ300の代わりに分光測色器やカメラを用いてもよい。基準プリンタ400は、画像処理システム600のユーザ側に存在しないことを想定しているためネットワークに接続されていないが、接続されていてもよい。画像処理システム600のユーザは、基準プリンタ400が基準画像データを出力した基準印刷物をすでに取得しているか、取得することができる。
<System configuration>
The image processing system 600 illustrated in FIG. 2 includes a computer 100, a user printer 200, and a scanner 300 connected via a network 500. An offset printer, a gravure printer, or the like may be used instead of the user printer 200, and a spectrocolorimeter or camera may be used instead of the scanner 300. Since it is assumed that the reference printer 400 does not exist on the user side of the image processing system 600, the reference printer 400 is not connected to the network, but may be connected. The user of the image processing system 600 can acquire whether or not the reference print product from which the reference printer 400 has output the reference image data has already been acquired.

ネットワークは、社内LAN、広域LAN(WAN)、IP−VNP(Virtual Private Network)、インターネットVPN、又は、インターネットなどである。これらが組み合わされたネットワーク等、コンピュータ100、ユーザプリンタ200、及び、スキャナ300が通信可能であればよい。一部に電話回線を含んでいてもよく、また、有線接続か無線接続かは問わない。   The network is an in-house LAN, a wide area LAN (WAN), an IP-VNP (Virtual Private Network), the Internet VPN, the Internet, or the like. It is sufficient that the computer 100, the user printer 200, and the scanner 300 can communicate with each other, such as a network in which these are combined. Some telephone lines may be included, and it does not matter whether the connection is wired or wireless.

なお、同じ一台のプリンタで過去と現在の色を合わせる場合など、基準プリンタ400とユーザプリンタ200はそれぞれ異なる装置である必要はない。また、基準プリンタ400及びユーザプリンタ200は、プリンタ機能を有していれば、スキャナ機能、FAX機能及びコピー機能の1つ以上を有していてもよい。同様に、スキャナ300は、スキャナ機能を有していれば、プリンタ機能、FAX機能及びコピー機能の1つ以上を有していてもよい。複数の機能を有する装置はMFP(Multifunction Peripheral)と称されることがある。   Note that the reference printer 400 and the user printer 200 do not have to be different devices, for example, when the same color is used to match the past and current colors. The reference printer 400 and the user printer 200 may have one or more of a scanner function, a FAX function, and a copy function as long as they have a printer function. Similarly, the scanner 300 may have one or more of a printer function, a FAX function, and a copy function as long as it has a scanner function. An apparatus having a plurality of functions may be referred to as an MFP (Multifunction Peripheral).

また、コンピュータ100は、基準プリンタ400が基準印刷物の出力に使用した原稿画像データ、基準印刷物をスキャナ300が読み取った基準画像データ、及び、ユーザプリンタ200が原稿画像データを出力したユーザ印刷物をスキャナ300が読み取ったユーザ画像データ、の3つの画像データから基準色再現特性及びユーザ色再現特性の逆特性を推定する。原稿画像データは、ユーザプリンタ200が予め記憶しておいてもよいし、基準プリンタ400から取得してもよい。コンピュータ100、ユーザプリンタ200、及び、スキャナ300は一台のMFPに搭載することもできる。   The computer 100 also scans the original image data used by the reference printer 400 to output the reference printed material, the reference image data read by the scanner 300 from the reference printed material, and the user printed material from which the user printer 200 outputs the original image data. The reference color reproduction characteristic and the inverse characteristic of the user color reproduction characteristic are estimated from the three pieces of image data of the user image data read by. The document image data may be stored in advance by the user printer 200 or may be acquired from the reference printer 400. The computer 100, the user printer 200, and the scanner 300 can be mounted on one MFP.

<ハードウェア構成>
図3は、本実施形態に係る画像処理システムの一例のハードウェア構成図である。画像処理システム600は、画像入力部601、画像出力部602、画像記憶部603、画像解析部604、パラメータ記憶部605、及び、画像処理部606を有する。
<Hardware configuration>
FIG. 3 is a hardware configuration diagram of an example of the image processing system according to the present embodiment. The image processing system 600 includes an image input unit 601, an image output unit 602, an image storage unit 603, an image analysis unit 604, a parameter storage unit 605, and an image processing unit 606.

画像入力部601は、画像出力機器により出力された画像を入力するものであり、図2ではスキャナ300が相当する。画像記憶部603は、画像入力部601が入力を受け付けた画像データを記憶するものであり、図2ではコンピュータ100が相当する。画像解析部604は、基準画像データ、ユーザ画像データ、及び、原稿画像データを解析して基準色再現特性及びユーザ色再現特性の逆特性を推定するもので、図2ではコンピュータ100が相当する。パラメータ記憶部605は、画像を解析して得られた基準色再現特性及びユーザ色再現特性の逆特性を記憶するもので、図2ではコンピュータ100が相当する。画像処理部606は、得られた基準色再現特性及びユーザ色再現特性の逆特性に基づいて画像データを色変換するもので、図2ではコンピュータ100が相当する。画像出力部602は、色変換された画像を出力するもので、図2ではユーザプリンタ200が相当する。   The image input unit 601 inputs an image output by an image output device, and corresponds to the scanner 300 in FIG. The image storage unit 603 stores image data received by the image input unit 601 and corresponds to the computer 100 in FIG. The image analysis unit 604 analyzes the reference image data, the user image data, and the document image data to estimate the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics, and corresponds to the computer 100 in FIG. The parameter storage unit 605 stores reverse characteristics of the reference color reproduction characteristic and the user color reproduction characteristic obtained by analyzing the image, and corresponds to the computer 100 in FIG. The image processing unit 606 performs color conversion on the image data based on the obtained reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics, and corresponds to the computer 100 in FIG. The image output unit 602 outputs a color-converted image, and corresponds to the user printer 200 in FIG.

図4は、コンピュータ100のハードウェア構成図の一例を示す。コンピュータ100はそれぞれバスで相互に接続されているCPU101、RAM102、ROM103、記憶媒体装着部104、通信装置105、入力装置106、描画制御部107、及び、HDD108を有する。CPU101は、OS(Operating System)やプログラムをHDD108から読み出して実行することで種々の機能を提供すると共に、基準色再現特性及びユーザ色再現特性の逆特性の推定を行う。   FIG. 4 shows an example of a hardware configuration diagram of the computer 100. The computer 100 includes a CPU 101, a RAM 102, a ROM 103, a storage medium mounting unit 104, a communication device 105, an input device 106, a drawing control unit 107, and an HDD 108 that are mutually connected by a bus. The CPU 101 provides various functions by reading an OS (Operating System) and a program from the HDD 108 and executing them, and also estimates the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics.

RAM102はCPU101がプログラムを実行する際に必要なデータを一時保管する作業メモリ(主記憶メモリ)になり、ROM103はBIOS(Basic Input Output System)やOSを起動するためのプログラム、静的なデータが記憶されている。   The RAM 102 is a working memory (main storage memory) that temporarily stores data necessary for the CPU 101 to execute the program. The ROM 103 stores a program (static input data) for starting up a BIOS (Basic Input Output System) and the OS. It is remembered.

記憶媒体装着部104には記憶媒体110が着脱可能であり、記憶媒体110に記録されたデータを読み込み、HDD108に記憶させる。また、記憶媒体装着部104は、HDD108に記憶されたデータを記憶媒体110に書き込むこともできる。記憶媒体110は例えば、USDメモリ、SDカード等である。プログラム111は、記憶媒体110に記憶された状態や不図示のサーバからダウンロードすることで配布される。   A storage medium 110 is detachably attached to the storage medium mounting unit 104, and data recorded in the storage medium 110 is read and stored in the HDD 108. Further, the storage medium mounting unit 104 can also write data stored in the HDD 108 into the storage medium 110. The storage medium 110 is, for example, a USD memory or an SD card. The program 111 is distributed by being downloaded from a state stored in the storage medium 110 or a server (not shown).

入力装置106は、キーボードやマウス、トラックボールなどであり、コンピュータ100へのユーザの様々な操作指示を受け付ける。   The input device 106 is a keyboard, a mouse, a trackball, or the like, and accepts various operation instructions from the user to the computer 100.

HDD108は、SSD等の不揮発メモリでもよく、OS、プログラム、画像データなどの各種のデータが記憶されている。   The HDD 108 may be a nonvolatile memory such as an SSD and stores various data such as an OS, a program, and image data.

通信装置105は、インターネットなどのネットワークに接続するためのNIC(Network Interface Card)であり、例えば、イーサネット(登録商標)カードである。   The communication device 105 is a NIC (Network Interface Card) for connecting to a network such as the Internet, and is, for example, an Ethernet (registered trademark) card.

描画制御部107は、CPU101がプログラム111を実行してグラフィックメモリに書き込んだ描画コマンドを解釈して、画面を生成しディスプレイ109に描画する。   The drawing control unit 107 interprets a drawing command written in the graphic memory by the CPU 101 executing the program 111, generates a screen, and draws it on the display 109.

図5は、画像処理システム600を一台のMFPで実現した場合の、MFP700のハードウェア構成図の一例を示す。MFP700は、コントローラ30、操作部31、ファックス制御ユニット32、プロッタ33、スキャナ34、及び、その他ハードウェアリソース35を有する。コントローラ30は、CPU11,MEM−P12,NB(ノースブリッジ)13、ASIC16,MEM−C14,HDD15(Hard Disk Drive)、及び、PCIバスを介してNB13と接続された周辺機器17を有する。   FIG. 5 shows an example of a hardware configuration diagram of the MFP 700 when the image processing system 600 is realized by a single MFP. The MFP 700 includes a controller 30, an operation unit 31, a fax control unit 32, a plotter 33, a scanner 34, and other hardware resources 35. The controller 30 includes a CPU 11, a MEM-P 12, an NB (North Bridge) 13, an ASIC 16, a MEM-C 14, an HDD 15 (Hard Disk Drive), and a peripheral device 17 connected to the NB 13 via a PCI bus.

コントローラ30において、ASIC16にはMEM−C14、HDD15、及び、NB13が接続されると共に、NB13にはCPU11とMEM−P12が接続されている。NB13はCPUチップセットの1つであり、CPU11,MEM−P12,ASIC16,及び、周辺機器を接続するためのブリッジである。   In the controller 30, the ASIC 16 is connected to the MEM-C 14, the HDD 15, and the NB 13, and the NB 13 is connected to the CPU 11 and the MEM-P 12. The NB 13 is one of CPU chip sets, and is a bridge for connecting the CPU 11, the MEM-P 12, the ASIC 16, and peripheral devices.

ASIC16は、画像処理用途向けのICであり各種の画像処理を行う。ASIC16は、AGP、HDD15、及び、MEM−C14をそれぞれ接続するブリッジの役割も果たす。CPU11は、MFP700の全体制御を行うと共にMFP700に実装されている各種アプリケーションを起動して実行させる。   The ASIC 16 is an IC for image processing applications and performs various image processing. The ASIC 16 also serves as a bridge for connecting the AGP, HDD 15 and MEM-C 14 respectively. The CPU 11 performs overall control of the MFP 700 and activates and executes various applications installed in the MFP 700.

MEM−P12は、MFP700のシステムが使用するシステムメモリであり、MEM−C14は、画像処理中の画像データのバッファとして用いられるローカルメモリである。   The MEM-P 12 is a system memory used by the MFP 700 system, and the MEM-C 14 is a local memory used as a buffer for image data during image processing.

HDD15は、大容量のストレージであり、SSD(Solid State Drive)などを用いてもよい。HDD15には、OS、各種のアプリケーション、フォントデータ等が記憶される。また、HDD15には色変換を行うプログラム23が記憶されている。プログラム23は、記憶媒体18に記憶された状態や不図示のサーバを介して配布される。   The HDD 15 is a large-capacity storage, and an SSD (Solid State Drive) or the like may be used. The HDD 15 stores an OS, various applications, font data, and the like. The HDD 15 stores a program 23 for performing color conversion. The program 23 is distributed via a state stored in the storage medium 18 or a server (not shown).

周辺機器17は、シリアルバス、NIC、USBホスト、IEEE802.11a/b/g/n、IEEE1394、及び、メモリカードI/Fである。シリアルバスには、例えばセントロニクスケーブルが接続される。NICはネットワークを介した通信を制御する。USBホストにはUSBケーブルを介して機器が接続される。IEEE802.11a/b/g/nはこれらの規格に従った無線LAN用のインタフェースであり、無線LANによる通信を制御する。IEEE1394は、高速なシリアル通信を制御するインタフェースである。メモリカードI/Fには各種のメモリカードが装着され、データの読み書きを行う。メモリカードは、例えば、SDカード、マルチメディアカード、xDカード等である。   The peripheral devices 17 are a serial bus, NIC, USB host, IEEE802.11a / b / g / n, IEEE1394, and memory card I / F. For example, a Centronics cable is connected to the serial bus. The NIC controls communication via the network. A device is connected to the USB host via a USB cable. IEEE802.11a / b / g / n is an interface for a wireless LAN according to these standards, and controls communication by the wireless LAN. IEEE 1394 is an interface that controls high-speed serial communication. Various memory cards are mounted on the memory card I / F, and data is read and written. The memory card is, for example, an SD card, a multimedia card, an xD card, or the like.

操作部31は、ハード的なキーボードと液晶などの表示手段とを有する。操作部31は、ユーザからの入力操作の受け付け、ユーザに向けた各種の画面の表示をおこなう。操作部31はタッチパネルを搭載しており、表示したソフトキーからユーザ操作を受け付けることもできる。   The operation unit 31 includes a hardware keyboard and display means such as a liquid crystal. The operation unit 31 receives an input operation from the user and displays various screens for the user. The operation unit 31 is equipped with a touch panel and can accept user operations from displayed soft keys.

ファックス制御ユニット32は、NCU(Network Control Unit)を介して公衆通信網に接続し、例えばG3、G4規格のファクシミリに対応した通信手順(通信プロトコル)等に従いファクシミリの送受信を行う。ファックス制御ユニット32は、画像データにデータ圧縮や変調等の信号処理を施して送信すると共に、相手先から受信した画像データにデータの伸長やエラー訂正等を施し画像データを復元する。   The fax control unit 32 is connected to a public communication network via an NCU (Network Control Unit), and performs facsimile transmission / reception according to a communication procedure (communication protocol) compatible with, for example, a G3 or G4 standard facsimile. The fax control unit 32 performs signal processing such as data compression and modulation on the image data and transmits the image data, and decompresses the image data received from the other party and corrects the error to restore the image data.

プロッタ33は、例えば、電子写真方式による白黒プロッタ又はカラープロッタであり、印刷対象データやスキャナ34が読み取った画像データに基づき、1ページ毎の画像を形成し、用紙に転写する。例えば、レーザービームを用いた電子写真プロセスを使って、感光ドラム等に形成したトナー画像を用紙に転写し、定着装置により熱と圧力により定着して出力する。また、インク液滴を塗布する形態で印刷してもよい。   The plotter 33 is, for example, a black-and-white plotter or a color plotter using an electrophotographic method, and forms an image for each page based on print target data or image data read by the scanner 34, and transfers the image to a sheet. For example, a toner image formed on a photosensitive drum or the like is transferred onto a sheet using an electrophotographic process using a laser beam, and is fixed by a fixing device with heat and pressure and output. Moreover, you may print in the form which apply | coats an ink droplet.

スキャナ34は、コンタクトガラスに載置された原稿を光学的に走査して、その反射光をA/D変換して公知の画像処理を施し所定の解像度のデジタルデータに変換し画像データを生成する。   The scanner 34 optically scans the document placed on the contact glass, A / D converts the reflected light, performs known image processing, converts it into digital data of a predetermined resolution, and generates image data. .

図5のMFPでは、図2の画像入力部601はスキャナ34が相当し、画像出力部602はプロッタ33が相当し、画像記憶部603はHDD15が相当し、画像解析部604はCPU11が相当し、パラメータ記憶部605はHDD15が相当し、画像処理部606はASIC16が相当する。   In the MFP of FIG. 5, the image input unit 601 of FIG. 2 corresponds to the scanner 34, the image output unit 602 corresponds to the plotter 33, the image storage unit 603 corresponds to the HDD 15, and the image analysis unit 604 corresponds to the CPU 11. The parameter storage unit 605 corresponds to the HDD 15, and the image processing unit 606 corresponds to the ASIC 16.

<機能構成>
図6は、画像処理システム600又はMFP700の機能ブロック図の一例である。画像処理システム600又はMFP700は、画像読み取り部301、地色補正部302、幾何学変換パラメータ推定部303、画素値対応付け部304、色再現特性推定部305、及び、色変換部306を有する。
<Functional configuration>
FIG. 6 is an example of a functional block diagram of the image processing system 600 or the MFP 700. The image processing system 600 or the MFP 700 includes an image reading unit 301, a ground color correction unit 302, a geometric conversion parameter estimation unit 303, a pixel value association unit 304, a color reproduction characteristic estimation unit 305, and a color conversion unit 306.

画像読み取り部301は、原稿画像データの出力結果である基準印刷物及びユーザ印刷物を読み取り、基準画像データ及びユーザ画像データを生成する。   The image reading unit 301 reads a reference printed material and a user printed material, which are output results of document image data, and generates reference image data and user image data.

地色補正部302は、予め与えられた基準画像データ及びユーザ画像データの地色(用紙色)を用いて、地色(用紙色)に応じた地色補正処理を行う。なお、以降では、地色補正部302により地色補正処理された基準画像データ及びユーザ画像データをそれぞれ「地色補正済み基準画像データ」及び「地色補正済みユーザ画像データ」と表す。   The ground color correction unit 302 performs ground color correction processing according to the ground color (paper color) using the ground color (paper color) of the reference image data and user image data given in advance. Hereinafter, the reference image data and the user image data subjected to the ground color correction processing by the ground color correction unit 302 will be referred to as “ground color corrected reference image data” and “ground color corrected user image data”, respectively.

幾何学変換パラメータ推定部303は、原稿画像データと地色補正済み基準画像データ、原稿画像データと地色補正済みユーザ画像データのそれぞれの幾何学変換パラメータを推定する。   The geometric conversion parameter estimation unit 303 estimates the respective geometric conversion parameters of the document image data and the ground color corrected reference image data, and the document image data and the ground color corrected user image data.

画素値対応付け部304は、幾何学変換パラメータを用いて、原稿画像データの画素に対応する位置の地色補正済み基準画像データの画素を検出し、それらの画素値を色成分の組合せごとに対応付けて画素値対応付けデータを作成する。同様に、画素値対応付け部304は、幾何学変換パラメータを用いて、原稿画像データの画素に対応する位置の地色補正済みユーザ画像データの画素を検出し、それらの画素値を色成分の組合せごとに対応付けて画素値対応付けデータを作成する。   The pixel value association unit 304 uses the geometric conversion parameters to detect pixels of the ground color corrected reference image data at positions corresponding to the pixels of the document image data, and sets the pixel values for each combination of color components. The pixel value association data is created in association with each other. Similarly, the pixel value association unit 304 detects the pixels of the ground image corrected user image data at the position corresponding to the pixels of the document image data by using the geometric conversion parameter, and uses these pixel values as the color component. Pixel value association data is created in association with each combination.

色再現特性推定部305は、画素値対応付けデータを用いて、基準色再現特性とユーザ色再現特性の逆特性を推定する。   The color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the reference color reproduction characteristic and the user color reproduction characteristic using the pixel value association data.

色変換部306は、基準色再現特性とユーザ色再現特性の逆特性を用いて、原稿画像データに色変換を施す。   A color conversion unit 306 performs color conversion on the document image data by using a reverse characteristic of the reference color reproduction characteristic and the user color reproduction characteristic.

<処理の詳細>
次に、本実施形態に係る画像処理システムの処理の詳細について説明する。
<Details of processing>
Next, details of processing of the image processing system according to the present embodiment will be described.

≪基準色再現特性の推定処理≫
図7は、基準色再現特性の推定処理の一例のフローチャートである(実施例1)。図7では、画像読取部301が基準印刷物を読み取り、色再現特性推定部305が基準色再現特性を推定するまでの処理について説明する。
≪Standard color reproduction characteristics estimation process≫
FIG. 7 is a flowchart of an example of a reference color reproduction characteristic estimation process (Example 1). In FIG. 7, processing until the image reading unit 301 reads the reference printed matter and the color reproduction characteristic estimation unit 305 estimates the reference color reproduction characteristic will be described.

画像読み取り部301は、基準印刷物を読み取り、基準画像データを生成する(ステップS101)。   The image reading unit 301 reads the reference printed material and generates reference image data (step S101).

地色補正部302は、基準画像データに地色補正処理を行う(ステップS102)。すなわち、地色補正部302は、予め与えられた基準画像データの地色(用紙色)が原稿画像データの白色点と一致するように、基準画像データ全体に対して色補正を行う。   The ground color correction unit 302 performs ground color correction processing on the reference image data (step S102). That is, the ground color correction unit 302 performs color correction on the entire reference image data so that the ground color (paper color) of the reference image data given in advance matches the white point of the document image data.

基準画像データの地色(用紙色)は、RGB色空間、XYZ色空間、L*a*b*色空間などの所定の色空間における色値として与えられる。これらの値には、予め地色(用紙色)を測色計で測色した値や上記のステップS101において基準印刷物を読み取ったものと同じスキャナでスキャンした値を用いることができる。また、スキャナのカラープロファイルを用いてデバイス非依存の色空間に変換できる場合、上記のステップS101で使用したスキャナとは異なるスキャナで読み取った値を用いてもよい。基準画像データの地色(用紙色)が原稿画像データの白色点と一致するように基準画像データ全体に対して色補正を行う例としては、次のようなものが挙げられる。   The ground color (paper color) of the reference image data is given as a color value in a predetermined color space such as an RGB color space, an XYZ color space, or an L * a * b * color space. As these values, a value obtained by measuring the ground color (paper color) with a colorimeter in advance, or a value scanned with the same scanner as that obtained by reading the reference printed material in step S101 can be used. In addition, when conversion to a device-independent color space is possible using the color profile of the scanner, a value read by a scanner different from the scanner used in step S101 may be used. Examples of performing color correction on the entire reference image data so that the ground color (paper color) of the reference image data matches the white point of the document image data include the following.

a) 基準画像データの地色(用紙色)を原稿画像データの白色点へシフトする方法
基準画像データがL*a*b*色空間である場合を一例として説明する。基準画像データの地色(用紙色)をL*a*b*色空間における規格上の白色点である(L*=100.0, a*=0.0, b*=0.0)にシフトする処理を基準画像データ全体に対して施すことで、基準画像データの地色(用紙色)を原稿画像データの白色点と一致させる。この方法は以下の式で表される。
a) Method of Shifting Base Color (Paper Color) of Reference Image Data to White Point of Document Image Data A case where the reference image data is in the L * a * b * color space will be described as an example. Processing to shift the ground color (paper color) of the reference image data to the standard white point (L * = 100.0, a * = 0.0, b * = 0.0) in the L * a * b * color space By applying it to the entire data, the ground color (paper color) of the reference image data is matched with the white point of the document image data. This method is represented by the following equation.

Figure 2016015647
ここで、(Lref*, aref*, bref*)は地色補正前の基準画像データのL*a*b*値を、(LrefW*, arefW*, brefW*)は基準画像データの地色(用紙色)のL*a*b*値を、(Lref'*, aref'*, bref'*)は地色補正後の基準画像データのL*a*b*値を表す。
Figure 2016015647
Here, (L ref *, a ref *, b ref *) is the L * a * b * value of the reference image data before ground color correction, and (L refW *, a refW *, b refW *) is the reference The L * a * b * value of the ground color (paper color) of the image data, (L ref '*, a ref ' *, b ref '*) is the L * a * b of the reference image data after ground color correction * Represents a value.

b) 比率変換を用いる方法
基準画像データが256階調のRGB色空間である場合を一例として説明する。原稿画像データの白色点(R=255, G=255, B255)を基準画像データの地色(用紙色)のRGB値でそれぞれ除した値を、基準画像データのRGB値に乗ずることで基準画像データの地色(用紙色)を原稿画像データの白色点と一致させる。この方法は以下の式で表される。
b) Method Using Ratio Conversion A case where the reference image data is an RGB color space with 256 gradations will be described as an example. By dividing the white point (R = 255, G = 255, B255) of the original image data by the RGB value of the ground color (paper color) of the reference image data, and multiplying the RGB value of the reference image data, the reference image The ground color (paper color) of the data is matched with the white point of the document image data. This method is represented by the following equation.

Figure 2016015647
ここで、(Rref, Gref, Bref)は地色補正前の基準画像データのRGB値を、(RrefW, GrefW, BrefW)は基準画像データの地色(用紙色)のRGB値を、(Rref', Gref', Bref')は地色補正後の基準画像データのRGB値を表す。
上記について、基準画像データの地色(用紙色)がRrefW=210, GrefW=220, BrefW=230である場合の基準画像データの地色補正前のRGB値と地色補正後のRGB値とを図8で示す。図8(a)〜図8(b)が示すように、例えば(Rref, Gref, Bref)=(210, 220, 230)は、(Rref', Gref', Bref')=(255, 255, 255)に変換される。
Figure 2016015647
Here, (R ref , G ref , B ref ) is the RGB value of the reference image data before ground color correction, and (R refW , G refW , B refW ) is the RGB of the ground color (paper color) of the reference image data The value (R ref ', G ref ', B ref ') represents the RGB value of the reference image data after ground color correction.
For the above, when the ground color (paper color) of the reference image data is R refW = 210, G refW = 220, B refW = 230, the RGB value before ground color correction of the reference image data and the RGB after ground color correction The values are shown in FIG. As shown in FIGS. 8A to 8B, for example, (R ref , G ref , B ref ) = (210, 220, 230) is (R ref ′, G ref ′, B ref ′) = (255, 255, 255)

次に、基準画像データがデバイス非依存のXYZ色空間である場合を一例として説明する。XYZ色空間上で原稿画像データの白色点(例えばD50など)のXYZ値を定めて、この白色点のXYZ値を基準画像データのXYZ値でそれぞれ除した値を、基準画像データのXYZ値に乗ずる方法がある。この方法は以下の式で表される。   Next, a case where the reference image data is a device-independent XYZ color space will be described as an example. The XYZ value of the white point (for example, D50) of the original image data is determined in the XYZ color space, and the value obtained by dividing the XYZ value of this white point by the XYZ value of the reference image data is used as the XYZ value of the reference image data. There is a way to ride. This method is represented by the following equation.

Figure 2016015647
ここで、(Xref, Yref, Zref)は地色補正前の基準画像データのXYZ値を、(Xn, Yn, Zn)は原稿画像データの白色点のXYZ値を、(XrefW, YrefW, ZrefW)は基準画像データの地色(用紙色)のXYZ値を、(Xref', Yref', Zref')は地色補正後の基準画像データのXYZ値を表す。
Figure 2016015647
Where (X ref , Y ref , Z ref ) is the XYZ value of the reference image data before ground color correction, (X n , Y n , Z n ) is the XYZ value of the white point of the original image data, ( X refW , Y refW , Z refW ) is the XYZ value of the ground color (paper color) of the reference image data, and (X ref ', Y ref ', Z ref ') is the XYZ value of the reference image data after ground color correction. Represents.

c) 色知覚を用いる方法
異なる光源下での色の見えを一致させるいわゆる色知覚モデルを用いる。色知覚モデルの一例として、Von Kries変換を用いて、基準画像データの地色(用紙色)が原稿画像データの白色点と一致するように地色補正する方法について以降説明する。
Von Kries変換は、光源W1下でのXYZ値を光源W2下でのXYZ値に変換するために、人間の色知覚空間PQR上でW2/W1の比率変換を施す方法である。人間の色知覚が光源の白色点に順応するというよりも、地色(用紙色)に順応すると解釈することで、Von Kries変換を用いて基準画像データの地色(用紙色)が原稿画像データの白色点と一致するように地色補正を行う。基準画像データがデバイス非依存のXYZ色空間である場合について一例として説明すると、Von Kries変換によれば次の関係が得られる。
c) Method using color perception A so-called color perception model is used that matches the appearance of colors under different light sources. As an example of the color perception model, a method of correcting the ground color using Von Kries conversion so that the ground color (paper color) of the reference image data matches the white point of the document image data will be described below.
The Von Kries conversion is a method of performing W2 / W1 ratio conversion on the human color perception space PQR in order to convert the XYZ value under the light source W1 into the XYZ value under the light source W2. By interpreting human color perception as adjusting to the ground color (paper color) rather than adjusting to the white point of the light source, the ground color (paper color) of the reference image data is converted to the original image data using Von Kries conversion. The ground color correction is performed so that it matches the white point of. A case where the reference image data is in a device-independent XYZ color space will be described as an example. According to Von Kries conversion, the following relationship is obtained.

Figure 2016015647
ここで、(Xref, Yref, Zref)は地色補正前の基準画像データのXYZ値を、(Xn, Yn, Zn)は原稿画像データの白色点のXYZ値を、(XrefW, YrefW, ZrefW)は基準画像データの地色(用紙色)のXYZ値を、(Xref', Yref', Zref')は地色補正後の基準画像データのXYZ値を表す。なお、上記ではVon Kries変換を用いて説明したが、この色知覚モデルに限定されるものではなく、Bradford変換やCIECAM97s、CIECAM02などを用いてもよい。
Figure 2016015647
Where (X ref , Y ref , Z ref ) is the XYZ value of the reference image data before ground color correction, (X n , Y n , Z n ) is the XYZ value of the white point of the original image data, ( X refW , Y refW , Z refW ) is the XYZ value of the ground color (paper color) of the reference image data, and (X ref ', Y ref ', Z ref ') is the XYZ value of the reference image data after ground color correction. Represents. In addition, although it demonstrated using Von Kries conversion above, it is not limited to this color perception model, Bradford conversion, CIECAM97s, CIECAM02, etc. may be used.

幾何学変換パラメータ推定部303は、原稿画像データと基準画像データの位置を合わせる(ステップS103)。   The geometric transformation parameter estimation unit 303 aligns the positions of the document image data and the reference image data (step S103).

2つの画像データの位置合わせを行うに先立って、幾何学変換パラメータ推定部303は、原稿画像データを基準とした時の地色補正済み基準画像データの幾何学変換パラメータを求める。幾何学変換パラメータの例としては、変位量、回転角、変倍率などがある。幾何学パラメータの推定には公知の技術を用いればよい。その例としては、マーカーを用いる方法や、マーカーを用いないパターンマッチング法や位相限定相関法などが挙げられる。   Prior to aligning the two image data, the geometric conversion parameter estimation unit 303 obtains the geometric conversion parameters of the ground color corrected reference image data with reference to the document image data. Examples of geometric transformation parameters include displacement, rotation angle, and scaling factor. A known technique may be used to estimate the geometric parameter. Examples thereof include a method using a marker, a pattern matching method not using a marker, a phase-only correlation method, and the like.

a) マーカーを用いる方法
「トンボ」と呼ばれるマーカーを原稿画像データの四隅や各辺の中央に配置したうえで出力し、基準画像データを読み取った際に、このトンボマーカの位置のずれを用いて、変位量や回転角、変倍率を求める方法である。
a) Method of using a marker Markers called “register marks” are arranged at the four corners and the center of each side of the document image data, and output when the reference image data is read. This is a method for obtaining a displacement amount, a rotation angle, and a scaling factor.

b) パターンマッチング法を用いる方法
変位量のみを推定する方法の一例としては、テンプレートマッチング法が挙げられる。テンプレートマッチング法は一方の画像をテンプレートとし、位置を少しずつずらしながら他方の画像と一致度を求め、最も一致度の高くなる位置を検出するものである。幾何学変換が変位だけに限定できない場合には、回転角を推定する方法(ハフ変換など)や変倍量を推定する方法(マルチスケール解析など)と組み合わせて利用する必要がある。
テンプレートマッチングを応用したブロックマッチング法では、一方の画像をブロックに分割し、ブロックごとに他方の画像と最も一致度の高くなる位置を検出することにより変位量を求めることができる。ブロックマッチング法では、ブロックごとの変位量から回転角や変倍率を推定することも可能である。
b) Method Using Pattern Matching Method One example of a method for estimating only the displacement amount is a template matching method. In the template matching method, one image is used as a template, the degree of coincidence with the other image is obtained while gradually shifting the position, and the position with the highest degree of coincidence is detected. When the geometric transformation cannot be limited to only displacement, it is necessary to use in combination with a method for estimating the rotation angle (such as Hough transform) or a method for estimating the amount of magnification (such as multi-scale analysis).
In the block matching method using template matching, one image is divided into blocks, and the displacement amount can be obtained by detecting the position having the highest degree of coincidence with the other image for each block. In the block matching method, it is also possible to estimate the rotation angle and magnification from the displacement amount for each block.

c) 位相限定相関法を用いる方法
高い精度で変位量や回転角、変倍率を求める方法の例として、位相限定相関法(POC、Phase Only Correlation)や回転不変位相限定相関法(RIPOC、Rotation Invariant Phase Only Correlation)がある。位相限定相関法は、画像に対して離散フーリエ変換をかけて得られる位相画像を用い、比較対象の二枚の画像から得られる二つの位相画像の相関が最も高くなる位置を検出することにより、変位量を求める手法である。また、回転不変位相限定相関法は、上記位相画像を対数極座標変換することにより、回転角と変倍率を変換された位相画像上での変位量として検出できるようにしたものである。
c) Method using phase-only correlation method Examples of methods for obtaining displacement, rotation angle, and magnification with high accuracy include phase-only correlation (POC) and rotation-invariant phase-only correlation (RIPOC, Rotation Invariant). Phase Only Correlation). The phase only correlation method uses a phase image obtained by subjecting an image to a discrete Fourier transform, and detects a position where the correlation between two phase images obtained from two images to be compared is highest, This is a method for obtaining a displacement amount. The rotation-invariant phase-only correlation method is such that the rotation angle and the scaling factor can be detected as a displacement amount on the converted phase image by logarithmic polar coordinate conversion of the phase image.

以上により幾何学変換パラメータが求まったら、幾何学変換パラメータ推定部303は地色補正済み基準画像データに幾何学変換を実行する。変換に際してサブピクセル精度の移動や何らかの回転、実数値での変倍などにより変換前後の画素が一対一で対応付かないようなケースでは、適宜画素補間手法を用いて画素値を導出すればよい。画素補間手法の例としては、バイリニア法、バイキュービック法などが挙げられる。   When the geometric conversion parameters are obtained as described above, the geometric conversion parameter estimation unit 303 performs geometric conversion on the ground color corrected reference image data. In the case where the pixels before and after conversion do not correspond one-to-one due to sub-pixel precision shift, some rotation, or scaling with a real value at the time of conversion, the pixel value may be derived appropriately using a pixel interpolation method. Examples of pixel interpolation methods include bilinear methods and bicubic methods.

なお、幾何学変換は必須ではなく、次ステップにおいて原稿画像データと地色補正済み基準画像データにおいて同じ位置の画素を取得する際に、幾何学変換パラメータを用いて座標変換を行い、同じ位置か否かを判断することによって代替してもよい。後者を換言すれば、各画像の原点を基準とする座標系では異なる座標値を保持していても、幾何学変換の結果、同じ座標値となる画素を「同じ位置の画素」と見なすことになる。   Note that geometric conversion is not essential, and in the next step, when acquiring the pixel at the same position in the original image data and the ground color corrected reference image data, coordinate conversion is performed using the geometric conversion parameter, It may be replaced by determining whether or not. In other words, even if the coordinate system based on the origin of each image holds different coordinate values, the pixels with the same coordinate value as a result of geometric transformation are regarded as “pixels at the same position”. Become.

原稿画像データを出力して得られた印刷物には画像の周囲に余白が存在するケースが存在する。この様なケースでは、幾何学変換の変位量に余白部分の高さや幅が含まれるため余白部分を参照することはないが、出力画像データにおいて余白部分を排除するように必要な領域を切り出し、各画像における原点の位置を一致させてもよい。   There are cases where margins exist around the printed material obtained by outputting the document image data. In such a case, since the height and width of the margin part are included in the displacement amount of the geometric transformation, the margin part is not referred to, but a necessary area is cut out in the output image data so as to exclude the margin part, You may make the position of the origin in each image correspond.

次に、画素値対応付け部304は、原稿画像データと地色補正済み基準画像データの同じ位置の画素値を色成分の組合せごとに対応付ける(ステップS104)。すなわち、画素値対応付け部304は、原稿画像データと地色補正済み基準画像データの位置合わせが完了したら、二つの画像データにおいて対応する画素の画素値を取得し、これらを色成分の組合せごとに対応付けて画素値対応付けデータを作成する。なお、画像データを幾何学変換して位置合わせを行う場合には、「対応する画素」とは「同じ位置にある画素」である。一方、画像データを幾何学変換しない場合には、座標変換によって同じ座標値となる位置を「同じ位置」とし、その位置に存在する画素を「対応する画素」と見なす。   Next, the pixel value association unit 304 associates the pixel values at the same position in the document image data and the ground color corrected reference image data for each combination of color components (step S104). In other words, when the alignment between the document image data and the ground color corrected reference image data is completed, the pixel value association unit 304 acquires the pixel values of the corresponding pixels in the two image data, and uses these for each combination of color components. Pixel value association data is created in association with. Note that, when performing alignment by geometrically converting image data, the “corresponding pixels” are “pixels at the same position”. On the other hand, when the image data is not geometrically converted, the position having the same coordinate value by the coordinate conversion is regarded as “the same position”, and the pixel existing at that position is regarded as the “corresponding pixel”.

画素値を色成分の組合せごとに対応付けて記録する方法の例としては、リスト形式で記録する方法がある。原稿画像データと地色補正済み基準画像データが両方ともRGB画像で各色成分が256階調であるケースを想定して説明する。画素値のリストへの記録は次の手順で行う。   As an example of a method of recording pixel values in association with each combination of color components, there is a method of recording in a list format. Description will be made assuming that both the document image data and the ground color corrected reference image data are RGB images and each color component has 256 gradations. The pixel value list is recorded in the following procedure.

1)リストを1枚用意する
2)原稿画像データのある座標を選択する
3)2)で選択された原稿画像データの画素のR成分値(Rin)と、G成分値(Gin)と、B成分値(Bin)と、地色補正済み基準画像データの対応する画素のR成分値(Rout1)と、G成分値(Gout1)と、B成分値(Bout1)と、を束ねてリストに追加する
4)これを原稿画像データの全ての座標について繰り返す
これらのリストは必要に応じて昇順や降順に並び替えてもよい。処理を簡略化するために、原稿画像データの全ての座標について繰り返すのではなく、特定の範囲に限定したり、所定の刻み幅で座標を移動したりしてもよい。なお、リスト形式で記録したデータの一例を図9に示す。図9では、左半分に原稿画像データの画素の各成分値(Rin, Gin, Bin)が記録されており、右半分に地色補正済み基準画像データの対応する画素各成分値(Rout1, Gout1, Bout1)が記録されている。
1) Prepare one list
2) Select the coordinates with the original image data
3) Correspondence between the R component value (R in ), G component value (G in ), B component value (B in ), and ground color corrected reference image data of the original image data pixel selected in 2) The R component value (R out1 ), G component value (G out1 ), and B component value (B out1 ) of the pixel to be added are bundled and added to the list.
4) Repeat this process for all coordinates of the document image data. These lists may be sorted in ascending or descending order as necessary. In order to simplify the processing, the coordinates may be limited to a specific range, or the coordinates may be moved by a predetermined step size, instead of being repeated for all the coordinates of the document image data. An example of data recorded in a list format is shown in FIG. In FIG. 9, the component values (R in , G in , B in ) of the pixels of the document image data are recorded on the left half, and the corresponding pixel component values (R in , G in , B in ) of the ground color corrected reference image data are recorded on the right half. R out1 , G out1 , B out1 ) are recorded.

なお、画素値対応付けデータを生成する際には、画像データ(原稿画像データ、地色補正済み基準画像データ)のコンテンツの輪郭部分を除くことが望ましい。これは、位置合わせにおいて、輪郭部分を完全に合わせることが困難であり、画素値の対応付けに誤りが発生する可能性があるためである。画素値対応付けに誤りが発生すると、後述する色再現特性の推定精度を低下させてしまう。   When generating the pixel value association data, it is desirable to remove the outline portion of the content of the image data (original image data, ground color corrected reference image data). This is because it is difficult to perfectly align the contour portion in alignment, and an error may occur in association of pixel values. If an error occurs in pixel value association, the estimation accuracy of the color reproduction characteristics described later is lowered.

輪郭部分を検出する方法としては、例えば、二値化を用いる方法や、エッジ検出を用いる方法がある。   As a method for detecting a contour portion, for example, there are a method using binarization and a method using edge detection.

二値化を用いる方法としては、例えば、画像データを所定の閾値で白黒に二値化し、白い領域と黒い領域とが隣接する箇所を輪郭部分として判断する方法がある。   As a method using binarization, for example, there is a method in which image data is binarized into black and white with a predetermined threshold, and a portion where a white region and a black region are adjacent is determined as a contour portion.

エッジ検出を用いる方法としては、例えば、画像データからSobel法などを用いてエッジ画像を生成し、これを所定の閾値で二値化して閾値以上の画素を輪郭部分として判断する方法がある。   As a method using edge detection, for example, there is a method in which an edge image is generated from image data using a Sobel method or the like, binarized with a predetermined threshold value, and a pixel equal to or higher than the threshold value is determined as a contour portion.

なお、輪郭部分を除去せずに、上記の推定精度の低下を緩和する方法もある。例えば、画像データを平滑化して輪郭部分を滑らかにし、輪郭部分で出現する色差を低減するというものである。平滑化には、平均化フィルタやローパスフィルタなど従来技術を用いればよい。   There is also a method of alleviating the above-described decrease in estimation accuracy without removing the contour portion. For example, the image data is smoothed to smooth the contour portion, and the color difference appearing at the contour portion is reduced. For smoothing, a conventional technique such as an averaging filter or a low-pass filter may be used.

次に、色再現特性推定部305は、基準色再現特性を推定する(ステップS105)。すなわち、ステップS104で生成した画素値対応付けデータを用いて、原稿画像データのある画素値が地色補正済み基準画像データのどの画素値が対応付くかを求める。ステップS104と同様に原稿画像データと地色補正済み基準画像データが両方ともRGB画像で各色成分が256階調であるとして説明する。   Next, the color reproduction characteristic estimation unit 305 estimates reference color reproduction characteristics (step S105). That is, the pixel value association data generated in step S104 is used to determine which pixel value in the ground color corrected reference image data corresponds to a certain pixel value in the document image data. As in step S104, the document image data and the ground color corrected reference image data are both RGB images and each color component has 256 gradations.

基準色再現特性の推定とは、画素値対応付けデータを用いて、原稿画像データの色成分値(Rin, Gin, Bin)から地色補正済み基準画像データの色成分値(Rout1, Gout1, Bout1)への色変換を行なう際の対応関係を表す色変換特性を推定することである。 Estimating the reference color reproduction characteristics means using the pixel value association data and the color component value (R out1 ) of the ground image corrected reference image data from the color component values (R in , G in , B in ) of the document image data. , G out1 , B out1 ) to estimate a color conversion characteristic representing a correspondence relationship when performing color conversion.

基準色再現特性を推定する方法としては、例えば次のような多項式関数近似が挙げられる。   As a method for estimating the reference color reproduction characteristics, for example, the following polynomial function approximation can be cited.

Figure 2016015647
ここで、Xは原稿画像データの色成分値[Rin, Gin, Bin]t、Yは地色補正済み基準画像データの色成分値[Rout1, Gout1, Bout1]t、MSは補正係数行列、fは補正関数である。補正関数f(X)は、f(X)=[Rin, Gin, Bin, Rin 2, Gin 2, Bin 2, RinGin, GinBin, BinRin, Rin 3, Gin 3, Bin 3, Rin 2Gin, Gin 2Bin, Bin 2Rin, ・・・, 1]tなどが用いられる。原稿画像データと地色補正済み基準画像データとの間が線形歪みをもつときは、補正係数f(X)=[Rin, Gin, Bin]tの3項に、3×3の補正係数行列MSを操作した線形変換による推定で十分であるが、複雑な非線形歪みをもつときは高次の関数項を用いて高精度の色再現特性の推定が必要となる。
Figure 2016015647
Here, X is the color component value [R in , G in , B in ] t of the original image data, Y is the color component value [R out1 , G out1 , B out1 ] t , M of the ground image corrected reference image data S is a correction coefficient matrix, and f is a correction function. The correction function f (X) is f (X) = [R in , G in , B in , R in 2 , G in 2 , B in 2 , R in G in , G in B in , B in R in , R in 3, G in 3, B in 3, R in 2 G in, G in 2 B in, B in 2 R in, ···, 1] t the like. When there is linear distortion between the original image data and the ground-corrected reference image data, 3 × 3 correction is added to the three terms of the correction coefficient f (X) = [R in , G in , B in ] t Although estimation by linear transformation by manipulating the coefficient matrix M S is sufficient, when there is complicated nonlinear distortion, it is necessary to estimate color reproduction characteristics with high accuracy using a higher-order function term.

補正係数MSは、例えば最小2乗法により求めることができる。画素値対応付けデータに記憶されたN個の地色補正済み基準画像データの色成分値Y(n)(n=1〜N)に対応する原稿画像データの色成分値X(n)(n=1〜N)を用いて、 The correction coefficient M S can be obtained by, for example, the least square method. Color component value X (n) (n) of the original image data corresponding to the color component value Y (n) (n = 1 to N) of the N ground color corrected reference image data stored in the pixel value association data = 1 to N)

Figure 2016015647
の最小条件により、次式で計算される。
Figure 2016015647
Is calculated by the following equation.

Figure 2016015647
ここで、YN及びXNはN個の画素値対応付けデータ行列を表し、YNは地色補正済み基準画像データの色成分値行列であり、XNは原稿画像データの色成分値行列を表す。
Figure 2016015647
Here, Y N and X N represent N pixel value association data matrices, Y N is a color component value matrix of ground image corrected reference image data, and X N is a color component value matrix of document image data Represents.

Figure 2016015647
ここで、Rout1(n)は画素値対応付けデータに登録されているn番目の地色補正済み基準画像データのR成分値を表し、Rin(n)は画素値対応付けデータに登録されているn番目の原稿画像データのR成分値を表す(Gout1(n)、Bout1(n)、Gin(n)、Bin(n)も同様である)。
Figure 2016015647
Here, R out1 (n) represents the R component value of the nth ground color corrected reference image data registered in the pixel value association data, and R in (n) is registered in the pixel value association data. Represents the R component value of the nth original image data (G out1 (n), B out1 (n), G in (n), B in (n) are the same).

f(XN)は、原稿画像データの色成分値の関数項行列で、2次関数の場合を例にとれば、次の10×Nの行列となる。 f (X N ) is a function term matrix of the color component values of the original image data, and taking the case of a quadratic function as an example, it is the following 10 × N matrix.

Figure 2016015647
なお、基準色再現特性の推定に用いる関数項は、複数の色成分値を基にした多次元のデータであれば、上述したものに限定されるものではない。また、基準色再現特性の推定方法の一例として多項式近似を挙げたが、その他にも画素値対応付けデータを学習データに用いたニューラルネットワークなどで特性を推定することも可能である。また、ステップS104で生成した画素値対応付けデータにおいて原稿画像データの全ての座標について対応関係を記録してある場合には、画素値対応付けデータをそのまま基準色再現特性として用いることもできる。
Figure 2016015647
Note that the function term used for estimating the reference color reproduction characteristics is not limited to the above as long as it is multidimensional data based on a plurality of color component values. In addition, polynomial approximation is given as an example of the estimation method of the reference color reproduction characteristics, but it is also possible to estimate the characteristics using a neural network or the like using pixel value association data as learning data. Further, when the correspondence relationship is recorded for all the coordinates of the document image data in the pixel value association data generated in step S104, the pixel value association data can be used as the reference color reproduction characteristic as it is.

≪ユーザ色再現特性の逆特性の推定処理≫
図10は、ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例1)。図10では、画像読取部301がユーザ印刷物を読み取り、色再現特性推定部305がユーザ色再現特性の逆特性を推定するまでの処理について説明する。
≪Process for estimating reverse characteristics of user color reproduction characteristics≫
FIG. 10 is a flowchart of an example of an estimation process of the inverse characteristic of the user color reproduction characteristic (Example 1). In FIG. 10, processing until the image reading unit 301 reads a user printed matter and the color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the user color reproduction characteristic will be described.

ステップS201〜ステップS204の処理は、それぞれ図7のステップS101〜ステップS104の処理において、それぞれ「基準印刷物」を「ユーザ印刷物」、「基準画像データ」を「ユーザ画像データ」と読み替える。すると、ステップS201〜ステップS204の処理は、それぞれ図7のステップS101〜ステップS104の処理と同様のため説明を省略する。   In the processes in steps S201 to S204, “reference printed matter” is read as “user printed matter” and “reference image data” is read as “user image data” in the steps S101 to S104 in FIG. Then, since the process of step S201-step S204 is the same as the process of step S101-step S104 of FIG. 7, description is abbreviate | omitted.

なお、ステップS204においてリスト形式で記録したデータの一例を図11に示す。図11では、左半分に原稿画像データの画素の各成分値(Rin, Gin, Bin)が記録されており、右半分に地色補正済みユーザ画像データの対応する画素各成分値(Rout2, Gout2, Bout2)が記録されている。 An example of the data recorded in the list format in step S204 is shown in FIG. In FIG. 11, the component values (R in , G in , B in ) of the pixels of the document image data are recorded on the left half, and the corresponding pixel component values (R in , G in , B in ) of the ground image corrected user image data are recorded on the right half. R out2 , G out2 , B out2 ) are recorded.

次に、色再現特性推定部305は、ユーザ色再現特性の逆特性を推定する(ステップS205)。すなわち、ステップS204で生成した画素値対応付けデータを用いて、地色補正済みユーザ画像データのある画素値が原稿画像データのどの画素値が対応付くかを求める。ステップS105と同様にユーザ画像データと原稿画像データが両方ともRGB画像で各色成分が256階調であるとして説明する。   Next, the color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the user color reproduction characteristic (step S205). That is, the pixel value association data generated in step S204 is used to determine which pixel value in the document image data corresponds to a certain pixel value in the ground color corrected user image data. As in step S105, it is assumed that both the user image data and the document image data are RGB images and each color component has 256 gradations.

ユーザ色再現特性の逆特性の推定とは、画素値対応付けデータを用いて、地色補正済みユーザ画像データの色成分値(Rout2, Gout2, Bout2)から原稿画像データの色成分値(Rin, Gin, Bin)への色変換を行なう際の対応関係を表す色変換特性を推定することである。 Estimating the reverse characteristics of the user color reproduction characteristics means using the pixel value association data and the color component values of the document image data from the color component values (R out2 , G out2 , B out2 ) of the ground image corrected user image data This is to estimate a color conversion characteristic representing a correspondence relationship when performing color conversion to (R in , G in , B in ).

ユーザ色再現特性の逆特性を推定する方法としては、例えば次のような多項式関数近似が挙げられる。   As a method for estimating the inverse characteristic of the user color reproduction characteristic, for example, the following polynomial function approximation can be cited.

Figure 2016015647
ここで、Xは地色補正済みユーザ画像データの色成分値[Rout2, Gout2, Bout2]t、Yは原稿画像データの色成分値[Rin, Gin, Bin]t、MSは補正係数行列、fは補正関数である。補正関数f(X)は、f(X)=[Rout2, Gout2, Bout2, Rout2 2, Gout2 2, Bout2 2, Rout2Gout2, Gout2Bout2, Bout2Rout2, Rout2 3, Gout2 3, Bout2 3, Rout2 2Gout2, Gout2 2Bout2, Bout2 2Rout2, ・・・, 1]tなどが用いられる。地色補正済みユーザ画像データと原稿画像データとの間が線形歪みをもつときは、補正係数f(X)=[Rout2, Gout2, Bout2]tの3項に、3×3の補正係数行列MSを操作した線形変換による推定で十分であるが、複雑な非線形歪みをもつときは高次の関数項を用いて高精度の色再現特性の推定が必要となる。
Figure 2016015647
Here, X is the color component value [R out2 , G out2 , B out2 ] t of the ground image corrected user image data, Y is the color component value [R in , G in , B in ] t , M of the original image data S is a correction coefficient matrix, and f is a correction function. The correction function f (X) is f (X) = [R out2 , G out2 , B out2 , R out2 2 , G out2 2 , B out2 2 , R out2 G out2 , G out2 B out2 , B out2 R out2 , R out2 3, G out2 3, B out2 3, R out2 2 G out2, G out2 2 B out2, B out2 2 R out2, ···, 1] t the like. When the ground color corrected user image data and the document image data have linear distortion, the correction coefficient f (X) = [R out2 , G out2 , B out2 ] t 3 terms, 3 × 3 correction Although estimation by linear transformation by manipulating the coefficient matrix M S is sufficient, when there is complicated nonlinear distortion, it is necessary to estimate color reproduction characteristics with high accuracy using a higher-order function term.

補正係数MSは、例えば最小2乗法により求めることができる。画素値対応付けデータに記憶されたN個の原稿画像データの色成分値Y(n)(n=1〜N)に対応する地色補正済みユーザ画像データの色成分値X(n)(n=1〜N)を用いて、 The correction coefficient M S can be obtained by, for example, the least square method. Color component value X (n) (n) of ground image corrected user image data corresponding to color component value Y (n) (n = 1 to N) of N document image data stored in the pixel value association data = 1 to N)

Figure 2016015647
の最小条件により、次式で計算される。
Figure 2016015647
Is calculated by the following equation.

Figure 2016015647
ここで、YN及びXNはN個の画素値対応付けデータ行列を表し、YNは原稿画像データの色成分値行列であり、XNは地色補正済みユーザ画像データの色成分値行列を表す。
Figure 2016015647
Here, Y N and X N represent N pixel value association data matrices, Y N is a color component value matrix of document image data, and X N is a color component value matrix of ground image corrected user image data Represents.

Figure 2016015647
ここで、Rout2(n)は画素値対応付けデータに登録されているn番目の地色補正済みユーザ画像データのR成分値を表し、Rin(n)は画素値対応付けデータに登録されているn番目の原稿画像データのR成分値を表す(Gout2(n)、Bout2(n)、Gin(n)、Bin(n)も同様である)。
Figure 2016015647
Here, R out2 (n) represents the R component value of the nth ground color corrected user image data registered in the pixel value association data, and R in (n) is registered in the pixel value association data. Represents the R component value of the nth original image data (G out2 (n), B out2 (n), G in (n), B in (n) are the same).

f(XN)は、原稿画像データの色成分値の関数項行列で、2次関数の場合を例にとれば、次の10×Nの行列となる。 f (X N ) is a function term matrix of the color component values of the original image data, and taking the case of a quadratic function as an example, it is the following 10 × N matrix.

Figure 2016015647
なお、ユーザ色再現特性の逆特性の推定に用いる関数項は、複数の色成分値を基にした値を含む多次元のデータであれば、上述したものに限定されるものではない。また、ユーザ色再現特性の逆特性の推定方法の一例として多項式近似を挙げたが、その他にも画素値対応付けデータを学習データに用いたニューラルネットワークなどで特性を推定することも可能である。ただし、ステップS105とは異なり、ステップS204で生成した画素値対応付けデータをそのままユーザ色再現特性の逆特性として用いることはできない。これは、地色補正済み基準画像データにある画素値の色成分の組合せが、地色補正済みユーザ画像データ内にあるとは限らないため、画素値対応付けデータには存在しない画素値の色成分の組合せに対しても、推定する必要があるためである。
Figure 2016015647
Note that the function term used to estimate the inverse characteristic of the user color reproduction characteristic is not limited to the above as long as it is multidimensional data including a value based on a plurality of color component values. In addition, polynomial approximation is given as an example of a method for estimating the inverse characteristic of the user color reproduction characteristic, but it is also possible to estimate the characteristic using a neural network or the like using pixel value association data as learning data. However, unlike step S105, the pixel value association data generated in step S204 cannot be used as the reverse characteristic of the user color reproduction characteristic as it is. This is because the combination of the color components of the pixel values in the ground color corrected reference image data is not necessarily in the ground color corrected user image data, so the color of the pixel value that does not exist in the pixel value association data This is because it is necessary to estimate the combination of components.

≪色変換処理≫
続いて、色変換処理の詳細について説明する。図12は、色変換処理の一例のフローチャートである。
≪Color conversion process≫
Next, details of the color conversion process will be described. FIG. 12 is a flowchart illustrating an example of color conversion processing.

まず、色再現特性推定部305は、基準色再現特性を推定する(ステップS301)。すなわち、図7を用いて説明した基準色再現特性の推定処理を行う。なお、本ステップは1回だけ実行すればよい。仮に複数回実行する場合、本ステップで使用する原稿画像データはオリジナルのものを用い、色変換後のものを用いないことに留意する必要がある。   First, the color reproduction characteristic estimation unit 305 estimates a reference color reproduction characteristic (step S301). That is, the reference color reproduction characteristic estimation process described with reference to FIG. 7 is performed. Note that this step need only be executed once. If it is executed a plurality of times, it should be noted that the original image data used in this step is the original one, and the color-converted one is not used.

次に、例えばユーザはユーザプリンタ200で原稿画像データを印刷する(ステップS302)。ユーザプリンタ200を用いて原稿画像データを印刷することにより、ユーザ印刷物を得る。   Next, for example, the user prints document image data with the user printer 200 (step S302). By printing the document image data using the user printer 200, a user print is obtained.

色変換部306は、ユーザ印刷物を評価する(ステップS303)。そして、ユーザ印刷物と基準印刷物とを比較してユーザ印刷物の品質を評価する(ステップS304)。   The color conversion unit 306 evaluates the user print (step S303). Then, the quality of the user printed material is evaluated by comparing the user printed material with the reference printed material (step S304).

ユーザ印刷物の品質が十分であれば(ステップS304のYes)、処理を終了し、そうでなければ(ステップS304のNo)、次ステップS305に進む。   If the quality of the user printed material is sufficient (Yes in step S304), the process ends. If not (No in step S304), the process proceeds to the next step S305.

ユーザ印刷物の品質を評価する方法の例として、基準印刷物との色差を用いる方法がある。他の例としては、色相差を用いる方法や、各色成分の差の絶対値を用いる方法もある。   As an example of a method for evaluating the quality of a user print, there is a method using a color difference from a reference print. Other examples include a method using a hue difference and a method using an absolute value of a difference between each color component.

a) 色差を用いる評価方法
色差とは、L*a*b*色空間やL*u*v*色空間における二つの色の距離である。本実施例は画像出力機器としてプリンタを用いていることからL*a*b*色空間を用いて説明する。L*a*b*色空間の色差ΔE*abは以下の式で定義される。
a) Evaluation Method Using Color Difference Color difference is the distance between two colors in the L * a * b * color space or L * u * v * color space. Since this embodiment uses a printer as an image output device, an explanation will be given using the L * a * b * color space. The color difference ΔE * ab in the L * a * b * color space is defined by the following equation.

Figure 2016015647
ここで、(ΔL*, Δa* ,Δb*)はL*a*b*色空間における2色の色度差である。
基準印刷物とユーザ印刷物の色差を求める手順の一例を以下に示す。
(1)基準印刷物をスキャナ300により読み取り基準画像データを得る
(2)ユーザ印刷物を(1)と同じスキャナ300により読み取りユーザ画像データを得る
(3)基準画像データとユーザ画像データとをスキャナ300のカラープロファイルを用いてデバイス非依存の色空間(XYZ色空間など)に変換する
(4)デバイス非依存の色空間に変換された基準画像データとユーザ画像データとをL*a*b*色空間に変換する
(5)予め与えられた基準画像データ及びユーザ画像データの地色(用紙色)を用いて、地色(用紙色)に応じた地色補正処理を行う(すなわち、図7のステップS102及び図10のステップS202を行う)
(6)上式により画素ごとの色差を求める
基準印刷物とユーザ印刷物とを同じスキャナ300で読み取るとしているが、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換できる場合、二つの印刷物を別々のスキャナ300で読み取ってもよい。また、上記では地色(用紙色)に応じた地色補正処理は、デバイス非依存の色空間に変換した後に行っているが、デバイス非依存の色空間への変換前に地色(用紙色)に応じた地色補正処理を行ってもよい。他方、印刷用紙の影響まで含めて評価したい場合は、この地色補正処理は省略してもよい。
Figure 2016015647
Here, (ΔL *, Δa *, Δb *) is a chromaticity difference between two colors in the L * a * b * color space.
An example of the procedure for obtaining the color difference between the reference print and the user print is shown below.
(1) A reference print is read by the scanner 300 to obtain reference image data. (2) A user print is read by the same scanner 300 as in (1) to obtain user image data. (3) The reference image data and user image data are obtained from the scanner 300. Convert to a device-independent color space (XYZ color space, etc.) using a color profile. (4) L * a * b * color space with reference image data and user image data converted to a device-independent color space. (5) A ground color correction process corresponding to the ground color (paper color) is performed using the ground color (paper color) of the reference image data and the user image data given in advance (that is, step in FIG. 7). (S102 and step S202 of FIG. 10 are performed)
(6) Obtaining the color difference for each pixel using the above formula The reference printed material and the user printed material are read by the same scanner 300, but if the color profile of the scanner 300 can be used to convert the device-independent color space, two printed materials May be read by a separate scanner 300. In the above description, the ground color correction processing corresponding to the ground color (paper color) is performed after conversion to the device-independent color space. However, the ground color (paper color) is not converted to the device-independent color space. ) May be performed in accordance with ground color correction processing. On the other hand, when it is desired to evaluate including the influence of printing paper, this ground color correction process may be omitted.

スキャナ300を一台のみ使用する場合には、カラープロファイルを用いてデバイス非依存の色空間に変換することは必須ではない。色差の値を定量的に評価するケースでは、絶対的な値が重要であるためデバイス非依存の色空間への変換が必要であるが、色差の値を定性的に評価するケースでは相対的な傾向がつかめればよいためデバイス非依存の色空間への変換を省略してもよい。   When only one scanner 300 is used, it is not essential to convert to a device-independent color space using a color profile. In cases where color difference values are evaluated quantitatively, absolute values are important, so conversion to a device-independent color space is necessary.However, in cases where color difference values are evaluated qualitatively, they are relative. Since it is only necessary to grasp the tendency, conversion to a device-independent color space may be omitted.

画素ごとの色差が求まったら、この情報を統計的に分析し、ユーザ印刷物の品質を定量的に評価することができる。分析方法の例としては、色差の平均値、最大値、値の分布、分散などが挙げられる。   Once the color difference for each pixel is found, this information can be statistically analyzed to quantitatively evaluate the quality of the user print. Examples of the analysis method include an average value, maximum value, value distribution, and variance of color differences.

品質が十分であるか否かの判断は、
・平均色差が所定の値以内に収まっているか否か、
・最大色差が所定の値以内に収まっているか否か、
・分散が所定の値以内に収まっているか否か、
などの基準で判断することができる。なお、ユーザ印刷物の品質を評価する際には、画像データのコンテンツの輪郭部分を除くことが望ましい。これは、
・後の処理で必要な位置合わせにおいて、輪郭部分を完全に合わせることが困難であること、
・プリンタによって輪郭部分の再現性が異なること (色味やシャープなど)
などの理由から、輪郭部分で大きな色差が出現する可能性があるためである。
The judgment of whether the quality is sufficient is
-Whether the average color difference is within a predetermined value,
-Whether the maximum color difference is within a predetermined value,
・ Whether the variance is within the prescribed value,
It can be judged by such criteria. When evaluating the quality of user prints, it is desirable to remove the outline portion of the content of the image data. this is,
・ It is difficult to perfectly align the contours in the alignment required for later processing.
・ The reproducibility of the contour varies depending on the printer (color, sharpness, etc.)
This is because there is a possibility that a large color difference appears in the contour portion.

輪郭部分の面積は全印刷物の面積のごく一部であるため、目視による全体的な色の評価に与える影響は限定的である。一方、定量的な評価においては、上述の輪郭部分の大きな色差が外れ値として評価結果の信頼性を低下させる懸念があることから、輪郭部分のデータを無視する方が高い精度の評価結果が期待できる。   Since the area of the contour portion is a small part of the area of the entire printed matter, the influence on the overall color evaluation by visual inspection is limited. On the other hand, in quantitative evaluation, there is a concern that the large color difference of the contour portion described above may be an outlier and reduce the reliability of the evaluation result. it can.

輪郭部分を検出する方法の例としては、二値化を用いる方法や、エッジ検出を用いる方法が挙げられる。二値化を用いる方法の一例としては、画像データを所定の閾値で白黒に二値化し、白い領域と黒い領域とが隣接する箇所を輪郭部分として判断する方法がある。エッジ検出を用いる方法の一例としては、画像データからSobel法などを用いてエッジ画像を作成し、これを所定の閾値で二値化して閾値以上の画素を輪郭部分として判断する方法がある。   Examples of the method for detecting the contour portion include a method using binarization and a method using edge detection. As an example of a method using binarization, there is a method in which image data is binarized into black and white with a predetermined threshold, and a portion where a white region and a black region are adjacent is determined as a contour portion. As an example of a method using edge detection, there is a method in which an edge image is created from image data by using a Sobel method or the like, and this is binarized with a predetermined threshold value, and pixels above the threshold value are determined as contour portions.

輪郭部分を除去せずに、上記課題を緩和する方法もある。例えば、画像データを平滑化して輪郭部分を滑らかにし、輪郭部分で出現する色差を低減するというものである。平滑化には、平均化フィルタやローパスフィルタなど従来技術を用いればよい。   There is also a method for alleviating the above problem without removing the contour portion. For example, the image data is smoothed to smooth the contour portion, and the color difference appearing at the contour portion is reduced. For smoothing, a conventional technique such as an averaging filter or a low-pass filter may be used.

また、上記例では色差式にCIE1976色差式を用いて説明したが、この色差式に限定されるものではなく、CIE1994色差式やCIE2000色差式、CMC(1:c)色差式などを用いてもよい。   In the above example, the CIE1976 color difference formula is used as the color difference formula. Good.

b) 色相差を用いる評価方法
L*a*b*色空間の色相差ΔH*abは次式で定義される。
b) Evaluation method using hue difference
The hue difference ΔH * ab in the L * a * b * color space is defined by the following equation.

Figure 2016015647
ここで、ΔE*abは色差、(ΔL*, Δa* , Δb*)は2色の色度差、ΔC*abはクロマの差である。クロマC*abは次式で定義される。
Figure 2016015647
Here, ΔE * ab is a color difference, (ΔL *, Δa *, Δb *) is a chromaticity difference between two colors, and ΔC * ab is a chroma difference. Chroma C * ab is defined by the following equation.

Figure 2016015647
基準印刷物とユーザ印刷物の色相差を求める手順は色差を求める手順と同じであるが、色差ではなく色相差を算出する。また、統計的な分析方法や品質の判定方法も同様である。
Figure 2016015647
The procedure for obtaining the hue difference between the reference print and the user print is the same as the procedure for obtaining the color difference, but the hue difference is calculated instead of the color difference. The same applies to statistical analysis methods and quality determination methods.

c) 各色成分の差の絶対値を用いる評価方法
所定の色空間において、基準印刷物とユーザ印刷物との各色成分の差の絶対値を取り、評価を行う方法である。RGB色空間を例に取れば、R成分値の絶対値の差、G成分値の絶対値の差、B成分値の絶対値の差を用いる。基準印刷物とユーザ印刷物の各色成分の差の絶対値を求める手順の一例を以下に示す。
(1)基準印刷物をスキャナ300により読み取り基準画像データを得る
(2)ユーザ印刷物を(1)と同じスキャナ300により読み取りユーザ画像データを得る
(3)基準画像データとユーザ画像データとをスキャナ300のカラープロファイルを用いてデバイス非依存の色空間(XYZ色空間など)に変換する
(4)予め与えられた基準画像データ及びユーザ画像データの地色(用紙色)を用いて、地色(用紙色)に応じた地色補正処理を行う(すなわち、図7のステップS102及び図10のステップS202を行う)
(5)変換後の色空間において、画素ごとに各色成分値の差の絶対値を求める
なお、色差のケースと同様に、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換することは必須ではなく、スキャナ300のデバイス依存の色空間で直接差の絶対値を求めてもよい。また、統計的な分析方法や品質の判定方法は色差のケースと同様である。また、上記では地色(用紙色)に応じた地色補正処理は、デバイス非依存の色空間に変換した後に行っているが、デバイス非依存の色空間への変換前に地色(用紙色)に応じた地色補正処理を行ってもよい。他方、印刷用紙の影響まで含めて評価したい場合は、この地色補正処理は省略してもよい。
c) Evaluation method using absolute value of difference of each color component This is a method of performing evaluation by taking the absolute value of the difference of each color component between the reference print product and the user print product in a predetermined color space. Taking the RGB color space as an example, the difference between the absolute values of the R component values, the difference between the absolute values of the G component values, and the difference between the absolute values of the B component values are used. An example of a procedure for obtaining the absolute value of the difference between the color components of the reference print and the user print is shown below.
(1) A reference print is read by the scanner 300 to obtain reference image data. (2) A user print is read by the same scanner 300 as in (1) to obtain user image data. (3) The reference image data and user image data are obtained from the scanner 300. Convert to a device-independent color space (XYZ color space, etc.) using the color profile. (4) Using the ground color (paper color) of the reference image data and user image data given in advance, the ground color (paper color) ) According to the background color (that is, step S102 in FIG. 7 and step S202 in FIG. 10 are performed).
(5) In the converted color space, the absolute value of the difference between each color component value is obtained for each pixel. As in the case of the color difference, conversion to a device-independent color space using the color profile of the scanner 300 is performed. Is not essential, and the absolute value of the direct difference may be obtained in the device-dependent color space of the scanner 300. The statistical analysis method and quality determination method are the same as in the case of color difference. In the above description, the ground color correction processing corresponding to the ground color (paper color) is performed after conversion to the device-independent color space. However, the ground color (paper color) is not converted to the device-independent color space. ) May be performed in accordance with ground color correction processing. On the other hand, when it is desired to evaluate including the influence of printing paper, this ground color correction process may be omitted.

次に、色再現特性推定部305は、ユーザ色再現特性の逆特性を推定する(ステップS305)。すなわち、図10を用いて説明したユーザ色再現特性の逆特性の推定処理を行う。   Next, the color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the user color reproduction characteristic (step S305). That is, the estimation process of the inverse characteristic of the user color reproduction characteristic described with reference to FIG. 10 is performed.

続いて、色変換部306は、推定した基準色再現特性とユーザ色再現特性の逆特性を評価する(ステップS306)。推定した色再現特性が妥当であれば(ステップS307のYes)、次ステップS308に進み、そうでなければ(ステップS307のNo)、処理を終了する。   Subsequently, the color conversion unit 306 evaluates an inverse characteristic of the estimated reference color reproduction characteristic and the user color reproduction characteristic (step S306). If the estimated color reproduction characteristic is appropriate (Yes in step S307), the process proceeds to the next step S308, and if not (No in step S307), the process ends.

色再現特性が妥当か否かを判断するのは、この特性で色変換を実行することに意味があるか否かを判断するためであり、色変換の収束判定と換言することもできる。このため、ステップS307は必要に応じて省略しても良い。色変換を実行する意味がない例としては、次のようなものが挙げられる。
a)推定した色再現特性の推定精度が極端に低いケース
このような場合、色変換を施しても基準印刷物の色に合わせることができないので変換しないことが好ましい。
b)色変換の変換前後で画像データがほとんど変化しないケース
このような場合、色変換を実行する意味がない。
c)色変換の変換前後で画像データが極端に変化するケース
このような場合、色変換はユーザ印刷物の色を大きく変化させるので変換しないことが好ましい。
Whether or not the color reproduction characteristic is appropriate is determined in order to determine whether or not it is meaningful to perform color conversion with this characteristic, and it can also be referred to as a color conversion convergence determination. For this reason, step S307 may be omitted as necessary. Examples that do not make sense to perform color conversion include the following.
a) Case where the estimation accuracy of the estimated color reproduction characteristic is extremely low In such a case, it is preferable not to convert the color because the color of the reference printed matter cannot be matched even if the color conversion is performed.
b) Case where image data hardly changes before and after conversion of color conversion In such a case, there is no point in executing color conversion.
c) Case in which image data changes extremely before and after conversion of color conversion In such a case, it is preferable not to convert color conversion because it greatly changes the color of the user print.

上記a)で記載の色再現特性の妥当性を判断する基準の例としては、実測値と推定値がどれだけ離れているかが挙げられる。基準色再現特性を例にとれば、画素値対応付けデータに登録されている基準画像データの値(実測値)と基準色再現特性で推定した値(推定値)の差を用いる。
この離れ具合を測る尺度の例としては、
・実測値と推定値の差の絶対値を累積した値
・実測値と推定値の二乗を累積した値
・実測値と推定値の差の絶対値の最大値
・実測値と推定値との相関係数
などが挙げられる。
An example of a criterion for determining the validity of the color reproduction characteristics described in the above a) is how far the actually measured value is from the estimated value. Taking the reference color reproduction characteristic as an example, the difference between the value of the reference image data (measured value) registered in the pixel value association data and the value estimated with the reference color reproduction characteristic (estimated value) is used.
As an example of the scale to measure the distance,
・ A cumulative value of the absolute value of the difference between the measured value and the estimated value ・ A cumulative value of the square of the measured value and the estimated value ・ The maximum absolute value of the difference between the measured value and the estimated value ・ The phase between the measured value and the estimated value For example, the number of relationships.

また、上記b)、c)で記載の色再現特性の妥当性を判断する基準の例としては、色変換において画素値がどれだけ変換するかが挙げられる。RGB色空間を例に取れば、変換前後のR成分値の差、変換前後のG成分値の差、変換前後のB成分値の差を用いる。
この変換度合いを測る尺度の例としては、
・変換前後の画素値の差の絶対値を累積した値
・変換前後の画素値の差の二乗を累積した値
・変換前後の画素値の差の絶対値の最大値
などが挙げられる。
An example of a criterion for judging the validity of the color reproduction characteristics described in the above b) and c) is how much the pixel value is converted in the color conversion. Taking the RGB color space as an example, the difference between R component values before and after conversion, the difference between G component values before and after conversion, and the difference between B component values before and after conversion are used.
Examples of scales that measure this degree of conversion include:
The value obtained by accumulating the absolute value of the difference between the pixel values before and after the conversion. The value obtained by accumulating the square of the difference between the pixel values before and after the conversion. The maximum absolute value of the difference between the pixel values before and after the conversion.

これらの尺度で計測して得られる評価値が予め決められた所定の範囲内に存在することで、色再現特性が妥当であると判断することができる。   Since the evaluation values obtained by measuring with these scales are within a predetermined range, it can be determined that the color reproduction characteristics are appropriate.

続いて、色変換部306は、原稿画像データを色変換する(ステップS308)。すなわち、推定した基準色再現特性とユーザ色再現特性の逆特性を用いて原稿画像データに色変換を施し、原稿画像データを更新する。   Subsequently, the color conversion unit 306 performs color conversion on the document image data (step S308). In other words, the original image data is subjected to color conversion using the inverse characteristics of the estimated reference color reproduction characteristics and user color reproduction characteristics, and the original image data is updated.

推定した基準色再現特性S(P1(x))と、ユーザ色再現特性S(P2(x))の逆特性P2 -1(S-1(x))を用いて原稿画像データに色変換を施す手順の一例を以下に示す。
(1)基準色再現特性から、原稿画像データの色aが対応付く地色補正済み基準画像データの色s= S(P1(a))を得る
(2)ユーザ色再現特性の逆特性から、地色補正済みユーザ画像データの色sが対応付く原稿画像データの色b= P2 -1(S-1(s))を得る。すなわち、S(P1(a))=s=S(P2(b))なる組合せ(a, b)を求める
(3)原稿画像データの色aをbに変換する
これによって、一連の流れが完了する。色変換は、予め定められた所定の回数だけ繰り返し行われる。よって、色変換の回数が所定の回数に達したら(ステップS309のYes)、処理は終了する。色変換は1回だけ実行されても、十分な色変換が実現できると考えらえるが複数回実行することで色合わせの精度を向上できる。
Using the estimated standard color reproduction characteristic S (P 1 (x)) and the inverse characteristic P 2 -1 (S -1 (x)) of the user color reproduction characteristic S (P 2 (x)) An example of a procedure for performing color conversion is shown below.
(1) Obtain the color s = S (P 1 (a)) of the ground image corrected reference image data corresponding to the color a of the original image data from the reference color reproduction characteristics. (2) From the inverse characteristics of the user color reproduction characteristics. Then, the color b = P 2 −1 (S −1 (s)) of the document image data corresponding to the color s of the user image data after ground color correction is obtained. That is, the combination (a, b) of S (P 1 (a)) = s = S (P 2 (b)) is obtained. (3) The color a of the document image data is converted to b. Is completed. The color conversion is repeatedly performed a predetermined number of times. Therefore, when the number of color conversions reaches a predetermined number (Yes in step S309), the process ends. Even if the color conversion is executed only once, it is considered that sufficient color conversion can be realized, but the color matching accuracy can be improved by executing the color conversion a plurality of times.

継続する場合(ステップS309のNo)、色変換済みの原稿画像データを入力としてユーザプリンタ200から印刷(ステップS302)、同様の処理を行う。なお、次のループで用いる原稿画像データは全て色変換済みのものである。   In the case of continuing (No in step S309), the same process is performed when printing from the user printer 200 using the color-converted document image data as an input (step S302). Note that all the original image data used in the next loop has already undergone color conversion.

図12の手順では、終了条件の判定が3つ設定されているが、これら全てを設定する必要はない。必要に応じて適宜省略してもよいが、何れか1つは少なくとも設定されることが望ましい。   In the procedure of FIG. 12, three end condition determinations are set, but it is not necessary to set all of them. Although it may be omitted as appropriate, any one is desirably set at least.

本実施例では、スキャナ300で読み取った際に使用された色空間をそのまま使用しているが、この色空間はデバイス依存の色空間であるため、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換することが望ましい。デバイス非依存の色空間の例としては、デバイス非依存のRGB色空間、XYZ色空間などが挙げられる。更に、L*a*b*色空間など均等色空間に変換すればなおよい。   In this embodiment, the color space used at the time of reading by the scanner 300 is used as it is. However, since this color space is a device-dependent color space, it is device-independent using the color profile of the scanner 300. It is desirable to convert to a color space. Examples of device-independent color spaces include device-independent RGB color space and XYZ color space. Furthermore, it is more preferable to convert to a uniform color space such as an L * a * b * color space.

スキャナ300で読み取った基準画像データとユーザ画像データは同じ色空間である事は必須であるが、原稿画像データと基準画像データ、または原稿画像データとユーザ画像データは同じ色空間である事は必須ではない。例えば、原稿画像データの色空間がCMYK色空間であり、基準画像データとユーザ画像データがRGB色空間であっても構わない。   It is essential that the reference image data and user image data read by the scanner 300 are in the same color space, but it is essential that the document image data and reference image data, or the document image data and user image data are in the same color space. is not. For example, the color space of the document image data may be a CMYK color space, and the reference image data and user image data may be an RGB color space.

(実施例2)
本実施例では、ユーザ画像データの地色(用紙色)について、基準画像データの地色(用紙色)と一致するように地色補正処理を行う。すなわち、実施例2では、実施例1と地色補正処理が異なる。なお、本実施例におけるシステム構成、ハードウェア構成、及び機能構成は、実施例1と同様であるため説明を省略する。また、本実施例における処理の詳細において、色変換処理は実施例1と同様であるため説明を省略する。
(Example 2)
In this embodiment, the ground color correction process is performed so that the ground color (paper color) of the user image data matches the ground color (paper color) of the reference image data. That is, the second embodiment is different from the first embodiment in ground color correction processing. Note that the system configuration, hardware configuration, and functional configuration in the present embodiment are the same as those in the first embodiment, and a description thereof will be omitted. Further, in the details of the processing in the present embodiment, the color conversion processing is the same as that in the first embodiment, and the description thereof is omitted.

<処理の詳細>
≪基準色再現特性の推定処理≫
図13は、基準色再現特性の推定処理の一例のフローチャートである(実施例2)。図13は、画像読取部301が基準印刷物を読み取り、色再現特性推定部305が基準色再現特性を推定するまでの処理である。実施例1と比較して、基準画像データに地色補正処理を行わない点が異なる。したがって、図13のステップS401は、図7のステップS101の処理と同様であるため説明を省略する。また、図13のステップS402〜S404は、それぞれ図7のステップS103〜ステップS105において「地色補正済み基準画像データ」を「基準画像データ」と読み替えると、それぞれの処理と同様のため説明を省略する。
<Details of processing>
≪Standard color reproduction characteristics estimation process≫
FIG. 13 is a flowchart of an example of a reference color reproduction characteristic estimation process (second embodiment). FIG. 13 shows processing until the image reading unit 301 reads the reference printed matter and the color reproduction characteristic estimation unit 305 estimates the reference color reproduction characteristic. The difference from the first embodiment is that ground color correction processing is not performed on the reference image data. Therefore, step S401 in FIG. 13 is the same as the process in step S101 in FIG. Steps S402 to S404 in FIG. 13 are the same as the respective processes when “ground color corrected reference image data” is read as “reference image data” in steps S103 to S105 in FIG. To do.

≪ユーザ色再現特性の逆特性の推定処理≫
図14は、ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例2)。図14は、画像読取部301がユーザ印刷物を読み取り、色再現特性推定部305がユーザ色再現特性の逆特性を推定するまでの処理である。実施例1と比較して、ユーザ画像データに対して行う地色補正処理が異なる。したがって、図14のステップS501及びステップS503〜ステップS505は、図10のステップS201及びステップS203〜ステップS205の処理と同様であるため説明を省略する。
≪Process for estimating reverse characteristics of user color reproduction characteristics≫
FIG. 14 is a flowchart illustrating an example of an estimation process of the inverse characteristic of the user color reproduction characteristic (Example 2). FIG. 14 shows processing until the image reading unit 301 reads a user printed matter and the color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the user color reproduction characteristic. Compared to the first embodiment, the ground color correction processing performed on the user image data is different. Accordingly, step S501 and step S503 to step S505 in FIG. 14 are the same as the processing in step S201 and step S203 to step S205 in FIG.

地色補正部302は、ユーザ画像データに地色補正処理を行う(ステップS502)。すなわち、地色補正部302は、予め与えられた基準画像データ及びユーザ画像データの地色(用紙色)を用いて、地色(用紙色)に応じた地色補正処理を行う。本実施例では、ユーザ画像データの地色(用紙色)が基準画像データの地色(用紙色)と一致するように、ユーザ画像データ全体に対して地色補正処理を行う。   The ground color correction unit 302 performs ground color correction processing on the user image data (step S502). That is, the ground color correction unit 302 performs ground color correction processing corresponding to the ground color (paper color) using the reference image data and the ground color (paper color) of the user image data given in advance. In this embodiment, the ground color correction processing is performed on the entire user image data so that the ground color (paper color) of the user image data matches the ground color (paper color) of the reference image data.

基準画像データ及びユーザ画像データの地色(用紙色)は、RGB色空間、XYZ色空間、L*a*b*色空間などの所定の色空間における色値として与えられる。これらの値には、予め地色(用紙色)を測色計で測色した値や上記のステップS501においてユーザ印刷物を読み取ったものと同じスキャナでスキャンした値を用いることができる。また、スキャナのカラープロファイルを用いてデバイス非依存の色空間に変換できる場合、上記のステップS501で使用したスキャナとは異なるスキャナで読み取った値を用いてもよい。ユーザ画像データの地色(用紙色)が基準画像データの地色(用紙色)と一致するようにユーザ画像データ全体に対して地色補正を行う例としては、次のようなものが挙げられる。   The ground color (paper color) of the reference image data and the user image data is given as a color value in a predetermined color space such as an RGB color space, an XYZ color space, or an L * a * b * color space. As these values, a value obtained by measuring the ground color (paper color) with a colorimeter in advance or a value scanned with the same scanner as that obtained by reading the user print in step S501 can be used. In addition, when the color profile of the scanner can be used to convert to a device-independent color space, a value read by a scanner different from the scanner used in step S501 may be used. The following is an example of performing ground color correction on the entire user image data so that the ground color (paper color) of the user image data matches the ground color (paper color) of the reference image data. .

a) ユーザ画像データの地色(用紙色)を基準画像データの地色(用紙色)へシフトする方法
基準画像データ及びユーザ画像データがL*a*b*色空間である場合を一例として説明する。ユーザ画像データの地色(用紙色)を基準画像データの地色(用紙色)にシフトする処理をユーザ画像データ全体に施すことで、ユーザ画像データの地色(用紙色)を基準画像データの地色(用紙色)と一致させる。この方法は以下の式で表される。
a) Method of shifting the ground color (paper color) of user image data to the ground color (paper color) of the reference image data The case where the reference image data and the user image data are in the L * a * b * color space is described as an example. To do. By applying a process for shifting the ground color (paper color) of the user image data to the ground color (paper color) of the reference image data, the ground color (paper color) of the user image data is changed to the reference image data. Match the background color (paper color). This method is represented by the following equation.

Figure 2016015647
ここで、(Ltgt*, atgt*, btgt*)は地色補正前のユーザ画像データのL*a*b*値を、(LrefW*, arefW*, brefW*)は基準画像データの地色(用紙色)のL*a*b*値を、(LtgtW*, atgtW*, btgtW*)はユーザ画像データの地色(用紙色)のL*a*b*値を、(Ltgt'*, atgt'*, btgt'*)は地色補正後のユーザ画像データのL*a*b*値を表す。
Figure 2016015647
Here, (L tgt *, a tgt *, b tgt *) is the L * a * b * value of the user image data before ground color correction, and (L refW *, a refW *, b refW *) is the reference L * a * b * value of the ground color (paper color) of the image data, (L tgtW *, a tgtW *, b tgtW *) is L * a * b * of the ground color (paper color) of the user image data The values (L tgt '*, a tgt ' *, b tgt '*) represent L * a * b * values of the user image data after ground color correction.

b) 比率変換を用いる方法
基準画像データ及びユーザ画像データが256階調のRGB色空間である場合を一例として説明する。基準画像データの地色(用紙色)のRGB値をユーザ画像データの地色(用紙色)のRGB値でそれぞれ除した値を、ユーザ画像データのRGB値に乗ずることでユーザ画像データの地色(用紙色)を基準画像データの地色(用紙色)と一致させる。この方法は以下の式で表される。
b) Method Using Ratio Conversion A case where the reference image data and the user image data are in an RGB color space with 256 gradations will be described as an example. The ground color of the user image data is obtained by multiplying the RGB value of the user image data by dividing the RGB value of the ground color (paper color) of the reference image data by the RGB value of the ground color (paper color) of the user image data. (Paper color) is matched with the ground color (paper color) of the reference image data. This method is represented by the following equation.

Figure 2016015647
ここで、(Rtgt, Gtgt, Btgt)は地色補正前のユーザ画像データのRGB値を、(RrefW, GrefW, BrefW)は基準画像データの地色(用紙色)のRGB値を、(RtgtW, GtgtW, BtgtW)はユーザ画像データの地色(用紙色)のRGB値を、(Rtgt', Gtgt', Btgt')は地色補正後のユーザ画像データのRGB値を表す。
上記について、基準画像データの地色(用紙色)がRrefW=210, GrefW=230, BrefW=220であり、ユーザ画像データの地色(用紙色)がRtgtW=230, GtgtW=220, BtgtW=210である場合のユーザ画像データの地色補正前のRGB値と地色補正後のRGB値とを図15で示す。図15(a)〜図15(b)が示すように、例えば(Rtgt, Gtgt, Btgt)=(230, 220, 210)は、(Rtgt', Gtgt', Btgt')=(210, 230, 220)に変換される。
Figure 2016015647
Here, (R tgt , G tgt , B tgt ) is the RGB value of the user image data before ground color correction, and (R refW , G refW , B refW ) is the RGB of the ground color (paper color) of the reference image data (R tgtW , G tgtW , B tgtW ) is the RGB value of the ground color (paper color) of the user image data, and (R tgt ', G tgt ', B tgt ') is the user image after ground color correction. Represents the RGB value of the data.
For the above, the ground color (paper color) of the reference image data is R refW = 210, G refW = 230, B refW = 220, and the ground color (paper color) of the user image data is R tgtW = 230, G tgtW = FIG. 15 shows the RGB values before the ground color correction and the RGB values after the ground color correction of the user image data when 220, B tgtW = 210. As shown in FIGS. 15A to 15B, for example, (R tgt , G tgt , B tgt ) = (230, 220, 210) is (R tgt ′, G tgt ′, B tgt ′) = (210, 230, 220)

次に、基準画像データ及びユーザ画像データがデバイス非依存のXYZ色空間である場合を一例として説明する。XYZ色空間上で基準画像データの地色(用紙色)のXYZ値をユーザ画像データの地色(用紙色)のXYZ値でそれぞれ除した値を、ユーザ画像データのXYZ値に乗ずる方法がある。この方法は以下の式で表される。   Next, a case where the reference image data and the user image data are device-independent XYZ color spaces will be described as an example. There is a method of multiplying the XYZ value of the user image data by dividing the XYZ value of the ground color (paper color) of the reference image data by the XYZ value of the ground color (paper color) of the user image data in the XYZ color space. . This method is represented by the following equation.

Figure 2016015647
ここで、(Xtgt, Ytgt, Ztgt)は地色補正前のユーザ画像データのXYZ値を、(XrefW, YrefW, ZrefW)は基準画像データの地色(用紙色)のXYZ値を、(XtgtW, YtgtW, ZtgtW)はユーザ画像データの地色(用紙色)のXYZ値を、(Xtgt', Ytgt', Ztgt')は地色補正後のユーザ画像データのXYZ値を表す。
Figure 2016015647
Here, (X tgt , Y tgt , Z tgt ) is the XYZ value of the user image data before ground color correction, and (X refW , Y refW , Z refW ) is the XYZ of the ground color (paper color) of the reference image data (X tgtW , Y tgtW , Z tgtW ) is the XYZ value of the ground color (paper color) of the user image data, and (X tgt ', Y tgt ', Z tgt ') is the user image after ground color correction Represents the XYZ value of the data.

c) 色知覚を用いる方法
異なる光源下での色の見えを一致させるいわゆる色知覚モデルを用いる。色知覚モデルの一例として、Von Kries変換を用いて、ユーザ画像データの地色(用紙色)が基準画像データの地色(用紙色)と一致するように地色補正する方法について以降説明する。
Von Kries変換は、光源W1下でのXYZ値を光源W2下でのXYZ値に変換するために、人間の色知覚空間PQR上でW2/W1の比率変換を施す方法である。人間の色知覚が光源の白色点に順応するというよりも、地色(用紙色)に順応すると解釈することで、Von Kries変換を用いてユーザ画像データの地色(用紙色)が基準画像データの地色(用紙色)と一致するように地色補正を行う。基準画像データ及びユーザ画像データが共にデバイス非依存のXYZ色空間である場合について一例として説明すると、Von Kries変換によれば次の関係が得られる。
c) Method using color perception A so-called color perception model is used that matches the appearance of colors under different light sources. As an example of the color perception model, a method of correcting the ground color so that the ground color (paper color) of the user image data matches the ground color (paper color) of the reference image data using Von Kries conversion will be described below.
The Von Kries conversion is a method of performing W2 / W1 ratio conversion on the human color perception space PQR in order to convert the XYZ value under the light source W1 into the XYZ value under the light source W2. By interpreting human color perception as adjusting to the ground color (paper color) rather than adjusting to the white point of the light source, the ground color (paper color) of the user image data is set to the reference image data using Von Kries conversion. The background color is corrected so as to match the background color (paper color). A case where the reference image data and the user image data are both device-independent XYZ color spaces will be described as an example. According to the Von Kries conversion, the following relationship is obtained.

Figure 2016015647
ここで、(Xtgt, Ytgt, Ztgt)は地色補正前のユーザ画像データのXYZ値を、(XrefW, YrefW, ZrefW)は基準画像データの地色(用紙色)のXYZ値を、(XtgtW, YtgtW, ZtgtW)はユーザ画像データの地色(用紙色)のXYZ値を、(Xtgt', Ytgt', Ztgt')は地色補正後のユーザ画像データのXYZ値を表す。なお、上記ではVon Kries変換を用いて説明したが、この色知覚モデルに限定されるものではなく、Bradford変換やCIECAM97s、CIECAM02などを用いてもよい。
Figure 2016015647
Here, (X tgt , Y tgt , Z tgt ) is the XYZ value of the user image data before ground color correction, and (X refW , Y refW , Z refW ) is the XYZ of the ground color (paper color) of the reference image data (X tgtW , Y tgtW , Z tgtW ) is the XYZ value of the ground color (paper color) of the user image data, and (X tgt ', Y tgt ', Z tgt ') is the user image after ground color correction Represents the XYZ value of the data. In addition, although it demonstrated using Von Kries conversion above, it is not limited to this color perception model, Bradford conversion, CIECAM97s, CIECAM02, etc. may be used.

(実施例3)
本実施例では、基準画像データの地色(用紙色)について、ユーザ画像データの地色(用紙色)と一致するように地色補正処理を行う。すなわち、実施例3では、実施例1及び2と地色補正処理が異なる。なお、本実施例におけるシステム構成、ハードウェア構成、及び機能構成は、実施例1と同様であるため説明を省略する。また、本実施例における処理の詳細において、色変換処理は実施例1と同様であるため説明を省略する。
(Example 3)
In this embodiment, the ground color correction process is performed so that the ground color (paper color) of the reference image data matches the ground color (paper color) of the user image data. In other words, the ground color correction process in the third embodiment is different from that in the first and second embodiments. Note that the system configuration, hardware configuration, and functional configuration in the present embodiment are the same as those in the first embodiment, and a description thereof will be omitted. Further, in the details of the processing in the present embodiment, the color conversion processing is the same as that in the first embodiment, and thus the description thereof is omitted.

<処理の詳細>
≪基準色再現特性の推定処理≫
図16は、基準色再現特性の推定処理の一例のフローチャートである(実施例3)。図16は、画像読取部301が基準印刷物を読み取り、色再現特性推定部305が基準色再現特性を推定するまでの処理である。実施例1及び2と比較して、基準画像データに対して行う地色補正処理が異なる。したがって、図16のステップS601及びステップS603〜ステップS605は、図7のステップS101及びステップS103〜ステップS105の処理と同様であるため説明を省略する。
<Details of processing>
≪Standard color reproduction characteristics estimation process≫
FIG. 16 is a flowchart of an example of a reference color reproduction characteristic estimation process (Example 3). FIG. 16 shows processing until the image reading unit 301 reads the reference printed matter and the color reproduction characteristic estimation unit 305 estimates the reference color reproduction characteristic. Compared to the first and second embodiments, the ground color correction processing performed on the reference image data is different. Therefore, step S601 and step S603 to step S605 in FIG. 16 are the same as the process of step S101 and step S103 to step S105 in FIG.

地色補正部302は、基準画像データに地色補正処理を行う(ステップS602)。すなわち、地色補正部302は、予め与えられた基準画像データ及びユーザ画像データの地色(用紙色)を用いて、地色(用紙色)に応じた地色補正処理を行う。本実施例では、基準画像データの地色(用紙色)がユーザ画像データの地色(用紙色)と一致するように、基準画像データ全体に対して地色補正処理を行う。   The ground color correction unit 302 performs ground color correction processing on the reference image data (step S602). That is, the ground color correction unit 302 performs ground color correction processing corresponding to the ground color (paper color) using the reference image data and the ground color (paper color) of the user image data given in advance. In the present embodiment, the ground color correction process is performed on the entire reference image data so that the ground color (paper color) of the reference image data matches the ground color (paper color) of the user image data.

基準画像データ及びユーザ画像データの地色(用紙色)は、RGB色空間、XYZ色空間、L*a*b*色空間などの所定の色空間における色値として与えられる。これらの値には、予め地色(用紙色)を測色計で測色した値や上記のステップS601において基準印刷物を読み取ったものと同じスキャナでスキャンした値を用いることができる。また、スキャナのカラープロファイルを用いてデバイス非依存の色空間に変換できる場合、上記のステップS601で使用したスキャナとは異なるスキャナで読み取った値を用いてもよい。基準画像データの地色(用紙色)がユーザ画像データの地色(用紙色)と一致するように基準画像データ全体に対して地色補正を行う例としては、次のようなものが挙げられる。   The ground color (paper color) of the reference image data and the user image data is given as a color value in a predetermined color space such as an RGB color space, an XYZ color space, or an L * a * b * color space. As these values, a value obtained by measuring the ground color (paper color) with a colorimeter in advance, or a value scanned with the same scanner as that used for reading the reference printed material in step S601 can be used. In addition, when conversion to a device-independent color space is possible using the color profile of the scanner, a value read by a scanner different from the scanner used in step S601 may be used. Examples of performing ground color correction on the entire reference image data so that the ground color (paper color) of the reference image data matches the ground color (paper color) of the user image data include the following. .

a) 基準画像データの地色(用紙色)をユーザ画像データの地色(用紙色)へシフトする方法
基準画像データ及びユーザ画像データがL*a*b*色空間である場合を一例として説明する。基準画像データの地色(用紙色)をユーザ画像データの地色(用紙色)にシフトする処理を基準画像データ全体に施すことで、基準画像データの地色(用紙色)をユーザ画像データの地色(用紙色)と一致させる。この方法は以下の式で表される。
a) Method for Shifting the Ground Color (Paper Color) of the Reference Image Data to the Ground Color (Paper Color) of the User Image Data A case where the reference image data and the user image data are in the L * a * b * color space will be described as an example. To do. By applying a process for shifting the ground color (paper color) of the reference image data to the ground color (paper color) of the user image data to the entire reference image data, the ground color (paper color) of the reference image data is changed to that of the user image data. Match the background color (paper color). This method is represented by the following equation.

Figure 2016015647
ここで、(Lref*, aref*, bref*)は地色補正前の基準画像データのL*a*b*値を、(LtgtW*, atgtW*, btgtW*)はユーザ画像データの地色(用紙色)のL*a*b*値を、(LrefW*, arefW*, brefW*)は基準画像データの地色(用紙色)のL*a*b*値を、(Lref'*, aref'*, bref'*)は地色補正後の基準画像データのL*a*b*値を表す。
Figure 2016015647
Where (L ref *, a ref *, b ref *) is the L * a * b * value of the reference image data before ground color correction, and (L tgtW *, a tgtW *, b tgtW *) is the user The L * a * b * value of the ground color (paper color) of the image data, (L refW *, a refW *, b refW *) is the L * a * b * of the ground color (paper color) of the reference image data The value (L ref '*, a ref ' *, b ref '*) represents the L * a * b * value of the reference image data after ground color correction.

b) 比率変換を用いる方法
基準画像データ及びユーザ画像データが256階調のRGB色空間である場合を一例として説明する。ユーザ画像データの地色(用紙色)のRGB値を基準画像データの地色(用紙色)のRGB値でそれぞれ除した値を、基準画像データのRGB値に乗ずることで基準画像データの地色(用紙色)をユーザ画像データの地色(用紙色)と一致させる。この方法は以下の式で表される。
b) Method Using Ratio Conversion A case where the reference image data and the user image data are in an RGB color space with 256 gradations will be described as an example. The ground color of the reference image data is obtained by multiplying the RGB value of the reference image data by dividing the RGB value of the ground color (paper color) of the user image data by the RGB value of the ground color (paper color) of the reference image data. (Paper color) is matched with the ground color (paper color) of the user image data. This method is represented by the following equation.

Figure 2016015647
ここで、(Rref, Gref, Bref)は地色補正前の基準画像データのRGB値を、(RrefW, GrefW, BrefW)は基準画像データの地色(用紙色)のRGB値を、(RtgtW, GtgtW, BtgtW)はユーザ画像データの地色(用紙色)のRGB値を、(Rref', Gref', Bref')は地色補正後の基準画像データのRGB値を表す。
上記について、基準画像データの地色(用紙色)がRrefW=210, GrefW=230, BrefW=220であり、ユーザ画像データの地色(用紙色)がRtgtW=230, GtgtW=220, BtgtW=210である場合の基準画像データの地色補正前のRGB値と地色補正後のRGB値とを図17で示す。図17(a)〜図17(b)が示すように、例えば(Rref, Gref, Bref)=(210, 230, 220)は、(Rref', Gref', Bref')=(230, 220, 210)に変換される。
Figure 2016015647
Here, (R ref , G ref , B ref ) is the RGB value of the reference image data before ground color correction, and (R refW , G refW , B refW ) is the RGB of the ground color (paper color) of the reference image data (R tgtW , G tgtW , B tgtW ) is the RGB value of the ground color (paper color) of the user image data, and (R ref ', G ref ', B ref ') is the reference image after ground color correction. Represents the RGB value of the data.
For the above, the ground color (paper color) of the reference image data is R refW = 210, G refW = 230, B refW = 220, and the ground color (paper color) of the user image data is R tgtW = 230, G tgtW = FIG. 17 shows the RGB values before ground color correction and the RGB values after ground color correction of the reference image data when 220, B tgtW = 210. As shown in FIGS. 17A to 17B, for example, (R ref , G ref , B ref ) = (210, 230, 220) is (R ref ′, G ref ′, B ref ′) = (230, 220, 210)

次に、基準画像データ及びユーザ画像データがデバイス非依存のXYZ色空間である場合を一例として説明する。XYZ色空間上でユーザ画像データの地色(用紙色)のXYZ値を基準画像データの地色(用紙色)のXYZ値でそれぞれ除した値を、基準画像データのXYZ値に乗ずる方法がある。この方法は以下の式で表される。   Next, a case where the reference image data and the user image data are device-independent XYZ color spaces will be described as an example. There is a method of multiplying the XYZ value of the reference image data by dividing the XYZ value of the ground color (paper color) of the user image data by the XYZ value of the ground color (paper color) of the reference image data in the XYZ color space. . This method is represented by the following equation.

Figure 2016015647
ここで、(Xref, Yref, Zref)は地色補正前の基準画像データのXYZ値を、(XrefW, YrefW, ZrefW)は基準画像データの地色(用紙色)のXYZ値を、(XtgtW, YtgtW, ZtgtW)はユーザ画像データの地色(用紙色)のXYZ値を、(Xref', Yref', Zref')は地色補正後の基準画像データのXYZ値を表す。
Figure 2016015647
Here, (X ref , Y ref , Z ref ) is the XYZ value of the reference image data before ground color correction, and (X refW , Y refW , Z refW ) is the XYZ of the ground color (paper color) of the reference image data (X tgtW , Y tgtW , Z tgtW ) is the XYZ value of the ground color (paper color) of the user image data, and (X ref ', Y ref ', Z ref ') is the reference image after ground color correction Represents the XYZ value of the data.

c) 色知覚を用いる方法
異なる光源下での色の見えを一致させるいわゆる色知覚モデルを用いる。色知覚モデルの一例として、Von Kries変換を用いて、基準画像データの地色(用紙色)がユーザ画像データの地色(用紙色)と一致するように地色補正する方法について以降説明する。
Von Kries変換は、光源W1下でのXYZ値を光源W2下でのXYZ値に変換するために、人間の色知覚空間PQR上でW2/W1の比率変換を施す方法である。人間の色知覚が光源の白色点に順応するというよりも、地色(用紙色)に順応すると解釈することで、Von Kries変換を用いて基準画像データの地色(用紙色)がユーザ画像データの地色(用紙色)と一致するように地色補正を行う。基準画像データ及びユーザ画像データが共にデバイス非依存のXYZ色空間である場合について一例として説明すると、Von Kries変換によれば次の関係が得られる。
c) Method using color perception A so-called color perception model is used that matches the appearance of colors under different light sources. As an example of the color perception model, a method for correcting the ground color so that the ground color (paper color) of the reference image data matches the ground color (paper color) of the user image data using Von Kries conversion will be described below.
The Von Kries conversion is a method of performing W2 / W1 ratio conversion on the human color perception space PQR in order to convert the XYZ value under the light source W1 into the XYZ value under the light source W2. By interpreting human color perception as adjusting to the ground color (paper color) rather than adjusting to the white point of the light source, the ground color (paper color) of the reference image data is changed to user image data using Von Kries conversion. The background color is corrected so as to match the background color (paper color). A case where the reference image data and the user image data are both device-independent XYZ color spaces will be described as an example. According to the Von Kries conversion, the following relationship is obtained.

Figure 2016015647
ここで、(Xref, Yref, Zref)は地色補正前の基準画像データのXYZ値を、(XrefW, YrefW, ZrefW)は基準画像データの地色(用紙色)のXYZ値を、(XtgtW, YtgtW, ZtgtW)はユーザ画像データの地色(用紙色)のXYZ値を、(Xref', Yref', Zref')は地色補正後の基準画像データのXYZ値を表す。なお、上記ではVon Kries変換を用いて説明したが、この色知覚モデルに限定されるものではなく、Bradford変換やCIECAM97s、CIECAM02などを用いてもよい。
Figure 2016015647
Here, (X ref , Y ref , Z ref ) is the XYZ value of the reference image data before ground color correction, and (X refW , Y refW , Z refW ) is the XYZ of the ground color (paper color) of the reference image data (X tgtW , Y tgtW , Z tgtW ) is the XYZ value of the ground color (paper color) of the user image data, and (X ref ', Y ref ', Z ref ') is the reference image after ground color correction Represents the XYZ value of the data. In addition, although it demonstrated using Von Kries conversion above, it is not limited to this color perception model, Bradford conversion, CIECAM97s, CIECAM02, etc. may be used.

≪ユーザ色再現特性の逆特性の推定処理≫
図18は、ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例3)。図18は、画像読取部301がユーザ印刷物を読み取り、色再現特性推定部305がユーザ色再現特性の逆特性を推定するまでの処理である。実施例1及び2と比較して、ユーザ画像データに地色補正処理を行わない点が異なる。したがって、図18のステップS701は、図10のステップS201の処理と同様であるため説明を省略する。また、図18のステップS702〜S704は、それぞれ図10のステップS203〜ステップS205において「地色補正済みユーザ画像データ」を「ユーザ画像データ」と読み替えると、それぞれの処理と同様のため説明を省略する。
≪Process for estimating reverse characteristics of user color reproduction characteristics≫
FIG. 18 is a flowchart of an example of an estimation process of the inverse characteristic of the user color reproduction characteristic (Example 3). FIG. 18 shows processing until the image reading unit 301 reads a user printed matter and the color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the user color reproduction characteristic. Compared to the first and second embodiments, the user image data is not subjected to ground color correction processing. Therefore, step S701 in FIG. 18 is the same as the process in step S201 in FIG. Steps S702 to S704 in FIG. 18 are the same as the respective processes when “ground image corrected user image data” is read as “user image data” in steps S203 to S205 in FIG. To do.

(実施例4)
本実施例では、基準画像データ及びユーザ画像の地色(用紙色)が予め与えられていない場合(換言すれば、基準画像データ及びユーザ画像の地色(用紙色)が既知でない場合)に、地色(用紙色)を検出する。なお、本実施例におけるシステム構成及びハードウェア構成は、実施例1と同様であるため説明を省略する。また、処理の詳細において、色変換処理は実施例1と同様であるため説明を省略する。
Example 4
In this embodiment, when the ground color (paper color) of the reference image data and the user image is not given in advance (in other words, when the ground color (paper color) of the reference image data and the user image is not known), The background color (paper color) is detected. Note that the system configuration and hardware configuration in the present embodiment are the same as those in the first embodiment, and a description thereof will be omitted. Further, in the details of the process, the color conversion process is the same as that of the first embodiment, and thus the description thereof is omitted.

<機能構成>
図19は、画像処理システム600又はMFP700の機能ブロック図の一例である(実施例4)。図19に示す画像処理システム600又はMFP700は、実施例1で説明した機能構成に加えて、地色検出部307を有する。
<Functional configuration>
FIG. 19 is an example of a functional block diagram of the image processing system 600 or the MFP 700 (fourth embodiment). An image processing system 600 or MFP 700 illustrated in FIG. 19 includes a ground color detection unit 307 in addition to the functional configuration described in the first embodiment.

地色検出部307は、幾何学変換パラメータ推定部303により推定された幾何学変換パラメータを用いて、基準画像データ及びユーザ画像データから地色(用紙色)を検出する。   The ground color detection unit 307 detects the ground color (paper color) from the reference image data and the user image data using the geometric conversion parameter estimated by the geometric conversion parameter estimation unit 303.

<処理の詳細>
≪基準色再現特性の推定処理≫
図20は、基準色再現特性の推定処理の一例のフローチャートである(実施例4)。図20は、画像読取部301が基準印刷物を読み取り、色再現特性推定部305が基準色再現特性を推定するまでの処理である。実施例1と比較して、基準画像データの地色(用紙色)を検出する処理が追加されている点、及び原稿画像データと基準画像データの位置を合わせる処理を基準画像データの地色(用紙色)を検出する処理の前で行う点がが異なる。したがって、図20のステップS801は、図7のステップS101の処理と同様であるため説明を省略する。また、図20のステップS802は、図7のステップS103において「地色補正済み基準画像データ」を「基準画像データ」と読み替えると同様の処理であるため説明を省略する。さらに、図20のステップS804〜ステップS806は、それぞれ図7のステップS102、ステップS104及びステップS105と同様の処理であるため説明を省略する。
<Details of processing>
≪Standard color reproduction characteristics estimation process≫
FIG. 20 is a flowchart of an example of a reference color reproduction characteristic estimation process (Example 4). FIG. 20 shows processing until the image reading unit 301 reads the reference printed matter and the color reproduction characteristic estimation unit 305 estimates the reference color reproduction characteristic. Compared to the first embodiment, a process for detecting the ground color (paper color) of the reference image data is added, and a process for aligning the positions of the document image data and the reference image data is compared with the ground color of the reference image data ( The difference is that it is performed before the process of detecting (paper color). Therefore, step S801 in FIG. 20 is the same as the process in step S101 in FIG. Further, step S802 in FIG. 20 is the same process as “reference image data” is read as “ground color corrected reference image data” in step S103 in FIG. Furthermore, steps S804 to S806 in FIG. 20 are the same processes as steps S102, S104, and S105 in FIG.

地色検出部307は、基準画像データから地色(用紙色)を検出する(ステップS803)。すなわち、地色検出部307は、ステップS802で推定した幾何学変換パラメータを用いて、基準画像データの地色(用紙色)を決定する。基準画像データの地色(用紙色)を検出する方法の例としては、次のようなものが挙げられる。   The ground color detection unit 307 detects the ground color (paper color) from the reference image data (step S803). That is, the ground color detection unit 307 determines the ground color (paper color) of the reference image data using the geometric conversion parameter estimated in step S802. Examples of the method for detecting the ground color (paper color) of the reference image data include the following.

a) 余白の色値を用いる方法
基準印刷物における原稿画像データ領域の周囲にある余白領域の色値を、地色(用紙色)として検出する。ステップS802において原稿画像データと基準画像データの位置合わせが完了していることから、基準画像データにおける原稿画像データ領域よりも数画素外側の領域を余白領域と判定し、地色(用紙色)を決定する。地色(用紙色)に用いる例としては、
・余白領域の色値の平均値
・余白領域の色値の中央値
・余白領域の色値の最頻値
などが挙げられる。
なお、基準印刷物における原稿画像データ領域以外のすべてを余白領域と判定することは好ましくない。これは、基準印刷物を読み取り基準画像データを取得する際に、基準印刷物以外も含まれている場合があるためである。例えば、スキャナで基準印刷物を読み取る際に、基準印刷物よりも読み取り領域が大きい場合、いわゆるプラテンバック(原稿置台の裏当て部材のカバー面)も一緒に読み取ってしまう。このことから、余白領域は、原稿画像データ領域よりも数画素外側の領域のみとすることが好ましい。
a) Method of using margin color value The color value of the margin area around the original image data area in the reference printed material is detected as the background color (paper color). Since the alignment of the document image data and the reference image data is completed in step S802, an area several pixels outside the document image data area in the reference image data is determined as a blank area, and the ground color (paper color) is set. decide. As an example of the background color (paper color),
-Average value of the color value in the margin area-Median value of the color value in the margin area-Mode value of the color value in the margin area
Note that it is not preferable to determine all areas other than the original image data area in the reference printed material as blank areas. This is because when the reference print is read and the reference image data is acquired, other than the reference print may be included. For example, when the reference printed material is read by the scanner, if the reading area is larger than the reference printed material, a so-called platen back (the cover surface of the backing member of the document table) is also read together. Therefore, it is preferable that the margin area is only an area several pixels outside the original image data area.

b) 基準画像データにおける原稿画像データ領域内の色値を用いる方法
フチなし印刷などで基準印刷物の原稿画像データ領域の周囲に余白領域が無い場合、基準画像データにおける原稿画像データ領域内の色値を用いて地色(用紙色)を検出する。地色(用紙色)に用いる値の例としては、原稿画像データ領域内で最も明るい色値が挙げられる。
b) Method of using color values in the original image data area in the reference image data When there is no margin area around the original image data area of the reference printed matter in borderless printing or the like, the color values in the original image data area in the reference image data Is used to detect the ground color (paper color). An example of a value used for the background color (paper color) is the brightest color value in the document image data area.

以上のようにして、地色検出部307により基準画像データの地色(用紙色)が検出された後、ステップS804において地色補正部302は検出された基準画像データの地色(用紙色)に応じた地色補正処理を行う。この地色補正処理は、実施例1で説明したように基準画像データの地色(用紙色)が原稿画像データの白色点と一致するようにしてもよいし、実施例3で説明したように基準画像データの地色(用紙色)がユーザ画像データの地色(用紙色)と一致するようにしてもよい。   As described above, after the ground color detection unit 307 detects the ground color (paper color) of the reference image data, the ground color correction unit 302 detects the ground color (paper color) of the detected reference image data in step S804. The ground color correction process corresponding to the is performed. In this ground color correction process, the ground color (paper color) of the reference image data may coincide with the white point of the document image data as described in the first embodiment, or as described in the third embodiment. The ground color (paper color) of the reference image data may match the ground color (paper color) of the user image data.

≪ユーザ色再現特性の逆特性の推定処理≫
図21は、ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである(実施例4)。図21は、画像読取部301がユーザ印刷物を読み取り、色再現特性推定部305がユーザ色再現特性の逆特性を推定するまでの処理である。実施例1と比較して、ユーザ画像データの地色(用紙色)を検出する処理が追加されている点、及び原稿画像データとユーザ画像データの位置を合わせる処理をユーザ画像データの地色(用紙色)を検出する処理の前で行う点がが異なる。したがって、図21のステップS901は、図10のステップS201の処理と同様であるため説明を省略する。また、図21のステップS902は、図10のステップS203において「地色補正済みユーザ画像データ」を「ユーザ画像データ」と読み替えると同様の処理であるため説明を省略する。さらに、図21のステップS904〜ステップS906は、それぞれ図10のステップS202、ステップS204及びステップS205と同様の処理であるため説明を省略する。
≪Process for estimating reverse characteristics of user color reproduction characteristics≫
FIG. 21 is a flowchart illustrating an example of an estimation process of the inverse characteristic of the user color reproduction characteristic (Example 4). FIG. 21 shows processing until the image reading unit 301 reads a user printed matter and the color reproduction characteristic estimation unit 305 estimates an inverse characteristic of the user color reproduction characteristic. Compared to the first embodiment, a process for detecting the ground color (paper color) of the user image data is added, and a process for aligning the positions of the document image data and the user image data is compared with the ground color of the user image data ( The difference is that it is performed before the process of detecting (paper color). Therefore, step S901 in FIG. 21 is the same as the process in step S201 in FIG. Further, step S902 in FIG. 21 is the same process as “ground image corrected user image data” is read as “user image data” in step S203 in FIG. Furthermore, steps S904 to S906 in FIG. 21 are the same processes as steps S202, S204, and S205 in FIG.

地色検出部307は、ユーザ画像データから地色(用紙色)を検出する(ステップS903)。すなわち、地色検出部307は、ステップS902で推定した幾何学変換パラメータを用いて、ユーザ画像データの地色(用紙色)を決定する。ユーザ画像データの地色(用紙色)検出する方法は、図20のステップS803において「基準画像データ」を「ユーザ画像データ」、「基準印刷物」を「ユーザ印刷物」と読み替えることにより、同様の方法で検出することができる。   The ground color detection unit 307 detects the ground color (paper color) from the user image data (step S903). That is, the ground color detection unit 307 determines the ground color (paper color) of the user image data using the geometric conversion parameter estimated in step S902. The ground color (paper color) of the user image data is detected by replacing “reference image data” with “user image data” and “reference print product” with “user print product” in step S803 in FIG. Can be detected.

以上のようにして、地色検出部307によりユーザ画像データの地色(用紙色)が検出された後、ステップS904において地色補正部302は検出されたユーザ画像データの地色(用紙色)に応じた地色補正処理を行う。この地色補正処理は、実施例1で説明したようにユーザ画像データの地色(用紙色)が原稿画像データの白色点と一致するようにしてもよいし、実施例2で説明したようにユーザ画像データの地色(用紙色)が基準画像データの地色(用紙色)と一致するようにしてもよい。   As described above, after the ground color detection unit 307 detects the ground color (paper color) of the user image data, the ground color correction unit 302 detects the ground color (paper color) of the detected user image data in step S904. The ground color correction process corresponding to the is performed. In the ground color correction process, as described in the first embodiment, the ground color (paper color) of the user image data may match the white point of the document image data, or as described in the second embodiment. The ground color (paper color) of the user image data may match the ground color (paper color) of the reference image data.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

100 コンピュータ
200 ユーザプリンタ
300 スキャナ
301 画像読み取り部
302 地色補正部
303 幾何学変換パラメータ推定部
304 画素値対応付け部
305 色再現特性推定部
306 色変換部
307 地色検出部
300 スキャナ
400 基準プリンタ
500 ネットワーク
600 画像処理システム
601 画像入力部
602 画像出力部
603 画像記憶部
604 画像解析部
605 パラメータ記憶部
606 画像処理部
700 MFP
DESCRIPTION OF SYMBOLS 100 Computer 200 User printer 300 Scanner 301 Image reading part 302 Ground color correction | amendment part 303 Geometric transformation parameter estimation part 304 Pixel value matching part 305 Color reproduction characteristic estimation part 306 Color conversion part 307 Ground color detection part 300 Scanner 400 Reference | standard printer 500 Network 600 Image processing system 601 Image input unit 602 Image output unit 603 Image storage unit 604 Image analysis unit 605 Parameter storage unit 606 Image processing unit 700 MFP

特開2013−30996号公報JP2013-30996A

Claims (11)

第一の画像出力機手段が原稿画像データを出力した第一の出力結果の色を、第二の画像出力機手段が前記原稿画像データを出力した第二の出力結果において再現する画像処理装置であって、
読み取り装置が前記第一の出力結果を読み取った第一の出力画像データと前記原稿画像データとの位置を合わせる第一の幾何学変換パラメータを推定し、読み取り装置が前記第二の出力結果を読み取った第二の出力画像データと前記原稿画像データとの位置を合わせる第二の幾何学変換パラメータを推定する幾何学変換パラメータ推定手段と、
前記第一の出力結果の地色を表す第一の地色と前記第二の出力結果の地色を表す第二の地色の少なくとも一つに基づいて、前記第一の出力画像データの画素値又は前記第二の出力画像データの画素値を変換する地色補正手段と、
前記第一の幾何学変換パラメータを用いて、前記地色補正手段により変換された第一の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第一の画素値対応付けデータを生成し、前記第二の幾何学変換パラメータを用いて、前記地色補正手段により変換された第二の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第二の画素値対応付けデータを生成する画素値対応付け手段と、
前記第一の画素値対応付けデータに基づいて前記原稿画像データから前記変換された第一の出力画像データの色を推定する第一の写像と、前記第二の画素値対応付けデータに基づいて前記変換された第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とを決定する写像推定手段と、
前記第一の写像と前記第二の写像とに基づいて、前記原稿画像データの画素値を変換する変換手段と、
を有する画像処理装置。
An image processing apparatus that reproduces the color of the first output result obtained by outputting the original image data by the first image output unit in the second output result obtained by outputting the original image data by the second image output unit. There,
A reading device estimates a first geometric transformation parameter for aligning the first output image data read from the first output result and the original image data, and the reading device reads the second output result. Geometric transformation parameter estimation means for estimating a second geometric transformation parameter for aligning the position of the second output image data and the original image data;
Pixels of the first output image data based on at least one of a first ground color representing the ground color of the first output result and a second ground color representing the ground color of the second output result A ground color correction means for converting a value or a pixel value of the second output image data;
Using the first geometric conversion parameter, the first output image data converted by the ground color correction means and the first combination of the color components of the corresponding pixels of the document image data are associated with each other. Pixel value association data is generated, and the second output image data converted by the ground color correction means and the original image data corresponding to the color components of the corresponding document are generated using the second geometric conversion parameter. Pixel value association means for generating second pixel value association data associated with the combination;
Based on the first mapping for estimating the color of the converted first output image data from the document image data based on the first pixel value association data, and on the second pixel value association data Mapping estimation means for determining a second mapping for estimating the color of the document image data from the color of the converted second output image data;
Conversion means for converting a pixel value of the document image data based on the first mapping and the second mapping;
An image processing apparatus.
前記第一の幾何学変換パラメータを用いて前記第一の出力画像データから前記第一の地色を検出するとともに、前記第二の幾何学変換パラメータを用いて前記第二の出力画像データから前記第二の地色を検出する地色検出手段を有し、
前記地色補正手段は、
前記地色検出手段により検出された第一の地色と第二の地色の少なくとも一つに基づいて、前記第一の出力画像データの画素値又は前記第二の出力画像データの画素値を変換する、請求項1記載の画像処理装置。
The first ground color is detected from the first output image data using the first geometric transformation parameter, and the second output image data is used to detect the first ground color from the second output image data. A ground color detecting means for detecting the second ground color;
The ground color correction means includes
Based on at least one of the first ground color and the second ground color detected by the ground color detection means, the pixel value of the first output image data or the pixel value of the second output image data is determined. The image processing apparatus according to claim 1, wherein the image processing apparatus performs conversion.
前記地色補正手段は、
前記第一の地色と前記原稿画像データの白色点とが一致するように前記第一の出力画像データの画素値を変換し、
前記第二の地色と前記原稿画像データの白色点とが一致するように前記第二の出力画像データの画素値を変換する、請求項1又は2記載の画像処理装置。
The ground color correction means includes
Converting the pixel value of the first output image data so that the first ground color matches the white point of the document image data;
The image processing apparatus according to claim 1, wherein a pixel value of the second output image data is converted so that the second ground color matches a white point of the document image data.
前記地色補正手段は、
前記第一の地色と前記第二の地色とが一致するように、前記第一の出力画像データの画素値又は前記第二の出力画像データの画素値を変換する、請求項1又は2記載の画像処理装置。
The ground color correction means includes
The pixel value of the first output image data or the pixel value of the second output image data is converted so that the first ground color matches the second ground color. The image processing apparatus described.
前記写像推定手段は、
前記原稿画像データの複数の色成分値を基にした多次元のデータを用いて前記変換された第一の出力画像データの色を推定する前記第一の写像を決定し、前記変換された第二の出力画像データの複数の色成分値を基にした多次元のデータを用いて前記原稿画像データの色を推定する前記第二の写像を決定する、請求項1ないし4のいずれか1項に記載の画像処理装置。
The mapping estimation means includes
The first mapping for estimating the color of the converted first output image data is determined using multidimensional data based on a plurality of color component values of the document image data, and the converted first 5. The second mapping for estimating the color of the document image data is determined using multidimensional data based on a plurality of color component values of the second output image data. An image processing apparatus according to 1.
画像データをデバイス非依存の色空間に変換する色空間変換手段を有し、
前記写像推定手段は、
前記変換された第一の出力画像データ及び前記変換された第二の出力画像データを前記色空間変換手段によりデバイス非依存の色空間にさらに変換した後、該さらに変換された第一の出力画像データ及び第二の出力画像データを用いて前記第一の写像及び前記第二の写像を決定する、請求項1ないし5のいずれか1項に記載の画像処理装置。
Having color space conversion means for converting image data into a device-independent color space;
The mapping estimation means includes
After the converted first output image data and the converted second output image data are further converted into a device-independent color space by the color space conversion means, the further converted first output image The image processing apparatus according to claim 1, wherein the first mapping and the second mapping are determined using data and second output image data.
前記画素値対応付け手段は、
前記原稿画像データ、前記変換された第一の出力画像データ、及び前記変換された第二の出力画像データの各コンテンツの輪郭部分を除外した後、前記変換された第一の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せの対応付け、及び、前記変換された第二の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けを行う、請求項1ないし6のいずれか1項に記載の画像処理装置。
The pixel value association unit includes:
After excluding the outline portion of each content of the original image data, the converted first output image data, and the converted second output image data, the converted first output image data and the Correspondence of the combination of the color components of the corresponding pixels with the document image data, and the combination of the color components of the corresponding pixels of the converted second output image data and the document image data The image processing apparatus according to claim 1.
前記変換された第一の出力画像データと前記変換された第二の出力画像データとの一致度を所定の方法により判定する一致度判定手段を有し、
前記写像推定手段は、
前記一致度判定手段による一致度が所定の基準を満たす場合、前記第二の画素値対応付けデータに基づいて前記変換された第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像を決定する、請求項1ないし7のいずれか1項に記載の画像処理装置。
A degree of coincidence determination means for determining a degree of coincidence between the converted first output image data and the converted second output image data by a predetermined method;
The mapping estimation means includes
When the degree of coincidence by the degree of coincidence determination means satisfies a predetermined criterion, the color of the document image data is estimated from the color of the converted second output image data based on the second pixel value association data. The image processing apparatus according to claim 1, wherein the second mapping is determined.
前記第一の写像及び前記第二の写像が所定の基準を満たすか否かを判定する写像判定手段を有し、
前記変換手段は、
前記写像判定手段により、前記第一の写像及び前記第二の写像が前記所定の基準を満たすと判定された場合、該第一の写像及び前記第二の写像に基づいて前記原稿画像データの画素値を変換する、請求項1ないし8のいずれか1項に記載の画像処理装置。
Mapping determination means for determining whether or not the first mapping and the second mapping satisfy a predetermined criterion;
The converting means includes
When the mapping determination unit determines that the first mapping and the second mapping satisfy the predetermined criterion, pixels of the document image data based on the first mapping and the second mapping The image processing apparatus according to claim 1, wherein the value is converted.
第一の画像出力機手段が原稿画像データを出力した第一の出力結果の色を、第二の画像出力機手段が前記原稿画像データを出力した第二の出力結果において再現する画像処理装置に用いられる画像処理方法であって、
読み取り装置が前記第一の出力結果を読み取った第一の出力画像データと前記原稿画像データとの位置を合わせる第一の幾何学変換パラメータを推定し、読み取り装置が前記第二の出力結果を読み取った第二の出力画像データと前記原稿画像データとの位置を合わせる第二の幾何学変換パラメータを推定する幾何学変換パラメータ推定手順と、
前記第一の出力結果の地色を表す第一の地色と前記第二の出力結果の地色を表す第二の地色の少なくとも一つに基づいて、前記第一の出力画像データの画素値又は前記第二の出力画像データの画素値を変換する地色補正手順と、
前記第一の幾何学変換パラメータを用いて、前記地色補正手順により変換された第一の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第一の画素値対応付けデータを生成し、前記第二の幾何学変換パラメータを用いて、前記地色補正手順により変換された第二の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第二の画素値対応付けデータを生成する画素値対応付け手順と、
前記第一の画素値対応付けデータに基づいて前記原稿画像データから前記変換された第一の出力画像データの色を推定する第一の写像と、前記第二の画素値対応付けデータに基づいて前記変換された第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とを決定する写像推定手順と、
前記第一の写像と前記第二の写像とに基づいて、前記原稿画像データの画素値を変換する変換手順と、
を有する画像処理方法。
An image processing apparatus that reproduces a color of a first output result obtained by outputting original image data by a first image output unit in a second output result obtained by outputting the original image data by a second image output unit. An image processing method used,
A reading device estimates a first geometric transformation parameter for aligning the first output image data read from the first output result and the original image data, and the reading device reads the second output result. A geometric transformation parameter estimation procedure for estimating a second geometric transformation parameter for aligning the second output image data and the original image data;
Pixels of the first output image data based on at least one of a first ground color representing the ground color of the first output result and a second ground color representing the ground color of the second output result A ground color correction procedure for converting a value or a pixel value of the second output image data;
Using the first geometric conversion parameter, the first output image data converted by the ground color correction procedure is associated with a combination of color components of corresponding pixels of the document image data. Pixel value association data is generated, and using the second geometric conversion parameter, the second output image data converted by the ground color correction procedure and the color component of the corresponding pixel of the document image data A pixel value association procedure for generating second pixel value association data associated with the combination;
Based on the first mapping for estimating the color of the converted first output image data from the document image data based on the first pixel value association data, and on the second pixel value association data A mapping estimation procedure for determining a second mapping for estimating the color of the document image data from the color of the converted second output image data;
A conversion procedure for converting pixel values of the document image data based on the first mapping and the second mapping;
An image processing method.
原稿画像データから第一の出力結果を出力する第一の画像出力機手段と、前記原稿画像データから第二の出力結果を出力する第二の画像出力機手段と、前記第一の出力結果及び前記第二の出力結果を読み取る読み取り装置と、前記第二の出力結果の色を前記第一の出力結果の色に近づけるため写像を決定する情報処理装置と、を有する画像処理システムであって、
読み取り装置が前記第一の出力結果を読み取った第一の出力画像データと前記原稿画像データとの位置を合わせる第一の幾何学変換パラメータを推定し、読み取り装置が前記第二の出力結果を読み取った第二の出力画像データと前記原稿画像データとの位置を合わせる第二の幾何学変換パラメータを推定する幾何学変換パラメータ推定手段と、
前記第一の出力結果の地色を表す第一の地色と前記第二の出力結果の地色を表す第二の地色の少なくとも一つに基づいて、前記第一の出力画像データの画素値又は前記第二の出力画像データの画素値を変換する地色補正手段と、
前記第一の幾何学変換パラメータを用いて、前記地色補正手段により変換された第一の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第一の画素値対応付けデータを生成し、前記第二の幾何学変換パラメータを用いて、前記地色補正手段により変換された第二の出力画像データと前記原稿画像データとの対応する画素の色成分の組合せが対応付けられた第二の画素値対応付けデータを生成する画素値対応付け手段と、
前記第一の画素値対応付けデータに基づいて前記原稿画像データから前記変換された第一の出力画像データの色を推定する第一の写像と、前記第二の画素値対応付けデータに基づいて前記変換された第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とを決定する写像推定手段と、
前記第一の写像と前記第二の写像とに基づいて、前記原稿画像データの画素値を変換する変換手段と、
を有する画像処理システム。
A first image output unit for outputting a first output result from the document image data; a second image output unit for outputting a second output result from the document image data; the first output result; An image processing system comprising: a reading device that reads the second output result; and an information processing device that determines a mapping so that the color of the second output result is close to the color of the first output result,
A reading device estimates a first geometric transformation parameter for aligning the first output image data read from the first output result and the original image data, and the reading device reads the second output result. Geometric transformation parameter estimation means for estimating a second geometric transformation parameter for aligning the position of the second output image data and the original image data;
Pixels of the first output image data based on at least one of a first ground color representing the ground color of the first output result and a second ground color representing the ground color of the second output result A ground color correction means for converting a value or a pixel value of the second output image data;
Using the first geometric conversion parameter, the first output image data converted by the ground color correction means and the first combination of the color components of the corresponding pixels of the document image data are associated with each other. Pixel value association data is generated, and the second output image data converted by the ground color correction means and the original image data corresponding to the color components of the corresponding document are generated using the second geometric conversion parameter. Pixel value association means for generating second pixel value association data associated with the combination;
Based on the first mapping for estimating the color of the converted first output image data from the document image data based on the first pixel value association data, and on the second pixel value association data Mapping estimation means for determining a second mapping for estimating the color of the document image data from the color of the converted second output image data;
Conversion means for converting a pixel value of the document image data based on the first mapping and the second mapping;
An image processing system.
JP2014137177A 2014-07-02 2014-07-02 Image processing device, image processing method, and image processing system Pending JP2016015647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014137177A JP2016015647A (en) 2014-07-02 2014-07-02 Image processing device, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137177A JP2016015647A (en) 2014-07-02 2014-07-02 Image processing device, image processing method, and image processing system

Publications (1)

Publication Number Publication Date
JP2016015647A true JP2016015647A (en) 2016-01-28

Family

ID=55231529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137177A Pending JP2016015647A (en) 2014-07-02 2014-07-02 Image processing device, image processing method, and image processing system

Country Status (1)

Country Link
JP (1) JP2016015647A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467247B2 (en) 2020-06-11 2024-04-15 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467247B2 (en) 2020-06-11 2024-04-15 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP5733083B2 (en) Image processing apparatus and image processing system
JP5799634B2 (en) Image processing apparatus and image processing system
JP5857676B2 (en) Image processing apparatus and image processing system
US10735627B2 (en) Color conversion table creation apparatus and method, color conversion apparatus, and program
JP5924091B2 (en) Image processing apparatus, image processing system, and program
US8767232B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP5760785B2 (en) Image processing apparatus and image processing system
JP2015111801A (en) Image processing apparatus and image processing system
JP6339962B2 (en) Image processing apparatus and method, and program
JP6680076B2 (en) Image processing apparatus, image processing method, and image processing system
JP7367159B2 (en) Image processing device, image processing method, and program
JP5906924B2 (en) Image processing apparatus, image processing system, and program
JP4884305B2 (en) Image processing apparatus, image forming apparatus, computer program, and recording medium
JP6298387B2 (en) Color conversion table creation device and method, and program
JP6428454B2 (en) Image processing apparatus, image processing method, and image processing system
JP2016015647A (en) Image processing device, image processing method, and image processing system
US20220036570A1 (en) Image processing apparatus, image processing method, and image processing system
JP6384268B2 (en) Image processing apparatus, image processing method, and image processing system
JP6127585B2 (en) Image processing apparatus, image processing system, and image processing method
JP6350055B2 (en) Color difference evaluation apparatus, image forming apparatus, and program
JP7321885B2 (en) Image processing device, image processing method, and program
JP2016051972A (en) Image processing apparatus, program, and printed matter reading method
JP2024016587A (en) Printing system, printing method, and program
JP2019149639A (en) Image processing apparatus, image processing system, and image processing program