JP2010278768A - Image forming apparatus, and image processing method - Google Patents

Image forming apparatus, and image processing method Download PDF

Info

Publication number
JP2010278768A
JP2010278768A JP2009129354A JP2009129354A JP2010278768A JP 2010278768 A JP2010278768 A JP 2010278768A JP 2009129354 A JP2009129354 A JP 2009129354A JP 2009129354 A JP2009129354 A JP 2009129354A JP 2010278768 A JP2010278768 A JP 2010278768A
Authority
JP
Japan
Prior art keywords
image
unit
image data
calibration
acc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009129354A
Other languages
Japanese (ja)
Inventor
Manabu Komatsu
小松  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009129354A priority Critical patent/JP2010278768A/en
Publication of JP2010278768A publication Critical patent/JP2010278768A/en
Pending legal-status Critical Current

Links

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To present a preview image to a user which faithfully reproduces the finishing of an image reproduced on recording paper without performing complicated work. <P>SOLUTION: A plotter 9 forms a calibration image on recording paper, a scanner 1 reads the recording paper with the calibration image formed thereon to acquire image information for calibration, a CPU 4 performs calibration using the image information for calibration, changes target image characteristics into characteristics of an image forming means or target image characteristics reflecting an image formation condition, and generates a correction table that can be corrected to the changed target image characteristics. A memory 5 stores image data to be outputted; an output image processing part 7 performs image processing of the image data to be outputted with reference to the correction table, and converts the image data into image data for preview, reflecting the changed target image characteristic; and an operation display part 12 displays a preview image of converted image data for preview. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像形成装置、及び画像処理方法に関する。   The present invention relates to an image forming apparatus and an image processing method.

従来から、複写機能に加え、プリンタ機能、スキャナ機能、及びファクシミリ機能等の種々の機能を有する複合機などの画像形成装置が知られており、カラー画像を形成する際には、環境変化、経時変化、及び機体差のない安定した色再現性が求められている。   2. Description of the Related Art Conventionally, image forming apparatuses such as multifunction peripherals having various functions such as a printer function, a scanner function, and a facsimile function in addition to a copying function have been known. There is a need for stable color reproducibility without changes and machine differences.

例えば、電子写真方式を採用したカラーレーザビームプリンタ等の静電気を利用した画像形成を行う画像形成装置においては、温度や湿度等の環境条件、また感光体や現像剤の経時劣化等の材料条件の変化に伴う出力画像の色味の変動に対処するため、出力画像の基本色濃度を安定させる技術が種々提案されている。このような技術には、例えば、プリントエンジンでのガンマ特性の経時変化を補正するため、調整時毎にガンマ補正テーブルを生成して、プリントエンジンの特性を補正するキャリブレーション(Calibration)などがある。   For example, in an image forming apparatus that performs image formation using static electricity, such as a color laser beam printer that employs an electrophotographic method, environmental conditions such as temperature and humidity, and material conditions such as deterioration over time of a photoconductor and a developer. Various techniques for stabilizing the basic color density of an output image have been proposed in order to cope with variations in the color of the output image that accompany changes. Such a technique includes, for example, calibration for correcting the characteristics of the print engine by generating a gamma correction table for each adjustment time in order to correct the change with time of the gamma characteristic in the print engine. .

また、上記のような画像形成装置では、ディスプレイ、印刷機、及びプリンタ等の複数の異なるデバイス出力色についても、元の画像データが同じであれば同じ色味が得られることも求められている。この要求に対処する技術として、独自の色再現特性を有するデバイス毎に、当該デバイスの色出力特性を定義するプロファイルを予め作成し、該プロファイルに基づいて入力色からデバイス独立色への色変換処理を行うカラー・マネージメント・システム(CMS)などがある。   Further, in the image forming apparatus as described above, it is also required that the same color is obtained for a plurality of different device output colors such as a display, a printing machine, and a printer if the original image data is the same. . As a technology to deal with this requirement, for each device having a unique color reproduction characteristic, a profile that defines the color output characteristic of the device is created in advance, and color conversion processing from an input color to a device-independent color is performed based on the profile There is a color management system (CMS) and the like.

ところで、カラー・マネージメント・システムを搭載した画像形成装置であっても、ディスプレイに表示されたプレビュー画像をプリンタで印刷出力すると、プレビュー画像と、実際に印刷出力した画像との印象が変わってしまうという問題がある。   By the way, even in an image forming apparatus equipped with a color management system, when a preview image displayed on a display is printed out by a printer, the impression between the preview image and the actually printed image changes. There's a problem.

このため、例えば特許文献1には、原画像に対する色変換(印刷対象とするハードコピー装置の持つ色変換の逆変換)の指示を入力すると、指示された色変換をシミュレートして色変換された処理画像を取得し、原画像と色変換された複数の処理画像とをCRTに表示し、原画像と最も色が近い処理画像をユーザに選択させる技術が開示されている。   For this reason, for example, in Patent Document 1, when an instruction for color conversion (inverse conversion of color conversion of a hard copy device to be printed) is input to an original image, the instructed color conversion is simulated and color conversion is performed. A technique is disclosed in which a processed image is acquired, an original image and a plurality of color-converted processed images are displayed on a CRT, and a user selects a processed image having the closest color to the original image.

また、例えば特許文献2には、輝度、コントラスト、色相、飽和等が調整された調整画像と基準画像とをディスプレイに表示させ、調整画像を基準画像に類似するように修正する技術が開示されている。   Further, for example, Patent Document 2 discloses a technique for displaying an adjusted image adjusted in brightness, contrast, hue, saturation, and the like and a reference image on a display, and correcting the adjusted image to be similar to the reference image. Yes.

また、例えば特許文献3には、プレビュー画像に基づくテスト印刷を行った後、プレビュー画像の色の調整がユーザによってなされると、その色の調整値に基づいたキャリブレーションを行うことで、紙面に形成される前に表示装置に表示される画像と、実際に紙面に形成される画像を近づける技術が開示されている。   Further, for example, in Patent Document 3, after a test print based on a preview image is performed, when the user adjusts the color of the preview image, calibration based on the adjustment value of the color is performed, so A technique for bringing an image displayed on a display device before being formed closer to an image actually formed on a paper surface is disclosed.

しかしながら、上述した従来技術では、トップ濃度などの画像形成装置の状態や白色度や色温度などの記録紙の特性が、プレビュー画像に反映されない為、実際に記録紙に画像形成した出力画像とプレビュー画像との印象が異なってしまう。このため、ユーザは効率的な色調整や適切な画像出力モードが選択することができず、結局、記録紙に画像出力を繰り返しながら色調整することになってしまうことになる。   However, in the above-described prior art, the state of the image forming apparatus such as the top density and the characteristics of the recording paper such as the whiteness and the color temperature are not reflected in the preview image. The impression with the image is different. For this reason, the user cannot select an efficient color adjustment or an appropriate image output mode, and eventually the color adjustment is performed while repeating the image output on the recording paper.

また、高品位な出力画像を得る為に実施される一般的なプリントエンジンでのガンマ特性の経時変化を補正するためのキャリブレーションでは、入力原稿や画像形成する記録紙の特性、もしくは、画像出力モードに代表される画像出力条件に対応した画像出力に対応できない。   In addition, calibration for correcting changes over time in gamma characteristics in a general print engine, which is performed to obtain high-quality output images, can be used for characteristics of input documents and recording paper on which images are formed, or image output. The image output corresponding to the image output condition represented by the mode cannot be supported.

本発明は、上記事情に鑑みてなされたものであり、煩雑な作業を行わずに、記録紙に再現される画像の仕上がりを忠実に再現したプレビュー画像をユーザに提示することができる画像形成装置、及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and is capable of presenting a preview image that faithfully reproduces the finished image reproduced on a recording sheet to a user without performing complicated operations. And an image processing method.

上述した課題を解決し、目的を達成するために、本発明の一態様にかかる画像形成装置は、キャリブレーションに用いるキャリブレーション画像を記録紙に形成する画像形成手段と、前記キャリブレーション画像が形成された前記記録紙を読み取って、キャリブレーション用の画像情報を得る画像読取手段と、前記キャリブレーション用の画像情報を用いたキャリブレーションを行って、目標画像特性を前記画像形成手段の特性又は画像形成条件を反映した目標画像特性に変更し、変更後の目標画像特性に補正可能な補正テーブルを生成する補正テーブル生成手段と、出力対象の画像データを記憶する画像データ記憶手段と、前記補正テーブルを参照して前記出力対象の画像データに画像処理を施し、変更後の前記目標画像特性を反映したプレビュー用の画像データに変換する画像処理手段と、変換されたプレビュー用の画像データのプレビュー画像を表示する表示手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image forming apparatus according to an aspect of the present invention includes an image forming unit that forms a calibration image used for calibration on a recording sheet, and the calibration image is formed. An image reading unit that reads the recorded recording paper to obtain image information for calibration, and performs calibration using the image information for calibration, and sets a target image characteristic as a characteristic or image of the image forming unit. A correction table generation unit that generates a correction table that can be changed to the target image characteristic that reflects the formation condition and that can be corrected to the changed target image characteristic, an image data storage unit that stores image data to be output, and the correction table The image processing is performed on the image data to be output with reference to the image data to reflect the target image characteristics after the change. Characterized in that it comprises an image processing means for converting the image data for the view, and a display means for displaying a preview image of the image data for the converted preview, the.

また、本発明の別の態様にかかる画像処理方法は、画像形成手段が、キャリブレーションに用いるキャリブレーション画像を記録紙に形成する画像形成ステップと、画像読取手段が、前記キャリブレーション画像が形成された前記記録紙を読み取って、キャリブレーション用の画像情報を得る画像読取ステップと、補正テーブル生成手段が、前記キャリブレーション用の画像情報を用いたキャリブレーションを行って、目標画像特性を前記画像形成手段の特性又は画像形成条件を反映した目標画像特性に変更し、変更後の目標画像特性に補正可能な補正テーブルを生成する補正テーブル生成ステップと、画像処理手段が、前記補正テーブルを参照して、画像データ記憶手段に記憶された出力対象の画像データに画像処理を施し、変更後の前記目標画像特性を反映したプレビュー用の画像データに変換する画像処理ステップと、表示手段が、変換されたプレビュー用の画像データのプレビュー画像を表示する表示ステップと、を含むことを特徴とする。   An image processing method according to another aspect of the present invention includes an image forming step in which an image forming unit forms a calibration image used for calibration on a recording sheet, and an image reading unit forms the calibration image. An image reading step of reading the recording paper to obtain image information for calibration, and a correction table generating means calibrates using the image information for calibration to obtain target image characteristics as the image formation A correction table generating step for generating a correction table that can be corrected to the target image characteristic after changing to the target image characteristic reflecting the characteristic of the unit or the image forming condition, and the image processing unit refers to the correction table. The image data to be output stored in the image data storage means is subjected to image processing, and the changed image data An image processing step of converting the image data for preview reflecting the target image characteristics, display means, characterized in that it comprises a display step of displaying a preview image of the image data for the converted preview.

本発明によれば、煩雑な作業を行わずに、記録紙に再現される画像の仕上がりを忠実に再現したプレビュー画像をユーザに提示することができるという効果を奏する。   According to the present invention, there is an effect that it is possible to present to the user a preview image that faithfully reproduces the finished image reproduced on the recording paper without performing complicated work.

図1は、本実施形態の複合機の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a multifunction machine according to the present embodiment. 図2は、本実施形態の入力画像処理部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the input image processing unit of the present embodiment. 図3は、像域分離信号の例を示す図である。FIG. 3 is a diagram illustrating an example of the image area separation signal. 図4は、本実施形態の出力画像処理部の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of the output image processing unit of the present embodiment. 図5は、本実施形態の複合機のコピー動作例を示すシーケンス図である。FIG. 5 is a sequence diagram illustrating an example of a copy operation of the multifunction machine according to the present embodiment. 図6は、属性情報の例を示す図である。FIG. 6 is a diagram illustrating an example of attribute information. 図7は、本実施形態の複合機のコピー・保存動作例を示すシーケンス図である。FIG. 7 is a sequence diagram illustrating an example of a copy / save operation of the MFP according to the present embodiment. 図8は、本実施形態の複合機のプリンタ・保存動作例を示すシーケンス図である。FIG. 8 is a sequence diagram illustrating an example of the printer / save operation of the multifunction peripheral according to the present embodiment. 図9は、属性情報の例を示す図である。FIG. 9 is a diagram illustrating an example of attribute information. 図10は、属性情報の例を示す図である。FIG. 10 is a diagram illustrating an example of attribute information. 図11は、本実施形態の複合機の第1ファックス送信動作例を示すシーケンス図である。FIG. 11 is a sequence diagram illustrating an example of a first fax transmission operation of the multifunction machine according to the present embodiment. 図12は、本実施形態の複合機の第2ファックス送信動作例を示すシーケンス図である。FIG. 12 is a sequence diagram illustrating a second fax transmission operation example of the multifunction machine according to the present embodiment. 図13は、本実施形態の複合機の第1配信動作例を示すシーケンス図である。FIG. 13 is a sequence diagram illustrating a first distribution operation example of the multifunction peripheral according to the present embodiment. 図14は、本実施形態の複合機の第2配信動作例を示すシーケンス図である。FIG. 14 is a sequence diagram illustrating a second distribution operation example of the multifunction peripheral according to the present embodiment. 図15は、本実施形態の複合機のACC動作例を示すシーケンス図である。FIG. 15 is a sequence diagram illustrating an ACC operation example of the multifunction peripheral according to the present embodiment. 図16は、ACC用の読み取りパターンの例を示す図である。FIG. 16 is a diagram illustrating an example of a reading pattern for ACC. 図17は、ACC読み取り値とACC出力パターンとの対応関係例を示す図である。FIG. 17 is a diagram illustrating an example of a correspondence relationship between an ACC reading value and an ACC output pattern. 図18は、ACC出力パターンのパッチ色とACC読み取り値の色成分との対応関係例を示す図である。FIG. 18 is a diagram illustrating an example of a correspondence relationship between the patch color of the ACC output pattern and the color component of the ACC reading value. 図19は、ACCターゲットデータの例を示す図である。FIG. 19 is a diagram illustrating an example of ACC target data. 図20は、ACCターゲットデータとLDデータとの対応関係例を示す図である。FIG. 20 is a diagram illustrating an example of a correspondence relationship between ACC target data and LD data. 図21は、LD(入力レベル)データの例を示す図である。FIG. 21 is a diagram illustrating an example of LD (input level) data. 図22は、ACCターゲット高濃度補正用の参照フラグデータの例を示す図である。FIG. 22 is a diagram illustrating an example of reference flag data for ACC target high density correction. 図23は、補正後のACCターゲットデータとLDデータとの対応関係例を示す図である。FIG. 23 is a diagram illustrating a correspondence relationship example between corrected ACC target data and LD data. 図24は、地肌補正用テーブルの例を示す図である。FIG. 24 is a diagram illustrating an example of the background correction table. 図25は、地肌補正率とACC読み取り値との対応関係例を示す図である。FIG. 25 is a diagram illustrating an example of a correspondence relationship between the background correction rate and the ACC reading value. 図26は、ベースγ制御点算出の概念図である。FIG. 26 is a conceptual diagram of base γ control point calculation. 図27は、本実施形態の複合機で行われるプレビュー表示動作例を示すシーケンス図である。FIG. 27 is a sequence diagram illustrating an example of a preview display operation performed in the multifunction machine according to the present embodiment. 図28は、カラー画像信号への変換例と処理の概念の例を示す図である。FIG. 28 is a diagram illustrating an example of conversion to a color image signal and an example of the concept of processing. 図29は、複数の単位立方体に分割された三次元入力色空間例を示す図である。FIG. 29 is a diagram illustrating an example of a three-dimensional input color space divided into a plurality of unit cubes. 図30は、単位立方体の例を示す図である。FIG. 30 is a diagram illustrating an example of a unit cube. 図31−1は、単位立方体を分割した四面体の例を示す図である。FIG. 31A is a diagram illustrating an example of a tetrahedron obtained by dividing a unit cube. 図31−2は、単位立方体を分割した四面体の例を示す図である。FIG. 31-2 is a diagram illustrating an example of a tetrahedron obtained by dividing a unit cube. 図31−3は、単位立方体を分割した四面体の例を示す図である。FIG. 31C is a diagram illustrating an example of a tetrahedron obtained by dividing a unit cube. 図31−4は、単位立方体を分割した四面体の例を示す図である。FIG. 31D is a diagram illustrating an example of a tetrahedron obtained by dividing a unit cube. 図31−5は、単位立方体を分割した四面体の例を示す図である。FIG. 31-5 is a diagram illustrating an example of a tetrahedron obtained by dividing a unit cube. 図31−6は、単位立方体を分割した四面体の例を示す図である。FIG. 31-6 is a diagram illustrating an example of a tetrahedron obtained by dividing a unit cube. 図32は、四面体の補間係数の決定ルールの例を示す図である。FIG. 32 is a diagram illustrating an example of a tetrahedral interpolation coefficient determination rule. 図33は、CMYKの各色とRGBの色成分との対応関係例を示す図である。FIG. 33 is a diagram illustrating an example of a correspondence relationship between CMYK colors and RGB color components.

以下、添付図面を参照しながら、本発明にかかる画像形成装置、及び画像処理方法の実施の形態を詳細に説明する。なお、本実施の形態では、画像形成装置として、コピー機能、プリンタ機能、スキャナ機能、及びファックス機能を有する複合機(MFP:Multifunction Printer)を例にとり説明するが、画像形成装置はこれに限定されるものではない。例えば、複写機であってもよいし、また、複合機は、少なくともプリンタ機能及びスキャナ機能を有していればよい。   Embodiments of an image forming apparatus and an image processing method according to the present invention will be described below in detail with reference to the accompanying drawings. In the present embodiment, an example of a multifunction machine (MFP) having a copy function, a printer function, a scanner function, and a fax function will be described as an image forming apparatus. However, the image forming apparatus is not limited to this. It is not something. For example, it may be a copying machine, and the multifunction machine only needs to have at least a printer function and a scanner function.

(1.構成)
まず、本実施の形態の複合機の構成について説明する。
(1. Configuration)
First, the configuration of the multifunction machine according to the present embodiment will be described.

図1は、本実施の形態の複合機100の構成の一例を示すブロック図である。図1に示すように、複合機100は、スキャナ1と、入力画像処理部2と、バス制御部3と、CPU(Central Processing Unit)4と、メモリ5と、HDD(Hard Disk Drive)6と、出力画像処理部7と、プロッタI/F8と、プロッタ9と、SB(South Bridge)10と、ROM(Read Only Memory)11と、操作表示部12と、回線I/F13と、外部I/F14とを備える。   FIG. 1 is a block diagram illustrating an example of the configuration of the multifunction peripheral 100 according to the present embodiment. As shown in FIG. 1, the multifunction peripheral 100 includes a scanner 1, an input image processing unit 2, a bus control unit 3, a CPU (Central Processing Unit) 4, a memory 5, and an HDD (Hard Disk Drive) 6. , Output image processing unit 7, plotter I / F 8, plotter 9, SB (South Bridge) 10, ROM (Read Only Memory) 11, operation display unit 12, line I / F 13, and external I / F F14.

スキャナ1(画像読取手段の一例)は、スキャナ1にセットされた原稿を、電子化した画像データとして読み取る。具体的には、スキャナ1は、CCD(Charge Coupled Devices)光電変換素子から構成されるラインセンサと、A/Dコンバータと、これらを駆動する駆動回路とを備えている(いずれも図示省略)。そして、ラインセンサがスキャナ1にセットされた原稿を1ラインずつスキャンし、A/Dコンバータがスキャンにより得られた原稿の濃淡情報からRGB各8ビットのRGB画像データを生成して、入力画像処理部2に出力する。   A scanner 1 (an example of an image reading unit) reads a document set on the scanner 1 as digitized image data. Specifically, the scanner 1 includes a line sensor composed of a CCD (Charge Coupled Devices) photoelectric conversion element, an A / D converter, and a drive circuit for driving them (all not shown). Then, the line sensor scans the original set on the scanner 1 line by line, and the A / D converter generates RGB image data of 8 bits for each RGB from the density information of the original obtained by scanning, and performs input image processing. Output to part 2.

入力画像処理部2は、スキャナ1により読み取られた画像データに対して、予め定めた特性に統一する画像処理を施す。   The input image processing unit 2 performs image processing for unifying predetermined characteristics on the image data read by the scanner 1.

図2は、本実施の形態の入力画像処理部2の構成の一例を示すブロック図である。図2に示すように、入力画像処理部2は、スキャナ補正部30と、γ変換部31と、像域分離部32と、フィルタ部33と、色変換部34と、分離デコード部35と、変倍部36とを含む。   FIG. 2 is a block diagram showing an example of the configuration of the input image processing unit 2 of the present embodiment. As shown in FIG. 2, the input image processing unit 2 includes a scanner correction unit 30, a γ conversion unit 31, an image area separation unit 32, a filter unit 33, a color conversion unit 34, a separation decoding unit 35, And a zoom unit 36.

スキャナ補正部30は、スキャナ1により生成されたRGB画像データに対して、スキャナ1の機構上(例えば照度歪み等)発生する読取りムラ等のシェーディングを補正するスキャナ補正を行い、γ変換部31及び像域分離部32に出力する。   The scanner correction unit 30 performs scanner correction on the RGB image data generated by the scanner 1 to correct shading such as uneven reading that occurs on the mechanism of the scanner 1 (for example, illuminance distortion), and the γ conversion unit 31 and The image is output to the image area separation unit 32.

γ変換部31は、スキャナ補正部30によりスキャナ補正が行われたRGB画像データのγ特性を、予め定められた特性(例えば、1/2.2乗)に変換するγ変換を行い、フィルタ部33に出力する。   The γ conversion unit 31 performs γ conversion for converting the γ characteristic of the RGB image data subjected to the scanner correction by the scanner correction unit 30 into a predetermined characteristic (for example, 1 / 2.2), and a filter unit. To 33.

像域分離部32は、スキャナ補正部30によりスキャナ補正が行われたRGB画像データから、特徴的なエリアを抽出する像域分離を行う。具体的には、像域分離部32は、一般的な印刷によって形成されている網点部の抽出、文字などのエッジ部の抽出、RGB画像データが有彩であるか無彩であるかの判定、及び背景画像が白背景であるか否かの判定などを行う。そして、像域分離部32は、像域分離の結果を像域分離信号として、フィルタ部33及び分離デコード部35に出力する。   The image area separation unit 32 performs image area separation for extracting a characteristic area from the RGB image data subjected to the scanner correction by the scanner correction unit 30. Specifically, the image area separation unit 32 extracts halftone dots formed by general printing, extraction of edge portions such as characters, and whether RGB image data is chromatic or achromatic. The determination and whether or not the background image is a white background are performed. Then, the image area separation unit 32 outputs the image area separation result as an image area separation signal to the filter unit 33 and the separation decoding unit 35.

図3は、本実施の形態の像域分離部32により出力される像域分離信号の一例を示す図である。図3に示す像域分離信号は、RGB画像データが有彩であるか無彩であるかを示す「CW」、及び背景画像が白背景であるか否かを示す「WS」などの像域分離の結果を示す各情報がそれぞれ1ビットで示されており、合計7ビットの情報となっている。   FIG. 3 is a diagram illustrating an example of an image area separation signal output by the image area separation unit 32 of the present embodiment. The image area separation signal shown in FIG. 3 includes image areas such as “CW” indicating whether the RGB image data is chromatic or achromatic, and “WS” indicating whether the background image is a white background. Each piece of information indicating the result of separation is represented by 1 bit, which is 7 bits in total.

図2に戻り、フィルタ部33は、像域分離部32から出力された像域分離信号を用いて、γ変換部31によりγ変換が行われたRGB画像データの鮮鋭性を予め定められた特性に統一するフィルタ処理を行い、色変換部34に出力する。具体的には、フィルタ部33は、スキャナ1のMTF特性を補正したり、モアレを防止するために、RGB画像データの周波数特性を変換する。これにより、RGB画像データは、くっきり、滑らかになる。例えば、フィルタ部33は、基準チャート(図示省略)がスキャンされたときに、線数及び画質モード毎に予め定められた値にMTF特性値を補正する。   Returning to FIG. 2, the filter unit 33 uses the image region separation signal output from the image region separation unit 32 to set the sharpness of the RGB image data subjected to γ conversion by the γ conversion unit 31 to a predetermined characteristic. Is output to the color conversion unit 34. Specifically, the filter unit 33 converts the frequency characteristics of the RGB image data in order to correct the MTF characteristics of the scanner 1 and prevent moire. Thereby, the RGB image data becomes clear and smooth. For example, when the reference chart (not shown) is scanned, the filter unit 33 corrects the MTF characteristic value to a value predetermined for each number of lines and image quality mode.

色変換部34は、フィルタ部33によりフィルタ処理が行われたRGB画像データを、例えばsRGBやopRGBなどの予め定められた特性のRGB画像データに変換する色変換を行い、変倍部36に出力する。   The color conversion unit 34 performs color conversion for converting the RGB image data filtered by the filter unit 33 into RGB image data having a predetermined characteristic such as sRGB or opRGB, and outputs the converted RGB image data to the scaling unit 36. To do.

分離デコード部35は、像域分離部32から出力された像域分離信号を、後述の出力画像処理部7の処理に必要な情報である属性情報にデコードする分離デコードを行い、変倍部36に出力する。例えば、分離デコード部35は、図3に示す像域分離信号を、黒文字、色文字、文字なか、網点上文字、高線数網点、低線数網点、写真、及び追跡パターンの各状態を3ビットで表現する属性情報にデコードしたり、黒文字、色文字、文字なか、及び非文字の各状態を2ビットで表現する属性情報にデコードする。   The separation decoding unit 35 performs separation decoding for decoding the image area separation signal output from the image area separation unit 32 into attribute information which is information necessary for processing of an output image processing unit 7 described later, and the scaling unit 36 Output to. For example, the separation decoding unit 35 converts the image area separation signal shown in FIG. 3 into black character, color character, character, halftone dot character, high line number halftone dot, low line number halftone dot, photograph, and tracking pattern. The state is decoded into attribute information expressed in 3 bits, or each state of black characters, color characters, characters, and non-characters is decoded into attribute information expressed in 2 bits.

変倍部36は、色変換部34により色変換が行われたRGB画像データのサイズ(解像度)を、予め定められた特性に統一する変倍処理を行う。なお本実施の形態では、変倍部36は、RGB画像データのサイズを600dpiに変換する場合を例に取り説明するが、これに限定されるものではない。そして、変倍部36は、サイズが予め定められた特性に統一されたRGB画像データ及び分離デコード部35から出力された属性情報をバス制御部3に出力する。   The scaling unit 36 performs a scaling process that unifies the size (resolution) of the RGB image data that has undergone color conversion by the color conversion unit 34 into predetermined characteristics. In the present embodiment, the scaling unit 36 will be described by taking an example in which the size of RGB image data is converted to 600 dpi, but the present invention is not limited to this. Then, the scaling unit 36 outputs the RGB image data whose size is unified to a predetermined characteristic and the attribute information output from the separation decoding unit 35 to the bus control unit 3.

図1に戻り、バス制御部3は、複合機100内で必要な画像データや制御コマンドなどの各種データを転送するデータバスを制御する。本実施の形態では、バス制御部3と、入力画像処理部2、出力画像処理部7、及びCPU4とは、PCI−Expressバスで接続され、HDD6とは、ATAバスで接続されているため、バス制御部3は、複数種のバス規格間のブリッジ機能も有している。   Returning to FIG. 1, the bus control unit 3 controls a data bus for transferring various data such as image data and control commands required in the multifunction peripheral 100. In the present embodiment, the bus control unit 3, the input image processing unit 2, the output image processing unit 7, and the CPU 4 are connected by a PCI-Express bus and the HDD 6 is connected by an ATA bus. The bus control unit 3 also has a bridge function between a plurality of types of bus standards.

CPU4(補正テーブル生成手段の一例)は、複合機100全体の制御を司るマイクロプロセッサであり、CPUコア単体に様々な機能を追加したIntegrated CPUなどにより実現できる。Integrated CPUとしては、例えば、汎用規格I/Fと接続する機能や、クロスバースイッチを使って拡張バス間を接続する機能がインテグレートされたPMC社のRM11100などが挙げられる。   The CPU 4 (an example of a correction table generation unit) is a microprocessor that controls the entire MFP 100, and can be realized by an integrated CPU in which various functions are added to a single CPU core. Examples of the integrated CPU include a PMC RM11100 in which a function for connecting to a general-purpose standard I / F and a function for connecting expansion buses using a crossbar switch are integrated.

また、CPU4は、入力画像処理部2により画像処理が施され、予め定めた特性に統一されたRGB画像データ及びその属性情報や、外部I/F14などに送られてくる予め定めた特性に統一されたRGB画像データ及びその属性情報を符号化し、バス制御部3を介してHDD6に記憶させる。また、CPU4は、HDD6に符号化された状態で記憶されているRGB画像データ及びその属性情報を復号し、バス制御部3を介して出力画像処理部7に出力する。   In addition, the CPU 4 performs image processing by the input image processing unit 2 and unifies the RGB image data and its attribute information, which are unified to the predetermined characteristics, and the predetermined characteristics sent to the external I / F 14 or the like. The RGB image data and the attribute information thereof are encoded and stored in the HDD 6 via the bus control unit 3. In addition, the CPU 4 decodes the RGB image data and the attribute information stored in the encoded state in the HDD 6, and outputs them to the output image processing unit 7 via the bus control unit 3.

なお本実施の形態では、CPU4は、RGB画像データの符号化には、非可逆で圧縮率の高いJPEG(Joint Photographic Experts Group)、属性情報の符号化には、可逆なK8を用いることで、画質劣化を最小限に抑えている。   In this embodiment, the CPU 4 uses JPEG (Joint Photographic Experts Group), which is lossy and has a high compression rate, for encoding RGB image data, and reversible K8 for encoding attribute information. Image quality degradation is kept to a minimum.

メモリ5(画像データ記憶手段の一例)は、複数種のバス規格間をブリッジする際の速度差や接続された部品自体の処理速度差を吸収するために、一時的にやりとりするデータを記憶したり、CPU4が複合機100の制御を行う際に、プログラムや中間処理データを一時的に記憶する揮発性メモリである。CPUは高速処理を求められるため、通常起動時にROM14に記憶されているブートプログラムにてシステムを起動し、その後は高速にアクセス可能なメモリ5に展開されたプログラムによって処理を行う。なお、メモリ5は、DIMM(Dual Inline Memory Module)などにより実現できる。   The memory 5 (an example of image data storage means) stores temporarily exchanged data in order to absorb the speed difference when bridging between multiple types of bus standards and the processing speed difference of the connected components themselves. Or a volatile memory that temporarily stores programs and intermediate processing data when the CPU 4 controls the multifunction peripheral 100. Since the CPU is required to perform high-speed processing, the system is activated by a boot program stored in the ROM 14 at normal activation, and thereafter, the processing is performed by a program developed in the memory 5 that can be accessed at high speed. The memory 5 can be realized by a DIMM (Dual Inline Memory Module) or the like.

HDD6は、CPU4により符号化されたRGB画像データ及びその属性情報などを記憶する。なお、HDD6は、IDEを拡張して規格化されているATAバス接続のハードディスクにより実現できる。   The HDD 6 stores RGB image data encoded by the CPU 4 and attribute information thereof. The HDD 6 can be realized by an ATA bus-connected hard disk that is standardized by expanding IDE.

出力画像処理部7(画像処理手段の一例)は、予め定めた特性に統一されたRGB画像データに対し、出力先に適した画像処理を施す。   The output image processing unit 7 (an example of an image processing unit) performs image processing suitable for the output destination on the RGB image data unified with predetermined characteristics.

図4は、本実施の形態の出力画像処理部7の構成の一例を示すブロック図である。図4に示すように、出力画像処理部7は、フィルタ部50と、色変換部51と、パターン生成部52と、変倍部53と、γ補正部54と、階調部55とを含む。   FIG. 4 is a block diagram illustrating an example of the configuration of the output image processing unit 7 of the present embodiment. As shown in FIG. 4, the output image processing unit 7 includes a filter unit 50, a color conversion unit 51, a pattern generation unit 52, a scaling unit 53, a γ correction unit 54, and a gradation unit 55. .

フィルタ部50は、予め定めた特性に統一されたRGB画像データの鮮鋭性を再現性が良くなるように補正するフィルタ処理を行う。   The filter unit 50 performs a filter process for correcting the sharpness of the RGB image data unified with predetermined characteristics so as to improve reproducibility.

色変換部51は、フィルタ部50によりフィルタ処理が行われたRGB画像データを所定の色空間に変換する色変換を行う。   The color conversion unit 51 performs color conversion for converting the RGB image data subjected to the filter processing by the filter unit 50 into a predetermined color space.

パターン生成部52は、後述のキャリブレーション動作時に、キャリブレーション用の読み取りパターンを生成する。   The pattern generation unit 52 generates a read pattern for calibration during a calibration operation described later.

変倍部53は、色変換部51により色変換が行われた画像データのサイズ(解像度)を変換する変倍処理を行う。   The scaling unit 53 performs scaling processing for converting the size (resolution) of the image data that has been color-converted by the color conversion unit 51.

γ補正部54は、変倍部53により変倍処理が行われた画像データに対し、予めCPU4により設定されたγテーブルを用いてγ補正を行う。   The γ correction unit 54 performs γ correction on the image data subjected to the scaling process by the scaling unit 53 using a γ table set in advance by the CPU 4.

階調部55は、γ補正部54よりγ補正が行われた画像データに対し、階調数変換処理を行う。   The gradation unit 55 performs gradation number conversion processing on the image data that has been subjected to γ correction by the γ correction unit 54.

図1に戻り、プロッタI/F8は、CPU4にインテグレートされた汎用規格I/F経由で送られてくるCMYK画像データを受け取り、プロッタ9に出力するバスブリッジ処理を行う。プロッタ9(画像形成手段の一例)は、プロッタI/F8からCMYK画像データを受け取り、レーザービームを用いた電子写真プロセスを使って、転写紙などの記録紙にCMYK画像データを出力する。   Returning to FIG. 1, the plotter I / F 8 performs a bus bridge process for receiving CMYK image data sent via the general-purpose standard I / F integrated with the CPU 4 and outputting it to the plotter 9. A plotter 9 (an example of an image forming unit) receives CMYK image data from the plotter I / F 8 and outputs CMYK image data to a recording sheet such as a transfer sheet by using an electrophotographic process using a laser beam.

SB10は、ブリッジ機能を有する汎用の電子デバイスであり、ROM11との間をブリッジしている。ROM11は、CPU4が複合機100の制御を行うための各種プログラムが記憶された不揮発性メモリである。   The SB 10 is a general-purpose electronic device having a bridge function, and bridges between the ROM 11. The ROM 11 is a non-volatile memory in which various programs for the CPU 4 to control the multifunction peripheral 100 are stored.

操作表示部12(表示手段及び入力手段の一例)は、各種情報を表示するLCD(Liquid Crystal Display)などの表示装置と、操作入力を行うためのキースイッチ等の入力装置を備える。操作表示部12は、汎用規格I/F経由で操作入力に応じた各種コマンドをCPU4に送信したり、CPU4から汎用規格I/F経由で送られてきた情報やプレビュー画像などを表示する。   The operation display unit 12 (an example of a display unit and an input unit) includes a display device such as an LCD (Liquid Crystal Display) that displays various information, and an input device such as a key switch for performing operation input. The operation display unit 12 transmits various commands according to the operation input via the general-purpose standard I / F to the CPU 4 and displays information, a preview image, and the like sent from the CPU 4 via the general-purpose standard I / F.

回線I/F13は、汎用規格I/Fと電話回線とを接続するものであり、これにより複合機100は、電話回線を介してFAX21等との間で画像データなどを送受することができる。FAX21は、通常のファクシミリで、電話回線を介して複合機100との間で画像データなどを送受する。   The line I / F 13 connects a general-purpose standard I / F and a telephone line, so that the multi-function device 100 can send and receive image data and the like to and from the FAX 21 and the like via the telephone line. The FAX 21 is a normal facsimile and transmits and receives image data and the like to and from the multi-function device 100 via a telephone line.

外部I/F14は、汎用規格I/Fとイーサネット(登録商標)などのネットワークとを接続するものであり、これにより複合機100は、ネットワークを介してPC(Personal Computer)22との間で画像データなどを送受することができる。PC22は、通常のコンピュータで、ネットワークを介して複合機100との間で画像データなどを送受する。   The external I / F 14 connects a general-purpose standard I / F and a network such as Ethernet (registered trademark), whereby the multi-function device 100 can exchange images with a PC (Personal Computer) 22 via the network. Data can be sent and received. The PC 22 is a normal computer, and transmits and receives image data and the like to and from the multifunction device 100 via a network.

なお、複合機100は、上述した各部の全てを必須の構成とする必要はなく、その一部を省略した構成としてもよい。   Note that the multifunction peripheral 100 does not have to have all the above-described components as essential configurations, and may have a configuration in which some are omitted.

(動作)
次に、本実施の形態の複合機の動作について説明する。
(Operation)
Next, the operation of the multifunction machine of this embodiment will be described.

(2−1.コピー動作)
まず、本実施の形態の複合機のコピー動作について説明する。図5は、本実施の形態の複合機100で行われるコピー動作の手順の流れの一例を示すシーケンス図である。
(2-1. Copy operation)
First, a copy operation of the multifunction machine according to the present embodiment will be described. FIG. 5 is a sequence diagram illustrating an example of a flow of a copy operation procedure performed in the multifunction peripheral 100 according to the present embodiment.

操作表示部12は、ユーザから、画質モードなどのコピーの設定を指示する操作入力、及びコピーの開始を指示する操作入力を受け付け、コピー開始の制御コマンドを生成し(ステップS100)、CPU4に通知する(ステップS102)。   The operation display unit 12 receives an operation input for instructing setting of a copy such as an image quality mode and an operation input for instructing the start of copying from the user, generates a control command for starting copying (step S100), and notifies the CPU 4 of it. (Step S102).

続いて、CPU4は、通知されたコピー開始の制御コマンドに従って、コピー動作プロセスのプログラムを実行し(ステップS104)、コピー動作に必要な画質モード等の設定や処理を行い、原稿のスキャンをスキャナ1に指示する(ステップS106)。   Subsequently, the CPU 4 executes a copy operation process program in accordance with the notified copy start control command (step S104), performs setting and processing such as an image quality mode necessary for the copy operation, and scans the document. (Step S106).

続いて、スキャナ1は、スキャナ1にセットされた原稿をスキャンしてRGB画像データを生成し(ステップS108)、入力画像処理部2に出力する(ステップS110)。   Subsequently, the scanner 1 scans the original set on the scanner 1 to generate RGB image data (step S108), and outputs it to the input image processing unit 2 (step S110).

続いて、入力画像処理部2は、RGB画像データに対して、スキャナ補正処理、γ変換処理、フィルタ処理、及び色変換処理を行い、sRGBやROMM−RGBのように予め特性が定められたRGB信号に統一する。また、入力画像処理部2は、RGB画像データに対して像域分離を行って生成した像域分離信号を、CPU4により設定された画質モードに応じた画素毎の属性情報にデコードする(ステップS112)。例えば、入力画像処理部2(分離デコード部35)は、図3に示すような像域分離信号を、設定された画質モードに応じて図6に示すような2ビットの属性情報にデコードする。そして、入力画像処理部2は、予め定めた特性に統一されたRGB画像データ及び属性情報を、バス制御部3を介してCPU4に出力する(ステップS114)。   Subsequently, the input image processing unit 2 performs scanner correction processing, γ conversion processing, filter processing, and color conversion processing on the RGB image data, and RGB having predetermined characteristics such as sRGB and ROMM-RGB. Unify to signal. Further, the input image processing unit 2 decodes the image area separation signal generated by performing image area separation on the RGB image data into attribute information for each pixel corresponding to the image quality mode set by the CPU 4 (step S112). ). For example, the input image processing unit 2 (separation decoding unit 35) decodes the image area separation signal as shown in FIG. 3 into 2-bit attribute information as shown in FIG. 6 according to the set image quality mode. Then, the input image processing unit 2 outputs RGB image data and attribute information unified to predetermined characteristics to the CPU 4 via the bus control unit 3 (step S114).

続いて、CPU4は、RGB画像データ及び属性情報を符号化してメモリ5に記憶させ(ステップS116)、メモリ5に記憶されたRGB画像データ及び属性情報を復号して(ステップS118)、バス制御部3を介して出力画像処理部7に出力する(ステップS120)。   Subsequently, the CPU 4 encodes the RGB image data and attribute information and stores them in the memory 5 (step S116), decodes the RGB image data and attribute information stored in the memory 5 (step S118), and the bus control unit. 3 to the output image processing unit 7 (step S120).

続いて、出力画像処理部7は、属性情報に従って、RGB画像データに対して、フィルタ部50によるフィルタ処理、色変換部51による色変換、変倍部53による変倍処理、γ補正部54によるγ補正、及び階調部55による階調数変換処理を行い、CMYK画像データを生成する(ステップS122)。   Subsequently, the output image processing unit 7 performs filtering processing on the RGB image data by the filter unit 50, color conversion by the color conversion unit 51, scaling processing by the scaling unit 53, and γ correction unit 54 according to the attribute information. Gamma correction and gradation number conversion processing by the gradation unit 55 are performed to generate CMYK image data (step S122).

具体的には、フィルタ部50は、プロッタ9に出力する場合の再現性が良くなるように属性情報に従ってRGB画像データを補正する。例えば、文字原稿モードでは文字をハッキリ/クッキリさせるために鮮鋭化処理を施し、写真モードでは滑らかに階調性を表現するために平滑化処理を施す。色変換部51は、フィルタ部50によりフィルタ処理が行われたRGB画像データを、プロッタ9用の色空間であるCMYK各8ビットのCMYK画像データに変換する。この際、色変換部51は、属性情報に従って最適な色調整を実施する。変倍部53は、色変換部51により色変換が行われたCMYK画像データのサイズをプロッタ9の再現性能に従って変換する。但し、本実施の形態では、プロッタ9の再現性能が600dpi出力であるため、変倍部53は、特に変換は行わないものとする。γ補正部54は、変倍部53により変倍処理が行われたCMYK画像データに対し、プロッタ出力用に設定されたCMYK用のエッジ用γテーブル、非エッジ用γテーブルを用いて、CMYK版毎のテーブル変換を実施してγ補正を実施する。階調部55は、γ補正部54よりγ補正が行われたCMYK画像データに対し、プロッタ9の階調処理能力に従った階調数変換処理を行う。なお本実施の形態では、CMYK各2ビットに疑似中間調処理の一つである誤差拡散法を用いて変換するものとする。   Specifically, the filter unit 50 corrects the RGB image data according to the attribute information so that the reproducibility when output to the plotter 9 is improved. For example, in the character original mode, sharpening processing is performed in order to make characters clear / clear, and in the photo mode, smoothing processing is performed in order to smoothly express gradation. The color conversion unit 51 converts the RGB image data filtered by the filter unit 50 into CMYK 8-bit CMYK image data that is a color space for the plotter 9. At this time, the color conversion unit 51 performs optimum color adjustment according to the attribute information. The scaling unit 53 converts the size of the CMYK image data subjected to color conversion by the color conversion unit 51 according to the reproduction performance of the plotter 9. However, in the present embodiment, since the reproduction performance of the plotter 9 is 600 dpi output, the scaling unit 53 does not perform any particular conversion. The γ correction unit 54 uses the CMYK edge γ table and the non-edge γ table set for plotter output on the CMYK image data subjected to the scaling process by the scaling unit 53, and uses the CMYK version. Each table conversion is performed to perform γ correction. The gradation unit 55 performs gradation number conversion processing according to the gradation processing capability of the plotter 9 on the CMYK image data that has been subjected to γ correction by the γ correction unit 54. In the present embodiment, the CMYK 2 bits are converted using an error diffusion method which is one of pseudo halftone processes.

そして、出力画像処理部7は、生成したCMYK画像データを、バス制御部3を介してCPU4に出力する(ステップS124)。   Then, the output image processing unit 7 outputs the generated CMYK image data to the CPU 4 via the bus control unit 3 (step S124).

続いて、CPU4は、CMYK画像データをメモリ5に記憶させ(ステップS126)、メモリ5に記憶されたCMYK画像データをプロッタI/F8を介してプロッタ9に出力する(ステップS128)。   Subsequently, the CPU 4 stores the CMYK image data in the memory 5 (step S126), and outputs the CMYK image data stored in the memory 5 to the plotter 9 via the plotter I / F 8 (step S128).

続いて、プロッタ9は、CMYK画像データを転写紙に出力し、原稿のコピーを生成する(ステップS130)。   Subsequently, the plotter 9 outputs the CMYK image data to the transfer sheet, and generates a copy of the document (step S130).

(2−2.コピー・保存動作)
次に、本実施の形態の複合機のコピー・保存動作について説明する。なお、コピー・保存動作とは、コピー動作とコピーに用いる画像データを複合機内に保存する保存動作とを同時に行う動作である。図7は、本実施の形態の複合機100で行われるコピー・保存動作の手順の流れの一例を示すシーケンス図である。
(2-2. Copy / Save Operation)
Next, a copy / save operation of the multifunction machine according to the present embodiment will be described. The copy / save operation is an operation for simultaneously performing a copy operation and a save operation for saving image data used for copying in the multifunction peripheral. FIG. 7 is a sequence diagram illustrating an example of a procedure flow of a copy / save operation performed in the multifunction peripheral 100 according to the present embodiment.

ステップS200〜S216までの処理は、図5に示すコピー動作のステップS100〜S116までの処理と同様である。   The processing from step S200 to S216 is the same as the processing from step S100 to S116 of the copy operation shown in FIG.

続いて、CPU4は、符号化されたRGB画像データ及び属性情報を、バス制御部3を介してHDD6に記憶させる(ステップS217)。   Subsequently, the CPU 4 stores the encoded RGB image data and attribute information in the HDD 6 via the bus control unit 3 (step S217).

以降のステップS218〜S230までの処理は、図5に示すコピー動作のステップS118〜S130までの処理と同様である。   The subsequent processing from step S218 to S230 is the same as the processing from step S118 to S130 of the copy operation shown in FIG.

なお、CPU4は、メモリ5やHDD6の使用率に応じて属性情報を変形し、RGB画像データ及び変形した属性情報を符号化してHDD6に記憶させるようにしてもよい。例えば、CPU4は、HDD6の使用率がしきい値を超えている場合、属性情報の一部を破棄(例えば、下位ビットの全画素に0を設定)し、RGB画像データ及び一部を破棄した属性情報を符号化してHDD6に記憶させるようにしてもよい。   The CPU 4 may modify the attribute information according to the usage rate of the memory 5 or the HDD 6, encode the RGB image data and the modified attribute information, and store the encoded image in the HDD 6. For example, when the usage rate of the HDD 6 exceeds the threshold value, the CPU 4 discards a part of the attribute information (for example, sets 0 for all the lower-order bits) and discards the RGB image data and a part. The attribute information may be encoded and stored in the HDD 6.

(2−3.プリンタ・保存動作)
次に、本実施の形態の複合機のプリンタ・保存動作について説明する。なお、プリンタ・保存動作とは、プリンタ動作とプリンタに用いる画像データを複合機内に保存する保存動作とを同時に行う動作である。図8は、本実施の形態の複合機100で行われるプリンタ・保存動作の手順の流れの一例を示すシーケンス図である。
(2-3. Printer / Save Operation)
Next, the printer / storing operation of the multifunction machine of this embodiment will be described. The printer / save operation is an operation that simultaneously performs a printer operation and a save operation for saving image data used in the printer in the multifunction peripheral. FIG. 8 is a sequence diagram illustrating an example of a flow of a procedure of the printer / save operation performed in the multifunction peripheral 100 according to the present embodiment.

PC22は、ユーザから、プリンタ出力モードなどのプリントの設定を指示する操作入力、及びプリントの開始を指示する操作入力を受け付ける。そして、PC22は、DTP(Desk Top Publishing)のアプリケーションソフトウエアにより作成・編集された各種の文章や図形を、ページ記述言語(PDL:Page Description Language)で記述したコマンドやデータ等に変換し、更にラスタイメージ処理(RIP:Raster Image Processor)を行う(ステップS300)。ラスタイメージ処理の際、PC22は、コマンドやデータ等から、予め定めた特性に統一したRGB画像データを生成するとともに、図9に示すような4ビットの属性情報を生成し、設定されたプリンタ出力モードに応じて図10に示すような2ビットの属性情報にデコードする。そして、PC22は、予め定めた特性に統一されたRGB画像データ及び属性情報を、ネットワークを介して複合機100に送信する(ステップS302)。   The PC 22 receives an operation input for instructing print settings such as a printer output mode and an operation input for instructing start of printing from the user. The PC 22 converts various texts and figures created and edited by DTP (Desk Top Publishing) application software into commands and data described in a page description language (PDL), and further. Raster image processing (RIP) is performed (step S300). At the time of raster image processing, the PC 22 generates RGB image data unified with predetermined characteristics from commands, data, etc., and generates 4-bit attribute information as shown in FIG. Decoding into 2-bit attribute information as shown in FIG. 10 according to the mode. Then, the PC 22 transmits RGB image data and attribute information unified to predetermined characteristics to the multi-function device 100 via the network (step S302).

続いて、CPU4は、PC22から送信された予め定めた特性に統一されたRGB画像データ及び属性情報を、外部I/F14を介して受け取ると、符号化してメモリ5に記憶させる(ステップS304)。   Subsequently, when the CPU 4 receives the RGB image data and the attribute information unified from the predetermined characteristics transmitted from the PC 22 via the external I / F 14, it encodes them and stores them in the memory 5 (step S304).

続いて、CPU4は、符号化されたRGB画像データ及び属性情報を、バス制御部3を介してHDD6に記憶させる(ステップS306)。   Subsequently, the CPU 4 stores the encoded RGB image data and attribute information in the HDD 6 via the bus control unit 3 (step S306).

続いて、CPU4は、メモリ5に記憶されたRGB画像データ及び属性情報を復号して(ステップS308)、バス制御部3を介して出力画像処理部7に出力する(ステップS310)。   Subsequently, the CPU 4 decodes the RGB image data and attribute information stored in the memory 5 (step S308) and outputs the decoded image data to the output image processing unit 7 via the bus control unit 3 (step S310).

続いて、出力画像処理部7は、属性情報に従って、RGB画像データに対して、色変換部51による色変換、変倍部53による変倍処理、γ補正部54によるγ補正、及び階調部55による階調数変換処理を行い、CMYK画像データを生成する(ステップS312)。   Subsequently, according to the attribute information, the output image processing unit 7 performs color conversion on the RGB image data by the color conversion unit 51, scaling processing by the scaling unit 53, γ correction by the γ correction unit 54, and a gradation unit. The gradation number conversion processing by 55 is performed to generate CMYK image data (step S312).

具体的には、色変換部51は、RGB画像データをプロッタ9用の色空間であるCMYK各8ビットのCMYK画像データに変換する。この際、色変換部51は、属性情報に従って最適な色調整を実施する。変倍部53は、色変換部51により色変換が行われたCMYK画像データのサイズをプロッタ9の再現性能に従って変換する。但し、本実施の形態では、プロッタ9の再現性能が600dpi出力であるため、変倍部53は、特に変換は行わないものとする。γ補正部54は、変倍部53により変倍処理が行われたCMYK画像データに対し、プロッタ出力用に設定されたCMYK用のエッジ用γテーブル、非エッジ用γテーブルを用いて、CMYK版毎のテーブル変換を実施してγ補正を実施する。階調部55は、γ補正部54よりγ補正が行われたCMYK画像データに対し、プロッタ9の階調処理能力と属性情報に従った階調数変換処理を行う。   Specifically, the color conversion unit 51 converts RGB image data into CMYK 8-bit CMYK image data that is a color space for the plotter 9. At this time, the color conversion unit 51 performs optimum color adjustment according to the attribute information. The scaling unit 53 converts the size of the CMYK image data subjected to color conversion by the color conversion unit 51 according to the reproduction performance of the plotter 9. However, in the present embodiment, since the reproduction performance of the plotter 9 is 600 dpi output, the scaling unit 53 does not perform any particular conversion. The γ correction unit 54 uses the CMYK edge γ table and the non-edge γ table set for plotter output on the CMYK image data subjected to the scaling process by the scaling unit 53, and uses the CMYK version. Each table conversion is performed to perform γ correction. The gradation unit 55 performs gradation number conversion processing on the CMYK image data on which γ correction has been performed by the γ correction unit 54 according to the gradation processing capability and attribute information of the plotter 9.

以降のステップS314〜S320までの処理は、図5に示すコピー動作のステップS124〜S130までの処理と同様である。   The subsequent processing from step S314 to S320 is the same as the processing from step S124 to S130 of the copy operation shown in FIG.

なお、コピー・保存動作で説明したように、CPU4は、メモリ5やHDD6の使用率に応じて属性情報を変形し、RGB画像データ及び変形した属性情報を符号化してHDD6に記憶させるようにしてもよい。   As described in the copy / save operation, the CPU 4 modifies the attribute information in accordance with the usage rate of the memory 5 and the HDD 6, encodes the RGB image data and the deformed attribute information, and stores them in the HDD 6. Also good.

(2−4.第1ファックス送信動作)
次に、本実施の形態の複合機の第1ファックス送信動作について説明する。なお、第1ファックス送信動作とは、スキャナにより読み取られた原稿の画像データをファックス送信する動作である。図11は、本実施の形態の複合機100で行われる第1ファックス送信動作の手順の流れの一例を示すシーケンス図である。
(2-4. First fax transmission operation)
Next, the first fax transmission operation of the multifunction machine according to the present embodiment will be described. Note that the first fax transmission operation is an operation in which image data of a document read by a scanner is transmitted by fax. FIG. 11 is a sequence diagram illustrating an example of a procedure flow of a first fax transmission operation performed in the multifunction peripheral 100 according to the present embodiment.

操作表示部12は、ユーザから、モードなどのファックス送信の設定を指示する操作入力、及びファックス送信の開始を指示する操作入力を受け付け、ファックス送信開始の制御コマンドを生成し(ステップS400)、CPU4に通知する(ステップS402)。   The operation display unit 12 receives an operation input for instructing setting of fax transmission such as a mode and an operation input for instructing start of fax transmission from the user, and generates a control command for starting fax transmission (step S400). (Step S402).

続いて、CPU4は、通知されたファックス送信開始の制御コマンドに従って、ファックス送信動作プロセスのプログラムを実行し(ステップS404)、ファックス送信動作に必要なモード等の設定や処理を行い、原稿のスキャンをスキャナ1に指示する(ステップS406)。   Subsequently, the CPU 4 executes a fax transmission operation process program in accordance with the notified fax transmission start control command (step S404), sets and processes a mode necessary for the fax transmission operation, and scans the document. The scanner 1 is instructed (step S406).

続いて、スキャナ1は、スキャナ1にセットされた原稿をスキャンしてRGB画像データを生成し(ステップS408)、入力画像処理部2に出力する(ステップS410)。   Subsequently, the scanner 1 scans the original set on the scanner 1 to generate RGB image data (step S408), and outputs it to the input image processing unit 2 (step S410).

続いて、入力画像処理部2は、RGB画像データを予め定めた特性に統一し(ステップS412)、バス制御部3を介してCPU4に出力する(ステップS414)。   Subsequently, the input image processing unit 2 unifies the RGB image data with predetermined characteristics (step S412), and outputs them to the CPU 4 via the bus control unit 3 (step S414).

続いて、CPU4は、RGB画像データをメモリ5に記憶させ(ステップS416)、メモリ5に記憶されたRGB画像データを、バス制御部3を介して出力画像処理部7に出力する(ステップS418)。   Subsequently, the CPU 4 stores the RGB image data in the memory 5 (step S416), and outputs the RGB image data stored in the memory 5 to the output image processing unit 7 via the bus control unit 3 (step S418). .

続いて、出力画像処理部7は、RGB画像データに対して、フィルタ部50によるフィルタ処理、色変換部51による色変換、変倍部53による変倍処理、γ補正部54によるγ補正、及び階調部55による階調数変換処理を行い、モノクロ2値のモノクロ画像データを生成する(ステップS420)。   Subsequently, the output image processing unit 7 performs filtering processing on the RGB image data by the filter unit 50, color conversion by the color conversion unit 51, scaling processing by the scaling unit 53, γ correction by the γ correction unit 54, and A gradation number conversion process is performed by the gradation unit 55 to generate monochrome binary monochrome image data (step S420).

具体的には、フィルタ部50は、FAX21に送信する場合の再現性が良くなるようにRGB画像データを補正する。例えば、文字モードでは文字をハッキリ/クッキリさせるために鮮鋭化処理を施し、写真モードでは滑らかに階調性を表現するために平滑化処理を施す。色変換部51は、フィルタ部50によりフィルタ処理が行われたRGB画像データを、FAX21で一般的な単色(モノクロ)8ビットのモノクロ画像データに変換する。変倍部53は、色変換部51により色変換が行われたモノクロ画像データのサイズをFAX21で送受されるサイズに変換する。本実施の形態では、主走査200dpi×副走査100dpiに変換するものとする。γ補正部54は、変倍部53により変倍処理が行われたモノクロ画像データに対し、FAX送信用のγテーブルを用いて、γ補正を実施する。階調部55は、γ補正部54よりγ補正が行われたCMYK画像データに対し、FAX21で送受される階調処理能力に従った階調数変換処理を行う。なお本実施の形態では、疑似中間調処理の一つである誤差拡散法を用いて2値に階調数変換するものとする。   Specifically, the filter unit 50 corrects the RGB image data so that the reproducibility when transmitting to the FAX 21 is improved. For example, in the character mode, sharpening processing is performed to make the characters clear / clear, and in the photo mode, smoothing processing is performed to smoothly express gradation. The color conversion unit 51 converts the RGB image data subjected to the filter processing by the filter unit 50 into a monochrome (monochrome) 8-bit monochrome image data that is common to the FAX 21. The scaling unit 53 converts the size of the monochrome image data that has been color-converted by the color conversion unit 51 into a size that is transmitted and received by the FAX 21. In this embodiment, it is assumed that the main scanning is 200 dpi × sub-scanning 100 dpi. The γ correction unit 54 performs γ correction on the monochrome image data subjected to the scaling process by the scaling unit 53 using a γ table for FAX transmission. The gradation unit 55 performs gradation number conversion processing according to the gradation processing capability transmitted / received by the FAX 21 on the CMYK image data on which γ correction has been performed by the γ correction unit 54. In this embodiment, the number of gradations is converted to binary using an error diffusion method which is one of pseudo halftone processes.

そして、出力画像処理部7は、生成したモノクロ画像データを、バス制御部3を介してCPU4に出力する(ステップS422)。   Then, the output image processing unit 7 outputs the generated monochrome image data to the CPU 4 via the bus control unit 3 (step S422).

続いて、CPU4は、モノクロ画像データをメモリ5に記憶させ(ステップS424)、メモリ5に記憶されたモノクロ画像データを回線I/F13、及び通信回線を介してFAX21に送信する(ステップS426)。   Subsequently, the CPU 4 stores the monochrome image data in the memory 5 (step S424), and transmits the monochrome image data stored in the memory 5 to the FAX 21 via the line I / F 13 and the communication line (step S426).

(2−5.第2ファックス送信動作)
次に、本実施の形態の複合機の第2ファックス送信動作について説明する。なお、第2ファックス送信動作とは、コピー・保存動作やプリンタ・保存動作などによりHDDに記憶された画像データをファックス送信する動作である。図12は、本実施の形態の複合機100で行われる第2ファックス送信動作の手順の流れの一例を示すシーケンス図である。
(2-5. Second fax transmission operation)
Next, the second fax transmission operation of the multifunction machine of this embodiment will be described. Note that the second fax transmission operation is an operation of transmitting image data stored in the HDD by fax by a copy / save operation, a printer / save operation, or the like. FIG. 12 is a sequence diagram illustrating an example of a procedure flow of a second fax transmission operation performed in the multifunction peripheral 100 according to the present embodiment.

操作表示部12は、ユーザから、モードなどのファックス送信の設定を指示する操作入力、HDD6に記憶された画像データを選択する操作入力、及びファックス送信の開始を指示する操作入力を受け付け、ファックス送信開始の制御コマンドを生成し(ステップS500)、CPU4に通知する(ステップS502)。   The operation display unit 12 receives an operation input for instructing setting of fax transmission such as a mode, an operation input for selecting image data stored in the HDD 6, and an operation input for instructing start of fax transmission from the user. A start control command is generated (step S500) and notified to the CPU 4 (step S502).

続いて、CPU4は、通知されたファックス送信開始の制御コマンドに従って、ファックス送信動作プロセスのプログラムを実行し(ステップS504)、ファックス送信動作に必要なモード等の設定や処理を行う。   Subsequently, the CPU 4 executes a fax transmission operation process program in accordance with the notified fax transmission start control command (step S504), and sets and processes a mode necessary for the fax transmission operation.

続いて、CPU4は、HDD6に記憶されたRGB画像データを復号してメモリ5に記憶させ(ステップS506)、メモリ5に記憶されたRGB画像データを、バス制御部3を介して出力画像処理部7に出力する(ステップS508)。   Subsequently, the CPU 4 decodes the RGB image data stored in the HDD 6 and stores it in the memory 5 (step S506). The RGB image data stored in the memory 5 is output to the output image processing unit via the bus control unit 3. 7 (step S508).

以降のステップS510〜S516までの処理は、図11に示す第1ファックス送信動作のステップS420〜S426までの処理と同様である。   The subsequent processing from step S510 to S516 is the same as the processing from step S420 to S426 of the first fax transmission operation shown in FIG.

(2−6.第1配信動作)
次に、本実施の形態の複合機の第1配信動作について説明する。なお、第1配信動作とは、スキャナにより読み取られた原稿の画像データを外部に配信する動作である。図13は、本実施の形態の複合機100で行われる第1配信動作の手順の流れの一例を示すシーケンス図である。
(2-6. First distribution operation)
Next, the first distribution operation of the multifunction peripheral according to the present embodiment will be described. The first distribution operation is an operation for distributing image data of a document read by a scanner to the outside. FIG. 13 is a sequence diagram illustrating an example of a procedure flow of the first distribution operation performed in the multifunction peripheral 100 according to the present embodiment.

操作表示部12は、ユーザから、モードなどのスキャナ配信の設定を指示する操作入力、及びスキャナ配信の開始を指示する操作入力を受け付け、スキャナ配信開始の制御コマンドを生成し(ステップS600)、CPU4に通知する(ステップS602)。   The operation display unit 12 receives an operation input for instructing setting of scanner distribution such as a mode and an operation input for instructing start of scanner distribution from the user, generates a control command for starting scanner distribution (step S600), and the CPU 4 (Step S602).

続いて、CPU4は、通知されたスキャナ配信開始の制御コマンドに従って、スキャナ配信動作プロセスのプログラムを実行し(ステップS604)、スキャナ配信動作に必要なモード等の設定や処理を行い、原稿のスキャンをスキャナ1に指示する(ステップS606)。   Subsequently, the CPU 4 executes a scanner distribution operation process program in accordance with the notified scanner distribution start control command (step S604), performs setting and processing such as a mode necessary for the scanner distribution operation, and scans the document. The scanner 1 is instructed (step S606).

続いて、スキャナ1は、スキャナ1にセットされた原稿をスキャンしてRGB画像データを生成し(ステップS608)、入力画像処理部2に出力する(ステップS610)。   Subsequently, the scanner 1 scans the original set on the scanner 1 to generate RGB image data (step S608), and outputs it to the input image processing unit 2 (step S610).

続いて、入力画像処理部2は、RGB画像データを予め定めた特性に統一し(ステップS612)、バス制御部3を介してCPU4に出力する(ステップS614)。   Subsequently, the input image processing unit 2 unifies the RGB image data with predetermined characteristics (step S612), and outputs them to the CPU 4 via the bus control unit 3 (step S614).

続いて、CPU4は、RGB画像データをメモリ5に記憶させ(ステップS616)、メモリ5に記憶されたRGB画像データを、バス制御部3を介して出力画像処理部7に出力する(ステップS618)。   Subsequently, the CPU 4 stores the RGB image data in the memory 5 (step S616), and outputs the RGB image data stored in the memory 5 to the output image processing unit 7 via the bus control unit 3 (step S618). .

続いて、出力画像処理部7は、RGB画像データに対して、フィルタ部50によるフィルタ処理、色変換部51による色変換、変倍部53による変倍処理、γ補正部54によるγ補正、及び階調部55による階調数変換処理を行い、sRGB、RGB多値、グレースケール、又はモノクロ2値などのスキャナ配信用のスキャナ配信画像データを生成する(ステップS620)。   Subsequently, the output image processing unit 7 performs filtering processing on the RGB image data by the filter unit 50, color conversion by the color conversion unit 51, scaling processing by the scaling unit 53, γ correction by the γ correction unit 54, and A gradation number conversion process is performed by the gradation unit 55, and scanner distribution image data for scanner distribution such as sRGB, RGB multi-value, gray scale, or monochrome binary is generated (step S620).

具体的には、フィルタ部50は、PC22に送信する場合の再現性が良くなるようにRGB画像データを補正する。例えば、文字モードでは文字をハッキリ/クッキリさせるために鮮鋭化処理を施し、写真モードでは滑らかに階調性を表現するために平滑化処理を施す。色変換部51は、フィルタ部50によりフィルタ処理が行われたRGB画像データを、スキャナ配信で一般的なsRGB色空間の各色8ビットのスキャナ配信画像データに変換する。変倍部53は、色変換部51により色変換が行われたスキャナ配信画像データのサイズを指定されたスキャナ配信で送受されるサイズに変換する。本実施の形態では、主走査200dpi×副走査200dpiに変換するものとする。γ補正部54は、変倍部53により変倍処理が行われたスキャナ配信画像データに対し、スキャナ配信用のγテーブルを用いて、γ補正を実施する。階調部55は、γ補正部54よりγ補正が行われたスキャナ配信画像データに対し、指定されたスキャナ配信で送受される階調処理能力に従った階調数変換処理を行う。但し本実施の形態では、RGB各8bitの16万色が指定されたものとして、階調処理は特に実施しない。   Specifically, the filter unit 50 corrects the RGB image data so that the reproducibility when transmitted to the PC 22 is improved. For example, in the character mode, sharpening processing is performed to make the characters clear / clear, and in the photo mode, smoothing processing is performed to smoothly express gradation. The color conversion unit 51 converts the RGB image data subjected to the filter processing by the filter unit 50 into 8-bit scanner delivery image data for each color in the sRGB color space that is common in scanner delivery. The scaling unit 53 converts the size of the scanner distribution image data that has been color-converted by the color conversion unit 51 into a size that is transmitted and received by the designated scanner distribution. In the present embodiment, it is assumed that the conversion is made into main scanning 200 dpi × sub-scanning 200 dpi. The γ correction unit 54 performs γ correction on the scanner delivery image data subjected to the scaling process by the scaling unit 53 by using a scanner delivery γ table. The gradation unit 55 performs gradation number conversion processing according to the gradation processing capability transmitted / received by the designated scanner distribution on the scanner distribution image data subjected to γ correction by the γ correction unit 54. However, in the present embodiment, gradation processing is not particularly performed on the assumption that 160,000 colors of 8 bits for each of RGB are designated.

そして、出力画像処理部7は、生成したスキャナ配信画像データを、バス制御部3を介してCPU4に出力する(ステップS622)。   Then, the output image processing unit 7 outputs the generated scanner distribution image data to the CPU 4 via the bus control unit 3 (step S622).

続いて、CPU4は、スキャナ配信画像データをメモリ5に記憶させ(ステップS624)、メモリ5に記憶されたスキャナ配信画像データを外部I/F14、及びネットワークを介してPC22に送信する(ステップS626)。   Subsequently, the CPU 4 stores the scanner delivery image data in the memory 5 (step S624), and transmits the scanner delivery image data stored in the memory 5 to the PC 22 via the external I / F 14 and the network (step S626). .

(2−7.第2配信動作)
次に、本実施の形態の複合機の第2配信動作について説明する。なお、第2配信動作とは、コピー・保存動作やプリンタ・保存動作などによりHDDに記憶された画像データを外部に配信する動作である。図14は、本実施の形態の複合機100で行われる第2配信動作の手順の流れの一例を示すシーケンス図である。
(2-7. Second delivery operation)
Next, the second distribution operation of the multifunction machine according to the present embodiment will be described. The second distribution operation is an operation for distributing image data stored in the HDD to the outside by a copy / save operation, a printer / save operation, or the like. FIG. 14 is a sequence diagram illustrating an example of a procedure flow of the second distribution operation performed in the MFP 100 according to the present embodiment.

操作表示部12は、ユーザから、モードなどのスキャナ配信の設定を指示する操作入力、HDD6に記憶された画像データを選択する操作入力、及びスキャナ配信の開始を指示する操作入力を受け付け、スキャナ配信開始の制御コマンドを生成し(ステップS700)、CPU4に通知する(ステップS702)。   The operation display unit 12 receives an operation input for instructing setting of scanner distribution such as a mode, an operation input for selecting image data stored in the HDD 6, and an operation input for instructing start of scanner distribution from the user. A start control command is generated (step S700) and notified to the CPU 4 (step S702).

続いて、CPU4は、通知されたスキャナ配信開始の制御コマンドに従って、スキャナ配信動作プロセスのプログラムを実行し(ステップS704)、スキャナ配信動作に必要なモード等の設定や処理を行う。   Subsequently, the CPU 4 executes a scanner delivery operation process program in accordance with the notified scanner delivery start control command (step S704), and performs setting and processing such as a mode necessary for the scanner delivery operation.

続いて、CPU4は、HDD6に記憶されたRGB画像データを復号してメモリ5に記憶させ(ステップS706)、メモリ5に記憶されたRGB画像データを、バス制御部3を介して出力画像処理部7に出力する(ステップS708)。   Subsequently, the CPU 4 decodes the RGB image data stored in the HDD 6 and stores it in the memory 5 (step S706). The RGB image data stored in the memory 5 is output to the output image processing unit via the bus control unit 3. 7 (step S708).

以降のステップS710〜S716までの処理は、図13に示す第1配信動作のステップS620〜S626までの処理と同様である。   The subsequent processing from step S710 to S716 is the same as the processing from step S620 to S626 of the first distribution operation shown in FIG.

(2−8.キャリブレーション動作)
次に、本実施の形態の複合機のキャリブレーション(以下、「ACC」と称する)動作について説明する。図15は、本実施の形態の複合機100で行われるACC動作の手順の流れの一例を示すシーケンス図である。
(2-8. Calibration operation)
Next, the calibration (hereinafter referred to as “ACC”) operation of the multifunction machine of the present embodiment will be described. FIG. 15 is a sequence diagram illustrating an example of a procedure flow of the ACC operation performed in the multifunction peripheral 100 according to the present embodiment.

操作表示部12は、ユーザから、ACC出力パターンの生成を指示する操作入力を受け付け、ACC出力パターン生成の制御コマンドを生成し(ステップS800)、CPU4に通知する(ステップS802)。   The operation display unit 12 receives an operation input instructing generation of an ACC output pattern from a user, generates a control command for generating an ACC output pattern (step S800), and notifies the CPU 4 (step S802).

続いて、CPU4は、ACC出力パターン生成の制御コマンドに従って、ACC出力パターン生成動作プロセスのプログラムを実行し(ステップS804)、ACC出力パターン生成動作に必要なモード等の設定や処理を行い、ACC用の画像データの生成を出力画像処理部7に指示する(ステップS806)。   Subsequently, the CPU 4 executes the program for the ACC output pattern generation operation process in accordance with the control command for ACC output pattern generation (step S804), sets the mode and the like necessary for the ACC output pattern generation operation, and performs processing for ACC. The output image processing unit 7 is instructed to generate the image data (step S806).

続いて、出力画像処理部7は、パターン生成部52によるACC用の読み取りパターンの生成、変倍部53による変倍処理、及び階調部55による階調数変換処理を行い、画像データを生成する(ステップS808)。   Subsequently, the output image processing unit 7 performs generation of an ACC reading pattern by the pattern generation unit 52, scaling processing by the scaling unit 53, and gradation number conversion processing by the gradation unit 55 to generate image data. (Step S808).

具体的には、パターン生成部52は、CMYK画像データである図16に示すようなACC用の読み取りパターンを生成する。変倍部53は、パターン生成部52により生成されたCMYK画像データのサイズをプロッタ9の再現性能に従って変換する。但し、本実施の形態では、プロッタ9の再現性能が600dpi出力であるため、変倍部53は、特に変換は行わないものとする。階調部55は、変倍部53により変倍処理が行われたCMYK画像データに対し、プロッタ9の階調処理能力に従った階調数変換処理を行う。   Specifically, the pattern generation unit 52 generates a read pattern for ACC as shown in FIG. 16 which is CMYK image data. The scaling unit 53 converts the size of the CMYK image data generated by the pattern generation unit 52 according to the reproduction performance of the plotter 9. However, in the present embodiment, since the reproduction performance of the plotter 9 is 600 dpi output, the scaling unit 53 does not perform any particular conversion. The gradation unit 55 performs gradation number conversion processing according to the gradation processing capability of the plotter 9 on the CMYK image data subjected to the magnification processing by the magnification unit 53.

そして、出力画像処理部7は、生成したCMYK画像データ(キャリブレーション画像の一例)を、バス制御部3を介してCPU4に出力する(ステップS810)。   The output image processing unit 7 then outputs the generated CMYK image data (an example of a calibration image) to the CPU 4 via the bus control unit 3 (step S810).

続いて、CPU4は、CMYK画像データをメモリ5に記憶させ(ステップS812)、メモリ5に記憶されたCMYK画像データをプロッタI/F8を介してプロッタ9に出力する(ステップS814)。   Subsequently, the CPU 4 stores the CMYK image data in the memory 5 (step S812), and outputs the CMYK image data stored in the memory 5 to the plotter 9 via the plotter I / F 8 (step S814).

続いて、プロッタ9は、CMYK画像データを転写紙に出力し、ACC出力パターンを生成する(ステップS816)。   Subsequently, the plotter 9 outputs the CMYK image data to the transfer sheet, and generates an ACC output pattern (step S816).

続いて、操作表示部12は、ユーザから、ACCの開始を指示する操作入力を受け付け、ACC開始の制御コマンドを生成し(ステップS818)、CPU4に通知する(ステップS820)。   Subsequently, the operation display unit 12 receives an operation input instructing the start of ACC from the user, generates a control command for starting ACC (step S818), and notifies the CPU 4 (step S820).

続いて、CPU4は、通知されたACC開始の制御コマンドに従って、ACC動作プロセスのプログラムを実行し(ステップS822)、ACC動作に必要なモード等の設定や処理を行い、ACC出力パターンのスキャンをスキャナ1に指示する(ステップS824)。   Subsequently, the CPU 4 executes a program for the ACC operation process in accordance with the notified control command for starting ACC (step S822), sets and processes a mode necessary for the ACC operation, and scans the ACC output pattern. 1 is instructed (step S824).

続いて、スキャナ1は、スキャナ1にセットされたACC出力パターンをスキャンしてRGB画像データを生成し(ステップS826)、入力画像処理部2に出力する(ステップS828)。   Subsequently, the scanner 1 scans the ACC output pattern set in the scanner 1 to generate RGB image data (step S826), and outputs it to the input image processing unit 2 (step S828).

続いて、入力画像処理部2は、RGB画像データを予め定めた特性に統一し(ステップS830)、バス制御部3を介してCPU4に出力する(ステップS832)。   Subsequently, the input image processing unit 2 unifies the RGB image data with predetermined characteristics (step S830), and outputs them to the CPU 4 via the bus control unit 3 (step S832).

続いて、CPU4は、RGB画像データからACC用の読み取り値であるACC読み取り値(キャリブレーション用の画像情報の一例)を取得し、目標画像特性を変更するためのACCを行う(ステップS834)。   Subsequently, the CPU 4 acquires an ACC reading value (an example of calibration image information) that is an ACC reading value from the RGB image data, and performs ACC for changing the target image characteristics (step S834).

続いて、CPU4は、ACCにより変更された目標画像特性を参照して補正テーブルを作成し、メモリ5に記憶させるとともに、バス制御部3を介してHDD6に記憶させる(ステップS836)。   Subsequently, the CPU 4 creates a correction table with reference to the target image characteristic changed by the ACC, stores the correction table in the memory 5, and stores it in the HDD 6 through the bus control unit 3 (step S836).

ここで、ACCにより目標画像特性を変更する一例として、プロッタ9でプリントアウトされるトップ濃度に応じて目標画像特性を変更する例について説明する。   Here, an example of changing the target image characteristic according to the top density printed out by the plotter 9 will be described as an example of changing the target image characteristic by ACC.

CPU4は、RGB画像データからACC用の読み取り値であるACC読み取り値を取得し、図17に示すように、ACC読み取り値とACC出力パターンとの対応をrawγ特性としてメモリ5に記憶させる。なお、本実施の形態では、便宜上、各ACC出力パターンに対応するACC読み取り値を、図18のように設定しているが、複数の色成分をターゲットにしてもよい。   The CPU 4 acquires an ACC reading value, which is an ACC reading value, from the RGB image data, and stores the correspondence between the ACC reading value and the ACC output pattern in the memory 5 as a raw γ characteristic as shown in FIG. In this embodiment, for convenience, the ACC reading value corresponding to each ACC output pattern is set as shown in FIG. 18, but a plurality of color components may be targeted.

またCPU4は、CMYK毎に、図19に示すようなRGB値に設定されたACCターゲットデータを取得する。なお、図19に示す例では、0〜1を10bitの値として記載している。そして、CPU4は、取得したACCターゲットデータを、図20に示すように、図21に示すような色版毎のLD(入力レベル)データ(CMYK信号の入力レベル)に対するACCターゲット(目標とする出力濃度に対応した読み取り値)特性としてテーブル化してメモリ5に記憶させる。この色版(CMYK)毎のACCターゲットデータが、プロッタ9の目標画像特性となる。   Further, the CPU 4 acquires ACC target data set to RGB values as shown in FIG. 19 for each CMYK. In the example shown in FIG. 19, 0 to 1 are described as 10-bit values. Then, as shown in FIG. 20, the CPU 4 converts the acquired ACC target data into an ACC target (target output) for LD (input level) data (input level of CMYK signal) for each color plate as shown in FIG. (Reading value corresponding to density) is tabulated as characteristics and stored in the memory 5. The ACC target data for each color plate (CMYK) is the target image characteristic of the plotter 9.

また、ACCターゲット特性に対して、図22に示すようなACCターゲット高濃度補正用の参照フラグデータが定義されており、CPU4は、この参照フラグデータから、ACC追従性OFFの開始点(目標濃度をトップ濃度に応じて変更する最も低濃度の点)とACC追従性OFFの終了点(目標濃度をトップ濃度に応じて変更する最も高濃度の点)を検索する。図21及び図22に示す例の場合、ACC追従性OFFの開始点のLDデータの値は176となり、ACC追従性OFFの終了点のLDデータの値は255となる。   Further, reference flag data for ACC target high density correction as shown in FIG. 22 is defined for the ACC target characteristics, and the CPU 4 determines from this reference flag data the start point (target density of ACC follow-up OFF). And the end point of ACC follow-off OFF (the highest density point at which the target density is changed according to the top density). In the example shown in FIGS. 21 and 22, the LD data value at the start point of ACC follow-up OFF is 176, and the LD data value at the end point of ACC follow-up OFF is 255.

また、CPU4は、ACC読み取り値より、実機のトップ濃度に相当するACC読み取り値を抽出する。   Further, the CPU 4 extracts an ACC reading value corresponding to the top density of the actual machine from the ACC reading value.

ここで、ACC追従性OFFの開始点のACCターゲットデータをref_max、ACC追従性OFFの終了点のACCターゲットデータをref_min、トップ濃度に相当するACC読み取り値(トップ濃度に相当する16段目パッチ)をdet_min、高濃度部ACCターゲット補正前のACCターゲットをX、高濃度部ACCターゲット補正後のACCターゲットをYとすると、高濃度部の補正値は次のようになる。   Here, the ACC target data at the start point of ACC follow-up OFF is ref_max, the ACC target data at the end point of ACC follow-up OFF is ref_min, and the ACC reading value corresponding to the top density (the 16th patch corresponding to the top density) Is det_min, the ACC target before the high-density area ACC target correction is X, and the ACC target after the high-density area ACC target correction is Y, the correction value of the high-density area is as follows.

参照フラグデータ(追従性)がONの場合には、高濃度部の補正値は数式(1−1)により求められ、参照フラグデータ(追従性)がOFFの場合には、高濃度部の補正値は数式(1−2)により求められる。但し、ref_max=ref_minの時は、Y=ref_maxとなる。
Y=X …(1−1)
Y=ref_max−(ref_max−X)*(ref_max−det_min)/(ref_max−ref_min) …(1−2)
When the reference flag data (trackability) is ON, the correction value for the high density portion is obtained by Equation (1-1). When the reference flag data (trackability) is OFF, the correction for the high density portion is performed. A value is calculated | required by Numerical formula (1-2). However, when ref_max = ref_min, Y = ref_max.
Y = X (1-1)
Y = ref_max− (ref_max−X) * (ref_max−det_min) / (ref_max−ref_min) (1-2)

そして、CPU4は、このようにして算出された補正後のACCターゲットデータを、図23に示すように、図21に示すような色版毎のLDデータと対応付けてテーブル化し、メモリ5に記憶させる。なお、図23に示す例では、ACC追従性OFFの開始点とトップ濃度との間のターゲット値は直線補間で求められている。   Then, the CPU 4 tabulates the corrected ACC target data calculated in this way in association with the LD data for each color plate as shown in FIG. Let In the example shown in FIG. 23, the target value between the start point of ACC follow-off OFF and the top density is obtained by linear interpolation.

以上説明した高濃度部の補正パラメータは、操作表示部12においてユーザが設定した追従性のパラメータに応じて切り換えることで、高濃度部側の追従性を変更することができる。   By switching the correction parameter for the high density portion described above in accordance with the followability parameter set by the user in the operation display unit 12, the followability on the high density portion side can be changed.

例えば、プロッタ9が変動してトップ濃度が低い場合に、写真画像を出力する場合には、高濃度部の階調性を重視した色再現になるように、追従性OFFの階調レベルを増やし、文字再現を重視したビジネスグラフィック画像を出力する場合は、追従性OFFの階調レベルが減少するようなパラメータ設定が可能となる。   For example, when the plotter 9 fluctuates and the top density is low, when a photographic image is output, the follow-up OFF gradation level is increased so as to achieve color reproduction that emphasizes the gradation of the high density portion. When a business graphic image that emphasizes character reproduction is output, it is possible to set parameters so that the gradation level of follow-up OFF is reduced.

このパラメータ設定は、後述するプレビュー表示動作で実現されるプレビュー画像を観察することにより、変動する画像形成装置のトップ濃度に応じた画像の仕上がりを認識することで、実際に記録紙に画像出力を繰り返すことなく、実機の状態とユーザの画像出力要求に合った画像出力モードの設定や最適なキャリブレーション条件の設定を含む色調整が可能となる。   This parameter setting is performed by observing a preview image realized by a preview display operation to be described later, and recognizing the finished image according to the top density of the fluctuating image forming apparatus, thereby actually outputting the image on the recording paper. Without repeating, it is possible to perform color adjustment including setting of an image output mode and setting of optimum calibration conditions that match the state of the actual machine and the user's image output request.

次に、ACCにより目標画像特性を変更する他の例として、地肌(紙白)に対する追従性に基づいて目標画像特性を変更する例について説明する。   Next, as another example of changing the target image characteristic by ACC, an example in which the target image characteristic is changed based on the followability to the background (paper white) will be described.

CPU4は、RGB画像データからACC用の読み取り値であるACC読み取り値を取得し、図17に示すように、ACC読み取り値とACC出力パターンとの対応をrawγ特性としてメモリ5に記憶させる。なお、本実施の形態では、便宜上、各ACC出力パターンに対応するACC読み取り値を、図18のように設定しているが、複数の色成分をターゲットにしてもよい。   The CPU 4 acquires an ACC reading value, which is an ACC reading value, from the RGB image data, and stores the correspondence between the ACC reading value and the ACC output pattern in the memory 5 as a raw γ characteristic as shown in FIG. In this embodiment, for convenience, the ACC reading value corresponding to each ACC output pattern is set as shown in FIG. 18, but a plurality of color components may be targeted.

またCPU4は、CMYK毎に、図19に示すようなRGB値に設定されたACCターゲットデータを取得する。なお、図19に示す例では、0〜1を10bitの値として記載している。そして、CPU4は、取得したACCターゲットデータを、図20に示すように、図21に示すような色版毎のLD(入力レベル)データ(CMYK信号の入力レベル)に対するACCターゲット(目標とする出力濃度に対応した読み取り値)特性としてテーブル化してメモリ5に記憶させる。この色版(CMYK)毎のACCターゲットデータが、プロッタ9の目標画像特性となる。   Further, the CPU 4 acquires ACC target data set to RGB values as shown in FIG. 19 for each CMYK. In the example shown in FIG. 19, 0 to 1 are described as 10-bit values. Then, as shown in FIG. 20, the CPU 4 converts the acquired ACC target data into an ACC target (target output) for LD (input level) data (input level of CMYK signal) for each color plate as shown in FIG. (Reading value corresponding to density) is tabulated as characteristics and stored in the memory 5. The ACC target data for each color plate (CMYK) is the target image characteristic of the plotter 9.

また、rawγ特性としてテーブル化されたACC出力パターンに対するACC読み取り値の特性に対して、図24に示すような地肌補正率の算出に用いる地肌補正用テーブルが定義されている。なお、図24に示す地肌補正用テーブルは、文字部・写真部の作像版毎に設定されており、Acc_ScnはACC読み取り値、Acc_U_Crctは地肌補正用参照データを示す。そして、CPU4は、以下の手順で、ACC読み取り値を補正する。   Further, a background correction table used for calculation of the background correction rate as shown in FIG. 24 is defined for the characteristics of the ACC reading values for the ACC output patterns tabulated as the raw γ characteristics. Note that the background correction table shown in FIG. 24 is set for each image formation version of the character part and the photographic part, Acc_Scn indicates an ACC reading value, and Acc_U_Crct indicates background correction reference data. Then, the CPU 4 corrects the ACC reading value by the following procedure.

まず、CPU4は、ACC読み取り値に対する地肌補正率を求める。地肌補正率の値は、数式(2)により求められる。例えば、図24に示す地肌補正用テーブルの文字処理用のBlackを例にとると、ACC読み取り値に対する地肌補正率は、図25に示すようになる。なお、各パラメータ間の補正率をACC読み取り値に応じて線形補間した値が、実際の地肌補正率となる。
Acc_U_Crct/Basis×100(%) …(2)
なお、Basisは地肌補正用参照データ基準値であり、初期値は128に設定されている。
First, the CPU 4 obtains a background correction rate for the ACC reading value. The value of the background correction rate is obtained by Expression (2). For example, taking the Black for character processing in the background correction table shown in FIG. 24 as an example, the background correction rate for the ACC reading value is as shown in FIG. A value obtained by linearly interpolating the correction rate between parameters according to the ACC reading value is an actual background correction rate.
Acc_U_Crct / Basis × 100 (%) (2)
Note that Basis is a reference data standard value for background correction, and the initial value is set to 128.

続いて、CPU4は、ACCターゲットデータの地肌部(0段目)の値を取得し、ACC読み取り値の地肌部(0段目)の値との差分をとり、各ACC読み取り値の地肌補正値を求める。ここで、ACCターゲットデータの地肌部の値をAcc_T0、ACC読み取り値の地肌部の値をB_Detとすると、各ACC読み取り値の地肌補正値を示すCng_AccT_kは、数式(3)により求められる。
Cng_AccT_k=(Acc_T0−B_Det)*Acc_U_Crct_k/Basis …(3)
なお、k(0≦k≦16)は、k段目のACC読み取り値に対する補正値(線形補間により算出)を表す。
Subsequently, the CPU 4 acquires the value of the background portion (0th stage) of the ACC target data, takes the difference from the value of the background portion (0th stage) of the ACC reading value, and the background correction value of each ACC reading value. Ask for. Here, assuming that the value of the background portion of the ACC target data is Acc_T0 and the value of the background portion of the ACC reading value is B_Det, Cng_AccT_k indicating the background correction value of each ACC reading value is obtained by Expression (3).
Cng_AccT_k = (Acc_T0-B_Det) * Acc_U_Crct_k / Basis (3)
Note that k (0 ≦ k ≦ 16) represents a correction value (calculated by linear interpolation) for the k-th ACC reading value.

続いて、CPU4は、各ACC読み取り値を示すAcc_Scn_kに、各ACC読み取り値の地肌補正値を示すCng_AccT_kを加算してACC読み取り値を補正する。ここで、補正後のACC読み取り値をを示すAcc_Scn_k’は、数式(4)により求められる。なお、補正は全てのACC読み取り値に対して行われる。
Acc_Scn_k’=Acc_Scn_k+Cng_AccT_k …(4)
但し、Acc_Scn_k’は、1023より大きい場合には1023、マイナスの場合には0にクリップされる。
Subsequently, the CPU 4 corrects the ACC reading value by adding Cng_AccT_k indicating the background correction value of each ACC reading value to Acc_Scn_k indicating each ACC reading value. Here, Acc_Scn_k ′ indicating the ACC read value after correction is obtained by Expression (4). Note that correction is performed on all ACC readings.
Acc_Scn_k ′ = Acc_Scn_k + Cng_AccT_k (4)
However, Acc_Scn_k ′ is clipped to 1023 when it is larger than 1023 and is clipped to 0 when it is negative.

これにより、地肌補正率(最大:100%)がハイライト側で大きければ、地肌として認識された任意の紙白を基準とした相対的な色の関係が保たれた色再現が実現でき、逆に地肌補正率が小さい場合には、地肌として認識された任意の紙白に関係なく、三刺激値CIEXYZを忠実に保った色再現が実現できる。   As a result, if the background correction rate (maximum: 100%) is large on the highlight side, it is possible to realize color reproduction that maintains the relative color relationship based on any paper white recognized as the background. When the background correction rate is small, color reproduction with the tristimulus value CIEXYZ faithfully maintained can be realized regardless of any paper white recognized as the background.

なお、以上説明した紙白に対する追従性のパラメータは、操作表示部12においてユーザが設定したパラメータに応じて切り換えることで、変更することができる。   It should be noted that the followability parameter for paper white described above can be changed by switching according to the parameter set by the user in the operation display unit 12.

このパラメータ設定は、後述するプレビュー表示動作で実現されるプレビュー画像を観察することにより、様々な記録紙に再現される色の見えを忠実にプレビュー表示することで、実際に記録紙に画像出力を繰り返すことなく、ユーザの要求に対して最適なキャリブレーション条件の設定し、高品質なキャリブレーションを可能にする。   This parameter setting is used to observe the preview image realized by the preview display operation described later, and to faithfully display the color appearance reproduced on various recording papers. Without repeating, it is possible to set a calibration condition optimum for the user's request and to enable high-quality calibration.

次に、ACCにより補正されたACCターゲットやACC読み取り値を用いて、出力画像処理部7のγ補正部54で使用される補正テーブルの生成手法について説明する。   Next, a correction table generation method used in the γ correction unit 54 of the output image processing unit 7 using the ACC target and the ACC reading value corrected by the ACC will be described.

ここでは、プロッタ9の出力色(CMYK)に対するγ補正テーブルの基準となる代表制御点に対する特性値として、ベースγ制御点を求めるものとする。なお、γ補正テーブルの基準となる代表制御点を示す制御点入力パラメータは、{0,17,34,51,68,85,102,119,136,153,170,187,204,221,238,255}の16通りとする。   Here, it is assumed that the base γ control point is obtained as a characteristic value with respect to the representative control point serving as a reference of the γ correction table for the output color (CMYK) of the plotter 9. The control point input parameter indicating the representative control point serving as a reference for the γ correction table is {0, 17, 34, 51, 68, 85, 102, 119, 136, 153, 170, 187, 204, 221, 238. , 255}.

まず、CPU4は、各制御点入力パラメータのACCターゲットデータを求める。   First, the CPU 4 obtains ACC target data for each control point input parameter.

具体的には、CPU4は、制御点入力パラメータがLDデータのどの値の間にあるのかを探索する。ここで、n−1番目のLDデータであるLDn−1と、n番目のLDデータであるLDnとの間に、m番目の制御点入力パラメータであるAmが探索されたとすると、LDn−1<Am≦LDnとなる。   Specifically, the CPU 4 searches for a value in the LD data between the control point input parameters. Here, if Am, which is the mth control point input parameter, is searched between LDn-1, which is the (n-1) th LD data, and LDn, which is the nth LD data, LDn-1 < Am ≦ LDn.

そして、CPU4は、LDn−1に対応する補正後のACCターゲットデータ、及びLDnに対応する補正後のACCターゲットデータを線形補間することにより、AmのACCターゲットデータを求める。ここで、LDn−1に対応する補正後のACCターゲットデータをAcc_Tn−1、LDnに対応する補正後のACCターゲットデータをAcc_Tnとすると、AmのACCターゲットデータを示すAcc_Tm’は、数式(5)により求められる。
Acc_Tm’=((Acc_Tn−Acc_Tn−1)/(LDn−LDn−1))*(Am−LDn)+Acc_Tn …(5)
Then, the CPU 4 obtains Am ACC target data by linearly interpolating the corrected ACC target data corresponding to LDn-1 and the corrected ACC target data corresponding to LDn. Here, assuming that the corrected ACC target data corresponding to LDn-1 is Acc_Tn-1, and the corrected ACC target data corresponding to LDn is Acc_Tn, Acc_Tm ′ indicating the ACC target data of Am is expressed by Equation (5). Is required.
Acc_Tm ′ = ((Acc_Tn−Acc_Tn−1) / (LDn−LDn−1)) * (Am−LDn) + Acc_Tn (5)

以上の処理を制御点入力パラメータ0〜255まで繰り返すことにより、CPU4は、各制御点入力パラメータのACCターゲットデータを求める。   The CPU 4 obtains the ACC target data of each control point input parameter by repeating the above processing from the control point input parameter 0 to 255.

続いて、CPU4は、各制御点入力パラメータのACC出力パターンを求める。   Subsequently, the CPU 4 obtains an ACC output pattern of each control point input parameter.

具体的には、CPU4は、先ほど求めた各制御点入力パラメータのACCターゲットデータが補正後のACC読み取り値のどの区間にあるかを探索する。ここで、k番目の補正後のACC読み取り値であるAcc_Scn_k’と、k−1番目の補正後のACC読み取り値であるAcc_Scn_k−1’との間に、AmのACCターゲットデータであるAcc_Tm’が探索されたとすると、Acc_Scn_k’<Acc_Tm’≦Acc_Scn_k−1’となる。   Specifically, the CPU 4 searches in which section of the corrected ACC reading value the ACC target data of each control point input parameter obtained previously. Here, between Acc_Scn_k ′ which is the ACC read value after the kth correction and Acc_Scn_k−1 ′ which is the ACC read value after the k−1th correction, Acc_Tm ′ which is the ACC target data of Am is If searched, Acc_Scn_k ′ <Acc_Tm ′ ≦ Acc_Scn_k−1 ′.

そして、CPU4は、Acc_Scn_k’に対応するACC出力パターン、及びAcc_Scn_k−1’に対応するACC出力パターンを線形補間することにより、AmのACC出力パターンを求める。ここで、Acc_Scn_k’に対応するACC出力パターンをAcc_Pk、Acc_Scn_k−1’に対応するACC出力パターンをAcc_Pk−1とすると、AmのACC出力パターンを示すAcc_Pm’は、数式(6)により求められる。
Acc_Pm’=((Acc_Pk−Acc_Pk−1)/(Acc_Scn_k’− Acc_Scn_k−1’))*(Acc_Tm’− Acc_Scn_k’)+Acc_Pk …(6)
Then, the CPU 4 obtains an ACC output pattern of Am by linearly interpolating the ACC output pattern corresponding to Acc_Scn_k ′ and the ACC output pattern corresponding to Acc_Scn_k−1 ′. Here, assuming that the ACC output pattern corresponding to Acc_Scn_k ′ is Acc_Pk and the ACC output pattern corresponding to Acc_Scn_k−1 ′ is Acc_Pk−1, Acc_Pm ′ indicating the ACC output pattern of Am is obtained by Expression (6).
Acc_Pm ′ = ((Acc_Pk−Acc_Pk−1) / (Acc_Scn_k′−Acc_Scn_k−1 ′)) * (Acc_Tm′−Acc_Scn_k ′) + Acc_Pk (6)

以上の処理を制御点入力パラメータ0〜255まで繰り返すことにより、CPU4は、各制御点入力パラメータのACC出力パターンを求める。   The CPU 4 obtains the ACC output pattern of each control point input parameter by repeating the above processing from the control point input parameter 0 to 255.

そして、CPU4により求められた各制御点入力パラメータのACC出力パターンが、ベースγ制御点出力パラメータとなる。つまり、補正テーブルは、(制御点入力パラメータ、ベースγ制御点出力パラメータ)=(Am、Acc_Pm’)となる。なお、ベースγ制御点算出の概念図を、図26に示す。   The ACC output pattern of each control point input parameter obtained by the CPU 4 becomes the base γ control point output parameter. That is, the correction table is (control point input parameter, base γ control point output parameter) = (Am, Acc_Pm ′). A conceptual diagram of the base γ control point calculation is shown in FIG.

(2−9.プレビュー表示動作)
次に、本実施の形態の複合機のプレビュー表示動作について説明する。なお本実施の形態では、プレビュー表示動作として、スキャナ1により読み取られ、プロッタ9によりコピー出力される画像データのプレビュー表示を例にとり説明するが、これに限定されるものではない。例えば、PC22から送信され、プロッタ9によりプリンタ出力される画像データのプレビュー表示などであってもよい。図27は、本実施の形態の複合機100で行われるプレビュー表示動作の手順の流れの一例を示すシーケンス図であり、図28は、プレビュー画像データであるカラー画像信号への変換例と処理の概念の一例を示す図である。
(2-9. Preview display operation)
Next, the preview display operation of the multifunction peripheral according to the present embodiment will be described. In the present embodiment, the preview display operation will be described by taking an example of preview display of image data read by the scanner 1 and copied and output by the plotter 9, but the present invention is not limited to this. For example, it may be a preview display of image data transmitted from the PC 22 and output from the plotter 9 to the printer. FIG. 27 is a sequence diagram illustrating an example of a flow of a preview display operation procedure performed in the multifunction peripheral 100 according to the present embodiment. FIG. 28 illustrates an example of conversion to a color image signal that is preview image data, and processing. It is a figure which shows an example of a concept.

操作表示部12は、ユーザから、画質モードなどのコピーの設定を指示する操作入力、コピー及びプレビューの開始を指示する操作入力を受け付け、コピー・プレビュー開始の制御コマンドを生成し(ステップS900)、CPU4に通知する(ステップS902)。   The operation display unit 12 receives an operation input for instructing copy settings such as an image quality mode and an operation input for instructing start of copy and preview from the user, and generates a control command for starting copy / preview (step S900). The CPU 4 is notified (step S902).

続いて、CPU4は、通知されたコピー・プレビュー開始の制御コマンドに従って、コピー・プレビュー動作プロセスのプログラムを実行し(ステップS904)、コピー・プレビュー動作に必要な画質モード等の設定や処理を行い、原稿のスキャンをスキャナ1に指示する(ステップS906)。   Subsequently, the CPU 4 executes the copy / preview operation process program in accordance with the notified copy / preview start control command (step S904), and performs setting and processing such as an image quality mode necessary for the copy / preview operation. The scanner 1 is instructed to scan the document (step S906).

続くステップS908〜S920までの処理は、図5に示すコピー動作のステップS108〜S120までの処理と同様である。   The subsequent processing from step S908 to S920 is the same as the processing from step S108 to S120 of the copy operation shown in FIG.

続いて、出力画像処理部7は、色変換部51による色変換やγ補正部54によるγ補正を行い、プレビュー用のプレビュー画像データを生成し(ステップS922)、バス制御部3を介してCPU4に出力する(ステップS924)。   Subsequently, the output image processing unit 7 performs color conversion by the color conversion unit 51 and γ correction by the γ correction unit 54 to generate preview image data for preview (step S922), and the CPU 4 via the bus control unit 3 (Step S924).

続いて、CPU4は、プレビュー画像データをメモリ5に記憶させ(ステップS926)、メモリ5に記憶されたプレビュー画像データを操作表示部12に出力する(ステップS928)。   Subsequently, the CPU 4 stores the preview image data in the memory 5 (step S926), and outputs the preview image data stored in the memory 5 to the operation display unit 12 (step S928).

続いて、操作表示部12は、プレビュー画像データを表示出力する(ステップS930)。   Subsequently, the operation display unit 12 displays and outputs preview image data (step S930).

ここで、出力画像処理部7の色変換部51による色変換について具体的に説明する。   Here, the color conversion by the color conversion unit 51 of the output image processing unit 7 will be specifically described.

色変換部51は、プロッタ出力動作の場合、三次元LUT変換などを実施して、プロッタ9の出力色であるCMYKへ変換する。なお、三次元LUT変換の変換アルゴリズムには、従来から広く使用されているメモリマップ補間法を用いることができる。   In the case of a plotter output operation, the color conversion unit 51 performs a three-dimensional LUT conversion or the like, and converts it into CMYK which is an output color of the plotter 9. Note that a conventionally used memory map interpolation method can be used as the conversion algorithm of the three-dimensional LUT conversion.

メモリマップ補間法では、三次元入力色空間を複数の単位立方体に分割し、さらに分割した各単位立方体を対称軸を共有している6個の四面体に分割し、単位立方体毎に線形演算によって出力値を求める。線型演算には、分割境界の点である格子点のデータをパラメータとして用いる(以下、格子点パラメータと呼ぶ)。   In the memory map interpolation method, a three-dimensional input color space is divided into a plurality of unit cubes, and each divided unit cube is further divided into six tetrahedrons that share the axis of symmetry, and a linear operation is performed for each unit cube. Find the output value. In the linear calculation, data of grid points that are points of division boundaries are used as parameters (hereinafter referred to as grid point parameters).

具体的には、色変換部51は、図29に示すように、X方向、Y方向、Z方向からなる三次元入力色空間を各方向に分割(ここでは、8分割)し、三次元入力色空間を複数(ここでは、512個)の単位立方体に分割する。   Specifically, as shown in FIG. 29, the color conversion unit 51 divides a three-dimensional input color space composed of the X direction, the Y direction, and the Z direction into each direction (here, eight divisions) to obtain a three-dimensional input. The color space is divided into a plurality of (here 512) unit cubes.

続いて、色変換部51は、入力データの座標X(x,y,z)に対し、座標Xを内包する単位立方体を選択する。ここでは、X(x,y,z)=(In_R、In_G、In_B)となる。図30は、選択した単位立方体を示す図であり、P0〜P7は、RGBの色に対応するプロッタのデバイスCMYKに相当する格子点出力値である。   Subsequently, the color conversion unit 51 selects a unit cube containing the coordinates X with respect to the coordinates X (x, y, z) of the input data. Here, X (x, y, z) = (In_R, In_G, In_B). FIG. 30 is a diagram showing the selected unit cube, and P0 to P7 are grid point output values corresponding to the device CMYK of the plotter corresponding to the RGB color.

続いて、色変換部51は、選択した図30に示す単位立方体内での座標Pの下位座標(Δx,Δy,Δz)を求め、下位座標の大小比較により単位四面体を選択し、単位四面体毎に線形補間を実施して、座標Pでの出力値Poutを求める。なお、Poutは、式全体を単位立方体の一辺の長さを乗算して整数値にしておく。図31−1〜図31−6は、図30に示す単位立方体から分割された各四面体を示す図であり、図32は、各四面体の補間係数の決定ルールを示す図である。なお、補間係数K0、K1、K2、K3は、Δx,Δy,Δzの大小関係、及び前述の分離信号に従って決定される。   Subsequently, the color conversion unit 51 obtains the lower coordinates (Δx, Δy, Δz) of the coordinates P in the selected unit cube shown in FIG. 30, selects the unit tetrahedron by comparing the lower coordinates, and selects the unit tetrahedron. Linear interpolation is performed for each body, and an output value Pout at the coordinates P is obtained. Note that Pout is an integer value obtained by multiplying the entire expression by the length of one side of the unit cube. 31-1 to 31-6 are diagrams illustrating each tetrahedron divided from the unit cube illustrated in FIG. 30, and FIG. 32 is a diagram illustrating a rule for determining an interpolation coefficient of each tetrahedron. The interpolation coefficients K0, K1, K2, and K3 are determined according to the magnitude relationship between Δx, Δy, and Δz and the above-described separation signal.

そして、色変換部51は、最終的に、選択された四面体の4点の予め設定された頂点上の出力値と入力の四面体の中における位置(各頂点からの距離)に基づいて、数式(7−1)〜(7−4)により線形補間を実施する。
pout_c=K0_C×Δx+K1_C×Δy+K2_C×Δz+K3_C<<5 …(7−1)
pout_m=K0_M×Δx+K1_M×Δy+K2_M×Δz+K3_M<<5 …(7−2)
pout_y=K0_Y×Δx+K1_Y×Δy+K2_Y×Δz+K3_Y<<5 …(7−3)
pout_k=K0_K×Δx+K1_K×Δy+K2_K×Δz+K3_K<<5 …(7−4)
Then, the color conversion unit 51 finally, based on the output value on the preset four vertices of the selected tetrahedron and the position in the input tetrahedron (distance from each vertex), Linear interpolation is performed according to equations (7-1) to (7-4).
pout_c = K0_C × Δx + K1_C × Δy + K2_C × Δz + K3_C << 5 (7-1)
pout_m = K0_M × Δx + K1_M × Δy + K2_M × Δz + K3_M << 5 (7-2)
pout_y = K0_Y × Δx + K1_Y × Δy + K2_Y × Δz + K3_Y << 5 (7-3)
pout_k = K0_K × Δx + K1_K × Δy + K2_K × Δz + K3_K << 5 (7-4)

次に、出力画像処理部7のγ補正部54による補正について具体的に説明する。   Next, the correction by the γ correction unit 54 of the output image processing unit 7 will be specifically described.

γ補正部54は、プレビュー表示動作では、プロッタ9の変動に依存しないデバイスインデペンデントな性質の信号に変換する。ここでは、前述のキャリブレーション動作で説明したコピーのACCターゲットデータとして使用したRGBのひとつの色成分を使用するケースについて説明する。   In the preview display operation, the γ correction unit 54 converts the signal into a device-independent signal that does not depend on the fluctuation of the plotter 9. Here, a case will be described in which one RGB color component used as the copy ACC target data described in the calibration operation is used.

γ補正部54は、色変換として、CMYK信号に対する通常のγ補正を実施するが、γ補正に用いるγ補正テーブルは、前述のキャリブレーション動作でCPU4により生成されたものである。なお、本実施の形態では、一次元テーブルを扱うので、CMYKの各色データに対して、RGBの色成分を図33のように設定するが、複数の色成分をターゲットにしてもよい。   The γ correction unit 54 performs normal γ correction on the CMYK signal as color conversion. The γ correction table used for γ correction is generated by the CPU 4 in the calibration operation described above. In this embodiment, since a one-dimensional table is handled, RGB color components are set as shown in FIG. 33 for each color data of CMYK, but a plurality of color components may be targeted.

そして、γ補正部54により変換されたRGB値は、プロッタ9による画像出力条件(トップ濃度や記録用紙特性)によって変動するキャリブレーション対象のプリンタγの目標濃度特性に相当するので、画像形成条件に対応したカラー画像信号への変換が可能となる。   The RGB values converted by the γ correction unit 54 correspond to the target density characteristics of the printer γ to be calibrated that fluctuate depending on the image output conditions (top density and recording paper characteristics) by the plotter 9. Conversion to a corresponding color image signal is possible.

γ補正部54は、このキャリブレーションの目標濃度特性を反映した色データの組み合わせを、さらに標準的な表色系である三刺激値(CIEXYZ)に色変換する。具体的には、γ補正部54は、代表的な色版(CMYK)の組み合わせに対する測色値(CIEXYZ)の対応を予め求めて近似しておき、多次元LUT、非線形マスキング、ニューラルネットワークなどを用いて変換する。なお、各色版(CMYK)の入力値は、デバイスCMYKではなく、測色値をベースとしたデバイスインデペンデントな色信号で管理されており、本実施の形態では、前述したようにRGBのひとつの色成分を使用して色管理を行なう。   The γ correction unit 54 further converts the color data combination reflecting the target density characteristics of the calibration into a tristimulus value (CIEXYZ) that is a standard color system. Specifically, the γ correction unit 54 obtains and approximates the correspondence of the colorimetric values (CIEXYZ) to the combinations of representative color plates (CMYK) in advance, and performs multidimensional LUT, nonlinear masking, neural network, etc. Use to convert. The input value of each color plate (CMYK) is managed not by the device CMYK but by a device-independent color signal based on the colorimetric value. In this embodiment, as described above, one of RGB Color management is performed using the color components.

また、ここでは図28に示すように、記録紙の特性が反映される。本実施の形態では、記録紙の特性は、前述したACC読み取り値の地肌部(0段目)の値であるB_Detと、ACCターゲットデータの地肌部(0段目)の値であるAcc_T0が相当する。ユーザが操作表示部12を用いて、プレビュー表示の条件として、白色点として、完全に記録紙の白色を設定していた場合、ACC読み取り値の地肌部の値であるB_Detが読み出され、三刺激値(CIEXYZ)に変換される。   Here, as shown in FIG. 28, the characteristics of the recording paper are reflected. In the present embodiment, the characteristics of the recording paper correspond to B_Det which is the value of the background portion (0th step) of the ACC reading value and Acc_T0 which is the value of the background portion (0th step) of the ACC target data. To do. When the user has completely set the white color of the recording paper as the white point as a preview display condition using the operation display unit 12, B_Det, which is the value of the background portion of the ACC read value, is read out. It is converted into a stimulus value (CIEXYZ).

なお、B_Detは、読み取り値から色変換されたRGBになっているので、仮にRGBをsRGBと仮定すると、三刺激値(CIEXYZ)への色変換は、数式(8−1)〜(9−3)のようになる。
r=(R/1023)2.2 …(8−1)
g=(G/1023)2.2 …(8−2)
b=(B/1023)2.2 …(8−3)
X=0.4124×r+0.3576×g+0.1805×b …(9−1)
Y=0.2126×r+0.7152×g+0.0722×b …(9−2)
Z=0.0193×r+0.1192×g+0.9505×b …(9−3)
Since B_Det is RGB that has been color-converted from the read value, assuming that RGB is sRGB, color conversion to tristimulus values (CIEXYZ) is performed using equations (8-1) to (9-3). )become that way.
r = (R / 1023) 2.2 (8-1)
g = (G / 1023) 2.2 (8-2)
b = (B / 1023) 2.2 (8-3)
X = 0.4124 * r + 0.3576 * g + 0.1805 * b ... (9-1)
Y = 0.2126 × r + 0.7152 × g + 0.0722 × b (9-2)
Z = 0.0193 × r + 0.1192 × g + 0.9505 × b (9-3)

続いて、γ補正部54は、三刺激値(CIEXYZ)に色変換された画像信号を、観察条件下における色の見えを予測する知覚量(JCH)に変換する。具体的には、γ補正部54は、変換された記録紙の地肌(白色)の三刺激値(CIEXYZ)を、CIEで勧告されたカラーアピアランスモデル(CIECAM)で定義されている参照白色の三刺激値(Xw、Yw、Zw)として設定し、数式(10)〜(39)の処理を実施して、知覚量(JCH)に変換する。   Subsequently, the γ correction unit 54 converts the image signal color-converted into the tristimulus value (CIEXYZ) into a perceptual amount (JCH) that predicts the appearance of the color under the observation condition. Specifically, the γ correction unit 54 converts the tristimulus values (CIEXYZ) of the background (white) of the converted recording paper into three reference whites defined by the color appearance model (CIECAM) recommended by the CIE. The stimulus values (Xw, Yw, Zw) are set, and the processing of the mathematical formulas (10) to (39) is performed to convert them into perceptual amounts (JCH).

なお、ユーザがキャリブレーションの実行もしくはプレビュー画像表示の際に、操作表示部12を用いて、記録紙の白色に対する追従性の設定をしていた場合には、γ補正部54は、キャリブレーション動作における地肌補正で説明した地肌補正された読み取り値Acc_Scn_k’から三刺激値(CIEXYZ)に変換し、参照白色として設定し、同様の色変換処理を実施する。   Note that if the user has set the followability with respect to the white color of the recording paper using the operation display unit 12 when performing calibration or displaying a preview image, the γ correction unit 54 performs the calibration operation. The background-corrected read value Acc_Scn_k ′ described in the background correction in FIG. 6 is converted into a tristimulus value (CIEXYZ), set as a reference white color, and a similar color conversion process is performed.

また、本実施の形態では、試験色(X、Y、Z)をスキャナ1から入力された画像信号の三刺激値、参照白色(Xw、Yw、Zw)を記録紙の地肌(白色)の三刺激値として演算する。   In the present embodiment, the test colors (X, Y, Z) are the tristimulus values of the image signal input from the scanner 1, and the reference white (Xw, Yw, Zw) is the background of the recording paper (white). Calculated as a stimulus value.

Rc=(D*(1.0/Rw)+1−D)*R …(13−1)
Gc=(D*(1.0/Gw)+1−D)*G …(13−2)
B<0の場合、
Bc=(D*(1.0/pow(Bw,p))+1−D)*fabs(pow(B,p))*(−1.0) …(13−3)
B≧0の場合、
Bc=(D*(1.0/pow(Bw,p))+1−D)*pow(B,p) …(13−4)
Rcw=(D*(1.0/Rw)+1−D)*Rw …(14−1)
Gcw=(D*(1.0/Gw)+1−D)*Gw …(14−2)
Bcw=(D*(1.0/pow(Bw,p))+1−D)*pow(fabs(Bw),p) …(14−3)
Rc = (D * (1.0 / Rw) + 1−D) * R (13-1)
Gc = (D * (1.0 / Gw) + 1−D) * G (13-2)
If B <0,
Bc = (D * (1.0 / pow (Bw, p)) + 1−D) * fabs (pow (B, p)) * (− 1.0) (13-3)
If B ≧ 0,
Bc = (D * (1.0 / pow (Bw, p)) + 1−D) * pow (B, p) (13-4)
Rcw = (D * (1.0 / Rw) + 1−D) * Rw (14-1)
Gcw = (D * (1.0 / Gw) + 1−D) * Gw (14-2)
Bcw = (D * (1.0 / pow (Bw, p)) + 1−D) * pow (fabs (Bw), p) (14-3)

但し、pは数式(15)により求められ、Dは数式(16)により求められる。
p=pow((Bw/1.0),0.0834) …(15)
D=F−F/(1+2*pow(La,1/4)+La*La/300) …(16)
ここで、Laは順応視野の輝度を示し、Fは順応の程度を表わす係数を示す。なお、ここで定義したDファクター(順応の程度を表わす係数)については、基本的に、数式(16)により算出されるが、ユーザがキャリブレーションの実行もしくはプレビュー画像表示の際に、操作表示部12を用いて、記録紙の白色に対する追従性に対するパラメータとして設定していた場合には、設定されたパラメータをDファクターに反映させる。
However, p is calculated | required by Numerical formula (15), D is calculated | required by Numerical formula (16).
p = pow ((Bw / 1.0), 0.0834) (15)
D = F−F / (1 + 2 * pow (La, 1/4) + La * La / 300) (16)
Here, La represents the luminance of the adaptation field of view, and F represents a coefficient representing the degree of adaptation. Note that the D factor (coefficient representing the degree of adaptation) defined here is basically calculated by the equation (16). However, when the user executes calibration or displays a preview image, the operation display unit 12 is set as a parameter for the followability to the white color of the recording paper, the set parameter is reflected in the D factor.

Rda=(40*pow((Fl*Rd/100),0.73))/(pow((Fl*Rd/100),0.73)+2)+1 …(20−1)
Gda=(40*pow((Fl*Gd/100),0.73))/(pow((Fl*Gd/100),0.73)+2)+1 …(20−2)
Bda=(40*pow((Fl*Bd/100),0.73))/(pow((Fl*Bd/100),0.73)+2)+1 …(20−3)
Rdaw=(40*pow((Fl*Rdw/100),0.73))/(pow((Fl*Rdw/100),0.73)+2)+1 …(21−1)
Gdaw=(40*pow((Fl*Gdw/100),0.73))/(pow((Fl*Gdw/100),0.73)+2)+1 …(21−2)
Bdaw=(40*pow((Fl*Bdw/100),0.73))/(pow((Fl*Bdw/100),0.73)+2)+1 …(21−3)
Rda = (40 * pow ((Fl * Rd / 100), 0.73)) / (pow ((Fl * Rd / 100), 0.73) +2) +1 (20-1)
Gda = (40 * pow ((Fl * Gd / 100), 0.73)) / (pow ((Fl * Gd / 100), 0.73) +2) +1 (20-2)
Bda = (40 * pow ((Fl * Bd / 100), 0.73)) / (pow ((Fl * Bd / 100), 0.73) +2) +1 (20-3)
Rdaw = (40 * pow ((Fl * Rdw / 100), 0.73)) / (pow ((Fl * Rdw / 100), 0.73) +2) +1 (21-1)
Gdaw = (40 * pow ((Fl * Gdw / 100), 0.73)) / (pow ((Fl * Gdw / 100), 0.73) +2) +1 (21-2)
Bdaw = (40 * pow ((Fl * Bdw / 100), 0.73)) / (pow ((Fl * Bdw / 100), 0.73) +2) +1 (21-3)

但し、順応輝度に応じた係数を示すFlは数式(22)により求められる。
Fl=0.2*pow(k,4)*(5*La)+0.1*(1−pow(k,4))*(1−pow(k,4))*pow(5*La,1/3) …(22)
また、kは数式(23)により求められる。
k=1/(5*La+1) …(23)
However, Fl which shows the coefficient according to adaptation brightness | luminance is calculated | required by Numerical formula (22).
Fl = 0.2 * pow (k, 4) * (5 * La) + 0.1 * (1-pow (k, 4)) * (1-pow (k, 4)) * pow (5 * La, 1/3) (22)
Moreover, k is calculated | required by Numerical formula (23).
k = 1 / (5 * La + 1) (23)

そして、無彩色応答を示すAは数式(24−1)により求められ、白色に対する無彩色応答を示すAwは数式(24−2)により求められ、明度を示すJは数式(25)により求められ、ブライトネスを示すQは数式(26)により求められ、彩度を示すsは数式(27)により求められ、クロマを示すCは数式(28)により求められ、カラフルネスを示すMは数式(29)により求められる。
A=(2*Rda+Gda+(1/20)*Bda−2.05)*Nbb …(24−1)
Aw=(2*Rdaw+Gdaw+(1/20)*Bdaw−2.05)*Nbb …(24−2)
J=100*pow(A/Aw,c*z) …(25)
Q=(1.24/c)*pow((J/100),0.67)*pow((Aw+3),0.9) …(26)
s=(50*pow((a*a+b*b),0.5)*100*e*(10/13)*Nc*Ncb)/(Rda+Gda+(21/20)*Bda) …(27)
C=2.44*pow(s,0.69)*pow((J/100),0.67*n)*(1.64−pow(0.29,n)) …(28)
M=C*pow(Fl,0.15) …(29)
And A which shows an achromatic response is calculated | required by Formula (24-1), Aw which shows the achromatic response with respect to white is calculated | required by Formula (24-2), and J which shows the lightness is calculated | required by Formula (25). , Q indicating brightness is obtained from Equation (26), s representing saturation is obtained from Equation (27), C representing chroma is obtained from Equation (28), and M representing colorfulness is represented by Equation (29). ).
A = (2 * Rda + Gda + (1/20) * Bda−2.05) * Nbb (24-1)
Aw = (2 * Rdaw + Gdaw + (1/20) * Bdaw−2.05) * Nbb (24-2)
J = 100 * pow (A / Aw, c * z) (25)
Q = (1.24 / c) * pow ((J / 100), 0.67) * pow ((Aw + 3), 0.9) (26)
s = (50 * pow ((a * a + b * b), 0.5) * 100 * e * (10/13) * Nc * Ncb) / (Rda + Gda + (21/20) * Bda) (27)
C = 2.44 * pow (s, 0.69) * pow ((J / 100), 0.67 * n) * (1.64-pow (0.29, n)) (28)
M = C * pow (Fl, 0.15) (29)

ここで、cは周囲の影響の大きさに関する係数を示し、Ncはクロマチックインダクション係数を示す。また、背景が刺激の見えに影響を及ぼす程度を表わす係数を示すnは数式(30)により求められ、Nbbは数式(31)により求められ、Ncbは数式(32)により求められ、zは数式(33)により求められる。
n=Yb/Yw …(30)
Nbb=0.725*pow(1/n,0.2) …(31)
Ncb=Nbb …(32)
z=1+Fll*pow(n,0.5) …(33)
但し、Ybは背景の輝度率を示し、Fllは明度コントラスト係数を示す。
Here, c represents a coefficient relating to the magnitude of the influence of the surroundings, and Nc represents a chromatic induction coefficient. In addition, n indicating a coefficient representing the degree of influence of the background on the appearance of the stimulus is obtained by the equation (30), Nbb is obtained by the equation (31), Ncb is obtained by the equation (32), and z is an equation. (33).
n = Yb / Yw (30)
Nbb = 0.725 * pow (1 / n, 0.2) (31)
Ncb = Nbb (32)
z = 1 + Fll * pow (n, 0.5) (33)
Here, Yb represents the luminance ratio of the background, and Fll represents the brightness contrast coefficient.

また、eは数式(34)〜(39)により求められる。
Ca=Rda−12.0*Gda/11.0+Bda/11.0 …(34)
Cb=(1/9)*(Rda+Gda−2*Bda) …(35)
h=(180/M_PI)*atan2(b,a) …(36)
但し、h<0の場合、
h=360−fabs(h) …(37)
e=e1+(e2−e1)*(h−h1)/(h2−h1) …(38)
H=h1+100*(h−h1)/e1/((h−h1)/e1+(h2−h)/e2) …(39)
但し、h≦20.14の場合には、e1=0.8565、e2=0.8、h1=0.0、h2=20.14である。また、20.14<h≦90.0の場合には、e1=0.8、e2=0.7、h1=20.14、h2=90.0である。また、90.0<h≦164.25の場合には、e1=0.7、e2=1.0、h1=90.0、h2=164.25である。また、164.25<h≦237.53の場合には、e1=1.0、e2=1.2、h1=164.25、h2=237.53である。また、237.53<hの場合には、e1=1.2、e2=0.8565、h1=237.53、h2=360.0である。
Moreover, e is calculated | required by Numerical formula (34)-(39).
Ca = Rda-12.0 * Gda / 11.0 + Bda / 11.0 (34)
Cb = (1/9) * (Rda + Gda-2 * Bda) (35)
h = (180 / M_PI) * atan2 (b, a) (36)
However, if h <0,
h = 360-fabs (h) (37)
e = e1 + (e2-e1) * (h-h1) / (h2-h1) (38)
H = h1 + 100 * (h−h1) / e1 / ((h−h1) / e1 + (h2−h) / e2) (39)
However, when h ≦ 20.14, e1 = 0.8565, e2 = 0.8, h1 = 0.0, h2 = 20.14. In the case of 20.14 <h ≦ 90.0, e1 = 0.8, e2 = 0.7, h1 = 20.14, and h2 = 90.0. In the case of 90.0 <h ≦ 164.25, e1 = 0.7, e2 = 1.0, h1 = 90.0, h2 = 164.25. When 164.25 <h ≦ 237.53, e1 = 1.0, e2 = 1.2, h1 = 164.25, and h2 = 237.53. In the case of 237.53 <h, e1 = 1.2, e2 = 0.8565, h1 = 237.53, and h2 = 360.0.

なお本実施の形態では、γ補正部54が、数式(10)〜(39)の処理を実施して、三刺激値(CIEXYZ)を知覚量(JCH)に変換する場合、実際にハードコピーを観察する環境に対応した観察条件を示す各種パラメータは、ユーザが操作表示部12を用いて設定している。   In the present embodiment, when the γ correction unit 54 performs the processing of Equations (10) to (39) to convert the tristimulus value (CIEXYZ) into the perceptual amount (JCH), the hard copy is actually copied. Various parameters indicating observation conditions corresponding to the observation environment are set by the user using the operation display unit 12.

但し、ユーザによりハードコピーの観察条件が設定されなかった場合には、RGB(sRGB)の定義に従い、La=4(cd/m)、F=1.0(Average)、Yb=20、Fll=1.0(Average)、c=0.69(Average)、Nc=1.0(Average)に設定される。 However, when the hard copy viewing condition is not set by the user, La = 4 (cd / m 2 ), F = 1.0 (Average), Yb = 20, Fll according to the definition of RGB (sRGB). = 1.0 (Average), c = 0.69 (Average), and Nc = 1.0 (Average).

続いて、γ補正部54は、このようにして求めたカラーアピアランスモデルに基づく知覚量(JCH)に色変換された画像データを表示用のRGB信号に変換する前に、再度、三刺激値(CIEXYZ)に変換する。具体的には、γ補正部54は、数式(10)〜(39)の逆変換を実施する。なお、この際、図28に示すように、操作表示部12の観察条件が反映される。   Subsequently, before converting the image data color-converted into the perceptual amount (JCH) based on the color appearance model thus obtained into the RGB signal for display, the γ correction unit 54 again performs tristimulus values ( CIEXYZ). Specifically, the γ correction unit 54 performs the inverse transformation of the mathematical formulas (10) to (39). At this time, as shown in FIG. 28, the observation conditions of the operation display unit 12 are reflected.

但し、ユーザによりプレビュー表示の観察条件が設定されなかった場合には、Xw=95.02、Yw=100、Zw=108.81(D65光源)、La=4(cd/m)、F=1.0(Average)、Yb=20、Fll=1.0(Average)、c=0.69(Average)、Nc=1.0(Average)に設定される。 However, if the viewing condition for preview display is not set by the user, Xw = 95.02, Yw = 100, Zw = 108.81 (D65 light source), La = 4 (cd / m 2 ), F = 1.0 (Average), Yb = 20, Fll = 1.0 (Average), c = 0.69 (Average), and Nc = 1.0 (Average).

続いて、γ補正部54は、逆演算して求めた試験色(X、Y、Z)を、プレビュー表示用のRGB信号に変換する。例えば、操作表示部12の特性をsRGBと仮定すれば、数式(8−1)〜(9−3)の逆演算を実施することで、RGB画像データに変換できるが、外部I/F14等を介して取得した外部装置の表示装置のプロファイルを参照して変換してもよい。   Subsequently, the γ correction unit 54 converts the test colors (X, Y, Z) obtained by reverse calculation into RGB signals for preview display. For example, if the characteristic of the operation display unit 12 is assumed to be sRGB, it can be converted into RGB image data by performing the inverse operation of the mathematical formulas (8-1) to (9-3). The conversion may be performed with reference to the profile of the display device of the external device acquired via the communication device.

そして、最終的に色変換されたプレビュー表示用RGB画像信号は、操作表示部12やPC22に送信され、カラーマネージメントされた高精細なディスプレイに表示される。これにより、画像形成条件に対応した画像の仕上がりに加えて、出力画像を観察する環境下における色の見えを忠実にプレビュー表示して、実際に記録紙に画像出力を繰り返すことなく、実機の状態とユーザの画像出力要求に合った画像出力モードの設定や最適なキャリブレーション条件の設定を含む色調整ができる。   Then, the RGB image signal for preview display that is finally color-converted is transmitted to the operation display unit 12 or the PC 22 and displayed on a high-definition display that is color-managed. As a result, in addition to the image finish corresponding to the image formation conditions, the appearance of the color in the environment where the output image is observed is faithfully previewed, and the actual machine status is not repeated without actually repeating the image output on the recording paper. And color adjustment including setting of an image output mode that meets the user's image output request and setting of optimum calibration conditions.

また、ユーザが操作表示部12から、プレビュー表示用RGB信号に対する属性変更を指定した場合は、指定されたRGB色空間と三刺激値(CIEXYZ)の関係に基づいて、三刺激値(CIEXYZ)からRGB画像データへの変換を実施する。   In addition, when the user designates attribute change for the preview display RGB signal from the operation display unit 12, based on the relationship between the designated RGB color space and the tristimulus value (CIEXYZ), the tristimulus value (CIEXYZ) is used. Conversion to RGB image data is performed.

例えば、プレビュー表示用のディスプレイの色再現特性がsRGBに準拠していた場合、ハードコピーで再現される色が、sRGB色空間(0〜1)では再現できないことがある。これは、出力画像における高彩度部の階調が正しく表示されないケースで、sRGBより色域の広いRGB色空間を、用途に応じて設定することで、ユーザの画像出力要求に合った画像出力モードの設定や最適なキャリブレーション条件の設定を含む色調整ができる。   For example, when the color reproduction characteristic of the display for preview display conforms to sRGB, colors reproduced by hard copy may not be reproduced in the sRGB color space (0 to 1). This is a case where the gradation of the high saturation portion in the output image is not correctly displayed, and by setting an RGB color space having a wider color gamut than sRGB according to the application, an image output mode suitable for the user's image output request is set. Color adjustment including setting and setting of optimum calibration conditions is possible.

例えば、ユーザが、プレビュー表示用にDCFオプション色空間として定義されているRGB色空間を操作表示部12から設定すると、数式(40−1)〜(41−3)に示す色変換により、プレビュー表示用RGBに色変換を行なう。
rp=2.0148*X−0.6217*Y−0.3931*Z …(40−1)
gp=−1.2883*X+2.2360*Y+0.0523*Z …(40−2)
bP=0.0174*X−0.2055*Y+1.1881*Z …(40−3)
Rp=((rp)^(1/2.2))*1023 …(41−1)
Gp=((Gp)^(1/2.2))*1023 …(41−2)
Bp=((B[p)^(1/2.2))*1023 …(41−3)
For example, when the user sets the RGB color space defined as the DCF option color space for preview display from the operation display unit 12, the preview display is performed by the color conversion shown in Equations (40-1) to (41-3). Color conversion to RGB.
rp = 2.0148 * X-0.6217 * Y-0.3931 * Z (40-1)
gp = −1.2883 * X + 2.2360 * Y + 0.0523 * Z (40-2)
bP = 0.0174 * X−0.2055 * Y + 1.1881 * Z (40-3)
Rp = ((rp) ^ (1 / 2.2)) * 1023 (41-1)
Gp = ((Gp) ^ (1 / 2.2)) * 1023 (41-2)
Bp = ((B [p) ^ (1 / 2.2)) * 1023 (41-3)

以上より、本実施の形態によれば、煩雑な作業を伴わずに、画像形成条件に対応した画像の仕上がりを忠実にプレビュー表示して、実際に記録紙に画像出力を繰り返すことなく、実機の状態に対して、ユーザーの画像出力要求に合った画像出力モードの設定や色調整を可能にする画像処理システムを提供することができる。   As described above, according to the present embodiment, the finished image of the image corresponding to the image forming condition is faithfully displayed without complicated work, and without actually repeating the image output on the recording paper, It is possible to provide an image processing system that enables setting of an image output mode and color adjustment according to a user's image output request for a state.

1 スキャナ
2 入力画像処理部
3 バス制御部
4 CPU
5 メモリ
6 HDD
7 出力画像処理部
8 プロッタI/F
9 プロッタ
10 SB
11 ROM
12 操作表示部
13 回線I/F
14 外部I/F
21 FAX
22 PC
30 スキャナ補正部
31 γ変換部
32 像域分離部
33 フィルタ部
34 色変換部
35 分離デコード部
36 変倍部
50 フィルタ部
51 色変換部
52 パターン生成部
53 変倍部
54 γ補正部
55 階調部
100 複合機
DESCRIPTION OF SYMBOLS 1 Scanner 2 Input image processing part 3 Bus control part 4 CPU
5 Memory 6 HDD
7 Output image processing unit 8 Plotter I / F
9 Plotter 10 SB
11 ROM
12 Operation display section 13 Line I / F
14 External I / F
21 FAX
22 PC
DESCRIPTION OF SYMBOLS 30 Scanner correction part 31 γ conversion part 32 Image area separation part 33 Filter part 34 Color conversion part 35 Separation decoding part 36 Scaling part 50 Filter part 51 Color conversion part 52 Pattern generation part 53 Scaling part 54 γ correction part 55 Gradation Part 100 MFP

特許第2734237号公報Japanese Patent No. 2734237 特開平6−95633号公報JP-A-6-95633 特開2008−160388号公報JP 2008-160388 A

Claims (8)

キャリブレーションに用いるキャリブレーション画像を記録紙に形成する画像形成手段と、
前記キャリブレーション画像が形成された前記記録紙を読み取って、キャリブレーション用の画像情報を得る画像読取手段と、
前記キャリブレーション用の画像情報を用いたキャリブレーションを行って、目標画像特性を前記画像形成手段の特性又は画像形成条件を反映した目標画像特性に変更し、変更後の目標画像特性に補正可能な補正テーブルを生成する補正テーブル生成手段と、
出力対象の画像データを記憶する画像データ記憶手段と、
前記補正テーブルを参照して前記出力対象の画像データに画像処理を施し、変更後の前記目標画像特性を反映したプレビュー用の画像データに変換する画像処理手段と、
変換された前記プレビュー用の画像データのプレビュー画像を表示する表示手段と、
を備えることを特徴とする画像形成装置。
An image forming means for forming a calibration image used for calibration on a recording paper;
An image reading unit that reads the recording paper on which the calibration image is formed to obtain image information for calibration;
The target image characteristic can be changed to the target image characteristic reflecting the characteristic of the image forming unit or the image forming condition by performing calibration using the image information for calibration, and can be corrected to the changed target image characteristic. Correction table generating means for generating a correction table;
Image data storage means for storing image data to be output;
Image processing means for performing image processing on the image data to be output with reference to the correction table and converting the image data for preview reflecting the target image characteristics after the change;
Display means for displaying a preview image of the converted image data for preview;
An image forming apparatus comprising:
前記画像処理手段は、前記補正テーブルを参照して前記出力対象の画像データに画像処理を施し、変更後の前記目標画像特性及びハイライト側の前記キャリブレーション用の画像情報を反映した前記プレビュー用の画像データに変換することを特徴とする請求項1に記載の画像形成装置。   The image processing means performs image processing on the image data to be output with reference to the correction table, and reflects the target image characteristics after the change and the image information for calibration on the highlight side. The image forming apparatus according to claim 1, wherein the image forming apparatus converts the image data into image data. 記録紙に形成される画像又は前記プレビュー画像を観察する観察条件を入力する入力手段を更に備え、
前記画像処理手段は、前記補正テーブルを参照して前記出力対象の画像データに画像処理を施し、変更後の前記目標画像特性及び入力された前記観察条件を反映したプレビュー用の画像データに変換することを特徴とする請求項1に記載の画像形成装置。
An input unit for inputting an observation condition for observing the image formed on the recording paper or the preview image;
The image processing means performs image processing on the image data to be output with reference to the correction table, and converts it into preview image data reflecting the changed target image characteristics and the input observation conditions. The image forming apparatus according to claim 1.
前記目標画像特性の変更量を制御するキャリブレーション条件を入力する入力手段を更に備え、
前記補正テーブル生成手段は、前記キャリブレーション条件に従って前記目標画像特性を変更することを特徴とする請求項1又は2に記載の画像形成装置。
An input unit for inputting a calibration condition for controlling the amount of change in the target image characteristic;
The image forming apparatus according to claim 1, wherein the correction table generation unit changes the target image characteristic according to the calibration condition.
前記入力手段は、前記キャリブレーション条件として、記録紙の白色に対する追従性を入力し、
前記補正テーブル生成手段は、入力された記録紙の白色に対する追従性に従って前記目標画像特性を変更することを特徴とする請求項4に記載の画像形成装置。
The input means inputs the followability to the white of the recording paper as the calibration condition,
The image forming apparatus according to claim 4, wherein the correction table generating unit changes the target image characteristic according to the followability of the input recording paper with respect to white.
前記入力手段は、前記キャリブレーション条件として、前記画像形成手段の最高濃度に応じた目標画像特性の追従性を入力し、
前記補正テーブル生成手段は、入力された前記画像形成手段の最高濃度に応じた目標画像特性の追従性に従って前記目標画像特性を変更することを特徴とする請求項4に記載の画像形成装置。
The input means inputs the followability of the target image characteristic according to the highest density of the image forming means as the calibration condition,
5. The image forming apparatus according to claim 4, wherein the correction table generating unit changes the target image characteristic in accordance with the followability of the target image characteristic according to the inputted maximum density of the image forming unit.
前記プレビュー用の画像データの色特性の変更を入力する入力手段を更に備え、
前記画像処理手段は、前記プレビュー用の画像データの色特性を入力された色特性に変換することを特徴とする請求項1に記載の画像形成装置。
Input means for inputting a change in color characteristics of the preview image data;
The image forming apparatus according to claim 1, wherein the image processing unit converts color characteristics of the image data for preview into input color characteristics.
画像形成手段が、キャリブレーションに用いるキャリブレーション画像を記録紙に形成する画像形成ステップと、
画像読取手段が、前記キャリブレーション画像が形成された前記記録紙を読み取って、キャリブレーション用の画像情報を得る画像読取ステップと、
補正テーブル生成手段が、前記キャリブレーション用の画像情報を用いたキャリブレーションを行って、目標画像特性を前記画像形成手段の特性又は画像形成条件を反映した目標画像特性に変更し、変更後の目標画像特性に補正可能な補正テーブルを生成する補正テーブル生成ステップと、
画像処理手段が、前記補正テーブルを参照して、画像データ記憶手段に記憶された出力対象の画像データに画像処理を施し、変更後の前記目標画像特性を反映したプレビュー用の画像データに変換する画像処理ステップと、
表示手段が、変換されたプレビュー用の画像データのプレビュー画像を表示する表示ステップと、を含むことを特徴とする画像処理方法。
An image forming step in which an image forming unit forms a calibration image used for calibration on a recording paper;
An image reading unit that reads the recording paper on which the calibration image is formed to obtain image information for calibration; and
The correction table generation unit performs calibration using the image information for calibration, changes the target image characteristic to the target image characteristic reflecting the characteristic of the image forming unit or the image forming condition, and the target after the change A correction table generating step for generating a correction table correctable to image characteristics;
The image processing means refers to the correction table, performs image processing on the output target image data stored in the image data storage means, and converts the image data for preview reflecting the changed target image characteristics. An image processing step;
And a display step of displaying a preview image of the converted preview image data. An image processing method comprising:
JP2009129354A 2009-05-28 2009-05-28 Image forming apparatus, and image processing method Pending JP2010278768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129354A JP2010278768A (en) 2009-05-28 2009-05-28 Image forming apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129354A JP2010278768A (en) 2009-05-28 2009-05-28 Image forming apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2010278768A true JP2010278768A (en) 2010-12-09

Family

ID=43425310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129354A Pending JP2010278768A (en) 2009-05-28 2009-05-28 Image forming apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP2010278768A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017108084A1 (en) * 2015-12-21 2017-06-29 Hewlett-Packard Development Company, L.P. Cutter calibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017108084A1 (en) * 2015-12-21 2017-06-29 Hewlett-Packard Development Company, L.P. Cutter calibration
US10850418B2 (en) 2015-12-21 2020-12-01 Hewlett-Packard Development Company, L.P. Cutter calibration

Similar Documents

Publication Publication Date Title
JP2012029276A (en) Image forming device, color adjustment method and color adjustment program
US7327875B2 (en) Method and apparatus for color conversion
US20070030499A1 (en) Color processing method and apparatus
KR102323909B1 (en) Image processing apparatus, image processing method, and storage medium
US20070058224A1 (en) Image processing apparatus and image processing method
JP6753178B2 (en) Image processing device, image processing method, program
US8284447B2 (en) Image processing apparatus and profile generating method
US20110141500A1 (en) Image processing apparatus, image processing method, and computer program product
JP2008193409A (en) Image processing apparatus
JP2010166506A (en) Image output device, image output method, image output program and recording medium
EP1292119A2 (en) Output image adjustment of image data
US8446634B2 (en) Color conversion apparatus, and color conversion method and computer program product
JP2018157413A (en) Image processing apparatus, image processing method and image processing program
JP2007194810A (en) Image processing device
US8804205B2 (en) Image processing apparatus, method, and computer program product for converting image data
JP5955822B2 (en) Color conversion apparatus, image forming apparatus, color conversion method, and color conversion program
JP4628984B2 (en) Image processing device
EP1487189B1 (en) Image forming apparatus and method and storage medium therefor
JP4814162B2 (en) Image processing apparatus and image processing method
JP2010278768A (en) Image forming apparatus, and image processing method
US20070146744A1 (en) System and method for matching colorimetric attributes of a production print to a proof
JP2009272772A (en) Image processor, image forming apparatus, image processing method, and computer program
JP4740164B2 (en) Image processing apparatus, image processing method, and image processing program
JP5090969B2 (en) Image processing device
US20220230030A1 (en) Image processing apparatus, image processing method, and storage medium