JP4826562B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP4826562B2
JP4826562B2 JP2007226586A JP2007226586A JP4826562B2 JP 4826562 B2 JP4826562 B2 JP 4826562B2 JP 2007226586 A JP2007226586 A JP 2007226586A JP 2007226586 A JP2007226586 A JP 2007226586A JP 4826562 B2 JP4826562 B2 JP 4826562B2
Authority
JP
Japan
Prior art keywords
image
hue
value
feature
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007226586A
Other languages
Japanese (ja)
Other versions
JP2009060431A (en
Inventor
真樹 近藤
智彦 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2007226586A priority Critical patent/JP4826562B2/en
Priority to US12/202,872 priority patent/US8174731B2/en
Publication of JP2009060431A publication Critical patent/JP2009060431A/en
Application granted granted Critical
Publication of JP4826562B2 publication Critical patent/JP4826562B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、容易な操作で画像補正をすることが可能な印刷装置に関する。   The present invention relates to a printing apparatus capable of correcting an image with an easy operation.

デジタルカメラ等の普及に伴い、個人で撮影した画像を家庭用印刷装置で印刷することが普及している。また、印刷媒体に記憶された画像を家庭用印刷装置で印刷(複写)することも普及している。このような場合、取得した画像が所望の色味や色調でない場合は、印刷前に当該画像の画像補正をすることが望まれている。   With the popularization of digital cameras and the like, it has become popular to print images taken by individuals using a home printing device. In addition, printing (copying) an image stored on a print medium with a home printing apparatus is also widespread. In such a case, if the acquired image does not have a desired color or tone, it is desired to correct the image before printing.

ここで、例えば、下記特許文献1には、画像調整することが可能な印刷装置が開示されている。この印刷装置では、取得した画像の画質を調整するために、調整用データを入力する必要がある。   Here, for example, Patent Document 1 below discloses a printing apparatus capable of image adjustment. In this printing apparatus, it is necessary to input adjustment data in order to adjust the image quality of the acquired image.

特開2007−89179号公報JP 2007-89179 A

上記のような印刷装置においては、画像の調整を行うために、具体的なデータを入力する必要があるため、画像に関する知識が必要となり感覚的な色調整を行うことができない。また、上記文献には、特定の領域のみを画像調整することについて何ら開示されていない。さらに、上記文献においては、調整用データを選択ないし設定する必要があるため、簡易な操作ではない。また、画像補正処理の対象とする色を決定する場合、例えば、画像補正処理の対象(ユーザの着目位置)が濃い色部分であるのか薄い色部分であるのかについても特定することが、高精度の画像補正処理の観点からは望ましい。   In the printing apparatus as described above, it is necessary to input specific data in order to adjust the image, so knowledge about the image is required, and sensory color adjustment cannot be performed. Further, the above document does not disclose anything about image adjustment of only a specific region. Further, in the above document, since it is necessary to select or set adjustment data, it is not a simple operation. Further, when determining a color to be subjected to image correction processing, for example, it is highly accurate to specify whether the target of image correction processing (a user's target position) is a dark color portion or a light color portion. This is desirable from the viewpoint of image correction processing.

そこで本発明は、上記課題を解決するため、容易な操作で所望の画像補正を高精度に行うことが可能な画像処理装置を提供することを目的とする。   In order to solve the above problems, an object of the present invention is to provide an image processing apparatus capable of performing desired image correction with high accuracy by an easy operation.

上記目的を達成するため、態様1に係る発明は、第1画像入力手段、第2画像入力手段、色相特定手段、指定領域決定手段、特徴量抽出手段、画像補正手段を備える画像処理装置において、前記第1画像入力手段は、第1画像を入力し、前記第2画像入力手段は、第2画像を入力し、前記色相特定手段は、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定し、前記指定領域決定手段は、前記第1画像を複数の領域に分割し、前記複数の領域ごとに、前記特定色相の領域を抽出し、前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出し、前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示し、前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させ、前記1つの表示用特徴量に対応する分割領域を指定領域として決定し、前記特徴量抽出手段は、前記第1画像中の指定領域に基いて第1特徴量を、前記第2画像に基いて第2特徴量を抽出し、前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正することを特徴とする。
なお、第1、第2画像入力手段は、同一の入力手段で構成されてもよい。
To achieve the above object, an invention according to aspect 1 is an image processing apparatus including a first image input unit, a second image input unit, a hue specifying unit, a designated area determining unit, a feature amount extracting unit, and an image correcting unit. The first image input means inputs a first image, the second image input means inputs a second image, and the hue specifying means is the most composed of the hue components constituting the first image. A hue component having a large ratio is specified as a specific hue, and the designated area determination unit divides the first image into a plurality of areas, extracts the area of the specific hue for each of the plurality of areas, and For each region, a display feature amount is extracted from the extracted region, information on a plurality of display feature amounts corresponding to each of the plurality of regions is displayed on a display unit, and the display feature displayed on the display unit is displayed. One table from features The feature amount is selected by the user, the divided region corresponding to the one display feature amount is determined as the designated region, and the feature amount extracting unit is configured to select the first feature amount based on the designated region in the first image. The second feature amount is extracted based on the second image, and the image correction means corrects the second image based on the first feature amount and the second feature amount. To do.
The first and second image input means may be composed of the same input means.

態様2に係る発明は、態様1の画像処理装置において、前記指定領域決定手段によって分割された領域のうち、当該分割領域における前記特定色相の領域が占める割合が所定量以下の分割領域に対応する前記表示用特徴量については、前記表示の対象から除外することを特徴とする。 The invention according to aspect 2 corresponds to a divided area in which the ratio of the area of the specific hue in the divided area is equal to or less than a predetermined amount of the area divided by the designated area determining unit in the image processing apparatus of aspect 1. The display feature amount is excluded from the display target.

態様3に係る発明は、態様1または2の画像処理装置において、前記第1特徴量及び前記第2特徴量に基づいて、補正データを作成する補正データ作成手段を備え、前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正することを特徴とする。 The invention according to aspect 3 is the image processing apparatus according to aspect 1 or 2, further comprising correction data generation means for generating correction data based on the first feature quantity and the second feature quantity, wherein the image correction means includes: The second image is image-corrected based on the correction data.

態様4に係る発明は、態様1または2の画像処理装置において、前記特徴量抽出手段は、色相に関する特徴量を抽出し、当該色相に関する特徴量に基いて前記第1画像及び前記第2画像それぞれを複数の領域に分割し、分割した領域ごとに色相以外に関する特徴量を抽出し、前記補正データ作成手段は、前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相に関する特徴量の代表値を抽出し、当該代表値に基いて色相補正データを作成し、前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相以外に関する特徴量の代表値を抽出し、前記画像補正手段は、前記第2画像における画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正することを特徴とする。 The invention according to aspect 4 is the image processing apparatus according to aspect 1 or 2, wherein the feature amount extraction unit extracts a feature amount related to a hue, and each of the first image and the second image based on the feature amount related to the hue. Is extracted into a plurality of regions, and feature values related to other than the hue are extracted for each of the divided regions, and the correction data creating unit relates to the hue for each of the divided regions of the first image and the second image. A representative value of the feature amount is extracted, hue correction data is created based on the representative value, and a representative value of the feature amount related to other than the hue is determined for each divided region of the first image and the second image. The image correcting unit corrects the feature quantity related to the hue of each pixel in the second image based on the hue correction data, and extracts the characteristics other than the hue for each pixel of the second image. The amount, and correcting on the basis of the representative value of each of said areas.

態様5に係る発明は、態様1〜4いずれかの画像処理装置において、前記色相特定手段は、HSV空間におけるH値に基いて色相を特定することを特徴とする。 The invention according to aspect 5 is the image processing apparatus according to any one of aspects 1 to 4, characterized in that the hue specifying means specifies the hue based on the H value in the HSV space.

態様6に係る発明は、態様1〜5いずれかの画像処理装置において、前記表示用特徴量は、明度及び/または彩度に関する特徴量であることを特徴とする。 The invention according to aspect 6 is the image processing apparatus according to any one of aspects 1 to 5, characterized in that the display feature amount is a feature amount related to lightness and / or saturation.

態様7に係る発明は、態様1〜6いずれかの画像処理装置において、前記第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を第1画像として入力し、前記第2画像入力手段は、印刷媒体に記憶された画像情報を第2画像として入力することを特徴とする。 The invention according to aspect 7 is the image processing apparatus according to any one of aspects 1 to 6, wherein the first image input unit inputs an image optically read from a print medium set at a predetermined reading position as the first image. The second image input means inputs image information stored in the print medium as a second image.

態様8に係る発明は、態様1〜7いずれかの画像処理装置において、印刷制御手段をさらに有し、前記印刷制御手段は、前記補正された第2画像情報を印刷するための処理を行うことを特徴とする。 The invention according to aspect 8 is the image processing apparatus according to any one of aspects 1 to 7, further comprising a print control unit, wherein the print control unit performs a process for printing the corrected second image information. It is characterized by.

態様9に係る発明は、画像処理方法において、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、前記第1画像を複数の領域に分割する分割ステップ、前記複数の領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出する表示量特徴量抽出ステップ、前記複数のそれぞれに対応した複数の表示用特徴量に関する情報を表示部に表示する表示ステップ、前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させる特徴量選択ステップ、前記1つの表示用特徴量に対応する分割領域を指定領域として決定する指定領域決定ステップ、前記第1画像中の指定領域に基いて第1特徴量を抽出する第1特徴量抽出ステップ、前記第2に画像に基いて第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する画像補正ステップからなることを特徴とする。 The invention according to aspect 9 is the image processing method, wherein the first image input step for inputting the first image, the second image input step for inputting the second image, and the hue component constituting the first image are the most configured. A hue specifying step for specifying a hue component having a large ratio as a specific hue, a dividing step for dividing the first image into a plurality of regions, a specific hue extracting step for extracting the region of the specific hue for each of the plurality of regions, A display amount feature amount extracting step of extracting a display feature amount from the extracted region for each of a plurality of regions; a display step of displaying information on a plurality of display feature amounts corresponding to each of the plurality of regions on the display unit; A feature amount selection step for allowing a user to select one display feature amount from the display feature amounts displayed on the display unit; a division corresponding to the one display feature amount A designated region determining step for determining a region as a designated region, a first feature amount extracting step for extracting a first feature amount based on the designated region in the first image, and a second feature amount based on the second image. The method includes a second feature amount extraction step to be extracted, and an image correction step of correcting the second image based on the first feature amount and the second feature amount.

態様10に係る発明は、画像処理プログラムにおいて、コンピュータに、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、前記第1画像を複数の領域に分割する分割ステップ、前記複数の領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出する表示量特徴量抽出ステップ、前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示する表示ステップ、前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させる特徴量選択ステップ、前記1つの表示用特徴量に対応する分割領域を指定領域として決定する指定領域決定ステップ、前記第1画像中の指定領域に基いて第1特徴量を抽出する第1特徴量抽出ステップ、前記第2に画像に基いて第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する画像補正ステップを実行させることを特徴とする。 According to an aspect of the invention, in the image processing program, the first image input step for inputting the first image to the computer, the second image input step for inputting the second image, and the hue components constituting the first image in the computer. A hue specifying step for specifying the hue component having the largest component ratio as a specific hue, a dividing step for dividing the first image into a plurality of regions, and a specific hue extraction for extracting the region of the specific hue for each of the plurality of regions. A display amount feature amount extraction step for extracting a display feature amount from the extracted region for each of the plurality of regions; and information on a plurality of display feature amounts corresponding to the plurality of regions is displayed on the display unit. A display step, a feature quantity selection step for allowing a user to select one display feature quantity from the display feature quantities displayed on the display unit, the one A designated area determining step for determining a divided area corresponding to the display feature quantity as a designated area; a first feature quantity extracting step for extracting a first feature quantity based on the designated area in the first image; and a second image. A second feature amount extracting step for extracting a second feature amount based on the first feature amount, and an image correction step for correcting the second image based on the first feature amount and the second feature amount. To do.

態様1に係る発明によれば、スキャナ等により読み込んだ画像中のお手本とする色領域を決定し、ユーザに対し、所定のパラメータを間接的に選択させることによって、精度の高い画像補正処理を行うことができる。また、色相を特定するために種々のパラメータを用いることができる。 According to the first aspect of the invention, a color area to be used as a model in an image read by a scanner or the like is determined, and a predetermined parameter is indirectly selected by the user, thereby performing highly accurate image correction processing. be able to. Various parameters can be used to specify the hue.

態様2に係る発明によれば、さらに、分割された領域における前記決定された色領域の占める割合が所定量より小さい分割領域については、表示の対象としないため、当該分割領域の選択が実質的に不可能となるから、当該分割領域をお手本領域の候補から除外することができる。これにより、ユーザの意図しない補正が行われることを防止できる。 According to the second aspect of the present invention, since the divided area in which the determined color area occupies the divided area is smaller than the predetermined amount, the divided area is not substantially selected because it is not a display target. Therefore, the divided area can be excluded from the candidate model areas. Thereby, it is possible to prevent correction that is not intended by the user.

態様3に係る発明によれば、上述した効果を奏することができる。 According to the third aspect of the invention, the effects described above can be achieved.

態様4に係る発明によれば、色相に基いて複数の領域に分割するため、人間の知覚に基いた領域分割をすることができ、精度が高い色補正をすることができる。また、色相に関する特徴量と色相以外に関する特徴量とに分けて異なる画像補正処理を行うため、所望の画像補正処理を容易に行うことができる。 According to the aspect 4, since the image is divided into a plurality of regions based on the hue, the region can be divided based on human perception, and color correction with high accuracy can be performed. Further, since different image correction processes are performed separately for the feature quantity related to hue and the feature quantity related to other than the hue, a desired image correction process can be easily performed.

態様5に係る発明によれば、HSV空間におけるH値に基いて色相を特定することができる。 According to the fifth aspect of the invention, the hue can be specified based on the H value in the HSV space.

態様6に係る発明によれば、明度及び/または彩度に関する特徴量を表示用特徴量とすることができる。 According to the aspect of the invention according to aspect 6, the feature quantity related to lightness and / or saturation can be used as the display feature quantity.

態様7に係る発明によれば、お手本となる画像をスキャナ等から入力することができ、また、記憶媒体から読み出した画像を画像補正の対象とすることができる。 According to the aspect of the invention, a model image can be input from a scanner or the like, and an image read from a storage medium can be a target for image correction.

態様8に係る発明によれば、印刷制御手段を有するので、画像補正した画像を印刷することができる。 According to the aspect of the invention, since the print control unit is included, an image whose image has been corrected can be printed.

態様9、10に係る発明についても、上述した効果を奏することができる。
The inventions according to the ninth and tenth aspects can also achieve the effects described above.

[本発明の第1実施形態]
まず、本発明に係る画像処理装置の外観の一例について図1に示す。また、画像処理装置1の内部構成の一例について図2に示す。
[First embodiment of the present invention]
First, an example of the appearance of the image processing apparatus according to the present invention is shown in FIG. An example of the internal configuration of the image processing apparatus 1 is shown in FIG.

画像処理装置1は、多機能プリンタ等の一例であり、その上部に写真等から画像情報を読み取るためのスキャナ2を有している(なお、図1においては、スキャナはカバーされた状態である。)。スキャナによって読み取られた画像情報は、以下に示すメモリスロットより読み込まれた画像情報の色彩等を補正するための見本の情報として用いられる。なお、画像補正処理の詳細については、後述する。   The image processing apparatus 1 is an example of a multi-function printer or the like, and has a scanner 2 for reading image information from a photograph or the like on the upper part (in FIG. 1, the scanner is in a covered state). .) Image information read by the scanner is used as sample information for correcting the color and the like of image information read from the memory slot shown below. Details of the image correction process will be described later.

画像処理装置1は、SDカード(商標)、CFカード(商標)などの記録媒体である外部メモリに記録された画像情報を読み取るためのICカードリーダとして機能するメモリスロット3を有する。ここで、外部メモリ(記憶媒体)は、公知の媒体及び形式を適宜選択可能である。また、複数の方式の媒体に適用するよう、複数のメモリスロットを有するように構成してもよい。また、画像情報を蓄積したPCが接続されたLAN等のネットワークに接続可能な通信機能(例えばLANカード、図示せず)を図2に示すCPU,ROM、RAMなどが接続された信号線に付加することで、前記外部メモリの代わりに、前記PCが接続されたネットワークから所望の画像情報を読み取るよう構成してもよい。その場合は、画像処理装置1は、通信機能を有することになる。   The image processing apparatus 1 has a memory slot 3 that functions as an IC card reader for reading image information recorded in an external memory that is a recording medium such as an SD card (trademark) or a CF card (trademark). Here, as the external memory (storage medium), a known medium and format can be appropriately selected. Further, it may be configured to have a plurality of memory slots so as to be applied to a plurality of types of media. In addition, a communication function (for example, a LAN card, not shown) that can be connected to a network such as a LAN to which a PC storing image information is connected is added to the signal line to which the CPU, ROM, RAM, etc. shown in FIG. 2 are connected. Thus, instead of the external memory, desired image information may be read from a network to which the PC is connected. In that case, the image processing apparatus 1 has a communication function.

画像処理装置1は、種々の操作を行うための操作パネル4を有している。操作パネル4には種々のボタン等が配置される。   The image processing apparatus 1 has an operation panel 4 for performing various operations. Various buttons and the like are arranged on the operation panel 4.

画像処理装置1は、図2に図示されるプリンタ10を有している。画像補正された画像情報は、プリンタ10によって印刷される。印刷された用紙は、例えば、排出口5より排出される。   The image processing apparatus 1 includes a printer 10 illustrated in FIG. The image information subjected to the image correction is printed by the printer 10. The printed paper is discharged from the discharge port 5, for example.

画像処理装置1は、表示手段6を有している。種々の文字情報及びイメージを表示することができる。また、タッチパネルを表示手段6の前面に設け、操作パネル4の一部または全部の機能を代用してもよい。また、タッチパネルと操作パネル4を併用できるよう構成してもよい。   The image processing apparatus 1 has display means 6. Various character information and images can be displayed. In addition, a touch panel may be provided on the front surface of the display means 6 and a part or all of the functions of the operation panel 4 may be substituted. Moreover, you may comprise so that a touch panel and the operation panel 4 can be used together.

画像処理装置1は、プロセッサ(CPU9)によって全体が制御される。また、内部には、情報を一時的に記憶するためのRAM7、及び、所定の情報が記憶されたROM8を有する。また、必要に応じてHDD等の大容量記憶手段を有してもよい。   The image processing apparatus 1 is entirely controlled by a processor (CPU 9). In addition, there are a RAM 7 for temporarily storing information and a ROM 8 for storing predetermined information. Moreover, you may have mass storage means, such as HDD, as needed.

上述した各要素は、信号線によって互いに接続されている。   Each element mentioned above is mutually connected by the signal wire | line.

また、画像処理装置1に、種々の機能(例えば、FAX)を画像処理装置に付加することもできる。また、パソコン等に接続するためのインタフェース、他の印刷装置と接続するためのインタフェースを備えてもよい。   Further, various functions (for example, FAX) can be added to the image processing apparatus 1. Further, an interface for connecting to a personal computer or the like and an interface for connecting to another printing apparatus may be provided.

なお、上記外観は単なる一例であり、本発明が上記外観に限定されないことはいうまでもない。また、上記外観においては、全ての機能が一体化された装置を図示したが、一部の機能を外付け装置で実現してもよい。さらに、上記内部構成は単なる一例であり、本発明が上記内部構成に限定されないことはいうまでもない。   In addition, the said external appearance is only an example, and it cannot be overemphasized that this invention is not limited to the said external appearance. Moreover, in the above-mentioned external appearance, an apparatus in which all functions are integrated is shown, but some functions may be realized by an external apparatus. Furthermore, the internal configuration is merely an example, and it goes without saying that the present invention is not limited to the internal configuration.

次に、本発明に係る画像処理装置1を用いた基本処理における、ユーザの動作及び装置本体の処理について、その概略を説明する。図3は、当該処理の概略を示したものである。まず、ユーザは、画像補正対象となる画像が記憶されたメモリを、画像処理装置のメモリスロットにセットする。上述したとおり、このメモリとしては、メモリカードをはじめ公知の記憶媒体を適宜採用可能である。   Next, an outline of user operations and processing of the apparatus main body in basic processing using the image processing apparatus 1 according to the present invention will be described. FIG. 3 shows an outline of the processing. First, the user sets a memory in which an image to be corrected is stored in a memory slot of the image processing apparatus. As described above, as this memory, a known storage medium such as a memory card can be appropriately employed.

メモリがメモリスロット3にセットされることにより(1)、画像処理装置は、セットされたメモリを認識し、ユーザに対し、メモリに記憶されている画像のうち画像補正対象となる画像を選択させる(2)。なお、画像を選択させるための処理は、公知の技術(例えば、画像を順次切替表示して選択させる等)を適宜採用可能である。また、表示手段6を利用してもよい。   When the memory is set in the memory slot 3 (1), the image processing apparatus recognizes the set memory and causes the user to select an image to be corrected from the images stored in the memory. (2). In addition, the process for selecting an image can employ | adopt suitably a well-known technique (For example, switching and displaying an image sequentially, etc.). Further, the display means 6 may be used.

画像補正対象の画像が決定されると(3)、画像処理装置は当該画像を読み出して例えばRAMに書き込む(4)。なお、以下において当該画像を「元画像」ということがある。   When an image to be corrected is determined (3), the image processing apparatus reads the image and writes it in, for example, a RAM (4). Hereinafter, the image may be referred to as an “original image”.

次に、ユーザは当該画像の画像補正の見本となる領域を含む画像(以下、「全体画像」ということがある。)をスキャナ上に設置(5)し、所定のボタン等を押下することによって、画像処理装置は全体画像を例えばRAM7に書き込む(6)。   Next, the user places (5) on the scanner an image including an area that serves as a sample for image correction of the image (hereinafter, referred to as “whole image”), and presses a predetermined button or the like. The image processing apparatus writes the entire image in, for example, the RAM 7 (6).

全体画像を処理することにより、元画像を画像補正するための見本となる色相(以下、「特定色相」ということがある。)を決定する(7)。全体画像に対する処理内容については後述する。   By processing the entire image, a hue (hereinafter, also referred to as “specific hue”) as a sample for correcting the original image is determined (7). The processing content for the entire image will be described later.

全体画像を複数の領域に分割し、分割した領域ごとに所定の特徴量を抽出し、抽出した特徴量に関する情報をユーザに提示する(8)。具体的な処理について後述する。   The entire image is divided into a plurality of regions, a predetermined feature amount is extracted for each divided region, and information on the extracted feature amount is presented to the user (8). Specific processing will be described later.

ユーザは、提示された情報から所望の情報を選択する(9)。具体的な処理については後述する。   The user selects desired information from the presented information (9). Specific processing will be described later.

選択された情報に対応する特徴量を利用して、元画像を画像補正する(10)。具体的な処理については後述する。   The original image is corrected using the feature amount corresponding to the selected information (10). Specific processing will be described later.

なお、上述した図3の処理においては、メモリから画像を読み込んだ後にスキャナを利用して画像を読み込むものであるが、先にスキャナを利用して全体画像を読み込み、その後メモリから画像を読み込むよう構成してもよい。また、画像補正された元画像を印刷するよう構成してもよい。   In the process of FIG. 3 described above, an image is read using a scanner after reading an image from the memory. However, the entire image is read using the scanner first, and then the image is read from the memory. It may be configured. Further, an original image that has undergone image correction may be printed.

また、画像補正された元画像を印刷してもよい。   In addition, an original image that has undergone image correction may be printed.

[本発明の基本処理の第1実施形態]
次に、画像処理装置1における基本処理について説明する。図4は、本発明の基本処理の第1実施形態の概要を示すフローチャートである。
[First Embodiment of Basic Processing of the Present Invention]
Next, basic processing in the image processing apparatus 1 will be described. FIG. 4 is a flowchart showing an outline of the first embodiment of the basic processing of the present invention.

S11において、元画像、及び、全体画像が画像処理装置1のRAM7に読み込まれる。ここで、読み込まれた画像の形式は限定されない。   In S <b> 11, the original image and the entire image are read into the RAM 7 of the image processing apparatus 1. Here, the format of the read image is not limited.

S12において、読み込まれた全体画像の画素をそれぞれHSVパラメータに変換する。HSVパラメータへの変換処理については後述する。   In S12, each pixel of the read entire image is converted into an HSV parameter. The conversion process to the HSV parameter will be described later.

S13において、全体画像から特定色相を決定する。特定色相を決定する具体的な処理については後述する。   In S13, a specific hue is determined from the entire image. Specific processing for determining the specific hue will be described later.

S14において、読み込まれた元画像のそれぞれの画素をHSVパラメータに変換する。そして、S15において、当該HSVパラメータに基いて、元画像の特徴量として、第2特徴量を抽出する。   In S14, each pixel of the read original image is converted into an HSV parameter. In S15, the second feature value is extracted as the feature value of the original image based on the HSV parameter.

S16において、第1特徴量及び第2特徴量に基いて元画像を補正する。色補正の具体的な処理については後述する。   In S16, the original image is corrected based on the first feature value and the second feature value. Specific processing for color correction will be described later.

S17において、補正された元画像を印刷する。このとき、必要に応じてHSVパラメータは、他のパラメータ(例えば、RGBパラメータ)に変換される。RGBパラメータへの変換処理については後述する。なお、必要に応じ印刷処理を行わない構成としてもよい。   In S17, the corrected original image is printed. At this time, the HSV parameters are converted into other parameters (for example, RGB parameters) as necessary. The conversion process to RGB parameters will be described later. Note that a configuration may be adopted in which printing processing is not performed as necessary.

なお、上述した処理において、HSVパラメータではなく、L*c*h*パラメータを抽出してもよい。また、RGBパラメータ等の公知のパラメータであっても本発明は実現可能である。なお、以下においては、HSVパラメータを抽出する場合について説明する。   In the above-described processing, L * c * h * parameters may be extracted instead of HSV parameters. Further, the present invention can be realized even with known parameters such as RGB parameters. In the following, a case where HSV parameters are extracted will be described.

次に、図4のS12における全体画像の画素をHSVパラメータに変換する一例について説明する。以下においては、全体画像は、RGB形式であると仮定する。RGB形式からHSV形式への変換は以下のように行うことができる。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。   Next, an example in which the pixels of the entire image in S12 of FIG. 4 are converted into HSV parameters will be described. In the following, it is assumed that the entire image is in RGB format. Conversion from the RGB format to the HSV format can be performed as follows. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.

[RGB⇒HSV変換式]
max(a,b,c)はa,b,cの中で最も大きい値を表す。
min(a,b,c)はa,b,cの中で最も小さい値を表す。
V = max(R÷255,G÷255,B÷255)
Vが0でない時、
S = {V - min(R,G,B)} ÷ V
Vが0の時、
S = 0
{V - min(R,G,B)}が0でない時、
r = (V - R÷255)÷(V-min(R,G,B)
g = (V - G÷255)÷(V-min(R,G,B)
b = (V - B÷255)÷(V-min(R,G,B)
{V - min(R,G,B)}が0の時、
r = 0
g = 0
b = 0
V = R÷255の時
H = 60 × (b-g)
V = G÷255の時
H = 60 × ( 2+r-g)
V = B÷255の時
H = 60 × (4+g-r)
ただしH<0の時
H = H+360
[RGB → HSV conversion formula]
max (a, b, c) represents the largest value among a, b, and c.
min (a, b, c) represents the smallest value among a, b, and c.
V = max (R ÷ 255, G ÷ 255, B ÷ 255)
When V is not 0
S = {V-min (R, G, B)} ÷ V
When V is 0
S = 0
When {V-min (R, G, B)} is not 0,
r = (V-R ÷ 255) ÷ (V-min (R, G, B)
g = (V-G ÷ 255) ÷ (V-min (R, G, B)
b = (V-B ÷ 255) ÷ (V-min (R, G, B)
When {V-min (R, G, B)} is 0,
r = 0
g = 0
b = 0
When V = R ÷ 255
H = 60 × (bg)
When V = G ÷ 255
H = 60 × (2 + rg)
When V = B ÷ 255
H = 60 × (4 + gr)
However, when H <0
H = H + 360

次に、上述したS13の特定色相を決定する処理について説明する。図5は、色相特定処理のフローチャートである。なお、以下の処理においては、H値は、−30〜330未満の値をとるものとする。H値が上記範囲内でない場合は、H値を適宜変換することにより(例えば、“H値+360×n”もしくは“H値−360×n”、nは整数)、上記範囲の値をとるよう調整する。   Next, the process of determining the specific hue in S13 described above will be described. FIG. 5 is a flowchart of the hue specifying process. In the following processing, the H value takes a value of −30 to less than 330. When the H value is not within the above range, by appropriately converting the H value (for example, “H value + 360 × n” or “H value−360 × n”, n is an integer), the value in the above range is taken. adjust.

まず、S21において、全体画像の複数の領域に分割する。ここでは、一般的に用いられる6つの色相に基いて分割する。具体的には、それぞれの画素のH値に基き、
・R領域: −30以上〜30未満
・Y領域: 30以上〜90未満
・G領域: 90以上〜150未満
・C領域: 150以上〜210未満
・B領域: 210以上〜270未満
・M領域: 270以上〜330未満
に分割する。つまり、お手本画像の構成画素をその色相値に応じた上記分類基準に従い、6つの分類項目に分類する処理を行う。ここで、上記領域とH値の対応関係は、一例であり、適宜変更可能なものである。
First, in S21, the entire image is divided into a plurality of regions. Here, the image is divided based on six commonly used hues. Specifically, based on the H value of each pixel,
-R region: -30 or more and less than 30-Y region: 30 or more and less than 90-G region: 90 or more and less than 150-C region: 150 or more and less than 210-B region: 210 or more and less than 270-M region: Divide into 270 or more and less than 330. That is, a process of classifying the constituent pixels of the model image into six classification items according to the classification standard corresponding to the hue value is performed. Here, the correspondence relationship between the region and the H value is an example and can be changed as appropriate.

S22において、分割した領域が全体画像中に占める割合を計算する。ここで、全体画像中に占める割合を、以下のように定義する。
・R領域が全体画像中に占める割合:sRateR
・G領域が全体画像中に占める割合:sRateG
・B領域が全体画像中に占める割合:sRateB
・C領域が全体画像中に占める割合:sRateC
・M領域が全体画像中に占める割合:sRateM
・Y領域が全体画像中に占める割合:sRateY
In S22, the ratio of the divided area in the entire image is calculated. Here, the ratio of the entire image is defined as follows.
-Ratio of the R region in the entire image: sRateR
-Ratio of the G area in the entire image: sRateG
-Ratio of B area in the whole image: sRateB
-Ratio of the C area in the entire image: sRateC
-Ratio of the M area in the entire image: sRateM
The ratio of the Y area in the entire image: sRateY

ここで、上記割合は、例えばB領域については、
sRateB=(全体画像中のB領域の画素数)÷(全体画像の全画素数)として定義することができるが、他の式によって定義してもよい。
Here, the above ratio is, for example, for the B region.
Although it can be defined as sRateB = (number of pixels in the B region in the entire image) / (total number of pixels in the entire image), it may be defined by another formula.

次に、S23において、分割した領域のうち最も大きい領域(以下、「お手本候補領域」ということがある。)を特定し、その領域の色相を特定色相として決定する。   Next, in S23, the largest area among the divided areas (hereinafter, sometimes referred to as “example candidate area”) is specified, and the hue of the area is determined as the specific hue.

S24において、お手本候補領域のどの部分をお手本の特徴量とするかを決定する。例えば、図6に示す画像を全体画像として取得した場合、空の部分(B領域)の面積が大きいため、空の部分がお手本候補領域となる。しかしながら、図6中にAで囲った領域とBで囲った領域では、同じ青色であっても明度、彩度が異なる。そのため、空の部分全体をお手本画像とすると、ユーザが濃い空色部分に注目していたとしても、濃い空色部分と薄い空色部分が平均されてしまうことになる。そのため、お手本とする領域をさらに特定する必要がある。   In S24, it is determined which part of the model candidate area is to be the model feature. For example, when the image shown in FIG. 6 is acquired as the entire image, the area of the empty portion (B region) is large, so the empty portion becomes the model candidate region. However, in the region surrounded by A and the region surrounded by B in FIG. 6, the lightness and saturation are different even for the same blue color. Therefore, if the entire sky portion is used as a model image, even if the user is paying attention to the dark sky blue portion, the dark sky blue portion and the light sky blue portion are averaged. For this reason, it is necessary to further specify a model area.

図7に、お手本特徴量決定処理のフローチャートを示す。   FIG. 7 shows a flowchart of the model feature amount determination process.

まず、S31において、全体画像を分割する(図8参照)。なお、図8に示す例においては、全体画像を6分割したが、4分割、8分割等であってもよい。   First, in S31, the entire image is divided (see FIG. 8). In the example shown in FIG. 8, the entire image is divided into six parts, but it may be divided into four parts, eight parts, or the like.

次に、S32において、分割画像ごとに特定色相領域における特徴量を抽出する。抽出する特徴量としては、特定色相領域におけるS値、V値の代表値を挙げることができるが、他の特徴量であってもよい。S値、V値の代表値を特徴量とする場合は、分割領域ごとに、2つの特徴量を抽出することになる。   Next, in S32, the feature amount in the specific hue region is extracted for each divided image. As the feature quantity to be extracted, representative values of the S value and the V value in the specific hue region can be given, but other feature quantities may be used. When the representative value of the S value and the V value is used as the feature value, two feature values are extracted for each divided region.

S33において、S32で分割領域ごとに抽出した特徴量をソートして表示する。図9(A)、(B)に表示手段6上での表示態様の一例を示す。図9(A)においては、取得したS値の代表値を、彩度として表示している。図9(A)中の目盛30A〜30Fの座標値は、分割領域ごとに抽出したS値の代表値に対応している。したがって、分割領域のS値の代表値が偏っている場合は、図10(A)のように目盛も偏って配置されていてもよい。   In S33, the feature quantities extracted for each divided area in S32 are sorted and displayed. FIGS. 9A and 9B show examples of display modes on the display means 6. In FIG. 9A, the representative value of the acquired S value is displayed as saturation. The coordinate values of the scales 30A to 30F in FIG. 9A correspond to the representative values of the S values extracted for each divided region. Therefore, when the representative values of the S values of the divided areas are biased, the scales may be also biased as shown in FIG.

また、図9(B)においては、取得したV値の代表値を、明度として表示している。図9(B)中の目盛40A〜40Fの座標値は、分割領域ごとに抽出したV値の代表値に対応している。したがって、分割領域のS値の代表値が偏っている場合は、図10(B)のように目盛も偏って配置されていてもよい。   In FIG. 9B, the representative value of the acquired V value is displayed as brightness. The coordinate values of the scales 40A to 40F in FIG. 9B correspond to the representative values of the V values extracted for each divided region. Therefore, when the representative values of the S values of the divided areas are biased, the scales may be also biased as shown in FIG.

ユーザは、表示手段6に表示されているカーソル20を、操作パネル4及び/またはタッチパネルを用いて操作することにより、所望の特徴量を選択することができる。また、目盛に番号を付して表示し、所望の番号を直接入力させるよう構成してもよい。   The user can select a desired feature amount by operating the cursor 20 displayed on the display means 6 using the operation panel 4 and / or the touch panel. Further, the scale may be displayed with a number, and a desired number may be directly input.

S34において、S33で選択された特徴量に対応する分割領域を、お手本画像とする。   In S34, the divided area corresponding to the feature amount selected in S33 is set as a model image.

図5に説明を戻す。S25において、決定されたお手本画像から第1特徴量を抽出する。具体的には、お手本画像から特定色相の領域を抽出し、抽出した領域におけるH値の代表値、S値の代表値、V値の代表値を抽出する。なお、S値の代表値及びV値の代表値は、図7のS32で既に取得したものをRAM7等に記憶している場合は、再度計算する必要はない。   Returning to FIG. In S25, a first feature amount is extracted from the determined model image. Specifically, a region of a specific hue is extracted from the model image, and a representative value of H value, a representative value of S value, and a representative value of V value in the extracted region are extracted. Note that the representative value of the S value and the representative value of the V value do not need to be calculated again when the values already acquired in S32 of FIG. 7 are stored in the RAM 7 or the like.

図4に説明を戻す。S14において、元画像の画素をHSVに変換する。この処理は、S12と同じであるので説明を省略する。   Returning to FIG. In S14, the pixels of the original image are converted to HSV. Since this process is the same as S12, a description thereof will be omitted.

次に、図4中のS15の第2特徴量を抽出するための処理について図11を参照しつつ説明する。図11は、第2特徴量抽出処理のフローチャートである。   Next, the process for extracting the second feature amount in S15 in FIG. 4 will be described with reference to FIG. FIG. 11 is a flowchart of the second feature amount extraction process.

S41において、特定色相の領域を抽出する。   In S41, a region of a specific hue is extracted.

S42において、元画像に対し、上記特定色相の領域を抽出し、当該特定色相における、代表値及び特定色相の領域が元画像中に示す割合を取得する。特定色相がB(青)の場合は、以下のように定義される。また、他の色が特定色相である場合においても、同様に処理される。
・B領域の代表値:iHb,iSb,iVb
In S42, the region of the specific hue is extracted from the original image, and the ratio of the representative value and the region of the specific hue in the original image in the specific hue is acquired. When the specific hue is B (blue), it is defined as follows. The same processing is performed when the other color has a specific hue.
・ Representative value of B area: iHb, iSb, iVb

また、B領域が元画像中に占める割合を、以下のように定義する。
・B領域が元画像中に占める割合:iRateB
Further, the ratio of the area B to the original image is defined as follows.
-Ratio of B area in original image: iRateB

次に、図4のS16において実行される、第1特徴量及び第2特徴量に基いて元画像を補正する処理について詳細を説明する。この処理は、元画像の各画素のH値、S値、V値をそれぞれ変換することによって行われる。   Next, details of the process of correcting the original image based on the first feature value and the second feature value, which are executed in S16 of FIG. 4, will be described. This process is performed by converting the H value, S value, and V value of each pixel of the original image.

B領域の変換後のH’値については、S21で設定したB領域中の最小値をHmin,B領域中の最大値をHmaxとすれば、以下の式で求めることができる。   The H ′ value after the conversion of the B area can be obtained by the following equation, assuming that the minimum value in the B area set in S21 is Hmin and the maximum value in the B area is Hmax.

H<iHのときは、
H’=Hmin+(sHb−Hmin)×(H−Hmin)÷(iHb−Hmin)
When H <iH,
H ′ = Hmin + (sHb−Hmin) × (H−Hmin) ÷ (iHb−Hmin)

H>iHのときは、
H’=sHb+(Hmax−sHb)×(H−iHb)÷(Hmax−iHb)
When H> iH,
H ′ = sHb + (Hmax−sHb) × (H−iHb) ÷ (Hmax−iHb)

この式を用いることにより、変換対象の領域のみを変換することができる。   By using this equation, only the region to be converted can be converted.

ここで、H値の変換においては、図12に示すような色相補正テーブルを用いることができる。図12は、B領域のみを変換対象とした場合の色相補正テーブルである。図12に示す色相補正テーブルにおいては、B領域以外のH値は、H’=Hであるから、画像補正は行われない。   Here, in the conversion of the H value, a hue correction table as shown in FIG. 12 can be used. FIG. 12 is a hue correction table in the case where only the B region is to be converted. In the hue correction table shown in FIG. 12, since the H values other than the B area are H ′ = H, image correction is not performed.

次に、S値及びV値における変換について説明する。S値及びY値は、H値によって分割された領域ごとに値が変換される。例えば、
S ≦ iSbのときは、
S’=S×(sSb÷iSb) ・・・(式1)
S > iSbのときは、
S’=1+(S−1)×{(1−sSb)÷(1−iSb)} ・・・(式2)
V ≦ iVbのときは、
V’=V×(sVb÷iVb) ・・・(式3)
V > iVbのときは、
V’=1+(V−1)×{(1−sVb)÷(1−iVb)} ・・・(式4)
の式で求めることができる。
なお、以下においては、上記S値の変換式で定義される変換テーブルを彩度補正テーブルということがあり、また、上記V値の変換式で定義される変換テーブルを明度補正テーブルということがある。
Next, conversion in the S value and the V value will be described. The S value and the Y value are converted for each area divided by the H value. For example,
When S ≦ iSb,
S ′ = S × (sSb ÷ iSb) (Formula 1)
When S> iSb,
S ′ = 1 + (S−1) × {(1−sSb) ÷ (1−iSb)} (Formula 2)
When V ≦ iVb,
V ′ = V × (sVb ÷ iVb) (Formula 3)
When V> iVb,
V ′ = 1 + (V−1) × {(1−sVb) ÷ (1−iVb)} (Formula 4)
It can be calculated by the following formula.
In the following, the conversion table defined by the S value conversion formula may be referred to as a saturation correction table, and the conversion table defined by the V value conversion formula may be referred to as a brightness correction table. .

次に、図4のS17における、プリンタ10に適するフォーマット(例えば、RGB値)に変換するための変換式について説明する。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。   Next, a conversion formula for converting into a format (for example, RGB value) suitable for the printer 10 in S17 of FIG. 4 will be described. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.

(以下で示すin, fl, m, nは、HSVからRGBを算出する過程で利用する媒介変数である)
in を (H÷60)の整数部分、fl を (H÷60)の小数部分とする。
in が偶数の場合
fl = 1-fl
m = V × (1-S)
n = V × (1-S×fl)
inが0の時
R = V × 255
G = n × 255
B = m × 255
inが1の時
R = n × 255
G = V × 255
B = m × 255
inが2の時
R = m × 255
G = V × 255
B = n × 255
inが3の時
R = m × 255
G = n × 255
B = V × 255
inが4の時
R = n × 255
G = m × 255
B = V × 255
inが5の時
R = V × 255
G = m × 255
B = n × 255
として変換される。
(In, fl, m, and n shown below are parameters used in the process of calculating RGB from HSV)
Let in be the integer part of (H ÷ 60) and fl be the decimal part of (H ÷ 60).
If in is an even number
fl = 1-fl
m = V × (1-S)
n = V × (1-S × fl)
When in is 0
R = V × 255
G = n × 255
B = m × 255
When in is 1
R = n × 255
G = V × 255
B = m × 255
When in is 2
R = m × 255
G = V × 255
B = n × 255
When in is 3
R = m × 255
G = n × 255
B = V × 255
When in is 4
R = n × 255
G = m × 255
B = V × 255
When in is 5
R = V × 255
G = m × 255
B = n × 255
Is converted as

上述したとおり本発明によれば、全体画像からお手本とする色領域を決定し、ユーザによって所望の色合いを決定させるから、ユーザの所望する画像補正処理を高精度に行うことができる。また、上述した画像補正処理を行うことによって、H値に基いて分割された領域ごとに、元画像の色合いをお手本画像の色合いに補正することができる。   As described above, according to the present invention, a color area to be a model is determined from the entire image, and a desired color is determined by the user, so that the image correction process desired by the user can be performed with high accuracy. In addition, by performing the above-described image correction processing, it is possible to correct the hue of the original image to the hue of the model image for each region divided based on the H value.

[画像補正処理(第2実施形態)]
上述したH値の変換処理においては、特定色相のみのH値を変換するため、画像補正した領域と画像補正しなかった領域との間に擬似輪郭(階調とび)が生成するおそれがある。すなわち、色相補正テーブルとして表現した場合は、図12のようになる。図12に示す色相補正テーブルは、元画像のH値の代表値を「H」としてX軸にとり、お手本領域のH値の代表値を「H’」としてY軸にとったものである。階調とびの発生が好ましくない場合は、H値に対し、以下のような画像補正処理を行えばよい。なお、以下の説明においては、B領域を特定色相とした場合について説明するが、他の領域を特定色相とした場合においても、基本的に処理は同じである。
[Image Correction Processing (Second Embodiment)]
In the H value conversion process described above, since the H value of only a specific hue is converted, there is a possibility that a pseudo contour (tone jump) may be generated between the image-corrected region and the image-uncorrected region. That is, when expressed as a hue correction table, it is as shown in FIG. The hue correction table shown in FIG. 12 is obtained by taking the representative value of the H value of the original image as “H” on the X axis and taking the representative value of the H value of the model area as “H ′” on the Y axis. When the occurrence of gradation skip is not preferable, the following image correction process may be performed on the H value. In the following description, the case where the B area is set to the specific hue will be described. However, the process is basically the same when the other area is set to the specific hue.

H’=(y2-y1)÷(x2-x1)×H - (y2-y1)÷(x2-x1)×x2 + y2
・・・(式5)
ここで、x1,x2,y1,y2は、以下のように定義される。
H ′ = (y2−y1) ÷ (x2−x1) × H− (y2−y1) ÷ (x2−x1) × x2 + y2
... (Formula 5)
Here, x1, x2, y1, and y2 are defined as follows.

iHc≦H<iHbのときは、
(x1,y1)= (iHc,sHc)
(x2,y2)= (iHb,sHb)
When iHc ≦ H <iHb,
(X1, y1) = (iHc, sHc)
(X2, y2) = (iHb, sHb)

iHb≦H<iHmのときは、
(x1,y1)= (iHb,sHb)
(x2,y2)= (iHm,sHm)
When iHb ≦ H <iHm,
(X1, y1) = (iHb, sHb)
(X2, y2) = (iHm, sHm)

この場合、HとH’との関係は、図13に示すような色相補正テーブルとしても表現することができる。この色相補正テーブルにおいては、色空間上B領域に隣接するC領域におけるH値の代表値(iHc=180,sHc=180)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれ、また、色空間上B領域に隣接するM領域におけるH値の代表値(iHm=300,sHm=300)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれることになる。   In this case, the relationship between H and H 'can also be expressed as a hue correction table as shown in FIG. In this hue correction table, the H value representative value (iHc = 180, sHc = 180) in the C region adjacent to the B region in the color space and the H value representative value (iHb, sHb) in the B region are linear. In addition, the representative value of the H value (iHm = 300, sHm = 300) in the M region adjacent to the B region in the color space and the representative value of the H value in the B region (iHb, sHb) are connected by a straight line. It will be.

このため、H値が180<H≦210のC領域、及びH値が270<H≦300のM領域についても、変換されることになる。この変換量は、B領域に近い値ほど大きくなる。   Therefore, the C region where the H value is 180 <H ≦ 210 and the M region where the H value is 270 <H ≦ 300 are also converted. This conversion amount becomes larger as the value is closer to the B region.

上記のとおり、画像補正処理の第2実施形態においては、変換対象ではない領域であっても、色空間上隣接するH値については一部変換されることになるから、変換対象の領域の変換対象ではない領域との間に擬似輪郭(階調とび)が生成されることを防ぐことができる。   As described above, in the second embodiment of the image correction processing, even if the region is not the conversion target, the H value adjacent in the color space is partially converted. It is possible to prevent the generation of a pseudo contour (gradation skip) between a non-target region.

[画像補正処理(第3実施形態)]
上記画像補正処理の第2実施形態においては、S値及びV値に対し、領域ごとに補正カーブ(変換式)を独立して用いるため、擬似輪郭(階調とび)が生成されるおそれがある。すなわち、図14に示すように、領域ごとに、SとS’との関係を示すテーブルを有しており、隣接する領域におけるテーブルの性質を何ら考慮していない。
[Image Correction Processing (Third Embodiment)]
In the second embodiment of the image correction process, since a correction curve (conversion formula) is independently used for each region with respect to the S value and the V value, a pseudo contour (tone jump) may be generated. . That is, as shown in FIG. 14, each region has a table indicating the relationship between S and S ′, and no consideration is given to the nature of the table in adjacent regions.

本実施形態においては、図15に示すように、各色領域における補正カーブを滑らかにすることで階調とびを防止できる。   In the present embodiment, as shown in FIG. 15, it is possible to prevent gradation skip by smoothing the correction curve in each color region.

本実施形態の具体的な処理について以下に説明する。図16及び図17を参照しつつB領域の一部の画像補正処理について説明を行うが、他の領域についても処理の内容は基本的には同じである。   Specific processing of this embodiment will be described below. The image correction process for a part of the area B will be described with reference to FIGS. 16 and 17, but the contents of the process are basically the same for the other areas.

本実施形態における補正されたS値(Sb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領域)にH値の代表値(Hcmid)、
− 上記式(1)に対応する変換式で変換された(すなわち、B領域の彩度補正テーブルを用いて算出された)変換対象領域のS値(Sb’、Hbmidに対応するもの)、
− 上記式(2)に対応する変換式で変換された(すなわち、C領域の彩度補正テーブルを用いて算出された)隣接する領域のS値(Sc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
The corrected S value (Sb ″) in this embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-S value (corresponding to Sb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (1) (that is, calculated using the saturation correction table of the B area),
-S value of the adjacent area (that corresponds to Sc ', Hcid) converted by the conversion formula corresponding to the above formula (2) (that is, calculated using the saturation correction table of the C area),
Can be obtained by the following equation.

Sb’’ = {(H−Hcmid)×Sb’+(Hbmid−H)×Sc’}÷
{(Hbmid−Hcmid)} ・・・(式6)
Sb ″ = {(H−Hcmid) × Sb ′ + (Hbmid−H) × Sc ′} ÷
{(Hbmid−Hcmid)} (Formula 6)

また、本実施形態における補正されたV値(Vb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領域)にH値の代表値(Hcmid)、
− 上記式(3)に対応する変換式で変換された(すなわち、B領域の明度補正テーブルを用いて算出された)変換対象領域のV値(Vb’、Hbmidに対応するもの)、
− 上記式(4)に対応する変換式で変換された(すなわち、C領域の明度補正テーブルを用いて算出された)隣接する領域のS値(Vc’、Hcmidに対応するもの)、
を用いて、以下の式で求めることができる。
Further, the corrected V value (Vb ″) in the present embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-V value (corresponding to Vb ′, Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (3) (that is, calculated using the brightness correction table of the B area),
-S value of the adjacent area (that corresponds to Vc ′, Hcmid) converted by the conversion formula corresponding to the above formula (4) (that is, calculated using the brightness correction table of the C area),
Can be obtained by the following equation.

Vb’’ = {(H−Hcmid)×Vb’+(Hbmid−H)×Vc’}÷
{(Hbmid−Hcmid)} ・・・(式7)
Vb ″ = {(H−Hcmid) × Vb ′ + (Hbmid−H) × Vc ′} ÷
{(Hbmid−Hcmid)} (Expression 7)

上述した処理を、図18に示されるB領域の一部(H値の範囲:210<H≦240)及びC領域の一部(H値の範囲180<H≦210)に対して行う。これにより、入力の色相値(H)に応じた重み付け計算により、出力の彩度値(S’’)及び明度値(V’’)を求めることにより、各色相間の補正効果を滑らかにすることができる。   The above-described processing is performed for a part of the B region (H value range: 210 <H ≦ 240) and a part of the C region (H value range 180 <H ≦ 210) shown in FIG. As a result, the output saturation value (S ″) and lightness value (V ″) are obtained by weighting calculation according to the input hue value (H), thereby smoothing the correction effect between the hues. Can do.

また、上述した画像補正処理を適宜組合せて本発明を実現することも可能である。すなわち、Hにおいては、画像補正を際立たせるようにし、SとVにおいては階調とびを防止する処理するよう構成することもできる。   Further, the present invention can be realized by appropriately combining the above-described image correction processes. That is, it is possible to make the image correction stand out in H, and to prevent gradation skipping in S and V.

本発明の一例として挙げた分割領域数である「6」は、色彩を表現する色域の1つであるRGB空間(頂点数8)から、無彩色である白と黒とを除いた頂点の数「6」と同じである。人が色彩を識別するには、色領域の数として6であれば充分であり、6より少なくすると、利用者がお手本画像のように変換されていないと感じる恐れがある。また6より細かく分割すれば、より変換精度は高くなる。しかしながら、人には識別できなくなる可能性が高くなり、また、分割数の増加に伴い計算量も増える。プリンタを用いる場合、印刷結果として補正対象の画像を得るまでの時間が遅くなり、利用者の不満も増加する可能性も高くなるので、分割される領域の数は6が好ましいと考えられる。   The number of divided areas “6” given as an example of the present invention is the number of vertices excluding white and black, which are achromatic colors, from the RGB space (number of vertices 8) that is one of the color gamuts expressing colors. It is the same as the number “6”. In order for a person to identify a color, six is sufficient as the number of color regions, and if it is less than six, the user may feel that it has not been converted like a model image. If the data is divided more finely than 6, the conversion accuracy becomes higher. However, there is a high possibility that the person cannot be identified, and the amount of calculation increases as the number of divisions increases. In the case of using a printer, the time until obtaining an image to be corrected as a printing result is delayed, and there is a high possibility that user dissatisfaction will increase.

上述したとおり、本発明は、記憶媒体より入力された画像に対し、スキャナより入力された画像の特徴を有するよう画像補正を行うことにより、簡易な操作で、かつ、感覚的に画像補正の操作を行うことができる。   As described above, the present invention performs an image correction operation in a simple and sensuous manner by performing image correction on an image input from a storage medium so as to have the characteristics of the image input from the scanner. It can be performed.

また、本発明の画像補正処理によれば、例えば、元画像として建物と空が写っている元画像に対し、空の青を鮮やかな海の青に補正したい場合は、お手本画像として鮮やかな海の写っている写真をスキャナで読み込むという作業によって、元画像の青色が鮮やかな海の青に補正することができる。   Further, according to the image correction processing of the present invention, for example, when it is desired to correct the sky blue to the bright sea blue with respect to the original image in which the building and the sky are reflected as the original image, You can correct the blue color of the original image to the bright blue of the ocean by reading the photo with the scanner.

また、人の顔が映っている画像において、肌色を明るくしたい場合は、明るい肌色として移っている手のひら等の写真をスキャナで読み込むという作業によって、元画像の肌色を明るい肌色に補正することができる。   Also, if you want to brighten the skin color in an image showing a human face, you can correct the skin color of the original image to a light skin color by reading a picture of the palm that has moved to a bright skin color with a scanner. .

さらに、濃い色、薄い色等の詳細なパラメータを間接的、感覚的な操作で選択することができ、ユーザの希望に沿った画像補正処理が可能となる。   Further, detailed parameters such as dark colors and light colors can be selected by indirect and sensory operations, and image correction processing according to the user's wishes can be performed.

ユーザは、パラメータの入力等の必要がないので、何ら専門的な知識が必要とせず、画像補正のお手本となる画像を読み取らせるだけで、所望の画像補正を行うことができる。   Since the user does not need to input parameters or the like, he / she does not need any specialized knowledge and can perform desired image correction only by reading an image serving as a model for image correction.

なお、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、スキャナからお手本画像を読み取ることに代えて、記憶媒体よりお手本画像として画像を読み取ることもできる。また、記憶媒体から元画像を読み取ることに代えて、スキャナより元画像を読み込むこともできる。例えば、画像処理装置として、スキャナおよびプリンタが搭載された複合機を実施形態としてあげたが、これに限らず、例えば、パーソナルコンピュータのような情報処理装置にて、画像補正を行い、情報処理装置に接続されたプリンタに印刷処理を行わせる構成であってもよい。   In addition, this invention is not limited to the said embodiment, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention. For example, instead of reading a model image from a scanner, the image can be read as a model image from a storage medium. Further, instead of reading the original image from the storage medium, the original image can be read from the scanner. For example, a multifunction machine equipped with a scanner and a printer is described as an embodiment as an image processing apparatus. However, the present invention is not limited to this. For example, an information processing apparatus such as a personal computer performs image correction, and the information processing apparatus. The printer may be configured to perform printing processing.

また、上述した処理を実行するための画像処理方法としても本発明は実現可能である。さらに、当該画像処理方法をコンピュータで実行させるためのプログラム、及び、そのプログラムが記録された記録媒体としても本発明は実現可能である。   The present invention can also be realized as an image processing method for executing the above-described processing. Further, the present invention can be realized as a program for causing the computer to execute the image processing method and a recording medium on which the program is recorded.

また、上述したフローチャートは単なる一例であり、上記処理と同等の結果を得ることできる処理であれば、他のフローチャートによって処理を実現してもよい。   Further, the above-described flowchart is merely an example, and the process may be realized by another flowchart as long as it can obtain a result equivalent to the above-described process.

さらに、補正された元画像を印刷するのみならず、記憶媒体に記憶したり、他の装置に送信することも可能である。   Furthermore, not only can the corrected original image be printed, but it can also be stored in a storage medium or transmitted to another device.

画像処理装置の外観を示した図である。It is the figure which showed the external appearance of the image processing apparatus. 画像処理装置の内部構成を示した図である。It is the figure which showed the internal structure of the image processing apparatus. ユーザの動作と画像処理装置の基本処理のフローを示した図である。It is a figure showing a user's operation and a flow of basic processing of the image processing apparatus. 本発明の第1実施形態における基本処理のフローチャートである。It is a flowchart of the basic processing in 1st Embodiment of this invention. 色相特定処理のフローチャートである。It is a flowchart of a hue specific process. 全体画像の一例を示した図である。It is the figure which showed an example of the whole image. お手本画像決定処理のフローチャートである。It is a flowchart of a model image determination process. 分割された全体画像の一例を示した図である。It is the figure which showed an example of the divided | segmented whole image. 表示手段の表示例を示した図である。It is the figure which showed the example of a display of a display means. 表示手段の表示例を示した図である。It is the figure which showed the example of a display of a display means. 第2特徴量抽出処理のフローチャートである。It is a flowchart of the 2nd feature-value extraction process. 色相補正テーブルを示した図である。It is the figure which showed the hue correction table. 色相補正テーブルを示した図である。It is the figure which showed the hue correction table. 彩度補正テーブルを示した図である。It is the figure which showed the saturation correction table. 彩度補正のカーブの変化を示した図である。It is the figure which showed the change of the curve of saturation correction | amendment. B領域及びC領域における彩度補正テーブルを示した図である。It is the figure which showed the saturation correction table in B area | region and C area | region. B領域及びC領域における補正されたS値を示した図である。It is the figure which showed the corrected S value in B area | region and C area | region. B領域及びC領域の一部が変換対象となることを示した図である。It is the figure which showed that a part of B area | region and C area | region became conversion object.

符号の説明Explanation of symbols

1 画像処理装置
2 スキャナ
3 メモリスロット
4 操作パネル
5 排出口
6 表示手段
10 プリンタ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Scanner 3 Memory slot 4 Operation panel 5 Ejection port 6 Display means 10 Printer

Claims (10)

第1画像入力手段、第2画像入力手段、色相特定手段、指定領域決定手段、特徴量抽出手段、画像補正手段を備える画像処理装置において、
前記第1画像入力手段は、第1画像を入力し、
前記第2画像入力手段は、第2画像を入力し、
前記色相特定手段は、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定し、
前記指定領域決定手段は、
前記第1画像を複数の分割領域に分割し、
前記分割領域ごとに、前記特定色相の領域を抽出し、
前記分割領域ごとに、前記抽出した特定色相の領域から前記分割領域ごとに異なり得る代表的な色値であって、前記抽出した特定色相の領域を形成する画素に応じて決定される前記代表的な色値を表示用特徴量として抽出し、
前記分割領域それぞれに対応した複数の表示用特徴量に関する情報を、前記複数の表示用特徴量の中から1つの表示用特徴量をユーザに選択させるために、表示部に表示し
前記選択された1つの表示用特徴量に対応する前記分割領域を指定領域として決定し、
前記特徴量抽出手段は、前記第1画像中の前記指定領域の前記代表的な色値を第1特徴量として抽出するとともに、前記第2画像中の特定色相の領域を形成する画素に応じて決定される代表的な色値を第2特徴量として抽出し、
前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2特徴量が前記第1特徴量に合致するように、前記第2画像を画像補正する、
ことを特徴とする画像処理装置。
In an image processing apparatus comprising a first image input means, a second image input means, a hue identification means, a designated area determination means, a feature amount extraction means, and an image correction means,
The first image input means inputs a first image,
The second image input means inputs a second image,
The hue specifying means specifies a hue component having the largest component ratio among the hue components constituting the first image as a specific hue,
The designated area determining means includes:
Dividing the first image into a plurality of divided regions;
For each of the divided regions, extract the region of the specific hue,
For each of the divided areas, a representative color that may vary for each of the divided areas from the area of the specific hue and the extracted, the representative determined in accordance with the pixel to form regions of a specific hue and the extracted extracting a color value as the display characteristic quantity,
Information on a plurality of display feature values corresponding to each of the divided regions is displayed on a display unit so that the user can select one display feature value from the plurality of display feature values ,
Determining the divided area corresponding to one display feature quantity said selected as the designated region,
The feature amount extraction unit extracts the representative color value of the designated region in the first image as a first feature amount , and according to pixels forming a region of a specific hue in the second image. A representative color value to be determined is extracted as the second feature amount,
The image correction means corrects the second image based on the first feature value and the second feature value so that the second feature value matches the first feature value .
An image processing apparatus.
前記指定領域決定手段によって分割された領域のうち、当該分割領域における前記特定色相の領域が占める割合が所定量以下の分割領域に対応する前記表示用特徴量については、前記表示の対象から除外する、
ことを特徴とする請求項1に記載の画像処理装置。
Of the areas divided by the designated area determining means, the display feature amount corresponding to a divided area in which the specific hue area in the divided area occupies a predetermined amount or less is excluded from the display target. ,
The image processing apparatus according to claim 1.
前記第1特徴量及び前記第2特徴量に基づいて、補正データを作成する補正データ作成手段を備え、
前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正する、
ことを特徴とする請求項1または2に記載の画像処理装置。
Correction data creating means for creating correction data based on the first feature quantity and the second feature quantity;
The image correcting means corrects the second image based on the correction data;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記特徴量抽出手段は、
前記第1画像、前記第2画像それぞれから色相に関する特徴量を抽出し、
前記色相に関する特徴量に基いて前記第1画像及び前記第2画像それぞれを複数の領域に分割し、
分割した領域ごとに色相以外に関する特徴量を抽出し、
前記補正データ作成手段は、
前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相に関する特徴量の代表値を抽出し、当該代表値に基いて色相補正データを作成し、
前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相以外に関する特徴量の代表値を抽出し、
前記画像補正手段は、
前記第2画像における画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、
前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正する、
ことを特徴とする請求項3に記載の画像処理装置。
The feature amount extraction means includes:
Extracting a feature quantity related to hue from each of the first image and the second image;
Dividing each of the first image and the second image into a plurality of regions based on the feature amount relating to the hue;
Extract features other than hue for each divided area,
The correction data creating means includes
For each of the divided areas of the first image and the second image, a representative value of the feature value related to the hue is extracted, and hue correction data is created based on the representative value,
For each of the divided areas of the first image and the second image, extract a representative value of the feature amount related to other than the hue,
The image correcting means includes
Correcting a feature amount related to a hue for each pixel in the second image based on the hue correction data;
Correcting a feature amount related to other than the hue for each pixel of the second image based on a representative value for each region;
The image processing apparatus according to claim 3.
前記色相特定手段は、HSV空間におけるH値に基いて色相を特定する、
ことを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
The hue specifying means specifies the hue based on the H value in the HSV space;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記表示用特徴量は、明度及び/または彩度に関する特徴量である、
ことを特徴とする請求項1〜5のいずれかに記載の画像処理装置。
The display feature amount is a feature amount related to lightness and / or saturation.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を第1画像として入力し、
前記第2画像入力手段は、印刷媒体に記憶された画像情報を第2画像として入力する、ことを特徴とする請求項1〜6のいずれかに記載の画像処理装置。
The first image input means inputs an image optically read from a print medium set at a predetermined reading position as a first image,
The image processing apparatus according to claim 1, wherein the second image input unit inputs image information stored in a print medium as a second image.
印刷制御手段をさらに有し、
前記印刷制御手段は、前記補正された第2画像情報を印刷するための処理を行う、
ことを特徴とする請求項1〜7のいずれかに記載の画像処理装置。
A printing control unit;
The print control means performs a process for printing the corrected second image information.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
第1画像を入力する第1画像入力ステップ、
第2画像を入力する第2画像入力ステップ、
前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、
前記第1画像を複数の分割領域に分割する分割ステップ、
前記分割領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、
前記分割領域ごとに、前記抽出した特定色相の領域から前記分割領域ごとに異なり得る代表的な色値であって、前記抽出した特定色相の領域を形成する画素に応じて決定される前記代表的な色値を表示用特徴量として抽出する表示量特徴量抽出ステップ、
前記分割領域それぞれに対応した複数の表示用特徴量に関する情報を、前記複数の表示用特徴量の中から1つの表示用特徴量をユーザに選択させるために、表示部に表示する表示ステップ
前記選択された1つの表示用特徴量に対応する前記分割領域を指定領域として決定する指定領域決定ステップ、
前記第1画像中の前記指定領域の前記代表的な色値を第1特徴量として抽出する第1特徴量抽出ステップ、
前記第2画像中の特定色相の領域を形成する画素に応じて決定される代表的な色値を第2特徴量として抽出する第2特徴量抽出ステップ、
前記第1特徴量及び前記第2特徴量に基いて、前記第2特徴量が前記第1特徴量に合致するように、前記第2画像を画像補正する画像補正ステップ、
からなる画像処理方法。
A first image input step for inputting a first image;
A second image input step for inputting a second image;
A hue specifying step for specifying a hue component having the largest component ratio among hue components constituting the first image as a specific hue;
A dividing step of dividing the first image into a plurality of divided regions;
A specific hue extraction step for extracting the area of the specific hue for each of the divided areas;
For each of the divided areas, a representative color that may vary for each of the divided areas from the area of the specific hue and the extracted, the representative determined in accordance with the pixel to form regions of a specific hue and the extracted Display amount feature amount extraction step for extracting a color value as a display feature amount;
A display step of displaying information on a plurality of display feature values corresponding to each of the divided regions on a display unit in order to allow a user to select one display feature value from the plurality of display feature values ;
Designated region determining step of determining the divided area corresponding to one display feature quantity said selected as the designated region,
A first feature amount extraction step of extracting the representative color value of the designated area in the first image as a first feature amount;
A second feature amount extracting step of extracting, as the second feature amount , a representative color value determined according to a pixel forming a region of a specific hue in the second image ;
An image correction step for correcting the second image based on the first feature value and the second feature value so that the second feature value matches the first feature value ;
An image processing method comprising:
コンピュータに、
第1画像を入力する第1画像入力ステップ、
第2画像を入力する第2画像入力ステップ、
前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、
前記第1画像を複数の分割領域に分割する分割ステップ、
前記分割領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、
前記分割領域ごとに、前記抽出した特定色相の領域から前記分割領域ごとに異なり得る代表的な色値であって、前記抽出した特定色相の領域を形成する画素に応じて決定される前記代表的な色値を表示用特徴量として抽出する表示量特徴量抽出ステップ、
前記分割領域それぞれに対応した複数の表示用特徴量に関する情報を、前記複数の表示用特徴量の中から1つの表示用特徴量をユーザに選択させるために、表示部に表示する表示ステップ
前記選択された1つの表示用特徴量に対応する前記分割領域を指定領域として決定する指定領域決定ステップ、
前記第1画像中の前記指定領域の前記代表的な色値を第1特徴量として抽出する第1特徴量抽出ステップ、
前記第2画像中の特定色相の領域を形成する画素に応じて決定される代表的な色値を第2特徴量として抽出する第2特徴量抽出ステップ、
前記第1特徴量及び前記第2特徴量に基いて、前記第2特徴量が前記第1特徴量に合致するように、前記第2画像を画像補正する画像補正ステップ、
を実行させるための画像処理プログラム。
On the computer,
A first image input step for inputting a first image;
A second image input step for inputting a second image;
A hue specifying step for specifying a hue component having the largest component ratio among hue components constituting the first image as a specific hue;
A dividing step of dividing the first image into a plurality of divided regions;
A specific hue extraction step for extracting the area of the specific hue for each of the divided areas;
For each of the divided areas, a representative color that may vary for each of the divided areas from the area of the specific hue and the extracted, the representative determined in accordance with the pixel to form regions of a specific hue and the extracted Display amount feature amount extraction step for extracting a color value as a display feature amount;
A display step of displaying information on a plurality of display feature values corresponding to each of the divided regions on a display unit in order to allow a user to select one display feature value from the plurality of display feature values ;
Designated region determining step of determining the divided area corresponding to one display feature quantity said selected as the designated region,
A first feature amount extraction step of extracting the representative color value of the designated area in the first image as a first feature amount;
A second feature amount extracting step of extracting, as the second feature amount , a representative color value determined according to a pixel forming a region of a specific hue in the second image ;
An image correction step for correcting the second image based on the first feature value and the second feature value so that the second feature value matches the first feature value ;
An image processing program for executing
JP2007226586A 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP4826562B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007226586A JP4826562B2 (en) 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing program
US12/202,872 US8174731B2 (en) 2007-08-31 2008-09-02 Image processing device outputting image for selecting sample image for image correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007226586A JP4826562B2 (en) 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2009060431A JP2009060431A (en) 2009-03-19
JP4826562B2 true JP4826562B2 (en) 2011-11-30

Family

ID=40555743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007226586A Expired - Fee Related JP4826562B2 (en) 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP4826562B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8351724B2 (en) 2009-05-08 2013-01-08 Sharp Laboratories Of America, Inc. Blue sky color detection technique

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3126046B2 (en) * 1991-10-28 2001-01-22 富士通株式会社 Color adjustment method and color adjustment device for color image
JPH09172553A (en) * 1995-12-19 1997-06-30 Toppan Printing Co Ltd Gradation correction device
JPH09284583A (en) * 1996-04-17 1997-10-31 Toppan Printing Co Ltd Color correction device
JPH10149441A (en) * 1996-11-20 1998-06-02 Casio Comput Co Ltd Picture processing method and device therefor
JP2005202469A (en) * 2004-01-13 2005-07-28 Fuji Xerox Co Ltd Image processor, image processing method and program

Also Published As

Publication number Publication date
JP2009060431A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
JP4442664B2 (en) Image processing apparatus, image processing method, and image processing program
JP5424712B2 (en) Image processing apparatus, control method therefor, and program
KR100788053B1 (en) Color conversion method and profile generation method
US20090027732A1 (en) Image processing apparatus, image processing method, and computer program
KR100374019B1 (en) Image processing method and apparatus, image processing system, and storage medium
US8174731B2 (en) Image processing device outputting image for selecting sample image for image correction
WO2015122102A1 (en) Image processing apparatus, image processing system, image processing method, and recording medium
JP2022184133A (en) Electronic watermark analyzing device and electronic watermark analyzing method
US8040563B2 (en) Printing method, printing apparatus, corresponding table creating method and programs
US8633943B2 (en) Image display apparatus, image display method, and program storage medium for arranging and displaying images of a plurality of tones
JP4389977B2 (en) Image printing apparatus, image printing method, and image printing program
JP4985243B2 (en) Image processing apparatus and image processing program
JP2008147978A (en) Image processor and image processing method
JP4433017B2 (en) Image processing apparatus and image processing program
JP4826562B2 (en) Image processing apparatus, image processing method, and image processing program
JP2000182045A (en) Method and picture for processing picture, picture processing system and recording medium
US8094343B2 (en) Image processor
JP4831020B2 (en) Image processing apparatus, image processing method, and image processing program
JP4442665B2 (en) Image processing apparatus and image processing program
US8159716B2 (en) Image processing device performing image correction by using a plurality of sample images
JP4831019B2 (en) Image processing apparatus, image processing method, and image processing printing program
JP2008072208A (en) Image processor, and method thereof, and recording medium thereof
JP4840295B2 (en) Image processing apparatus and image processing program
JP4442663B2 (en) Image processing apparatus and image processing program
JP5045836B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4826562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees