JP2016127403A - Image processing apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP2016127403A
JP2016127403A JP2014266030A JP2014266030A JP2016127403A JP 2016127403 A JP2016127403 A JP 2016127403A JP 2014266030 A JP2014266030 A JP 2014266030A JP 2014266030 A JP2014266030 A JP 2014266030A JP 2016127403 A JP2016127403 A JP 2016127403A
Authority
JP
Japan
Prior art keywords
image data
brightness component
image
resolution
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014266030A
Other languages
Japanese (ja)
Other versions
JP6417938B2 (en
Inventor
安富 啓
Hiroshi Yasutomi
啓 安富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014266030A priority Critical patent/JP6417938B2/en
Publication of JP2016127403A publication Critical patent/JP2016127403A/en
Application granted granted Critical
Publication of JP6417938B2 publication Critical patent/JP6417938B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve image quality in image processing for operating the pixel value of a multiple resolution image.SOLUTION: An image processing apparatus includes: color separation means for separating image data into brightness components and color components; adjustment means for generating a parameter for adjusting second image data of the brightness components in accordance with the pixel value of first image data of the brightness components acquired by the color separation means; processing means for operating the pixel value of multiple resolution image data generated from the first image data of the brightness components, and using the parameter generated by the adjustment means to generate second image data of the brightness components; and combination means for combining the second image data of the brightness components generated by the processing means with the image data of the color components acquired by the color separation means.SELECTED DRAWING: Figure 3

Description

本願は、画像処理装置、画像処理方法、プログラム、及び記録媒体に関する。   The present application relates to an image processing apparatus, an image processing method, a program, and a recording medium.

デジタルカメラ等の撮像装置で撮像された画像データに対しては、例えば画像の「明瞭感」や「凹凸感」等を向上させるための種々の画像処理方法が提案されている。明瞭感が欠如した画像とは、例えば実際に人間の目で見た印象と比較して、かすみやモヤがかかった印象を与える画像をいう。また、凹凸感が欠如した画像とは、例えば実際の風景における木々の盛り上がった状態や岩肌のごつごつした状態が表現されず、平面的な印象を与える画像をいう。   For image data picked up by an image pickup apparatus such as a digital camera, various image processing methods have been proposed for improving, for example, the “clearness” and “unevenness” of the image. An image lacking clarity means an image that gives an impression of blurring or fogging compared to an impression actually seen by human eyes. An image lacking a sense of unevenness refers to an image that does not represent, for example, a raised state of trees or a rocky state in an actual landscape and gives a flat impression.

上述した明瞭感や凹凸感の改善に寄与する方法の1つとして、多重解像度画像を用いた画像処理方法が知られている(例えば、特許文献1参照)。この方法では、多重解像度画像を用いたコントラスト強調処理により、更に画像データの明るさ成分の表現可能な範囲を超えてしまう画素が発生する(オーバーレンジが発生する)といった点に対して対策を施している。例えば元画像のヒストグラムをシフトさせたり、元画像の累積ヒストグラム等のオーバーレンジを引き起こす画素数の割合を推定して、多重解像度画像の重みを多重解像度の各レベルにより調整したりするといった対策である。   An image processing method using a multi-resolution image is known as one of methods that contribute to the above-described improvement in clarity and unevenness (see, for example, Patent Document 1). In this method, countermeasures are taken against the point that pixels that exceed the expressible range of the brightness component of the image data are generated due to contrast enhancement processing using a multi-resolution image (overrange occurs). ing. For example, the measure of shifting the histogram of the original image or estimating the ratio of the number of pixels causing the overrange such as the cumulative histogram of the original image and adjusting the weight of the multi-resolution image according to each level of the multi-resolution. .

しかしながら、上述した対策のうち、元画像のヒストグラムをシフトさせる方法は、元画像の明るさの平均値を変化させることにつながるため、写真画像を知覚した人物のその写真画像に対する印象を大きく変えてしまう場合がある。また、上述した対策のうち、元画像の累積ヒストグラム等のオーバーレンジを引き起こす画素数の割合を推定して、多重解像度画像の重みを多重解像度の各レベルにより調整する方法では、計算負荷が大きくなり、本来のコントラスト強調に関して意図する強調を実現することができない。   However, among the measures described above, the method of shifting the histogram of the original image leads to changing the average value of the brightness of the original image. Therefore, the impression of the person who perceived the photographic image is greatly changed. May end up. Among the measures described above, the method of estimating the ratio of the number of pixels that causes overrange, such as the cumulative histogram of the original image, and adjusting the weight of the multiresolution image according to each level of the multiresolution increases the calculation load. Therefore, it is not possible to realize the intended enhancement with respect to the original contrast enhancement.

本発明は上記課題に鑑みてなされたものであり、多重解像度画像データの画素値を操作する画像処理において、画質の向上を図ることを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to improve image quality in image processing for manipulating pixel values of multi-resolution image data.

一態様の画像処理装置において、画像データを明るさ成分と色成分とに分解する色分解手段と、前記色分解手段により得られる明るさ成分の第1の画像データの画素値に応じて、前記明るさ成分の第2の画像データを調整するパラメータを生成する調整手段と、前記明るさ成分の第1の画像データから生成される多重解像度画像データの画素値を操作し、前記調整手段により生成されるパラメータを用いて、前記明るさ成分の第2の画像データを生成する処理手段と、前記処理手段により生成される明るさ成分の第2の画像データと、前記色分解手段により得られる色成分の画像データとを合成する合成手段とを有する。   In the image processing apparatus of one aspect, the color separation unit that separates the image data into a brightness component and a color component, and the pixel value of the first image data of the brightness component obtained by the color separation unit, An adjustment unit that generates a parameter for adjusting the second image data of the brightness component, and a pixel value of the multi-resolution image data generated from the first image data of the brightness component is operated and generated by the adjustment unit Processing means for generating the second image data of the brightness component, the second image data of the brightness component generated by the processing means, and the color obtained by the color separation means Synthesizing means for synthesizing the component image data.

多重解像度画像データの画素値を操作する画像処理において、画質の向上を図ることが可能になる。   Image quality can be improved in image processing that manipulates pixel values of multi-resolution image data.

画像処理装置の全体構成を示す図である。It is a figure which shows the whole structure of an image processing apparatus. 画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an image processing apparatus. 第1実施形態に係る画像処理装置の機能構成を示す図である。It is a figure which shows the function structure of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像処理の概要を示す図である。It is a figure which shows the outline | summary of the image processing which concerns on 1st Embodiment. 明るさ成分と調整比率との関係を示す図である。It is a figure which shows the relationship between a brightness component and an adjustment ratio. 第1実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。It is a figure for demonstrating the operation content of the pixel value of the multi-resolution image data which concerns on 1st Embodiment. 第2実施形態に係る画像処理装置の機能構成を示す図である。It is a figure which shows the function structure of the image processing apparatus which concerns on 2nd Embodiment. 第2実施形態に係る画像処理の概要を示す図である。It is a figure which shows the outline | summary of the image processing which concerns on 2nd Embodiment. 第4実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。It is a figure for demonstrating the operation content of the pixel value of the multi-resolution image data which concerns on 4th Embodiment. 第4実施形態に係る多重解像度画像データの画素値の操作内容を説明するための拡大図である。It is an enlarged view for demonstrating the operation content of the pixel value of the multi-resolution image data which concerns on 4th Embodiment. 第6実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。It is a figure for demonstrating the operation content of the pixel value of the multi-resolution image data which concerns on 6th Embodiment.

以下、実施の形態について詳細に説明する。   Hereinafter, embodiments will be described in detail.

<第1実施形態>
<画像処理装置:構成>
図1は、画像処理装置の全体構成を示す図である。図1に示すように、画像処理装置100は、画像処理プログラム110と、調整比率データベース(以下、単に「DB」と称す)121と、画像操作DB122とを有する。
<First Embodiment>
<Image processing apparatus: configuration>
FIG. 1 is a diagram illustrating the overall configuration of the image processing apparatus. As illustrated in FIG. 1, the image processing apparatus 100 includes an image processing program 110, an adjustment ratio database (hereinafter simply referred to as “DB”) 121, and an image operation DB 122.

画像処理プログラム110は、例えばデジタルカメラ等の撮像装置により撮影された画像データを明るさ成分と色成分とに分解し、明るさ成分の画像データから生成した多重解像度画像データの画素値を操作する処理を行う。また、画像処理プログラム110は、画素値を操作した多重解像度画像データに基づいて、明るさ成分の画像データを再構成し、再構成した明るさ成分の画像データと色成分の画像データとを色合成する処理を行う。画像処理プログラム110は、明るさ成分の画像データを再構成するにあたり、明るさ成分の画像データの画素値に応じて変化するパラメータ(調整比率)を用いる。   The image processing program 110, for example, decomposes image data captured by an imaging device such as a digital camera into brightness components and color components, and manipulates pixel values of multi-resolution image data generated from the brightness component image data. Process. Further, the image processing program 110 reconstructs the brightness component image data based on the multi-resolution image data obtained by manipulating the pixel values, and converts the reconstructed brightness component image data and the color component image data into color. Perform processing to synthesize. The image processing program 110 uses a parameter (adjustment ratio) that changes according to the pixel value of the brightness component image data when reconstructing the brightness component image data.

調整比率DB121は、画像処理プログラム110が明るさ成分の画像データを再構成する際に用いる調整比率の値を格納する。具体的には、調整比率DB121は、明るさ成分の画像データに基づいて算出される明るさ成分の画像データの各画素値に対する調整比率を格納する。   The adjustment ratio DB 121 stores the value of the adjustment ratio used when the image processing program 110 reconstructs the brightness component image data. Specifically, the adjustment ratio DB 121 stores an adjustment ratio for each pixel value of the brightness component image data calculated based on the brightness component image data.

画像操作DB122は、画像処理プログラム110が明るさ成分の画像データから生成した多重解像度画像データの各画素値を操作する際の操作量に関する情報を格納する。具体的には、画像操作DB122は、多重解像度画像データの操作前の各画素値と操作後の各画素値とを対応付けて格納する。   The image operation DB 122 stores information on the operation amount when the image processing program 110 operates each pixel value of the multi-resolution image data generated from the image data of the brightness component. Specifically, the image operation DB 122 stores each pixel value before the operation of the multi-resolution image data and each pixel value after the operation in association with each other.

<画像処理装置100:ハードウェア構成>
次に、画像処理装置100のハードウェア構成について説明する。図2は、画像処理装置のハードウェア構成を示す図である。図2に示すように、画像処理装置100は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、入出力部204を備える。なお、画像処理装置100において、CPU201、ROM202、RAM203、入出力部204は、バス205を介して相互に接続されている。
<Image processing apparatus 100: hardware configuration>
Next, the hardware configuration of the image processing apparatus 100 will be described. FIG. 2 is a diagram illustrating a hardware configuration of the image processing apparatus. As illustrated in FIG. 2, the image processing apparatus 100 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and an input / output unit 204. In the image processing apparatus 100, the CPU 201, ROM 202, RAM 203, and input / output unit 204 are connected to each other via a bus 205.

CPU201は、ROM202に格納された各種プログラム(例えば、画像処理プログラム110)を実行するコンピュータである。   The CPU 201 is a computer that executes various programs (for example, the image processing program 110) stored in the ROM 202.

ROM202は、不揮発性メモリである。ROM202は、CPU201により実行される各種プログラムと、各種プログラムを実行するために必要なブートプログラムや各種DB(例えば、調整比率DB121や画像操作DB122)等を格納する。   The ROM 202 is a nonvolatile memory. The ROM 202 stores various programs executed by the CPU 201, a boot program necessary for executing the various programs, various DBs (for example, the adjustment ratio DB 121 and the image operation DB 122), and the like.

RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置である。RAM203は、ROM202に格納された各種プログラムが、CPU201によって実行される際に展開される作業領域として機能する。   The RAM 203 is a main storage device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). The RAM 203 functions as a work area that is developed when various programs stored in the ROM 202 are executed by the CPU 201.

入出力部204は、周辺モジュールとの間でデータの送受信を行う。画像処理プログラム110がCPU201により実行されることで処理される画像データは、入出力部204を介して入力される。また、処理された画像データは、入出力部204を介して出力される。   The input / output unit 204 transmits / receives data to / from peripheral modules. Image data processed by the CPU 201 executing the image processing program 110 is input via the input / output unit 204. The processed image data is output via the input / output unit 204.

なお、画像処理装置100は、例えばデジタルカメラ等の撮像装置やスキャナ等の画像形成装置、スマートフォン等のように撮影機能や画像形成機能を有する機器に組み込まれて利用される。また、画像処理装置100は、ユーザインタフェース部を接続することで、パソコンや携帯端末等のように、画像編集機能を有する単体の機器として機能させても良い。この場合、画像処理プログラム110は、例えば、持ち運び可能な記録媒体に格納しても良い。   Note that the image processing apparatus 100 is used by being incorporated in an apparatus having an imaging function or an image forming function, such as an imaging apparatus such as a digital camera, an image forming apparatus such as a scanner, or a smartphone. Further, the image processing apparatus 100 may function as a single device having an image editing function, such as a personal computer or a portable terminal, by connecting a user interface unit. In this case, the image processing program 110 may be stored in a portable recording medium, for example.

<画像処理装置100:機能構成>
次に、画像処理プログラム110がCPU201により実行されることで実現される機能について、図3〜図6を用いて説明する。なお、図3は、第1実施形態に係る画像処理装置の機能構成を示す図であり、図4は、第1実施形態に係る画像処理の概要を示す図である。また、図5は、明るさ成分と調整比率との関係を示す図である。図6は、第1実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。
<Image Processing Device 100: Functional Configuration>
Next, functions realized when the image processing program 110 is executed by the CPU 201 will be described with reference to FIGS. FIG. 3 is a diagram illustrating a functional configuration of the image processing apparatus according to the first embodiment, and FIG. 4 is a diagram illustrating an overview of the image processing according to the first embodiment. FIG. 5 is a diagram illustrating the relationship between the brightness component and the adjustment ratio. FIG. 6 is a diagram for explaining the operation content of the pixel value of the multi-resolution image data according to the first embodiment.

以下、図4〜図6を逐次参照しながら、図3に示す画像処理装置100の機能構成について説明する。   Hereinafter, the functional configuration of the image processing apparatus 100 illustrated in FIG. 3 will be described with reference to FIGS. 4 to 6 sequentially.

図3に示すように、画像処理装置100は、画像処理プログラム110がCPU201により実行されることにより、色分解手段310と、明るさ成分処理手段320と、調整手段330と、色合成手段340とを有する。   As shown in FIG. 3, in the image processing apparatus 100, the color separation unit 310, the brightness component processing unit 320, the adjustment unit 330, and the color synthesis unit 340 are executed when the image processing program 110 is executed by the CPU 201. Have

<色分解手段310>
色分解手段310は、入出力部204を介して入力された画像データ(例えば、汎用形式のカラー画像データ)を取得する。図4に示す画像データ400は、色分解手段310により取得された画像データの一例であり、ここでは、i×j画素のサイズを有する画像データ(RGB)として説明する。
<Color separation means 310>
The color separation unit 310 acquires image data (for example, general-purpose color image data) input via the input / output unit 204. The image data 400 shown in FIG. 4 is an example of image data acquired by the color separation unit 310, and will be described here as image data (RGB) having a size of i × j pixels.

色分解手段310が取得する画像データ400のファイル形式は、例えばTIF形式である。また、画像データ400は、例えばRGBの3つの色成分を有する。また、画像データ400は、1画素あたり各色16bitの画素値を有する。   The file format of the image data 400 acquired by the color separation unit 310 is, for example, the TIF format. Further, the image data 400 has, for example, three color components of RGB. The image data 400 has a pixel value of 16 bits for each color per pixel.

なお、画像データ400のファイル形式は、TIF形式に限定されるものではなく、例えば、JPEG形式やPNG形式等の他のファイル形式であっても良い。また、画像データ400の色成分も、RGB色空間に限定されるものではなく、RGB以外の色空間であっても良い。更に、画像データ400の1画素あたりの画素値のデータ量も、各色16bitに限定されるものではない。   The file format of the image data 400 is not limited to the TIF format, and may be another file format such as a JPEG format or a PNG format. Further, the color components of the image data 400 are not limited to the RGB color space, and may be a color space other than RGB. Furthermore, the data amount of the pixel value per pixel of the image data 400 is not limited to 16 bits for each color.

色分解手段310は、画像データ400のRGB色成分をもつ各画素を、例えばYCbCr色空間に変換する。色分解手段310は、例えばRGB色空間からYCbCr色空間への変換を下式(式1)に基づいて行う。   The color separation unit 310 converts each pixel having the RGB color components of the image data 400 into, for example, a YCbCr color space. The color separation unit 310 performs conversion from an RGB color space to a YCbCr color space, for example, based on the following equation (Equation 1).

Figure 2016127403
なお、色分解手段310が変換する変換先の色空間は、YCbCr色空間に限定されず、例えば明るさ成分(又は明度成分)と色成分とを有する色空間であれば、La*b*色空間であっても、HSV色空間等であっても良い。
Figure 2016127403
Note that the conversion destination color space converted by the color separation unit 310 is not limited to the YCbCr color space. For example, if the color space has a brightness component (or brightness component) and a color component, La * b * color It may be a space or an HSV color space.

色分解手段310は、明るさ成分の第1の画像データの一例として、YCbCr色空間に変換することで得られた明るさ成分(Y)の画像データを、明るさ成分処理手段320に入力する。色分解手段310は、同様に、YCbCr色空間に変換することで得られた明るさ成分(Y)の画像データを、調整手段330に入力する。また、色分解手段310は、YCbCr色空間に変換することで得られた色成分(CrCb)の画像データを色合成手段340に入力する。   The color separation unit 310 inputs the brightness component (Y) image data obtained by converting into the YCbCr color space to the brightness component processing unit 320 as an example of the first image data of the brightness component. . Similarly, the color separation unit 310 inputs the image data of the brightness component (Y) obtained by converting into the YCbCr color space to the adjustment unit 330. Further, the color separation unit 310 inputs the color component (CrCb) image data obtained by the conversion to the YCbCr color space to the color synthesis unit 340.

図4に示す画像データ410は、YCbCr色空間に変換することで得られた明るさ成分(Y)の画像データであり、図4に示す画像データ460は、YCbCr色空間に変換することで得られた色成分(CrCb)の画像データである。   The image data 410 shown in FIG. 4 is image data of the brightness component (Y) obtained by converting to the YCbCr color space, and the image data 460 shown in FIG. 4 is obtained by converting to the YCbCr color space. This is image data of the obtained color component (CrCb).

<調整手段330>
調整手段330は、色分解手段310より入力された明るさ成分(Y)の画像データ410(処理前の明るさ成分データであるY値)を取得すると、調整比率DBを参照することで、画素ごとに調整比率αを算出する。調整比率DB121には、例えば下式(式2)が格納されている。
<Adjustment means 330>
When the adjustment unit 330 obtains the image data 410 of the brightness component (Y) input from the color separation unit 310 (Y value that is the brightness component data before processing), the adjustment unit 330 refers to the adjustment ratio DB to obtain a pixel. The adjustment ratio α is calculated for each. For example, the following formula (Formula 2) is stored in the adjustment ratio DB 121.

Figure 2016127403
図4に示す明るさ成分(Y)の画像データ470は、調整手段330により明るさ成分(Y)の画像データの画素ごとに算出された調整比率αを含む。図4の例では、明るさ成分(Y)の画像データ470は、中間の明るさ領域と高低の明るさ領域とを含む。
Figure 2016127403
The brightness component (Y) image data 470 shown in FIG. 4 includes an adjustment ratio α calculated for each pixel of the brightness component (Y) image data by the adjustment unit 330. In the example of FIG. 4, the brightness component (Y) image data 470 includes an intermediate brightness region and a high and low brightness region.

ここで、(式2)により示される処理前の明るさ成分(Y)と調整比率αとの関係を説明する。図5の例では、調整比率DBにおいて規定される明るさ成分と調整比率との関係を示している。処理前の明るさ成分(Y)の値は、(式1)に示すように、[0.0,1.0]の範囲を取る。そこで、図5に示すように、中間の明るさ成分(例えば、Clow<Y<Chigh)の画素に対しては、例えば調整比率α=1を算出し、低い明るさ成分(例えば、Y<=Clow)の画素に対しては、例えば調整比率α=Y/Clowを算出する。また、高い明るさ成分(例えば、Chigh<=Y)の画素に対しては、例えば調整比率α=(1.0−Y)/(1.0−Chigh)を算出する。   Here, the relationship between the brightness component (Y) before processing shown by (Formula 2) and the adjustment ratio α will be described. In the example of FIG. 5, the relationship between the brightness component defined in the adjustment ratio DB and the adjustment ratio is shown. The value of the brightness component (Y) before processing takes the range of [0.0, 1.0] as shown in (Formula 1). Therefore, as shown in FIG. 5, for a pixel with an intermediate brightness component (for example, Clow <Y <High), for example, an adjustment ratio α = 1 is calculated, and a low brightness component (for example, Y <= For the pixel of (Clow), for example, an adjustment ratio α = Y / Clow is calculated. For a pixel having a high brightness component (for example, High <= Y), for example, an adjustment ratio α = (1.0−Y) / (1.0−High) is calculated.

調整手段330は、上述のように算出した調整比率αを用いて、明るさ成分(Y)の強調量を調整する。なお、調整手段330による調整比率の導出方法は、(式2)に限定されるものではなく、(式2)以外の数式を用いて算出しても良い。また、数式によって表現する場合に限定されるものではなく、例えば、明るさ成分データであるY値の入力値に基づく2次元ルックアップテーブルに基づいて調整比率αを導出しても良い。   The adjustment means 330 adjusts the enhancement amount of the brightness component (Y) using the adjustment ratio α calculated as described above. Note that the method of deriving the adjustment ratio by the adjusting unit 330 is not limited to (Expression 2), and may be calculated using an expression other than (Expression 2). In addition, the expression is not limited to the case where it is expressed by a mathematical expression. For example, the adjustment ratio α may be derived based on a two-dimensional lookup table based on an input value of a Y value that is brightness component data.

調整手段330により画素ごとに算出された調整比率αは、明るさ成分処理手段320の再構成手段323に入力される。なお、調整比率αは、例えば、明るさ成分(Y)の画像データ470の画素ごとに算出されるため、調整比率をα(x,y)として説明する。   The adjustment ratio α calculated for each pixel by the adjustment unit 330 is input to the reconstruction unit 323 of the brightness component processing unit 320. Note that the adjustment ratio α is calculated for each pixel of the image data 470 of the brightness component (Y), for example, and therefore, the adjustment ratio α will be described as α (x, y).

<明るさ成分処理手段320>
次に、明るさ成分処理手段320について説明する。明るさ成分処理手段320は、図3に示すように、多重解像度画像生成手段321と、多重解像度画像操作手段322と、再構成手段323とを有する。
<Brightness component processing means 320>
Next, the brightness component processing unit 320 will be described. As shown in FIG. 3, the brightness component processing unit 320 includes a multi-resolution image generation unit 321, a multi-resolution image operation unit 322, and a reconstruction unit 323.

<多重解像度画像生成手段321>
多重解像度画像生成手段321は、色分解手段310より明るさ成分(Y)の画像データ410(多重解像度画像データの操作前のY成分画像(Y(x,y)))を取得し、多重解像度画像データ420を生成する機能を有する。
<Multi-resolution image generation means 321>
The multi-resolution image generation unit 321 acquires the brightness component (Y) image data 410 (Y component image (Y (x, y) before operation of multi-resolution image data)) from the color separation unit 310, and multi-resolution. It has a function of generating image data 420.

具体的には、多重解像度画像生成手段321は、明るさ成分(Y)の画像データ410(i×j画素のサイズ)を取得すると、例えば5×5のガウシアンフィルタにより平滑化処理を行う。また、多重解像度画像生成手段321は、平滑化処理により得られた明るさ成分(Y)の画像データに基づいて、偶数番号が割り当てられた行・列の画素データから構成される縦横1/2サイズの画像データを生成する。   Specifically, when the multi-resolution image generation unit 321 acquires the image data 410 (i × j pixel size) of the brightness component (Y), the multi-resolution image generation unit 321 performs a smoothing process using, for example, a 5 × 5 Gaussian filter. Further, the multi-resolution image generation means 321 halves the vertical and horizontal directions composed of row / column pixel data to which even numbers are assigned based on the image data of the brightness component (Y) obtained by the smoothing process. Generate image data of size.

なお、このようにして生成される画像データを、以下では、「スケールダウン画像データ」と称す。また、明るさ成分(Y)の画像データのうち、先頭行又は先頭列をそれぞれ、0行目及び0列目と呼ぶこととする。すなわち、多重解像度画像生成手段321は、画像データの偶数番号が割り当てられた列・行から処理を行う。   Hereinafter, the image data generated in this way is referred to as “scale-down image data”. In the image data of the brightness component (Y), the first row or the first column is referred to as the 0th row and the 0th column, respectively. That is, the multi-resolution image generation unit 321 performs processing from the column / row to which the even number of the image data is assigned.

このようにして生成されたスケールダウン画像データの画像サイズは、例えば(i/2、j/2)となる。このスケールダウン画像データに対して、多重解像度画像生成手段321は、スケールダウン処理(平滑化処理後に、偶数番号の列・行の画素データから構成される縦横1/2サイズの画像を生成する処理)を繰り返して適用していく。この結果、スケールダウン処理の度に、1/2サイズの画像データが生成されることになる。   The image size of the scaled-down image data generated in this way is, for example, (i / 2, j / 2). For this scale-down image data, the multi-resolution image generation means 321 generates a 1 / 2-size image composed of pixel data of even-numbered columns / rows after the scale-down process (smoothing process). ) Is applied repeatedly. As a result, ½ size image data is generated each time the scale-down process is performed.

その後、多重解像度画像生成手段321は、スケールダウン画像データの画像サイズを再び縦横2倍にして、取得した画像データの画像サイズと同じ画像サイズ(i,j)の画像データを生成する。このとき、行・列がともに偶数番号の画素には、前述のスケールダウン画像データの各画素値を割り当て、行・列のどちらかが奇数番号の画素には、行・列がともに偶数番号の画素の画素値と同一の画素値を割り当てる。つまり、同一の画素値を持つ4つの画素が生成される。その後、5×5のガウシアンフィルタにより、平滑化処理を行った画像データを生成する。このようにして生成される画像データを、以下では、「スケールアップ画像データ」と称す。   Thereafter, the multi-resolution image generation unit 321 again doubles the image size of the scale-down image data in the vertical and horizontal directions to generate image data having the same image size (i, j) as the image size of the acquired image data. At this time, each pixel value of the scale-down image data described above is assigned to even-numbered pixels in both rows and columns, and even rows and columns are even-numbered in either row or column. Assign the same pixel value as the pixel value of the pixel. That is, four pixels having the same pixel value are generated. Thereafter, the image data subjected to the smoothing process is generated by a 5 × 5 Gaussian filter. The image data generated in this way is hereinafter referred to as “scale-up image data”.

多重解像度画像生成手段321は、スケールダウン処理を行う前の画像データと、スケールダウン処理を行った後にスケールアップ処理を行うことで得られた画像データとの差を、各画素について計算した画像データを生成する。このようにして生成された画像データを以下では、ラプラシアン成分画像データと呼ぶ。   The multi-resolution image generation unit 321 calculates the difference between the image data before the scale-down process and the image data obtained by performing the scale-up process after the scale-down process for each pixel. Is generated. The image data generated in this way is hereinafter referred to as Laplacian component image data.

多重解像度画像生成手段321は、最初の解像度レベル(解像度レベル0)のラプラシアン成分画像データの生成を行う。図4に示す画像データ420_0は、解像度レベル0のラプラシアン成分画像データであり、画像サイズ=(i,j)の画像データである。   The multi-resolution image generation unit 321 generates Laplacian component image data of the first resolution level (resolution level 0). Image data 420_0 shown in FIG. 4 is Laplacian component image data with a resolution level of 0, and is image data with an image size = (i, j).

次に、多重解像度画像生成手段321では、更なるスケールダウン画像データと、スケールダウン画像データに対してスケールダウン処理を行った後に、スケールアップ処理を行うことで得られるスケールアップ画像データとの差をとる。これにより、次の解像度レベル(解像度レベル1)におけるラプラシアン成分画像データ420_1を算出する。ラプラシアン成分画像データ420_1は、解像度レベル1のラプラシアン成分画像データであり、画像サイズ=(i/2、j/2)の画像データである。   Next, in the multi-resolution image generation means 321, the difference between the further scale-down image data and the scale-up image data obtained by performing the scale-up process after performing the scale-down process on the scale-down image data. Take. Thereby, Laplacian component image data 420_1 at the next resolution level (resolution level 1) is calculated. The Laplacian component image data 420_1 is Laplacian component image data with a resolution level of 1, and is image data with an image size = (i / 2, j / 2).

これ以降、多重解像度画像生成手段321は、スケールダウン処理とスケールアップ処理、ラプラシアン成分画像データの算出処理を繰り返し、画像サイズ=(2,2)のラプラシアン成分画像データ420_dが算出されるまで、これを繰り返す。これにより、画像サイズ=(i,j)からなる解像度レベル0のラプラシアン成分画像データ420_0から、画像サイズ=(2,2)からなる解像度レベルdのラプラシアン成分画像データ420_dまでの一連のラプラシアン成分画像データが生成される。これらのラプラシアン成分画像データは、多重解像度画像データ420の各解像度レベルの画像データに対応するいわゆるラプラシアンピラミッドである。   Thereafter, the multi-resolution image generation unit 321 repeats the scale-down process, the scale-up process, and the Laplacian component image data calculation process until the Laplacian component image data 420_d with the image size = (2, 2) is calculated. repeat. Thus, a series of Laplacian component images from Laplacian component image data 420_0 with resolution level 0 having an image size = (i, j) to Laplacian component image data 420_d having resolution level d having an image size = (2,2). Data is generated. These Laplacian component image data are so-called Laplacian pyramids corresponding to the image data of each resolution level of the multi-resolution image data 420.

なお、多重解像度画像生成手段321は、スケールダウン処理、スケールアップ処理を行うにあたり、平滑化フィルタとして5×5のガウシアンフィルタを用いるものとしたが、これ以外の平滑化フィルタを用いても良い。また、平滑化フィルタを用いるのではなく、いわゆる補間処理を使用して、スケールダウン処理、スケールアップ処理を行うようにしてもよい。また、補間処理の具体例としては、バイリニア法、バイキュービック法等を用いることが可能であるが、これに限定されるものではない。   The multi-resolution image generation unit 321 uses a 5 × 5 Gaussian filter as a smoothing filter when performing the scale-down process and the scale-up process, but other smoothing filters may be used. Further, instead of using a smoothing filter, so-called interpolation processing may be used to perform scale-down processing and scale-up processing. In addition, as a specific example of the interpolation processing, a bilinear method, a bicubic method, or the like can be used, but is not limited thereto.

なお、スケールダウン処理を繰り返す際、取得した明るさ成分(Y)の画像データ410によっては、画像サイズが奇数となってしまうことがある。このような場合、本実施形態の多重解像度画像生成手段321では、偶数番号の行・列でスケールダウン処理を行うものとしているが、画像サイズが奇数の場合のスケールダウン処理の方法はこれに限定されない。   When the scale-down process is repeated, the image size may be an odd number depending on the acquired image data 410 of the brightness component (Y). In such a case, the multi-resolution image generation unit 321 of the present embodiment performs the scale-down process with even-numbered rows and columns, but the scale-down process method when the image size is odd is limited to this. Not.

例えば、画像サイズ(例えば、行数P)が奇数となってしまった場合には、スケールダウン後の画像サイズ(行数)を(P+1)/2として、スケールダウン処理を行うようにしてもよい。このとき、スケールダウン処理後の各画素には、スケールダウン処理前の偶数番号の行・列の各画素値が反映される。   For example, when the image size (for example, the number of rows P) becomes an odd number, the scale-down processing may be performed with the image size (number of rows) after the scale-down being set to (P + 1) / 2. . At this time, each pixel value in the even-numbered row / column before the scale-down process is reflected in each pixel after the scale-down process.

また、スケールダウン処理前の画像サイズ(行数)が奇数となってしまった場合には、1行追加してから、1/2サイズの画像データを生成するようにスケールダウン処理を行うようにしても良い。更に、明るさ成分(Y)の画像データ410を取得した段階で、予め画像サイズを2の階乗に拡張してから、多重解像度画像データ420の生成を行うようにしても良い。   When the image size (number of rows) before the scale-down processing becomes an odd number, the scale-down processing is performed so that image data of 1/2 size is generated after adding one row. May be. Further, the multi-resolution image data 420 may be generated after the image size is expanded to a factorial of 2 in advance when the brightness component (Y) image data 410 is acquired.

<多重解像度画像操作手段322>
次に、多重解像度画像操作手段322について説明する。多重解像度画像操作手段322は、多重解像度画像生成手段321により生成された多重解像度画像データ420に含まれる解像度レベルnのラプラシアン成分画像データ420_nの各画素値を、下式(式3)に基づいて操作する。
<Multi-resolution image operation means 322>
Next, the multi-resolution image operation unit 322 will be described. The multi-resolution image operation unit 322 calculates each pixel value of the Laplacian component image data 420_n of the resolution level n included in the multi-resolution image data 420 generated by the multi-resolution image generation unit 321 based on the following equation (Equation 3). Manipulate.

Figure 2016127403
ここで、(式3)を構成する各要素の意味について説明する。L'(x,y)は、解像度レベルnにおける操作後のラプラシアン成分画像データの各画素値である。nは、「0〜d(入力された画像サイズによって決まる上限)」の範囲をとる。|L(x、y)|は、解像度レベルnにおける操作前のラプラシアン成分画像データの各画素値の絶対値(大きさ)である。nは、「0〜d(入力画像サイズによって決まる上限)」の範囲をとる。signは、L(x、y)の値が、正の場合は「1」、負の場合は「−1」である。
Figure 2016127403
Here, the meaning of each element constituting (Equation 3) will be described. L ′ n (x, y) is each pixel value of the Laplacian component image data after the operation at the resolution level n. n takes a range of “0 to d (upper limit determined by the input image size)”. | L n (x, y) | is an absolute value (size) of each pixel value of the Laplacian component image data before the operation at the resolution level n. n takes a range of “0 to d (upper limit determined by the input image size)”. The sign is “1” when the value of L n (x, y) is positive, and is “−1” when negative.

また、rangeは、YCbCr色空間の明るさ成分(Y)の画像データを元画像としており、明るさ成分(Y)の画像データは、「0.0〜1.0」の範囲をとるため、range=0.1となる。なお、このrangeの値は、元画像のダイナミックレンジに依存する。αは、ここでは「0.6」とする。gradは、ここでは「0.6(なお、このgradの値も元画像のダイナミックレンジに依存する)」とする。   In addition, the range uses the image data of the brightness component (Y) in the YCbCr color space as the original image, and the image data of the brightness component (Y) takes a range of “0.0 to 1.0”. range = 0.1. The range value depends on the dynamic range of the original image. Here, α is “0.6”. Here, grad is “0.6 (note that the value of grad also depends on the dynamic range of the original image)”.

図6は、第1実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。図6に示すグラフは、上述した(式3)に示す操作内容を表したものであり、操作前のラプラシアン成分画像データと、(式3)により算出される操作後のラプラシアン成分画像データとの関係を示している。図6に示す実太線は、(式3)の関係を表し、図6に示す点線が、比較用として傾き1の直線(操作前後でラプラシアン成分画像データの画素値が変わらない場合)を表している。   FIG. 6 is a diagram for explaining the operation content of the pixel value of the multi-resolution image data according to the first embodiment. The graph shown in FIG. 6 represents the operation content shown in (Equation 3) described above. The Laplacian component image data before the operation and the Laplacian component image data after the operation calculated by (Equation 3). Showing the relationship. The solid thick line shown in FIG. 6 represents the relationship of (Equation 3), and the dotted line shown in FIG. 6 represents a straight line with a slope 1 for comparison (when the pixel value of the Laplacian component image data does not change before and after the operation). Yes.

図6に示すように、絶対値が小さなデータ値(操作前のラプラシアン成分画像データの絶対値が小さい画素値)に対しては、相対的に大きく増加するような変化を与え、変換後(操作後)にはデータ値が増加するようにしている。一方で、絶対値が大きいデータ値(操作前のラプラシアン成分画像データの絶対値が大きい画素値)に対しては、相対的に小さく増加するような変化、又は、減少するような変化を与え、変換後にはデータ値が少なめの増加又は減少となるようにしている。   As shown in FIG. 6, a data value having a small absolute value (a pixel value having a small absolute value of the Laplacian component image data before the operation) is given a relatively large change, and after the conversion (operation After), the data value is increased. On the other hand, a data value having a large absolute value (a pixel value having a large absolute value of the Laplacian component image data before the operation) is given a change that increases relatively or decreases. After the conversion, the data value is increased or decreased slightly.

なお、多重解像度画像操作手段322による操作内容は、(式3)に示す操作内容に限定されるものではなく、(式3)以外の操作内容であっても良い。また、多重解像度画像操作手段322は、(式3)のような数式に基づいて操作を実行する場合に限定されず、例えば、ルックアップテーブル等に基づいて操作を実行するようにしても良い。   Note that the operation content by the multi-resolution image operation means 322 is not limited to the operation content shown in (Expression 3), and may be an operation content other than (Expression 3). In addition, the multi-resolution image operation unit 322 is not limited to the case where the operation is performed based on the mathematical expression such as (Expression 3), and may be performed based on, for example, a lookup table.

また、(式3)において、range=0.1としたのは、(式3)が、YCbCr空間における明るさ成分(Y)の画像データ410に対して、多重解像度画像データ420を操作することを前提としたためである。すなわち、YCbCr空間における明るさ成分(Y)の画像データ410に対する多重解像度画像データ420の場合、ダイナミックレンジ(Dr)は、0.0〜1.0となるため、range=0.1としている。   In (Expression 3), range = 0.1 is set so that (Expression 3) operates the multi-resolution image data 420 on the image data 410 of the brightness component (Y) in the YCbCr space. This is because of the assumption. That is, in the case of the multi-resolution image data 420 with respect to the image data 410 of the brightness component (Y) in the YCbCr space, the dynamic range (Dr) is 0.0 to 1.0, so that range = 0.1.

したがって、ダイナミックレンジの異なる他の色空間に基づく多重解像度画像データの場合には、rangeの値も変わってくる。例えば、La*b*色空間に基づく多重解像度画像データの場合、ダイナミックレンジは0.0〜100.0となるため、range=10とすることが可能である。   Therefore, in the case of multi-resolution image data based on other color spaces having different dynamic ranges, the range value also changes. For example, in the case of multi-resolution image data based on the La * b * color space, since the dynamic range is 0.0 to 100.0, it is possible to set range = 10.

解像度レベルnにおける操作前のラプラシアン成分画像データ420_nの値は、例えば下式(式4)を満たすことが条件となる。   The condition of the value of the Laplacian component image data 420_n before operation at the resolution level n satisfies, for example, the following expression (Expression 4).

Figure 2016127403
したがって、少なくともダイナミックレンジ(Dr)の1/10未満の画素値Lは、増加させるように操作する。
Figure 2016127403
Therefore, the pixel value L n which is at least less than 1/10 of the dynamic range (Dr) is operated to increase.

<再構成手段323>
再構成手段323は、多重解像度画像生成手段321と逆の操作を繰り返すことにより、操作後の多重解像度画像データ430に基づいて明るさ成分(Y)の画像データ440を再構成する。具体的には、低解像度側の解像度レベルから計算を開始し、スケールアップ処理後に生成された各解像度レベルの画素値を加算する処理を、各解像度レベルで繰り返すことで、明るさ成分(Y')の画像データを再構成する。図4に示す画像データ440は、再構成された明るさ成分(Y')の画像データである。
<Reconstruction means 323>
The reconstructing unit 323 reconstructs the image data 440 of the brightness component (Y) based on the multiresolution image data 430 after the operation by repeating the operation opposite to that of the multiresolution image generating unit 321. Specifically, the brightness component (Y ′) is calculated by starting the calculation from the resolution level on the low resolution side and repeating the process of adding the pixel values of each resolution level generated after the scale-up process at each resolution level. ) Image data is reconstructed. Image data 440 shown in FIG. 4 is image data of the reconstructed brightness component (Y ′).

なお、再構成手段323におけるスケールアップ処理も、多重解像度画像生成手段321におけるスケールアップ処理と同じ処理を行う。つまり、スケールダウン処理前と同じ画像サイズ(基本的には縦横2倍にした画像サイズ)の画像データを生成して、行・列がともに偶数番号の画素に低解像度の多重解像度画像データの画素値を設定する。このとき、行・列のどちらかが奇数番号の場合には、行・列がともに偶数番号の画素値を割り当てる(つまり、同一の画素値を持つ4つの画素を生成する)。その後、例えば5×5のガウシアンフィルタにより平滑化処理を行った画像データを生成することで、スケールアップ画像データを生成する。   Note that the scale-up process in the reconstruction unit 323 is the same as the scale-up process in the multi-resolution image generation unit 321. In other words, image data of the same image size as before the scale-down process (basically, an image size that is doubled vertically and horizontally) is generated, and pixels of low-resolution multi-resolution image data are converted to even-numbered pixels in both rows and columns. Set the value. At this time, if either row or column is an odd number, both row and column are assigned even-numbered pixel values (that is, four pixels having the same pixel value are generated). Thereafter, scale-up image data is generated by generating image data that has been smoothed by, for example, a 5 × 5 Gaussian filter.

再構成手段323は、更に再構成により得られた明るさ成分(Y')の画像データ440と、操作前の明るさ成分(Y)の画像データ410とを、調整手段330より入力された調整比率α(x,y)を用いて組み合わせる。   The reconstruction unit 323 further adjusts the brightness component (Y ′) image data 440 obtained by the reconstruction and the brightness component (Y) image data 410 before the operation input from the adjustment unit 330. Combine using the ratio α (x, y).

具体的には、調整手段330より入力された調整比率α(x,y)を用いて、下式(式5)に基づいて、明るさ成分の第2の画像データの一例として、明るさ成分(Y'')の画像データ450の各画素値(Y''(x,y))を算出する。   Specifically, using the adjustment ratio α (x, y) input from the adjustment unit 330, as an example of the second image data of the brightness component, based on the following formula (Formula 5), the brightness component Each pixel value (Y ″ (x, y)) of the image data 450 of (Y ″) is calculated.

Figure 2016127403
(式5)により調整比率α(x,y)が反映されることで、明るさ成分(Y'')の画像データ450は、明るさ成分(Y)の画像データ470の中間の明るさ領域(例えば、元画像におけるY成分の値が0.0及び1.0から離れた値をもつ領域)に対応する各画素値が、多重解像度画像データに対する操作が反映された画素値となる。すなわち、明るさ成分(Y')の画像データ440に近い画素値となる。
Figure 2016127403
Since the adjustment ratio α (x, y) is reflected by (Equation 5), the image data 450 of the brightness component (Y ″) becomes an intermediate brightness region of the image data 470 of the brightness component (Y). Each pixel value corresponding to (for example, a region where the value of the Y component in the original image has values away from 0.0 and 1.0) is a pixel value reflecting an operation on the multi-resolution image data. That is, the pixel value is close to the image data 440 of the brightness component (Y ′).

また、明るさ成分(Y'')の画像データ450は、明るさ成分(Y)の画像データ470の高低の明るさ領域(例えば、元画像におけるY成分の値が0.0に近い値及びY成分の値が1.0に近い値)に対応する各画素値が、多重解像度画像に対する操作が反映されていない画素値となり、元画像に近い画像となる。すなわち、明るさ成分(Y)の画像データ410に近い画素値となる。そもそも、元画像ではオーバーレンジは発生していないため、上述した調整により、多重解像度画像データに対する操作により生じるオーバーレンジの発生を防ぐことが可能となる。   Further, the brightness component (Y ″) image data 450 includes high and low brightness regions of the brightness component (Y) image data 470 (for example, the value of the Y component in the original image is close to 0.0 and Each pixel value corresponding to the value of the Y component value close to 1.0 is a pixel value that does not reflect the operation on the multi-resolution image, and is an image close to the original image. That is, the pixel value is close to the image data 410 of the brightness component (Y). In the first place, since no overrange has occurred in the original image, it is possible to prevent the occurrence of overrange caused by operations on multi-resolution image data by the adjustment described above.

再構成手段323では、このようにして算出した明るさ成分(Y'')の画像データ450を色合成手段340に出力する。   The reconstruction unit 323 outputs the brightness component (Y ″) image data 450 calculated in this way to the color synthesis unit 340.

<色合成手段340>
色合成手段340は、再構成手段323より出力された明るさ成分(Y'')の画像データ450と、色分解手段310より出力された色成分(CrCb)の画像データ460とを色合成する。また、色合成により得られた画像データについて、YCrCb色空間からRGB色空間への変換を行い、RGBの色成分をもつ画像データ480を出力する。
<Color composition means 340>
The color synthesis unit 340 performs color synthesis on the brightness component (Y ″) image data 450 output from the reconstruction unit 323 and the color component (CrCb) image data 460 output from the color separation unit 310. . Further, the image data obtained by color synthesis is converted from the YCrCb color space to the RGB color space, and image data 480 having RGB color components is output.

上述した第1実施形態の多重解像度画像データの画素値を操作する画像処理においては、明るさ成分(Y)の画像データに基づいて、中間の明るさ領域の画素と高低の明るさ領域の画素とで異なる調整比率を算出する。また、算出した調整比率を用いて、操作前の明るさ成分の画像データと、操作後の多重解像度画像データを再構成することで得られた明るさ成分の画像データとを組み合わせる。   In the image processing for manipulating the pixel values of the multi-resolution image data according to the first embodiment described above, the pixels in the intermediate brightness region and the pixels in the high and low brightness regions based on the image data of the brightness component (Y). Different adjustment ratios are calculated. Further, using the calculated adjustment ratio, the image data of the brightness component before the operation and the image data of the brightness component obtained by reconstructing the multi-resolution image data after the operation are combined.

これにより、色成分の画像データと合成される明るさ成分の画像データにおいて、中間の明るさ領域については、操作後の明るさ成分の画像データが反映され、高低の明るさ領域については、操作前の明るさ成分の画像データが反映される。したがって、多重解像度画像データに対する操作により生じるオーバーレンジの発生を防ぐことが可能となり、画質の向上を図ることが可能となる。   As a result, in the brightness component image data synthesized with the color component image data, the image data of the brightness component after the operation is reflected for the intermediate brightness region, and the operation is performed for the high and low brightness regions. The image data of the previous brightness component is reflected. Therefore, it is possible to prevent the occurrence of overrange caused by the operation on the multi-resolution image data, and to improve the image quality.

上述した第1実施形態によれば、例えば撮影機材や表示機材のダイナミックレンジが現実の世界のダイナミックレンジと比較してはるかに小さいことに起因して発生する問題を解決する。具体的には、作成者(撮影者)の意図とは異なる状態(明瞭感や凹凸感が欠如した状態)で画像が表現されてしまう等の不具合を解消して、作成者の意図に合致した状態で画像を表現することが可能となる。   According to the first embodiment described above, for example, a problem that occurs due to the fact that the dynamic range of the photographing equipment and the display equipment is much smaller than the dynamic range of the real world is solved. Specifically, it solved the problem that the image was expressed in a state different from the intention of the creator (photographer) (a state lacking clarity and unevenness), and matched the intention of the creator An image can be expressed in a state.

明瞭感や凹凸感を改善した画像は、撮影対象物の臨場感や本物(リアル)感を備えた画像データを獲得することにもなる。つまり、第1実施形態に示す構成により得られた画像データを商品広告等に使用した場合には、商品訴求力が高く、顧客注目度の高い広告を得ることが可能となる。また、対象物の臨場感や本物感を備えた画像データは、商品広告以外の様々な用途に適用することが可能となる。   An image with improved clarity and concavo-convex feeling also obtains image data with a sense of realism and a real (real) feeling of the subject. That is, when the image data obtained by the configuration shown in the first embodiment is used for a product advertisement or the like, it is possible to obtain an advertisement with high product appeal and high customer attention. In addition, image data having a sense of presence or real feeling of an object can be applied to various uses other than product advertisements.

また、第1実施形態によれば、処理前の明るさ成分が明るさ成分の表現可能な範囲(レンジ)の上限値及び下限値に近い値を有する箇所では、多重解像度画像データに対する操作の調整を行い、この箇所でのデータ値を変化させないようにする。このように調整することで、処理前の明るさ成分において表現可能な範囲の上限値又は下限値に近い箇所では、多重解像度画像データの操作によるデータ値の変化が生じなくなる(調整によってデータ値が変化しないようにする)。   Further, according to the first embodiment, in a portion where the brightness component before processing has values close to the upper limit value and the lower limit value of the range (range) in which the brightness component can be expressed, the operation adjustment for the multi-resolution image data is performed. To avoid changing the data value at this point. By adjusting in this way, a change in the data value due to the operation of the multi-resolution image data does not occur at a location close to the upper limit value or the lower limit value of the range that can be expressed in the brightness component before processing (the data value is changed by the adjustment). Do n’t change).

これにより、操作を行った後の多重解像度画像データを再構成した場合でも、再構成により得られる明るさ成分画像(処理後の明るさ成分画像)において、処理前の明るさ成分がそのまま保持されることになり、オーバーレンジの発生を解消することが可能となる。   As a result, even when the multi-resolution image data after the operation is reconstructed, the brightness component before the processing is maintained as it is in the brightness component image (the brightness component image after the processing) obtained by the reconstruction. Therefore, it is possible to eliminate the occurrence of overrange.

また、第1実施形態では、コントラストを増加するように多重解像度画像データを操作することで、「明瞭感」及び「凹凸感」の向上を実現し、最終的に得られるカラー画像においてオーバーレンジの発生を防ぎ、画質の向上を図ることが可能となる。また、多重解像度画像データをラプラシアンピラミッドとして生成することで、基本的な画像処理の繰り返しにより構成し、計算量も軽量である等の効果を得ることが可能となる。   Further, in the first embodiment, by operating the multi-resolution image data so as to increase the contrast, the “clearness” and the “unevenness” are improved, and the color image finally obtained has an overrange. It is possible to prevent the occurrence and improve the image quality. In addition, by generating multi-resolution image data as a Laplacian pyramid, it is possible to obtain an effect such as being configured by repeating basic image processing and being light in calculation amount.

<第2実施形態>
第1実施形態では、入力された画像データを色分解することで得られた明るさ成分(Y)の画像データと、操作後の多重解像度画像データを再構成することにより得られた明るさ成分(Y'')の画像データとを、調整比率を用いて組み合わせる構成とした。
Second Embodiment
In the first embodiment, the brightness component (Y) obtained by color-separating the input image data and the brightness component obtained by reconstructing the multi-resolution image data after the operation The image data of (Y ″) is combined using the adjustment ratio.

これに対して、第2実施形態では、多重解像度で表現される調整比率を用いて、各解像度レベルの多重解像度画像データに対する操作量を調整する。なお、第2実施形態でも、YCbCr色空間の明るさ成分(Y)に対してのみ多重解像度画像データの操作を行う。   On the other hand, in the second embodiment, the operation amount for the multi-resolution image data at each resolution level is adjusted using the adjustment ratio expressed in multi-resolution. In the second embodiment, the multi-resolution image data is operated only for the brightness component (Y) in the YCbCr color space.

<画像処理装置100の機能構成>
第2実施形態に係る画像処理プログラム110がCPU201により実行されることで実現される機能について、図7、図8を用いて説明する。図7は、第2実施形態に係る画像処理装置の機能構成を示す図であり、図8は、第2実施形態に係る画像処理の概要を示す図である。以下、図8を参照しながら、図7に示す画像処理プログラム110の機能構成について説明する。なお、図8に示す機能構成のうち、第1実施形態における図3を用いて説明した機能構成との相違部分は、調整手段530、多重解像度画像操作手段522、再構成手段523である。以下、相違部分について、具体的に説明する。
<Functional Configuration of Image Processing Apparatus 100>
Functions realized when the image processing program 110 according to the second embodiment is executed by the CPU 201 will be described with reference to FIGS. FIG. 7 is a diagram illustrating a functional configuration of the image processing apparatus according to the second embodiment, and FIG. 8 is a diagram illustrating an overview of the image processing according to the second embodiment. Hereinafter, the functional configuration of the image processing program 110 shown in FIG. 7 will be described with reference to FIG. Of the functional configuration shown in FIG. 8, the differences from the functional configuration described with reference to FIG. 3 in the first embodiment are an adjustment unit 530, a multi-resolution image operation unit 522, and a reconstruction unit 523. Hereinafter, the difference will be specifically described.

<調整手段530>
調整手段530は、多重解像度画像生成手段321により中間的に生成される中間データを取得する。この中間データは、第1実施形態で説明したラプラシアンピラミッドの生成過程において解像度レベルで生成される多重解像度画像データであり、いわゆるガウシアンピラミッドに相当する。より具体的には、解像度レベル0(入力された画像データと同じ解像度)におけるデータ値は、入力された画像の明るさ成分(Y)のデータそのものである。以後、解像度レベル1、解像度レベル2・・・と進むにしたがって、ガウシアンフィルタにより平滑化処理を行い、スケールダウンを繰り返し行うことで、各解像度レベルのデータが生成される。
<Adjustment means 530>
The adjustment unit 530 acquires intermediate data generated intermediately by the multi-resolution image generation unit 321. This intermediate data is multi-resolution image data generated at the resolution level in the process of generating the Laplacian pyramid described in the first embodiment, and corresponds to a so-called Gaussian pyramid. More specifically, the data value at the resolution level 0 (the same resolution as the input image data) is the data of the brightness component (Y) of the input image itself. Thereafter, as resolution level 1, resolution level 2,... Advances, smoothing processing is performed using a Gaussian filter, and scale-down is repeated to generate data at each resolution level.

したがって、調整手段530は、第1実施形態のラプラシアンピラミッド生成過程で算出され、そのままメモリ上に保持された中間データ(ガウシアンピラミッド)を使用することが可能である。   Therefore, the adjusting means 530 can use the intermediate data (Gaussian pyramid) calculated in the Laplacian pyramid generation process of the first embodiment and held in the memory as it is.

調整手段530は、多重解像度画像生成手段321により生成される中間データ(処理前の明るさ成分Yから生成される多重解像度画像データ(ガウシアンピラミッド))を取得すると、調整比率DBを参照することで、下式(式6)により調整比率を算出する。   When the adjustment unit 530 acquires the intermediate data (multi-resolution image data (Gaussian pyramid) generated from the brightness component Y before processing) generated by the multi-resolution image generation unit 321, the adjustment unit 530 refers to the adjustment ratio DB. The adjustment ratio is calculated by the following formula (Formula 6).

Figure 2016127403
ここで、α(x,y)は、多重解像度で表現される調整比率であり、明るさ成分(Y)の解像度レベルnの多重解像度画像データの各画素の操作前後の画素値を組み合わせる際に用いられる。Y(x,y)は、処理前の明るさ成分Yから生成される中間データ(いわゆるガウシアンピラミッド)である。
Figure 2016127403
Here, α n (x, y) is an adjustment ratio expressed in multiple resolutions, and is used when combining pixel values before and after the operation of each pixel of the multiple resolution image data of resolution level n of the brightness component (Y). Used for. Y n (x, y) is intermediate data (a so-called Gaussian pyramid) generated from the brightness component Y before processing.

調整手段530は、図8に示す解像度レベルnの多重解像度画像データ(明るさ成分(Y))630の各画素に応じた調整比率α(x,y)を多重解像度画像操作手段522に入力する。なお、解像度レベルnの多重解像度画像データ630の各画素値(x,y)と調整比率α(x,y)との関係は、第1実施形態において図5を用いて説明済みであるため、ここでは説明を省略する。 The adjustment unit 530 inputs an adjustment ratio α n (x, y) corresponding to each pixel of the multi-resolution image data (brightness component (Y)) 630 at the resolution level n shown in FIG. 8 to the multi-resolution image operation unit 522. To do. Note that the relationship between each pixel value (x, y) of the multi-resolution image data 630 at the resolution level n and the adjustment ratio α n (x, y) has already been described with reference to FIG. 5 in the first embodiment. The description is omitted here.

<多重解像度画像操作手段522>
多重解像度画像操作手段522は、多重解像度画像生成手段321より、図8に示す明るさ成分(Y)の画像データ410に対する多重解像度画像データ420に含まれる解像度レベルnのラプラシアン成分画像データ420_nの各画素値L(x,y)を取得する。また、多重解像度画像操作手段522は、ラプラシアン成分画像データ420_nの各画素値L(x,y)を、上述した(式3)に基づいて操作する。これにより、操作後のラプラシアン成分画像データ430_nの各画素値L'(x,y)を取得する。
<Multi-resolution image operation means 522>
The multi-resolution image operation unit 522 receives each of the Laplacian component image data 420_n of the resolution level n included in the multi-resolution image data 420 corresponding to the image data 410 of the brightness component (Y) shown in FIG. The pixel value L n (x, y) is acquired. Further, the multi-resolution image operation means 522 operates each pixel value L n (x, y) of the Laplacian component image data 420_n based on the above-described (Equation 3). Thereby, each pixel value L ′ n (x, y) of the Laplacian component image data 430 — n after the operation is acquired.

多重解像度画像操作手段522は、操作後の各解像度レベルnのラプラシアン成分画像データ430_nの各画素値L'(x,y)と、操作前の各解像度レベルnのラプラシアン成分画像データ420_nの各画素値L(x,y)とを組み合わせる。なお、組み合わせに際しては、調整手段530より出力された各解像度レベルnの調整比率α(x,y)を用いる。 The multi-resolution image manipulating means 522 has each pixel value L ′ n (x, y) of the Laplacian component image data 430_n at each resolution level n after the manipulation and each of the Laplacian component image data 420_n at each resolution level n before the manipulation. The pixel value L n (x, y) is combined. In combination, the adjustment ratio α n (x, y) of each resolution level n output from the adjusting unit 530 is used.

具体的には、下式(式7)に基づいて、組み合わせ後の解像度レベルnのラプラシアン成分画像データ610_nの各画素値L''(x,y)を算出する。 Specifically, each pixel value L ″ n (x, y) of the Laplacian component image data 610 — n of the resolution level n after combination is calculated based on the following formula (formula 7).

Figure 2016127403
第2実施形態では、第1実施形態と同様に(式3)に基づきラプラシアン成分を操作(変換)しているため、絶対値が小さなデータ値(操作前のラプラシアン成分画像データの絶対値が小さい画素値)に対しては、相対的に大きく増加するような変化を与え、変換後(操作後)にはデータ値が増加するようにしている。一方で、絶対値が大きいデータ値(操作前のラプラシアン成分画像データの絶対値が大きい画素値)に対しては、相対的に小さく増加するような変化、又は、減少するような変化を与え、変換後にはデータ値が少なめの増加又は減少となるようにしている。
Figure 2016127403
In the second embodiment, the Laplacian component is manipulated (converted) based on (Equation 3) as in the first embodiment, so that the data value having a small absolute value (the absolute value of the Laplacian component image data before the operation is small). The pixel value is changed so as to increase relatively, and the data value is increased after conversion (after operation). On the other hand, a data value having a large absolute value (a pixel value having a large absolute value of the Laplacian component image data before the operation) is given a change that increases relatively or decreases. After the conversion, the data value is increased or decreased slightly.

また、このように変換されたラプラシアン成分に対して、(式7)により調整比率α(x,y)が反映される。これにより、組み合わせ後の明るさ成分(Y)の多重解像度画像データ610は、多重解像度画像データ630の中間の明るさ領域(例えば、元画像におけるY成分の値が0.0及び1.0から離れた値をもつ領域)に対応する各画素値が、多重解像度画像データに対する操作が反映された画素値となる。 Further, the adjustment ratio α n (x, y) is reflected on the Laplacian component thus converted by (Equation 7). As a result, the combined multi-resolution image data 610 of the brightness component (Y) has an intermediate brightness area of the multi-resolution image data 630 (for example, the value of the Y component in the original image is from 0.0 and 1.0). Each pixel value corresponding to a region having a distant value becomes a pixel value reflecting an operation on multi-resolution image data.

また、多重解像度画像データ610は、多重解像度画像データ630の高低の明るさ領域(例えば、元画像におけるY成分の値が0.0に近い値及びY成分の値が1.0に近い値)に対応する各画素値が、多重解像度画像に対する操作が反映されていない画素値となり、元画像に近い画像となる。   The multi-resolution image data 610 includes high and low brightness areas of the multi-resolution image data 630 (for example, the Y component value in the original image is close to 0.0 and the Y component value is close to 1.0). Each pixel value corresponding to is a pixel value that does not reflect an operation on the multi-resolution image, and is an image close to the original image.

したがって、上述した調整により、多重解像度画像データに対する操作により生じるオーバーレンジの発生を防ぐことが可能となる。   Therefore, the above-described adjustment can prevent the occurrence of overrange caused by the operation on the multi-resolution image data.

<再構成手段523>
再構成手段523は、多重解像度画像操作手段522より出力された明るさ成分(Y)の多重解像度画像データ610の各画素値L''(x,y)から、多重解像度画像生成手段321と逆の操作を繰り返すことにより、明るさ成分(Y'')の画像データ450を再構成する。
<Reconstruction means 523>
The reconstructing unit 523 uses the multi-resolution image generation unit 321 and the pixel values L ″ n (x, y) of the multi-resolution image data 610 of the brightness component (Y) output from the multi-resolution image operation unit 522. By repeating the reverse operation, the image data 450 of the brightness component (Y ″) is reconstructed.

再構成手段523により再構成することで得られた明るさ成分(Y'')の画像データ450は、色合成手段340に入力される。   Image data 450 of the brightness component (Y ″) obtained by reconstruction by the reconstruction unit 523 is input to the color composition unit 340.

<色合成手段340>
色合成手段340は、再構成手段323より出力された明るさ成分(Y'')の画像データ450と、色分解手段310より出力された色成分(CrCb)の画像データ460とを色合成する。また、色合成により得られた画像データについて、YCrCb色空間からRGB色空間への変換を行い、RGBの色成分をもつ画像データ480を出力する。
<Color composition means 340>
The color synthesis unit 340 performs color synthesis on the brightness component (Y ″) image data 450 output from the reconstruction unit 323 and the color component (CrCb) image data 460 output from the color separation unit 310. . Further, the image data obtained by color synthesis is converted from the YCrCb color space to the RGB color space, and image data 480 having RGB color components is output.

上述した第2実施形態に係る画像処理装置では、多重解像度画像データの画素値を操作する画像処理において、明るさ成分(Y)の画像データから多重解像度画像データ(ガウシアンピラミッド)を生成し、各解像度レベルにおける中間の明るさ領域の画素と高低の明るさ領域の画素とで異なる調整比率を算出する。また、算出した各解像度レベルの調整比率を用いて、明るさ成分の画像データから生成される操作後の各解像度レベルの多重解像度画像データと、操作前の各解像度レベルの多重解像度画像データとを組み合わせる。   In the image processing apparatus according to the second embodiment described above, in the image processing for manipulating the pixel value of the multi-resolution image data, multi-resolution image data (Gaussian pyramid) is generated from the image data of the brightness component (Y), Different adjustment ratios are calculated for the pixels in the intermediate brightness region and the pixels in the high and low brightness regions at the resolution level. Further, using the calculated adjustment ratio of each resolution level, multi-resolution image data of each resolution level after operation generated from the image data of the brightness component, and multi-resolution image data of each resolution level before operation are obtained. combine.

これにより、再構成される明るさ成分の多重解像度画像データにおいて、中間の明るさ領域については、操作後の明るさ成分の多重解像度画像データが反映され、高低の明るさ領域については、操作前の明るさ成分の多重解像度画像データが反映される。したがって、多重解像度画像データに対する操作により生じるオーバーレンジの発生を防ぐことが可能となり、画質の向上を図ることが可能となる。   Thereby, in the reconstructed multi-resolution image data of the brightness component, the multi-resolution image data of the brightness component after the operation is reflected for the intermediate brightness area, and the pre-operation for the high and low brightness areas. The multi-resolution image data of the brightness component is reflected. Therefore, it is possible to prevent the occurrence of overrange caused by the operation on the multi-resolution image data, and to improve the image quality.

上述したように、第2実施形態では、各解像度レベルの多重解像度画像データに対して、処理前の明るさ成分から生成される中間データの値に応じて、データに加える操作量を調整する。これにより、各解像度レベルの多重解像度画像データに対するデータ値の操作(明瞭感や凹凸感を向上させるための操作)と、中間データの値に応じてデータに加える操作量を調整するといった2つの操作をほぼ同時に行うことが可能となる。これにより、最終的に得られるカラー画像において、オーバーレンジの発生を防ぎ、明瞭感及び凹凸感の向上させることが可能となる。   As described above, in the second embodiment, the operation amount to be added to the data is adjusted according to the value of the intermediate data generated from the brightness component before processing for the multi-resolution image data of each resolution level. As a result, two operations such as data value manipulation (operation for improving the sense of clarity and unevenness) for multi-resolution image data at each resolution level and adjustment of the amount of manipulation applied to the data according to the intermediate data value. Can be performed almost simultaneously. As a result, in the finally obtained color image, it is possible to prevent the occurrence of overrange and improve the sense of clarity and unevenness.

<第3実施形態>
上述した第1〜第2実施形態では、多重解像度画像生成手段321により生成される多重解像度画像データがラプラシアンピラミッドであるのに対して、第3実施形態では、多重解像度画像生成手段321が2次元の離散ウェーブレット変換を繰り返すことにより多重解像度画像データを生成する。
<Third Embodiment>
In the first and second embodiments described above, the multiresolution image data generated by the multiresolution image generation unit 321 is a Laplacian pyramid, whereas in the third embodiment, the multiresolution image generation unit 321 is two-dimensional. Multi-resolution image data is generated by repeating the discrete wavelet transform.

なお、2次元の離散ウェーブレット変換は、公知技術であるためここでは詳細な説明は省略する。2次元の離散ウェーブレット変換を行った場合、1回の変換処理によって、明るさ成分(Y)の画像データが、低周波係数であるLLと3つの高周波係数であるLH、HL、HHとに分解される。多重解像度画像生成手段321は、低周波係数LLについて、更に2次元の離散ウェーブレット変換を繰り返し適用することで、次の解像度レベルでの低周波係数LLと高周波係数LH、HL、HHとを算出する。   Since the two-dimensional discrete wavelet transform is a known technique, detailed description thereof is omitted here. When the two-dimensional discrete wavelet transform is performed, the image data of the brightness component (Y) is decomposed into a low frequency coefficient LL and three high frequency coefficients LH, HL, and HH by a single conversion process. Is done. The multi-resolution image generation means 321 calculates the low frequency coefficient LL and the high frequency coefficients LH, HL, and HH at the next resolution level by repeatedly applying a two-dimensional discrete wavelet transform to the low frequency coefficient LL. .

多重解像度画像操作手段322は、このようにして算出した各解像度レベルでの高周波係数LH、HL、HHの各係数に(式3)による操作を適用する。また、再構成手段323において、多重解像度画像データを再構成して明るさ成分(Y'')の画像データ450を生成する。   The multi-resolution image operation means 322 applies the operation according to (Equation 3) to the high-frequency coefficients LH, HL, and HH at each resolution level calculated in this way. Further, the reconstructing means 323 reconstructs the multi-resolution image data to generate the brightness component (Y ″) image data 450.

このように、多重解像度画像データの生成に際して、2次元の離散ウェーブレット変換を用いることにより、多重解像度画像データを保持するためのメモリ領域を少なくすることが可能となる。また、離散ウェーブレット変換により生成された多重解像度データを用いることにより明瞭感や凹凸感を向上させ、上述した調整比率を適用することによりオーバーレンジの発生を防ぐことが可能となる。   As described above, when the multi-resolution image data is generated, the memory area for holding the multi-resolution image data can be reduced by using the two-dimensional discrete wavelet transform. In addition, the use of multi-resolution data generated by the discrete wavelet transform improves the sense of clarity and the unevenness, and the occurrence of overrange can be prevented by applying the adjustment ratio described above.

<第4実施形態>
上述した第1実施形態では、例えば図6に示す操作内容により明るさ成分(Y)の多重解像度画像データを操作している。これに対して、第4実施形態では、低勾配領域(ラプラシアン成分画像データの絶対値が小さい値となっているデータ箇所)では、第1実施形態と比較して強調を抑える。
<Fourth embodiment>
In the first embodiment described above, the multi-resolution image data of the brightness component (Y) is operated by the operation content shown in FIG. 6, for example. On the other hand, in the fourth embodiment, the emphasis is suppressed in the low gradient region (data location where the absolute value of the Laplacian component image data is a small value) as compared with the first embodiment.

図9は、第4実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。図10は、第4実施形態に係る多重解像度画像データの画素値の操作内容を説明するための拡大図である。なお、図9の例では、多重解像度画像操作手段322、522による第4実施形態での多重解像度画像データに対する操作内容を示している。また、図10の例では、図9に示す原点近傍(ラプラシアン成分画像データの絶対値が小さい領域)の拡大図を示している。   FIG. 9 is a diagram for explaining the operation content of pixel values of multi-resolution image data according to the fourth embodiment. FIG. 10 is an enlarged view for explaining the operation contents of the pixel value of the multi-resolution image data according to the fourth embodiment. In the example of FIG. 9, the operation content for the multi-resolution image data in the fourth embodiment by the multi-resolution image operation means 322 and 522 is shown. Further, the example of FIG. 10 shows an enlarged view of the vicinity of the origin shown in FIG. 9 (region where the absolute value of the Laplacian component image data is small).

図10に示すように、第4実施形態での操作内容(図10に示す実太線)と、第1実施形態での操作内容(図10に示す細実線)とを比較すると、第4実施形態では、例えばラプラシアン成分画像データの各画素値の絶対値が0.04以下において、データ操作における強調量が抑えられている。   As shown in FIG. 10, the operation content in the fourth embodiment (the solid thick line shown in FIG. 10) is compared with the operation content in the first embodiment (the thin solid line shown in FIG. 10). For example, when the absolute value of each pixel value of the Laplacian component image data is 0.04 or less, the enhancement amount in the data operation is suppressed.

画像の信号成分(実際に撮影対象に存在していた濃淡)とは異なり、強調したくない対象であるノイズ成分は、ごく小さな勾配になるものが多い。小さな勾配をラプラシアン成分の視点で考えると、小さなラプラシアン成分に対応する。したがって、例えばラプラシアン成分画像データの絶対値が0.04以下において、操作量を抑える構成とすることでノイズ成分の強調を回避することが可能となる。   Unlike the image signal component (the light and shade that actually existed in the object to be photographed), the noise component that is not to be emphasized often has a very small gradient. If a small gradient is considered from the viewpoint of the Laplacian component, it corresponds to a small Laplacian component. Therefore, for example, when the absolute value of the Laplacian component image data is 0.04 or less, it is possible to avoid the enhancement of the noise component by suppressing the operation amount.

一方で、明るさ成分(Y)の画像データにおいて、強調すべき画素は、明るさ成分(Y)の多重解像度画像データに含まれるラプラシアン成分画像データのノイズ成分よりもやや大きい値を有する画素である。そこで、本実施形態では、例えばラプラシアン成分画像データにおいて画素値の絶対値が0.04よりやや大きい値を有する画素について、操作量を大きくする構成とすることで、画像の明瞭感や凹凸感等の画質の向上を図ることが可能となる。   On the other hand, in the image data of the brightness component (Y), the pixel to be emphasized is a pixel having a value slightly larger than the noise component of the Laplacian component image data included in the multi-resolution image data of the brightness component (Y). is there. Therefore, in the present embodiment, for example, in the Laplacian component image data, a pixel having an absolute value of a pixel value slightly larger than 0.04 is configured to increase the operation amount, so that the image has a clear feeling, an uneven feeling, and the like. Image quality can be improved.

<第5実施形態>
第4実施形態では、多重解像度画像操作手段522は、図9又は図10に示す操作内容を、全ての解像度レベルに対して適用する。これに対して、第5実施形態では、多重解像度画像操作手段522は、例えば図9又は図10に示す操作内容を、解像度レベルが高い多重解像度画像データと、解像度レベルが低い多重解像度画像データとに適用する。
<Fifth Embodiment>
In the fourth embodiment, the multi-resolution image operation unit 522 applies the operation content shown in FIG. 9 or 10 to all resolution levels. On the other hand, in the fifth embodiment, the multi-resolution image operation unit 522 performs, for example, the operation content shown in FIG. 9 or 10 on multi-resolution image data with a high resolution level and multi-resolution image data with a low resolution level. Applies to

これにより、解像度レベルが高い多重解像度画像データと、解像度レベルが低い多重解像度画像データに対しては、例えばラプラシアン成分画像データの画素値の絶対値が小さい画素(低勾配領域)において操作量が抑えられた操作内容が適用される。一方、解像度レベルが中程度の解像度画像データに対しては、ラプラシアン成分画像データの画素値の絶対値が小さい画素において操作量が抑えられていない操作内容が適用される。   As a result, for multi-resolution image data with a high resolution level and multi-resolution image data with a low resolution level, for example, the amount of operation is reduced in pixels (low gradient regions) where the absolute value of the pixel value of Laplacian component image data is small. The specified operation content is applied. On the other hand, for the resolution image data having a medium resolution level, the operation content in which the operation amount is not suppressed is applied to the pixel having a small absolute value of the pixel value of the Laplacian component image data.

ここで、解像度レベルの高/中/低の区分について説明する。例えば、入力される明るさ成分(Y)の画像データのサイズを、例えば4928×3280(画素)とすると、多重解像度画像生成手段321、多重解像度画像操作手段522により生成される解像度レベルは、「0〜12」となる。   Here, the high / medium / low divisions of the resolution level will be described. For example, if the size of the input brightness component (Y) image data is, for example, 4928 × 3280 (pixels), the resolution level generated by the multi-resolution image generation unit 321 and the multi-resolution image operation unit 522 is “ 0-12 ".

この場合、例えば、解像度レベル0から解像度レベル2までは、解像度レベルが高いものとして区分する。この場合、多重解像度画像操作手段322、522では、例えば図9又は図10に示す操作内容を適用する。   In this case, for example, the resolution level 0 to the resolution level 2 are classified as having a high resolution level. In this case, in the multi-resolution image operation means 322 and 522, for example, the operation content shown in FIG. 9 or FIG. 10 is applied.

また、解像度レベル3から解像度レベル7までは、解像度レベルが中程度であるものとして区分する。この場合、多重解像度画像操作手段322、522では、例えば図6に示す操作内容を適用する。更に、解像度レベル8から解像度レベル12までは、解像度レベルが低いものとして区分する。この場合、多重解像度画像操作手段322、522では、例えば図9又は図10に示す操作内容を適用する。   Further, the resolution level 3 to the resolution level 7 are classified as medium resolution levels. In this case, for example, the operation content shown in FIG. 6 is applied to the multi-resolution image operation means 322 and 522. Further, the resolution level 8 to the resolution level 12 are classified as those having a low resolution level. In this case, in the multi-resolution image operation means 322 and 522, for example, the operation content shown in FIG. 9 or FIG. 10 is applied.

なお、解像度レベルに応じて操作内容を変更する構成としたのは以下の理由による。すなわち、明るさ成分(Y)の画像データに含まれるノイズ成分は、多重解像度画像データを生成した場合、解像度レベルが高いラプラシアン成分画像データに多く含まれるためである。一方で、解像度レベルが中程度のラプラシアン成分画像データの場合、ごく小さな勾配にも、実際に存在する濃淡が含まれるためである。   The reason why the operation content is changed according to the resolution level is as follows. That is, the noise component included in the image data of the brightness component (Y) is often included in the Laplacian component image data having a high resolution level when the multi-resolution image data is generated. On the other hand, in the case of Laplacian component image data having a medium resolution level, even a very small gradient includes actually existing shades.

なお、解像度レベルが低いラプラシアン成分画像データの場合、ごく小さな勾配を強調することにより、濃度段差(疑似輪郭)が目立ちやすくなるといった特性がある。このため、ラプラシアン成分画像データの画素値の絶対値が小さい画素については、操作量が抑えられた図9又は図10に示す操作内容を適用する。   Note that Laplacian component image data with a low resolution level has a characteristic that density steps (pseudo contours) are easily noticeable by emphasizing a very small gradient. For this reason, the operation content shown in FIG. 9 or 10 in which the operation amount is suppressed is applied to a pixel having a small absolute value of the pixel value of the Laplacian component image data.

この結果、第5実施形態によれば、ノイズ成分の強調や階調段差(疑似輪郭)の発生を抑えながら、明るさ成分(Y)の画像データにおける信号成分(実際に撮影対象に存在していた濃淡)を必要以上に抑制することなしに強調することが可能となる。つまり、多重解像度画像データの画素値を操作する画像処理において、画像の明瞭感及び凹凸感等の画質の向上を図ることが可能になる。   As a result, according to the fifth embodiment, the signal component in the image data of the brightness component (Y) (which is actually present in the subject to be photographed) is suppressed while suppressing the noise component enhancement and the gradation step (pseudo contour). It is possible to emphasize the image without suppressing it more than necessary. That is, in the image processing for manipulating the pixel values of the multi-resolution image data, it is possible to improve the image quality such as the clearness and unevenness of the image.

<第6実施形態>
第6実施形態では、各解像度レベルのラプラシアン成分画像データの画素値に対する操作の態様が第1実施形態と異なる。第6実施形態は、各解像度レベルにおけるデータ操作を、例えばコントラストを減少させるような操作において適用する。
<Sixth Embodiment>
In the sixth embodiment, the mode of operation for pixel values of Laplacian component image data at each resolution level is different from that in the first embodiment. In the sixth embodiment, the data operation at each resolution level is applied in an operation for reducing the contrast, for example.

図11は、第6実施形態に係る多重解像度画像データの画素値の操作内容を説明するための図である。図11に示す実太線は、第6実施形態における操作内容を表したものであり、操作前のラプラシアン成分画像データと、操作後のラプラシアン成分画像データとの関係を示している。図11に示す点線が、比較用として傾き1の直線を表している。   FIG. 11 is a diagram for explaining the operation content of pixel values of multi-resolution image data according to the sixth embodiment. The solid bold line shown in FIG. 11 represents the operation content in the sixth embodiment, and shows the relationship between the Laplacian component image data before the operation and the Laplacian component image data after the operation. A dotted line shown in FIG. 11 represents a straight line having an inclination of 1 for comparison.

図11に示すように、ラプラシアン成分画像データの画素値が正の値の場合には、傾き1の直線よりも下方に位置し、ラプラシアン成分画像データの画素値が負の値の場合には、傾き1の直線よりも上方に位置するように操作する。図11に示す操作により、多重解像度画像データ(ラプラシアンピラミッド)や、多重解像度画像データを再構成して得られる明るさ成分の画像データのコントラストを減少させる効果が得られる。   As shown in FIG. 11, when the pixel value of the Laplacian component image data is a positive value, the pixel value is positioned below the straight line with the slope 1, and when the pixel value of the Laplacian component image data is a negative value, The operation is performed so as to be positioned above the straight line with the inclination 1. The operation shown in FIG. 11 has the effect of reducing the contrast of multiresolution image data (Laplacian pyramid) and image data of brightness components obtained by reconstructing multiresolution image data.

例えば、写真画像等における人物画像の肌領域等では、コントラストが大きくない方が人物画像を知覚したものが滑らかな肌(好ましい肌)として知覚するようになる。したがって、例えば人物の肌領域を含むような画像に対しては、図11に示すように、画像のコントラストを減少(抑制)させるように操作することで、好ましい人物画像を生成することが可能となる。   For example, in a skin area of a person image in a photographic image or the like, a person who perceives a person image is perceived as smooth skin (preferable skin) when the contrast is not large. Therefore, for example, for an image including a human skin region, it is possible to generate a preferable human image by performing an operation to reduce (suppress) the contrast of the image as shown in FIG. Become.

なお、第6実施形態では、画像のコントラストを減少させる操作であるため、上述した第1〜第5実施形態におけるオーバーレンジの発生等の問題は生じない。しかしながら、画像のコントラストを減少させるような処理を行うことで、元画像におけるホワイトポイント(元画像で最も明るい「明るさ成分値」)が暗くなってグレーとして知覚されたり、元画像でのブラックポイント(元画像で最も暗い「明るさ成分値」)がグレーとして知覚されたりする可能性がある。   In the sixth embodiment, since the operation reduces the contrast of the image, problems such as the occurrence of overrange in the first to fifth embodiments described above do not occur. However, by performing processing that reduces the contrast of the image, the white point in the original image (the brightest “brightness component value” in the original image) becomes darker and perceived as gray, or the black point in the original image (The darkest “brightness component value” in the original image) may be perceived as gray.

上述したホワイトポイントとブラックポイントのグレー化の問題に対して、第6実施形態では、第1実施形態と同様に、調整比率α(x,y)を用いる。この調整比率αを用いることにより、中間の明るさ領域(例えば、元画像におけるY成分の値が0.0及び1.0から離れた値をもつ領域)に対応する各画素値が、多重解像度画像データに対する操作が反映された画素値となる。   In the sixth embodiment, the adjustment ratio α (x, y) is used in the sixth embodiment, as in the first embodiment, with respect to the above-described problem of white point and black point graying. By using this adjustment ratio α, each pixel value corresponding to an intermediate brightness region (for example, a region where the value of the Y component in the original image has a value separated from 0.0 and 1.0) can be converted into multiple resolutions. The pixel value reflects the operation on the image data.

また、高低の明るさ領域(例えば、元画像におけるY成分の値が0.0に近い値及びY成分の値が1.0に近い値)に対応する各画素値が、多重解像度画像に対する操作が反映されていない画素値となり、元画像に近い画像となる。   In addition, each pixel value corresponding to a high and low brightness region (for example, the value of the Y component in the original image close to 0.0 and the value of the Y component close to 1.0) is an operation on the multi-resolution image. Becomes a pixel value that is not reflected, and the image is close to the original image.

したがって、上述した調整により、多重解像度画像データに対するコントラストを抑制させる操作により生じるホワイトポイントとブラックポイントのグレー化の発生を防ぐことが可能となる。これにより、例えば人物画像の肌状態を向上させ、好ましい肌状態や好ましい肌質感を実現することが可能となる。   Therefore, by the above-described adjustment, it is possible to prevent the white point and the black point from being grayed due to the operation for suppressing the contrast with respect to the multi-resolution image data. Thereby, for example, the skin state of a person image can be improved, and a preferable skin state and a preferable skin texture can be realized.

上述した実施形態によれば、多重解像度画像データの画素値を操作する画像処理において、画質の向上を図ることが可能となる。   According to the above-described embodiment, it is possible to improve image quality in image processing that manipulates pixel values of multi-resolution image data.

本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.

100 画像処理装置
110 画像処理プログラム
121 調整比率DB
122 画像操作DB
310 色分解手段
320 明るさ成分処理手段(処理手段の一例)
321 多重解像度画像生成手段
322,522 多重解像度画像操作手段
323,523 再構成手段
330,530 調整手段
340 色合成手段(合成手段の一例)
100 Image processing apparatus 110 Image processing program 121 Adjustment ratio DB
122 Image manipulation DB
310 Color separation means 320 Brightness component processing means (an example of processing means)
321 Multi-resolution image generation means 322, 522 Multi-resolution image operation means 323, 523 Reconstruction means 330, 530 Adjustment means 340 Color composition means (an example of composition means)

特開2006−041744号公報JP 2006-041744 A

Claims (11)

画像データを明るさ成分と色成分とに分解する色分解手段と、
前記色分解手段により得られる明るさ成分の第1の画像データの画素値に応じて、前記明るさ成分の第2の画像データを調整するパラメータを生成する調整手段と、
前記明るさ成分の第1の画像データから生成される多重解像度画像データの画素値を操作し、前記調整手段により生成されるパラメータを用いて、前記明るさ成分の第2の画像データを生成する処理手段と、
前記処理手段により生成される明るさ成分の第2の画像データと、前記色分解手段により得られる色成分の画像データとを合成する合成手段とを有することを特徴とする画像処理装置。
Color separation means for separating image data into brightness components and color components;
Adjusting means for generating a parameter for adjusting the second image data of the brightness component according to a pixel value of the first image data of the brightness component obtained by the color separation means;
The pixel value of the multi-resolution image data generated from the first image data of the brightness component is manipulated, and the second image data of the brightness component is generated using the parameter generated by the adjusting unit. Processing means;
An image processing apparatus comprising: combining means for combining the second image data of the brightness component generated by the processing means and the image data of the color component obtained by the color separation means.
前記調整手段は、
前記処理手段により前記多重解像度画像データの画素値を操作し、操作後の前記多重解像度画像データを再構成した後の明るさ成分のデータ値を調整するパラメータを生成することを特徴とする請求項1に記載の画像処理装置。
The adjusting means includes
The parameter which adjusts the data value of the brightness component after manipulating the pixel value of the multi-resolution image data by the processing means and reconstructing the multi-resolution image data after the operation is generated. The image processing apparatus according to 1.
前記調整手段は、
前記明るさ成分の第1の画像データから生成される中間データに基づいて、前記処理手段により生成される多重解像度画像データの複数の解像度画像のそれぞれに対する操作量を調整するパラメータを生成することを特徴とする請求項1に記載の画像処理装置。
The adjusting means includes
Generating a parameter for adjusting an operation amount for each of a plurality of resolution images of the multi-resolution image data generated by the processing unit based on the intermediate data generated from the first image data of the brightness component; The image processing apparatus according to claim 1, wherein:
前記処理手段は、
前記多重解像度画像データの画素値に対して行う操作が、コントラストを増加させる操作であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
The processing means includes
The image processing apparatus according to claim 1, wherein the operation performed on the pixel value of the multi-resolution image data is an operation of increasing a contrast.
前記処理手段は、
前記多重解像度画像データの画素値に対して行う操作が、コントラストを減少させる操作であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
The processing means includes
The image processing apparatus according to claim 1, wherein the operation performed on the pixel value of the multi-resolution image data is an operation of reducing contrast.
前記処理手段は、
ラプラシアンピラミッドとして生成された前記多重解像度画像データの画素値に対して操作することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
The processing means includes
The image processing apparatus according to claim 1, wherein an operation is performed on a pixel value of the multi-resolution image data generated as a Laplacian pyramid.
前記処理手段は、
離散ウェーブレット変換により生成された前記多重解像度画像データの画素値に対して操作することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
The processing means includes
The image processing apparatus according to claim 1, wherein an operation is performed on a pixel value of the multi-resolution image data generated by a discrete wavelet transform.
前記処理手段は、
前記多重解像度画像データの画素値のうち、前記明るさ成分の第1の画像データのダイナミックレンジの1/10未満の画素値を増加させるように操作することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
The processing means includes
8. The operation according to claim 1, wherein the pixel value of the multi-resolution image data is operated to increase a pixel value less than 1/10 of a dynamic range of the first image data of the brightness component. The image processing apparatus according to any one of claims.
画像データを明るさ成分と色成分とに分解する色分解手順と、
前記色分解手順により得られる明るさ成分の第1の画像データの画素値に応じて、前記明るさ成分の第2の画像データを調整するパラメータを生成する調整手順と、
前記明るさ成分の第1の画像データから生成される多重解像度画像データの画素値を操作し、前記調整手順により生成されるパラメータを用いて、前記明るさ成分の第2の画像データを生成する処理手順と、
前記処理手順により生成される明るさ成分の第2の画像データと、前記色分解手順により得られる色成分の画像データとを合成する合成手順とを有することを特徴とする画像処理方法。
A color separation procedure for separating image data into a brightness component and a color component;
An adjustment procedure for generating a parameter for adjusting the second image data of the brightness component in accordance with a pixel value of the first image data of the brightness component obtained by the color separation procedure;
The pixel value of the multi-resolution image data generated from the first image data of the brightness component is manipulated, and the second image data of the brightness component is generated using the parameter generated by the adjustment procedure. Processing procedure and
An image processing method comprising: a combining procedure for combining the second image data of the brightness component generated by the processing procedure and the image data of the color component obtained by the color separation procedure.
コンピュータを、請求項1乃至8のいずれか一項に記載の画像処理装置が有する各手段として機能させるためのプログラム。   The program for functioning a computer as each means which the image processing apparatus as described in any one of Claims 1 thru | or 8 has. コンピュータを、
画像データを明るさ成分と色成分とに分解する色分解手段、
前記色分解手段により得られる明るさ成分の第1の画像データの画素値に応じて、前記明るさ成分の第2の画像データを調整するパラメータを生成する調整手段、
前記明るさ成分の第1の画像データから生成される多重解像度画像データの画素値を操作し、前記調整手段により生成されるパラメータを用いて、前記明るさ成分の第2の画像データを生成する処理手段、
前記処理手段により生成される明るさ成分の第2の画像データと、前記色分解手段により得られる色成分の画像データとを合成する合成手段として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Computer
Color separation means for separating image data into a brightness component and a color component;
Adjusting means for generating a parameter for adjusting the second image data of the brightness component according to a pixel value of the first image data of the brightness component obtained by the color separation means;
The pixel value of the multi-resolution image data generated from the first image data of the brightness component is manipulated, and the second image data of the brightness component is generated using the parameter generated by the adjusting unit. Processing means,
A computer-readable recording recording a program for causing the second image data of the brightness component generated by the processing unit and the color component image data obtained by the color separation unit to function as a combining unit Medium.
JP2014266030A 2014-12-26 2014-12-26 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP6417938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014266030A JP6417938B2 (en) 2014-12-26 2014-12-26 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014266030A JP6417938B2 (en) 2014-12-26 2014-12-26 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2016127403A true JP2016127403A (en) 2016-07-11
JP6417938B2 JP6417938B2 (en) 2018-11-07

Family

ID=56358185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014266030A Expired - Fee Related JP6417938B2 (en) 2014-12-26 2014-12-26 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6417938B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283807A (en) * 2002-03-20 2003-10-03 Fuji Photo Film Co Ltd Image processing method, apparatus and program
JP2006041744A (en) * 2004-07-23 2006-02-09 M & C:Kk Image processor and processing method
WO2006068025A1 (en) * 2004-12-20 2006-06-29 Nikon Corporation Image processing method
JP2014071853A (en) * 2012-10-02 2014-04-21 Fuji Xerox Co Ltd Image processor, and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283807A (en) * 2002-03-20 2003-10-03 Fuji Photo Film Co Ltd Image processing method, apparatus and program
JP2006041744A (en) * 2004-07-23 2006-02-09 M & C:Kk Image processor and processing method
WO2006068025A1 (en) * 2004-12-20 2006-06-29 Nikon Corporation Image processing method
JP2014071853A (en) * 2012-10-02 2014-04-21 Fuji Xerox Co Ltd Image processor, and image processing program

Also Published As

Publication number Publication date
JP6417938B2 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6432214B2 (en) Image processing apparatus, image processing method, storage medium, and program
JP6255063B2 (en) Image processing for HDR images
US8559744B2 (en) Method for processing a digital object and related system
JP3731577B2 (en) Image processing program
JP4814217B2 (en) System and computer program for converting image from low dynamic range to high dynamic range
JP5668105B2 (en) Image processing apparatus, image processing method, and image processing program
JP4498361B2 (en) How to speed up Retinex-type algorithms
CN105850114A (en) Method for inverse tone mapping of an image
JP2002269556A (en) Method for removing noise from digital image based on multiresolution
US20230052483A1 (en) Super resolution using convolutional neural network
JPH11505350A (en) Image Noise Reduction System Using Wiener Deformation Filter in Pyramid Image Display
US9478004B2 (en) Method and system for analog/digital image simplification and stylization
JP2003134352A (en) Image processing method and apparatus, and program therefor
JP2010539614A (en) Image processing method and apparatus
CN109074637B (en) Method and system for generating an output image from a plurality of respective input image channels
JP2016532367A (en) Multiple phase method for image deconvolution
JP4208767B2 (en) Image processing apparatus and image processing method
Bengtsson et al. Regularized optimization for joint super-resolution and high dynamic range image reconstruction in a perceptually uniform domain
CN116757959A (en) HDR image reconstruction method based on Raw domain
JP6417938B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2020145553A (en) Image processing apparatus, image processing method and program
JP2008211840A (en) Image processing apparatus
JP2016218502A (en) Image processing device, control method, and program
JP2004240732A (en) Image compositing method, image compositing device, image compositing program and image recording device
JP2005039458A (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R151 Written notification of patent or utility model registration

Ref document number: 6417938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees