JP2009060481A - Image processing device and method, learning device and method, and program - Google Patents
Image processing device and method, learning device and method, and program Download PDFInfo
- Publication number
- JP2009060481A JP2009060481A JP2007227350A JP2007227350A JP2009060481A JP 2009060481 A JP2009060481 A JP 2009060481A JP 2007227350 A JP2007227350 A JP 2007227350A JP 2007227350 A JP2007227350 A JP 2007227350A JP 2009060481 A JP2009060481 A JP 2009060481A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- class
- generated
- image
- tap
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000006243 chemical reaction Methods 0.000 claims abstract description 52
- 238000000605 extraction Methods 0.000 claims description 67
- 238000004364 calculation method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 30
- 239000000284 extract Substances 0.000 claims description 22
- 238000003672 processing method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は画像処理装置及び方法、学習装置及び方法、並びにプログラムに関し、特に、画素値がレベル制限された画像から、レベル制限されていない画像を生成するようにした画像処理装置及び方法、学習装置及び方法、並びにプログラムに関する。 The present invention relates to an image processing device and method, a learning device and method, and a program, and in particular, an image processing device and method, and a learning device that generate an image whose level is not limited from an image whose pixel value is level limited. And a method and a program.
放送やパッケージメディアなどの映像コンテンツの色再現範囲を規定する規格として、xvYCCという規格が2006年10月に成立した。このxvYCC規格では、従来のITU-R BT.709の色域(sRGB規格と同等)との互換性を確保しながら、色空間が広げられている。 A standard called xvYCC was established in October 2006 as a standard that defines the color reproduction range of video content such as broadcasting and package media. In the xvYCC standard, the color space is expanded while ensuring compatibility with the conventional ITU-R BT.709 color gamut (equivalent to the sRGB standard).
ITU-R BT.709の色差方式では、図1の上の欄に示されるように、量子化数が8ビットの場合、色情報について、本来の色再現範囲(“1”乃至“254”)に対して、下限値が“16”で上限値が“240”となる範囲にレベル制限されている。 In the color difference method of ITU-R BT.709, as shown in the upper column of FIG. 1, when the quantization number is 8 bits, the original color reproduction range (“1” to “254”) is obtained for color information. On the other hand, the level is limited to a range where the lower limit value is “16” and the upper limit value is “240”.
これに対してxvYCC規格では、図1の下の欄に示されているように、そのようなレベル制限がなされていない。 On the other hand, in the xvYCC standard, as shown in the lower column of FIG. 1, such level restriction is not made.
従ってxvYCC規格に準拠して処理すれば、色再現範囲がsRGB規格を上回るテレビ受像機において、本来の色空間を有する映像コンテンツを再生することができる。 Therefore, if processing is performed in accordance with the xvYCC standard, video content having an original color space can be reproduced on a television receiver having a color reproduction range exceeding the sRGB standard.
しかしながら、例えば既に録画されて保存されている映像コンテンツの中には、図1に示したように、色再現範囲がレベル制限されたものが多く存在する。このようにレベル制限されている映像コンテンツを、色再現範囲が拡大されたテレビ受像機で再生しても、結局は、本来の色空間で映像コンテンツは再生されない。 However, for example, there are many video contents that have already been recorded and stored, as shown in FIG. 1, in which the color reproduction range is limited in level. Even if the video content whose level is limited in this way is reproduced on a television receiver with an expanded color reproduction range, the video content is not reproduced in the original color space after all.
画素値を創造する技術としてクラス分類適用処理が開発されている。色信号についてのクラス分類適応処理とし、単板CCDが出力する画像データから、3板CCD出力相当の画像データを求めるものもある(例えば、特許文献1参照)。
しなしながら、従来においては、クラス分類適用処理により色空間自体を拡張する方法は存在しない。 However, conventionally, there is no method for extending the color space itself by the classification application process.
本発明は、このような状況に鑑みてなされたものであり、クラス分類適用処理により、例えば色再現範囲がレベル制限されている映像コンテンツから、本来の色再現範囲を有する映像コンテンツを生成することできるようにするものである。 The present invention has been made in view of such circumstances, and generates video content having an original color reproduction range from, for example, video content in which the color reproduction range is limited by class classification application processing. It is something that can be done.
本発明の一側面の画像処理装置は、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成する画像処理装置において、前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類手段と、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出手段と、前記クラス分類手段による前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算手段と、前記注目画素の画素値がレベル制限されているか否かを判定する第1の判定手段とを備え、前記クラス分類手段は、前記第1の判定手段による判定結果を含めて前記クラス分類を行う。 An image processing apparatus according to one aspect of the present invention is an image processing apparatus that generates an output image of a predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range. The generated pixel generated from the output image at the position corresponding to the target pixel of interest in the input image is generated using the class tap generated from the plurality of pixels of the input image including the target pixel. Class classification means for classifying into any one of a plurality of classes, and a plurality of pixels used for predicting the generated pixel, and a predetermined plurality of the input images including the target pixel Predictive tap extracting means for extracting the pixels of the input image as predictive taps, a coefficient obtained in advance for the class of the generated pixels by the class classifying means, Prediction classifying means for predicting and calculating the pixel value of the generated pixel using a prediction tap; and first determination means for determining whether or not the pixel value of the target pixel is level-limited, the class classification The means performs the class classification including the determination result by the first determination means.
前記画像処理装置には、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から注目階層クラスタップとして抽出する抽出手段と、前記注目画素を含む前記入力画像の所定の複数の画素を前記入力画像から抽出するとともに、それらの画素の画素値を用いて、前記注目階層クラスタップと同じ画素数の上位階層クラスタップを生成する上位階層クラスタップ生成手段と、前記抽出手段により抽出された前記注目階層クラスタップを構成する全ての画素の画素値がレベル制限されているか否かを判定する第2の判定手段とを更に設け、前記クラス分類手段には、前記第2の判定手段による判定結果に応じて、前記注目階層クラスタップ又は前記上位階層クラスタップをクラスタップとして、前記クラス分類を行わせることができる。 The image processing apparatus includes: an extraction unit that extracts a predetermined plurality of pixels of the input image including the target pixel as a target hierarchical class tap from the input image; and a predetermined plurality of the input image including the target pixel. Are extracted from the input image, and using the pixel values of those pixels, an upper layer class tap generation unit that generates an upper layer class tap having the same number of pixels as the target layer class tap, and the extraction unit A second determination unit that determines whether or not the pixel values of all the pixels constituting the extracted target hierarchy class tap are level-limited, and the class determination unit includes the second determination unit. According to the determination result by the means, the class classification may be performed using the target hierarchy class tap or the upper hierarchy class tap as a class tap. Kill.
前記クラス分類手段には、前記第2の判定手段による判定結果を更に含めて前記クラス分類を行わせることができる。 The class classification unit may further include the determination result by the second determination unit to perform the class classification.
前記上位階層クラスタップ生成手段には、抽出した前記注目画素を含む前記入力画像の所定の複数の画素の画素値を、所定の画素毎に、その画素値の平均値を求め、その結果得られた画素値から、前記上位階層クラスタップを生成させることができる。 The upper layer class tap generation means obtains pixel values of a plurality of predetermined pixels of the input image including the extracted target pixel, calculates an average value of the pixel values for each predetermined pixel, and obtains the result. The upper layer class tap can be generated from the obtained pixel value.
前記入力画像は、色情報又は輝度情報について一定の範囲内にレベル制限されており、前記予測演算手段には、前記生成画素の色差値又は輝度値を、予測演算させることができる。 The level of the input image is limited within a certain range with respect to color information or luminance information, and the prediction calculation means can predict the color difference value or luminance value of the generated pixel.
前記上位階層クラスタップ生成手段には、レベル制限されている色情報又は輝度情報と異なる情報で、前記上位階層クラスタップを生成させることができる。 The upper layer class tap generation unit can generate the upper layer class tap with information different from the color information or luminance information whose level is limited.
前記入力画像が、xvYCC規格に準拠した画像フォーマットであるようにすることができる。 The input image may be in an image format conforming to the xvYCC standard.
本発明の一側面の画像処理方法は、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成する画像処理装置の画像処理方法において、前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出ステップと、前記クラス分類ステップでの前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算ステップと、前記注目画素の画素値がレベル制限されているか否かを判定する判定ステップとを含み、前記クラス分類ステップは、前記判定ステップでの判定結果を含めて前記クラス分類を行う。 An image processing method according to an aspect of the present invention is an image processing apparatus that generates an output image of a predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range. In the image processing method, a generation pixel generated from an output image at a position corresponding to a target pixel of interest in the input image is a class generated from a plurality of pixels of the input image including the target pixel. A class classification step for classifying into one of a plurality of classes using a tap; and a plurality of pixels used for predicting the generated pixel, the input image including the pixel of interest A prediction tap extraction step of extracting a predetermined plurality of pixels as prediction taps from the input image, and a class of the generation pixel in the class classification step in advance A prediction calculation step of predicting and calculating a pixel value of the generated pixel using the coefficient and the prediction tap, and a determination step of determining whether or not the pixel value of the pixel of interest is level-limited. In the class classification step, the class classification is performed including the determination result in the determination step.
本発明の一側面のプログラムは、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成する画像処理をコンピュータに実行させるプログラムにおいて、前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出ステップと、前記クラス分類ステップでの前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算ステップと、前記注目画素の画素値がレベル制限されているか否かを判定する判定ステップとを含み、前記クラス分類ステップは、前記判定ステップでの判定結果を含めて前記クラス分類を行う画像処理をコンピュータに実行させる。 A program according to an aspect of the present invention executes, on a computer, image processing for generating an output image of a predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range. A class tap generated from a plurality of pixels of the input image including the target pixel, the generated pixel of the output image at a position corresponding to the target pixel of interest of the input image A class classification step for classifying into any one of a plurality of classes, and a plurality of pixels used for predicting the generated pixel, the input image including the target pixel A prediction tap extraction step of extracting a predetermined plurality of pixels as prediction taps from the input image, and a generation pixel class in the class classification step. A prediction calculation step for predicting and calculating a pixel value of the generated pixel using a coefficient obtained in advance for a pixel and the prediction tap, and a determination for determining whether or not the pixel value of the target pixel is level-limited The class classification step causes a computer to execute image processing for performing the class classification including the determination result in the determination step.
本発明の一側面の画像処理装置及び方法、並びにプログラムにおいては、入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類が行われ、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素が、前記入力画像から予測タップとして抽出され、前記生成画素のクラスについて予め求められている係数と前記予測タップを用いて、前記生成画素の画素値が予測演算され、前記注目画素の画素値がレベル制限されているか否かが判定され、その判定結果を含めて前記クラス分類が行われる。 In the image processing apparatus and method, and the program according to one aspect of the present invention, the generated pixel generated from the output image at the position corresponding to the target pixel of interest in the input image includes the target pixel. Using the class taps generated from a plurality of pixels of the input image, class classification is performed to classify into any of a plurality of classes, a plurality of pixels used to predict the generated pixels, A plurality of predetermined pixels of the input image including the target pixel are extracted as prediction taps from the input image, and the coefficients of the generation pixels are calculated using coefficients and the prediction taps obtained in advance for the generation pixel class. A pixel value is predicted and determined, and it is determined whether or not the pixel value of the target pixel is level-restricted, and the class classification is performed including the determination result.
本発明の一側面の学習装置は、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成するために用いられる変換係数を生成する学習装置であって、前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類手段と、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出手段と、前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算手段とを備える。 The learning device according to one aspect of the present invention provides a conversion used for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range. A learning device for generating a coefficient, which is generated from an output image at a position corresponding to a target pixel of interest of a student image whose level is limited within a certain range with respect to the predetermined reproduction range. Classifying means for classifying a generated pixel into any one of a plurality of classes using a class tap generated from a plurality of pixels of the student image including the target pixel; and the generation A prediction tap extracting unit that extracts a plurality of predetermined pixels of the student image including the target pixel as prediction taps, which are a plurality of pixels used for predicting a pixel; Extracting the pixel value of the teacher pixel corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, And an arithmetic means for obtaining the conversion coefficient corresponding to the class of the generated pixel, which is used for predicting a pixel value.
前記教師画像が、前記所定の再現範囲に対して一定の範囲内にレベル制限されているようにすることができる。 The teacher image may be level-limited within a certain range with respect to the predetermined reproduction range.
本発明の一側面の学習方法は、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成するために用いられる変換係数を生成する学習装置の学習方法であって、前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出ステップと、前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算ステップとを含む。 A learning method according to an aspect of the present invention provides a conversion used to generate an output image of a predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range. A learning method of a learning device for generating a coefficient, wherein an output image at a position corresponding to a target pixel of interest of a student image whose level is limited within a certain range with respect to the predetermined reproduction range A class classification step for classifying the generated pixels generated from the classifier into any one of a plurality of classes using class taps generated from a plurality of pixels of the student image including the target pixel; A prediction unit that extracts a plurality of predetermined pixels of the student image including the target pixel as prediction taps, which are a plurality of pixels used for predicting the generated pixel. Extracting a teacher pixel value corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, the prediction tap And calculating the conversion coefficient corresponding to the class of the generated pixel, which is used to predict the pixel value of the generated pixel.
本発明の一側面のプログラムは、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成するために用いられる変換係数を生成する学習処理をコンピュータに実行させるプログラムであって、前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出ステップと、前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算ステップとを含む学習処理をコンピュータに実行させる。 A program according to an aspect of the present invention is a conversion coefficient used for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range. An output image at a position corresponding to a target pixel of interest of a student image whose level is limited within a certain range with respect to the predetermined reproduction range. Class classification for classifying a generated pixel generated from now into one of a plurality of classes using a class tap generated from a plurality of pixels of the student image including the target pixel A plurality of pixels used for predicting the generated pixel, wherein a predetermined plurality of pixels of the student image including the target pixel are predicted from the student image. A prediction tap extraction step for extracting as a tap, and a teacher pixel value corresponding to the generated pixel is extracted from a teacher image having the predetermined reproduction range, and the extracted pixel value of the teacher pixel and the prediction tap are used. Then, the computer is caused to perform a learning process including a calculation step for obtaining the conversion coefficient corresponding to the class of the generated pixel, which is used for predicting the pixel value of the generated pixel from the prediction tap.
本発明の一側面の学習装置及び学習方法、並びにプログラムにおいては、所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類が行われ、前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素が、前記生徒画像から予測タップとして抽出され、前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値が抽出され、抽出された前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数が求められる。 In the learning apparatus, the learning method, and the program according to one aspect of the present invention, an output at a position corresponding to a target pixel of interest of a student image whose level is limited within a certain range with respect to a predetermined reproduction range. Class classification is performed in which generated pixels generated from the current image are classified into one of a plurality of classes using class taps generated from a plurality of pixels of the student image including the target pixel. , A plurality of pixels used for predicting the generated pixel, wherein a plurality of predetermined pixels of the student image including the target pixel are extracted as prediction taps from the student image and have the predetermined reproduction range From the teacher image, the pixel value of the teacher pixel corresponding to the generated pixel is extracted, and the extracted pixel value of the teacher pixel and the prediction tap are used to extract from the prediction tap. Are used to predict the pixel value of the serial generated pixel, the transform coefficients corresponding to the class of the generated pixel is obtained.
本発明の一側面によれば、クラス分類適用処理により、再現範囲がレベル制限されている画像から、本来の再現範囲を有する画像を生成することができる。 According to one aspect of the present invention, an image having an original reproduction range can be generated from an image whose reproduction range is limited by the class classification application process.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の画像処理装置は、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成する画像処理装置において、
前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類手段(例えば、図2のクラス分類部21)と、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出手段(例えば、図2の予測タップ抽出部41)と、
前記クラス分類手段による前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算手段(例えば、図2の演算部42)と、
前記注目画素の画素値がレベル制限されているか否かを判定する第1の判定手段(例えば、図2のクラスタップ抽出部32)と
を備え、
前記クラス分類手段は、前記第1の判定手段による判定結果を含めて前記クラス分類を行う。
An image processing apparatus according to one aspect of the present invention is an image processing apparatus that generates an output image of a predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range. ,
Using the class tap generated from the plurality of pixels of the input image including the target pixel, the generated pixel generated from the output image at the position corresponding to the target pixel of interest of the input image, Class classification means (for example, the
Prediction tap extraction means (for example, FIG. 2) that extracts a plurality of predetermined pixels of the input image including the target pixel as prediction taps, which are a plurality of pixels used for predicting the generated pixel. Prediction tap extraction unit 41),
Prediction calculation means (for example, the
First determination means for determining whether or not the pixel value of the target pixel is level-limited (for example, the class
The class classification unit performs the class classification including a determination result by the first determination unit.
前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から注目階層クラスタップとして抽出する抽出手段(例えば、図2のクラスタップ抽出部32)と、
前記注目画素を含む前記入力画像の所定の複数の画素を前記入力画像から抽出するとともに、それらの画素の画素値を用いて、前記注目階層クラスタップと同じ画素数の上位階層クラスタップを生成する上位階層クラスタップ生成手段(例えば、図2の上位階層クラスタップ生成部33)と、
前記抽出手段により抽出された前記注目階層クラスタップを構成する全ての画素の画素値がレベル制限されているか否かを判定する第2の判定手段(例えば、図2のADRC処理部34)と
を更に備え、
前記クラス分類手段は、前記第2の判定手段による判定結果に応じて、前記注目階層クラスタップ又は前記上位階層クラスタップをクラスタップとして、前記クラス分類を行う。
Extraction means (for example, the class
A plurality of predetermined pixels of the input image including the target pixel are extracted from the input image, and an upper layer class tap having the same number of pixels as the target layer class tap is generated using pixel values of the pixels. Upper layer class tap generation means (for example, the upper layer class
Second determination means (for example,
The class classification unit performs the class classification using the target layer class tap or the upper layer class tap as a class tap according to a determination result by the second determination unit.
前記クラス分類手段は、前記第2の判定手段による判定結果を更に含めて前記クラス分類を行う(例えば、図2のクラス値生成部35)。
The class classification unit performs the class classification further including the determination result by the second determination unit (for example, the class
前記上位階層クラスタップ生成手段は、抽出した前記注目画素を含む前記入力画像の所定の複数の画素の画素値を、所定の画素毎に、その画素値の平均値を求め、その結果得られた画素値から、前記上位階層クラスタップを生成する(例えば、図4)。 The upper layer class tap generation means obtains pixel values of a plurality of predetermined pixels of the input image including the extracted target pixel, and calculates an average value of the pixel values for each predetermined pixel, and the result is obtained. The upper layer class tap is generated from the pixel value (for example, FIG. 4).
前記入力画像は、色情報又は輝度情報について一定の範囲内にレベル制限されており、
前記予測演算手段は、前記生成画素の色差値又は輝度値を、予測演算する(例えば、図10)。
The input image is limited in level within a certain range for color information or luminance information,
The prediction calculation means performs a prediction calculation on the color difference value or the luminance value of the generated pixel (for example, FIG. 10).
本発明の一側面の画像処理方法又はプログラムは、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成する画像処理装置の画像処理方法において、又は画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成する画像処理をコンピュータに実行させるプログラムにおいて、
前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップ(例えば、図6のステップS13)と、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出ステップ(例えば、図6のステップS15)と、
前記クラス分類ステップでの前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算ステップ(例えば、図6のステップS16)と、
前記注目画素の画素値がレベル制限されているか否かを判定する判定ステップ(例えば、図7のステップS21)と
を含み、
前記クラス分類ステップは、前記判定ステップでの判定結果を含めて前記クラス分類を行う(例えば、図7のステップS32)。
An image processing method or program according to one aspect of the present invention is an image processing for generating an output image of a predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range. In the image processing method of the apparatus, the computer executes image processing for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range In the program
Using the class tap generated from the plurality of pixels of the input image including the target pixel, the generated pixel generated from the output image at the position corresponding to the target pixel of interest of the input image, A class classification step (for example, step S13 in FIG. 6) for classifying into any of a plurality of classes;
A prediction tap extracting step of extracting a plurality of predetermined pixels of the input image including the target pixel as prediction taps, which are a plurality of pixels used for predicting the generated pixel (for example, FIG. 6). Step S15),
A prediction calculation step (for example, step S16 in FIG. 6) for predicting and calculating the pixel value of the generated pixel using the coefficient obtained in advance for the class of the generated pixel in the class classification step and the prediction tap; ,
A determination step (for example, step S21 in FIG. 7) for determining whether or not the pixel value of the target pixel is level-limited,
In the class classification step, the class classification is performed including the determination result in the determination step (for example, step S32 in FIG. 7).
本発明の一側面の学習装置は、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成するために用いられる変換係数を生成する学習装置であって、
前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類手段(例えば、図8のクラス分類部62)と、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出手段(例えば、図8の予測タップ抽出部81)と、
前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算手段(例えば、図8の係数生成部64)と
を備える。
The learning device according to one aspect of the present invention provides a conversion used for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range. A learning device that generates coefficients,
The generation pixel generated from the output image at the position corresponding to the target pixel of interest of the student image whose level is limited within a certain range with respect to the predetermined reproduction range includes the target pixel Class classification means (for example,
Prediction tap extraction means (for example, FIG. 8) that extracts a plurality of predetermined pixels of the student image including the target pixel as prediction taps, which are a plurality of pixels used for predicting the generated pixel. Prediction tap extraction unit 81),
Extracting the pixel value of the teacher pixel corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, And a calculation unit (for example, a
本発明の一側面の学習方法又はプログラムは、画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成するために用いられる変換係数を生成する学習装置の学習方法であって、又は画素値が所定の再現範囲に対して一定の範囲内にレベル制限されている入力画像から、前記所定の再現範囲の出力画像を生成するために用いられる変換係数を生成する学習処理をコンピュータに実行させるプログラムであって、
前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップ(例えば、図9のステップS53)と、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出ステップ(例えば、図9のステップS54)と、
前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算ステップ(例えば、図9のステップS57)と
を含む。
A learning method or program according to one aspect of the present invention is used to generate an output image of a predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range. A learning method for a learning device that generates a conversion coefficient, or generates an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range A program for causing a computer to execute a learning process for generating a conversion coefficient used for
The generation pixel generated from the output image at the position corresponding to the target pixel of interest of the student image whose level is limited within a certain range with respect to the predetermined reproduction range includes the target pixel Using a class tap generated from a plurality of pixels of the student image, a class classification step for classifying the class image into any of a plurality of classes (for example, step S53 in FIG. 9);
A prediction tap extraction step (for example, FIG. 9) that extracts a plurality of predetermined pixels of the student image including the target pixel as prediction taps that are a plurality of pixels used for predicting the generated pixel. Step S54),
Extracting the pixel value of the teacher pixel corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, A calculation step (for example, step S57 in FIG. 9) for obtaining the conversion coefficient corresponding to the class of the generated pixel, which is used for predicting a pixel value.
以下、図面を参照して、本発明を適用した実施の形態について説明する。 Embodiments to which the present invention is applied will be described below with reference to the drawings.
図2は、本発明を適用した画像処理装置11の構成例を示している。
FIG. 2 shows a configuration example of the
画像処理装置11には、画素値が所定の再現範囲に対して一定の範囲内にレベル制限された画像が入力画像として入力される。画像処理装置11は、この入力画像から、クラス分類適応処理により、本来の再現範囲の画像(則ちレベル制限されていない画像に相当する画像)(以下、出力画像と称する)を生成する。則ちレベル制限されている画像が、レベル制限されていない画像に変換される。
An image whose pixel value is level-limited within a predetermined range with respect to a predetermined reproduction range is input to the
この場合、図1の上段の欄に示されるように、色情報についての本来の色再現範囲(“1”乃至“254”)に対して、下限値が“16”で上限値が“240”となる範囲にレベル制限されているITU-R BT.709規格に準拠した動画が、入力画像として入力されるものとする。画像処理装置11は、この入力画像から、xvYCC規格に準拠した画像に相当する画像、則ち色情報について本来の色再現範囲を有する出力画像を生成する。
In this case, as shown in the upper column of FIG. 1, the lower limit value is “16” and the upper limit value is “240” with respect to the original color reproduction range (“1” to “254”) for color information. It is assumed that a moving image conforming to the ITU-R BT.709 standard that is level-limited to the range is input as an input image. From this input image, the
画像処理装置11は、クラス分類部21、係数読み出し部22、データ生成部23、表示制御部24、及び表示部25から構成される。
The
クラス分類部21及びデータ生成部23には、入力画像が例えばフレーム単位で供給される。
An input image is supplied to the
クラス分類部21は、供給された入力画像を用いて、これから生成しようとする出力画像を構成する画素(現段階では存在しないため、仮想的に想定される画素)(以下、生成画素と称する)を、後述するように、各クラスタップの特性(例えば、輝度値)に基づいて複数のクラスのうちの何れかにクラス分けするクラス分類を行う。
The
クラス分類部21は、このクラス分類の結果としての生成画素のクラス値(以下、クラス値classと称する)を係数読み出し部22に供給する。
The
係数読み出し部22は、生成画素のクラス値classから定まる変換係数を保持している。係数読み出し部22は、保持している変換係数のうち、クラス分類部21から供給されたクラス値classから定まる変換係数を読み出してデータ生成部23に供給する。
The
データ生成部23は、供給された入力画像及び係数読み出し部22から供給された変換係数を用いて、生成画素の画素値を予測演算し、その結果得られた画素値を表示制御部224に供給する。
The
なおこの例の場合、本来の色再現範囲を有する出力画像が生成されるので、ここで予測される画素値は、色差値であり、輝度値はそのまま保持されるものとする。また以下において、特に言及する場合を除き、“画素値”は、色差値を意味するものとする。 In the case of this example, an output image having an original color reproduction range is generated. Therefore, the pixel value predicted here is a color difference value, and the luminance value is held as it is. In the following description, “pixel value” means a color difference value unless otherwise specified.
表示制御部24は、データ生成部23から供給された画素値を用いて、出力画像を生成し、表示部25に供給して表示させる。
The
表示部25は、xvYCC規格に準拠した色空間で映像信号を表示する機能を有している。表示部25は、表示制御部24から供給された出力画像を表示する。
The
次にクラス分類部21の構成について説明する。
Next, the configuration of the
クラス分類部21は、レベル制限判定部31、クラスタップ抽出部32、上位階層クラスタップ生成部33、ADRC(Adaptive Dynamic Range coding)処理部34、及びクラス値生成部35から構成されている。
The
レベル制限判定部31、クラスタップ抽出部32、及び上位階層クラスタップ生成部33のそれぞれには、入力画像が供給される。
An input image is supplied to each of the level
レベル制限判定部31は、入力画像を構成するある画素に注目し、その注目画素の画素値(この例の場合、色差値)がレベル制限されているか否かを判定し、その判定結果を、クラス値生成部35に供給する。
The level
この例の場合、レベル制限判定部31は、注目画素の画素値がレベル制限されているか否かの判定結果に基づいて、レベル制限情報をクラス化し、そのクラス値(以下、クラス値pclassと称する)を、クラス値生成部35に供給する。
In this example, the level
具体的には、レベル制限判定部31は、注目画素の画素値がレベル制限の下限値(“16”)であるか若しくは上限値(“240”)であるか、又はそれ以外の値(“17”乃至“239”)であるか否かを判定する。
Specifically, the level
レベル制限判定部31は、その判定結果を示すクラス値pclass(例えば、注目画素が、下限値にレベル制限されていることを示すクラス値pclass(例えば、2)、上限値にレベル制限されていることを示すクラス値pclass(例えば、1)、又は上限値若しくは下限値以外の値であってレベル制限されていないことを示すクラス値pclass)(例えば、3))を、クラス値生成部35に供給する。
The level
クラスタップ抽出部32は、入力画像から、注目画素及びその注目画素と所定の位置関係にある画素をクラスタップの候補(以下、クラスタップ候補と称する)として抽出する。
The class
この例の場合、図3に示すように、図中、黒丸で示されている注目画素を中心とする3×3の画素の合計9個の画素がクラスタップ候補として抽出される。 In the case of this example, as shown in FIG. 3, a total of nine pixels of 3 × 3 pixels centering on the target pixel indicated by a black circle in the drawing are extracted as class tap candidates.
クラスタップ抽出部32は、出力画像上の、入力画像における注目画素の位置と同じ位置にある生成画素について、抽出したクラスタップ候補を用いてADRC処理によるクラス化が可能であるか否かを判定し、その判定結果を示すフラグを、ADRC処理部34及びクラス値生成部35に供給する。
The class
この例の場合、クラスタップ抽出部32は、抽出したクラスタップ候補の全ての画素の画素値がレベル制限されている(例えば、下限値又は上限値である)か否かを判定する。
In the case of this example, the class
クラスタップ抽出部32は、抽出したクラスタップ候補の全ての画素の画素値が下限値又は上限値ではないと判定した場合、則ちそれ以外の値の画素値が少なくとも1個含まれている場合、クラスタップ候補を用いたADRC処理により生成画素のクラス化が可能であるとして、フラグの値を0とする。
When the class
クラスタップ抽出部32はまた、抽出したクラスタップ候補の全ての画素の画素値が下限値又は上限値である場合、クラスタップ候補を用いたADRC処理により生成画素のクラス化ができないものとして、全ての画素値が上限値であるとき、フラグの値を1とし、全ての画素の画素値が下限値であるとき、フラグの値を2とする。
The class
クラスタップ候補の全ての画素の画素値が上限値又は下限値である場合、その画素値はレベル制限されている可能性があり、その場合その値は本来の画素値でない。則ち、空間的な画像情報が欠落しているので、そのクラスタップ候補を用いたADRC処理による生成画素のクラス値aclassは、ADRC処理による生成画素のクラスを適切に表していない。 If the pixel values of all the pixels of the class tap candidate are the upper limit value or the lower limit value, the pixel value may be limited in level, and in that case, the value is not the original pixel value. In other words, since spatial image information is missing, the class value aclass of the generated pixel by ADRC processing using the class tap candidate does not appropriately represent the class of the generated pixel by ADRC processing.
そこで抽出したクラスタップ候補の全ての画素の画素値が下限値又は上限値である場合、クラスタップ候補を用いたADRC処理により生成画素のクラス化ができないものとする。 Therefore, if the pixel values of all the extracted class tap candidates are the lower limit value or the upper limit value, the generated pixels cannot be classified by ADRC processing using the class tap candidates.
クラスタップ抽出部32は、ADRC処理部34からの要求に応じてクラスタップ候補を、ADRC処理部34に供給する。
The class
上位階層クラスタップ生成部33は、入力画像から、注目画素及びその注目画素と所定の位置関係にある画素を抽出するとともに、それらから、上位階層のクラスタップとしての縮小画像を生成する。なおクラスタップ候補、則ち本来注目しているクラスタップを、注目階層クラスタップとも称するものとする。
The upper layer class
この例の場合、図4の左側に示すように、図中、黒丸で示されている注目画素を中心とする9×9の画素の合計81個の画素が抽出され、図中点線で囲われている3×3の画素毎にそれらの画素の画素値の平均値が求められる。則ち図4の右側に示すように、その平均値を画素値とする3×3画素の縮小画像が生成される。また、3×3画素の平均値ではなく、重みつき平均などを用いて縮小画像を生成することもできる。
In the case of this example, as shown on the left side of FIG. 4, a total of 81 pixels of 9 × 9 pixels centering on the pixel of interest indicated by a black circle in the figure are extracted and surrounded by a dotted line in the figure. For each 3 × 3 pixel, the average value of the pixel values of these pixels is obtained. That is, as shown on the right side of FIG. 4, a reduced image of 3 × 3 pixels having the average value as the pixel value is generated. In addition, a reduced image can be generated using a weighted average instead of the average value of 3 × 3 pixels.
上位階層クラスタップ生成部33は、ADRC処理部34からの要求に応じて生成した縮小画像を、ADRC処理部34に供給する。
The upper layer class
ADRC処理部34は、クラスタップ抽出部32から供給されたフラグの値に応じて、クラスタップ抽出部32からのクラスタップ候補又は上位階層クラスタップ生成部33からの縮小画像をクラスタップとして、それにADRC処理を施して生成画素をクラス分類し、その結果としての生成画素のクラスを示すクラス値(以下、クラス値aclassと称する)を、クラス値生成部35に供給する。
The
例えば、ADRC処理部34は、クラスタップに1ビットADRC処理を施す。則ち、クラスタップを構成する画素の画素値の最大値MAXと最小値MINとの差DR(DR=MAX-MIN)が、クラスタップを構成する画素の集合の局所的なダイナミックレンジとされる。このダイナミックレンジDRに基づいて、クラスタップを構成する画素の画素値が1ビットに再量子化される。つまり、クラスタップを構成する各画素の画素値から最小値MINが減算され、その減算値がDR/2で除算(量子化)される。
For example, the
そして、ADRC処理部34は、クラスタップを構成する1ビットの各画素の画素値を所定の順番で並べたビット列であるクラス値aclassをクラス値生成部35に出力する。
Then, the
この例の場合、クラスタップは3×3の9個の画素であるので、ADRC処理部34からクラス値生成部35には、9ビットのクラス値aclass(1乃至512)が供給される。
In this example, since the class tap is 9 pixels of 3 × 3, the 9-bit class value aclass (1 to 512) is supplied from the
クラス値生成部35は、レベル制限判定部31から供給された注目画素のレベル制限情報のクラス値pclass、クラスタップ抽出部32から供給されたフラグ、及びADRC処理部34から供給されたADRC処理の結果としての生成画素のクラス値aclassを統合して、1つのクラス値classを生成し、それを係数読み出し部22に供給する。
The class
次にデータ生成部23の構成例について説明する。
Next, a configuration example of the
データ生成部23は、予測タップ抽出部41及び演算部42から構成される。
The
予測タップ抽出部41は、供給された入力画像から、注目画素及びその注目画素と所定の位置関係にある画素を、生成画素の画素値を予測するために用いられる予測タップとして抽出する。予測タップ抽出部41は、抽出した予測タップを演算部42に供給する。
The prediction
この例の場合、図5に示すように、図中、黒丸で示されている注目画素を中心とする9×9の画素の合計81個の画素が、予測タップとして抽出される。 In the case of this example, as shown in FIG. 5, a total of 81 pixels of 9 × 9 pixels centering on the pixel of interest indicated by a black circle in the drawing are extracted as prediction taps.
演算部42は、予測タップ抽出部41から供給された予測タップを構成する画素の画素値に、係数読み出し部22から供給された変換係数を乗算して、生成画素の画素値を予測演算する。演算部42は、予測演算により得られた生成画素の画素値を表示制御部24に供給する。
The
次に、画像処理装置11における画像生成処理を、図6のフローチャートを参照して説明する。
Next, image generation processing in the
ステップS11において、クラス分類部21は、入力画像から注目画素を決定し、ステップS12において、注目画素の画素値(この例の場合、色差値)を取得する。
In step S11, the
ステップS13において、クラス分類部21は、クラス分類処理を実行する。このクラス分類処理を、図7のフローチャートを参照して説明する。
In step S13, the
ステップS21において、クラス分類部21のレベル制限判定部31は、注目画素のレベル制限情報をクラス化する。
In step S21, the level
具体的には上述したように、レベル制限判定部31は、注目画素の画素値が下限値(“16”)であるか若しくは上限値(“240”)であるか、又はそれ以外の値(“17”乃至“239”)であるか否かを判定する。
Specifically, as described above, the level
レベル制限判定部31は、その判定結果に基づいて、画素値が“16”である場合、クラス値pclassを、注目画素が下限値にレベル制限されていることを示す2とし、画素値が“240”である場合、クラス値pclassを、注目画素が上限値にレベル制限されていることを示す1とし、画素値が“17”乃至“239”の何れかの値である場合、注目画素がレベル制限されていないことを示す0とする。
When the pixel value is “16” based on the determination result, the level
レベル制限判定部31は、このように決定したクラス値pclassを、クラス値生成部35に供給する。
The level
ステップS22において、クラスタップ抽出部32は、図3に示したように、入力画像から、図6のステップS11で決定された注目画素及びその注目画素と所定の位置関係にある画素をクラスタップの候補として抽出する。
In step S22, as shown in FIG. 3, the class
ステップS23において、クラスタップ抽出部32は、クラスタップ候補を構成する全ての画素の画素値が上限値又は下限値であるか否かを判定する。
In step S23, the class
ステップS23で、クラスタップ候補を構成する全ての画素の画素値が上限値又は下限値でないと判定された場合、則ち上限値又は下限値でもない値の画素値が少なくとも1つ含まれている場合、クラスタップ抽出部32は、ステップS24において、フラグの値を、クラスタップ候補を用いてADRC処理により生成画素のクラス化が可能であるとことを示す0とし、そのフラグを、ADRC処理部34及びクラス値生成部35に供給する。
If it is determined in step S23 that the pixel values of all the pixels constituting the class tap candidate are not the upper limit value or the lower limit value, at least one pixel value that is neither the upper limit value nor the lower limit value is included. In this case, in step S24, the class
次にステップS25において、ADRC処理部34は、ステップS22で抽出されたクラスタップ候補をクラスタップ抽出部32から取得し、クラスタップとする。
Next, in step S25, the
ステップS23で、クラスタップ候補を構成する全ての画素の画素値が上限値又は下限値であると判定された場合、ステップS26において、クラスタップ抽出部32は、クラスタップ候補を構成する全ての画素の画素値が上限値であるか否かを判定する。
If it is determined in step S23 that the pixel values of all the pixels constituting the class tap candidate are the upper limit value or the lower limit value, in step S26, the class
ステップS26で、全ての画素値が上限値であると判定した場合、クラスタップ抽出部32は、ステップS27において、フラグの値を、クラスタップ候補の全ての画素の画素値が上限値であるためクラスタップ候補を用いたADRC処理により注目画素のクラス化ができないことを示す1とし、そのフラグを、ADRC処理部34及びクラス値生成部35に供給する。
If it is determined in step S26 that all the pixel values are the upper limit value, the class
ステップS28において、ADRC処理部34は、上位階層クラスタップ生成部33から、図6のステップS11で決定された注目画素等から生成された縮小画像を取得し、その画素をクラスタップとする。
In step S28, the
ステップS26で、クラスタップ候補を構成する全ての画素の画素値が上限値ではないと判定された場合、則ち全ての画素値が下限値である場合、ステップS29において、クラスタップ抽出部32は、フラグの値を、クラスタップ候補の全ての画素の画素値が下限値であるためにクラスタップ候補を用いたADRC処理により注目画素のクラス化ができないことを示す2とし、そのフラグを、ADRC処理部34及びクラス値生成部35に供給する。
If it is determined in step S26 that the pixel values of all the pixels constituting the class tap candidate are not the upper limit value, that is, if all the pixel values are the lower limit value, in step S29, the class
ステップS30において、ADRC処理部34は、上位階層クラスタップ生成部33から、図6のステップS11で決定された注目画素等から生成された縮小画像を取得し、その画素をクラスタップとする。
In step S30, the
ステップS25、ステップS28、又はステップS30でクラスタップを取得したADRC処理部34は、ステップS31において、クラスタップ抽出部32から取得したクラスタップ(則ち、クラスタップ候補)、又は上位階層クラスタップ生成部33から取得したクラスタップ(則ち、縮小画像)にADRC処理を施し、その結果としての生成画素のクラスを示すクラス値aclassを、クラス値生成部35に供給する。
The
ステップS32において、クラス値生成部35は、レベル制限判定部31から供給されたクラス値pclass、クラスタップ抽出部32から供給されたフラグ、及びADRC処理部34から供給されたクラス値aclassに基づいて、生成画素をクラス分類し、その結果得られるクラス値classを、係数読み出し部22に供給する。
In step S32, the class
具体的には、レベル制限判定部31から供給されたクラス値pclass(0乃至2)、ADRC処理部34から供給されたクラス値aclass(1乃至512)、及びクラスタップ抽出部32から供給されたフラグ(0乃至2)が、その順番に結合されて得られるビット列がクラス値classとされる。クラス値pclassとなり得る値は、0乃至2であり、クラス値aclassとなり得る値は、1乃至512であり、フラグの値となり得る値は、0乃至2であるので、クラス値classの総数は、この例の場合4608(=3×512×3)個となる。
Specifically, the class value pclass (0 to 2) supplied from the level
このようにクラス分類処理が行われると、処理は図6のステップS14に進み、係数読み出し部22は、保持している変換係数のうち、クラス分類部21のクラス値生成部35から供給されたクラス値classから定まる変換係数を読み出して、読み出した変換係数をデータ生成部23の演算部42に供給する。
When the class classification process is performed in this way, the process proceeds to step S14 in FIG. 6, and the
ステップS15において、データ生成部23の予測タップ抽出部41は、図5に示したように、入力画像から、ステップS11で決定された注目画素及びその注目画素と所定の位置関係にある画素を、予測タップとして抽出し、抽出した予測タップを演算部42に供給する。
In step S15, as shown in FIG. 5, the prediction
ステップS16において、データ生成部23の演算部42は、係数読み出し部22から供給された変換係数を、予測タップ抽出部41から供給された予測タップを構成する画素の画素値に乗算して、生成画素の画素値を予測演算する。演算部42は、予測演算により得られた生成画素の画素値を表示制御部24に出力する。
In step S <b> 16, the
表示制御部24は、演算部42から供給された生成画素の画素値を、注目画素の入力画像上の位置と同じ位置にある出力画像の画素の画素値とする。
The
ステップS17において、画像処理装置11は、出力画素(例えば、1フレーム分の入力画像)の全ての画素について、予測演算を行ったか否かを判定し、まだ全ての画素について予測演算を行っていないと判定した場合、ステップS11に戻り、次の注目画素が決定されて、その注目画素に対して、ステップS12以降の処理が同様に行われ、その注目画素に対応する生成画素が生成される。
In step S17, the
一方、ステップS17において、全ての画素について予測演算を行ったと判定された場合、ステップS18において、表示制御部24は、生成した生成画素から出力画像を構成し、表示部25に供給して表示させる。
On the other hand, when it is determined in step S17 that the prediction calculation has been performed for all the pixels, in step S18, the
このようにして色再現範囲がレベル制限されている入力画像から、本来の色再現範囲を有する出力画像が生成される。 In this way, an output image having the original color reproduction range is generated from the input image whose color reproduction range is limited.
次に、図2の係数読み出し部22に記憶される変換係数と、データ生成部23の演算部42における予測演算の学習について説明する。
Next, learning of the conversion coefficient stored in the
例えば、クラス分類適応処理として、入力画像から予測タップを抽出し、その予測タップと変換係数とを用いて、色再現範囲がレベル制限されていない画素の画素値を所定の予測演算によって求める(予測する)ことを考える。 For example, as a classification adaptation process, a prediction tap is extracted from an input image, and a pixel value of a pixel whose color reproduction range is not level-limited is obtained by a predetermined prediction calculation using the prediction tap and a conversion coefficient (prediction) Think about that.
所定の予測演算として、例えば、線形1次予測演算を採用することとすると、生成画素の画素値yは、式(1)に示す線形1次式によって求められることになる。 For example, if a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the generated pixel is obtained by a linear primary expression shown in Expression (1).
式(1)において、xiは、生成画素の画素値yについての予測タップを構成する、i番目の入力画像の画素の画素値を表し、wiは、i番目の入力画像の画素の画素値と乗算されるi番目の変換係数を表す。なお、式(1)では、予測タップがN個の画素x1,x2,・・・,xNで構成されるものとしてある。 In Expression (1), x i represents the pixel value of the pixel of the i-th input image that constitutes the prediction tap for the pixel value y of the generated pixel, and w i is the pixel of the pixel of the i-th input image. Represents the i-th transform coefficient multiplied by the value. In Equation (1), the prediction tap is assumed to be composed of N pixels x 1 , x 2 ,..., X N.
ここで、生成画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の線形関数の式によって求めるようにすることも可能である。また、線形関数に限らず、非線形関数によって生成画素の画素値を求めるようにしてもよい。 Here, the pixel value y of the generated pixel can be obtained not by the linear primary expression shown in Expression (1) but by an expression of a higher-order linear function of the second or higher order. Further, the pixel value of the generated pixel may be obtained not only by a linear function but also by a nonlinear function.
いま、第sサンプルの生成画素の画素値の真値をysと表すとともに、式(1)によって得られるその真値ysの予測値をys'と表すと、その予測誤差esは、次式(2)で表される。 Now, when the true value of the pixel value of the generated pixel of the sth sample is expressed as y s and the predicted value of the true value y s obtained by the equation (1) is expressed as y s ′, the prediction error es is Is represented by the following equation (2).
いま、式(2)の予測値ys'は、式(1)に従って求められるため、式(2)のys'を、式(1)に従って置き換えると、次式(3)が得られる。 Now, since the predicted value y s ′ of the equation (2) is obtained according to the equation (1), when the y s ′ of the equation (2) is replaced according to the equation (1), the following equation (3) is obtained.
式(3)において、xs,iは、第sサンプルの生成画素についての予測タップを構成するi番目の画素を表す。 In Expression (3), x s, i represents the i-th pixel constituting the prediction tap for the generated pixel of the s-th sample.
式(3)(又は式(2))の予測誤差esを0とする変換係数wiが、生成画素を予測するのに最適なものとなるが、全ての生成画素について、そのような変換係数wiを求めることは、一般には困難である。 Equation (3) (or Equation (2)) transform coefficient w i of the prediction error e s and 0 of is the optimal generation pixels to predict, for all the generated pixel, such conversion It is generally difficult to obtain the coefficient w i .
そこで、変換係数wiが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な変換係数wiは、次式(4)で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, if the least square method is adopted as a standard indicating that the conversion coefficient w i is optimum, for example, the optimum conversion coefficient w i is expressed by the square error represented by the following equation (4). It can be obtained by minimizing the sum E.
但し、式(4)において、Sは、生成画素ysと、その生成画素ysについての予測タップを構成する画素xs,1,xs,2,・・・,xs,Nとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in the expression (4), S represents the generated pixel y s and the pixels x s, 1 , x s, 2 ,..., X s, N constituting the prediction tap for the generated pixel y s . This represents the number of samples in the set (number of samples for learning).
式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eを変換係数wiで偏微分したものを0とするwiによって与えられる。 The minimum value (minimum value) of the sum E of square errors in equation (4) is given by w i , which is 0 as a result of partial differentiation of the sum E with a conversion coefficient w i as shown in equation (5).
一方、上述の式(3)を変換係数wiで偏微分すると、次式(6)が得られる。 On the other hand, when the above equation (3) is partially differentiated by the conversion coefficient w i , the following equation (6) is obtained.
式(5)及び式(6)から、次式(7)が得られる。 From the equations (5) and (6), the following equation (7) is obtained.
式(7)のesに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 To e s of formula (7), by substituting equation (3), equation (7) can be represented by normal equations shown in Equation (8).
式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、変換係数wiについて解くことができる。 The normal equation of Expression (8) can be solved for the conversion coefficient w i by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.
生成画素の各クラスについて、式(8)の正規方程式を立てて解くことにより、各クラスについて最適な変換係数wi(ここでは、自乗誤差の総和Eを最小にする変換係数wi)を求めることができる。 For each class of the generated pixel, by solving the normal equations in equation (8), (in this case, the conversion coefficient w i that minimizes the sum E of square errors) optimal conversion coefficient w i for each class seek be able to.
図2の演算部42で、以上のような、各クラスに求められた変換係数wi、つまりクラスにより定まる変換係数wiを用いて、式(1)の演算を行うことにより、入力画像から出力画像を得ることができる。
The
図8は、各クラスについて、式(8)の正規方程式を立てて解くことにより変換係数wiを求める学習を行い、図2の係数読み出し部22に記憶される変換係数を生成する学習装置51の構成例を示している。
FIG. 8 shows a
学習装置51は、生徒画像生成部61、クラス分類部62、正規方程式生成部63、及び係数生成部64から構成される。
The
この学習装置51には、変換係数wiの生成に用いられる、色再現範囲がレベル制限されていない動画(この例の場合、xvYCC規格に準拠した画像)が、教師画像として入力され、生徒画像生成部61及び正規方程式生成部63に供給される。
The
生徒画像生成部61は、教師画像から、生徒画像としての色再現範囲がレベル制限された画像(この例の場合、ITU-R BT.709規格に準拠した動画)を生成し、クラス分類部62及び正規方程式生成部63のそれぞれに供給する。
The student
例えば、教師画像のダイナミックレンジを正規化し、マトリックス変換を行うとともに、変換後の画像データを、生徒画像のダイナミックレンジに適合させることにより、生徒画像が生成される。 For example, the student image is generated by normalizing the dynamic range of the teacher image, performing matrix conversion, and adapting the converted image data to the dynamic range of the student image.
クラス分類部62は、生徒画像生成部61から供給された生徒画像を用いて、色再現範囲がレベル制限されていない画像を構成する生成画素を、複数のクラスのうちの何れかにクラス分けするクラス分類を行う。
The
クラス分類部62は、このクラス分類の結果としての生成画素のクラス値classを正規方程式生成部63に供給する。
正規方程式生成部63は、クラス分類部62から供給される生成画素のクラス値classで示される各クラスについて、式(8)の正規方程式を生成し、係数生成部64に供給する。
The
The normal equation generation unit 63 generates a normal equation of Expression (8) for each class indicated by the class value class of the generated pixel supplied from the
係数生成部64は、正規方程式生成部63から供給された、各クラスについて生成された正規方程式を解くことにより、各クラスについて、最適な変換係数wiを求めて出力する。
The
係数生成部64から出力された変換係数は、例えば図2の係数読み出し部22に供給されて記憶される。また、係数生成部64から出力された変換係数がROM(Read Only Memory)などの記録媒体に記録され、記録媒体から他の装置に供給されるようにしてもよい。
The conversion coefficient output from the
次に、クラス分類部62の構成例について説明する。クラス分類部62は、レベル制限判定部71、クラスタップ抽出部72、上位階層クラスタップ生成部73、ADRC処理部74、及びクラス値生成部75から構成されている。
Next, a configuration example of the
レベル制限判定部71、クラスタップ抽出部72、及び上位階層クラスタップ生成部73のそれぞれには、生徒画像生成部61から生徒画像が供給される。
A student image is supplied from the student
レベル制限判定部71は、基本的には、図2のレベル制限判定部31と同様の処理を行う。
The level
則ち、レベル制限判定部71は、生徒画像を構成するある画素に注目し、その注目画素の画素値(この例の場合、色差値)がレベル制限されているか否かを判定し、その判定結果に基づいてレベル制限情報をクラス化し、そのクラス値pclassを、クラス値生成部75に供給する。
That is, the level
クラスタップ抽出部72は、基本的には、図2のクラスタップ抽出部32と同様の処理を行う。
The class
則ちクラスタップ抽出部72は、生徒画像から、注目画素及びその注目画素と所定の位置関係にある画素をクラスタップの候補として抽出する。
That is, the class
クラスタップ抽出部72はまた、抽出したクラスタップ候補を用いたADRC処理により注目画素のクラス化が可能であるか否かを判定し、その判定結果に応じた値を有するフラグを、ADRC処理部74及びクラス値生成部75に供給する。
The class
クラスタップ抽出部72は更に、ADRC処理部74からの要求に応じてクラスタップ候補を、ADRC処理部74に供給する。
The class
上位階層クラスタップ生成部73は、基本的には、図2の上位階層クラスタップ生成部33と同様の処理を行う。
The upper layer class
則ち上位階層クラスタップ生成部73は、生徒画像から、注目画素及びその注目画素と所定の位置関係にある画素を抽出するとともに、それらから、上位階層のクラスタップとしての縮小画像を生成する。
That is, the upper layer class
上位階層クラスタップ生成部73はまた、ADRC処理部74からの要求に応じてその縮小画像を、ADRC処理部74に供給する。
The upper layer class
ADRC処理部74は、基本的には、図2のADRC処理部34と同様の処理を行う。
The
則ちADRC処理部74は、クラスタップ抽出部72から供給されたフラグの値に応じて、クラスタップ抽出部72からクラスタップ候補又は上位階層クラスタップ生成部73から縮小画像を取得するとともに、それにADRC処理を施して生成画素をクラス分類し、その結果としての生成画素のクラスを示すクラス値aclassを、クラス値生成部75に供給する。
That is, the
クラス値生成部75は、基本的には、図2のクラス値生成部35と同様の処理を行う。
The class
則ちクラス値生成部75は、レベル制限判定部71から供給された注目画素のレベル制限情報のクラス値pclass、クラスタップ抽出部72から供給されたフラグ、及びADRC処理部74から供給されたADRC処理による生成画素のクラス値aclassを統合して、1つのクラス値classを生成し、それを正規方程式生成部63に供給する。
That is, the class
次に、正規方程式生成部63の構成例について説明する。正規方程式生成部63は、予測タップ抽出部81及び足し込み部82から構成される。
Next, a configuration example of the normal equation generation unit 63 will be described. The normal equation generation unit 63 includes a prediction
予測タップ抽出部81は、図2のデータ生成部23の予測タップ抽出部41と同様に、生徒画像生成部61から供給された生徒画像から予測タップを抽出し、抽出した予測タップを足し込み部82に供給する。
Like the prediction
足し込み部82は、供給された教師画像から、教師画像の、注目画素と同じ位置にある画素を順次、教師画素として抽出する。足し込み部82はまた、抽出した教師画素と、予測タップ抽出部81から供給された予測タップとの対応をとりながら、教師画素と予測タップを構成する画素とを対象とした足し込みを、クラス分類部62のクラス値生成部75からのクラス値classに従って行う。
The adding
則ち、足し込み部82は、教師画像の教師画素の画素値ysを抽出する。また、足し込み部82には、予測タップ(を構成する生徒画像の画素の画素値)xs,i、及び教師画素(正確には、教師画素として生成される生成画像)のクラスを表すクラス値classが供給される。
That is, the adding
そして、足し込み部82は、クラス値classに対応する各クラスについて、予測タップ(生徒画像の画素の画素値)xs,iを用い、式(8)の左辺の行列における生徒画像の画素の画素値同士の乗算(xs,ixs,i)、及びその乗算された値の総和の演算に相当する演算を行う。
Then, the adding
更に、足し込み部82は、各クラスについて、予測タップの画素値xs,i及び教師画素の画素値ysを用い、式(8)の右辺のベクトルにおける予測タップの画素値xs,i及び教師画素の画素値ysの乗算(xs,iys)、並びにその乗算された値の総和の演算に相当する演算を行う。
Furthermore, the adding
則ち、足し込み部82は、前回、教師画素の画素値について求められた式(8)における左辺の行列のコンポーネント(Σxs,ixs,i)と、右辺のベクトルのコンポーネント(Σxs,iys)を記憶しており、その行列のコンポーネント(Σxs,ixs,i)又はベクトルのコンポーネント(Σxs,iys)に対して、新たな教師画素の画素値について、その教師画素の画素値ys+1及び予測タップの画素の画素値xs+1,iを用いて計算される、対応するコンポーネントxs+1,ixs+1,i又はxs+1,iys+1を足し込む(式(8)のΣで表される加算を行う)。
In other words, the adding
そして、足し込み部82は、教師画像の全ての画素を教師画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式を立てる(生成する)と、その正規方程式を係数生成部64に供給する。
Then, the
次に、図9のフローチャートを参照して、学習装置51による学習処理について説明する。この学習処理は、学習装置51に、教師画像が供給されると開始される。
Next, the learning process by the
ステップS51において、学習装置51は、生徒画像生成部61により生成された生徒画像から注目画素を決定し、ステップS52において、注目画素の画素値(この例の場合、色差値)を取得する。
In step S51, the
ステップS53において、クラス分類部62は、クラス分類処理を実行する。このクラス分類処理では、基本的に図7のフローチャートを参照して説明したクラス分類処理と同様の処理が行われるので、その説明を省略する。
In step S53, the
ステップS54において、正規方程式生成部63の予測タップ抽出部81は、供給された生徒画像から、予測タップを抽出し、抽出した予測タップを足し込み部82に供給する。
In step S <b> 54, the prediction
ステップS55において、足し込み部82は、供給された教師画像から、注目画素と同じ位置にある教師画素を抽出する。足し込み部82は、抽出した教師画素と、予測タップ抽出部81から供給された予測タップとの対応をとりながら、教師画素と予測タップを構成する画素とを対象として、クラス分類部62のクラス値生成部75から供給されたクラス値classに対応するクラスについて、式(8)により示される正規方程式への足し込みを行う。
In step S55, the adding
ステップS56において、学習装置51は、教師画像の全ての画素について、足し込みを行ったか否かを判定し、まだ全ての画素について足し込みを行っていないと判定された場合、ステップS51に戻り、それ以降の処理が同様に行われる。
In step S56, the
則ち、学習装置51は、生徒画像の画素のうち、まだ注目画素とされていない画素を新たな注目画素とし、ステップS52以降の処理が同様に行う。
In other words, the
一方、ステップS56で、全ての画素について足し込みを行ったと判定された場合、正規方程式生成部63の足し込み部82は、ステップS57において、各クラスについて立てた正規方程式を、係数生成部64に供給する。係数生成部64は、正規方程式生成部63の足し込み部82から供給された、各クラスについての正規方程式を、例えば、掃き出し法によって解くことにより各クラスについての変換係数wiを求めて出力し、学習処理は終了する。
On the other hand, if it is determined in step S56 that the addition has been performed for all the pixels, the
このようにして図2の係数読み出し部22に記憶される、生成画素のクラスから定まる変換係数が生成される。
In this way, conversion coefficients determined from the class of generated pixels stored in the
上述した画像生成処理及び学習処理により、色再現範囲がレベル制限されている画像から、本来の色再現範囲を有する画像が生成される。 By the image generation process and the learning process described above, an image having the original color reproduction range is generated from the image whose color reproduction range is limited.
以上のように、注目画素のレベル制限情報のクラスを示すクラス値(クラス値pclass)を含めて生成画素のクラス値(クラス値class)を生成できるようにしたので、例えば上限値又は下限値の注目画素に対応する生成画素の画素値を、適切に予測することができる。 As described above, since the class value (class value class) of the generated pixel including the class value (class value pclass) indicating the class of the level restriction information of the target pixel can be generated, for example, the upper limit value or the lower limit value It is possible to appropriately predict the pixel value of the generated pixel corresponding to the target pixel.
例えば変換係数の学習において、注目画素のレベル制限情報のクラスを示すクラス値(クラス値pclass)を含めて得られた生成画素のクラス毎に、正規方程式(式(8))への足し込みが行われ、生成画素の生成時において注目画素のレベル制限情報のクラスを示すクラス値(クラス値pclass)を含めて生成画素がクラス分類されるので、生成画像の生成時に、生成画素が、注目画素のレベル制限されている場合のクラスに分類されることによって、適切な変換係数が読み出され、その変換係数によって予測演算が行われる。則ち上限値又は下限値を超える方向で生成画素の画素値が予測演算される。 For example, in the conversion coefficient learning, for each generated pixel class including the class value (class value pclass) indicating the class of the level restriction information of the target pixel, addition to the normal equation (formula (8)) is performed. The generated pixel is classified into classes including the class value (class value pclass) indicating the level restriction information class of the target pixel at the time of generating the generated pixel. By classifying into a class when the level is limited, an appropriate conversion coefficient is read out, and a prediction calculation is performed using the conversion coefficient. That is, the pixel value of the generated pixel is predicted and calculated in a direction exceeding the upper limit value or the lower limit value.
またクラスタップ候補の全ての画素の画素値が上限値又は下限値である場合、上位階層クラスタップを用いてADRC処理による生成画素のクラス分類を行うようにしたので、生成画素を適切にクラス分類することができる。 In addition, when the pixel values of all the class tap candidates are the upper limit value or the lower limit value, the generated pixels are classified by ADRC processing using the upper layer class tap, so the generated pixels are appropriately classified. can do.
なお上述した学習処理では、レベル制限されていない画像を教師画像としたが、色目を変化させたくない場合や、中間レベルの階調を優先して高いレベルの階調を捨てたい場合は、教師画像に対して一定のレベル制限をかけることもできる。 In the learning process described above, an image that is not level-limited is used as a teacher image. However, if you do not want to change the color, or if you want to discard the high-level gradation by giving priority to the intermediate-level gradation, A certain level restriction can be applied to the image.
また以上においては、レベル制限された画像全体がレベル制限されていない画像に変換される場合を例として説明したが、入力画像の所定の範囲をユーザが指定して、その範囲についてのみレベル制限されていない画像に変換されるようにすることもできる。 In the above description, the case where the entire level-restricted image is converted into an image that is not level-restricted has been described as an example. However, the user designates a predetermined range of the input image and the level is limited only for that range. It can also be converted to a non-image.
また以上においては、動画が入力画像である場合を例として説明したが、静止画を入力画像とすることもできる。 In the above description, the case where the moving image is the input image has been described as an example. However, a still image can be used as the input image.
また以上においては、上限値及び下限値の2個の基準値でレベル制限されている場合を例として説明したが、1個の基準値又は3個以上の基準値でレベル制限されている場合においても本発明を適用することができる。 Also, in the above, the case where the level is limited by two reference values of the upper limit value and the lower limit value has been described as an example, but in the case where the level is limited by one reference value or three or more reference values, The present invention can also be applied.
また以上においては、色情報についてレベル制限されている場合について説明したが、輝度情報についてレベル制限されている場合においても、本発明を適用することができる。 In the above description, the case where the level of color information is limited has been described. However, the present invention can be applied to the case where the level of luminance information is limited.
例えば図10の上段に示すように、撮像装置のCCDの受光量以上の情報が切り捨てられた映像に対して、本発明を適用することで、図10の下段が示すように、受光量が拡大された映像を生成することができる。 For example, as shown in the upper part of FIG. 10, by applying the present invention to an image in which information equal to or greater than the amount of light received by the CCD of the imaging device is cut, the amount of received light is increased as shown in the lower part of FIG. Generated video can be generated.
なお図10は、ある風景を撮像した場合のダイナミックレンジ領域のヒストグラムイメージである。 FIG. 10 is a histogram image of the dynamic range region when a certain landscape is captured.
また以上においては、色差値が予測演算される場合において、上位階層クラスタップが、入力画像の画素の色差値から生成される場合を例として説明したが、輝度値から生成されるようにすることもできる。則ち予測演算される情報と異なるプレーンを用いて上位階層クラスタップを生成することもできる。 In the above description, when the color difference value is predicted and calculated, the upper layer class tap is generated from the color difference value of the pixel of the input image as an example. However, the color difference value is generated from the luminance value. You can also. That is, it is possible to generate an upper layer class tap using a different plane from information to be predicted and calculated.
また図2の例では、全ての注目画素に対して上位階層クラスタップが生成されるようにしたが、例えば図7のステップS23で全ての画素値が上限値又は下限値であると判定されたときに上位階層クラスタップが生成されるようにすることもできる。 In the example of FIG. 2, upper layer class taps are generated for all the target pixels. For example, in step S <b> 23 of FIG. 7, all pixel values are determined to be upper limit values or lower limit values. Sometimes higher layer class taps can be generated.
また図7の例では、全てのクラスタップ候補について、クラスタップ候補の全ての画素の画素値が上限値又は下限値であるか否かの判定がなされたが(ステップS23)、クラスタップ候補の全ての画素の画素値が同じ値である場合についてのみ、その判定を行うこともできる。この場合の、クラス分類処理を、図11のフローチャートを参照して説明する。 Further, in the example of FIG. 7, for all class tap candidates, it is determined whether or not the pixel values of all the pixels of the class tap candidate are the upper limit value or the lower limit value (step S23). The determination can be made only when the pixel values of all the pixels are the same value. The class classification process in this case will be described with reference to the flowchart of FIG.
ステップS101及びステップS102においては、図7のステップS21及びステップS22における場合と同様の処理が行われるので、その説明は省略する。 In step S101 and step S102, the same processing as in step S21 and step S22 of FIG. 7 is performed, and thus the description thereof is omitted.
ステップS103において、クラス分類部21のクラスタップ抽出部32は、クラスタップ候補の全ての画素の画素値が同じであるか否かを判定し、同じであると判定した場合、ステップS104に進む。
In step S103, the class
ステップS104において、クラスタップ抽出部32は、クラスタップ候補の全ての画素の画素値が上限値又は下限値であるか否かを判定する。
In step S104, the class
ステップS103で、クラスタップ候補の全ての画素の画素値が同じではないと判定されたとき、又はステップS104で、クラスタップ候補の全ての画素が上限値又は下限値ではないと判定された場合(則ちクラスタップ候補の全ての画素の画素値が同じであるが“16”又は“240”でない場合)、ステップS105に進む。 When it is determined in step S103 that the pixel values of all the class tap candidates are not the same, or when it is determined in step S104 that all the pixels of the class tap candidate are not the upper limit value or the lower limit value ( That is, when the pixel values of all the class tap candidates are the same but are not “16” or “240”), the process proceeds to step S105.
ステップS105乃至ステップS113においては、図7のステップS24乃至ステップS32の処理と同様の処理が行われるので、その説明は省略する。 In step S105 to step S113, the same processing as the processing of step S24 to step S32 in FIG. 7 is performed, and the description thereof is omitted.
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 12 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)501,ROM502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 501, a
バス504には、更に、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、若しくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、或いは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 501) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. It is recorded on a
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、予めインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、或いは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
11 画像処理装置, 21 クラス分類部, 22 係数読み出し部, 23 データ生成部, 24 表示制御部, 25 表示部, 31 レベル制限判定部, 32 クラスタップ抽出部, 33 上位階層クラスタップ生成部, 34 ADRC処理部, 35 クラス値生成部, 41 予測タップ抽出部, 42 演算部, 51 学習装置, 61 生徒画像生成部,62 クラス分類部, 63 正規方程式生成部, 64 係数生成部, 71 レベル制限判定部, 72 クラスタップ抽出部, 73 上位階層クラスタップ生成部, 74 ADRC処理部, 75 クラス値生成部, 81 予測タップ抽出部, 82 足し込み部
DESCRIPTION OF
Claims (13)
前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類手段と、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出手段と、
前記クラス分類手段による前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算手段と、
前記注目画素の画素値がレベル制限されているか否かを判定する第1の判定手段と
を備え、
前記クラス分類手段は、前記第1の判定手段による判定結果を含めて前記クラス分類を行う
画像処理装置。 In an image processing apparatus that generates an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range,
Using the class tap generated from the plurality of pixels of the input image including the target pixel, the generated pixel generated from the output image at the position corresponding to the target pixel of interest of the input image, A class classification means for classifying into any of a plurality of classes,
A plurality of pixels used for predicting the generated pixel, and a prediction tap extracting unit that extracts a plurality of predetermined pixels of the input image including the target pixel as prediction taps from the input image;
Prediction calculating means for predicting and calculating the pixel value of the generated pixel using the coefficient obtained in advance for the class of the generated pixel by the class classification means and the prediction tap;
First determination means for determining whether a pixel value of the target pixel is level-limited,
The image processing apparatus, wherein the class classification unit performs the class classification including a determination result by the first determination unit.
前記注目画素を含む前記入力画像の所定の複数の画素を前記入力画像から抽出するとともに、それらの画素の画素値を用いて、前記注目階層クラスタップと同じ画素数の上位階層クラスタップを生成する上位階層クラスタップ生成手段と、
前記抽出手段により抽出された前記注目階層クラスタップを構成する全ての画素の画素値がレベル制限されているか否かを判定する第2の判定手段と
を更に備え、
前記クラス分類手段は、前記第2の判定手段による判定結果に応じて、前記注目階層クラスタップ又は前記上位階層クラスタップをクラスタップとして、前記クラス分類を行う
請求項1に記載の画像処理装置。 Extraction means for extracting a plurality of predetermined pixels of the input image including the target pixel as the target hierarchical class tap from the input image;
A plurality of predetermined pixels of the input image including the target pixel are extracted from the input image, and an upper layer class tap having the same number of pixels as the target layer class tap is generated using pixel values of the pixels. Upper layer class tap generation means;
Second determination means for determining whether or not the pixel values of all pixels constituting the target hierarchy class tap extracted by the extraction means are level-restricted;
The image processing apparatus according to claim 1, wherein the class classification unit performs the class classification using the target layer class tap or the upper layer class tap as a class tap according to a determination result by the second determination unit.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the class classification unit performs the class classification further including a determination result by the second determination unit.
請求項2に記載の画像処理装置。 The upper layer class tap generation means obtains pixel values of a plurality of predetermined pixels of the input image including the extracted target pixel, and calculates an average value of the pixel values for each predetermined pixel, and the result is obtained. The image processing apparatus according to claim 2, wherein the upper layer class tap is generated from a pixel value.
前記予測演算手段は、前記生成画素の色差値又は輝度値を、予測演算する
請求項1に記載の画像処理装置。 The input image is limited in level within a certain range for color information or luminance information,
The image processing apparatus according to claim 1, wherein the prediction calculation unit performs a prediction calculation on a color difference value or a luminance value of the generated pixel.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the upper layer class tap generation unit generates the upper layer class tap using information different from color information or luminance information whose level is limited.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the input image has an image format conforming to the xvYCC standard.
前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出ステップと、
前記クラス分類ステップでの前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算ステップと、
前記注目画素の画素値がレベル制限されているか否かを判定する判定ステップと
を含み、
前記クラス分類ステップは、前記判定ステップでの判定結果を含めて前記クラス分類を行う
画像処理方法。 In an image processing method of an image processing apparatus for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range,
Using the class tap generated from the plurality of pixels of the input image including the target pixel, the generated pixel generated from the output image at the position corresponding to the target pixel of interest of the input image, A class classification step for classifying into one of a plurality of classes,
A plurality of pixels used for predicting the generated pixel, and a predetermined tap of the input image including the target pixel is extracted as a prediction tap from the input image;
A prediction calculation step of predicting and calculating a pixel value of the generated pixel using a coefficient obtained in advance for the class of the generated pixel in the class classification step and the prediction tap;
Determining whether the pixel value of the pixel of interest is level-limited, and
The image processing method in which the class classification step performs the class classification including a determination result in the determination step.
前記入力画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記入力画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記入力画像の所定の複数の画素を、前記入力画像から予測タップとして抽出する予測タップ抽出ステップと、
前記クラス分類ステップでの前記生成画素のクラスについて予め求められている係数と、前記予測タップを用いて、前記生成画素の画素値を予測演算する予測演算ステップと、
前記注目画素の画素値がレベル制限されているか否かを判定する判定ステップと
を含み、
前記クラス分類ステップは、前記判定ステップでの判定結果を含めて前記クラス分類を行う
画像処理をコンピュータに実行させるプログラム。 In a program for causing a computer to execute image processing for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range,
Using the class tap generated from the plurality of pixels of the input image including the target pixel, the generated pixel generated from the output image at the position corresponding to the target pixel of interest of the input image, A class classification step for classifying into one of a plurality of classes,
A plurality of pixels used for predicting the generated pixel, and a predetermined tap of the input image including the target pixel is extracted as a prediction tap from the input image;
A prediction calculation step of predicting and calculating a pixel value of the generated pixel using a coefficient obtained in advance for the class of the generated pixel in the class classification step and the prediction tap;
Determining whether the pixel value of the pixel of interest is level-limited, and
The class classification step is a program that causes a computer to execute image processing for performing the class classification including the determination result in the determination step.
前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類手段と、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出手段と、
前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算手段と
を備える学習装置。 A learning device for generating a conversion coefficient used for generating an output image of the predetermined reproduction range from an input image whose pixel value is level-limited within a certain range with respect to the predetermined reproduction range,
The generation pixel generated from the output image at the position corresponding to the target pixel of interest of the student image whose level is limited within a certain range with respect to the predetermined reproduction range includes the target pixel Class classification means for performing class classification to classify into any of a plurality of classes using a class tap generated from a plurality of pixels of the student image;
A plurality of pixels used for predicting the generated pixel, and a prediction tap extracting unit that extracts a predetermined plurality of pixels of the student image including the target pixel as a prediction tap from the student image;
Extracting the pixel value of the teacher pixel corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, A learning device comprising: a calculation unit that obtains the conversion coefficient corresponding to the class of the generated pixel, which is used to predict a pixel value.
請求項10の学習装置。 The learning apparatus according to claim 10, wherein the level of the teacher image is limited within a certain range with respect to the predetermined reproduction range.
前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出ステップと、
前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算ステップと
を含む学習方法。 A learning apparatus learning method for generating a conversion coefficient used for generating an output image of a predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range. There,
The generation pixel generated from the output image at the position corresponding to the target pixel of interest of the student image whose level is limited within a certain range with respect to the predetermined reproduction range includes the target pixel Using a class tap generated from a plurality of pixels of the student image, a class classification step for classifying into one of a plurality of classes,
A prediction tap extraction step of extracting a plurality of predetermined pixels of the student image including the target pixel as prediction taps, which are a plurality of pixels used for predicting the generated pixel;
Extracting the pixel value of the teacher pixel corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, A learning method comprising: calculating a conversion coefficient corresponding to a class of the generated pixel, which is used for predicting a pixel value.
前記所定の再現範囲に対して一定の範囲内にレベル制限されている生徒画像の注目している注目画素に対応する位置にある出力画像のいまから生成される生成画素を、前記注目画素を含む前記生徒画像の複数の画素から生成されたクラスタップを用いて、複数のクラスのうちの何れかにクラス分けするクラス分類を行うクラス分類ステップと、
前記生成画素を予測するために用いる複数の画素であって、前記注目画素を含む前記生徒画像の所定の複数の画素を、前記生徒画像から予測タップとして抽出する予測タップ抽出ステップと、
前記所定の再現範囲を有する教師画像から、前記生成画素に対応する教師画素の画素値を抽出し、抽出した前記教師画素の画素値及び前記予測タップを用いて、前記予測タップから前記生成画素の画素値を予測するために用いられる、前記生成画素のクラスに対応する前記変換係数を求める演算ステップと
を含む学習処理をコンピュータに実行させるプログラム。 A learning process for generating a conversion coefficient used for generating an output image of the predetermined reproduction range from an input image whose pixel value is limited within a certain range with respect to the predetermined reproduction range is executed on a computer A program to
The generation pixel generated from the output image at the position corresponding to the target pixel of interest of the student image whose level is limited within a certain range with respect to the predetermined reproduction range includes the target pixel Using a class tap generated from a plurality of pixels of the student image, a class classification step for classifying into one of a plurality of classes,
A prediction tap extraction step of extracting a plurality of predetermined pixels of the student image including the target pixel as prediction taps, which are a plurality of pixels used for predicting the generated pixel;
Extracting the pixel value of the teacher pixel corresponding to the generated pixel from the teacher image having the predetermined reproduction range, and using the extracted pixel value of the teacher pixel and the prediction tap, A program for causing a computer to execute a learning process including calculating a conversion coefficient corresponding to a class of the generated pixel, which is used to predict a pixel value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007227350A JP2009060481A (en) | 2007-09-03 | 2007-09-03 | Image processing device and method, learning device and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007227350A JP2009060481A (en) | 2007-09-03 | 2007-09-03 | Image processing device and method, learning device and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009060481A true JP2009060481A (en) | 2009-03-19 |
Family
ID=40555783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007227350A Withdrawn JP2009060481A (en) | 2007-09-03 | 2007-09-03 | Image processing device and method, learning device and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009060481A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235861A1 (en) * | 2019-05-17 | 2020-11-26 | 삼성전자주식회사 | Device for generating prediction image on basis of generator including concentration layer, and control method therefor |
-
2007
- 2007-09-03 JP JP2007227350A patent/JP2009060481A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235861A1 (en) * | 2019-05-17 | 2020-11-26 | 삼성전자주식회사 | Device for generating prediction image on basis of generator including concentration layer, and control method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20100202711A1 (en) | Image processing apparatus, image processing method, and program | |
US9275444B2 (en) | Image processing apparatus, image processing method, and program to prevent degradation of image quality | |
WO2001059751A1 (en) | Image processing device and method, and recording medium | |
US7876323B2 (en) | Display apparatus and display method, learning apparatus and learning method, and programs therefor | |
US20120321214A1 (en) | Image processing apparatus and method, program, and recording medium | |
JP4193871B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009152820A (en) | Learning apparatus and method, image processing apparatus and method, and program | |
JP2009003598A (en) | Image generation device and method, learning device and method, and program | |
US20050111749A1 (en) | Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium | |
US8363970B2 (en) | Image processing apparatus and learning apparatus for converting a first image into a second image having higher image quality than the first image | |
JP2009060481A (en) | Image processing device and method, learning device and method, and program | |
US20110243462A1 (en) | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium | |
JP2007251690A (en) | Image processing apparatus and method therefor, learning apparatus and method therefor, and program | |
JP4770704B2 (en) | Image processing apparatus, image processing method, and program | |
JP2007288761A (en) | Image distribution system, image processing apparatus and method, distribution device and method, and program | |
JP4770711B2 (en) | Image processing apparatus, image processing method, and program | |
JP2000348019A (en) | Data processor, data processing method and medium | |
US7424057B2 (en) | Data format transcoding apparatus and associated method | |
JP2003244696A (en) | Encoding processor, decoding processor, method therefor and computer program | |
JP2009253873A (en) | Device and method for processing image, and program | |
JP2008118519A (en) | Image conversion apparatus and method, learning apparatus and method, and program | |
US8208735B2 (en) | Image processing device, image processing method, learning device, learning method, and program | |
JP2003303330A (en) | Data converter, data conversion method, learning device and learning method, program and storage medium | |
JP4154903B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2011217011A (en) | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101207 |