JP2020017894A - Encoder and program - Google Patents

Encoder and program Download PDF

Info

Publication number
JP2020017894A
JP2020017894A JP2018140531A JP2018140531A JP2020017894A JP 2020017894 A JP2020017894 A JP 2020017894A JP 2018140531 A JP2018140531 A JP 2018140531A JP 2018140531 A JP2018140531 A JP 2018140531A JP 2020017894 A JP2020017894 A JP 2020017894A
Authority
JP
Japan
Prior art keywords
block
unit
encoding
image
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018140531A
Other languages
Japanese (ja)
Other versions
JP6936990B2 (en
Inventor
健人 宮澤
Takehito Miyazawa
健人 宮澤
幸浩 坂東
Yukihiro Bando
幸浩 坂東
誠之 高村
Masayuki Takamura
誠之 高村
清水 淳
Atsushi Shimizu
淳 清水
桂太 高橋
Keita Takahashi
桂太 高橋
藤井 俊彰
Toshiaki Fujii
俊彰 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nippon Telegraph and Telephone Corp filed Critical Nagoya University NUC
Priority to JP2018140531A priority Critical patent/JP6936990B2/en
Publication of JP2020017894A publication Critical patent/JP2020017894A/en
Application granted granted Critical
Publication of JP6936990B2 publication Critical patent/JP6936990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To encode a focal stuck with good coding efficiency.SOLUTION: An encoder encodes multiple images obtained by shooting the same subject with different focuses. A block division part divides a coding object image, out of the multiple images, into blocks. When a reference block, referred for encoding the block, is an area contained in a reference image, i.e., an image different from the coding object image, out of the multiple images, a reference block determination part determines the reference block so that the area of the block in the coding object image is the same as the area of the reference block in the reference image. A blurring section blurs the reference block so as to reduce residual with the block. A coding section encodes the block with reference to the reference block subjected to blurring.SELECTED DRAWING: Figure 1

Description

本発明は、符号化装置及びプログラムに関する。   The present invention relates to an encoding device and a program.

フォーカルスタック(focal stuck)とは、同じ被写体を同じ視点から異なる焦点で撮影した画像群である。フォーカルスタックは、特殊な変換後にレイヤ型Light Field Displayへ入力することにより裸眼3D画像を表示する(例えば、非特許文献1参照)、焦点範囲が広い単一の画像を生成する、といった用途に使用される。フォーカルスタックを伝送しようとした場合、スタックされている画像枚数分だけデータ量が増加するため、データ圧縮が課題となる。   The focal stack is a group of images of the same subject photographed from the same viewpoint at different focal points. The focal stack is used for applications such as displaying an autostereoscopic 3D image by inputting to a layer-type Light Field Display after a special conversion (for example, see Non-Patent Document 1) and generating a single image with a wide focal range. Is done. When trying to transmit a focal stack, the amount of data increases by the number of stacked images, and data compression becomes a problem.

フォーカルスタックの特徴として、同じ被写体を同じ視点から撮影しているために画像間の相関が高いこと、被写体が動かないので各画像の同じ位置には同じ被写体が写っていること、フォーカルスタック単位で処理を行うために個々の画像を単体で取り出す必要が無いこと、映像符号化と異なり画像群の符号化順序に制約が無いことが挙げられる。   The features of the focal stack are that the same subject is photographed from the same viewpoint, so the correlation between images is high, the subject does not move, so the same subject is shown at the same position in each image, and the focal stack unit There is no need to take out individual images alone to perform processing, and there is no restriction on the encoding order of image groups unlike video encoding.

フォーカルスタックは従来、通常の画像圧縮技術により、各画像が独立に符号化されていた。また、フォーカルスタックを構成する画像群を動画とみなし、映像符号化技術を用いて圧縮する検討がなされている(例えば、非特許文献1参照)。   Conventionally, in the focal stack, each image is independently encoded by a normal image compression technique. In addition, studies have been made to consider a group of images constituting a focal stack as a moving image and compress the image stack using a video encoding technique (for example, see Non-Patent Document 1).

一方で、従来の映像向け符号化技術において、参照画像にぼかし処理を施すことで予測画像を生成する検討がなされている(例えば、非特許文献2参照)。参照画像は、通常の符号化と同様に参照構造によって指定され、ぼかし処理は画像全体に均一に施される。用途としては、映像効果による画面全体のぼかしや、グローバルモーションによる動きボケの補償が想定されている。   On the other hand, in a conventional video coding technique, studies have been made to generate a predicted image by performing a blurring process on a reference image (for example, see Non-Patent Document 2). The reference image is specified by a reference structure as in the case of ordinary encoding, and the blurring process is performed uniformly on the entire image. Applications include blurring of the entire screen due to video effects and compensation for motion blur due to global motion.

伊瀬知 洸平,小林 優斗,高橋 桂太,藤井 俊彰,"レイヤ型Light Field Displayのための光線空間符号化に関する一検討",PCSJ/IMPS 2017,2017年,P-3-12,p.118-119Kohei Ise, Yuto Kobayashi, Keita Takahashi, Toshiaki Fujii, "A Study on Ray Space Coding for Layered Light Field Display", PCSJ / IMPS 2017, 2017, P-3-12, p.118 -119 M. Budagavi,"Video Compression using Blur Compensation",IEEE,IEEE International Conference on Image Processing 2005,2005年,Vol.2M. Budagavi, "Video Compression using Blur Compensation", IEEE, IEEE International Conference on Image Processing 2005, 2005, Vol.2

フォーカルスタックの各画像を独立に符号化する従来手法では、フォーカルスタック特有の画像間での高い相関を利用することが出来ないため、効率的とはいえないという課題がある。また、フォーカルスタックの符号化に映像符号化技術を用いる従来手法を用いた場合、符号化対象画像と参照画像とで焦点距離が異なるため、ボケている被写体を参照してボケていない被写体を予測したり、またその逆を行うことになってしまい、予測が当たらないという課題がある。映像符号化技術を用いる従来手法に、ボケ補償のための従来手法を組み合わせた場合、参照画像内で比較的ボケていない箇所の符号化には有効である。しかし、参照画像内で比較的ボケている箇所を符号化する際には、ボケている被写体からボケていない被写体を予測することになり、予測が当たらずに符号化効率が悪化する。フォーカルスタックではその用途上、画像内にボケている箇所とボケていない箇所が混在しており、参照画像を一枚に決めた場合には、必ず符号化効率の悪い箇所が存在する。   The conventional method of independently encoding each image of the focal stack has a problem that it cannot be said to be efficient because a high correlation between images specific to the focal stack cannot be used. In addition, when a conventional method using video encoding technology is used for encoding a focal stack, since the focal length is different between an encoding target image and a reference image, a non-blurred subject is predicted by referring to a blurred subject. And vice versa, and there is a problem that prediction is not correct. When a conventional method for blur compensation is combined with a conventional method using video coding technology, it is effective for coding a relatively unblurred portion in a reference image. However, when coding a relatively blurred portion in the reference image, a non-blurred subject is predicted from a blurred subject, and the coding efficiency is deteriorated because prediction is not performed. In the focal stack, blurred portions and non-blurred portions are mixed in an image due to its use, and when the number of reference images is determined to be one, there is always a portion having poor coding efficiency.

上記事情に鑑み、本発明は、符号化効率良くフォーカルスタックを符号化することができる符号化装置及びプログラムを提供することを目的としている。   In view of the above circumstances, an object of the present invention is to provide an encoding device and a program capable of encoding a focal stack with high encoding efficiency.

本発明の一態様は、同じ被写体を異なる焦点で撮影した複数の画像を符号化する符号化装置であって、符号化対象の前記画像である符号化対象画像をブロックに分割するブロック分割部と、前記ブロックを符号化するために参照される参照ブロックが、前記符号化対象画像とは異なる前記画像である参照画像に含まれる領域である場合、前記符号化対象画像における前記ブロックの領域と、前記参照画像における前記参照ブロックの領域とが同じになるように前記参照ブロックを決定する参照ブロック決定部と、前記ブロックとの残差が小さくなるように前記参照ブロックにぼかし処理を施すぼかし処理部と、前記ブロックを、前記ぼかし処理が施された前記参照ブロックを参照して符号化する符号化部と、を備える。   One embodiment of the present invention is an encoding device that encodes a plurality of images of the same subject captured at different focuses, and a block division unit that divides an encoding target image that is the image to be encoded into blocks. In the case where the reference block referred to for encoding the block is an area included in a reference image that is the image different from the encoding target image, an area of the block in the encoding target image, A reference block determining unit that determines the reference block so that the area of the reference block in the reference image is the same, and a blur processing unit that performs blur processing on the reference block so that a residual from the block is reduced. And an encoding unit that encodes the block with reference to the reference block that has been subjected to the blurring processing.

本発明の一態様は、上述の符号化装置であって、前記参照ブロック決定部は、複数の前記画像それぞれにおいて同じ領域にある前記ブロックからなるブロック群ごとに、前記ブロック群に含まれる複数の前記ブロックのうち一の前記ブロックのみを、当該ブロック群に含まれる他の全ての前記ブロックそれぞれを符号化するために参照される前記参照ブロックに決定する。   One embodiment of the present invention is the above-described encoding device, wherein the reference block determination unit is configured to include, for each block group including the blocks in the same area in each of the plurality of images, a plurality of blocks included in the block group. Only one of the blocks is determined as the reference block referred to for encoding each of all the other blocks included in the block group.

本発明の一態様は、上述の符号化装置であって、前記参照ブロック決定部は、複数の前記画像それぞれにおいて同じ領域の前記ブロックからなるブロック群ごとに、前記ブロック群に含まれる複数の前記ブロックそれぞれを符号化するために参照される前記参照ブロックが異なるように、前記参照ブロックを決定する。   One embodiment of the present invention is the above-described encoding device, wherein the reference block determination unit is configured to include, for each block group including the blocks in the same area in each of the plurality of images, a plurality of the plurality of blocks included in the block group. The reference block is determined such that the reference block referred to for encoding each block is different.

本発明の一態様は、上述の符号化装置であって、複数の前記画像のうち前記参照ブロックが得られる前記参照画像は、複数の前記画像を撮影した撮影機から前記ブロックにおける前記被写体までの距離と、複数の前記画像それぞれの前記撮影機から前記焦点までの距離との差である距離差に基づき選択される。   One embodiment of the present invention is the above-described encoding device, wherein the reference image from which the reference block is obtained among the plurality of images is obtained from a photographing machine that has captured the plurality of images to the subject in the block. The selection is made based on a distance difference that is a difference between a distance and a distance from the photographing device to the focus of each of the plurality of images.

本発明の一態様は、上述の符号化装置であって、前記ぼかし処理部は、前記ブロック群に含まれる複数の前記ブロックそれぞれの符号化のために前記参照ブロックに施す前記ぼかし処理の強度を探索する探索処理を、前記参照ブロックと前記焦点の距離が小さい前記ブロックから順に、かつ、探索済みの前記強度を参照して行う。   One embodiment of the present invention is the above-described encoding device, wherein the blur processing unit is configured to reduce an intensity of the blur process performed on the reference block for encoding each of the plurality of blocks included in the block group. A search process for searching is performed in ascending order of the distance between the reference block and the focal point and with reference to the searched intensity.

本発明の一態様は、上述の符号化装置であって、前記ぼかし処理部は、前記ブロックの符号化のために前記参照ブロックに施す前記ぼかし処理の強度を探索する探索処理を、前記ブロックと同じ前記ブロック群に属し、かつ、前記ブロックよりも前記参照ブロックと前記焦点の距離が小さい他の前記ブロックについて探索済みの前記強度よりも大きな強度を探索対象として行う。   One embodiment of the present invention is the above-described encoding device, wherein the blur processing unit performs a search process for searching for an intensity of the blur process to be performed on the reference block for coding the block, with the block and For the other blocks belonging to the same block group and having a smaller distance between the reference block and the focal point than the block, an intensity larger than the already searched intensity is set as a search target.

本発明の一態様は、上述の符号化装置であって、前記ぼかし処理部は、前記符号化対象画像の前記ブロックの符号化のために前記参照ブロックに施す前記ぼかし処理の強度を探索する探索処理を、前記参照ブロックと同じ前記参照画像から得られる他の前記参照ブロックを参照する前記符号化対象画像の他の前記ブロックについて探索済みの前記強度に基づく範囲を探索対象として行う。   One embodiment of the present invention is the above-described encoding device, wherein the blurring processing unit searches for an intensity of the blurring processing performed on the reference block for encoding the block of the image to be encoded. The processing is performed as a search target in a range based on the strength searched for another block of the encoding target image that refers to another reference block obtained from the same reference image as the reference block.

本発明の一態様は、コンピュータを、上述したいずれかの符号化装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as any of the above-described encoding devices.

本発明により、符号化効率良くフォーカルスタックを符号化することが可能となる。   According to the present invention, it is possible to encode a focal stack with high encoding efficiency.

本発明の第1の実施形態による符号化装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an encoding device according to a first embodiment of the present invention. 同実施形態による符号化装置の処理を示すフロー図である。It is a flowchart which shows the process of the encoding apparatus by the embodiment. 同実施形態によるフォーカルスタックの分割を示す図である。It is a figure showing division of a focal stack by the embodiment. 同実施形態による参照構造の生成イメージを示す図である。It is a figure showing the generation image of the reference structure by the embodiment. 同実施形態による参照構造生成部の詳細な構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration of a reference structure generation unit according to the embodiment. 同実施形態による参照構造生成部の参照構造最適化処理を示すフロー図である。It is a flowchart which shows the reference structure optimization processing of the reference structure production | generation part by the embodiment. 同実施形態による符号化部の詳細な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a detailed configuration of an encoding unit according to the embodiment. 同実施形態による符号化部の符号化処理を示すフロー図である。It is a flowchart which shows the encoding process of the encoding part by the embodiment. 同実施形態によるボケ補償予測部の詳細な構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration of a blur compensation prediction unit according to the embodiment. 同実施形態によるボケ補償予測部のボケ補償処理を示すフロー図である。It is a flowchart which shows the blur compensation process of the blur compensation prediction part by the embodiment. 同実施形態によるぼかしフィルタパラメータ生成部の詳細な構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration of a blur filter parameter generation unit according to the embodiment. 同実施形態によるぼかしフィルタパラメータ生成部のぼかしフィルタパラメータ生成処理を示すフロー図である。It is a flowchart which shows the blur filter parameter generation process of the blur filter parameter generation part by the embodiment. 同実施形態によるエントロピー符号化部の詳細な構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration of an entropy encoding unit according to the embodiment. 同実施形態による参照構造インデックス二値化部の参照構造インデックス二値化処理を示すフロー図である。It is a flowchart which shows the reference structure index binarization process of the reference structure index binarization part by the embodiment. 同実施形態による参照構造インデックスの例を示す図である。FIG. 3 is a diagram illustrating an example of a reference structure index according to the embodiment. 第2の実施形態による符号化装置の構成を示すブロック図である。It is a block diagram showing the composition of the encoding device by a 2nd embodiment. 同実施形態による参照構造の生成イメージを示す図である。It is a figure showing the generation image of the reference structure by the embodiment. 同実施形態による参照構造生成部の詳細な構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration of a reference structure generation unit according to the embodiment. 同実施形態による参照構造生成部の参照構造生成処理を示すフロー図である。It is a flowchart which shows the reference structure generation process of the reference structure generation part by the embodiment. 同実施形態による参照構造の例を示す図である。FIG. 3 is a diagram illustrating an example of a reference structure according to the same embodiment.

以下、図面を参照しながら本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態による符号化装置1の構成を示すブロック図であり、本実施形態と関係する機能ブロックのみを抽出して示してある。符号化装置1は、ブロック分割部11と、ブロックスタックメモリ12と、参照構造生成部13と、符号化部14と、符号化結果メモリ15と、RD効率推定部16と、RD効率メモリ17と、RD効率比較部18と、エントロピー符号化部19とを備える。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an encoding device 1 according to a first embodiment of the present invention, in which only functional blocks related to the present embodiment are extracted and shown. The encoding device 1 includes a block division unit 11, a block stack memory 12, a reference structure generation unit 13, an encoding unit 14, an encoding result memory 15, an RD efficiency estimation unit 16, an RD efficiency memory 17, , RD efficiency comparison unit 18 and entropy coding unit 19.

ブロック分割部11は、符号化装置1に入力されたフォーカルスタックに含まれる画像群に対しブロック分割を行う。各画像には、画像を一意に特定する情報である画像インデックスが付与されている。ブロックスタックメモリ12は、ブロック分割部11により分割された画像群のブロックを、同じブロック位置ごとに格納する。画像群における同じ位置のブロックをブロックスタックと記載する。   The block division unit 11 divides the image group included in the focal stack input to the encoding device 1 into blocks. Each image is provided with an image index which is information for uniquely specifying the image. The block stack memory 12 stores the blocks of the image group divided by the block dividing unit 11 for each same block position. Blocks at the same position in the image group are referred to as block stacks.

参照構造生成部13は、各ブロックスタックの参照構造を生成する。参照構造は、符号化を行う際に参照するブロック間の関係を表す。参照構造は、イントラ符号化ブロックと、インター符号化ブロックと、インター符号化ブロックが参照する他のブロックとを表す。1つのブロックスタックでは、1つのブロックがイントラ符号化ブロックであり、他のブロックはインター符号化ブロックである。イントラ符号化ブロックは、他のブロックの情報を使用せずにイントラ符号化を行うブロックである。インター符号化ブロックは、他の画像のブロックを参照して予測符号化を行うブロックである。予測符号化の際に参照されるブロックを参照ブロックと記載する。本実施形態では、ブロックスタック内において、全てのインター符号化ブロックは、イントラ符号化ブロックを参照する。よって、参照構造は、イントラ符号化ブロックを特定する情報であればよく、例えば、イントラ符号化ブロックの画像インデックス(以下、イントラ画像インデックスとも記載する)により示すことができる。   The reference structure generation unit 13 generates a reference structure of each block stack. The reference structure indicates a relationship between blocks referred to when performing encoding. The reference structure represents an intra-coded block, an inter-coded block, and other blocks referenced by the inter-coded block. In one block stack, one block is an intra-coded block and the other blocks are inter-coded blocks. An intra-coded block is a block for performing intra-coding without using information of another block. The inter-coded block is a block that performs predictive coding with reference to blocks of another image. A block referred to at the time of predictive encoding is referred to as a reference block. In the present embodiment, all the inter-coded blocks in the block stack refer to the intra-coded blocks. Therefore, the reference structure may be any information that specifies the intra-coded block, and can be indicated by, for example, an image index of the intra-coded block (hereinafter, also referred to as an intra image index).

符号化部14は、ブロックスタック単位で参照構造生成部13が生成した参照構造に従って符号化を行う。符号化結果メモリ15は、符号化部14によるブロックスタック単位の符号化結果を、参照構造ごとに格納する。RD効率推定部16は、符号化結果メモリ15に記憶される符号化結果を用いて、各ブロックスタックの参照構造ごとのRD効率を推定する。RD効率は、符号化効率の一例である。RD効率メモリ17は、各ブロックスタックの参照構造ごとに、RD効率推定部16が推定したRD効率を格納する。RD効率比較部18は、RD効率メモリ17に記憶される参照構造ごとのRD効率を比較し、ブロックスタックごとに最もRD効率が良い参照構造の符号化結果を最終的な符号化結果として選択する。エントロピー符号化部19は、フォーカルスタックから得られた各ブロックスタックの最終的な符号化結果にエントロピー符号化を行う。   The encoding unit 14 performs encoding according to the reference structure generated by the reference structure generation unit 13 on a block stack basis. The encoding result memory 15 stores the encoding result of the block stack unit by the encoding unit 14 for each reference structure. The RD efficiency estimating unit 16 estimates the RD efficiency for each reference structure of each block stack using the encoding result stored in the encoding result memory 15. The RD efficiency is an example of the coding efficiency. The RD efficiency memory 17 stores the RD efficiency estimated by the RD efficiency estimation unit 16 for each reference structure of each block stack. The RD efficiency comparison unit 18 compares the RD efficiencies for each reference structure stored in the RD efficiency memory 17 and selects the coding result of the reference structure having the highest RD efficiency for each block stack as the final coding result. . The entropy coding unit 19 performs entropy coding on the final coding result of each block stack obtained from the focal stack.

図2は、符号化装置1の処理を示すフロー図である。まず、符号化装置1のブロック分割部11は、フォーカルスタックを構成する画像群を入力する(ステップS105)。ブロック分割部11は、入力したフォーカルスタックを構成する各画像をブロック単位に分割する(ステップS110)。図3を用いて、ステップS110の処理を説明する。   FIG. 2 is a flowchart showing the processing of the encoding device 1. First, the block division unit 11 of the encoding device 1 inputs an image group forming a focal stack (Step S105). The block dividing unit 11 divides each image constituting the input focal stack into blocks (step S110). The process of step S110 will be described with reference to FIG.

図3は、ブロック分割部11におけるフォーカルスタックの分割を示す図である。フォーカルスタックは、N枚(Nは2以上の整数)の画像から構成される。フォーカルスタックに含まれるN枚の画像を、画像G1〜GNと記載する。同図は、N=3の場合の例である。各画像G1〜GNには、logNビット長(小数点以下は切り上げ)の画像インデックスが付与されている。画像インデックスは、焦点面が撮影機器に近い順から昇順に付与される。画像インデックスの付与順は、焦点距離が遠い順でもよく、焦点距離が中央にあるものから順に付与されてもよく、ランダムでもよい。ただし、焦点距離の順序を用いることで後段処理の効率を高めることが可能であるため、規則的に付与されており、なおかつ後段の処理手法と適応していることが望ましい。 FIG. 3 is a diagram illustrating division of the focal stack in the block division unit 11. The focal stack is composed of N images (N is an integer of 2 or more). The N images included in the focal stack are referred to as images G1 to GN. FIG. 9 shows an example in the case of N = 3. Each image G1 to GN, image index of log 2 N bits long (rounded up) is to be granted. The image indexes are assigned in ascending order from the closest focal plane to the imaging device. The order in which the image indexes are assigned may be the order in which the focal length is long, the order in which the focal lengths are located at the center, or may be random. However, since the efficiency of the post-processing can be enhanced by using the order of the focal length, it is desirable that the processing is regularly provided and is adapted to the post-processing method.

ブロック分割部11は、画像G1〜GNを、例えばラスタスキャン順に、固定の分割サイズのブロック単位で分割する。なお、ブロック分割の順番はイントラ符号化に適したものであればよい。例えば、ラスタスキャン順を転置させた順でもよく、渦巻状の順番でもよい。またブロック間での参照を行わないという前提があれば、任意の順番で取り出してもよい。   The block division unit 11 divides the images G1 to GN into blocks of a fixed division size, for example, in raster scan order. The order of block division may be any as long as it is suitable for intra coding. For example, the raster scan order may be a transposed order or a spiral order. If there is a premise that reference is not performed between blocks, the blocks may be extracted in an arbitrary order.

ブロック分割部11は、各画像G1〜GNにおいて同じ位置にあるブロックをまとめたブロックスタックをブロックスタックメモリ12に格納する。ブロック分割部11は、ブロックスタックに、ラスタスキャン順でどの位置であるかを示す位置インデックスを付与する。位置インデックスは、例えば、行と列の座標により表記すればよい。画像Gn(nは1以上N以下の整数)における位置インデックスiのブロックをブロックBn−iと記載する。同じ位置インデックスiのブロックB1−i〜B3−iはそれぞれ、画像G1〜G3において同一の領域であり、一つのブロックスタックを構成する。   The block division unit 11 stores, in the block stack memory 12, a block stack in which blocks located at the same position in each of the images G1 to GN are combined. The block dividing unit 11 assigns a position index indicating the position in the raster scan order to the block stack. The position index may be represented by, for example, row and column coordinates. The block of the position index i in the image Gn (n is an integer of 1 or more and N or less) is referred to as a block Bni. The blocks B1-i to B3-i having the same position index i are the same area in the images G1 to G3, respectively, and constitute one block stack.

符号化装置1は、ブロックスタック単位で符号化を実施する。そこでまず、図2に示すように、参照構造生成部13は、まだ符号化を行っていないブロックスタックの中から符号化対象のブロックスタック(以下、「符号化対象ブロックスタック」と記載)を、例えば、ブロック分割の順番に従って選択する(ステップS115)。参照構造生成部13は、特定した符号化対象ブロックスタックの画像インデックス及び位置インデックスをブロックスタックメモリ12から取得し、当該符号化対象ブロックスタックを符号化するための参照構造を生成する(ステップS120)。   The encoding device 1 performs encoding on a block stack basis. Therefore, first, as shown in FIG. 2, the reference structure generation unit 13 converts a block stack to be coded (hereinafter referred to as a “block stack to be coded”) from among the block stacks that have not been coded yet. For example, selection is performed according to the order of block division (step S115). The reference structure generation unit 13 acquires the image index and the position index of the specified encoding target block stack from the block stack memory 12, and generates a reference structure for encoding the encoding target block stack (Step S120). .

図4は、参照構造生成部13による参照構造の生成イメージを示す図である。同図に示すフォーカルスタックは画像G1、画像G2及び画像G3からなる。画像G1、画像G2及び画像G3には、同一の被写体a、被写体b、被写体cが写っている。フォーカルスタックの撮影機からの距離は、被写体aが最も近く、次に被写体bが近く、被写体cが最も遠い。画像G1の焦点面は被写体aの付近であり、画像G2の焦点は被写体bの付近であり、画像G3の焦点は被写体cの付近である。   FIG. 4 is a diagram illustrating a generation image of the reference structure by the reference structure generation unit 13. The focal stack shown in the figure includes an image G1, an image G2, and an image G3. The same subject a, subject b, and subject c appear in the image G1, the image G2, and the image G3. The subject of the focal stack from the camera is closest to the subject a, next to the subject b, and farthest to the subject c. The focal plane of the image G1 is near the subject a, the focus of the image G2 is near the subject b, and the focus of the image G3 is near the subject c.

本実施形態の参照構造は、同一のブロックスタック内の全てのインター符号化ブロックが、当該ブロックスタックにおける同一の1枚のイントラ符号化ブロックのみを参照する構造である。インター符号化ブロックは、画像インデックスの順に符号化される。そのため、参照構造は、ブロックスタックを構成するブロックのうち、どのブロックをイントラ符号化するかによって一意に定まる。同図の場合、位置インデックスjのブロックスタックでは、ブロックB1−jがイントラ符号化ブロックであり、ブロックB2−j及びB3−jはブロックB1−jを参照するインター符号化ブロックである。インター符号化ブロックについては、ブロックB2−j、ブロックB3−jの順に符号化される。また、位置インデックスkのブロックスタックでは、ブロックB2−kがイントラ符号化ブロックであり、ブロックB1−k及びB3−kはブロックB2−kを参照するインター符号化ブロックである。インター符号化ブロックについては、ブロックB1−k、ブロックB3−kの順に符号化される。また、位置インデックスlのブロックスタックでは、ブロックB3−lがイントラ符号化ブロックであり、ブロックB1−l及びB2−lはブロックB3−lを参照するインター符号化ブロックである。インター符号化ブロックについては、ブロックB1−l、ブロックB2−lの順に符号化される。   The reference structure according to the present embodiment is a structure in which all inter-coded blocks in the same block stack refer to only the same one intra-coded block in the block stack. The inter-coded blocks are coded in the order of the image index. Therefore, the reference structure is uniquely determined by which of the blocks constituting the block stack is to be intra-coded. In the case of the drawing, in the block stack of the position index j, the block B1-j is an intra-coded block, and the blocks B2-j and B3-j are inter-coded blocks that refer to the block B1-j. The inter-coded blocks are coded in the order of block B2-j and block B3-j. In the block stack having the position index k, the block B2-k is an intra-coded block, and the blocks B1-k and B3-k are inter-coded blocks that refer to the block B2-k. The inter-coded blocks are coded in order of block B1-k and block B3-k. In the block stack having the position index 1, the block B3-1 is an intra-coded block, and the blocks B1-1 and B2-1 are inter-coded blocks that refer to the block B3-1. The inter-coded block is coded in the order of block B1-1 and block B2-1.

図2に示す処理フローでは、ステップS115〜ステップS140のループ処理ごとに、参照構造生成部13は、ステップS120において、符号化対象ブロックスタック内でイントラ符号化ブロックとなるブロックを変えるように参照構造を生成する。参照構造の生成後、ブロックスタックメモリ12は、符号化対象ブロックスタックと、当該ブロックスタックについて参照構造生成部13が生成した参照構造とを符号化部14に出力する。符号化部14は、参照構造に従って符号化対象ブロックスタックの符号化を行う(ステップS125)。符号化部14は、ブロックスタックの参照構造と、その参照構造を用いた符号化結果とを対応付けて符号化結果メモリ15に格納する。RD効率推定部16は、符号化結果メモリ15に記憶される符号化結果を用いてRD効率を推定し、推定したRD効率を参照構造と対応付けてRD効率メモリ17に書き込む(ステップS130)。RD効率は、符号量Rと符号化歪量Dとを線形結合した指標であり、D+λR(λは係数)により算出される。   In the processing flow illustrated in FIG. 2, for each loop processing of steps S115 to S140, the reference structure generation unit 13 changes the reference structure in step S120 so as to change a block to be an intra-coded block in the current block stack. Generate After the generation of the reference structure, the block stack memory 12 outputs the encoding target block stack and the reference structure generated for the block stack by the reference structure generation unit 13 to the encoding unit 14. The encoding unit 14 encodes the current block stack according to the reference structure (Step S125). The encoding unit 14 stores the reference structure of the block stack and the encoding result using the reference structure in the encoding result memory 15 in association with each other. The RD efficiency estimating unit 16 estimates the RD efficiency using the encoding result stored in the encoding result memory 15, and writes the estimated RD efficiency in the RD efficiency memory 17 in association with the reference structure (step S130). The RD efficiency is an index obtained by linearly combining the code amount R and the coding distortion amount D, and is calculated by D + λR (λ is a coefficient).

RD効率比較部18は、現在のループ処理のステップS130において推定されたRD効率と、RD効率メモリ17に記憶される、現在の符号化対象ブロックスタックの他の参照構造のRD効率とを比較し、最適なRD効率の符号化結果が得られたか否かを判定する(ステップS135)。RD効率比較部18が、最適なRD効率の符号化結果を得ていないと判定した場合(ステップS135:NO)、参照構造生成部13は、符号化対象ブロックスタックの新たな参照構造を生成するステップS120からの処理を繰り返す。   The RD efficiency comparison unit 18 compares the RD efficiency estimated in step S130 of the current loop processing with the RD efficiency of another reference structure of the current block stack to be encoded stored in the RD efficiency memory 17. Then, it is determined whether or not the encoding result with the optimal RD efficiency has been obtained (step S135). When the RD efficiency comparison unit 18 determines that the encoding result of the optimal RD efficiency has not been obtained (step S135: NO), the reference structure generation unit 13 generates a new reference structure of the encoding target block stack. The processing from step S120 is repeated.

そして、RD効率比較部18が、最適なRD効率の符号化結果を得たと判定した場合(ステップS135:YES)、参照構造生成部13又は符号化部14は、フォーカルスタック全体を符号化したか否かを判定する(ステップS140)。参照構造生成部13又は符号化部14が、まだフォーカルスタック全体を符号化していないと判定した場合(ステップS140:NO)、ステップS115の処理に戻り、参照構造生成部13は、まだ符号化を行っていないブロックスタックの中から新たな符号化対象ブロックスタックを選択する。   When the RD efficiency comparing unit 18 determines that the encoding result of the optimal RD efficiency has been obtained (step S135: YES), the reference structure generating unit 13 or the encoding unit 14 encodes the entire focal stack. It is determined whether or not it is (step S140). If the reference structure generation unit 13 or the encoding unit 14 determines that the entire focal stack has not been encoded yet (step S140: NO), the process returns to step S115, and the reference structure generation unit 13 performs encoding. A new encoding target block stack is selected from among the block stacks that have not been performed.

そして、参照構造生成部13又は符号化部14が、フォーカルスタック全体を符号化したと判定した場合(ステップS140:NO)、エントロピー符号化部19は、各ブロックスタックの符号化結果を符号化結果メモリ15から取得する。エントロピー符号化部19が符号化結果メモリ15から取得する各ブロックスタックの符号化結果は、各ブロックスタックについて最適なRD効率であると判断された参照構造を用いて符号化された結果である。エントロピー符号化部19は、各ブロックスタックの符号化結果をエントロピー符号化する(ステップS145)。符号化結果は、予測残差及び予測パラメータと、参照構造を表す情報と、符号化の際に用いたぼかしフィルタパラメータとを含む。ぼかしフィルタパラメータは、インター符号化ブロックを符号化する際に、参照ブロックにぼけ補償を行うために用いたぼかしフィルタのぼけ強度を表す。エントロピー符号化部19は、ステップS130におけるRD効率推定の前にブロックスタック単位でエントロピー符号化を行ってもよい。エントロピー符号化部19は、ステップS145におけるエントロピー符号化を出力する(ステップS150)。   When the reference structure generation unit 13 or the encoding unit 14 determines that the entire focal stack has been encoded (step S140: NO), the entropy encoding unit 19 converts the encoding result of each block stack into the encoding result. Obtained from the memory 15. The encoding result of each block stack acquired by the entropy encoding unit 19 from the encoding result memory 15 is a result encoded using the reference structure determined to have the optimum RD efficiency for each block stack. The entropy coding unit 19 performs entropy coding on the coding result of each block stack (Step S145). The encoding result includes a prediction residual and a prediction parameter, information indicating a reference structure, and a blur filter parameter used in encoding. The blur filter parameter represents the blur intensity of the blur filter used to perform blur compensation on the reference block when coding the inter-coded block. The entropy coding unit 19 may perform entropy coding on a block stack basis before the RD efficiency estimation in step S130. The entropy coding unit 19 outputs the entropy coding in Step S145 (Step S150).

次に、参照構造生成部13の詳細を説明する。図5は、参照構造生成部13の詳細な構成を示すブロック図である。参照構造生成部13は、ブロックスタックインデックス取得部131と、イントラブロック決定部132と、選択済みブロックインデックスメモリ133とを備える。   Next, details of the reference structure generation unit 13 will be described. FIG. 5 is a block diagram illustrating a detailed configuration of the reference structure generation unit 13. The reference structure generation unit 13 includes a block stack index acquisition unit 131, an intra block determination unit 132, and a selected block index memory 133.

ブロックスタックインデックス取得部131は、ブロックスタックメモリ12から、符号化対象ブロックスタックの画像インデックスを取得する。イントラブロック決定部132は、符号化対象ブロックスタックを構成するブロック群のうち、いずれの画像のブロックをイントラ符号化ブロックにするかを選択する。イントラブロック決定部132は、イントラ符号化ブロックとして選択したブロックの画像インデックスを表す参照構造インデックスを出力する。選択済みブロックインデックスメモリ133は、イントラ符号化ブロックとして選択されたブロックの画像インデックスを保存する。イントラブロック決定部132は、選択済みブロックインデックスメモリ133に保存された、イントラ符号化ブロックとして選択済みのブロックの情報と、符号化結果メモリ15から出力される符号化結果を元に、次にイントラ符号化ブロックとするブロックの選択を行う。   The block stack index obtaining unit 131 obtains an image index of an encoding target block stack from the block stack memory 12. The intra-block determining unit 132 selects which image block is to be an intra-coded block from among the blocks constituting the current block stack. The intra block determining unit 132 outputs a reference structure index indicating an image index of a block selected as an intra-coded block. The selected block index memory 133 stores an image index of a block selected as an intra-coded block. The intra-block determining unit 132 determines the next intra-block based on the information of the block that has been selected as the intra-coded block stored in the selected block index memory 133 and the coding result output from the coding result memory 15. A block to be coded is selected.

図6は、参照構造最適化処理を示すフロー図である。同図は、図2のステップS120〜ステップS135の処理の詳細を示す。まず、ブロックスタックインデックス取得部131は、ブロックスタックメモリ12から、符号化対象ブロックスタックの画像インデックス及び位置インデックスを取得する。イントラブロック決定部132は、符号化対象ブロックスタックに対し、イントラ符号化ブロックとして選択する画像インデックスの初期化を行う(ステップS205)。   FIG. 6 is a flowchart showing the reference structure optimizing process. This figure shows the details of the processing of steps S120 to S135 in FIG. First, the block stack index acquisition unit 131 acquires the image index and the position index of the encoding target block stack from the block stack memory 12. The intra block determination unit 132 initializes an image index to be selected as an intra-encoded block for the encoding target block stack (step S205).

この初期化の処理において、イントラブロック決定部132は、初期値として0(最も小さい画像インデックス)を選択すればよい。本実施形態では、フォーカルスタックを構成する画像に対して、焦点距離の近い順に画像インデックスが付与されている。そのため、初期値を0とすることにより、最も近い焦点距離の画像のブロックが初期値のイントラ符号化ブロックとして選択される。例えば、図4に示すフォーカルスタックの場合、最も焦点距離が近い画像G1の画像インデックスが、イントラ符号化ブロックとして選択する画像インデックス(イントラ画像インデックス)の初期値となる。イントラブロック決定部132は、イントラ画像インデックスを示す参照構造インデックスを、参照構造を表す情報としてブロックスタックメモリ12に出力する。符号化部14は、イントラブロック決定部132が出力した参照構造インデックスにより示される参照構造に基づいて、符号化対象ブロックスタックの符号化を実施する(ステップS215)。符号化部14は、符号化対象ブロックスタックの位置インデックスと、参照構造インデックスと、符号化結果とを対応付けて符号化結果メモリ15に格納する。   In this initialization process, the intra block determining unit 132 may select 0 (smallest image index) as an initial value. In the present embodiment, the images constituting the focal stack are assigned image indexes in ascending order of focal length. Therefore, by setting the initial value to 0, the block of the image having the closest focal length is selected as the intra-coded block having the initial value. For example, in the case of the focal stack shown in FIG. 4, the image index of the image G1 having the closest focal length is the initial value of the image index (intra image index) selected as the intra-coded block. The intra block determination unit 132 outputs the reference structure index indicating the intra image index to the block stack memory 12 as information indicating the reference structure. The encoding unit 14 encodes the current block stack based on the reference structure indicated by the reference structure index output from the intra block determination unit 132 (Step S215). The encoding unit 14 stores the position index of the encoding target block stack, the reference structure index, and the encoding result in the encoding result memory 15 in association with each other.

RD効率推定部16は、符号化結果メモリ15に記憶される符号化結果を用いて、RD効率を推定し、参照構造インデックスと対応付けてRD効率メモリ17に書き込む。RD効率比較部18は、現在の参照構造インデックスを用いた符号化対象ブロックの符号化結果のRD効率と、RD効率メモリ17に記憶される他の参照構造インデックスを用いた符号化対象ブロックのRD効率とを比較する(ステップS220)。   The RD efficiency estimating unit 16 estimates the RD efficiency using the coding result stored in the coding result memory 15 and writes the RD efficiency into the RD efficiency memory 17 in association with the reference structure index. The RD efficiency comparison unit 18 calculates the RD efficiency of the coding result of the current block using the current reference structure index and the RD efficiency of the current block using another reference structure index stored in the RD efficiency memory 17. The efficiency is compared (step S220).

RD効率推定部16は、現在の参照構造インデックスを用いた符号化のRDコストが、他の参照構造インデックスを用いた符号化のRDコストと比較して悪化したか否かを判定する(ステップS225)。RD効率推定部16が、RDコストは悪化していないと判定した場合(ステップS225:NO)、イントラブロック決定部132は、イントラ符号化ブロックとして選択する画像インデックスを1増加させる(ステップS230)。イントラブロック決定部132は、ステップS210の処理に戻り、増加させた画像インデックスを示す参照構造インデックスを出力する(ステップS210)。例えば、図4に示すフォーカルスタックの場合、参照構造インデックスが画像G1の画像インデックスから、画像G2の画像インデックスに変更される。   The RD efficiency estimating unit 16 determines whether or not the RD cost of encoding using the current reference structure index is worse than the RD cost of encoding using another reference structure index (step S225). ). When the RD efficiency estimating unit 16 determines that the RD cost has not deteriorated (step S225: NO), the intra block determining unit 132 increases the image index to be selected as the intra coded block by 1 (step S230). The intra block determination unit 132 returns to the process of step S210, and outputs a reference structure index indicating the increased image index (step S210). For example, in the case of the focal stack shown in FIG. 4, the reference structure index is changed from the image index of the image G1 to the image index of the image G2.

イントラブロック決定部132は、現在の参照構造インデックスを用いた符号化のRDコストが他の参照構造インデックスを用いた符号化のRDコストと比較して悪化するまでこの探索を行う。イントラブロック決定部132は、RDコストの悪化を判定した場合(ステップS225:YES)、前回の最も良かった参照構造インデックスを出力する(ステップS235)。   The intra block determination unit 132 performs this search until the RD cost of encoding using the current reference structure index is worse than the RD cost of encoding using another reference structure index. When determining that the RD cost has deteriorated (step S225: YES), the intra-block determining unit 132 outputs the previous best reference structure index (step S235).

一般に画像のぼけは、画像撮影時の焦点距離と被写体の深度(撮影機と被写体との距離)との差が大きいほど強くなる。ボケ補償予測の構成上、最もぼけの少ないブロックをイントラ符号化ブロックに選択すると、最もRD効率が良いと考えられる。そのため、本実施形態のようにRDコストの悪化が起こった段階で探索を打ち切っても、全体の符号化効率低下にはつながらないと期待される。例えば、図4に示す例の場合、画像G1、G2、G3に含まれるブロックの順にイントラ符号化ブロックが選択される。被写体aが写っている位置インデックスjのブロックスタックでは、被写体aに最も焦点面が近い画像G1に含まれるブロックB1−jをイントラ符号化ブロックとして選択したときが最もRD効率が良く、ブロックG2−jをイントラ符号化ブロックと選択したときのRD効率は低下する。この場合、ブロックG3−jをイントラ符号化ブロックとして選択したときのRD効率の算出を行わず、RD効率が低下したときの直前に選択されたブロックB1−jをイントラ符号化ブロックとする。なお、探索順は上記と逆順にしてもよいし、画像インデックスを2以上の間隔で増やすことで粗い探索を実施した後に細かい探索を実施することで高速化してもよいし、真ん中の画像インデックスから選択してもよい。   In general, the blur of an image increases as the difference between the focal length at the time of image capturing and the depth of the subject (the distance between the photographing machine and the subject) increases. Due to the configuration of the blur compensation prediction, selecting the block with the least blur as the intra-coded block is considered to have the best RD efficiency. Therefore, even if the search is terminated at the stage where the RD cost has deteriorated as in the present embodiment, it is expected that the entire coding efficiency will not be reduced. For example, in the case of the example illustrated in FIG. 4, the intra-coded blocks are selected in the order of the blocks included in the images G1, G2, and G3. In the block stack of the position index j in which the subject a is shown, when the block B1-j included in the image G1 whose focal plane is closest to the subject a is selected as the intra-coded block, the RD efficiency is highest and the block G2- The RD efficiency when j is selected as an intra-coded block is reduced. In this case, the RD efficiency when the block G3-j is selected as the intra-coded block is not calculated, and the block B1-j selected immediately before the RD efficiency is reduced is set as the intra-coded block. Note that the search order may be reverse to the above, or the image index may be increased at intervals of 2 or more to perform a coarse search and then a fine search to increase the speed. You may choose.

ブロックスタックメモリ12は、ステップS235においてイントラブロック決定部132が出力した参照構造インデックスを受取ると、符号化対象ブロックスタックと合わせて符号化部14に入力する。符号化部14は、参照構造インデックスが示す参照構造に従って符号化対象ブロックスタックの符号化を行う。   Upon receiving the reference structure index output by the intra block determining unit 132 in step S235, the block stack memory 12 inputs the reference structure index to the encoding unit 14 together with the encoding target block stack. The encoding unit 14 encodes the current block stack according to the reference structure indicated by the reference structure index.

続いて、符号化部14の詳細を説明する。図7は、符号化部14の詳細な構成を示すブロック図である。符号化部14は、予測残差生成部140と、DCT(Discrete Cosine Transform:離散コサイン変換)部141と、量子化部142と、逆量子化部143と、Inv−DCT(Inverse Discrete Cosine Transform:逆離散コサイン変換)部144と、復号信号生成部145と、参照用ブロックメモリ146と、イントラ予測部147と、ボケ補償予測部148と、モード判定部149とを備える。   Next, details of the encoding unit 14 will be described. FIG. 7 is a block diagram illustrating a detailed configuration of the encoding unit 14. The encoding unit 14 includes a prediction residual generation unit 140, a DCT (Discrete Cosine Transform) unit 141, a quantization unit 142, an inverse quantization unit 143, and an Inv-DCT (Inverse Discrete Cosine Transform: An inverse discrete cosine transform) unit 144, a decoded signal generation unit 145, a reference block memory 146, an intra prediction unit 147, a blur compensation prediction unit 148, and a mode determination unit 149.

予測残差生成部140は、符号化対象ブロックと、モード判定部149が出力した予測ブロックとの差分である予測残差を生成する。DCT部141は、予測残差に対して離散コサイン変換を行う。量子化部142は、離散コサイン変換された予測残差に対して量子化処理を行う。量子化部142は、量子化された予測残差と予測パラメータを出力する。逆量子化部143は、量子化された予測残差に対し、逆量子化処理を行う。Inv−DCT部144は、逆量子化処理が行われた予測残差に対して逆離散コサイン変換を行う。復号信号生成部145は、Inv−DCT部144が逆離散コサイン変換した予測残差と、モード判定部149が出力した予測ブロックとを加算して生成した参照ブロックを、参照用ブロックメモリ146に格納する。   The prediction residual generation unit 140 generates a prediction residual that is a difference between the current block and the prediction block output by the mode determination unit 149. DCT section 141 performs discrete cosine transform on the prediction residual. The quantization unit 142 performs a quantization process on the prediction residual subjected to the discrete cosine transform. The quantization unit 142 outputs the quantized prediction residual and the prediction parameter. The inverse quantization unit 143 performs an inverse quantization process on the quantized prediction residual. The Inv-DCT unit 144 performs an inverse discrete cosine transform on the prediction residual on which the inverse quantization process has been performed. The decoded signal generation unit 145 stores the reference block generated by adding the prediction residual subjected to the inverse discrete cosine transform by the Inv-DCT unit 144 and the prediction block output by the mode determination unit 149 in the reference block memory 146. I do.

イントラ予測部147は、参照用ブロックメモリ146から読み出した参照ブロックに、画面内予測処理を実行することによって、符号化対象ブロックの予測ブロックを生成する。イントラ予測部147は、H.265/HEVC(High Efficiency Video Coding)におけるイントラ予測により符号化を行う。あるいは、イントラ予測部147は、H.264/AVCのような他の映像圧縮規格におけるイントラ予測により符号化を行ってもよい。なお、符号化部14は、JPEGのように、予測符号化を行わずイントラ符号化ブロックに直接DCT変換を施してもよい。ボケ補償予測部148は、参照用ブロックメモリ146に格納された符号化済みのイントラ符号化ブロックである参照ブロックにボケ補償を行ってインター符号化ブロックの予測ブロックを生成し、出力する。モード判定部149は、イントラ予測部147が生成した予測ブロックと、ボケ補償予測部148が生成した予測ブロックとのいずれかを出力する。   The intra prediction unit 147 generates a prediction block of the encoding target block by performing an intra-screen prediction process on the reference block read from the reference block memory 146. The intra prediction unit 147 performs Encoding is performed by intra prediction in H.265 / HEVC (High Efficiency Video Coding). Alternatively, the intra prediction unit 147 performs Encoding may be performed by intra prediction in another video compression standard such as H.264 / AVC. Note that the encoding unit 14 may directly perform the DCT transform on the intra-encoded block without performing the predictive encoding like JPEG. The blur compensation prediction unit 148 performs blur compensation on a reference block that is an encoded intra-coded block stored in the reference block memory 146, generates a predicted block of an inter-coded block, and outputs the predicted block. The mode determination unit 149 outputs one of the prediction block generated by the intra prediction unit 147 and the prediction block generated by the blur compensation prediction unit 148.

図8は、符号化部14における符号化処理を示すフロー図である。同図は、図2のステップS125及び図6のステップS215における処理の詳細を示す。符号化部14は、符号化対象ブロックスタック及び参照構造インデックスを入力する(ステップS305)。符号化部14は、まずイントラ符号化ブロックの符号化を行う。そこで、符号化部14は、符号化対象ブロックスタックの中から参照構造インデックスが示すブロックをイントラ符号化ブロックとして抽出し、イントラ予測部147に入力する。   FIG. 8 is a flowchart showing an encoding process in the encoding unit 14. This figure shows the details of the processing in step S125 in FIG. 2 and step S215 in FIG. The encoding unit 14 inputs the encoding target block stack and the reference structure index (Step S305). The encoding unit 14 first encodes an intra-coded block. Therefore, the encoding unit 14 extracts a block indicated by the reference structure index from the encoding target block stack as an intra-encoded block, and inputs the extracted block to the intra prediction unit 147.

イントラ予測部147は、参照用ブロックメモリ146に格納された符号化済みブロックの画素値を参照してイントラ符号化ブロックの予測を行う。ここでの符号化済みブロックは、イントラ符号化ブロックが属する画像からのみ取得されてもよいし、それ以外の画像から取得されてもよいし、複数の画像を平均化して生成した画素値を用いてもよい。参照画素として適当なのは符号化対象ブロックと同じ被写体を映した画素であるが、他の画像は焦点距離が異なり予測に適さないため、基本的には同じ画像から取得するのが効率的である。イントラ予測部147は、予測ブロックと、予測パラメータをモード判定部149に出力する。   The intra prediction unit 147 predicts the intra-coded block with reference to the pixel value of the coded block stored in the reference block memory 146. The coded block here may be obtained only from the image to which the intra-coded block belongs, may be obtained from other images, or may be obtained by averaging a plurality of images and using a pixel value generated by the averaging. You may. A pixel suitable for the reference pixel is a pixel showing the same subject as the encoding target block. However, since other images have different focal lengths and are not suitable for prediction, it is basically efficient to obtain the same image from the same image. The intra prediction unit 147 outputs the prediction block and the prediction parameters to the mode determination unit 149.

予測残差生成部140は、イントラ符号化ブロックとモード判定部149が出力した予測ブロックとの差分である予測残差を生成する。DCT部141は、予測残差にDCTを施す。量子化部142は、DCTが施された予測残差に量子化を施す(ステップS310)。逆量子化部143は、量子化された予測残差に逆量子化処理を行い、Inv−DCT部144は、逆量子化処理が行われた予測残差に対して逆離散コサイン変換を行う。復号信号生成部145は、逆離散コサイン変換された予測残差と、モード判定部149が出力した予測ブロックとを加算して、参照用ブロックメモリ146に入力する(ステップS315)。   The prediction residual generation unit 140 generates a prediction residual that is a difference between the intra-coded block and the prediction block output by the mode determination unit 149. DCT section 141 performs DCT on the prediction residual. The quantization unit 142 performs quantization on the prediction residual subjected to DCT (step S310). The inverse quantization unit 143 performs an inverse quantization process on the quantized prediction residual, and the Inv-DCT unit 144 performs an inverse discrete cosine transform on the prediction residual that has been subjected to the inverse quantization process. The decoded signal generation unit 145 adds the prediction residual subjected to the inverse discrete cosine transform and the prediction block output by the mode determination unit 149, and inputs the result to the reference block memory 146 (step S315).

次に、符号化部14は、インター符号化ブロックの符号化を行う。符号化対象のインター符号化ブロック(インター符号化対象ブロック)がボケ補償予測部148及びイントラ予測部147に入力される。さらに、符号化済みのイントラ符号化ブロックである符号化済みブロックが参照用ブロックメモリ146からボケ補償予測部148に入力され、符号化対象のイントラ符号化ブロックと同じ画像の符号化済みブロックが参照用ブロックメモリ146からイントラ予測部147に入力される(ステップS320)。ボケ補償予測部148及びイントラ予測部147はそれぞれ、予測ブロックを出力する。すなわち、ボケ補償予測部148は、後述する図10の処理により符号化済みブロックにボケ補償を行った予測ブロックを生成する(ステップS325)。モード判定部149は、ボケ補償予測部148が生成した予測ブロックと、符号化対象のインター符号化ブロックとの差分値を計算する(ステップS330)。一方、イントラ予測部147は、符号化済みブロックの画素値を参照してインター符号化ブロックにイントラ予測を行い、予測ブロックを出力する(ステップS335)。モード判定部149は、イントラ予測部147が生成した予測ブロックと、符号化対象のインター符号化ブロックとの差分値を計算する(ステップS340)。   Next, the coding unit 14 codes the inter-coded block. The inter-coded block to be coded (inter-coded block) is input to the blur compensation prediction unit 148 and the intra prediction unit 147. Further, a coded block that is a coded intra-coded block is input from the reference block memory 146 to the blur compensation prediction unit 148, and a coded block of the same image as the intra-coded block to be coded is referred to. Is input to the intra prediction unit 147 from the block memory 146 for use (step S320). The blur compensation prediction unit 148 and the intra prediction unit 147 each output a prediction block. That is, the blur compensation prediction unit 148 generates a prediction block in which blur compensation has been performed on the encoded block by the processing of FIG. 10 described below (step S325). The mode determination unit 149 calculates a difference value between the prediction block generated by the blur compensation prediction unit 148 and the inter-coded block to be coded (step S330). On the other hand, the intra prediction unit 147 performs intra prediction on the inter-coded block with reference to the pixel value of the coded block, and outputs a predicted block (step S335). The mode determining unit 149 calculates a difference value between the prediction block generated by the intra prediction unit 147 and the inter-coded block to be coded (step S340).

モード判定部149は、ステップS330において算出した差分値と、ステップS340において算出した差分値とのそれぞれについてRD効率を推定する(ステップS345)。モード判定部149は、推定結果に基づいてよりボケ補償予測とイントラ予測のいずれがより効率的であるかを判断する(ステップS350)。   The mode determination unit 149 estimates the RD efficiency for each of the difference value calculated in step S330 and the difference value calculated in step S340 (step S345). The mode determining unit 149 determines which of the blur compensation prediction and the intra prediction is more efficient based on the estimation result (step S350).

モード判定部149は、ボケ補償予測のほうが効率的と判断した場合(ステップS350:ボケ補償予測)、ボケ補償予測部148が出力した予測ブロックを予測残差生成部140に入力する。符号化部14は、ボケ補償予測部148が生成したボケ補償予測の予測ブロックを用いてインター符号化を行う(ステップS355)。一方、モード判定部149は、イントラ予測のほうが効率的と判断した場合(ステップS350:イントラ予測)、イントラ予測部147が出力した予測ブロックを予測残差生成部140に入力する。符号化部14は、イントラ予測部147が生成した予測ブロックを用いてイントラ符号化を行う(ステップS360)。すなわち、ステップS355、ステップS360において、予測残差生成部140は、インター符号化ブロックとモード判定部149が出力した予測ブロックとの予測残差を生成する。DCT部141は、予測残差にDCTを施す。量子化部142は、DCTが施された予測残差に量子化を施す。逆量子化部143は、量子化された予測残差に逆量子化処理を行い、Inv−DCT部144は、逆量子化処理が行われた予測残差に対して逆離散コサイン変換を行う。復号信号生成部145は、逆離散コサイン変換された予測残差と、モード判定部149が出力した予測ブロックとを加算して、参照用ブロックメモリ146に入力する。   When determining that the blur compensation prediction is more efficient (step S350: blur compensation prediction), the mode determination unit 149 inputs the prediction block output by the blur compensation prediction unit 148 to the prediction residual generation unit 140. The encoding unit 14 performs inter-encoding using the prediction block for blur compensation prediction generated by the blur compensation prediction unit 148 (step S355). On the other hand, when determining that the intra prediction is more efficient (step S350: intra prediction), the mode determination unit 149 inputs the prediction block output from the intra prediction unit 147 to the prediction residual generation unit 140. The encoding unit 14 performs intra encoding using the prediction block generated by the intra prediction unit 147 (Step S360). That is, in steps S355 and S360, the prediction residual generation unit 140 generates a prediction residual between the inter-coded block and the prediction block output by the mode determination unit 149. DCT section 141 performs DCT on the prediction residual. The quantization unit 142 performs quantization on the DCT-processed prediction residual. The inverse quantization unit 143 performs an inverse quantization process on the quantized prediction residual, and the Inv-DCT unit 144 performs an inverse discrete cosine transform on the prediction residual that has been subjected to the inverse quantization process. The decoded signal generation unit 145 adds the prediction residual subjected to the inverse discrete cosine transform and the prediction block output by the mode determination unit 149, and inputs the result to the reference block memory 146.

符号化部14は、符号化対象のインター符号化ブロックのうちまだ符号化していないものがあると判定した場合(ステップS365:NO)、次のインター符号化ブロックについてステップS320からの処理を繰り返す。そして、符号化部14は、符号化対象の全てのインター符号化ブロックの符号化を行ったと判定した場合(ステップS365:YES)、符号化された予測残差と予測パラメータを出力する(ステップS370)。   When the encoding unit 14 determines that there is an inter-coded block to be encoded that has not been encoded yet (step S365: NO), the processing from step S320 is repeated for the next inter-coded block. Then, when determining that all the inter-coding blocks to be encoded have been encoded (step S365: YES), the encoding unit 14 outputs the encoded prediction residuals and prediction parameters (step S370). ).

図9は、符号化部14が備えるボケ補償予測部148の詳細な構成を示すブロック図である。ボケ補償予測部148は、ぼかしフィルタパラメータ生成部201と、ぼかし処理部202と、差分生成部203と、RD効率推定部204と、RD効率メモリ205と、RD効率比較部206とを備える。   FIG. 9 is a block diagram illustrating a detailed configuration of the blur compensation prediction unit 148 included in the encoding unit 14. The blur compensation prediction unit 148 includes a blur filter parameter generation unit 201, a blur processing unit 202, a difference generation unit 203, an RD efficiency estimation unit 204, an RD efficiency memory 205, and an RD efficiency comparison unit 206.

ぼかしフィルタパラメータ生成部201は、ぼかしフィルタに用いられるパラメータであるぼかしフィルタパラメータの値を決定する。ぼかし処理部202は、ぼかしフィルタパラメータ生成部201が生成したぼかしフィルタパラメータ値を用いたぼかしフィルタを符号化済みブロックに施し、予測ブロックを生成する。差分生成部203は、符号化対象ブロックと、ぼかし処理部202が生成した予測ブロックとの差分を生成する。   The blur filter parameter generation unit 201 determines the value of a blur filter parameter, which is a parameter used for the blur filter. The blurring processing unit 202 performs a blurring filter using the blurring filter parameter value generated by the blurring filter parameter generating unit 201 on the coded block, and generates a prediction block. The difference generation unit 203 generates a difference between the encoding target block and the prediction block generated by the blur processing unit 202.

RD効率推定部204は、差分生成部203が生成した差分のRD効率を推定する。RD効率メモリ205は、RD効率推定部204が推定したRD効率をぼかしフィルタパラメータ値ごとに記憶する。RD効率比較部206は、RD効率メモリ205に記憶されるRD効率を比較し、最も良いRD効率のぼかしフィルタパラメータ値を選択する。ぼかし処理部202は、RD効率比較部206が選択したぼかしフィルタパラメータ値を用いたぼかしフィルタを施して生成した予測ブロックと、選択したぼかしフィルタパラメータの値を出力する。   The RD efficiency estimation unit 204 estimates the RD efficiency of the difference generated by the difference generation unit 203. The RD efficiency memory 205 stores the RD efficiency estimated by the RD efficiency estimating unit 204 for each blur filter parameter value. The RD efficiency comparison unit 206 compares the RD efficiencies stored in the RD efficiency memory 205 and selects the best RD efficiency blur filter parameter value. The blurring processing unit 202 outputs a prediction block generated by performing a blurring filter using the blurring filter parameter value selected by the RD efficiency comparing unit 206 and a value of the selected blurring filter parameter.

図10は、ボケ補償予測部148のボケ補償処理を示すフロー図である。ぼかし処理部202は、符号化対象ブロックスタックのイントラ符号化ブロックを符号化した符号化済みブロックを参照用ブロックメモリ146から入力する(ステップS405)。ぼかしフィルタパラメータ生成部201は、初期値のぼかしフィルタパラメータ値を生成する(ステップS410)。ぼかし処理部202は、ステップS405において入力した符号化済みブロックに、ステップS410において生成されたぼかしフィルタパラメータ値を用いたぼかしフィルタを適用し、予測ブロックを生成する(ステップS415)。   FIG. 10 is a flowchart showing the blur compensation processing of the blur compensation prediction unit 148. The blurring processing unit 202 inputs, from the reference block memory 146, an encoded block obtained by encoding the intra-encoded block of the encoding target block stack (step S405). The blur filter parameter generator 201 generates a blur filter parameter value of an initial value (step S410). The blur processing unit 202 applies a blur filter using the blur filter parameter value generated in step S410 to the encoded block input in step S405, and generates a prediction block (step S415).

差分生成部203は、符号化対象のインター符号化ブロックである符号化対象ブロックと、ステップS415においてぼかし処理部202が生成した予測ブロックとの差分を生成する(ステップS420)。RD効率推定部204は、ステップS420において差分生成部203が生成した差分に対してRD効率の推定を行い、推定結果をRD効率メモリ205に格納する(ステップS425)。RD効率比較部206は、RD効率メモリ205に記憶されるRD効率を比較し、最適なRD効率が得られたか否かを判定する(ステップS430)。   The difference generation unit 203 generates a difference between the coding target block that is the coding target inter-coding block and the prediction block generated by the blur processing unit 202 in step S415 (step S420). The RD efficiency estimation unit 204 estimates the RD efficiency for the difference generated by the difference generation unit 203 in step S420, and stores the estimation result in the RD efficiency memory 205 (step S425). The RD efficiency comparison unit 206 compares the RD efficiencies stored in the RD efficiency memory 205 and determines whether or not the optimum RD efficiency has been obtained (Step S430).

RD効率比較部206は、最適なRD効率が得られていないと判断した場合(ステップS430:NO)、ステップS410からの処理を繰り返す。すなわち、ぼかしフィルタパラメータ生成部201は、RD効率の推定結果を元にしてぼかしフィルタパラメータ値を更新する(ステップS410)。ぼかし処理部202は、ぼかしフィルタパラメータ生成部201が更新したぼかしフィルタパラメータ値を用いたぼかしフィルタにより、符号化済みブロックにぼかし処理を施して予測ブロックを生成する(ステップS415)。差分生成部203は、符号化対象ブロックと予測ブロックとの差分を生成し(ステップS420)、RD効率推定部204は、この差分に対して推定したRD効率をRD効率メモリ205に格納する(ステップS425)。RD効率比較部206は、最適なRD効率が得られたか否かを判定する(ステップS430)。   When determining that the optimal RD efficiency has not been obtained (step S430: NO), the RD efficiency comparison unit 206 repeats the processing from step S410. That is, the blur filter parameter generation unit 201 updates the blur filter parameter value based on the estimation result of the RD efficiency (step S410). The blurring processing unit 202 performs a blurring process on the encoded block by using a blurring filter using the blurring filter parameter value updated by the blurring filter parameter generating unit 201 to generate a prediction block (step S415). The difference generation unit 203 generates a difference between the current block and the prediction block (step S420), and the RD efficiency estimation unit 204 stores the RD efficiency estimated for the difference in the RD efficiency memory 205 (step S420). S425). The RD efficiency comparison unit 206 determines whether the optimum RD efficiency has been obtained (Step S430).

RD効率比較部206が、最適なRD効率が得られたと判定した場合(ステップS430:NO)、最終的にRD効率が最も良かったぼかしフィルタパラメータの値を選択する。ぼかし処理部202は、最もRD効率の良かった予測ブロック及びぼかしフィルタパラメータの値を出力する(ステップS435)。   When the RD efficiency comparing unit 206 determines that the optimum RD efficiency has been obtained (step S430: NO), the RD efficiency comparing unit 206 finally selects the value of the blur filter parameter with the highest RD efficiency. The blur processing unit 202 outputs the prediction block having the highest RD efficiency and the value of the blur filter parameter (step S435).

ぼかしフィルタパラメータ生成部201の詳細を説明する。図11は、ぼかしフィルタパラメータ生成部201の詳細な構成を示すブロック図である。ぼかしフィルタパラメータ生成部201は、ぼかしフィルタパラメータ初期化部211と、ぼかしフィルタパラメータメモリ212と、ぼかしフィルタ生成部213と、ぼかしフィルタパラメータ更新処理決定部214と、ぼかしフィルタパラメータ更新処理部215とを備える。   The details of the blur filter parameter generation unit 201 will be described. FIG. 11 is a block diagram illustrating a detailed configuration of the blur filter parameter generation unit 201. The blur filter parameter generation unit 201 includes a blur filter parameter initialization unit 211, a blur filter parameter memory 212, a blur filter generation unit 213, a blur filter parameter update processing determination unit 214, and a blur filter parameter update processing unit 215. Prepare.

ぼかしフィルタパラメータ初期化部211は、ぼかしフィルタパラメータ値を初期化する。ぼかしフィルタパラメータ値は、ボケ強度を表す。ぼかしフィルタパラメータメモリ212は、ぼかしフィルタパラメータ値を記憶する。ぼかしフィルタ生成部213は、ぼかしフィルタパラメータ値を用いたぼかしフィルタを生成する。ぼかしフィルタパラメータ更新処理決定部214は、ぼかしフィルタパラメータ値の更新処理を行うか否かを決定する。ぼかしフィルタパラメータ更新処理部215は、ぼかしフィルタパラメータ更新処理決定部214がぼかしフィルタパラメータ値の更新処理を行うと決定した場合、現在のぼかしフィルタパラメータ値を更新する。   The blur filter parameter initialization unit 211 initializes a blur filter parameter value. The blur filter parameter value represents the blur intensity. The blur filter parameter memory 212 stores a blur filter parameter value. The blur filter generation unit 213 generates a blur filter using a blur filter parameter value. The blur filter parameter update processing determining unit 214 determines whether or not to perform the update processing of the blur filter parameter value. The blur filter parameter update processing unit 215 updates the current blur filter parameter value when the blur filter parameter update processing determination unit 214 determines to perform the update processing of the blur filter parameter value.

ぼかしフィルタには、例えばガウシアンブラーフィルタが用いられる。ガウシアンブラーフィルタを用いた場合、ぼかしフィルタパラメータは標準偏差σで表され、フィルタ係数は下記のように計算される。座標(i,j)の入力画素をA[i,j]としたとき、フィルタ適用後の画素値B[i,j]は下の式(1)で表される。   For example, a Gaussian blur filter is used as the blur filter. When a Gaussian blur filter is used, a blur filter parameter is represented by a standard deviation σ, and a filter coefficient is calculated as follows. Assuming that the input pixel at the coordinates (i, j) is A [i, j], the pixel value B [i, j] after applying the filter is represented by the following equation (1).

Figure 2020017894
Figure 2020017894

ここでフィルタ係数Gσ(x,y)は下の式(2)で表される。 Here, the filter coefficient G σ (x, y) is represented by the following equation (2).

Figure 2020017894
Figure 2020017894

ただし実装上、フィルタ長が有限となるようx,yを一定の範囲Zにとどめるか、フィルタ係数Gσが一定の値以下になる場合は0とすることが望ましい。標準偏差0の場合はぼかしフィルタを適用しないと定める。上記の定義より、標準偏差σを大きくするほどぼかしフィルタによるぼけの強度が強くなる。ぼかしフィルタパラメータ生成部201による標準偏差の更新は、初期値を0として1ずつ増加させていけばよい。これは、ボケ強度を強くしていくことに相当する。このとき標準偏差の最大値を予め決めておき、それ以上は探索を行わないとするのが望ましい。また更新幅を1より大きくしてもよく、初めは大きな更新幅により更新して粗く探索を行った後に細かい探索と段階的に行うことで探索時間の短縮を図ってもよい。 However, in implementation, it is desirable to keep x and y within a fixed range Z so that the filter length becomes finite, or to set it to 0 when the filter coefficient is equal to or less than a certain value. When the standard deviation is 0, it is determined that the blur filter is not applied. According to the above definition, the larger the standard deviation σ, the higher the intensity of the blur caused by the blur filter. The update of the standard deviation by the blur filter parameter generation unit 201 may be performed by incrementing the standard deviation by 1 with the initial value set to 0. This corresponds to increasing the blur intensity. At this time, it is desirable that the maximum value of the standard deviation is determined in advance, and no further search is performed. Further, the update width may be set to be larger than 1, and the search time may be shortened by initially updating with a large update width, performing a coarse search, and then performing a fine search stepwise.

図12は、ぼかしフィルタパラメータ生成部201のぼかしフィルタパラメータ生成処理を示すフロー図である。同図に示す処理は、図10におけるステップS410〜ステップS430の処理に相当する。ぼかしフィルタパラメータ生成処理によって、与えられた参照構造の中でRD効率を最適化できるようなボケ強度を探索する。   FIG. 12 is a flowchart showing the blur filter parameter generation processing of the blur filter parameter generation unit 201. The processing illustrated in FIG. 10 corresponds to the processing of steps S410 to S430 in FIG. By the blur filter parameter generation processing, a blur intensity that can optimize the RD efficiency in the given reference structure is searched.

まず、ぼかしフィルタパラメータ初期化部211は、ぼかしフィルタパラメータ値を初期化する。例えば、ぼかしフィルタパラメータ初期化部211は、ぼかしフィルタパラメータとして用いる標準偏差σを0に初期化する。ぼかしフィルタパラメータメモリ212は、初期化されたぼかしフィルタパラメータ値を記憶する。ぼかしフィルタ生成部213は、初期化されたぼかしフィルタパラメータ値を入力する(ステップS505)。ぼかしフィルタ生成部213は、初期化されたぼかしフィルタパラメータ値を用いたぼかしフィルタを生成し(ステップS510)、ぼかし処理部202に出力する(ステップS515)。   First, the blur filter parameter initialization unit 211 initializes a blur filter parameter value. For example, the blur filter parameter initialization unit 211 initializes a standard deviation σ used as a blur filter parameter to zero. The blur filter parameter memory 212 stores the initialized blur filter parameter values. The blur filter generation unit 213 inputs the initialized blur filter parameter value (step S505). The blur filter generation unit 213 generates a blur filter using the initialized blur filter parameter values (step S510), and outputs the blur filter to the blur processing unit 202 (step S515).

ボケ補償予測部148は、ぼかしフィルタパラメータ生成部201が生成したぼかしフィルタに基づいて、ぼけ補償による符号化を実施する。すなわち、ぼかし処理部202は、ぼかしフィルタにより符号化済みブロックにぼかし処理を施して予測ブロックを生成する。差分生成部203は、符号化対象ブロックと予測ブロックとの差分をとり、RD効率推定部204は、この差分に対してRD効率を推定する。RD効率比較部206は、現在のRD効率と、前回のRD効率とを比較する(ステップS520)。   The blur compensation prediction unit 148 performs encoding by blur compensation based on the blur filter generated by the blur filter parameter generation unit 201. That is, the blurring processing unit 202 generates a predicted block by performing a blurring process on the encoded block by the blurring filter. The difference generation unit 203 calculates the difference between the current block and the prediction block, and the RD efficiency estimation unit 204 estimates the RD efficiency based on the difference. The RD efficiency comparison unit 206 compares the current RD efficiency with the previous RD efficiency (Step S520).

RD効率比較部206が、今回のRD効率は前回から悪化していないと判断した場合(ステップS525:NO)、ぼかしフィルタパラメータ更新処理決定部214は、ぼかしフィルタパラメータ値の更新を決定する。ぼかしフィルタパラメータ更新処理部215は、現在のぼかしフィルタパラメータ値を1増加させ、ぼかしフィルタパラメータメモリ212に記憶する。ぼかしフィルタ生成部213は、更新されたぼかしフィルタパラメータ値を入力する(ステップS530)。ぼかしフィルタパラメータ生成部201は、ステップS510からの処理を繰り返す。   When the RD efficiency comparison unit 206 determines that the current RD efficiency has not deteriorated from the previous time (step S525: NO), the blur filter parameter update processing determination unit 214 determines the update of the blur filter parameter value. The blur filter parameter update processing unit 215 increases the current blur filter parameter value by 1, and stores the value in the blur filter parameter memory 212. The blur filter generation unit 213 inputs the updated blur filter parameter value (Step S530). The blur filter parameter generation unit 201 repeats the processing from step S510.

そして、RD効率比較部206が、今回のRD効率は前回から悪化したと判断した場合(ステップS525:NO)、ぼかしフィルタパラメータ更新処理決定部214は、ぼかしフィルタパラメータ値を更新しないと決定する。ぼかしフィルタパラメータメモリ212は、前回のぼかしフィルタパラメータ値をぼかし処理部202に出力する(ステップS535)。   When the RD efficiency comparison unit 206 determines that the current RD efficiency has deteriorated from the previous time (step S525: NO), the blur filter parameter update processing determination unit 214 determines not to update the blur filter parameter value. The blur filter parameter memory 212 outputs the previous blur filter parameter value to the blur processor 202 (step S535).

図12の処理は、ボケ強度が被写体の深度と焦点距離との差に応じて純増することを利用して、差分が最小になる箇所を探索している。画像インデックスは、撮影機から焦点面の距離が近い順に付与され、インター符号化ブロックは画像インデックスの順に符号化される。これを利用し、符号化部14は、参照ブロックであるイントラ符号化ブロックに近いほうから(又は遠い方から)探索を行い、ぼかしフィルタパラメータ初期化部211は、遠い方(又は近い方)のブロックでは探索するボケ強度の初期値を、近い(又は遠い)ブロックでの推定値によって定めるようにしてもよい。   The process of FIG. 12 searches for a location where the difference is minimum, utilizing the fact that the blur intensity is purely increased according to the difference between the depth of the subject and the focal length. The image index is assigned in ascending order of the focal plane distance from the camera, and the inter-coded blocks are encoded in the order of the image index. Utilizing this, the encoding unit 14 performs a search from the side closer to (or from the far side of) the intra-coded block that is the reference block, and the blur filter parameter initialization unit 211 uses the farther (or closer). In the block, the initial value of the blur intensity to be searched may be determined based on the estimated value in the near (or far) block.

例えば、図4に示す例の場合、位置インデックスjのブロックスタックでは、画像G1をイントラ符号化ブロックとする参照構造の場合、ブロックB2−j及びブロックB3−jがインター符号化ブロックとなる。このとき、より画像G1と焦点距離が近い画像G2に含まれるブロックB2−jのぼけ補償予測のためにブロックB1−jに適用するぼかしフィルタパラメータ値(ボケ強度)を決定する。そして、次に画像G2よりも画像G1との焦点距離が遠い画像G3に含まれるブロックG3−jのぼけ補償予測のためにブロックB1−jに適用するぼかしフィルタパラメータ値(ボケ強度)を決定する。ブロックB1−jより焦点距離が遠いブロックG3−jのほうが、ブロックB1−jに適用するボケ強度が強いと考えられる。そこで、ブロックG3−jがインター符号化ブロックであるときのぼかしフィルタパラメータ値の初期値を、ブロックG2−jがインター符号化ブロックであるときについてすでに算出されたぼかしフィルタパラメータ値とし、その初期値よりもボケ強度を強くしていきながらRD効率が最適なぼかしフィルタパラメータ値を探索する。つまり、ブロックG2−jがインター符号化ブロックであるときのぼかしフィルタパラメータ値よりも小さいボケ強度については探索の対象としない。なお、ブロックG3−jがインター符号化ブロックであるときのぼかしフィルタパラメータ値の初期値を、ブロックG2−jがインター符号化ブロックであるときのぼかしフィルタパラメータ値に所定だけ変動させた値としてもよい。   For example, in the example shown in FIG. 4, in the block stack of the position index j, in the case of the reference structure in which the image G1 is an intra-coded block, the blocks B2-j and B3-j are inter-coded blocks. At this time, a blur filter parameter value (blur intensity) to be applied to the block B1-j for blur compensation prediction of the block B2-j included in the image G2 whose focal length is closer to the image G1 is determined. Then, a blur filter parameter value (blur intensity) to be applied to the block B1-j for blur compensation prediction of the block G3-j included in the image G3 having a longer focal length with the image G1 than the image G2 is determined. . It is considered that the blur intensity applied to the block B1-j is higher in the block G3-j whose focal length is farther than the block B1-j. Therefore, the initial value of the blur filter parameter value when the block G3-j is an inter-coded block is defined as the blur filter parameter value already calculated when the block G2-j is an inter-coded block, and the initial value A blur filter parameter value with the optimum RD efficiency is searched for while increasing the blur intensity more than the blur intensity. That is, a blur intensity smaller than the blur filter parameter value when the block G2-j is an inter-coded block is not searched. Note that the initial value of the blur filter parameter value when the block G3-j is an inter-coded block may be set to a value obtained by changing the blur filter parameter value by a predetermined amount when the block G2-j is an inter-coded block. Good.

また、ぼかしフィルタパラメータ初期化部211は、イントラ符号化ブロックのぼかしフィルタパラメータの初期値として、参照構造が同じ隣接ブロックのぼかしフィルタパラメータの値に基づく値を設定してもよい。例えば、位置インデックスjのブロックスタックにおいて、ブロックB1−jをイントラ符号化ブロックとする参照構造のときに、ブロックB2−jのぼけ補償予測のためにブロックB1−jに適用するぼかしフィルタパラメータ値(又は、その値を所定だけ変動させた値)を、位置インデックスjに隣接する位置インデックス(j+1)のブロックスタックにおいて、ブロックB1−(j+1)をイントラ符号化ブロックとする参照構造のときに、ブロックB2−(j+1)のぼけ補償予測のためにブロックB1−(j+1)に適用するぼかしフィルタパラメータの初期値とする。そして、初期値を中心として、ボケ強度を増やした場合と減らした場合とによって、ぼかしフィルタパラメータの値を探索する。   Further, the blur filter parameter initialization unit 211 may set a value based on the value of the blur filter parameter of an adjacent block having the same reference structure as the initial value of the blur filter parameter of the intra-coded block. For example, in the block stack of the position index j, when the reference structure uses the block B1-j as the intra-coded block, the blur filter parameter value (the blur filter parameter value applied to the block B1-j for the blur compensation prediction of the block B2-j ( Alternatively, a value obtained by changing the value by a predetermined value) is used as a block structure in a block stack of a position index (j + 1) adjacent to a position index j, where the block B1- (j + 1) is an intra-coded block. The initial value of the blur filter parameter applied to the block B1- (j + 1) for blur compensation prediction of B2- (j + 1) is set. Then, based on the initial value, the value of the blur filter parameter is searched for depending on whether the blur intensity is increased or decreased.

次に、エントロピー符号化部19の詳細を説明する。図13は、エントロピー符号化部19の詳細な構成を示すブロック図である。エントロピー符号化部19は、インデックス分離部191と、予測残差二値化部192と、予測パラメータ二値化部193と、参照構造インデックス二値化部194と、算術符号化部195とを備える。   Next, details of the entropy coding unit 19 will be described. FIG. 13 is a block diagram illustrating a detailed configuration of the entropy encoding unit 19. The entropy coding unit 19 includes an index separation unit 191, a prediction residual binarization unit 192, a prediction parameter binarization unit 193, a reference structure index binarization unit 194, and an arithmetic coding unit 195. .

インデックス分離部191は、符号化結果として入力されたデータを、予測残差、予測パラメータ、及び、参照構造インデックスに分離する。予測残差二値化部192は、量子化部142が量子化した予測残差をHEVCと同様に二値化する。予測パラメータ二値化部193は、予測パラメータをHEVCと同様に二値化する。参照構造インデックス二値化部194は、参照構造インデックスを二値化する。算術符号化部195は、予測残差二値化部192が二値化した予測残差、予測パラメータ二値化部193が二値化した予測パラメータ、及び、参照構造インデックスが二値化した参照構造インデックスを算術符号化する。算術符号化部195は、HEVCと同様にCABAC(Context Adaptive Binary Arithmetic Coding)を用いて算術符号化を行う。算術符号化部195として、他の算術符号化器を用いてもよい。   The index separation unit 191 separates data input as an encoding result into a prediction residual, a prediction parameter, and a reference structure index. The prediction residual binarization unit 192 binarizes the prediction residual quantized by the quantization unit 142 in the same manner as HEVC. The prediction parameter binarization unit 193 binarizes the prediction parameter in the same manner as in the HEVC. The reference structure index binarization unit 194 binarizes the reference structure index. The arithmetic encoding unit 195 includes a prediction residual binarized by the prediction residual binarization unit 192, a prediction parameter binarized by the prediction parameter binarization unit 193, and a reference obtained by binarizing the reference structure index. Arithmetic encode the structure index. The arithmetic coding unit 195 performs arithmetic coding using CABAC (Context Adaptive Binary Arithmetic Coding), similarly to HEVC. Another arithmetic encoder may be used as the arithmetic encoder 195.

図14は、参照構造インデックス二値化部194の参照構造インデックス二値化処理を示すフロー図である。本実施形態において参照構造インデックスは、各ブロックスタックにおけるイントラ画像インデックスと等しい。また、同じ位置インデックスを持つブロックのうち、最もぼけの少ないブロックがイントラ符号化ブロックとなることが期待される。ここでは、隣接したブロックは同じ被写体を映している可能性が高く、したがって参照構造も近い傾向があることを利用し、参照構造インデックスの効率的な二値化を行う。参照構造インデックス二値化部194は、各ブロックスタックについて同図に示す処理を行う。   FIG. 14 is a flowchart showing the reference structure index binarization processing of the reference structure index binarization unit 194. In the present embodiment, the reference structure index is equal to the intra image index in each block stack. In addition, it is expected that, among blocks having the same position index, the least blurred block will be an intra-coded block. Here, the efficient binarization of the reference structure index is performed by utilizing the fact that the adjacent blocks are likely to show the same subject, and therefore the reference structures also tend to be close. The reference structure index binarization unit 194 performs the processing shown in the figure for each block stack.

まず、参照構造インデックス二値化部194は、ブロックスタックの位置インデックスをインデックス分離部191から入力する(ステップS605)。位置インデックスで示される位置のブロックを「対象ブロック」と記載し、「対象ブロック」に隣接するブロックを「隣接ブロック」と記載する。参照構造インデックス二値化部194は、対象ブロックの上方向に隣接ブロックが存在するか否かを判定する(ステップS610)。参照構造インデックス二値化部194は、上方向に隣接ブロックが存在すると判断した場合(ステップS610:YES)、対象ブロックの参照構造インデックスが、真上の隣接ブロックの参照構造インデックスと一致するか否かを判定する(ステップS615)。   First, the reference structure index binarization unit 194 inputs the position index of the block stack from the index separation unit 191 (Step S605). The block at the position indicated by the position index is described as a “target block”, and a block adjacent to the “target block” is described as an “adjacent block”. The reference structure index binarization unit 194 determines whether there is an adjacent block in the upward direction of the target block (Step S610). When the reference structure index binarization unit 194 determines that there is an adjacent block in the upward direction (step S610: YES), it determines whether the reference structure index of the target block matches the reference structure index of the immediately above adjacent block. Is determined (step S615).

参照構造インデックス二値化部194は、対象ブロックの参照構造インデックスが、真上の隣接ブロックの参照構造インデックスと一致すると判断した場合(ステップS615:YES)、「0」を出力する(ステップS620)。   When determining that the reference structure index of the target block matches the reference structure index of the immediately adjacent block (step S615: YES), the reference structure index binarization unit 194 outputs “0” (step S620). .

参照構造インデックス二値化部194は、対象ブロックの参照構造インデックスが、真上の隣接ブロックの参照構造インデックスと一致しないと判定した場合(ステップS615:NO)、真上の隣接ブロックのイントラ画像インデックスを除いて、対象ブロックの参照構造インデックスを改めて付与する(ステップS625)。参照構造インデックス二値化部194は、「1」と再付与した参照構造インデックスとを出力する(ステップS630)。   If the reference structure index binarization unit 194 determines that the reference structure index of the target block does not match the reference structure index of the immediately above adjacent block (step S615: NO), the intra image index of the immediately above adjacent block , The reference structure index of the target block is newly assigned (step S625). The reference structure index binarization unit 194 outputs “1” and the re-assigned reference structure index (Step S630).

参照構造インデックス二値化部194は、対象ブロックの上方向に隣接ブロックが存在しないと判定した場合(ステップS610:NO)、左隣のブロックを用いて同様の二値化を行う。すなわち、参照構造インデックス二値化部194は、対象ブロックの左方向に隣接ブロックが存在するか否かを判定する(ステップS635)。参照構造インデックス二値化部194は、左方向に隣接ブロックが存在すると判断した場合(ステップS635:YES)、対象ブロックの参照構造インデックスが、左方向の隣接ブロックの参照構造インデックスと一致するか否かを判定する(ステップS640)。   When determining that there is no adjacent block in the upward direction of the target block (step S610: NO), the reference structure index binarizing unit 194 performs the same binarization using the block on the left. That is, the reference structure index binarization unit 194 determines whether there is an adjacent block to the left of the target block (step S635). When the reference structure index binarization unit 194 determines that there is an adjacent block in the left direction (step S635: YES), it determines whether the reference structure index of the target block matches the reference structure index of the left adjacent block. Is determined (step S640).

参照構造インデックス二値化部194は、対象ブロックの参照構造インデックスが、左方向の隣接ブロックの参照構造インデックスと一致すると判断した場合(ステップS640:YES)、「0」を出力する(ステップS645)。   When the reference structure index binarization unit 194 determines that the reference structure index of the target block matches the reference structure index of the adjacent block in the left direction (step S640: YES), it outputs “0” (step S645). .

参照構造インデックス二値化部194は、対象ブロックの参照構造インデックスが、左方向の隣接ブロックの参照構造インデックスと一致しないと判定した場合(ステップS640:NO)、左方向の隣接ブロックのイントラ画像インデックスを除いて、対象ブロックの参照構造インデックスを改めて付与する(ステップS650)。参照構造インデックス二値化部194は、「1」と再付与した参照構造インデックスとを出力する(ステップS630)。   If the reference structure index binarization unit 194 determines that the reference structure index of the target block does not match the reference structure index of the leftward neighboring block (step S640: NO), the intra image index of the leftward neighboring block , The reference structure index of the target block is newly assigned (step S650). The reference structure index binarization unit 194 outputs “1” and the re-assigned reference structure index (Step S630).

参照構造インデックス二値化部194は、対象ブロックの左方向にも隣接ブロックが存在しないと判定した場合(ステップS635:NO)、そのまま対象ブロックの参照構造インデックスを出力する(ステップS655)。   When determining that there is no adjacent block in the left direction of the target block (step S635: NO), the reference structure index binarization unit 194 outputs the reference structure index of the target block as it is (step S655).

参照構造インデックスの二値化の例を説明する。画像G1、G2、G3の画像インデックスをそれぞれ、00、01、10とする。上述したように、参照構造インデックスには、イントラ画像インデックスが用いられる。   An example of binarization of the reference structure index will be described. The image indexes of the images G1, G2, and G3 are set to 00, 01, and 10, respectively. As described above, the intra image index is used as the reference structure index.

対象ブロックが左上ブロックである場合、上にも左にも隣接ブロックが無い。よって、参照構造インデックス二値化部194は、左上ブロックについては、参照構造インデックス(イントラ画像インデックス)をそのまま伝送する。   If the target block is the upper left block, there is no adjacent block on either the top or the left. Therefore, the reference structure index binarization unit 194 transmits the reference structure index (intra image index) as it is for the upper left block.

対象ブロックの参照構造インデックスが「01」(画像B)であり、真上の隣接ブロックの参照構造インデックスも「01」(画像B)である場合(ステップS610:YES、ステップS615:YES)、参照構造インデックス二値化部194は、「0」を出力する(ステップS620)。   When the reference structure index of the target block is “01” (image B) and the reference structure index of the immediately adjacent block is also “01” (image B) (step S610: YES, step S615: YES), the reference is made. The structure index binarization unit 194 outputs “0” (Step S620).

対象ブロックの参照構造インデックスが「01」(画像B)であり、真上の隣接ブロックの参照構造インデックスが「00」(画像A)である場合(ステップS610:YES、ステップS615:NO)、参照構造インデックス二値化部194は、画像Bを除き、画像A及び画像Cに画像インデックスを再付与する。参照構造インデックス二値化部194は、付与対象の画像が2枚のため、画像インデックス長を1ビットとし、画像Aに画像インデックス「0」を、画像Cに画像インデックス「1」を付与する。参照構造インデックス二値化部194は、ビット「1」と、イントラ符号化ブロックである画像Aに再付与された画像インデックス「0」とを結合した「10」を伝送する(ステップS630)。   When the reference structure index of the target block is “01” (image B) and the reference structure index of the immediately adjacent block is “00” (image A) (step S610: YES, step S615: NO), reference is made. The structure index binarizing unit 194 reassigns an image index to the images A and C except for the image B. Since there are two images to be assigned, the reference structure index binarizing unit 194 sets the image index length to 1 bit, and assigns an image index “0” to the image A and an image index “1” to the image C. The reference structure index binarizing unit 194 transmits “10” obtained by combining the bit “1” and the image index “0” re-assigned to the image A, which is an intra-coded block (Step S630).

対象ブロックの真上の隣接ブロックが存在せず(ステップS610:NO)、左方向の隣接ブロックが存在する場合(ステップS635:YES)、参照構造インデックス二値化部194は、真上の隣接ブロックスタックに代えて左方向の隣接ブロックを用いて上記と同様に動作する。   When there is no adjacent block directly above the target block (step S610: NO) and when there is a leftward adjacent block (step S635: YES), the reference structure index binarizing unit 194 determines whether the block is directly above the target block. The same operation as described above is performed using a leftward adjacent block instead of the stack.

自然画像の場合被写体の深度は縦方向に一致している場合が多いため真上の隣接ブロックの参照構造インデックスの利用を優先するのが望ましいが、左方向の隣接ブロックを優先してもよい。また、図15に示すように、参照構造インデックスを左方向の隣接ブロックから取るか真上の隣接ブロックから取るかを1bitのインデックスにより表してもよい。   In the case of a natural image, the depth of a subject often coincides in the vertical direction, so that it is desirable to prioritize the use of the reference structure index of an immediately adjacent block. As shown in FIG. 15, whether the reference structure index is taken from the left neighboring block or the immediately above neighboring block may be represented by a 1-bit index.

図15は、参照構造インデックスの符号例を示す図である。同図は、参照構造インデックスを左方向の隣接ブロックから取るか真上の隣接ブロックから取るかを1bitのインデックスにより表す場合の例を示す。同図において、対象ブロックの真上の隣接ブロックの参照構造インデックスは1であり、左方向の隣接ブロックの参照構造インデックスは0である。参照構造インデックス二値化部194は、真上又は左方向の隣接ブロックの参照構造インデックスを参照する場合は1ビット目に「0」を設定し、2ビット目には左方向の隣接ブロックの参照構造インデックスを参照する場合は「0」を、真上の隣接ブロックの参照構造インデックスを参照する場合は「1」を設定する。また、参照構造インデックス二値化部194は、隣接ブロックの参照構造インデックスを参照しない場合、先頭ビットに「1」を設定し、2ビット目以降にイントラ画像インデックス又は再付与した画像インデックスを設定する。   FIG. 15 is a diagram illustrating a code example of the reference structure index. The figure shows an example in which whether the reference structure index is taken from the left neighboring block or the immediately above neighboring block is represented by a 1-bit index. In the figure, the reference structure index of the adjacent block immediately above the target block is 1, and the reference structure index of the adjacent block in the left direction is 0. The reference structure index binarizing unit 194 sets “0” in the first bit when referring to the reference structure index of the immediately above or left adjacent block, and refers to the left adjacent block in the second bit. “0” is set when referring to the structure index, and “1” is set when referring to the reference structure index of the immediately adjacent block. When the reference structure index binarization unit 194 does not refer to the reference structure index of the adjacent block, the first bit is set to “1”, and the second or subsequent bits are set to an intra image index or a re-assigned image index. .

(第2の実施形態)
第1の実施形態においては、ブロックスタック内において、インター符号化ブロック全てが、同一のイントラ符号化ブロック(ピントの合っている画像のブロック)を参照する1対N型の参照構造を用いており、符号化効率が高い。本実施形態は、ブロックスタック内において、チェーン型の参照構造を用いる。チェーン型は、ブロックスタック内において直前に符号化したブロックを参照して予測を行う。そのため、直前に符号化したブロックは、ピントの合っていない場合もある。本実施形態では、符号化効率は落ちるが、ぼけフィルタのタップ長を小さくすることで、処理速度を向上させ、処理量の削減を図ることができる。以下では、第1の実施形態との差分を中心に説明する。
(Second embodiment)
In the first embodiment, in the block stack, all the inter-coded blocks use a one-to-N type reference structure that refers to the same intra-coded block (a block of a focused image). , Coding efficiency is high. This embodiment uses a chain-type reference structure in a block stack. In the chain type, prediction is performed with reference to the block coded immediately before in the block stack. Therefore, the block encoded immediately before may not be in focus. In the present embodiment, although the coding efficiency decreases, the processing speed can be improved and the processing amount can be reduced by reducing the tap length of the blur filter. In the following, the description will focus on differences from the first embodiment.

図16は、第2の実施形態による符号化装置1aの構成を示すブロック図である。同図において、図1に示す第1の実施形態による符号化装置1と同一の部分には同一の符号を付し、その説明を省略する。同図に示す符号化装置1aが、図1に示す符号化装置1と異なる点は、参照構造生成部13に代えて、参照構造生成部51を備える点である。参照構造生成部51は、チェーン型の参照構造を生成する。すなわち、本実施形態の参照構造は、他のブロックの情報を使用せずにイントラ符号化を行うイントラ符号化ブロック1枚と、直前に符号化した符号化済みブロックを参照して予測符号化を行うインター符号化ブロックからなる。符号化部14は、参照構造の順に従ってイントラ符号化ブロック、インター符号化ブロックの順に符号化を行う。そのため、符号化部14のボケ補償予測部148が参照用ブロックメモリ146から入力する符号化済みブロックは、参照構造において示される、符号化対象のインター符号化ブロックと同一のブロックスタックにおいて直前に符号化された符号化済みブロックである。   FIG. 16 is a block diagram illustrating a configuration of an encoding device 1a according to the second embodiment. In the figure, the same parts as those of the encoding device 1 according to the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and the description thereof will be omitted. The encoding device 1a shown in the figure differs from the encoding device 1 shown in FIG. 1 in that a reference structure generation unit 51 is provided instead of the reference structure generation unit 13. The reference structure generation unit 51 generates a chain-type reference structure. That is, the reference structure according to the present embodiment performs prediction coding by referring to one intra-coded block for performing intra-coding without using information of another block, and the immediately-encoded block. To be inter-coded. The encoding unit 14 performs encoding in the order of the intra-coded block and the inter-coded block according to the order of the reference structure. Therefore, the coded block input from the reference block memory 146 by the blur compensation prediction unit 148 of the coding unit 14 is encoded immediately before in the same block stack as the coding target inter-coded block shown in the reference structure. It is a coded block that has been converted.

符号化装置1aの処理は、図2に示す第1の実施形態の処理と同様である。ただし、ステップS120において、参照構造生成部51は、チェーン型の参照構造を生成する。   The processing of the encoding device 1a is the same as the processing of the first embodiment shown in FIG. However, in step S120, the reference structure generation unit 51 generates a chain-type reference structure.

図17は、参照構造生成部51による参照構造の生成イメージを示す図である。同図に示すフォーカルスタックは、図4に示すフォーカルスタックと同様である。同図の場合、位置インデックスjのブロックスタックでは、ブロックB1−jがイントラ符号化ブロックであり、ブロックB2−jはブロックB1−jを参照するインター符号化ブロック、ブロックB3−jはブロックB2−jを参照するインター符号化ブロックである。また、位置インデックスkのブロックスタックでは、ブロックB2−kがイントラ符号化ブロックであり、ブロックB3−kはブロックB2−kを参照するインター符号化ブロック、ブロックB1−kはブロックB3−kを参照するインター符号化ブロックである。また、位置インデックスlのブロックスタックでは、ブロックB3−lがイントラ符号化ブロックであり、ブロックB2−lはブロックB3−lを参照するインター符号化ブロック、ブロックB1−lはブロックB2−lを参照するインター符号化ブロックである。   FIG. 17 is a diagram illustrating a generation image of the reference structure by the reference structure generation unit 51. The focal stack shown in the figure is the same as the focal stack shown in FIG. In the case of the figure, in the block stack of position index j, block B1-j is an intra-coded block, block B2-j is an inter-coded block referring to block B1-j, and block B3-j is block B2- j is an inter-coded block referring to j. In the block stack with the position index k, the block B2-k is an intra-coded block, the block B3-k is an inter-coded block that refers to the block B2-k, and the block B1-k is a block B3-k. This is an inter-coded block. In the block stack with the position index 1, the block B3-1 is an intra-coded block, the block B2-1 is an inter-coded block that refers to the block B3-1, and the block B1-1 is a block B2-1. This is an inter-coded block.

図18は、参照構造生成部51の詳細な構成を示すブロック図である。参照構造生成部51は、ブロックスタックインデックス取得部511と、画像インデックス列生成部512と、参照構造インデックス生成部513とを備える。ブロックスタックインデックス取得部511は、ブロックスタックメモリ12から、符号化対象ブロックスタックに含まれる全画像それぞれの画像インデックスを取得する。画像インデックス列生成部512は、画像インデックスの並びを生成する。参照構造を表すこの画像インデックスの並びを、画像インデックス数列とも記載する。参照構造インデックス生成部513は、画像インデックス数列それぞれに、参照構造インデックスを付与する。   FIG. 18 is a block diagram illustrating a detailed configuration of the reference structure generation unit 51. The reference structure generation unit 51 includes a block stack index acquisition unit 511, an image index sequence generation unit 512, and a reference structure index generation unit 513. The block stack index obtaining unit 511 obtains, from the block stack memory 12, the image indexes of all the images included in the current block stack. The image index sequence generation unit 512 generates a sequence of image indexes. The arrangement of the image indexes representing the reference structure is also described as an image index sequence. The reference structure index generation unit 513 assigns a reference structure index to each image index sequence.

図19は、参照構造生成部51の参照構造生成処理を示すフロー図である。同図に示す参照構造生成処理は、画像のボケは焦点距離が被写体の深度から離れるほど強くなっていくことに基づき、符号化対象ブロックが自身よりも強くボケている符号化済みブロックを参照してしまうような参照構造を除外するよう設計されている。   FIG. 19 is a flowchart showing the reference structure generation processing of the reference structure generation unit 51. The reference structure generation processing shown in FIG. 11 refers to an encoded block in which the encoding target block is more strongly blurred than itself, based on the fact that the blurring of the image becomes stronger as the focal length becomes farther from the depth of the subject. It is designed to exclude reference structures that would otherwise

ブロックスタックインデックス取得部511は、ブロックスタックメモリ12から、符号化対象ブロックスタックの全ての画像インデックスを取得し、画像インデックス列生成部512に入力する(ステップS705)。画像インデックス列生成部512は、入力された画像インデックスの並びを全通り生成し、生成した画像インデックスの並びをそれぞれ、画像インデックス数列とする(ステップS710)。画像インデックス列生成部512は、以下の二つの条件を満たさない画像インデックス数列を候補から除外する(ステップS715)。1つ目の条件は、先頭インデックスより小さなインデックスが降順になっていないことであり、2つ目の条件は、先頭インデックスより大きなインデックスが昇順になっていないことである。   The block stack index acquisition unit 511 acquires all image indexes of the encoding target block stack from the block stack memory 12 and inputs them to the image index sequence generation unit 512 (Step S705). The image index sequence generation unit 512 generates the entire sequence of the input image indexes, and sets the sequence of the generated image indexes as an image index sequence (step S710). The image index sequence generation unit 512 excludes the image index sequence that does not satisfy the following two conditions from the candidates (step S715). The first condition is that indices smaller than the leading index are not in descending order, and the second condition is that indices larger than the leading index are not in ascending order.

画像インデックス列生成部512は、残った画像インデックス数列を辞書順(昇順)にソートする。参照構造インデックス生成部513は画像インデックス数列それぞれに、ソート順に参照構造インデックスを付与する(ステップS720)。参照構造インデックス生成部513は、画像インデックス数列(参照構造)と、各画像インデックス数列の参照構造インデックスとをブロックスタックメモリ12に出力する(ステップS725)。ステップS715において除外処理を行うことで、符号化部14が実行する符号化処理における計算時間削減と、ステップS720において付与する参照構造インデックスの符号量の削減を期待できる。なお、ステップS715の除外処理は行わなくてもよい。   The image index sequence generation unit 512 sorts the remaining image index sequence in dictionary order (ascending order). The reference structure index generator 513 assigns a reference structure index to each of the image index sequences in the sort order (step S720). The reference structure index generation unit 513 outputs the image index sequence (reference structure) and the reference structure index of each image index sequence to the block stack memory 12 (step S725). By performing the exclusion process in step S715, it is possible to expect a reduction in calculation time in the encoding process performed by the encoding unit 14 and a reduction in the code amount of the reference structure index added in step S720. Note that the exclusion process in step S715 may not be performed.

図20は、本実施形態の参照構造の例を示す図である。同図は、参照構造を表す画像インデックス数列と参照構造インデックスの例を示している。同図では、画像インデックスが0、1、2、3の4枚(N=4)の画像の参照構造に参照構造インデックスが付与されている。焦点距離が小さい順に、小さい値の画像インデックスが付与されている。画像インデックス列生成部512は、全通りの画像インデックス数列から、ステップS715の処理に示す除外処理を行った結果得られた参照構造の候補に対して、参照画像インデックスを付与している。参照画像インデックスは、画像インデックス数列の先頭が示すイントラ符号化ブロックの画像インデックスが小さい順に付与されている。また、複数の画像インデックス数列において1〜i(iは1以上N−1以下の整数)番目までの画像インデックスの並びが同じある場合には、i+1番目の画像インデックスの数が小さい順に参照画像インデックスが付与されている。   FIG. 20 is a diagram illustrating an example of a reference structure according to the present embodiment. This figure shows an example of an image index sequence representing a reference structure and a reference structure index. In the figure, a reference structure index is assigned to a reference structure of four images (N = 4) of image indexes 0, 1, 2, and 3. The image index of the smaller value is assigned in the order of the smaller focal length. The image index sequence generation unit 512 assigns a reference image index to a reference structure candidate obtained as a result of performing the exclusion process shown in the process of step S715 from all the image index sequences. The reference image index is assigned in ascending order of the image index of the intra-coded block indicated by the head of the image index sequence. In addition, when the arrangement of the first to i-th (i is an integer of 1 or more and N-1 or less) image indexes is the same in a plurality of image index sequences, the reference image index is arranged in ascending order of the (i + 1) -th image index. Is given.

符号化部14は、画像インデックス列生成部512が生成した各参照構造が表す画像インデックス数列を用いて、図8に示す第1の実施形態と同様に各ブロックスタックを符号化する。また、ボケ補償予測部148のボケ補償処理は、図10に示す第1の実施形態と同様である。ただし、図8のステップS320、又は、図10のステップS405においてボケ補償予測部148に入力される符号化済みブロックは、参照構造により示される、符号化対象のインター符号化ブロックの直前が符号化順の符号化済みブロックである。これにより、イントラ符号化ブロックを直接参照したときと比較して、インター符号化ブロックと参照画像までの深度距離が短くなることによりボケ補償処理で用いるぼかしフィルタの強度を下げ、計算量およびメモリ消費を削減することが期待できる。なお、ボケ補償予測部148は、他の符号化済みブロックを入力してもよく、複数の符号化済みブロックを入力してもよい。   The encoding unit 14 encodes each block stack using the image index sequence represented by each reference structure generated by the image index sequence generation unit 512, as in the first embodiment illustrated in FIG. Further, the blur compensation processing of the blur compensation prediction unit 148 is the same as in the first embodiment shown in FIG. However, the coded block input to the blur compensation prediction unit 148 in step S320 in FIG. 8 or step S405 in FIG. 10 is obtained by coding the immediately preceding inter-coded block to be coded indicated by the reference structure. It is a coded block in order. As a result, the depth distance between the inter-coded block and the reference image becomes shorter than when the intra-coded block is directly referred to, thereby lowering the strength of the blur filter used in the blur compensation processing, thereby reducing the amount of calculation and memory consumption. Can be expected to be reduced. Note that the blur compensation prediction unit 148 may input another encoded block, or may input a plurality of encoded blocks.

エントロピー符号化部19の構成は、図13に示す第1の実施形態と同様である。予測残差二値化部192、予測パラメータ二値化部193、及び、参照構造インデックス二値化部194における予測二値化、ならびに、算術符号化部195における算術符号化は、HEVCと同様にk次指数ゴロム二値化、トランケーテッド・ユーナリー二値化、固定長二値化、CABACといった手法を組み合わせて行う。また、CABACは、他の算術符号化器でもよい。   The configuration of the entropy encoding unit 19 is the same as that of the first embodiment shown in FIG. The prediction binarization in the prediction residual binarization unit 192, the prediction parameter binarization unit 193, and the reference structure index binarization unit 194, and the arithmetic encoding in the arithmetic encoding unit 195 are the same as in HEVC. The k-th order Golomb binarization, truncated unary binarization, fixed-length binarization, and CABAC are combined. Further, CABAC may be another arithmetic encoder.

本実施形態によれば、フォーカルスタックを従来の符号化方式よりも効率的に圧縮できる。特にインター符号化ブロックに、参照構造で直前にあるブロックを参照させることで、ボケ補償におけるフィルタ長を縮小しデコーダの計算量を低くできる。   According to the present embodiment, the focal stack can be compressed more efficiently than the conventional encoding method. In particular, by making the inter-coded block refer to the block immediately before in the reference structure, the filter length in blur compensation can be reduced, and the amount of calculation by the decoder can be reduced.

上述した実施形態によれば、符号化装置は、フォーカルスタックの各画像をブロック分割し、同一位置にある各画像のブロック群に対して参照構造を構築する。符号化装置は、選択された参照構造に従いブロック群を符号化し、符号化効率の観点から参照構造及び符号化パラメータを最適化する。符号化装置は、ブロック単位で参照構造を決定し、インター符号化においては、ボケ補償予測を行って、RD最適化を実施する。これにより、データ量を低減するように、フォーカルスタックを効率的に符号化することができる。   According to the above-described embodiment, the encoding device divides each image of the focal stack into blocks, and constructs a reference structure for a block group of each image at the same position. The encoding device encodes the block group according to the selected reference structure, and optimizes the reference structure and the encoding parameters from the viewpoint of encoding efficiency. The coding apparatus determines a reference structure in block units, and performs inter-coding by performing blur compensation prediction and performing RD optimization. Thereby, the focal stack can be efficiently encoded so as to reduce the data amount.

上述した実施形態における符号化装置1の機能をコンピュータで実現するようにしてもよい。また、符号化装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。符号化装置1の機能をコンピュータで実現する場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   The functions of the encoding device 1 in the above-described embodiment may be realized by a computer. In addition, all or a part of each function of the encoding device 1 may be realized using hardware such as an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). . When the functions of the encoding device 1 are realized by a computer, a program for realizing the functions is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system and executed. It may be realized by doing so. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, the “computer-readable recording medium” refers to a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line. Such a program may include a program that holds a program for a certain period of time, such as a volatile memory in a computer system serving as a server or a client in that case. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be for realizing the above-mentioned functions in combination with a program already recorded in the computer system.

以上説明した実施形態によれば、符号化装置は、同じ被写体を異なる焦点で撮影した複数の画像からなるフォーカルスタックを符号化する。符号化装置は、ブロック分割部と、参照ブロック決定部と、ぼかし処理部と、符号化部とを備える。ブロック分割部は、フォーカルスタックに含まれる複数の画像のうち符号化対象の画像である符号化対象画像をブロックに分割する。参照ブロック決定部は、符号化対象画像のブロックを符号化するために参照される参照ブロックが、フォーカルスタックに含まれる複数の画像のうち符号化対象画像とは異なる画像である参照画像に含まれる領域である場合、符号化対象画像におけるブロックの領域と、参照画像における参照ブロックの領域とが同じになるように参照ブロックを決定する。参照ブロック決定部は、例えば、参照構造生成部13、51に相当する。ぼかし処理部は、ブロックとの残差が小さくなるように参照ブロックにぼかし処理を施す。符号化部は、ブロックを、ぼかし処理が施された参照ブロックを参照して符号化する。   According to the embodiment described above, the encoding device encodes a focal stack including a plurality of images of the same subject captured at different focal points. The encoding device includes a block division unit, a reference block determination unit, a blur processing unit, and an encoding unit. The block dividing unit divides an encoding target image, which is an encoding target image, out of a plurality of images included in the focal stack into blocks. The reference block determination unit is configured such that the reference block referred to for encoding the block of the encoding target image is included in a reference image that is an image different from the encoding target image among a plurality of images included in the focal stack. If it is a region, the reference block is determined so that the region of the block in the encoding target image is the same as the region of the reference block in the reference image. The reference block determination unit corresponds to, for example, the reference structure generation units 13 and 51. The blurring processing unit performs a blurring process on the reference block so that a residual from the block is reduced. The encoding unit encodes the block with reference to the reference block on which the blurring processing has been performed.

参照ブロック決定部は、フォーカルスタックを構成する複数の画像それぞれにおいて同じ領域にあるブロックからなるブロック群(ブロックスタック)ごとに、同一のブロック群に含まれる複数のブロックのうち一のブロックのみを、当該ブロック群に含まれる他の全てのブロックそれぞれを符号化するために参照される参照ブロックに決定する。あるいは、参照ブロック決定部は、フォーカルスタックを構成する複数の画像それぞれにおいて同じ領域にあるブロックからなるブロック群(ブロックスタック)ごとに、同一のブロック群に含まれる複数のブロックそれぞれを符号化するために参照される参照ブロックが異なるように、参照ブロックを決定してもよい。   The reference block determination unit determines, for each block group (block stack) composed of blocks in the same area in each of the plurality of images constituting the focal stack, only one of the plurality of blocks included in the same block group. All other blocks included in the block group are determined as reference blocks to be referred to for encoding. Alternatively, the reference block determination unit encodes each of a plurality of blocks included in the same block group for each block group (block stack) including blocks in the same area in each of the plurality of images forming the focal stack. The reference block may be determined so that the reference block referred to by the reference is different.

フォーカルスタックを構成する複数の画像のうち参照ブロックが得られる参照画像は、それら複数の画像を撮影した撮影機からブロックにおける被写体までの距離と、それら複数の画像それぞれの撮影機から焦点までの距離との差である距離差に基づき選択される。ぼかし処理部は、参照ブロックに施すぼかし処理の強度を距離差が大きいほど大きくなるように決定してもよい。   The reference image from which the reference block is obtained among the plurality of images constituting the focal stack is the distance from the photographing machine that has photographed the plurality of images to the subject in the block, and the distance from each photographing machine to the focal point of each of the plurality of images. Is selected based on the distance difference that is the difference from the distance. The blurring processing unit may determine the intensity of the blurring processing to be performed on the reference block such that the strength increases as the distance difference increases.

ぼかし処理部は、上記のブロック群に含まれる複数のブロックそれぞれの符号化のために参照ブロックに施すぼかし処理の強度を探索する探索処理を、参照ブロックと焦点の距離が小さいブロックから順に、かつ、探索済みの強度を参照して行ってもよい。例えば、ぼかし処理部は、参照ブロックと焦点の距離が小さいブロックについて探索処理を行って得られた強度に基づいて、そのブロックよりも参照ブロックと焦点の距離が大きいブロックの探索処理を行う際の初期値を決定する。   The blur processing unit performs a search process for searching for the intensity of the blur process to be performed on the reference block for encoding each of the plurality of blocks included in the block group, in order from a block having a small distance between the reference block and the focal point, and , May be performed with reference to the searched intensity. For example, based on the intensity obtained by performing a search process on a block having a small distance between the reference block and the focus, the blur processing unit may perform a search process on a block having a larger distance between the reference block and the focus than that block. Determine the initial value.

また、ぼかし処理部は、ブロックの符号化のために参照ブロックに施すぼかし処理の強度を探索する探索処理を、符号化対象のブロックと同じブロック群に属し、かつ、当該ブロックよりも参照ブロックと焦点の距離が小さい他のブロックについて探索済みの強度よりも大きな強度を探索対象として行ってもよい。   Further, the blur processing unit performs a search process of searching for the intensity of the blur process to be performed on the reference block for coding the block, belonging to the same block group as the block to be coded, and using the reference block more than the block. An intensity larger than the intensity already searched for another block having a short focal distance may be set as a search target.

また、ぼかし処理部は、符号化対象画像のブロックの符号化のために参照ブロックに施すぼかし処理の強度を探索する探索処理を、当該参照ブロックと同じ参照画像から得られる他の参照ブロックを参照する当該符号化対象画像の他のブロックについて探索済みの強度に基づく値を初期値に使用するなどして参照して行ってもよい。   Further, the blur processing unit performs a search process for searching for the intensity of the blur process performed on the reference block for coding of the block of the coding target image with reference to another reference block obtained from the same reference image as the reference block. The value based on the searched intensity of another block of the current image to be encoded may be referred to as the initial value.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the embodiments and includes a design and the like within a range not departing from the gist of the present invention.

1、1a…符号化装置, 11…ブロック分割部, 12…ブロックスタックメモリ, 13、51…参照構造生成部, 14…符号化部, 15…符号化結果メモリ, 16…RD効率推定部, 17…RD効率メモリ, 18…RD効率比較部, 19…エントロピー符号化部, 131、511…ブロックスタックインデックス取得部, 132…イントラブロック決定部, 133…選択済みブロックインデックスメモリ, 140…予測残差生成部, 141…DCT部, 142…量子化部, 143…逆量子化部, 144…Inv−DCT部, 145…復号信号生成部, 146…参照用ブロックメモリ, 147…イントラ予測部, 148…ボケ補償予測部, 149…モード判定部, 191…インデックス分離部, 192…予測残差二値化部, 193…予測パラメータ二値化部, 194…参照構造インデックス二値化部, 195…算術符号化部, 201…ぼかしフィルタパラメータ生成部, 202…ぼかし処理部, 203…差分生成部, 204…RD効率推定部, 205…RD効率メモリ, 206…RD効率比較部, 211…ぼかしフィルタパラメータ初期化部, 212…ぼかしフィルタパラメータメモリ, 213…ぼかしフィルタ生成部, 214…ぼかしフィルタパラメータ更新処理決定部, 215…ぼかしフィルタパラメータ更新処理部, 512…画像インデックス列生成部, 513…参照構造インデックス生成部 1, 1a: coding device, 11: block division unit, 12: block stack memory, 13, 51: reference structure generation unit, 14: coding unit, 15: coding result memory, 16: RD efficiency estimation unit, 17 ... RD efficiency memory, 18 ... RD efficiency comparison unit, 19 ... entropy coding unit, 131, 511 ... block stack index acquisition unit, 132 ... intra block determination unit, 133 ... selected block index memory, 140 ... prediction residual generation 141, DCT unit, 142, quantization unit, 143, inverse quantization unit, 144, Inv-DCT unit, 145, decoded signal generation unit, 146, reference block memory, 147, intra prediction unit, 148, blur Compensation prediction unit, 149: mode determination unit, 191: index separation unit, 192: prediction Difference binarization unit, 193: prediction parameter binarization unit, 194: reference structure index binarization unit, 195: arithmetic coding unit, 201: blur filter parameter generation unit, 202: blur processing unit, 203: difference generation 204, RD efficiency estimator, 205, RD efficiency memory, 206, RD efficiency comparator, 211, blur filter parameter initialization unit, 212, blur filter parameter memory, 213, blur filter generator, 214, blur filter parameter Update processing determination unit, 215: blur filter parameter update processing unit, 512: image index sequence generation unit, 513: reference structure index generation unit

Claims (8)

同じ被写体を異なる焦点で撮影した複数の画像を符号化する符号化装置であって、
符号化対象の前記画像である符号化対象画像をブロックに分割するブロック分割部と、
前記ブロックを符号化するために参照される参照ブロックが、前記符号化対象画像とは異なる前記画像である参照画像に含まれる領域である場合、前記符号化対象画像における前記ブロックの領域と、前記参照画像における前記参照ブロックの領域とが同じになるように前記参照ブロックを決定する参照ブロック決定部と、
前記ブロックとの残差が小さくなるように前記参照ブロックにぼかし処理を施すぼかし処理部と、
前記ブロックを、前記ぼかし処理が施された前記参照ブロックを参照して符号化する符号化部と、
を備える符号化装置。
An encoding device that encodes a plurality of images of the same subject captured at different focuses,
A block division unit that divides the encoding target image, which is the image to be encoded, into blocks.
When the reference block referred to for encoding the block is a region included in a reference image that is the image different from the encoding target image, the region of the block in the encoding target image, A reference block determination unit that determines the reference block so that the region of the reference block in a reference image is the same,
A blur processing unit that performs a blur process on the reference block so that a residual from the block is reduced,
An encoding unit that encodes the block with reference to the reference block that has been subjected to the blur processing;
An encoding device comprising:
前記参照ブロック決定部は、複数の前記画像それぞれにおいて同じ領域にある前記ブロックからなるブロック群ごとに、前記ブロック群に含まれる複数の前記ブロックのうち一の前記ブロックのみを、当該ブロック群に含まれる他の全ての前記ブロックそれぞれを符号化するために参照される前記参照ブロックに決定する、
請求項1に記載の符号化装置。
The reference block determining unit includes, for each block group including the blocks in the same area in each of the plurality of images, including only one of the plurality of blocks included in the block group in the block group. Determine the reference block to be referenced to encode each of all other blocks that are
The encoding device according to claim 1.
前記参照ブロック決定部は、複数の前記画像それぞれにおいて同じ領域の前記ブロックからなるブロック群ごとに、前記ブロック群に含まれる複数の前記ブロックそれぞれを符号化するために参照される前記参照ブロックが異なるように、前記参照ブロックを決定する、
請求項1に記載の符号化装置。
The reference block determination unit is configured such that, for each block group including the blocks in the same region in each of the plurality of images, the reference block referred to for encoding each of the plurality of blocks included in the block group is different. Determining the reference block,
The encoding device according to claim 1.
複数の前記画像のうち前記参照ブロックが得られる前記参照画像は、複数の前記画像を撮影した撮影機から前記ブロックにおける前記被写体までの距離と、複数の前記画像それぞれの前記撮影機から前記焦点までの距離との差である距離差に基づき選択される、
請求項2又は請求項3に記載の符号化装置。
The reference image from which the reference block is obtained among the plurality of images is a distance from the photographing machine that photographed the plurality of images to the subject in the block, and from the photographing machine to the focus of each of the plurality of images Selected based on the distance difference that is the difference from the distance of
The encoding device according to claim 2 or 3.
前記ぼかし処理部は、前記ブロック群に含まれる複数の前記ブロックそれぞれの符号化のために前記参照ブロックに施す前記ぼかし処理の強度を探索する探索処理を、前記参照ブロックと前記焦点の距離が小さい前記ブロックから順に、かつ、探索済みの前記強度を参照して行う、
請求項4に記載の符号化装置。
The blur processing unit performs a search process of searching for the intensity of the blur process performed on the reference block for encoding each of the plurality of blocks included in the block group, where the distance between the reference block and the focal point is small. Performed in order from the block, and with reference to the searched intensity.
The encoding device according to claim 4.
前記ぼかし処理部は、前記ブロックの符号化のために前記参照ブロックに施す前記ぼかし処理の強度を探索する探索処理を、前記ブロックと同じ前記ブロック群に属し、かつ、前記ブロックよりも前記参照ブロックと前記焦点の距離が小さい他の前記ブロックについて探索済みの前記強度よりも大きな強度を探索対象として行う、
請求項4に記載の符号化装置。
The blur processing unit performs a search process for searching for the intensity of the blur process performed on the reference block for encoding the block, belonging to the same block group as the block, and the reference block more than the block. Performing as a search target an intensity larger than the intensity already searched for the other blocks having a smaller distance of the focal point,
The encoding device according to claim 4.
前記ぼかし処理部は、前記符号化対象画像の前記ブロックの符号化のために前記参照ブロックに施す前記ぼかし処理の強度を探索する探索処理を、前記参照ブロックと同じ前記参照画像から得られる他の前記参照ブロックを参照する前記符号化対象画像の他の前記ブロックについて探索済みの前記強度に基づく範囲を探索対象として行う、
請求項4に記載の符号化装置。
The blur processing unit performs a search process for searching for the intensity of the blur process to be performed on the reference block for coding the block of the coding target image, using another search obtained from the same reference image as the reference block. Perform as a search target a range based on the intensity that has been searched for the other blocks of the encoding target image that refers to the reference block,
The encoding device according to claim 4.
コンピュータを、
請求項1から請求項7のいずれか一項に記載の符号化装置として機能させるためのプログラム。
Computer
A program for functioning as the encoding device according to any one of claims 1 to 7.
JP2018140531A 2018-07-26 2018-07-26 Coding device and program Active JP6936990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018140531A JP6936990B2 (en) 2018-07-26 2018-07-26 Coding device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140531A JP6936990B2 (en) 2018-07-26 2018-07-26 Coding device and program

Publications (2)

Publication Number Publication Date
JP2020017894A true JP2020017894A (en) 2020-01-30
JP6936990B2 JP6936990B2 (en) 2021-09-22

Family

ID=69580628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140531A Active JP6936990B2 (en) 2018-07-26 2018-07-26 Coding device and program

Country Status (1)

Country Link
JP (1) JP6936990B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029528A (en) * 2012-07-19 2014-02-13 Sony Corp Method and apparatus for compressing z-stack microscopy images
JP2015008387A (en) * 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus, method and program for image processing and imaging apparatus
JP2015103872A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Image encoding apparatus, image decoding apparatus and control method for them
JP2016533686A (en) * 2013-08-30 2016-10-27 クアルコム,インコーポレイテッド Method and apparatus for generating an omnifocal image
WO2017042133A1 (en) * 2015-09-07 2017-03-16 Thomson Licensing Method and device for encoding and decoding a light field based image, and corresponding computer program product
JP2018074215A (en) * 2016-10-25 2018-05-10 キヤノン株式会社 Image processing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029528A (en) * 2012-07-19 2014-02-13 Sony Corp Method and apparatus for compressing z-stack microscopy images
JP2015008387A (en) * 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus, method and program for image processing and imaging apparatus
JP2016533686A (en) * 2013-08-30 2016-10-27 クアルコム,インコーポレイテッド Method and apparatus for generating an omnifocal image
JP2015103872A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Image encoding apparatus, image decoding apparatus and control method for them
WO2017042133A1 (en) * 2015-09-07 2017-03-16 Thomson Licensing Method and device for encoding and decoding a light field based image, and corresponding computer program product
JP2018074215A (en) * 2016-10-25 2018-05-10 キヤノン株式会社 Image processing apparatus

Also Published As

Publication number Publication date
JP6936990B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
JP6492147B2 (en) Video decoding method
JP6646019B2 (en) Video encoding method and apparatus
JP6181246B2 (en) Video encoding method and apparatus using offset adjustment by pixel classification, and video decoding method and apparatus
RU2696229C2 (en) Video signal decoding method
JP5917746B2 (en) Entropy encoding method and apparatus using data unit of hierarchical structure, and decoding method and apparatus
JP5668149B2 (en) Reference unit determination method and apparatus
JP2014523186A (en) Entropy encoding / decoding method and apparatus
CN103718554A (en) Coding of transform coefficients for video coding
KR101260369B1 (en) Scalable video encoding method, scalable video encoding apparatus, scalable video encoding program, and computer readable recording medium storing the program
JP5423469B2 (en) Quantization apparatus, program and method, and moving picture encoding apparatus
JP6248783B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding computer program
JP2020017894A (en) Encoder and program
WO2020129681A1 (en) Encryption device and program
KR20150084738A (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR101783966B1 (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR101607312B1 (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR101607311B1 (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR101490283B1 (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR101607310B1 (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR101373083B1 (en) Device and method for encoding/decoding motion information
KR20180032542A (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
KR20170115982A (en) Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210819

R150 Certificate of patent or registration of utility model

Ref document number: 6936990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150