JP2010103684A - Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, video encoding program, video decoding program, and recording medium thereof - Google Patents
Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, video encoding program, video decoding program, and recording medium thereof Download PDFInfo
- Publication number
- JP2010103684A JP2010103684A JP2008271975A JP2008271975A JP2010103684A JP 2010103684 A JP2010103684 A JP 2010103684A JP 2008271975 A JP2008271975 A JP 2008271975A JP 2008271975 A JP2008271975 A JP 2008271975A JP 2010103684 A JP2010103684 A JP 2010103684A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- prediction
- image
- video
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は,動き補償予測を用いる映像符号化における動きベクトル情報を効率よく符号化するための技術に関するものである。 The present invention relates to a technique for efficiently encoding motion vector information in video encoding using motion compensated prediction.
映像符号化では,一般に時間方向予測による符号量の削減のため,動き補償予測が用いられている。動き補償予測では,符号化対象ブロックとよく似たブロックを,符号化および復号済みの参照画像から探索し,探索した参照画像の領域から予測信号を生成して,符号化対象ブロックの映像信号との差分を取り,その予測残差を符号化する。また,探索した領域の位置を示す情報を動きベクトルとして符号化する。 In video coding, motion compensation prediction is generally used to reduce the amount of code by temporal direction prediction. In motion-compensated prediction, a block that is very similar to the target block is searched from the encoded and decoded reference images, a prediction signal is generated from the searched reference image area, and the video signal of the target block is encoded. And the prediction residual is encoded. Also, information indicating the position of the searched area is encoded as a motion vector.
動きベクトルの符号化においても,符号量を削減するため,近隣のブロックや参照画像から動きベクトルの予測値である予測ベクトルを求め,実際の動きベクトルと予測ベクトルとの差分である予測残差ベクトルを符号化することが行われている。 Also in motion vector coding, in order to reduce the amount of code, a prediction vector that is a prediction value of a motion vector is obtained from neighboring blocks and reference images, and a prediction residual vector that is a difference between the actual motion vector and the prediction vector Is being encoded.
このような動きベクトル情報の発生符号量を削減する方式として,従来,例えば次のような技術が知られている。 Conventionally, for example, the following techniques are known as methods for reducing the amount of generated code of motion vector information.
〔従来技術1〕
従来技術1は,H.264の映像符号化方式で規格化されている符号化方法であり,算出された動きベクトルを符号化する際の予測ベクトルを,隣接ブロックの動きベクトルのメディアンによって生成する方法である(非特許文献1参照)。
[Prior art 1]
Prior art 1 is disclosed in H.C. This is an encoding method standardized by the H.264 video encoding method, and a method of generating a prediction vector when encoding a calculated motion vector by a median of motion vectors of adjacent blocks (Non-Patent Document). 1).
図7は,従来技術1の映像符号化装置の構成例を示す図である。 FIG. 7 is a diagram illustrating a configuration example of the video encoding device of the prior art 1.
図7に示す映像符号化装置は,符号化した画像の復号画像を記憶する復号画像保存メモリ301,動き探索を行う参照画像を記憶する参照画像保存メモリ302,符号化対象ブロックについて動き探索を行い予測信号を生成する動き探索部303,入力した映像信号と予測信号の差分をとり予測残差信号を求める減算器304,予測残差信号を直交変換する直交変換部305,直交変換係数を量子化する量子化部306,量子化後の直交変換係数および動きベクトルの予測残差ベクトルを符号化する情報源符号化部307,量子化後の直交変換係数を逆量子化する逆量子化部308,直交変換係数に逆直交変換を施し,予測残差の復号信号を生成する逆直交変換部309,予測信号と予測残差の復号信号を加算し,復号画像を生成する加算器310,動き探索により求めた動きベクトルを記憶する動きベクトル保存メモリ311,隣接ブロックの動きベクトルのメディアンから予測ベクトルを生成する予測ベクトル生成部312,動きベクトルと予測ベクトルとの差分から予測残差ベクトルを求める減算器313を備える。
The video encoding apparatus shown in FIG. 7 performs a motion search on a decoded
図8は,従来技術1による映像符号化処理の全体の流れを示すフローチャートである。なお,この全体の処理の流れは,後述する従来技術2も同様である。 FIG. 8 is a flowchart showing the overall flow of the video encoding process according to the prior art 1. The overall processing flow is the same as in the prior art 2 described later.
映像符号化装置(エンコーダ)では,以下の処理を映像の各フレームに対して繰り返す。まず,前フレームの復号画像を復号画像保存メモリ301から参照画像保存メモリ302に移す(ステップS30)。次に,符号化対象フレームの各マクロブロックに対して(ステップS31),図9に示す符号化処理(ステップS32)を,全マクロブロック終了まで繰り返す(ステップS33)。
The video encoding device (encoder) repeats the following processing for each frame of video. First, the decoded image of the previous frame is moved from the decoded
図9は,図8に示すステップS32の符号化処理の流れを示すフローチャートである。まず,動き補償を行い,予測残差信号を算出する(ステップS301)。すなわち,動き探索部303で求めた予測信号と入力された映像信号との差分を減算器304により算出して,予測残差信号を求める。次に,直交変換部305で予測残差信号に直交変換を施し(ステップS302),続いて,量子化部306で直交変換係数を量子化する(ステップS303)。さらに,逆量子化部308で量子化後の直交変換係数に対して逆量子化を施し(ステップS304),逆直交変換部309で逆直交変換を施し,予測残差の復号信号を生成する(ステップS305)。この復号信号と予測信号を加算器310により加算し,復号画像を生成して復号画像保存メモリ301に格納する(ステップS306)。
FIG. 9 is a flowchart showing the flow of the encoding process in step S32 shown in FIG. First, motion compensation is performed and a prediction residual signal is calculated (step S301). That is, the difference between the prediction signal obtained by the
一方,動きベクトルを動きベクトル保存メモリ311に格納する(ステップS307)。予測ベクトル生成部312では,隣接ブロックの動きベクトルのメディアンから予測ベクトルを生成し(ステップS308),これと動きベクトルとの差分を減算器313により算出し,予測残差ベクトルを求める(ステップS309)。最後に,情報源符号化部307で,量子化後の直交変換係数と予測残差ベクトルを可変長符号化し(ステップS310),符号化ストリームを生成する。
On the other hand, the motion vector is stored in the motion vector storage memory 311 (step S307). The prediction
図10は,従来技術1の映像復号装置の構成例を示す図である。 FIG. 10 is a diagram illustrating a configuration example of a video decoding device according to prior art 1.
図10に示す映像復号装置は,符号化ストリームを復号し,量子化後の直交変換係数と予測残差ベクトルを求める情報源符号化復号部401,量子化後の直交変換係数を逆量子化する逆量子化部402,直交変換係数に逆直交変換を施し,予測残差の復号信号を生成する逆直交変換部403,予測信号と予測残差の復号信号を加算し,復号画像を生成する加算器404,復号画像を記憶する復号画像保存メモリ405,動き補償に用いる参照画像を記憶する参照画像保存メモリ406,予測残差ベクトルに予測ベクトルを加算し,動きベクトルを算出する加算器408,動きベクトルを記憶する動きベクトル保存メモリ409,隣接ブロックの動きベクトルのメディアンから予測ベクトルを生成する予測ベクトル生成部410を備える。
The video decoding apparatus shown in FIG. 10 decodes the encoded stream, demultiplexes the quantized orthogonal transform coefficients and the information source coding /
図11は,従来技術1による映像復号処理の全体の流れを示すフローチャートである。なお,この全体の処理の流れは,後述する従来技術2も同様である。映像復号装置(デコーダ)では,以下の処理を映像の各フレームに対して繰り返す。 FIG. 11 is a flowchart showing the overall flow of the video decoding process according to the prior art 1. The overall processing flow is the same as in the prior art 2 described later. In the video decoding device (decoder), the following processing is repeated for each frame of the video.
まず,前フレームの復号画像を復号画像保存メモリ405から参照画像保存メモリ406に移す(ステップS40)。次に,復号対象フレームの各マクロブロックに対して(ステップS41),図12に示す復号処理(ステップS42)を,全マクロブロック終了まで繰り返す(ステップS43)。
First, the decoded image of the previous frame is moved from the decoded
図12は,図11に示すステップS42の復号処理の流れを示すフローチャートである。まず,情報源符号化復号部401では,符号化ストリームの可変長符号を復号し,量子化後の直交変換係数と予測残差ベクトルを求める(ステップS401)。続いて,逆量子化部402で量子化後の直交変換係数に逆量子化を施し(ステップS402),逆直交変換部403で逆直交変換を施して,予測残差の復号信号を生成する(ステップS403)。
FIG. 12 is a flowchart showing the flow of the decoding process in step S42 shown in FIG. First, the information source encoding /
動きベクトルに関しては,予測ベクトル生成部410で隣接ブロックの動きベクトルのメディアンから予測ベクトルを生成し(ステップS404),それと復号した予測残差ベクトルとの加算を加算器408で行い,動きベクトルを求める(ステップS405)。求めた動きベクトルを動きベクトル保存メモリ409に格納する(ステップS406)。また,動き補償部407では,この動きベクトルをもとに参照画像保存メモリ406から予測画像を取り出し,加算器404で予測残差信号と加算することで復号画像を生成する(ステップS407)。生成された復号信号(復号画像)を出力するとともに,復号画像保存メモリ405に格納する(ステップS408)。
For the motion vector, the prediction
〔従来技術2〕
従来技術2の方法は,符号化(復号)対象ブロックに隣接するブロックの復号画像と,参照画像とのマッチングにより,符号化(復号)対象ブロックの動きベクトルを求めることで,動きベクトル情報の発生符号量を削減する方法である(非特許文献2参照)。
[Prior art 2]
The method of Prior Art 2 generates motion vector information by obtaining a motion vector of an encoding (decoding) target block by matching a decoded image of a block adjacent to the encoding (decoding) target block and a reference image. This is a method for reducing the amount of codes (see Non-Patent Document 2).
図13は,従来技術2の映像符号化装置の構成例を示す図である。 FIG. 13 is a diagram illustrating a configuration example of a video encoding device according to the related art 2.
図13に示す映像符号化装置は,符号化した画像の復号画像を記憶する復号画像保存メモリ501,動き探索を行う参照画像を記憶する参照画像保存メモリ502,符号化対象ブロックについて動き探索を行い予測信号を生成する動き探索部503,入力した映像信号と予測信号の差分をとり予測残差信号を求める減算器504,予測残差信号を直交変換する直交変換部505,直交変換係数を量子化する量子化部506,量子化後の直交変換係数および動きベクトル情報を符号化する情報源符号化部507,量子化後の直交変換係数を逆量子化する逆量子化部508,直交変換係数に逆直交変換を施し,予測残差の復号信号を生成する逆直交変換部509,予測信号と予測残差の復号信号を加算し,復号画像を生成する加算器510,隣接ブロックの復号信号と参照画像のマッチングを取る動き探索部511,動き探索部503で求めた動きベクトルと動き探索部511で求めた予測ベクトルの差分から予測残差ベクトルを求める減算器512,動き探索部503により求めた動きベクトルを記憶する動きベクトル保存メモリ513,隣接ブロックの動きベクトルのメディアンから予測ベクトルを生成する予測ベクトル生成部514,動きベクトルと予測ベクトルとの差分から予測残差ベクトルを求める減算器515,減算器512と減算器515の出力する予測残差ベクトルの一方を選択する予測ベクトル判定部516を備える。
13 is a decoded
従来技術2による映像符号化処理の全体の流れは,図8に示す従来技術1の処理と同様である。従来技術2では,図8に示すステップS32の符号化処理において,図14に示す処理を実行する。図14は,従来技術2における図8に示すステップS32の符号化処理の流れを示している。 The overall flow of the video encoding process according to the prior art 2 is the same as that of the prior art 1 shown in FIG. In the prior art 2, the process shown in FIG. 14 is executed in the encoding process in step S32 shown in FIG. FIG. 14 shows the flow of the encoding process in step S32 shown in FIG.
図14におけるステップS501からステップS509までの処理は,図9に示した従来技術1と同様であるので,その説明を省略する。なお,ここで求まった予測残差ベクトルを第1の予測残差ベクトルと呼ぶ。ステップS510以降では,次の処理を行う。 The processing from step S501 to step S509 in FIG. 14 is the same as that of the prior art 1 shown in FIG. The prediction residual vector obtained here is referred to as a first prediction residual vector. In step S510 and subsequent steps, the following processing is performed.
まず,動き探索部511では,隣接ブロックの復号画像と参照画像の間で動き探索を行い,第2の予測ベクトルを求める(ステップS510)。次に,減算器512で動きベクトルと第2の予測ベクトルとの差分を取り,第2の予測残差ベクトルを求める(ステップS511)。予測ベクトル判定部516では,第1の予測残差ベクトルと第2の予測残差ベクトルのうち一方を選択し,選択した方の予測残差ベクトルと,どちらを選択したかを示す選択情報とを,情報源符号化部507に送る(ステップS512)。最後に,情報源符号化部507では,量子化後の直交変換係数と選択した予測残差ベクトルの動きベクトル情報を可変長符号化し(ステップS513),符号化ストリームを生成する。
First, the
図15は,従来技術2の映像復号装置の構成例を示す図である。 FIG. 15 is a diagram illustrating a configuration example of a video decoding device according to the related art 2.
図15に示す映像復号装置は,符号化ストリームを復号し,量子化後の直交変換係数と動きベクトル情報を求める情報源符号化復号部601,量子化後の直交変換係数を逆量子化する逆量子化部602,直交変換係数に逆直交変換を施し,予測残差の復号信号を生成する逆直交変換部603,予測信号と予測残差の復号信号を加算し,復号画像を生成する加算器604,復号画像を記憶する復号画像保存メモリ605,動き補償に用いる参照画像を記憶する参照画像保存メモリ606,隣接ブロック復号信号と参照画像とのマッチングによって第2の予測ベクトルを求める動き探索部607,動きベクトル情報(予測残差ベクトルと選択情報)から第1または第2の予測ベクトルを用いて動きベクトルを復号する動きベクトル復号部608,動きベクトルを記憶する動きベクトル保存メモリ609,隣接ブロックの動きベクトルのメディアンから第1の予測ベクトルを生成する予測ベクトル生成部610,動きベクトルを用いて動き補償を行う動き補償部611を備える。
The video decoding apparatus shown in FIG. 15 decodes an encoded stream and performs inverse quantization on an orthogonal transform coefficient after quantization and an information source
従来技術2による映像復号処理の全体の流れは,図11に示す従来技術1の映像復号処理と同様である。従来技術2では,図11に示すステップS42の復号処理において,図16に示す処理を実行する。図16は,従来技術2における図11に示すステップS42の復号処理の流れを示している。 The overall flow of the video decoding process according to the prior art 2 is the same as the video decoding process according to the prior art 1 shown in FIG. In the related art 2, the process shown in FIG. 16 is executed in the decoding process in step S42 shown in FIG. FIG. 16 shows the flow of the decoding process in step S42 shown in FIG.
図16におけるステップS601からS603までの処理およびステップS608からS611までの処理は,図12に示した従来技術1と同様であるので,その説明を省略する。 The processing from step S601 to S603 and the processing from step S608 to S611 in FIG. 16 are the same as those in the prior art 1 shown in FIG.
従来技術2の復号処理では,情報源符号化復号部601で,予測残差の復号信号を生成した後,動きベクトル復号部608で,動きベクトル情報を復号し,予測残差ベクトルと選択情報を取り出す(ステップS604)。さらに,動きベクトル復号部608では,選択情報が第2の予測残差ベクトルを示すか第1の予測残差ベクトルを示すかを判定する(ステップS605)。その結果,第2の予測残差ベクトルを示す場合には,動き探索部607で,隣接ブロックの復号画像と参照画像の間で動き探索を行い,予測ベクトルを求める(ステップS606)。一方,選択情報が第1の予測残差ベクトルを示す場合には,予測ベクトル生成部610で隣接ブロックの動きベクトルのメディアンを取り,予測ベクトルを生成する(ステップS607)。以降は,ステップS608へ進み,ステップS611まで従来技術1と同じ復号処理を続ける。
従来技術では,動きベクトルを符号化するための予測ベクトルを上側か左側に隣接する領域の動き補償結果をもとに作成するため,それらと動きが似ている領域にしか適用できないという問題がある。 In the prior art, a prediction vector for encoding a motion vector is created based on the motion compensation result of the region adjacent to the upper side or the left side, so that it can be applied only to regions similar to those motions. .
本発明は,動きが交差しているような領域にも適用可能な新しい予測ベクトルの生成方法を追加することにより,動きベクトル情報の符号量を従来技術よりも大幅に削減できるようにすることを目的としている。 The present invention provides a new prediction vector generation method that can be applied even to regions where motions intersect, thereby enabling the amount of code of motion vector information to be greatly reduced as compared with the prior art. It is aimed.
動き補償予測を用いる映像符号化では,動き探索により求めた予測信号と入力された映像信号との差分を取り,予測残差信号を生成する。この予測残差信号の復号画像には,動いている被写体の輪郭部分が現れる傾向が非常に大きい。本発明は,この点に着目して上記課題の解決を図っている。 In video coding using motion compensated prediction, a difference between a prediction signal obtained by motion search and an input video signal is taken to generate a prediction residual signal. In the decoded image of the prediction residual signal, there is a great tendency that the contour portion of the moving subject appears. The present invention focuses on this point to solve the above problems.
すなわち,本発明は,動きベクトル情報の符号化にあって予測残差ベクトルを算出するための予測ベクトルを,参照画像から求めたエッジ画像と,符号化対象ブロックの予測残差信号の復号画像から求めたエッジ画像とのマッチングによって算出する。このマッチングとは,復号画像から求めたエッジ画像が,参照画像から求めたエッジ画像の中で最も合致する座標を探索する操作となる。探索方法としては,通常の動き探索と同様に,差分電力が最小となる点を探索する方法や,2次元の相関値を計算し,最も相関性が大きくなる点を求める方法などが例として挙げられる。 That is, according to the present invention, a prediction vector for calculating a prediction residual vector in encoding motion vector information is obtained from an edge image obtained from a reference image and a decoded image of a prediction residual signal of an encoding target block. Calculation is performed by matching with the obtained edge image. This matching is an operation for searching for a coordinate where the edge image obtained from the decoded image most closely matches the edge image obtained from the reference image. Examples of search methods include a method for searching for a point where the differential power is minimized, a method for calculating a two-dimensional correlation value, and a method for obtaining a point having the highest correlation, as in a normal motion search. It is done.
このようにして算出した予測ベクトルと,従来技術と同様に隣接ブロックの動きベクトルのメディアンから求めた予測ベクトルの一方を選択し,実際の動きベクトルとの差分を予測残差ベクトルとして符号化する。また,予測ベクトルの選択情報を符号化することを特徴とする。 One of the prediction vector calculated in this way and the prediction vector obtained from the median of the motion vectors of adjacent blocks as in the prior art is selected, and the difference from the actual motion vector is encoded as a prediction residual vector. Also, the prediction vector selection information is encoded.
本発明は,エンコーダ側において以下の処理を行う。
(1)参照画像についてエッジ検出処理を行い,エッジ画像を生成する。
(2)動き補償を行い,予測残差の復号画像を求める。
(3)隣接ブロックの動きベクトルのメディアンから第1の予測ベクトルを算出する。
(4)予測残差信号の復号画像に対して,エッジ検出処理を施す。
(5)上記(1)で求めたエッジ画像と,上記(4)で求めたエッジ画像のマッチングを取り,第2の予測ベクトルを求める。
(6)第1の予測ベクトルと第2の予測ベクトルの一方を選択する。
(7)選択した予測ベクトルと動きベクトルとの差分の予測残差ベクトルを算出する。
(8)算出した予測残差ベクトルと予測ベクトルの選択情報を符号化する。
In the present invention, the following processing is performed on the encoder side.
(1) An edge detection process is performed on the reference image to generate an edge image.
(2) Perform motion compensation and obtain a decoded image of the prediction residual.
(3) A first prediction vector is calculated from a median of motion vectors of adjacent blocks.
(4) An edge detection process is performed on the decoded image of the prediction residual signal.
(5) The edge image obtained in (1) above is matched with the edge image obtained in (4) to obtain a second prediction vector.
(6) Select one of the first prediction vector and the second prediction vector.
(7) A prediction residual vector of the difference between the selected prediction vector and the motion vector is calculated.
(8) The calculated prediction residual vector and prediction vector selection information are encoded.
なお,上記(3)および(5)の処理で,それぞれ動きベクトルとの差分から第1の予測残差ベクトルと第2の予測残差ベクトルとを算出しておき,上記(6)において,第1の予測残差ベクトルおよび第2の予測残差ベクトルの一方を選択してもよく,第1または第2の予測ベクトルを選択してから予測残差ベクトルを求めることと,技術的思想としては実質的に同じである。 In the processes (3) and (5), the first prediction residual vector and the second prediction residual vector are calculated from the difference from the motion vector, respectively. One of the one prediction residual vector and the second prediction residual vector may be selected, and after obtaining the prediction residual vector after selecting the first or second prediction vector, It is substantially the same.
デコーダ側では,以下の処理を行う。
(1)参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成する。
(2)予測残差を復号し,予測残差画像を生成する。
(3)動きベクトル情報を復号し,予測残差ベクトルと選択情報を取り出す。
(4)選択情報が第1の予測ベクトルを示していれば,隣接ブロックの動きベクトルのメディアンから予測ベクトルを求める。
(5)選択情報が第2の予測ベクトルを示していれば,次の処理を行う。
(5−1)予測残差画像にエッジ検出処理を施し,第2のエッジ画像を生成する。
(5−2)第1のエッジ画像と第2のエッジ画像とのマッチングを取り,マッチング位置により予測ベクトルを求める。
(6)予測ベクトルと予測残差ベクトルとを加算して動きベクトルを算出し,その動きベクトルを用いた動き補償により復号画像を生成する。
On the decoder side, the following processing is performed.
(1) An edge detection process is performed on the reference image to generate a first edge image.
(2) The prediction residual is decoded and a prediction residual image is generated.
(3) The motion vector information is decoded, and a prediction residual vector and selection information are extracted.
(4) If the selection information indicates the first prediction vector, the prediction vector is obtained from the median of the motion vectors of adjacent blocks.
(5) If the selection information indicates the second prediction vector, the following processing is performed.
(5-1) An edge detection process is performed on the prediction residual image to generate a second edge image.
(5-2) The first edge image and the second edge image are matched, and a prediction vector is obtained from the matching position.
(6) A motion vector is calculated by adding the prediction vector and the prediction residual vector, and a decoded image is generated by motion compensation using the motion vector.
本発明と従来技術との差異は,以下のとおりである。本発明では,参照画像と予測残差復号画像というデコーダで得られる2種類の画像のマッチングから動きベクトルを求める。これらは,片方は普通の画像,もう片方は残差画像のため,普通にマッチングを取ることはできない。そこで,両者にエッジ検出処理を施し,エッジ画像とすることでうまくマッチングを取る。このマッチングによって予測ベクトルを生成するのに加えて,従来技術1と同様に,隣接ブロックの動きベクトルのメディアンによっても予測ベクトルを生成する。この両方の予測ベクトルのうち符号化効率のよい可能性が大きいほうを選択して,動きベクトルとの差分を算出し,予測残差ベクトルを求め,予測残差ベクトルと予測ベクトルの選択情報とを符号化する。 The differences between the present invention and the prior art are as follows. In the present invention, a motion vector is obtained from matching of two types of images obtained by a decoder called a reference image and a prediction residual decoded image. Since one of them is an ordinary image and the other is a residual image, it cannot be matched normally. Therefore, the edge detection processing is performed on both, and matching is achieved by using the edge image. In addition to generating a prediction vector by this matching, a prediction vector is also generated by a median of motion vectors of adjacent blocks as in the conventional technique 1. Of these prediction vectors, the one with the highest possibility of good coding efficiency is selected, the difference from the motion vector is calculated, the prediction residual vector is obtained, and the prediction residual vector and the prediction vector selection information are obtained. Encode.
2つの予測ベクトルのどちらを選択するかの選択方法については,例えば次のような方法がある。
・ベクトル符号量が少ないほうを選択する。
・ベクトル符号量が少ない可能性が高いほうを選択する。例えば,予測残差ベクトルのマンハッタン距離(|X|+|Y|)の小さいほうを選択する。
For example, there are the following methods for selecting which of the two prediction vectors to select.
・ Select the one with less vector code.
-Select the one with the high possibility that the vector code amount is small. For example, the smaller one of the Manhattan distance (| X | + | Y |) of the prediction residual vector is selected.
従来技術2の方法では,隣接ブロックの復号画像と参照画像とのマッチングによって予測ベクトルを求める。この方法では両者とも普通の画像であるため,マッチングが取れる。その反面,あくまで隣接ブロックのマッチングとなることから,動きが微妙に異なる領域にはうまく適用できない。 In the method of the prior art 2, a prediction vector is obtained by matching a decoded image of a neighboring block with a reference image. In this method, since both are normal images, matching can be taken. On the other hand, since it is a matching of adjacent blocks to the last, it cannot be applied well to areas with slightly different movements.
本発明によれば,動きが交差しているような領域の場合に,隣接ブロックの情報を使わないで,デコーダ側で動きベクトルの復号ができるため,動きベクトルの符号化情報を大幅に削減することができるようになる。特に,本発明では,従来の隣接ブロックの動きベクトルのメディアンから求める予測ベクトルと,エッジ画像のマッチングに着目した予測ベクトルとを切り替えて用いることができるため,予測ベクトルの候補が一つしかない場合よりも符号化効率が向上する可能性が高い。 According to the present invention, in the case of an area where the motions intersect, since the motion vector can be decoded on the decoder side without using the adjacent block information, the motion vector coding information is greatly reduced. Will be able to. In particular, in the present invention, the prediction vector obtained from the median of the motion vectors of the adjacent block in the past and the prediction vector focused on edge image matching can be switched and used, so that there is only one prediction vector candidate. There is a high possibility that the encoding efficiency is improved.
以下,図面を用いながら本発明の実施例について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は,本発明の実施例に係る映像符号化装置の構成例を示す図である。図中,点線で囲った部分が,主に従来技術と異なる本発明に特有な部分である。 FIG. 1 is a diagram illustrating a configuration example of a video encoding device according to an embodiment of the present invention. In the figure, a portion surrounded by a dotted line is a portion peculiar to the present invention which is mainly different from the prior art.
図1に示す映像符号化装置は,符号化した画像の復号画像を記憶する復号画像保存メモリ101,動き探索を行う参照画像を記憶する参照画像保存メモリ102,符号化対象ブロックについて動き探索を行い予測信号を生成する動き探索部103,入力した映像信号と予測信号の差分をとり予測残差信号を求める減算器104,予測残差信号を直交変換する直交変換部105,直交変換係数を量子化する量子化部106,量子化後の直交変換係数および動きベクトルの予測残差ベクトルを符号化する情報源符号化部107,量子化後の直交変換係数を逆量子化する逆量子化部108,直交変換係数に逆直交変換を施し,予測残差の復号信号を生成する逆直交変換部109,予測信号と予測残差の復号信号を加算し,復号画像を生成する加算器110,参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成するエッジ検出部B111,第1のエッジ画像を記憶するエッジ画像保存メモリ112,予測残差の復号信号についてエッジ検出処理を行い,第2のエッジ画像を生成するエッジ検出部A113,第1のエッジ画像と第2のエッジ画像のマッチングを取り,マッチングが取れた位置をもとに予測ベクトルを求めるマッチング処理部114,動きベクトルと予測ベクトルとの差分を取る減算器115,動き探索結果の動きベクトルを記憶する動きベクトル保存メモリ116,隣接ブロックの動きベクトルのメディアンから予測ベクトルを生成する予測ベクトル生成部117,動きベクトルと予測ベクトルとの差分を取る減算器118,減算器115と減算器118の出力する予測残差ベクトルの一方を選択する予測ベクトル判定部119を備える。
The video encoding apparatus shown in FIG. 1 performs a motion search on a decoded
図2は,本発明の実施例による映像符号化処理の全体の流れを示すフローチャートである。映像符号化装置(エンコーダ)では,以下の処理を映像の各フレームに対して繰り返す。まず,前フレームの復号画像を復号画像保存メモリ101から参照画像保存メモリ102に移す(ステップS10)。次に,エッジ検出部B111において,参照画像にエッジ検出処理を施し,第1のエッジ画像を生成してエッジ画像保存メモリ112に格納する(ステップS11)。その後,符号化対象フレームの各マクロブロックに対して(ステップS12),図3に示す符号化処理(ステップS13)を,全マクロブロック終了まで繰り返す(ステップS14)。
FIG. 2 is a flowchart showing the overall flow of the video encoding process according to the embodiment of the present invention. The video encoding device (encoder) repeats the following processing for each frame of video. First, the decoded image of the previous frame is moved from the decoded
図3は,図2に示すステップS13の符号化処理の流れを示すフローチャートである。まず,動き補償を行い,予測残差信号を算出する(ステップS101)。すなわち,動き探索部103で求めた予測信号と入力された映像信号との差分を減算器104により算出して,予測残差信号を求める。次に,直交変換部105で予測残差信号に直交変換を施し(ステップS102),続いて,量子化部106で直交変換係数を量子化する(ステップS103)。さらに,逆量子化部108で量子化後の直交変換係数に対して逆量子化を施し(ステップS104),逆直交変換部109で逆直交変換を施し,予測残差の復号信号を生成する(ステップS105)。この復号信号と予測信号を加算器110により加算し,復号画像を生成して復号画像保存メモリ101に格納する(ステップS106)。
FIG. 3 is a flowchart showing the flow of the encoding process in step S13 shown in FIG. First, motion compensation is performed and a prediction residual signal is calculated (step S101). That is, the difference between the prediction signal obtained by the
一方,動きベクトルを動きベクトル保存メモリ116に格納する(ステップS107)。予測ベクトル生成部117では,隣接ブロックの動きベクトルのメディアンから第1の予測ベクトルを生成し(ステップS108),これと動きベクトルとの差分を減算器115により算出し,第1の予測残差ベクトルを求める(ステップS109)。
On the other hand, the motion vector is stored in the motion vector storage memory 116 (step S107). The prediction
また,エッジ検出部A113において予測残差の復号信号にエッジ検出処理を施し,第2のエッジ画像を生成する(ステップS110)。次に,マッチング処理部114で第1のエッジ画像と第2のエッジ画像の間でマッチング処理を行い,マッチング位置から第2の予測ベクトルを求める(ステップS111)。求めた第2の予測ベクトルと動きベクトルとの差分を減算器115により算出し,第2の予測残差ベクトルを求める(ステップS112)。
In addition, the edge detection unit A113 performs edge detection processing on the prediction residual decoded signal to generate a second edge image (step S110). Next, the matching
次に,予測ベクトル判定部119では,第1の予測残差ベクトルと第2の予測残差ベクトルの一方を選択し,選択したほうの残差ベクトルと,選択情報を情報源符号化部107に送る(ステップS113)。最後に,情報源符号化部107で量子化後の直交変換係数と動きベクトル情報を可変長符号化し(ステップS114),符号化ストリームを生成する。なお,この例では,予測ベクトル判定部119において,予測残差ベクトルを選択しているが,予測ベクトルを選択して,選択した予測ベクトルと動きベクトルとの差分から予測残差ベクトルを生成してもよいことは言うまでもない。
Next, the prediction
以上の実施例において,エッジ検出処理が,エッジ検出部A113とエッジ検出部B111の2つに分けて行われている。これは,一方のエッジ検出部A113が残差画像,他方のエッジ検出部B111が普通の画像のエッジ検出処理を行うため,それぞれ異なる処理を施すケースが考えられるためである。これらが行うエッジ検出処理としては,例えばSobelフィルタの適用,絶対値算出処理,強調処理,テンプレート画像作成などが挙げられ,また,これらのいくつかを組み合わせて実施することもできる。 In the above embodiment, the edge detection processing is performed in two parts, the edge detection unit A113 and the edge detection unit B111. This is because one edge detection unit A113 performs edge detection processing of a residual image, and the other edge detection unit B111 performs normal image edge detection processing, so that different cases can be considered. Examples of the edge detection processing performed by these include application of a Sobel filter, absolute value calculation processing, enhancement processing, template image creation, and the like, and some of these can be combined.
例えば,参照画像には,下記のSobel(4方向)フィルタを全画素に適用し,その結果の絶対値を取ったものをエッジ画像とする方法が考えられる。 For example, for the reference image, a method of applying the following Sobel (4-direction) filter to all pixels and taking an absolute value of the result as an edge image can be considered.
〔Sobelフィルタの例〕 0 −1 −2
1 0 −1
2 1 0
一方,残差画像は,全画素の絶対値を取ったものをエッジ画像とする方法や,絶対値を取った後に,定数を掛ける方法が考えられる。
[Example of Sobel filter] 0 -1 -2
1 0 -1
2 1 0
On the other hand, as the residual image, there are a method in which an absolute value of all pixels is taken as an edge image, and a method in which an absolute value is taken and then a constant is multiplied.
また,マッチング処理部114は,エッジ画像同士の差分絶対値和(SAD)や二乗誤差(SSD)の最小点を探索する処理以外に,正規化相関マッチングやテンプレートマッチングで対応点を求める方法も考えられる。
Further, the matching
エッジ検出とマッチング処理に際し,フレーム毎またはマクロブロック毎に処理パラメータを変化させたほうがいい場合がある。処理パラメータとしては,例えばエッジ画像の生成では,どのようなエッジ検出を行うか,エッジ画像をそれぞれ定数倍するかしないか,エッジ強度をある閾値を境に2値化するかしないか,などの選択情報が考えられる。また,マッチング処理では,どのようなマッチング処理を行うかなどの選択情報が考えられる。この場合,映像符号化装置で使用したパラメータも,前記予測ベクトルの選択情報に含めて,または前記選択情報とは別に,情報源符号化部107で可変長符号化し,符号化ストリームに加える。後述する映像復号装置では,このパラメータも復号し,エッジ検出およびマッチング処理で利用することで,映像符号化装置と同じ探索結果が得られる。
In edge detection and matching processing, it may be better to change processing parameters for each frame or macroblock. As processing parameters, for example, in edge image generation, what kind of edge detection is performed, whether each edge image is multiplied by a constant, whether edge intensity is binarized with a certain threshold as a boundary, etc. Selection information is conceivable. In the matching process, selection information such as what kind of matching process is performed can be considered. In this case, the parameters used in the video encoding device are also included in the prediction vector selection information or separately from the selection information, and are variable length encoded by the information
図4は,本発明の実施例に係る映像復号装置の構成例を示す図である。図中,点線で囲った部分が,主に従来技術と異なる本発明に特有な部分である。 FIG. 4 is a diagram illustrating a configuration example of a video decoding apparatus according to an embodiment of the present invention. In the figure, a portion surrounded by a dotted line is a portion peculiar to the present invention which is mainly different from the prior art.
図4に示す映像復号装置は,符号化ストリームを復号し,量子化後の直交変換係数と予測残差ベクトルを求める情報源符号化復号部201,量子化後の直交変換係数を逆量子化する逆量子化部202,直交変換係数に逆直交変換を施し,予測残差の復号信号を生成する逆直交変換部203,予測信号と予測残差の復号信号を加算し,復号画像を生成する加算器204,復号画像を記憶する復号画像保存メモリ205,動き補償に用いる参照画像を記憶する参照画像保存メモリ206,参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成するエッジ検出部B207,第1のエッジ画像を記憶するエッジ画像保存メモリ208,予測残差の復号信号についてエッジ検出処理を行い,第2のエッジ画像を生成するエッジ検出部A209,第1のエッジ画像と第2のエッジ画像のマッチングを取り,マッチングが取れた位置をもとに第2の予測ベクトルを求めるマッチング処理部210,動きベクトルを記憶する動きベクトル保存メモリ211,隣接ブロックの動きベクトルのメディアンから第1の予測ベクトルを生成する予測ベクトル生成部212,動きベクトル情報(予測残差ベクトルと選択情報)から第1または第2の予測ベクトルを用いて動きベクトルを復号する動きベクトル復号部213,動きベクトルから動き補償により参照信号を抽出する動き補償部214を備える。
The video decoding apparatus shown in FIG. 4 decodes an encoded stream, and an information source encoding /
図5は,本発明の実施例による映像復号処理の全体の流れを示すフローチャートである。デコーダでは,以下の処理を映像の各フレームに対して繰り返す。まず,前フレームの復号画像を復号画像保存メモリ205から参照画像保存メモリ206に移す(ステップS20)。次に,エッジ検出部B207において参照画像にエッジ検出処理を施し,第1のエッジ画像を生成してエッジ画像保存メモリ208に格納する(ステップS21)。その後,復号対象フレームの各マクロブロックに対して(ステップS22),図6に示す復号処理(ステップS23)を,全マクロブロック終了まで繰り返す(ステップS24)。
FIG. 5 is a flowchart showing the overall flow of the video decoding process according to the embodiment of the present invention. The decoder repeats the following process for each frame of the video. First, the decoded image of the previous frame is moved from the decoded
図6は,図5に示すステップS23の復号処理の流れを示すフローチャートである。まず,情報源符号化復号部201では,符号化ストリームの可変長符号を復号し,量子化後の直交変換係数を求める。また,動きベクトル情報を取り出し,動きベクトル復号部213に渡す(ステップS201)。続いて,逆量子化部202で量子化後の直交変換係数に逆量子化を施し(ステップS202),逆直交変換部203で逆直交変換を施して,予測残差の復号信号を生成する(ステップS203)。
FIG. 6 is a flowchart showing the flow of the decoding process in step S23 shown in FIG. First, the information source encoding /
動きベクトルに関しては,以下の処理を行う。まず,動きベクトル復号部213で,動きベクトル情報を復号し,予測残差ベクトルと選択情報を取り出す(ステップS204)。さらに,動きベクトル復号部213では,選択情報が第2の予測残差ベクトルを示すか第1の予測残差ベクトルを示すかを判定する(ステップS205)。
The following processing is performed for motion vectors. First, the motion
その結果,選択情報が第2の予測残差ベクトルを示す場合には,まず,エッジ検出部A209で予測残差の復号信号にエッジ検出処理を施し,第2のエッジ画像を生成する(ステップS206)。そして,マッチング処理部210にて,エッジ画像保存メモリ208に記憶している第1のエッジ画像と,第2のエッジ画像との間でマッチング処理を行い,マッチング位置から第1の予測ベクトルを求める(ステップS207)。
As a result, when the selection information indicates the second prediction residual vector, first, the edge detection unit A209 performs edge detection processing on the decoded signal of the prediction residual to generate a second edge image (step S206). ). Then, the matching
一方,選択情報が第1の予測残差ベクトルを示す場合には,予測ベクトル生成部212で,動きベクトル保存メモリ211に格納されている隣接ブロックの動きベクトルのメディアンを取り,予測ベクトルを生成する(ステップS208)。
On the other hand, when the selection information indicates the first prediction residual vector, the prediction
動きベクトル復号部213では,選択情報に従って,第1の予測ベクトルまたは第2の予測ベクトルの一方を選択し,この予測ベクトルと復号した予測残差ベクトルとの加算を行い,動きベクトルを求める(ステップS209)。求めた動きベクトルを動きベクトル保存メモリ211に格納する(ステップS210)。動き補償部214では,この動きベクトルをもとに参照画像保存メモリ206から予測画像の参照信号を取り出し,加算器204で予測残差信号と加算することで復号画像を生成する(ステップS211)。生成された復号信号(復号画像)を出力するとともに,復号画像保存メモリ205に格納する(ステップS212)。
The motion
上記処理において,入力符号化データにエッジ画像の生成方法またはエッジ画像のマッチング方法を指定する処理パラメータが含まれる場合,ステップS206またはステップS207を,処理パラメータで指定された方法によって実行する。 In the above processing, when the input encoded data includes a processing parameter for specifying an edge image generation method or an edge image matching method, step S206 or step S207 is executed by the method specified by the processing parameter.
本発明による効果を確認するため,予測ベクトルを隣接ブロックの動きベクトルのメディアンによって生成するH.264標準の方式(以下,JMという)の従来方法によるベクトル符号量と,本発明で提案した方法によるベクトル符号量との比較実験を行った。実験に用いた映像は,720×480画素,450フレームの“Character pattern”である。結果を図17に示す。 In order to confirm the effect of the present invention, the prediction vector is generated by a median of motion vectors of adjacent blocks. A comparison experiment was performed between the vector code amount by the conventional method of the H.264 standard method (hereinafter referred to as JM) and the vector code amount by the method proposed in the present invention. The image used in the experiment is “Character pattern” of 720 × 480 pixels and 450 frames. The results are shown in FIG.
それぞれの量子化パラメータ(QP)に応じた1フレーム当たりのベクトル符号量(ビット数)は,次のとおりであった。
(1)QP=12のとき(単位は,bits/frame。以下,同様)
1997(JMの符号量),1517(本発明の提案方法による符号量)
(2)QP=18のとき
1765(JMの符号量),1298(本発明の提案方法による符号量)
(3)QP=24のとき
1684(JMの符号量),1259(本発明の提案方法による符号量)
(4)QP=30のとき
1644(JMの符号量),1379(本発明の提案方法による符号量)
これにより,ベクトル符号量に有意な差があり,本発明を用いることによってベクトル符号量を削減することができることが確認できた。
The amount of vector codes (number of bits) per frame corresponding to each quantization parameter (QP) was as follows.
(1) When QP = 12 (unit: bits / frame; hereinafter the same)
1997 (JM code amount), 1517 (code amount according to the proposed method of the present invention)
(2) When QP = 18 1765 (JM code amount), 1298 (code amount according to the proposed method of the present invention)
(3) When QP = 24 1684 (JM code amount), 1259 (code amount according to the proposed method of the present invention)
(4) When QP = 30 1644 (JM code amount), 1379 (code amount according to the proposed method of the present invention)
Thereby, there was a significant difference in the vector code amount, and it was confirmed that the vector code amount can be reduced by using the present invention.
以上の映像の符号化および復号の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。 The above video encoding and decoding processes can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network.
101 復号画像保存メモリ
102 参照画像保存メモリ
103 動き探索部
104 減算器
105 直交変換部
106 量子化部
107 情報源符号化部
108 逆量子化部
109 逆直交変換部
110 加算器
111 エッジ検出部B
112 エッジ画像保存メモリ
113 エッジ検出部A
114 マッチング処理部
115 減算器
116 動きベクトル保存メモリ
117 予測ベクトル生成部
118 減算器
119 予測ベクトル判定部
201 情報源符号化復号部
202 逆量子化部
203 逆直交変換部
204 加算器
205 復号画像保存メモリ
206 参照画像保存メモリ
207 エッジ検出部B
208 エッジ画像保存メモリ
209 エッジ検出部A
210 マッチング処理部
211 動きベクトル保存メモリ
212 予測ベクトル生成部
213 動きベクトル復号部
214 動き補償部
DESCRIPTION OF
112 Edge
DESCRIPTION OF
208 Edge
210
Claims (10)
動き補償で用いる参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成する過程と,
入力映像信号の符号化対象領域に対して前記参照画像を参照して動き補償を行い,予測残差信号を算出する過程と,
前記予測残差信号の復号画像を算出する過程と,
前記符号化対象領域に隣接する領域の動きベクトルのメディアンを取り,第1の予測ベクトルを生成する過程と,
前記予測残差信号の復号画像に対してエッジ検出処理を施し,第2のエッジ画像を生成する過程と,
前記第1のエッジ画像と前記第2のエッジ画像のマッチングを取り,第2の予測ベクトルを算出する過程と,
前記第1の予測ベクトルと前記第2の予測ベクトルの一方を選択する過程と,
選択された予測ベクトルと前記動き補償で求めた動きベクトルとの差分の予測残差ベクトルと,前記第1の予測ベクトルと前記第2の予測ベクトルのどちらを選択したかを示す選択情報とを符号化する過程とを有する
ことを特徴とする映像符号化方法。 In a video encoding method for encoding a video signal using motion compensated prediction,
A process of performing edge detection processing on a reference image used in motion compensation and generating a first edge image;
A process of calculating a prediction residual signal by performing motion compensation on the encoding target area of the input video signal with reference to the reference image;
Calculating a decoded image of the prediction residual signal;
Taking a median of a motion vector of an area adjacent to the encoding target area and generating a first prediction vector;
Performing edge detection processing on the decoded image of the prediction residual signal to generate a second edge image;
Matching the first edge image and the second edge image and calculating a second prediction vector;
Selecting one of the first prediction vector and the second prediction vector;
A prediction residual vector of a difference between the selected prediction vector and the motion vector obtained by the motion compensation, and selection information indicating which of the first prediction vector and the second prediction vector is selected are encoded A video encoding method comprising the steps of:
前記第1のエッジ画像もしくは前記第2のエッジ画像を生成する過程,または前記第1のエッジ画像と前記第2のエッジ画像のマッチングを取る過程では,エッジ画像の生成方法またはエッジ画像のマッチング方法を指定する処理パラメータを,フレーム毎または符号化対象領域毎に変化させ,
前記符号化する過程では,前記処理パラメータを,前記選択情報とは別にまたは前記選択情報に含めて符号化する
ことを特徴とする映像符号化方法。 The video encoding method according to claim 1, wherein
In the process of generating the first edge image or the second edge image, or in the process of matching the first edge image and the second edge image, an edge image generation method or an edge image matching method Change the processing parameter to specify for each frame or encoding target area,
In the encoding process, the processing parameter is encoded separately from or included in the selection information.
動き補償で用いる参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成する過程と,
入力符号化データに含まれる予測残差信号を復号する過程と,
入力符号化データに含まれる動きベクトル情報を復号し,予測残差ベクトルと予測ベクトルの選択情報を取り出す過程と,
前記選択情報が第1の予測ベクトルを示すときに,復号対象領域に隣接する領域の動きベクトルのメディアンを取り,第1の予測ベクトルを生成する過程と,
前記選択情報が第2の予測ベクトルを示すときに,前記予測残差信号の復号によって得られた予測残差画像にエッジ検出処理を施し,第2のエッジ画像を生成し,前記第1のエッジ画像と前記第2のエッジ画像とのマッチング処理により第2の予測ベクトルを算出する過程と,
前記選択情報に応じて算出された予測ベクトルに前記予測残差ベクトルを加算し,動きベクトルを算出する過程と,
前記動きベクトルを用いた動き補償により得られた参照信号に前記予測残差信号を加算して復号画像を生成する過程とを有する
ことを特徴とする映像復号方法。 In a video decoding method for decoding a video signal using motion compensated prediction,
A process of performing edge detection processing on a reference image used in motion compensation and generating a first edge image;
Decoding the prediction residual signal included in the input encoded data;
A process of decoding motion vector information included in input encoded data and extracting prediction residual vector and prediction vector selection information;
When the selection information indicates the first prediction vector, taking the median of the motion vector of the region adjacent to the region to be decoded and generating the first prediction vector;
When the selection information indicates a second prediction vector, the prediction residual image obtained by decoding the prediction residual signal is subjected to edge detection processing to generate a second edge image, and the first edge Calculating a second prediction vector by matching the image with the second edge image;
Adding the prediction residual vector to the prediction vector calculated according to the selection information to calculate a motion vector;
And a step of generating a decoded image by adding the prediction residual signal to a reference signal obtained by motion compensation using the motion vector.
さらに,前記選択情報とは別にまたは前記選択情報として,エッジ画像の生成方法またはエッジ画像のマッチング方法を指定する処理パラメータを復号する過程を有し,
前記第1のエッジ画像もしくは前記第2のエッジ画像を生成する過程,または前記第1のエッジ画像と前記第2のエッジ画像のマッチングを取り,予測ベクトルを算出する過程では,フレーム毎または復号対象領域毎に前記復号した処理パラメータに従ってエッジ画像の生成またはエッジ画像のマッチング処理を行う
ことを特徴とする映像復号方法。 The video decoding method according to claim 3,
In addition to the selection information or as the selection information, there is a step of decoding a processing parameter that specifies an edge image generation method or an edge image matching method,
In the process of generating the first edge image or the second edge image, or the process of taking the matching between the first edge image and the second edge image and calculating the prediction vector, each frame or decoding target A video decoding method, wherein edge image generation or edge image matching processing is performed for each region according to the decoded processing parameter.
動き補償で用いる参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成する手段と,
入力映像信号の符号化対象領域に対して前記参照画像を参照して動き補償を行い,予測残差信号を算出する手段と,
前記予測残差信号の復号画像を算出する手段と,
前記符号化対象領域に隣接する領域の動きベクトルのメディアンを取り,第1の予測ベクトルを生成する手段と,
前記予測残差信号の復号画像に対してエッジ検出処理を施し,第2のエッジ画像を生成する手段と,
前記第1のエッジ画像と前記第2のエッジ画像のマッチングを取り,第2の予測ベクトルを算出する手段と,
前記第1の予測ベクトルと前記第2の予測ベクトルの一方を選択する手段と,
選択された予測ベクトルと前記動き補償で求めた動きベクトルとの差分の予測残差ベクトルと,前記第1の予測ベクトルと前記第2の予測ベクトルのどちらを選択したかを示す選択情報とを符号化する手段とを備える
ことを特徴とする映像符号化装置。 In a video encoding device that encodes a video signal using motion compensated prediction,
Means for performing edge detection processing on a reference image used in motion compensation and generating a first edge image;
Means for performing motion compensation with reference to the reference image with respect to an encoding target region of an input video signal and calculating a prediction residual signal;
Means for calculating a decoded image of the prediction residual signal;
Means for taking a median of a motion vector of an area adjacent to the encoding target area and generating a first prediction vector;
Means for performing edge detection processing on a decoded image of the prediction residual signal and generating a second edge image;
Means for matching the first edge image and the second edge image and calculating a second prediction vector;
Means for selecting one of the first prediction vector and the second prediction vector;
A prediction residual vector of a difference between the selected prediction vector and the motion vector obtained by the motion compensation, and selection information indicating which of the first prediction vector and the second prediction vector is selected are encoded And a video encoding device.
動き補償で用いる参照画像についてエッジ検出処理を行い,第1のエッジ画像を生成する手段と,
入力符号化データに含まれる予測残差信号を復号する手段と,
入力符号化データに含まれる動きベクトル情報を復号し,予測残差ベクトルと予測ベクトルの選択情報を取り出す手段と,
前記選択情報が第1の予測ベクトルを示すときに,復号対象領域に隣接する領域の動きベクトルのメディアンを取り,第1の予測ベクトルを生成する手段と,
前記選択情報が第2の予測ベクトルを示すときに,前記予測残差信号の復号によって得られた予測残差画像にエッジ検出処理を施し,第2のエッジ画像を生成し,前記第1のエッジ画像と前記第2のエッジ画像とのマッチング処理により第2の予測ベクトルを算出する手段と,
前記選択情報に応じて算出された予測ベクトルに前記予測残差ベクトルを加算し,動きベクトルを算出する手段と,
前記動きベクトルを用いた動き補償により得られた参照信号に前記予測残差信号を加算して復号画像を生成する手段とを備える
ことを特徴とする映像復号装置。 In a video decoding device that decodes a video signal using motion compensated prediction,
Means for performing edge detection processing on a reference image used in motion compensation and generating a first edge image;
Means for decoding a prediction residual signal included in the input encoded data;
Means for decoding motion vector information included in input encoded data and extracting prediction residual vector and prediction vector selection information;
Means for taking a median of a motion vector of an area adjacent to a decoding target area and generating a first prediction vector when the selection information indicates a first prediction vector;
When the selection information indicates a second prediction vector, the prediction residual image obtained by decoding the prediction residual signal is subjected to edge detection processing to generate a second edge image, and the first edge Means for calculating a second prediction vector by a matching process between an image and the second edge image;
Means for calculating a motion vector by adding the prediction residual vector to a prediction vector calculated according to the selection information;
A video decoding apparatus comprising: means for adding the prediction residual signal to a reference signal obtained by motion compensation using the motion vector to generate a decoded image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008271975A JP4885929B2 (en) | 2008-10-22 | 2008-10-22 | Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008271975A JP4885929B2 (en) | 2008-10-22 | 2008-10-22 | Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010103684A true JP2010103684A (en) | 2010-05-06 |
JP4885929B2 JP4885929B2 (en) | 2012-02-29 |
Family
ID=42293934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008271975A Expired - Fee Related JP4885929B2 (en) | 2008-10-22 | 2008-10-22 | Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4885929B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010103683A (en) * | 2008-10-22 | 2010-05-06 | Nippon Telegr & Teleph Corp <Ntt> | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, video encoding program, video decoding program, and recording medium thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07298271A (en) * | 1994-04-28 | 1995-11-10 | Matsushita Electric Ind Co Ltd | Method and device for detecting motion vector in motion image coding |
JPH08331568A (en) * | 1995-06-05 | 1996-12-13 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for dynamic image coding and decoding |
JP2006025033A (en) * | 2004-07-06 | 2006-01-26 | Sony Corp | Device and method for image processing |
-
2008
- 2008-10-22 JP JP2008271975A patent/JP4885929B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07298271A (en) * | 1994-04-28 | 1995-11-10 | Matsushita Electric Ind Co Ltd | Method and device for detecting motion vector in motion image coding |
JPH08331568A (en) * | 1995-06-05 | 1996-12-13 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for dynamic image coding and decoding |
JP2006025033A (en) * | 2004-07-06 | 2006-01-26 | Sony Corp | Device and method for image processing |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010103683A (en) * | 2008-10-22 | 2010-05-06 | Nippon Telegr & Teleph Corp <Ntt> | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, video encoding program, video decoding program, and recording medium thereof |
Also Published As
Publication number | Publication date |
---|---|
JP4885929B2 (en) | 2012-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2639662C1 (en) | Image prediction encoding device, image prediction encoding method, image prediction encoding programme, image prediction decoding device, image prediction decoding method, image prediction decoding programme | |
JP6559309B2 (en) | Image predictive decoding method | |
JP7171770B2 (en) | Memory access windowing and padding for motion vector refinement and motion compensation | |
KR102527169B1 (en) | Limited memory access window for motion vector refinement | |
EP3139607B1 (en) | Template matching-based intra-prediction coding and decoding | |
JP5306485B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
TWI738236B (en) | Methods and apparatuses of video processing for bi-directional prediction with motion refinement in video coding systems | |
JP2010016453A (en) | Image encoding apparatus and method, image decoding apparatus and method, and program | |
JP2005318497A (en) | Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program | |
KR20140048320A (en) | Dynamic image encoding method, decoding method, device thereof, program thereof, and storage medium containing the program | |
JP5367097B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
US9088797B2 (en) | Video processing method and apparatus with residue prediction | |
KR100856392B1 (en) | Video Encoding and Decoding Apparatus and Method referencing Reconstructed Blocks of a Current Frame | |
KR20130126698A (en) | Video encoding device, video encoding method and video encoding program | |
JP2010193401A (en) | Image encoding method and apparatus | |
JP4885929B2 (en) | Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof | |
JP4878047B2 (en) | Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof | |
JP2009212667A (en) | Moving image encoding apparatus and decoding apparatus | |
US11528485B2 (en) | Encoding apparatus and program | |
JP2007228101A (en) | Dynamic-image coding equipment | |
JP7499069B2 (en) | Image encoding device, image decoding device, and programs thereof | |
JP2012054618A (en) | Moving image encoding apparatus and encoding method, and moving image decoding apparatus and decoding method | |
JP2009017107A (en) | Video encoder and video encoding method | |
KR20150113715A (en) | Method and device for creating moving information using depth information, method and device for creating merge candidates using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100331 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111206 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111208 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141216 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4885929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |