JP6574976B2 - 動画像符号化装置および動画像符号化方法 - Google Patents

動画像符号化装置および動画像符号化方法 Download PDF

Info

Publication number
JP6574976B2
JP6574976B2 JP2015043073A JP2015043073A JP6574976B2 JP 6574976 B2 JP6574976 B2 JP 6574976B2 JP 2015043073 A JP2015043073 A JP 2015043073A JP 2015043073 A JP2015043073 A JP 2015043073A JP 6574976 B2 JP6574976 B2 JP 6574976B2
Authority
JP
Japan
Prior art keywords
candidate list
generated
image
blocks
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015043073A
Other languages
English (en)
Other versions
JP2015195575A (ja
Inventor
耕治 有村
耕治 有村
一仁 木村
一仁 木村
秀之 大古瀬
秀之 大古瀬
荒川 博
博 荒川
安倍 清史
清史 安倍
和真 榊原
和真 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015043073A priority Critical patent/JP6574976B2/ja
Priority to US14/660,419 priority patent/US9473787B2/en
Publication of JP2015195575A publication Critical patent/JP2015195575A/ja
Application granted granted Critical
Publication of JP6574976B2 publication Critical patent/JP6574976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本開示は、動画像符号化装置および動画像符号化方法に関するものである。
ITU−TとISO/IECとの共同によるHEVC(High Efficiency Video Coding)と呼ばれる次世代動画像符号化方式の標準化活動が進んでいる。例えば、HEVC規格書(ドラフト) (High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Last Call))に開示されている。
従来のH.264の動画像符号化規格では、縦横が16画素×16画素のサイズのマクロブロックを単位として符号化が行われていた。一方、HEVCでは、縦横が16画素×16画素のサイズのみならず、図1に示すように、64画素×64画素、32画素×32画素、16画素×16画素、8画素×8画素の4種類のサイズのいずれかであるCU(Cording Unit)を単位として符号化が行なわれる。また、図1に示すように、CU内での画面間予測に用いられるPU(Prediction Unit)のサイズは、色々なサイズが選択可能となっている。
また、H.264の動画像符号化規格では、動きベクトルの符号化について、ダイレクトモード(Direct Mode)が採用されていた。H.264のダイレクトモードでは、カレントのマクロブロックの動きベクトルを、空間や時間の近傍のマクロブロックからひとつ決定する。一方、HEVCにおいては、ダイレクトモードよりも符号化効率を高めるため、マージモード(Merge Mode)が導入されている。HEVCのマージモードでは、カレントのPUの空間や時間の近傍のPUから、最大5つの動きベクトルの候補をインデックス情報として有する動きベクトル候補リスト(以下、「マージ候補リスト」と称する)を作成する。マージ候補リスト中から動きベクトルを選択して、選択した動きベクトルのマージ候補リスト上のインデックス(以下、「マージ候補インデックス」と称する)をPU毎に符号化することにより、符号化効率の向上を実現している。(例えば、非特許文献1を参照)
HEVC規格書(ドラフト) (High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Last Call))
マージモードでは、ひとつのCUサイズにつき、8種類のPUサイズを選択することができる。この場合、8種類の各PUについて、最大5つの動きベクトルの候補をインデックス情報として有するマージ候補リストを生成することになる。これら全てのPUサイズについて生成された全てのマージ候補リストに記載される動きベクトルの候補を評価する場合、処理量が大きくなってしまう。そして、実時間での符号化処理を実現しようとすると、回路規模の増大を招くことになる。しかしながら、マージモードを実施する際に処理量を減らすために、実際に評価するPUサイズまたは動きベクトルの候補を単純に制限すると符号化効率が低下する。
そこで、本開示は、回路規模の増大を抑えつつ、符号化効率低下を抑制できる動画像符号化装置を提供する。
本開示における動画像符号化装置は、符号化の対象である原画像を取得する取得部と、取得した原画像を所定の領域毎に少なくとも画面間予測し、候補となる動きベクトルのインデックスが複数個記載された候補リストから、少なくとも一つのインデックスを参照して、領域の予測画像を生成する予測画像生成部と、領域毎に生成した予測画像それぞれと、原画像における画像であって予測画像に対応する画像とを差分演算し、原画像に対する残差成分を生成する差分演算部と、残差成分を符号化処理することにより、出力用の画像ストリームを生成する符号化部と、を備える。
ここで、予測画像生成部は、原画像を分割した画面間予測用のブロックにおいて、動画像符号化規格に規定される複数のブロックのうち、少なくとも3つ以上のブロックそれぞれについて、画面間予測のときに参照するために、候補となる動きベクトルのインデックスが複数個記載された候補リストを生成し、生成した候補リストに記載されたインデックスを利用して、候補リストを生成したブロックそれぞれについて、インデックスを利用した際の符号化効率を示す評価値を算出し、算出した評価値に基づいて前記予測画像を生成する。そして、少なくとも3つ以上のブロックそれぞれの候補リストに共通して候補とされた動きベクトルが含まれる場合、共通の動きベクトルを少なくとも1つ含むように、前記生成した候補リストから前記評価値の算出に利用するインデックスを設定し、前記候補リストを生成する場合、1つのブロック内に他の2つのブロックが含まれる関係にある3つのブロックについて候補リストを生成する
本開示における動画像符号化装置は、2つのPUブロックにおいて生成されるマージ候補リストに記載される動きベクトル候補のコスト評価処理を用いて、この2つのPUブロックとは異なる他のPUブロックのコスト処理を実施する。このように、2つのPUブロックで得られるコスト評価値を流用するため、実際にコスト評価値を算出したPUブロック以外のPUブロックにおける評価値算出のための処理量を増加させずにマージモードで処理することができる。これにより、回路規模の増大を抑えつつ、符号化効率低下の抑制を実現できる。
HEVCの選択可能なブロックのサイズを説明するための図である。 本実施形態1に係る動画像符号化装置を示す模式図である。 HEVCのPUサイズを説明するための図である。 HEVCのマージ候補を説明するための図である。 HEVCのマージ候補を説明するための図である。 HEVCのマージ候補を説明するための図である。 本実施形態1でのマージモードのコスト評価処理を説明するための図である。 本実施形態1でのマージモードのコスト評価処理の評価値を表す式である。 本実施形態1でのマージモードのコスト評価処理の評価値を表す式である。 本実施形態1での2つ評価PUと包含PUのマージ候補リストの動きベクトルの例を表す図である。 本実施形態1での選択された評価対象のマージ候補を説明する図である。 2つの評価PUの予測残差と包含PUの予測残差の関係を表す図である。 包含PUの予測残差を求める式である。 包含PUの予測残差を求める式である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
実施の形態1にかかる動画像符号化装置100は、例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、携帯情報端末及びパーソナルコンピュータなどに搭載されたマイクロプロセッサにより実現される。動画像符号化装置100は、動画規格であるHEVCに従って、動画像データの符号化処理を実施する。
動画像符号化装置100は、マージモードを評価するPU(評価PU)のブロックサイズを制限し、評価対象のマージ候補の数を制限する。評価PUがCUを分割するブロックサイズの場合、評価PUを包含するブロックサイズを持つPU(包含PU)のマージ候補リストと、複数の評価PUのそれぞれのマージ候補リストに共通のマージ候補を、評価PUのマージ候補リストから評価対象のマージ候補として少なくとも1つ選択する。評価PUのコスト評価処理を行う際に、計算した予測残差を用いて包含PUのコスト評価処理を同時に実施する。これにより、回路規模の増大を抑えつつ、符号化効率低下の抑制を実現できる。
以下、実施の形態1にかかる動画像符号化装置100の構成及び動作について図面を参照しながら説明する。
〔1−1.動画像符号化装置の構成〕
動画像符号化装置100の構成について説明する。図2は、実施の形態1に係る動画像符号化装置100の構成を示すブロック図である。
図2に示すように、動画像符号化装置100は、ピクチャメモリ101と、ブロック分割部102と、直交変換ブロックサイズ決定部103と、残差係数符号化部104と、残差係数復号化部105と、ピクチャバッファ106と、画面間予測処理部107と、画面内予測処理部108と、切替部109と、符号列生成部110と、加算演算部111と、差分演算部112を備えている。この構成により、動画像符号化装置100は、ピクチャ単位で入力された画像を制御ブロックに分割する。そして、動画像符号化装置100は、この制御ブロック単位で符号化処理し、符号列を生成する。
以下、動画像符号化装置100の各構成を順に説明する。
ピクチャメモリ101は、表示装置に表示される順番に沿って、ピクチャ単位で画像信号を入力する。ピクチャメモリ101は、入力した画像信号を、符号化する順番にピクチャ単位で並び替えて格納する。ピクチャメモリ101は、ブロック分割部102からの読出し命令を受け付けると、読出し命令にかかる入力画像信号であるピクチャをブロック分割部102および画面内予測処理部108に出力する。
ブロック分割部102は、ピクチャメモリ101から順次入力されるピクチャを、符号化処理の基本単位であるCUに分割する。このとき、ブロック分割部102は、CUのサイズを、HEVCに規定されたブロックサイズの中から選択する。図1に示すように、ブロック分割部102は、CUサイズとして、64画素×64画素、32画素×32画素、16画素×16画素、8×8画素の4種類のブロックサイズの中から選択できる。一般的に、ブロック分割部102は、入力されたピクチャの画素構成や対象物の動きが複雑な領域では小さなブロックサイズを選択する。一方、入力されたピクチャの画素構成や対象物の動きが単純な領域では大きなブロックサイズを選択する。ブロック分割部102は、CUに分割したピクチャを、画面間予測処理部107、画面内予測処理部108、差分演算部112に出力する。なお、ブロック分割部102が出力するブロックは、一つのCUであってもよいし、複数のCUをまとめたCTU(Cording Tree Unit)であってもよい。本実施形態では、このCUまたはCTUが制御ブロックに対応する。後段の処理は、ブロック分割部102が出力するCUブロック単位又は複数のCUをまとめたCTUブロック単位で処理が行われる。説明の便宜上、以下の説明においてはCUを処理する構成について説明する。
画面間予測処理部107は、CUに属する画素に対して、CUサイズ以下のブロックサイズを有する予測処理用のブロックを設定し、この予測処理用のブロック毎に予測画像を生成する。より具体的には、画面間予測処理部107は、ブロック分割部102から入力されるCUに基づいて、ピクチャバッファ106に格納されている既に符号化済みの過去のピクチャの再構成画像を用いて画面間予測処理する。画面間予測処理では、符号化対象とするブロックの画素構成と最も類似度の高い画素構成を持った領域を、既に符号化済みの別のピクチャの再構成画像の中から探索する(以下、「動き探索」と称する)。そして、画面間予測処理部107は、いずれのピクチャの再構成画像を参照するか、及び、参照先のピクチャにおいて、符号化対象とするブロックに対応する位置からどの程度ずれた位置の再構成画像を参照するかを決定することで、予測画像を生成する(以下、「動き補償」と称する)。
このとき、画面間予測処理部107は、CU単位のブロックをさらに分割したPUのブロック単位で動き補償を行う。図1に示すように、HEVCでは、例えばCUが32画素×32画素のブロックサイズの場合、32画素×32画素、32画素×16画素、16画素×32画素、16画素×16画素、32画素×8画素、32画素×24画素、8画素×32画素、24画素×32画素の8種類のブロックサイズの中から、PUのブロックサイズを選択できる。より具体的には、CUは、図3に示すようにPUのブロックサイズに分割される。ブロック301は、2N画素×2N画素(例えば、32画素×32画素)のブロックサイズの1つのPUからなるブロックである。ブロック302は、N画素×2N画素(例えば、16画素×32画素)のブロックサイズの2つのPUからなるブロックである。ブロック303は、2N画素×N画素(例えば、36画素×16画素)のブロックサイズの2つのPUからなるブロックである。ブロック304は、N画素×N画素(例えば、16画素×16画素)のブロックサイズの4つのPUからなるブロックである。ブロック305は、2N画素×nU画素(例えば、上部に32画素×8画素及び、下部に32画素×24画素)のブロックサイズの2つのPUからなるブロックである。ブロック306は、2N画素×nD(例えば、上部に32画素×24画素及び、下部に32画素×8画素)のブロックサイズの2つのPUからなるブロックである。ブロック307は、nL画素×2N画素(例えば、左部に8画素×32画素及び、右部に24画素×32画素)のブロックサイズの2つのPUからなるブロックである。ブロック308は、nR画素×2N画素(例えば、左部に24画素×32画素及び、右部に8画素×32画素)のブロックサイズの2つのPUからなるブロックである。
一般的に、画面間予測処理部107は、入力されたCUの画素構成が複雑なときは小さなサイズのPUを選択する一方、入力されたCUの画素構成が単純なときは大きなサイズのPUを選択する。
画面内予測処理部108は、ブロック分割部102が出力するCU毎に、当該CUの近傍画素であって既に符号化済みの画素を、ピクチャバッファ106より取得する。そして画面内予測処理部108は、この取得した画素を用いて画面内予測画像を生成する。なお、画面内予測処理での予測処理用のブロックは、原則、CUと同じサイズのブロックが用いられる。例外として、CUサイズが最小の場合にのみ、水平2分割、垂直2分割した予測処理用のブロックを用いることが許される。
切替部109は、画面間予測処理部107と画面内予測処理部108との、それぞれが生成する予測画像のうち、より符号化効率が良い方の予測画像を選択して、差分演算部112へと出力する。切替部109は、例えば、予測残差の符号化に要する情報量と、動きベクトル等のサイド情報量とを、最小とするように、画面内もしくは画面間のいずれかの予測方法を選択する。
差分演算部112は、ブロック分割部102から入力されるCU単位の入力画像と、切替部109から入力されるCU単位の予測画像との差分値である差分画像を生成する。差分演算部112は、生成した差分画像を直交変換ブロックサイズ決定部103に出力する。
直交変換ブロックサイズ決定部103は、図1に記載されたTU(Transform Unit)サイズにより、符号化効率の観点で最適なブロックサイズを決定する。例えば、入力された差分画像を、それぞれのTUサイズでアダマール変換して得られる情報量を比較してTUサイズを決定するようにしても良い。
残差係数符号化部104は、設定したTUのブロック毎に、直交変換および量子化処理し、残差係数を生成する。そして、残差係数符号化部104は生成した残差係数を符号列生成部110に出力する。より具体的には、残差係数符号化部104は、直交変換ブロックサイズ決定部103において決定されたブロックサイズのTUを処理単位として、差分演算部112において生成された差分画像に対して直交変換処理する。さらに残差係数符号化部104は、得られた各周波数成分の直交変換係数に対し量子化処理を行うことで残差係数信号を生成する。
残差係数復号化部105は、直交変換ブロックサイズ決定部103において決定されたブロックサイズのTUを処理単位として、残差係数符号化部104から入力される残差係数信号に対して逆量子化処理する。さらに残差係数復号化部105は、逆直交変換処理を行うことで再構成差分画像を生成する。
加算演算部111は、残差係数復号化部105から入力される再構成差分画像と、切替部109から入力される予測画像とをCU単位で加算することにより再構成画像を生成する。
ピクチャバッファ106は、加算演算部111から入力される再構成画像を格納する。ピクチャバッファ106に格納された再構成画像は、現在の符号化対象ピクチャより時間的に後に符号化するピクチャの画面間予測処理で参照される。或いは、符号化順でより後に符号化するCUの画面内予測処理で参照される。
符号列生成部110は、残差係数符号化部104から入力される残差係数信号、およびその他の復号化処理時に必要となる符号化情報信号に対して、可変長符号化および算術符号化を行うことで符号列を生成する。
〔1−2.マージモードで画面間予測処理する際の動作の詳細〕
上述のとおり、画面間予測処理部107は、符号化対象とするブロックについて、動き探索し、探索された再構成画像内の領域を予測画像として生成して動き補償する。動き探索において、画面間予測処理部107は、通常の画面間予測による評価と、マージモードによる評価とを行う。画面間予測処理部107は、これらの評価結果に基づいて、最適なPUサイズと動きベクトルを求める。
通常の画面間予測では、PUごとに、予測方向情報、参照ピクチャインデックス、動きベクトル(符号化されるのは予測ベクトルとの差分値)等を含む動き関連情報を符号化する必要がある。予測方向情報は、カレントのピクチャに対して、時間的に前方向か後方向かを示す情報である。参照ピクチャインデックスは、カレントのピクチャの前方向に参照される前方向参照ピクチャリストにおけるインデックス、或いは、後方向に参照される後方向参照ピクチャリストにおけるインデックスである。
一方、マージモードは、通常の画面間予測では必要であった動き関連情報を用いず、規格上規定される動きベクトルの候補(以下、マージ候補と称す)が複数個記載されるマージ候補リストを生成することにより符号化効率を向上させる。より具体的には、マージモードでは、符号化対象であるPUに対して空間的または時間的に近傍(近接近傍)のPUにおける動き情報をマージ候補としてリスト化したマージ候補リストを生成する。マージ候補リストにおいて、マージ候補は、空間的または時間的に近傍のPUにおける動き情報を示すインデックス情報として規定される。すなわち、マージ候補リストに規定されるインデックス情報は、予測方向情報、参照ピクチャインデックス、動きベクトルのすべてを包含した情報となる。
そして、画面間予測処理部107は、マージモードにおいて、マージ候補リストに記載されるマージ候補のうち好適なマージ候補を選択し、その選択したマージ候補が示す動きベクトルにより実際の予測画像を生成する。
マージ候補リストに追加される最大候補数は、規格上は最大5個となっており、スライスヘッダに記述されるパラメータによって決定される。マージ候補リストに追加されるマージ候補には、空間候補、時間候補、結合双方向候補、ゼロベクトル候補がある。マージ候補リストには、空間候補、時間候補、結合双方向候補、ゼロベクトル候補の順に候補が追加される。
図4A〜図4Cを用いて、PUのマージ候補リストの作成方法を説明する。
図4Aは、カレントのPU401について、空間候補の位置を示す図である。画面間予測処理部107は、空間候補として、PU401の周囲に存在するA1、B1、B0、A0、B2の画素の順番で評価する。画面間予測処理部107は、これらの画素の位置の動き情報が有効な場合のみマージ候補リストに追加する。また、動き情報が重複する候補がある場合、画面間予測処理部107はマージ候補リストへの追加を行わない等の規則に従う。画面間予測処理部107は、最大4個の空間候補をマージ候補リストに追加する。
図4Bは、時間候補の位置を示す図である。画面間予測処理部107は、時間候補として、時間近傍の参照ピクチャ上で、カレントのPU402の近傍にあるC0、C1の画素の順番で、動き情報が有効かの評価を行う。そして、画面間予測処理部107は、最大1個の時間候補をマージ候補リストに追加する。画面間予測処理部107は、時間近傍の参照ピクチャをスライスヘッダに記述されるパラメータで決定する。
空間候補及び時間候補では、マージ候補リストの候補数が最大候補数(5個)に満たない場合、画面間予測処理部107は、結合双方向候補をマージ候補リストに追加する。結合双方向予測では、画面間予測処理部107は既にマージ候補リストに追加された候補(空間候補或いは時間候補)を使って、双方向予測のマージ候補を作成する。図4Cは、結合双方向予測のList0側とList1側のマージ候補インデックスの組み合わせを示す表である。l0CandIdxは、List0側の組み合わせ候補となるマージ候補インデックスを示す。また、l1CnadIdxは、List1側の組み合わせ候補となるマージ候補インデックスを示す。空間候補、時間候補を追加した後に現在のマージ候補リストの候補数が2個の場合、組み合わせ数は2となる。そこで、画面間予測処理部107は、CombIdxが0から1までの2つの組み合わせを評価してマージ候補リストへ追加する。また、現在のマージ候補リストの候補数が3個の場合、組み合わせ数は6となる。そこで、画面間予測処理部107は、CombIdxが0から5までの6つの組み合わせを評価してマージ候補リストへ追加する。さらに、現在のマージ候補リストの候補数が4候補の場合、組み合わせ数は12となる。そこで、画面間予測処理部107はCombIdxが0から11までの12の組み合わせを評価して、マージ候補リストへ追加する。なお、現在のマージ候補リストの候補数が1個の場合、画面間予測処理部107は結合双方向候補の追加を行わない。
結合双方向候補を追加した後、それでもマージ候補リストの候補数が最大候補数(5個)に満たない場合、画面間予測処理部107は、ゼロベクトル候補をマージ候補リストに追加する。すなわち、画面間予測処理部107は、動きベクトル値を(0,0)とし、参照画像をList0側とList1側を共に0からインクリメントしてゼロベクトル候補を作成する。そして、画面間予測処理部107は、作成したゼロベクトル候補をマージ候補リストに追加する。
以上の手順により、画面間予測処理部107は、PU毎にマージ候補リストを作成する。
続いて、マージ候補リストに記載される候補の中から、コスト評価処理のときに利用する候補を選択する動作について説明する。
マージモードのコスト評価処理は、CU毎に最適なPUサイズおよびマージ候補を選択する処理である。例えば、画面間予測処理部107は、予測残差の符号化に要する情報量と、動きベクトル等のサイド情報量とを評価値とし、これらの評価値を最小とするようにマージ候補リストからマージ候補を選択する。この場合、画面間予測処理部107は、評価値として予測残差を利用する。画面間予測処理部107は、生成される予測画像と、符号化対象の画像との差分から、予測残差を算出する。ここで、画面間予測処理部107は、ピクチャバッファ106に保存された再構成画像のうち、マージ候補リストに記載される候補が示す動きベクトルによって特定される画素から予測画像を生成する。通常は、この動きベクトルは非連続な位置を指し示すため、ピクチャバッファ106のランダム位置へのアクセスとなる。そのため、連続位置の画素を読み出す場合に比べ、転送時間が必要である。また、ほとんどの予測画像は、再構成画像に水平と垂直方向に8タップのフィルタ処理で導出するため、CU内の画素とその周辺の4画素の読み出しが必要である。フィルタ処理は、CU内の全画素に実施するため、計算量の多い処理である。
マージモードを含む画面間予測では、図3に示すように、ひとつのCUサイズにつき、ブロック301〜308の8種類のPUサイズが選択可能である。また、マージモードでは、各PUが最大5候補の動き情報をリスト化したマージ候補リストを個々に持つ。そのため、これら全てのPUサイズと全てのマージ候補の評価は、実時間での符号化処理の実現しようとした場合に、回路規模の増大を招く。
そこで、画面間予測処理部107は、評価値の算出のために予測画像を生成するPU(以下、評価PUと称す)のブロック数を制限しかつ、マージ候補リストに記載されるマージ候補のうち実際に評価対象とするマージ候補の数を制限する。
さらに、評価PUが1つのCUを分割するブロックサイズの場合(例えば、図3におけるブロック302〜308)、評価PUを包含するPU(例えば、図3におけるブロック301。以下、包含PUと称す)のマージ候補リストと、包含PUに内包された関係にある複数の評価PUのそれぞれのマージ候補リストに共通のマージ候補を、実際に評価するマージ候補として少なくとも1つ選択して、評価PUの予測画像を生成する。
例えば、動画像符号化の規格上、図3に示す8種類のブロックを任意に選択できる場合であっても、画面間予測処理部107は、評価PUを、ブロック302におけるPU0およびPU1に制限する。そして、画面間予測処理部107は、ブロック302におけるPU0およびPU1について実際に予測画像を生成し、マージモードにおける評価値を算出する。このとき、画面間予測処理部107は、評価PUではないブロック301(評価PUであるPU0及びPU1を包含する包含PU)におけるPUについてもマージ候補リストを生成する。しかし、この包含PUは評価PUではないため、画面間予測処理部107は、実処理としては予測画像を生成しない。
このとき、画面間予測処理部107は、各PUにおいて生成されるマージ候補リストに記載される最大5個のマージ候補のうち、実際に評価対象となるマージ候補を、例えば3個に制限する。
具体的には、評価PUがブロック302におけるPU0およびPU1である場合、画面間予測処理部107は、ブロック301のPU、ブロック302におけるPU0およびPU1の3個のPUそれぞれについて生成されたマージ候補リストに記載されるマージ候補のうち、3個のPU全てに共通のマージ候補から少なくとも1つを実際に評価対象となるマージ候補として選択する。これにより、画面間予測処理部107は、ブロック302におけるPU0およびPU1で生成した予測画像を、ブロック301におけるPUにおいて流用することができる。すなわち、画面間予測処理部107は、ブロック301のPUにおいて実処理として予測画像を生成する処理を省略しながら、このブロック301のPUについても評価値を算出することができる。
以上から、画面間予測処理部107は、予測残差計算の処理量を増加させずに、評価対象のPUと包含関係にあるPUのマージモードのコスト評価処理が可能となる。その結果、回路規模を増やさずに処理時間の縮小や符号化効率の向上を実現できる。
続いて、画面間予測処理部107におけるマージモードのコスト評価処理動作について、フローチャートを用いて説明する。図5は、画面間予測処理部107におけるマージモードのコスト評価処理動作の流れを示すフローチャートである。
まず、画面間予測処理部107は、評価PUのブロックサイズを決定する(S501)。例えば、画面間予測処理部107は、ブロック301におけるPUのブロックサイズ、ブロック302におけるPU0のブロックサイズ、ブロック302におけるPU1のブロックサイズのいずれを評価PUとするか決定する。この場合、画面間予測処理部107は、CUにおける原画像の特徴量から決定する。一般的に、入力されたCUの画素構成が複雑なときは小さなサイズのPUを選択する一方、入力されたCUの画素構成が単純なときは大きなサイズのPUを選択する。或いは、ブロックマッチングを利用した画面間予測の動き探索の結果から得られたPUサイズを評価PUのブロックサイズとして決定してもよい。
次に、画面間予測処理部107は、評価PUがCUを分割しないブロックサイズ(ブロック301のPART_2Nx2N)か否かを判断する(S502)。画面間予測処理部107は、評価PUがCUを分割しないブロックサイズである場合(S502におけるYes)、S503に移行する。一方、画面間予測処理部107は、評価PUがCUを分割するブロックサイズである場合(S502におけるNo)、S506に移行する。
次に、評価PUがCUの分割をしない場合、画面間予測処理部107は、評価PUのマージ候補リストを作成し、コスト評価処理を行うN個(最大候補数未満、例えば3個)の評価対象のマージ候補を選択する(S503)。このとき、画面間予測処理部107は、評価対象のマージ候補を、マージ候補リストの先頭からN個選択してもよいし、時間候補などの特定の候補が含まれるようにN個を選択してもよい。
次に、画面間予測処理部107は、選択したN個の評価対象のマージ候補についてコスト評価処理を行う(S504)。そして、最適なマージ候補を一つ決定する(S505)。このマージ候補についてのコスト評価処理において、画面間予測処理部107は、予測残差の符号化に要する情報量と、ヘッダ等のサイド情報量を見積もる評価値とを計算し、これらの和の値を最小とするマージ候補を決定する。
図6A,図6Bは、マージ候補のコスト評価処理における評価値の式を示している。図6Aは、予測残差の符号化に要する情報量を予測残差の絶対値和(SAD)としている。また、サイド情報量をマージインデックスのパラメータ等の換算値(Cost_Header)としている。そして、SADとCost_Headerとの和(Cost_PU)を評価値とする。
一方、図6Bは、予測残差の符号化に要する情報量を自乗和(SSD)としている。サイド情報量をマージインデックスのパラメータ等の換算値(Cost_Header)としている。そして、SSDとCost_Headerとの和(Cost_PU)を評価値とする。
サイド情報量の計算式には、動きベクトルと予測ベクトルとの差分値と、量子化値の演算が含まれる。一般的に、予測残差のSADやSSDの計算処理は、例えば、16画素x16画素のブロック内の画素毎の差分演算と絶対値演算や自乗演算であり、演算量が多い。一方、サイド情報の計算値は、1つまたは2つの動きベクトルの差分値計算と乗算計算であり、演算量が少ない。
以下、評価PUがCUを分割するブロックサイズ(PART_2Nx2N以外のブロックサイズ)の場合(S502におけるNo)を説明する。ここでは、例として、評価PUを、ブロック302(PART_Nx2N)のPU0、PU1の2つとする。
画面間予測処理部107は、CUを分割した2つの評価PU(ブロック302のPU0,PU1)とそのPUを包含するPU(ブロック301のPART_2Nx2N)の3つのPUで、共通のマージ候補を少なくとも1つ含むように、2つの評価PU(PU0,PU1)のそれぞれのマージ候補リストから、それぞれN個の評価対象のマージ候補を選択する(S506)。
具体的な、マージ候補の選択方法について、図面を用いて説明する。まず、図7は、2つ評価PU(PU0、PU1)と、包含PU(PART_2Nx2N)のマージ候補リストの動きベクトルの例を表す図である。ここでは、説明を簡単にするために、全てのマージ候補の参照画像は同じものとし、異なるのは導出された動きベクトルのみとする。まず、画面間予測処理部107は、3つのマージ候補リストの中からすべてに共通のマージ候補を選択する。ここでは、動きベクトル MV_c、MV_eが3つのマージ候補リストに共通である。具体的には、PART_2Nx2Nのマージインデックス2(MrgIdx=2)、PART_Nx2NのPU0のマージインデクス3(MrgIdx=3)、PART_Nx2NのPU1のマージインデクス0(MrgIdx=0)が、動きベクトルMV_cをもつ。また、PART_2Nx2Nのマージインデックス4(MrgIdx=4)、PART_Nx2NのPU0のマージインデクス4(MrgIdx=4)、PART_Nx2NのPU1のマージインデクス1(MrgIdx=1)が、動きベクトルMV_eをもつ。このように、3つのマージ候補リストに共通なマージ候補が複数ある場合、画面間予測処理部107は、包含PU(PART_2Nx2NのPU)のマージ候補リストの先頭に近い順で選択する。先頭の近いマージ候補の方が、符号量の小さく符号化効率がよいためである。また、選択するマージ候補数は1つが望ましい。複数の共通なマージ候補を選択すると、評価対象のマージ候補数(N個)が少ない場合、評価PUのマージ候補リストの先頭に近いマージ候補や、時間候補等の特定のマージ候補を評価対象とすることができなくなり、符号化効率が落ちるためである。ここでは、画面間予測処理部107は、3つのマージ候補リストに共通のマージ候補であり、包含PUのマージ候補リストの先頭に近いインデックスを示す動きベクトルMV_cをもつマージ候補を含むよう、各PUで評価対象とするマージ候補をN個選択する。
図8は、マージ候補リストの中から選択された評価対象のマージ候補を説明する図である。ここでは、評価対象のマージ候補を2個とする(N=2)。この場合、画面間予測処理部107は、PART_Nx2NのPU0のマージ候補リストで、MV_cの動きベクトルをもつマージインデックス3(MrgIdx=3)のマージ候補を評価対象とする。同様に、画面間予測処理部107は、PART_Nx2NのPU1のマージ候補リストで、MV_cの動きベクトルをもつマージインデックス0(MrgIdx=0)のマージ候補を評価対象とする。
画面間予測処理部107は、PART_Nx2NのPU0、PU1の両者について、共通なマージ候補に対するもう一つの評価対象のマージ候補を、マージ評価リストの中から任意に選択する。ここでは例として、画面間予測処理部107は、マージ候補リストの先頭から順に選択する。すなわち、PART_Nx2NのPU0については、マージインデックス0(MrgIdx=0)に示される動きベクトルMV_aのマージ候補を評価対象とする。同様に、PART_Nx2NのPU1については、マージインデックス1(MrgIdx=1)に示される動きベクトルMV_eのマージ候補を評価対象とする。これにより、PART_Nx2NのPU0が評価対象とするマージ候補の動きベクトルは、{MV_c、MV_a}となる。一方、PART_Nx2NのPU1が評価対象とするマージ候補の動きベクトルは、{MV_c、MV_e}となる。
もし、3つのマージ候補リストに共通なマージ候補がひとつもない場合、画面間予測処理部107は、評価PU毎に独自に評価PUをN個選択する。マージ候補リストの先頭からN個選択してもよいし、時間候補などの特定の候補が含まれるようにN個を選択してもよい。
なお、ピクチャバッファ106へのランダム位置へのアクセス回数増加などが原因で、評価PUのマージ評価処理が、包含PUのマージ評価処理よりも処理時間を費やす場合、画面間予測処理部107は、3つのマージ候補に共通なマージ候補をできるだけ多く選択して、処理時間を短縮させてもよい。
次に、画面間予測処理部107は、PART_Nx2Nの各PU(PU0、PU1)に対して、評価対象のマージ候補について第1のコスト評価処理を行う(S507)。そして、最小の評価値をもつマージ候補を、最適なマージ候補として選択する(S508)。
さらに、画面間予測処理部107は、既に計算したPART_Nx2Nの各PUの予測残差の計算値(SADまたは、SSD)を使って、PART_2Nx2NのPUに対して、評価対象のマージ候補について第2のコスト評価処理を行う(S509)。具体的に、画面間予測処理部107は、評価PUと共通する動きベクトルMV_cをもつマージインデックス2のマージ候補の評価値を計算する。そして、PART_Nx2Nの2つのPU(PU0,PU1)の最小の評価値の和と、PART_2Nx2NのPUの評価値とを比較し、小さな値を持つ方を最適なPUサイズ及び最適なマージ候補として選択する。(S510)。
図9Aは、2つの評価PUの予測残差と包含PUの予測残差の関係を表す図である。2つの評価PUの予測残差の和が包含PUの予測残差となる。図9Bは、予測残差の計算値を絶対値和(SAD)とした場合、図9Cは、自乗和(SSD)とした場合の包括PUの予測残差を求める計算式である。2つの評価PU(PU0、PU1)の予測残差の計算値の和を、包含PUの予測残差の計算値とする。つまり、包含PUの予測残差の計算値は、既に計算した2つの評価PUで求めることが可能であり、演算量が多い予測残差を新たに計算する必要がない。そのため、処理量を増加させずに、複数のPUサイズのマージのコスト評価処理が可能となる。その結果、符号化効率の向上を実現する。
〔1−3.まとめ〕
上記のように本実施形態における動画像符号化装置100は、符号化の対象である原画像を取得するピクチャメモリ101と、取得した原画像を所定の領域毎に少なくとも画面間予測し、候補となる動きベクトルのインデックスが複数個記載された候補リストから、少なくとも一つのインデックスを参照して、領域の予測画像を生成する画面間予測処理部107と、領域毎に生成した予測画像それぞれと、原画像における画像であって予測画像に対応する画像とを差分演算し、原画像に対する残差成分を生成する差分演算部112と、残差成分を符号化処理することにより、出力用の画像ストリームを生成する残差係数符号化部104および符号列生成部110と、を備える。
ここで、画面間予測処理部107は、原画像に対して適用する画面間予測用のブロックであって、HEVCに規定される複数のブロックのうち、少なくとも3つ以上のブロックそれぞれについて、画面間予測のときに参照するために、候補となる動きベクトルのインデックスが複数個記載された候補リストを生成し、生成した候補リストに記載されたインデックスを利用して、候補リストを生成したブロックそれぞれについて、インデックスを利用した際の符号化効率を示す評価値を算出し、算出した評価値に基づいて予測画像を生成する。そして、少なくとも3つ以上のブロックそれぞれの候補リストに共通して候補とされた動きベクトルが含まれる場合、共通の動きベクトルを少なくとも1つ含むように、生成した候補リストから評価値の算出に利用するインデックスを設定する。
すなわち、動画像符号化装置100は、2つのPUブロック(例えば、PART_Nx2NのPU0、PU1)において生成されるマージ候補リストに記載される動きベクトル候補のコスト評価処理を用いて、この2つのPUブロックとは異なる他のPUブロック(他例えば、PART_Nx2NのPU0、PU1を包含するPART_2Nx2NのPU)のコスト処理を実施する。このように、2つのPUブロックで得られるコスト評価値を流用するため、実際にコスト評価値を算出したPUブロック以外のPUブロックにおける評価値算出のための処理量を増加させずにマージモードで処理することができる。これにより、回路規模の増大を抑えつつ、符号化効率低下の抑制を実現できる。
また、好ましくは、画面間予測処理部107は、生成した候補リストに記載されたインデックスのうち一部のインデックスのみを利用して、候補リストを生成したブロックそれぞれについて一部のインデックスを利用した際の符号化効率を示す評価値それぞれを算出する。これにより、より符号化効率低下の抑制を実現できる。
また好ましくは、画面間予測処理部107は、複数のマージ候補リストに共通のマージ候補(動きベクトル)が複数個含まれる場合、複数の共通のマージ候補(動きベクトル)のうち1つのマージ候補(動きベクトル)を含むように、生成したマージ候補リストから評価値の算出に利用する一部のマージ候補(インデックス)を設定する。
また、好ましくは、画面間予測処理部107は、複数のマージ候補リストに共通のマージ候補(動きベクトル)が複数個含まれる場合、数の共通のマージ候補(動きベクトル)のうち、マージ候補リストの先頭により近い位置に記載されるマージ候補(動きベクトル)を1つ含むように、生成したマージ候補リストから評価値の算出に利用する一部のマージ候補(インデックス)を設定する。
また、好ましくは、画面間予測処理部107は、マージ候補リストを生成する場合、1つのブロック内に他の2つのブロックが含まれる関係にある3つのブロックについてマージ候補リストを生成する。例えば、PART_Nx2NのPU0、PU1、PART_Nx2NのPU0、PU1を包含するPART_2Nx2NのPUの3つのブロックについてマージ候補リストを生成する。
また、好ましくは、画面間予測処理部107は、3つのブロックで生成したマージ候補リストそれぞれについて共通のマージ候補(動きベクトル)が含まれる場合にのみ、3つのブロックにおいて評価値の算出に利用する一部のマージ候補(インデックス)に共通のマージ候補(動きベクトル)が含まれるように設定する。
また、好ましくは、画面間予測処理部107は、3つのブロックのうち他の2つのブロックにおいて共通のマージ候補(動きベクトル)を用いて評価値を算出した際に生成された中間データを利用し、他の2つのブロックを含む最も大きなブロックにおける評価値を算出する。
本発明に係る動画像符号化装置は、映像信号を符号化して生成した符号化ストリームを蓄積、伝送する際に使用される放送業務用機器、民生用録画機、デジタルビデオカメラ、パーソナルコンピュータ、携帯電話機等に適用できる。
100 動画像符号化装置
101 ピクチャメモリ
102 ブロック分割部
103 直交変換ブロックサイズ決定部
104 残差係数符号化部
105 残差係数復号化部
106 ピクチャバッファ
107 画面間予測処理部
108 画面内予測処理部
109 切替部
110 符号列生成部
111 加算演算部
112 差分演算部
301、302、303、304、305、307、308 ブロック
401、402 PU

Claims (7)

  1. 符号化の対象である原画像を取得する取得部と、
    前記取得した原画像を所定の領域毎に少なくとも画面間予測し、候補となる動きベクトルのインデックスが複数個記載された候補リストから、少なくとも一つのインデックスを参照して、前記領域の予測画像を生成する予測画像生成部と、
    前記領域毎に生成した予測画像それぞれと、前記原画像における画像であって予測画像に対応する画像とを差分演算し、前記原画像に対する残差成分を生成する差分演算部と、
    前記残差成分を符号化処理することにより、出力用の画像ストリームを生成する符号化部と、を備え、
    前記予測画像生成部は、
    前記原画像を分割した画面間予測用のブロックにおいて、動画像符号化規格に規定される複数のブロックのうち、少なくとも3つ以上のブロックそれぞれについて、前記画面間予測のときに参照するために、候補となる動きベクトルのインデックスが複数個記載された前記候補リストを生成し、
    前記生成した候補リストに記載されたインデックスを利用して、前記候補リストを生成したブロックそれぞれについて、当該インデックスを利用した際の符号化効率を示す評価値を算出し、当該算出した評価値に基づいて前記予測画像を生成し、
    前記少なくとも3つ以上のブロックそれぞれの候補リストに共通して候補とされた動きベクトルが含まれる場合、前記共通の動きベクトルを少なくとも1つ含むように、前記生成した候補リストから前記評価値の算出に利用するインデックスを設定し、
    前記候補リストを生成する場合、1つのブロック内に他の2つのブロックが含まれる関係にある3つのブロックについて候補リストを生成する
    動画像符号化装置。
  2. 前記予測画像生成部は、生成した候補リストに記載されたインデックスのうち一部のインデックスのみを利用して、前記候補リストを生成したブロックそれぞれについて前記一部のインデックスを利用した際の符号化効率を示す評価値それぞれを算出する、請求項1に記載の動画像符号化装置。
  3. 前記予測画像生成部は、前記複数の候補リストに共通の動きベクトルが複数個含まれる場合、前記複数の共通の動きベクトルのうち1つの動きベクトルを含むように、前記生成した候補リストから前記評価値の算出に利用する一部のインデックスを設定する、請求項1に記載の動画像符号化装置。
  4. 前記予測画像生成部は、前記複数の候補リストに共通の動きベクトルが複数個含まれる場合、前記複数の共通の動きベクトルのうち、前記候補リストの先頭により近い位置に記載される動きベクトルを1つ含むように、前記生成した候補リストから前記評価値の算出に利用する一部のインデックスを設定する請求項3に記載の動画像符号化装置。
  5. 前記予測画像生成部は、前記3つのブロックで生成した候補リストそれぞれについて共通の動きベクトルが含まれる場合にのみ、前記3つのブロックにおいて前記評価値の算出に利用する一部のインデックスに前記共通の動きベクトルが含まれるように設定する請求項に記載の動画像符号化装置。
  6. 符号化の対象である原画像を取得する取得部と、
    前記取得した原画像を所定の領域毎に少なくとも画面間予測し、候補となる動きベクトルのインデックスが複数個記載された候補リストから、少なくとも一つのインデックスを参照して、前記領域の予測画像を生成する予測画像生成部と、
    前記領域毎に生成した予測画像それぞれと、前記原画像における画像であって予測画像に対応する画像とを差分演算し、前記原画像に対する残差成分を生成する差分演算部と、
    前記残差成分を符号化処理することにより、出力用の画像ストリームを生成する符号化部と、を備え、
    前記予測画像生成部は、
    前記原画像に対して適用する画面間予測用のブロックであって、動画像符号化規格に規定される複数のブロックのうち、少なくとも3つ以上のブロックそれぞれについて、前記画面間予測のときに参照するために、候補となる動きベクトルのインデックスが複数個記載された前記候補リストを生成し、
    前記生成した候補リストに記載されたインデックスを利用して、前記候補リストを生成したブロックそれぞれについて、当該インデックスを利用した際の符号化効率を示す評価値を算出し、当該算出した評価値に基づいて前記予測画像を生成し、
    前記少なくとも3つ以上のブロックそれぞれの候補リストに共通して候補とされた動きベクトルが含まれる場合、前記共通の動きベクトルを少なくとも1つ含むように、前記生成した候補リストから前記評価値の算出に利用するインデックスを設定し、
    前記候補リストを生成する場合、1つのブロック内に他の2つのブロックが含まれる関係にある3つのブロックについて候補リストを生成し
    前記3つのブロックのうち前記他の2つのブロックにおいて前記共通の動きベクトルを用いて評価値を算出した際に生成された中間データを利用し、前記他の2つのブロックを含む最も大きなブロックにおける評価値を算出する、
    動画像符号化装置。
  7. 符号化の対象である原画像を取得し、
    前記取得した原画像を所定の領域毎に少なくとも画面間予測し、候補となる動きベクトルのインデックスが複数個記載された候補リストから、少なくとも一つのインデックスを参照して、前記領域の予測画像を生成し、
    前記領域毎に生成した予測画像それぞれと、前記原画像における画像であって予測画像に対応する画像とを差分演算し、前記原画像に対する残差成分を生成し、
    前記残差成分を符号化処理することにより、出力用の画像ストリームを生成し、
    前記予測画像を生成する場合、
    前記原画像を分割した画面間予測用のブロックにおいて、動画像符号化規格に規定される複数のブロックのうち、少なくとも3つ以上のブロックそれぞれについて、前記画面間予測のときに参照するために、候補となる動きベクトルのインデックスが複数個記載された前記候補リストを生成し、
    前記生成した候補リストに記載されたインデックスを利用して、前記候補リストを生成したブロックそれぞれについて、当該インデックスを利用した際の符号化効率を示す評価値を算出し、当該算出した評価値に基づいて前記予測画像を生成し、
    前記少なくとも3つ以上のブロックそれぞれの候補リストに共通して候補とされた動きベクトルが含まれる場合、前記共通の動きベクトルを少なくとも1つ含むように、前記生成した候補リストから前記評価値の算出に利用するインデックスを設定し、
    前記候補リストを生成する場合、1つのブロック内に他の2つのブロックが含まれる関係にある3つのブロックについて候補リストを生成する
    動画像符号化方法。
JP2015043073A 2014-03-18 2015-03-05 動画像符号化装置および動画像符号化方法 Active JP6574976B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015043073A JP6574976B2 (ja) 2014-03-18 2015-03-05 動画像符号化装置および動画像符号化方法
US14/660,419 US9473787B2 (en) 2014-03-18 2015-03-17 Video coding apparatus and video coding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014054641 2014-03-18
JP2014054641 2014-03-18
JP2015043073A JP6574976B2 (ja) 2014-03-18 2015-03-05 動画像符号化装置および動画像符号化方法

Publications (2)

Publication Number Publication Date
JP2015195575A JP2015195575A (ja) 2015-11-05
JP6574976B2 true JP6574976B2 (ja) 2019-09-18

Family

ID=54143334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015043073A Active JP6574976B2 (ja) 2014-03-18 2015-03-05 動画像符号化装置および動画像符号化方法

Country Status (2)

Country Link
US (1) US9473787B2 (ja)
JP (1) JP6574976B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US11082702B2 (en) * 2017-07-03 2021-08-03 Lg Electronics Inc. Inter prediction mode-based image processing method and device therefor
KR102306562B1 (ko) * 2017-11-27 2021-09-30 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
WO2019223746A1 (en) * 2018-05-23 2019-11-28 Mediatek Inc. Method and apparatus of video coding using bi-directional cu weight
WO2020057504A1 (en) * 2018-09-17 2020-03-26 Mediatek Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
KR20210074280A (ko) * 2018-09-21 2021-06-21 브이아이디 스케일, 인크. 아핀 모델 기반 비디오 코딩에 대한 아핀 모션 추정
CN109302616A (zh) * 2018-10-09 2019-02-01 北京佳讯飞鸿电气股份有限公司 一种基于rc预测的hevc帧间预测快速算法
WO2020130714A1 (ko) * 2018-12-21 2020-06-25 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
CN113507609B (zh) * 2021-09-09 2021-11-19 康达洲际医疗器械有限公司 一种基于时空域预测的帧间图像并行编码方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102004113B1 (ko) * 2011-06-30 2019-07-25 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
GB2495990A (en) * 2011-10-28 2013-05-01 Canon Kk Motion compensated image coding with omission of coding mode cost calculation for a motion predictor in a set.
CN110198450B (zh) * 2011-11-08 2021-12-31 韩国电子通信研究院 用于共享候选者列表的方法和装置
US8964845B2 (en) * 2011-12-28 2015-02-24 Microsoft Corporation Merge mode for motion information prediction
JP5725009B2 (ja) * 2011-12-28 2015-05-27 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
US9338451B2 (en) * 2012-04-12 2016-05-10 Qualcomm Incorporated Common spatial candidate blocks for parallel motion estimation
US9591312B2 (en) * 2012-04-17 2017-03-07 Texas Instruments Incorporated Memory bandwidth reduction for motion compensation in video coding
US9699450B2 (en) * 2012-10-04 2017-07-04 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
JP5942818B2 (ja) * 2012-11-28 2016-06-29 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム

Also Published As

Publication number Publication date
US9473787B2 (en) 2016-10-18
JP2015195575A (ja) 2015-11-05
US20150271516A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP6574976B2 (ja) 動画像符号化装置および動画像符号化方法
US11375226B2 (en) Method and apparatus of video coding with affine motion compensation
US11750818B2 (en) Inter-prediction mode based image processing method, and apparatus therefor
US11490118B2 (en) Method and device for image motion compensation
JP6608994B2 (ja) 動きベクトル予測子の選択方法及び動きベクトル予測子の選択方法を利用する装置
CN110557640B (zh) 加权交织预测
JP2020523853A (ja) 動きベクトル予測
US11677973B2 (en) Merge with MVD for affine
KR102527169B1 (ko) 모션 벡터 리파인먼트를 위한 제한된 메모리 액세스 윈도우
KR20170125086A (ko) 화상 예측 방법 및 관련 장치
CN111201795B (zh) 存储访问窗口和用于运动矢量修正的填充
JP2020522913A (ja) 低減されたメモリアクセスを用いてfrucモードでビデオデータを符号化又は復号する方法及び装置
US11245916B2 (en) Memory access window for sub prediction block motion vector derivation
US20240015300A1 (en) Image encoding/decoding method and device
TWI706668B (zh) 用於視訊編解碼的幀間預測方法以及裝置
JP5479648B1 (ja) 画像符号化方法及び画像復号化方法
JP5444497B2 (ja) 画像符号化方法及び画像復号化方法
JP5571262B2 (ja) 画像符号化方法及び画像復号化方法
JP6370977B2 (ja) 画像符号化方法及び画像復号化方法
JP5659314B1 (ja) 画像符号化方法及び画像復号化方法
JP5509398B1 (ja) 画像符号化方法及び画像復号化方法
JP5571229B2 (ja) 画像符号化方法及び画像復号化方法
JP2014131293A (ja) 画像符号化方法及び画像復号化方法
JP2014131295A (ja) 画像符号化方法及び画像復号化方法
JP2015053729A (ja) 画像符号化方法及び画像復号化方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R151 Written notification of patent or utility model registration

Ref document number: 6574976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151