JP2019146245A - 動画像符号化装置、動画像復号装置、動画像符号化データ及び記録媒体 - Google Patents

動画像符号化装置、動画像復号装置、動画像符号化データ及び記録媒体 Download PDF

Info

Publication number
JP2019146245A
JP2019146245A JP2019082932A JP2019082932A JP2019146245A JP 2019146245 A JP2019146245 A JP 2019146245A JP 2019082932 A JP2019082932 A JP 2019082932A JP 2019082932 A JP2019082932 A JP 2019082932A JP 2019146245 A JP2019146245 A JP 2019146245A
Authority
JP
Japan
Prior art keywords
vector
motion vector
unit
motion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019082932A
Other languages
English (en)
Other versions
JP6768110B2 (ja
Inventor
裕介 伊谷
Yusuke Itani
裕介 伊谷
関口 俊一
Shunichi Sekiguchi
俊一 関口
杉本 和夫
Kazuo Sugimoto
和夫 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45892217&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2019146245(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2019146245A publication Critical patent/JP2019146245A/ja
Application granted granted Critical
Publication of JP6768110B2 publication Critical patent/JP6768110B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】所定のブロック単位に所定のダイレクトモードを選択して、符号量を削減することができるようにする。【解決手段】動き補償予測部54は可変長復号部51から出力された符号化ブロックに係る符号化モードがダイレクトモードのインター符号化モードである場合、当該符号化ブロックの周囲に位置している復号済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な復号済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトルを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する処理を実施する。【選択図】図5

Description

この発明は、画像圧縮符号化技術や圧縮画像データ伝送技術などに用いられる動画像符号化装置、動画像復号装置、動画像符号化データ及び記録媒体に関するものである。
例えば、MPEG(Moving Picture Experts Group)や「ITU−T H.26x」などの国際標準映像符号化方式では、輝度信号16×16画素と、その輝度信号16×16画素に対応する色差信号8×8画素とをまとめたブロックデータ(以下、「マクロブロック」と称する)を一単位として、動き補償技術や直交変換/変換係数量子化技術に基づいて圧縮する方法が採用されている。
動画像符号化装置及び動画像復号装置における動き補償処理では、前方または後方のピクチャを参照して、マクロブロック単位で動きベクトルの検出や予測画像の生成を行う。
このとき、1枚のピクチャのみを参照して、画面間予測符号化を行うものをPピクチャと称し、同時に2枚のピクチャを参照して、画面間予測符号化を行うものをBピクチャと称する。
国際標準方式であるAVC/H.264(ISO/IEC 14496−10|ITU−T H.264)では、Bピクチャを符号化する際に、ダイレクトモードと呼ばれる符号化モードを選択することができる(例えば、非特許文献1を参照)。
即ち、符号化対象のマクロブロックには、動きベクトルの符号化データを持たず、符号化済みの他のピクチャのマクロブロックの動きベクトルや、周囲のマクロブロックの動きベクトルを用いる所定の演算処理で、符号化対象のマクロブロックの動きベクトルを生成する符号化モードを選択することができる。
このダイレクトモードには、時間ダイレクトモードと空間ダイレクトモードの2種類が存在する。
時間ダイレクトモードでは、符号化済みの他ピクチャの動きベクトルを参照し、符号化済みピクチャと符号化対象のピクチャとの時間差に応じて動きベクトルのスケーリング処理を行うことで、符号化対象のマクロブロックの動きベクトルを生成する。
空間ダイレクトモードでは、符号化対象のマクロブロックの周囲に位置している少なくとも1つ以上の符号化済みマクロブロックの動きベクトルを参照し、それらの動きベクトルから符号化対象のマクロブロックの動きベクトルを生成する。
このダイレクトモードでは、スライスヘッダに設けられたフラグである“direct_spatial_mv_pred_flag”を用いることにより、スライス単位で、時間ダイレクトモード又は空間ダイレクトモードのいずれか一方を選択することが可能である。
ただし、ダイレクトモードの中で、変換係数を符号化しないモードをスキップモードと称する。以下、ダイレクトモードと記載するときは、スキップモードも含まれるものとする。
ここで、図11は時間ダイレクトモードで動きベクトルを生成する方法を示す模式図である。
図11において、「P」はPピクチャを表し、「B」はBピクチャを表している。
また、数字0−3はピクチャの表示順を示し、時間T0,T1,T2,T3の表示画像であることを表している。
ピクチャの符号化処理は、P0,P3,B1,B2の順番で行われているものとする。
例えば、ピクチャB2の中のマクロブロックMB1を時間ダイレクトモードで符号化する場合を想定する。
この場合、ピクチャB2の時間軸上後方にある符号化済みピクチャのうち、ピクチャB2に一番近いピクチャP3の動きベクトルであって、マクロブロックMB1と空間的に同じ位置にあるマクロブロックMB2の動きベクトルMVを用いる。
この動きベクトルMVはピクチャP0を参照しており、マクロブロックMB1を符号化する際に用いる動きベクトルMVL0,MVL1は、以下の式(1)で求められる。

Figure 2019146245
図12は空間ダイレクトモードで動きベクトルを生成する方法を示す模式図である。
図12において、currentMBは、符号化対象のマクロブロックを表している。
このとき、符号化対象のマクロブロックの左横の符号化済マクロブロックAの動きベクトルをMVa、符号化対象のマクロブロックの上の符号化済マクロブロックBの動きベクトルをMVb、符号化対象のマクロブロックの右上の符号化済マクロブロックCの動きベクトルをMVcとすると、下記の式(2)に示すように、これらの動きベクトルMVa,MVb,MVcのメディアン(中央値)を求めることにより、符号化対象のマクロブロックの動きベクトルMVを算出することができる。
MV=median(MVa、MVb、MVc) (2)
空間ダイレクトモードでは、前方及び後方のそれぞれについて動きベクトルを求めるが、どちらも上記の方法を用いて求めることが可能である。
なお、予測画像の生成に用いる参照画像は、参照に用いるベクトル毎に、参照画像リストして管理されており、2つのベクトルを用いる場合、各参照画像リストはリスト0、リスト1と称される。
参照画像リストに対して時間的に近いものから順番に格納され、通常はリスト0が前方向の参照画像を示し、リスト1が後方向の参照画像を示している。ただし、リスト1が前方向の参照画像を示し、リスト0は後方向の参照画像を示していてもよいし、リスト0とリスト1の双方が、前方向と後方向の参照画像を示していてもよい。また、並び順も時間的に近いものから並べる必要はない。
例えば、以下の非特許文献1には、参照画像リストがスライス毎に並び替えることが可能であることが記載されている。
MPEG−4 AVC(ISO/IEC 14496−10)/ITU−T H.264規格
従来の画像符号化装置は以上のように構成されているので、スライスヘッダに設けられたフラグである“direct_spatial_mv_pred_flag”を参照すれば、スライス単位で、時間ダイレクトモードと空間ダイレクトモードを切り替えることができる。しかし、マクロブロック単位では、時間ダイレクトモードと空間ダイレクトモードを切り替えることができないため、或るスライスに属している或るマクロブロックに対する最適なダイレクトモードが例えば空間ダイレクトモードであっても、当該スライスに対応するダイレクトモードが時間ダイレクトモードに決められていれば、当該マクロブロックに対して時間ダイレクトモードを使用しなければならず、最適なダイレクトモードを選択することができない。このような場合、最適なダイレクトモードを選択することができないため、不必要な動きベクトルを符号化しなければならず、符号量が増加してしまうなどの課題があった。
この発明は上記のような課題を解決するためになされたもので、所定のブロック単位に最適な符号化モードを選択して、符号量を削減することができるような動画像符号化装置、動画像復号装置、動画像符号化データ及び当該動画像符号化データを記録した記録媒体を得ることを目的とする。
この発明に係る動画像復号装置は、最大ブロックサイズと階層数の上限値により入力画像を階層的に分割することで得られる符号化ブロックに係わる圧縮データ、符号化ブロックに係わる符号化モード及び動きベクトルを指定するための符号化ブロックに係わるインデックス情報、および当該インデックス情報に基づき選択される動きベクトル候補の数を変更するための制御情報が含まれるビットストリームに多重化されている符号化データに可変長復号処理を行う可変長復号部と、インデックス情報に基づいて、1以上の動きベクトル候補の中から動きベクトルを選択し、選択された動きベクトルを用いて符号化ブロックに対し、動き補償予測処理を実施して予測画像を生成する動き補償予測手段と、を備え、動き補償予測部は、インデックス情報に基づいて、符号化ブロックの周囲に位置する複数の復号済みブロックの動きベクトル候補から得られる空間動きベクトル、または符号化ブロックが参照可能な復号済みピクチャの動きベクトルから得られる時間動きベクトルを選択し、動き補償予測部は、制御情報に基づいて、符号化ブロックの周囲に位置する複数の復号済みブロックから得られる空間動きベクトル、および符号化ブロックが参照可能な復号化済みピクチャの動きベクトルから得られる時間動きベクトルの少なくともいずれかを含む動きベクトル候補のリストを用意し、動きベクトル候補は所定の順番でリスト化され、動きベクトル候補の数はスライス単位で変更可能であることを特徴とするものである。
この発明によれば、最大ブロックサイズと階層数の上限値により入力画像を階層的に分割することで得られる符号化ブロックに係わる圧縮データ、符号化ブロックに係わる符号化モード及び動きベクトルを指定するための符号化ブロックに係わるインデックス情報、および当該インデックス情報に基づき選択される動きベクトル候補の数を変更するための制御情報が含まれるビットストリームに多重化されている符号化データに可変長復号処理を行う可変長復号部と、インデックス情報に基づいて、1以上の動きベクトル候補の中から動きベクトルを選択し、選択された動きベクトルを用いて符号化ブロックに対し、動き補償予測処理を実施して予測画像を生成する動き補償予測手段と、を備え、動き補償予測部は、インデックス情報に基づいて、符号化ブロックの周囲に位置する複数の復号済みブロックの動きベクトル候補から得られる空間動きベクトル、または符号化ブロックが参照可能な復号済みピクチャの動きベクトルから得られる時間動きベクトルを選択し、動き補償予測部は、制御情報に基づいて、符号化ブロックの周囲に位置する複数の復号済みブロックから得られる空間動きベクトル、および符号化ブロックが参照可能な復号化済みピクチャの動きベクトルから得られる時間動きベクトルの少なくともいずれかを含む動きベクトル候補のリストを用意し、動きベクトル候補は所定の順番でリスト化され、動きベクトル候補の数はスライス単位で変更可能であるので、符号化ブロック単位に最適な符号化モードを選択して動画像の復号化処理を行うことが可能となる。
この発明の実施の形態1による動画像符号化装置を示す構成図である。 この発明の実施の形態1による動画像符号化装置の動き補償予測部5を示す構成図である。 動き補償予測部5を構成しているダイレクトベクトル生成部23を示す構成図である。 ダイレクトベクトル生成部23を構成しているダイレクトベクトル判定部33を示す構成図である。 この発明の実施の形態1による動画像復号装置を示す構成図である。 この発明の実施の形態1による動画像復号装置の動き補償予測部54を示す構成図である。 この発明の実施の形態1による動画像符号化装置の処理内容を示すフローチャートである。 この発明の実施の形態1による動画像復号装置の処理内容を示すフローチャートである。 最大サイズの符号化ブロックが階層的に複数の符号化ブロックに分割される様子を示す説明図である。 (a)は分割後のパーティションの分布を示し、(b)は階層分割後のパーティションに符号化モードm(B)が割り当てられる状況を4分木グラフで示す説明図である。 時間ダイレクトモードで動きベクトルを生成する方法を示す模式図である。 空間ダイレクトモードで動きベクトルを生成する方法を示す模式図である。 メディアン予測の候補A1−An、B1−Bn、C,D,Eから空間ダイレクトベクトルを生成する方法を示す模式図である。 時間方向の距離に応じてスケーリングを行うことで、空間ダイレクトベクトルを生成する方法を示す模式図である。 前方予測画像と後方予測画像の類似度による評価値の算出例を示す説明図である。 動きベクトルの分散値を用いた評価式を示す説明図である。 空間ベクトルMV_A,MV_B,MV_Cや、時間ベクトルMV_1〜MV_8を示す説明図である。 複数の符号化済ベクトルから1つの候補ベクトルの生成を示す説明図である。 時間的に前にある画像のみを組み合わせて、評価値SADを算出する例を示す説明図である。 L字テンプレートに似ている画像の探索を示す説明図である。 符号化ブロックBのサイズがL=kMである例を示す説明図である。 (Ln+1,Mn+1)=(L/2,M/2)のように分割する例を示す説明図である。 図21又は図22のいずれかの分割を選択できる例を示す説明図である。 変換ブロックサイズ単位が階層構造になっている例を示す説明図である。 この発明の実施の形態3による動画像符号化装置の動き補償予測部5を示す構成図である。 動き補償予測部5を構成しているダイレクトベクトル生成部25を示す構成図である。 ダイレクトベクトル生成部25を構成している初期ベクトル生成部34を示す構成図である。 初期ベクトル生成部34を構成している初期ベクトル判定部73を示す構成図である。 この発明の実施の形態3による動画像復号装置の動き補償予測部54を示す構成図である。 動きベクトルの探索処理を示す説明図である。 この発明の実施の形態4による動画像符号化装置の動き補償予測部5を示す構成図である。 この発明の実施の形態4による動画像復号装置の動き補償予測部54を示す構成図である。 選択可能な動きベクトルと、その動きベクトルを示すインデックス情報とが記述されているダイレクトベクトル候補インデックスを示す説明図である。 1本のベクトルのインデックス情報だけを符号化する例を示す説明図である。 動き補償予測部5を構成しているダイレクトベクトル生成部26を示す構成図である。 この発明の実施の形態5による動画像符号化装置の動き補償予測部5を示す構成図である。 動き補償予測部5を構成しているダイレクトベクトル生成部27を示す構成図である。 この発明の実施の形態5による動画像復号装置の動き補償予測部54を示す構成図である。 動き補償予測部5を構成しているダイレクトベクトル生成部26を示す構成図である。 周囲のブロックとの相関関係を示す説明図である。 符号化ブロックのブロックサイズ毎に、選択可能な1以上の動きベクトルを示すリストの説明図である。 最大のブロックサイズが「128」であるリストの一例を示す説明図である。 符号化ブロックの分割パターン毎に、選択可能な1以上の動きベクトルを示すリストの説明図である。 動画像符号化装置におけるリスト情報の送信処理を示すフローチャートである。 動画像復号装置におけるリスト情報の受信処理を示すフローチャートである。 リスト内の「temporal」が選択可から選択不可に変更されているために、“オン”の変更フラグと変更後のリストを示すリスト情報を符号化している例を示す説明図である。 変更フラグが“オン”であるため、現在保持しているリストを変更している例を示す説明図である。 ブロックサイズ毎に変更フラグを用意し、選択可能な動きベクトルが変更されたブロックサイズに係るリスト情報だけを符号化している例を示す説明図である。 対象となるブロックからインター符号化されているブロックを探索し、そのブロック内に含まれる全てのベクトルを空間ベクトル候補とする例を示す説明図である。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
この実施の形態1では、映像の各フレーム画像を入力し、近接フレーム間で動き補償予測を実施することで得られる予測差分信号に対して直交変換や量子化による圧縮処理を実施した後に可変長符号化を行ってビットストリームを生成する動画像符号化装置と、その動画像符号化装置から出力されたビットストリームを復号する動画像復号装置について説明する。
この実施の形態1の動画像符号化装置は、映像信号の空間・時間方向の局所的な変化に適応して、映像信号を多様なサイズの領域に分割してフレーム内・フレーム間適応符号化を行うことを特徴としている。
一般的に映像信号は、空間・時間的に信号の複雑さが局所的に変化する特性を有している。空間的に見ると、ある特定の映像フレーム上では、空や壁などのような比較的広い画像領域中で均一な信号特性を持つ絵柄もあれば、人物や細かいテクスチャを持った絵画など小さい画像領域内で複雑なテクスチャパターンを持つ絵柄も混在することがある。
時間的に見ても、空や壁は局所的に時間方向の絵柄の変化が小さいが、動く人物や物体はその輪郭が時間的に剛体・非剛体の運動をするため、時間的な変化が大きい。
符号化処理は、時間・空間的な予測によって信号電力やエントロピーの小さい予測差分信号を生成することで、全体の符号量を削減するが、予測のためのパラメータをできるだけ大きな画像信号領域に均一に適用できれば、当該パラメータの符号量を小さくすることができる。
一方、時間的・空間的に変化の大きい画像信号パターンに対して、同一の予測パラメータを適用すると、予測の誤りが増えるため、予測差分信号の符号量を削減することができない。
そこで、時間的・空間的に変化の大きい画像信号パターンに対しては、予測対象の領域を小さくして、予測のためのパラメータのデータ量を増やしても予測差分信号の電力・エントロピーを低減するほうが望ましい。
このような映像信号の一般的な性質に適応した符号化を行うため、この実施の形態1の動画像符号化装置では、所定の最大ブロックサイズから階層的に映像信号の領域を分割して、分割領域毎に予測処理や、予測差分の符号化処理を実施するようにしている。
この実施の形態1の動画像符号化装置が処理対象とする映像信号は、輝度信号と2つの色差信号からなるYUV信号や、ディジタル撮像素子から出力されるRGB信号等の任意の色空間のカラー映像信号のほか、モノクロ画像信号や赤外線画像信号など、映像フレームが水平・垂直2次元のディジタルサンプル(画素)列から構成される任意の映像信号である。
各画素の諧調は8ビットでもよいし、10ビット、12ビットなどの諧調であってもよい。
ただし、以下の説明においては、特に断らない限り、入力される映像信号がYUV信号であるものとする。また、2つの色差成分U,Vが輝度成分Yに対して、サブサンプルされた4:2:0フォーマットの信号であるものとする。
なお、映像の各フレームに対応する処理データ単位を「ピクチャ」と称し、この実施の形態1では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレームの信号として説明を行う。ただし、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
図1はこの発明の実施の形態1による動画像符号化装置を示す構成図である。
図1において、符号化制御部1は動き補償予測処理(フレーム間予測処理)又はイントラ予測処理(フレーム内予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する処理を実施する。
また、符号化制御部1は利用可能な1以上の符号化モード(1以上のイントラ符号化モード、1以上のインター符号化モード(ダイレクトモードのインター符号化モードを含む))の中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択する処理を実施する。なお、符号化制御部1は符号化制御手段を構成している。
ブロック分割部2は入力画像を示す映像信号を入力すると、その映像信号が示す入力画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割する処理を実施する。なお、ブロック分割部2はブロック分割手段を構成している。
切替スイッチ3は符号化制御部1により選択された符号化モードがイントラ符号化モードであれば、ブロック分割部2により分割された符号化ブロックをイントラ予測部4に出力し、符号化制御部1により選択された符号化モードがインター符号化モードであれば、ブロック分割部2により分割された符号化ブロックを動き補償予測部5に出力する処理を実施する。
イントラ予測部4は切替スイッチ3からブロック分割部2により分割された符号化ブロックを受けると、符号化制御部1から出力されたイントラ予測パラメータを用いて、その符号化ブロックに対するイントラ予測処理を実施して予測画像を生成する処理を実施する。
なお、切替スイッチ3及びイントラ予測部4からイントラ予測手段が構成されている。
動き補償予測部5はブロック分割部2により分割された符号化ブロックに適する符号化モードとして、符号化制御部1によりダイレクトモードのインター符号化モードが選択された場合、当該符号化ブロックの周囲に位置している符号化済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な符号化済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトルを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する処理を実施する。
また、動き補償予測部5はブロック分割部2により分割された符号化ブロックに適する符号化モードとして、符号化制御部1によりダイレクトモード以外のインター符号化モードが選択された場合、当該符号化ブロックと動き補償予測フレームメモリ12に格納されている参照画像から動きベクトルを探索し、その動きベクトルを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する処理を実施する。
なお、切替スイッチ3及び動き補償予測部5から動き補償予測手段が構成されている。
減算部6はブロック分割部2により分割された符号化ブロックから、イントラ予測部4又は動き補償予測部5により生成された予測画像を減算することで、差分画像(=符号化ブロック−予測画像)を生成する処理を実施する。なお、減算部6は差分画像生成手段を構成している。
変換・量子化部7は符号化制御部1から出力された予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、減算部6により生成された差分画像の変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施するとともに、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の変換係数を量子化することで、量子化後の変換係数を差分画像の圧縮データとして出力する処理を実施する。なお、変換・量子化部7は画像圧縮手段を構成している。
逆量子化・逆変換部8は符号化制御部1から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、変換・量子化部7から出力された圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを局所復号予測差分信号として出力する処理を実施する。
加算部9は逆量子化・逆変換部8から出力された局所復号予測差分信号とイントラ予測部4又は動き補償予測部5により生成された予測画像を示す予測信号を加算することで、局所復号画像を示す局所復号画像信号を生成する処理を実施する。
イントラ予測用メモリ10はイントラ予測部4により次回のイントラ予測処理で用いられる画像として、加算部9により生成された局所復号画像信号が示す局所復号画像を格納するRAMなどの記録媒体である。
ループフィルタ部11は加算器9により生成された局所復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の局所復号画像信号が示す局所復号画像を参照画像として動き補償予測フレームメモリ12に出力する処理を実施する。
動き補償予測フレームメモリ12は動き補償予測部5により次回の動き補償予測処理で用いられる参照画像として、ループフィルタ部11によるフィルタリング処理後の局所復号画像を格納するRAMなどの記録媒体である。
可変長符号化部13は変換・量子化部7から出力された圧縮データと、符号化制御部1から出力された符号化モード及び予測差分符号化パラメータと、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータを可変長符号化して、その圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータの符号化データが多重化されているビットストリームを生成する処理を実施する。なお、可変長符号化部13は可変長符号化手段を構成している。
図2はこの発明の実施の形態1による動画像符号化装置の動き補償予測部5を示す構成図である。
図2において、切替スイッチ21は符号化制御部1により選択された符号化モードがダイレクトモード以外のインターモードである場合、ブロック分割部2により分割された符号化ブロックを動きベクトル探索部22に出力する一方、その符号化モードがダイレクトモードのインターモードである場合、ブロック分割部2により分割された符号化ブロックをダイレクトベクトル生成部23に出力する処理を実施する。
なお、ダイレクトベクトル生成部23では、ダイレクトベクトルを生成する際に、ブロック分割部2により分割された符号化ブロックを用いないので、その符号化ブロックをダイレクトベクトル生成部23に出力しないようにしてもよい。
動きベクトル探索部22は切替スイッチ21から出力された符号化ブロックと動き補償予測フレームメモリ12に格納されている参照画像を参照しながら、インターモードで最適な動きベクトルを探索し、その動きベクトルを動き補償処理部24に出力する処理を実施する。
ダイレクトベクトル生成部23は当該符号化ブロックの周囲に位置している符号化済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な符号化済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択する処理を実施する。
動き補償処理部24は動きベクトル探索部22により探索された動きベクトル又はダイレクトベクトル生成部23により選択されたダイレクトベクトルと動き補償予測フレームメモリ12に格納されている1フレーム以上の参照画像を用いて、符号化制御部1から出力されたインター予測パラメータに基づいて動き補償予測処理を実施することで、予測画像を生成する処理を実施する。
なお、動き補償処理部24は、動き補償予測処理を実施する際に用いたインター予測パラメータを可変長符号化部13に出力する。符号化制御部1により選択された符号化モードがダイレクトモード以外のインターモードである場合、動きベクトル探索部22により探索された動きベクトルを当該インター予測パラメータに含めて可変長符号化部13に出力する。
図3は動き補償予測部5を構成しているダイレクトベクトル生成部23を示す構成図である。
図3において、空間ダイレクトベクトル生成部31は符号化済みのブロックの動きベクトル(符号化済みのブロックの動きベクトルは、図示せぬ動きベクトルメモリ、あるいは、動き補償予測部5の内部メモリに格納されている)の中から、符号化ブロックの周囲に位置している符号化済みのブロックの動きベクトルを読み出し、その動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成する処理を実施する。
時間ダイレクトベクトル生成部32は符号化済みのブロックの動きベクトルの中から、符号化ブロックが参照可能な符号化済みピクチャの動きベクトルであって、符号化ブロックと空間的に同じ位置にあるブロックの動きベクトルを読み出し、その動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成する処理を実施する。
ダイレクトベクトル判定部33は空間ダイレクトベクトル生成部31により生成された空間ダイレクトベクトルを用いて、空間ダイレクトモードの評価値を算出するとともに、時間ダイレクトベクトル生成部32により生成された時間ダイレクトベクトルを用いて、時間ダイレクトモードの評価値を算出し、その空間ダイレクトモードの評価値と時間ダイレクトモードの評価値を比較して、その空間ダイレクトベクトル又は時間ダイレクトベクトルのいずれか一方を選択する処理を実施する。
図4はダイレクトベクトル生成部23を構成しているダイレクトベクトル判定部33を示す構成図である。
図4において、動き補償部41は空間ダイレクトベクトル生成部31により生成された空間ダイレクトベクトルを用いて、空間ダイレクトモードのリスト0予測画像(例えば、空間ダイレクトモードの前方予測画像)と空間ダイレクトモードのリスト1予測画像(例えば、空間ダイレクトモードの後方予測画像)を生成するとともに、時間ダイレクトベクトル生成部32により生成された時間ダイレクトベクトルを用いて、時間ダイレクトモードのリスト0予測画像(例えば、時間ダイレクトモードの前方予測画像)と時間ダイレクトモードのリスト1予測画像(例えば、時間ダイレクトモードの後方予測画像)を生成する処理を実施する。
類似度算出部42は空間ダイレクトモードの評価値として、空間ダイレクトモードのリスト0予測画像(前方予測画像)とリスト1予測画像(後方予測画像)の類似度を算出するとともに、時間ダイレクトモードの評価値として、時間ダイレクトモードのリスト0予測画像(前方予測画像)とリスト1予測画像(後方予測画像)の類似度を算出する処理を実施する。
ダイレクトベクトル選択部43は類似度算出部42により算出された空間ダイレクトモードにおけるリスト0予測画像(前方予測画像)とリスト1予測画像(後方予測画像)の類似度と、時間ダイレクトモードにおけるリスト0予測画像(前方予測画像)とリスト1予測画像(後方予測画像)の類似度とを比較し、空間ダイレクトベクトル又は時間ダイレクトベクトルのうち、リスト0予測画像(前方予測画像)とリスト1予測画像(後方予測画像)の類似度が高い方のダイレクトモードのダイレクトベクトルを選択する処理を実施する。
図5はこの発明の実施の形態1による動画像復号装置を示す構成図である。
図5において、可変長復号部51はビットストリームに多重化されている符号化データから階層的に分割されている各々の符号化ブロックに係る圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータを可変長復号して、その圧縮データ及び予測差分符号化パラメータを逆量子化・逆変換部55に出力するとともに、その符号化モード及びイントラ予測パラメータ/インター予測パラメータを切替スイッチ52に出力する処理を実施する。なお、可変長復号部51は可変長復号手段を構成している。
切替スイッチ52は可変長復号部51から出力された符号化ブロックに係る符号化モードがイントラ符号化モードである場合、可変長復号部51から出力されたイントラ予測パラメータをイントラ予測部53に出力し、その符号化モードがインター符号化モードである場合、可変長復号部51から出力されたインター予測パラメータを動き補償予測部54に出力する処理を実施する。
イントラ予測部53は切替スイッチ52から出力されたイントラ予測パラメータを用いて、当該符号化ブロックに対するイントラ予測処理を実施して予測画像を生成する処理を実施する。
なお、切替スイッチ52及びイントラ予測部53からイントラ予測手段が構成されている。
動き補償予測部54は可変長復号部51から出力された符号化ブロックに係る符号化モードがダイレクトモードのインター符号化モードである場合、当該符号化ブロックの周囲に位置している復号済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な復号済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトルを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する処理を実施する。
また、動き補償予測部54は可変長復号部51から出力された符号化ブロックに係る符号化モードがダイレクトモード以外のインター符号化モードである場合、可変長復号部51から出力されたインター予測パラメータに含まれている動きベクトルを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する処理を実施する。
なお、切替スイッチ52及び動き補償予測部54から動き補償予測手段が構成されている。
逆量子化・逆変換部55は可変長復号部51から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、可変長復号部51から出力された符号化ブロックに係る圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを復号予測差分信号(圧縮前の差分画像を示す信号)として出力する処理を実施する。なお、逆量子化・逆変換部55は差分画像生成手段を構成している。
加算部56は逆量子化・逆変換部55から出力された復号予測差分信号とイントラ予測部53又は動き補償予測部54により生成された予測画像を示す予測信号を加算することで、復号画像を示す復号画像信号を生成する処理を実施する。なお、加算部56は復号画像生成手段を構成している。
イントラ予測用メモリ57はイントラ予測部53により次回のイントラ予測処理で用いられる画像として、加算部56により生成された復号画像信号が示す復号画像を格納するRAMなどの記録媒体である。
ループフィルタ部58は加算器56により生成された復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の復号画像信号が示す復号画像を参照画像として動き補償予測フレームメモリ59に出力する処理を実施する。
動き補償予測フレームメモリ59は動き補償予測部54により次回の動き補償予測処理で用いられる参照画像として、ループフィルタ部58によるフィルタリング処理後の復号画像を格納するRAMなどの記録媒体である。
図6はこの発明の実施の形態1による動画像復号装置の動き補償予測部54を示す構成図である。
図6において、切替スイッチ61は可変長復号部51から出力された符号化ブロックに係る符号化モードがダイレクトモード以外のインターモードである場合、可変長復号部51から出力されたインター予測パラメータ(動きベクトルを含む)を動き補償処理部63に出力し、その符号化モードがダイレクトモードのインターモードである場合、可変長復号部51から出力されたインター予測パラメータをダイレクトベクトル生成部62に出力する処理を実施する。
ダイレクトベクトル生成部62は当該符号化ブロックの周囲に位置している復号済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な復号済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択する処理を実施する。
また、ダイレクトベクトル生成部62は切替スイッチ61から出力されたインター予測パラメータを動き補償処理部63に出力する処理を実施する。
なお、ダイレクトベクトル生成部62の内部構成は、図2のダイレクトベクトル生成部23と同じである。
動き補償処理部63は切替スイッチ61から出力されたインター予測パラメータに含まれている動きベクトル又はダイレクトベクトル生成部62により選択されたダイレクトベクトルと動き補償予測フレームメモリ59に格納されている1フレームの参照画像を用いて、ダイレクトベクトル生成部62から出力されたインター予測パラメータに基づいて動き補償予測処理を実施することで、予測画像を生成する処理を実施する。
図1では、動画像符号化装置の構成要素である符号化制御部1、ブロック分割部2、切替スイッチ3、イントラ予測部4、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、ループフィルタ部11及び可変長符号化部13のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、動画像符号化装置がコンピュータで構成される場合、符号化制御部1、ブロック分割部2、切替スイッチ3、イントラ予測部4、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、ループフィルタ部11及び可変長符号化部13の処理内容を記述しているプログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図7はこの発明の実施の形態1による動画像符号化装置の処理内容を示すフローチャートである。
図5では、動画像復号装置の構成要素である可変長復号部51、切替スイッチ52、イントラ予測部53、動き補償予測部54、逆量子化・逆変換部55、加算部56及びループフィルタ部58のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、動画像復号装置がコンピュータで構成される場合、可変長復号部51、切替スイッチ52、イントラ予測部53、動き補償予測部54、逆量子化・逆変換部55、加算部56及びループフィルタ部58の処理内容を記述しているプログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図8はこの発明の実施の形態1による動画像復号装置の処理内容を示すフローチャートである。
次に動作について説明する。
最初に、図1の動画像符号化装置の処理内容を説明する。
まず、符号化制御部1は、動き補償予測処理(フレーム間予測処理)又はイントラ予測処理(フレーム内予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する(図7のステップST1)。
符号化ブロックの最大サイズの決め方として、例えば、全てのピクチャに対して、入力画像の解像度に応じたサイズに決定する方法が考えられる。
また、入力画像の局所的な動きの複雑さの違いをパラメータとして定量化しておき、動きの激しいピクチャでは最大サイズを小さな値に決定し、動きが少ないピクチャでは最大サイズを大きな値に決定する方法などが考えられる。
上限の階層数については、例えば、入力画像の動きが激しい程、階層数を深くして、より細かい動きが検出できるように設定し、入力画像の動きが少なければ、階層数を抑えるように設定する方法が考えられる。
また、符号化制御部1は、利用可能な1以上の符号化モード(M種類のイントラ符号化モード、N種類のインター符号化モード(ダイレクトモードのインター符号化モードを含む))の中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択する(ステップST2)。
符号化制御部1による符号化モードの選択方法は公知の技術であるため詳細な説明を省略するが、例えば、利用可能な任意の符号化モードを用いて、符号化ブロックに対する符号化処理を実施して符号化効率を検証し、利用可能な複数の符号化モードの中で、最も符号化効率がよい符号化モードを選択する方法などがある。
ブロック分割部2は、入力画像を示す映像信号を入力すると、その映像信号が示す入力画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割する。
ここで、図9は最大サイズの符号化ブロックが階層的に複数の符号化ブロックに分割される様子を示す説明図である。
図9の例では、最大サイズの符号化ブロックは、第0階層の符号化ブロックBであり、輝度成分で(L,M)のサイズを有している。
また、図9の例では、最大サイズの符号化ブロックBを出発点として、4分木構造で、別途定める所定の深さまで階層的に分割を行うことによって、符号化ブロックBを得ている。
深さnにおいては、符号化ブロックBはサイズ(L,M)の画像領域である。
ただし、LとMは同じであってもよいし異なっていてもよいが、図9の例ではL=Mのケースを示している。
以降、符号化ブロックBのサイズは、符号化ブロックBの輝度成分におけるサイズ(L,M)と定義する。
ブロック分割部2は、4分木分割を行うため、常に(Ln+1,Mn+1)=(L/2,M/2)が成立する。
ただし、RGB信号などのように、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(L,M)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックのサイズは(L/2,M/2)である。
以降、第n階層の符号化ブロックBで選択しうる符号化モードをm(B)と記する。
複数の色成分からなるカラー映像信号の場合、符号化モードm(B)は、色成分ごとに、それぞれ個別のモードを用いるように構成されてもよいが、以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードのことを指すものとして説明を行う。
符号化モードm(B)には、1つないし複数のイントラ符号化モード(総称して「INTRA」)、1つないし複数のインター符号化モード(総称して「INTER」)があり、符号化制御部1は、上述したように、当該ピクチャで利用可能な全ての符号化モードないしは、そのサブセットの中から、符号化ブロックBに対して最も符号化効率がよい符号化モードを選択する。
符号化ブロックBは、図9に示すように、更に1つないし複数の予測処理単位(パーティション)に分割される。
以降、符号化ブロックBに属するパーティションをP (i: 第n階層におけるパーティション番号)と表記する。
符号化ブロックBに属するパーティションP の分割がどのようになされているかは符号化モードm(B)の中に情報として含まれる。
パーティションP は、すべて符号化モードm(B)に従って予測処理が行われるが、パーティションP 毎に、個別の予測パラメータを選択することができる。
符号化制御部1は、最大サイズの符号化ブロックに対して、例えば、図10に示すようなブロック分割状態を生成して、符号化ブロックBを特定する。
図10(a)の網がけ部分は分割後のパーティションの分布を示し、また、図10(b)は階層分割後のパーティションに符号化モードm(B)が割り当てられる状況を4分木グラフで示している。
図10(b)において、□で囲まれているノードが、符号化モードm(B)が割り当てられたノード(符号化ブロックB)を示している。
切替スイッチ3は、符号化制御部1が各々の符号化ブロックBのパーティションP に対して最適な符号化モードm(B)を選択すると、その符号化モードm(B)がイントラ符号化モードであれば(ステップST3)、ブロック分割部2により分割された符号化ブロックBのパーティションP をイントラ予測部4に出力する。
一方、その符号化モードm(B)がインター符号化モードであれば(ステップST3)、ブロック分割部2により分割された符号化ブロックBのパーティションP を動き補償予測部5に出力する。
イントラ予測部4は、切替スイッチ3から符号化ブロックBのパーティションP を受けると、符号化制御部1により選択された符号化モードm(B)に対応するイントラ予測パラメータを用いて、その符号化ブロックBのパーティションP に対するイントラ予測処理を実施して、イントラ予測画像P を生成する(ステップST4)。
イントラ予測部4は、イントラ予測画像P を生成すると、そのイントラ予測画像P を減算部6及び加算部9に出力するが、図5の動画像復号装置でも同じイントラ予測画像P を生成できるようにするため、そのイントラ予測パラメータを可変長符号化部13に出力する。この実施の形態1におけるイントラ予測処理は、AVC/H.264規格(ISO/IEC 14496−10)に定められるアルゴリズムに限定されないが、イントラ予測パラメータとしては、動画像符号化装置側と動画像復号装置側でまったく同じイントラ予測画像を生成するために必要な情報を含む必要がある。
動き補償予測部5は、切替スイッチ3から符号化ブロックBのパーティションP を受けると、符号化制御部1により選択された符号化モードm(B)がダイレクトモードのインター符号化モードであれば、符号化ブロックBのパーティションP の周囲に位置している符号化済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、符号化ブロックBが参照可能な符号化済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成する。
そして、動き補償予測部5は、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトル及び符号化モードm(B)に対応するインター予測パラメータを用いて、符号化ブロックBのパーティションP に対する動き補償予測処理を実施して、インター予測画像P を生成する(ステップST5)。
一方、符号化制御部1により選択された符号化モードm(B)がダイレクトモード以外のインター符号化モードであれば、動き補償予測部5は、符号化ブロックBのパーティションP と動き補償予測フレームメモリ12に格納されている参照画像から動きベクトルを探索し、その動きベクトル及び符号化モードm(B)に対応するインター予測パラメータを用いて、符号化ブロックBのパーティションP に対する動き補償予測処理を実施して、インター予測画像P を生成する(ステップST5)。
動き補償予測部5は、インター予測画像P を生成すると、そのインター予測画像P を減算部6及び加算部9に出力するが、図5の動画像復号装置でも同じインター予測画像P を生成できるようにするため、そのインター予測パラメータを可変長符号化部13に出力する。インター予測画像の生成に用いられたインター予測パラメータには、
・ 符号化ブロックB内のパーティション分割を記述するモード情報
・ 各パーティションの動きベクトル
・ 動き補償予測フレームメモリ12内に複数の参照画像を含む構成の場合、いずれの参照画像を用いて予測を行うかを示す参照画像指示インデックス情報
・ 複数の動きベクトル予測値候補がある場合にいずれの動きベクトル予測値を選択して使用するかを示すインデックス情報
・ 複数の動き補償内挿フィルタがある場合にいずれのフィルタを選択して使用するかを示すインデックス情報
・ 当該パーティションの動きベクトルが複数の画素精度(半画素、1/4画素、1/8画素など)を示すことが可能な場合、いずれの画素精度を使用するかを示す選択情報
などの情報を含み、動画像復号装置側でまったく同じインター予測画像を生成するために、可変長符号化部13によってビットストリームに多重化される。
動き補償予測部5の処理内容の概略は上記の通りであるが、詳細な処理内容は後述する。
減算部6は、イントラ予測部4又は動き補償予測部5が予測画像(イントラ予測画像P 、インター予測画像P )を生成すると、ブロック分割部2により分割された符号化ブロックBのパーティションP から、イントラ予測部4又は動き補償予測部5により生成された予測画像(イントラ予測画像P 、インター予測画像P )を減算することで差分画像を生成し、その差分画像を示す予測差分信号e を変換・量子化部7に出力する(ステップST6)。
変換・量子化部7は、減算部6から差分画像を示す予測差分信号e を受けると、符号化制御部1から出力された予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、その差分画像の変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施するとともに、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の変換係数を量子化することで、量子化後の変換係数を差分画像の圧縮データとして逆量子化・逆変換部8及び可変長符号化部13に出力する(ステップST7)。
逆量子化・逆変換部8は、変換・量子化部7から差分画像の圧縮データを受けると、符号化制御部1から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを局所復号予測差分信号e ハット(電子出願の関係上、アルファベット文字に付いた「^」をハットと表記する)として加算部9に出力する(ステップST8)。
加算部9は、逆量子化・逆変換部8から局所復号予測差分信号e ハットを受けると、その局所復号予測差分信号e ハットと、イントラ予測部4又は動き補償予測部5により生成された予測画像(イントラ予測画像P 、インター予測画像P )を示す予測信号を加算することで、局所復号パーティション画像P ハットないしはその集まりとしての局所復号符号化ブロック画像である局所復号画像を生成する(ステップST9)。
加算部9は、局所復号画像を生成すると、その局所復号画像を示す局所復号画像信号をイントラ予測用メモリ10に格納するとともに、その局所復号画像信号をループフィルタ部11に出力する。
ステップST3〜ST9の処理は、階層的に分割された全ての符号化ブロックBに対する処理が完了するまで繰り返し実施され、全ての符号化ブロックBに対する処理が完了するとステップST12の処理に移行する(ステップST10,ST11)。
可変長符号化部13は、変換・量子化部7から出力された圧縮データと、符号化制御部1から出力された符号化モード(符号化ブロックの分割状態を示す情報を含む)及び予測差分符号化パラメータと、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータをエントロピー符号化する。
可変長符号化部13は、エントロピー符号化の符号化結果である圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータの符号化データを多重化してビットストリームを生成する(ステップST12)。
ループフィルタ部11は、加算器9から局所復号画像信号を受けると、その局所復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の局所復号画像信号が示す局所復号画像を参照画像として動き補償予測フレームメモリ12に格納する(ステップST13)。
ループフィルタ部11 によるフィルタリング処理は、加算器9から出力される局所復号画像信号の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する局所復号画像信号が出力された後に1画面分まとめて行ってもよい。
次に、動き補償予測部5の処理内容を詳細に説明する。
動き補償予測部5の切替スイッチ21は、符号化制御部1により選択された符号化モードm(B)がダイレクトモード以外のインターモードである場合、ブロック分割部2により分割された符号化ブロックBのパーティションP を動きベクトル探索部22に出力する。
一方、符号化モードm(B)がダイレクトモードのインターモードである場合、ブロック分割部2により分割された符号化ブロックBのパーティションP をダイレクトベクトル生成部23に出力する。
ただし、ダイレクトベクトル生成部23では、ダイレクトベクトルの生成に符号化ブロックBのパーティションP を用いないので、当該符号化モードm(B)がダイレクトモードのインターモードであっても、符号化ブロックBのパーティションP をダイレクトベクトル生成部23に出力しないようにしてもよい。
動き補償予測部5の動きベクトル探索部22は、切替スイッチ21から符号化ブロックBのパーティションP を受けると、そのパーティションP と動き補償予測フレームメモリ12に格納されている参照画像を参照しながら、インターモードで最適な動きベクトルを探索し、その動きベクトルを動き補償処理部24に出力する。
インターモードで最適な動きベクトルを探索する処理自体は公知の技術であるため詳細な説明を省略する。
動き補償予測部5のダイレクトベクトル生成部23は、符号化モードm(B)がダイレクトモードである場合、符号化ブロックBのパーティションP 毎に、空間ダイレクトモードの空間ダイレクトベクトルと時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルのいずれか一方を動きベクトルとして動き補償処理部24に出力する。
なお、符号化ブロックBに属するパーティションP の分割状態を示す情報は、上述したように、符号化モードm(B)の中に含まれているので、ダイレクトベクトル生成部23は、符号化モードm(B)を参照することで、符号化ブロックBのパーティションP を特定することができる。
即ち、ダイレクトベクトル生成部23の空間ダイレクトベクトル生成部31は、図示せぬ動きベクトルメモリ又は内部メモリにより格納されている符号化済みブロックの動きベクトルの中から、符号化ブロックBのパーティションP の周囲に位置している符号化済みブロックの動きベクトルを読み出し、その動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成する。
また、ダイレクトベクトル生成部23の時間ダイレクトベクトル生成部32は、符号化済みブロックの動きベクトルの中から、符号化ブロックBが参照可能な符号化済みピクチャの動きベクトルであって、符号化ブロックBのパーティションP と空間的に同じ位置にあるブロックの動きベクトルを読み出し、その動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成する。
ここで、図11は時間ダイレクトモードで動きベクトル(時間ダイレクトベクトル)を生成する方法を示す模式図である。
例えば、ピクチャB2の中のブロックMB1が符号化対象のパーティションP であり、ブロックMB1を時間ダイレクトモードで符号化する場合を想定する。
この場合、ピクチャB2の時間軸上後方にある符号化済みピクチャのうち、ピクチャB2に一番近いピクチャP3の動きベクトルであって、ブロックMB1と空間的に同じ位置にあるブロックMB2の動きベクトルMVを用いる。
この動きベクトルMVはピクチャP0を参照しており、ブロックMB1を符号化する際に用いる動きベクトルMVL0,MVL1は、以下の式(3)で求められる。

Figure 2019146245
時間ダイレクトベクトル生成部32は、動きベクトルMVL0,MVL1を算出すると、その動きベクトルMVL0,MVL1を時間ダイレクトモードの時間ダイレクトベクトルとしてダイレクトベクトル判定部33に出力する。
ただし、時間ダイレクトベクトル生成部32における時間ダイレクトベクトルの生成方法は、図11に示すようなH.264方式を用いてもよいが、これに限るものではなく、他の方法を用いてもよい。
図12は空間ダイレクトモードで動きベクトル(空間ダイレクトベクトル)を生成する方法を示す模式図である。
図12において、currentMBは、符号化対象のブロックであるパーティションP を表している。
このとき、符号化対象のブロックの左横の符号化済ブロックAの動きベクトルをMVa、符号化対象のブロックの上の符号化済ブロックBの動きベクトルをMVb、符号化対象のブロックの右上の符号化済ブロックCの動きベクトルをMVcとすると、下記の式(4)に示すように、これらの動きベクトルMVa,MVb,MVcのメディアン(中央値)を求めることにより、符号化対象のブロックの動きベクトルMVを算出することができる。
MV=median(MVa、MVb、MVc) (4)
空間ダイレクトモードでは、リスト0及びリスト1のそれぞれについて動きベクトルを求めるが、どちらも上記の方法を用いて求めることが可能である。
空間ダイレクトベクトル生成部31は、上記のようにして、リスト0及びリスト1の動きベクトルMVを算出すると、リスト0及びリスト1の動きベクトルMVを空間ダイレクトモードの空間ダイレクトベクトルとしてダイレクトベクトル判定部33に出力する。
ただし、空間ダイレクトベクトル生成部31における空間ダイレクトベクトルの生成方法は、図12に示すようなH.264方式を用いてもよいが、これに限るものではなく、他の方法を用いてもよい。
例えば、図13に示すように、メディアン予測の候補として、A1−An、B1−Bnから1つずつと、C,D,Eから1つの3つで、空間ダイレクトベクトルを生成するようにしてもよい。
また、空間ダイレクトベクトルの生成に用いるMV候補が違うref_Idxの場合は、図14に示すように、時間方向の距離に応じてスケーリングを行うようにしてもよい。
Figure 2019146245
ただし、scaled_MVはスケーリング後のベクトル、MVはスケーリング前の動きベクトル、d(x)はxまでの時間的な距離を示している。
また、Xrは符号化対象のブロックが示す参照画像、Yrはスケーリングの対象となるブロック位置A−Dが示す参照画像を示している。
ダイレクトベクトル生成部23のダイレクトベクトル判定部33は、空間ダイレクトベクトル生成部31が空間ダイレクトベクトルを生成すると、その空間ダイレクトベクトルを用いて、空間ダイレクトモードの評価値を算出する。
また、ダイレクトベクトル判定部33は、時間ダイレクトベクトル生成部32が時間ダイレクトベクトルを生成すると、その時間ダイレクトベクトルを用いて、時間ダイレクトモードの評価値を算出する。
ダイレクトベクトル判定部33は、その空間ダイレクトモードの評価値と時間ダイレクトモードの評価値を比較し、その空間ダイレクトベクトル又は時間ダイレクトベクトルのうち、以下に記載するような判定手段によってダイレクトモードのダイレクトベクトルを選択して動き補償処理部24に出力する。
以下、ダイレクトベクトル判定部33の処理内容を具体的に説明する。
ダイレクトベクトル判定部33の動き補償部41は、空間ダイレクトベクトル生成部31が空間ダイレクトベクトルMVL0,MVL1を生成すると、その空間ダイレクトベクトルMVL0を用いて、空間ダイレクトモードのリスト0予測画像を生成し、その空間ダイレクトベクトルMVL1を用いて、空間ダイレクトモードのリスト1予測画像を生成する。
ここで、図15は前方予測画像と後方予測画像の類似度による評価値の算出例を示す説明図であるが、図15の例では、空間ダイレクトモードのリスト0予測画像として、前方予測画像fspatialを生成し、空間ダイレクトモードのリスト1予測画像として、後方予測画像gspatialを生成している。
また、動き補償部41は、時間ダイレクトベクトル生成部32がリスト0及びリスト1の動きベクトルMVである時間ダイレクトベクトルを生成すると、前方の動きベクトルMVである時間ダイレクトベクトルを用いて、時間ダイレクトモードのリスト0予測画像を生成し、後方の動きベクトルMVである時間ダイレクトベクトルを用いて、時間ダイレクトモードの時間ダイレクトモードのリスト1予測画像を生成する。
図15の例では、時間ダイレクトモードのリスト0予測画像として、時間ダイレクトモードの前方予測画像ftemporalを生成し、時間ダイレクトモードのリスト1予測画像として、後方予測画像gtemporalを生成している。
ここでは、前方向の参照画像を示す参照画像リスト0と、後方向の参照画像を示す参照画像リスト1を用いて、リスト0予測画像として前方予測画像を生成し、リスト1予測画像として後方予測画像を生成するものについて示したが、後方向の参照画像を示す参照画像リスト0と、前方向の参照画像を示す参照画像リスト1を用いて、リスト0予測画像として後方予測画像を生成し、リスト1予測画像として前方予測画像を生成するようにしてもよい。
また、前方向の参照画像を示す参照画像リスト0と、更に前方向の参照画像を示す参照画像リスト1を用いて、リスト0予測画像及びリスト1予測画像として、前方予測画像を生成するようにしてもよい(詳細は後述する)。
ダイレクトベクトル判定部33の類似度算出部42は、空間ダイレクトモードのリスト0予測画像とリスト1予測画像を生成すると、下記の式(6)のように、空間ダイレクトモードの評価値SADspatialを算出する。
式(6)では、説明の便宜上、空間ダイレクトモードのリスト0予測画像が前方予測画像fspatial、空間ダイレクトモードのリスト1予測画像が後方予測画像gspatialとしている。
SADspatial=|fspatial−gspatial| (6)
また、類似度算出部42は、時間ダイレクトモードのリスト0予測画像とリスト1予測画像を生成すると、下記の式(7)のように、時間ダイレクトモードの評価値SADtemporalを算出する。
式(7)では、説明の便宜上、時間ダイレクトモードのリスト0予測画像が前方予測画像ftemporal、時間ダイレクトモードのリスト1予測画像が後方予測画像gtemporalとしている。
SADtemporal=|ftemporal−gtemporal|(7)
なお、前方予測画像と後方予測画像間の差分が大きい程、2つの画像間の類似度が低くなり(2つの画像の差分絶対値和を示す評価値SADが大きくなる)、時間的な相関が低くなる。逆に、前方予測画像と後方予測画像間の差分が小さい程、2つの画像間の類似度が高くなり(2つの画像の差分絶対値和を示す評価値SADが小さくなる)、時間的な相関が高くなる。
また、ダイレクトベクトルで予測する画像は、符号化対象のブロックに似ている画像を予測するはずである。2つのベクトルを用いて予測画像を生成する場合、それぞれのベクトルが予測する画像は符号化対象のブロックに似ているはずであり、これは2つの参照画像の相関が高いことを示している。
したがって、評価値SADが小さい方のダイレクトベクトルを選択することで、参照画像間の相関が高いモードを選ぶことができ、ダイレクトモードの精度を高めることができる。
ダイレクトベクトル判定部33のダイレクトベクトル選択部43は、類似度算出部42が空間ダイレクトモードの評価値SADspatialと、時間ダイレクトモードの評価値SADtemporalとを算出すると、その評価値SADspatialと評価値SADtemporalを比較することで、空間ダイレクトモードにおける前方予測画像fspatialと後方予測画像gspatialの類似度と、時間ダイレクトモードにおける前方予測画像ftemporalと後方予測画像gtemporalの類似度とを比較する。
ダイレクトベクトル選択部43は、空間ダイレクトモードにおける前方予測画像fspatialと後方予測画像gspatialの類似度が、時間ダイレクトモードにおける前方予測画像ftemporalと後方予測画像gtemporalの類似度より高い場合(SADspatial≦SADtemporal)、空間ダイレクトベクトル生成部31により生成された空間ダイレクトベクトルを選択し、その空間ダイレクトベクトルを動きベクトルとして動き補償処理部24に出力する。
一方、時間ダイレクトモードにおける前方予測画像ftemporalと後方予測画像gtemporalの類似度が、空間ダイレクトモードにおける前方予測画像fspatialと後方予測画像gspatialの類似度より高い場合(SADspatial>SADtemporal)、時間ダイレクトベクトル生成部32により生成された時間ダイレクトベクトルを選択し、その時間ダイレクトベクトルを動きベクトルとして動き補償処理部24に出力する。
動き補償処理部24は、符号化モードm(B)がダイレクトモードでないとき、動きベクトル探索部22から動きベクトルを受けると、その動きベクトルと動き補償予測フレームメモリ12に格納されている1フレームの参照画像を用いて、符号化制御部1から出力されたインター予測パラメータに基づいて動き補償予測処理を実施することで、予測画像を生成する。
一方、符号化モードm(B)がダイレクトモードであるとき、ダイレクトベクトル生成部23から動きベクトル(ダイレクトベクトル選択部43により選択されたダイレクトベクトル)を受けると、その動きベクトルと動き補償予測フレームメモリ12に格納されている1フレームの参照画像を用いて、符号化制御部1から出力されたインター予測パラメータに基づいて動き補償予測処理を実施することで、予測画像を生成する。
なお、動き補償処理部24の動き補償予測処理は公知の技術であるため詳細な説明を省略する。
ここでは、類似度算出部42が差分絶対値和である評価値SADを算出し、ダイレクトベクトル選択部43が評価値SADを比較するものについて示したが、類似度算出部42が評価値として、前方予測画像と後方予測画像間の差分二乗和SSEを算出し、ダイレクトベクトル選択部43が差分二乗和SSEを比較するようにしてもよい。SSEを用いることにより処理量は増えるが、より正確に類似度を算出することが可能となる。
次に、図5の画像復号装置の処理内容を説明する。
可変長復号部51は、図1の画像符号化装置から出力されたビットストリームを入力すると、そのビットストリームに対する可変長復号処理を実施して、1フレーム以上のピクチャから構成されるシーケンス単位あるいはピクチャ単位にフレームサイズを復号する(図8のステップST21)。
可変長復号部51は、図1の符号化制御部1と同様の手順で、動き補償予測処理(フレーム間予測処理)又はイントラ予測処理(フレーム内予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する(ステップST22)。
例えば、画像符号化装置において、符号化ブロックの最大サイズが、入力画像の解像度に応じて決定されている場合、先に復号しているフレームサイズに基づいて符号化ブロックの最大サイズを決定する。
なお、符号化ブロックの最大サイズ及び上限の階層数を示す情報がビットストリームに多重化されている場合には、そのビットストリームから復号した情報を参照する。
ビットストリームに多重化されている最大サイズの符号化ブロックBの符号化モードm(B)には、最大サイズの符号化ブロックBの分割状態を示す情報が含まれているので、可変長復号部51は、ビットストリームに多重化されている最大サイズの符号化ブロックBの符号化モードm(B)を復号して、階層的に分割されている各々の符号化ブロックBを特定する(ステップST23)。
可変長復号部51は、各々の符号化ブロックBを特定すると、その符号化ブロックBの符号化モードm(B)を復号し、その符号化モードm(B)に属しているパーティションP の情報に基づいて、符号化ブロックBに属しているパーティションP を特定する。
可変長復号部51は、符号化ブロックBに属しているパーティションP を特定すると、パーティションP 毎に、圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータを復号する(ステップST24)。
切替スイッチ52は、可変長復号部51から符号化ブロックBに属しているパーティションP の符号化モードm(B)がイントラ符号化モードである場合(ステップST25)、可変長復号部51から出力されたイントラ予測パラメータをイントラ予測部53に出力する。
一方、パーティションP の符号化モードm(B)がインター符号化モードである場合(ステップST25)、可変長復号部51から出力されたインター予測パラメータを動き補償予測部54に出力する。
イントラ予測部53は、切替スイッチ52からイントラ予測パラメータを受けると、そのイントラ予測パラメータを用いて、その符号化ブロックBのパーティションP に対するイントラ予測処理を実施して、イントラ予測画像P を生成する(ステップST26)。
動き補償予測部54は、切替スイッチ52からインター予測パラメータを受けると、可変長復号部51から出力された符号化モードm(B)がダイレクトモードのインター符号化モードであれば、図1の動き補償予測部5と同様に、空間ダイレクトモードの空間ダイレクトベクトルと時間ダイレクトモードの時間ダイレクトベクトルを生成する。
動き補償予測部54は、空間ダイレクトモードの空間ダイレクトベクトルと時間ダイレクトモードの時間ダイレクトベクトルを生成すると、図1の動き補償予測部5と同様に、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトル及びインター予測パラメータを用いて、符号化ブロックBのパーティションP に対する動き補償予測処理を実施して、インター予測画像P を生成する(ステップST27)。
一方、可変長復号部51から出力された符号化モードm(B)がダイレクトモード以外のインター符号化モードであれば、動き補償予測部54の動き補償処理部63が、切替スイッチ52から出力されたインター予測パラメータに含まれている動きベクトルを用いて、符号化ブロックBのパーティションP に対する動き補償予測処理を実施して、インター予測画像P を生成する(ステップST27)。
逆量子化・逆変換部55は、可変長復号部51から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、可変長復号部51から出力された符号化ブロックに係る圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを復号予測差分信号(圧縮前の差分画像を示す信号)として加算部56に出力する(ステップST28)。
加算部56は、逆量子化・逆変換部55から復号予測差分信号を受けると、その復号予測差分信号とイントラ予測部53又は動き補償予測部54により生成された予測画像を示す予測信号を加算することで復号画像を生成して、その復号画像を示す復号画像信号をイントラ予測用メモリ57に格納するとともに、その復号画像信号をループフィルタ部58に出力する(ステップST29)。
ステップST23〜ST29の処理は、階層的に分割された全ての符号化ブロックBに対する処理が完了するまで繰り返し実施される(ステップST30)。
ループフィルタ部58は、加算器56から復号画像信号を受けると、その復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の復号画像信号が示す復号画像を参照画像として動き補償予測フレームメモリ59に格納する(ステップST31)。
ループフィルタ部58によるフィルタリング処理は、加算器56から出力される復号画像信号の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する復号画像信号が出力された後に1画面分まとめて行ってもよい。
以上で明らかなように、この実施の形態1によれば、予測処理が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定し、利用可能な1以上の符号化モードの中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択する符号化制御部1と、入力画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割するブロック分割部2とを設け、ブロック分割部2により分割された符号化ブロックに適する符号化モードとして、符号化制御部1によりダイレクトモードのインター符号化モードが選択された場合、動き補償予測部5が、当該符号化ブロックの周囲に位置している符号化済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な符号化済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトルを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するように構成したので、所定のブロック単位に最適なダイレクトモードを選択して、符号量を削減することができる効果を奏する。
また、この実施の形態1によれば、ビットストリームに多重化されている符号化データから階層的に分割されている各々の符号化ブロックに係る圧縮データ及び符号化モードを可変長復号する可変長復号部51を設け、可変長復号部51により可変長復号された符号化ブロックに係る符号化モードがダイレクトモードのインター符号化モードである場合、動き補償予測部54が、当該符号化ブロックの周囲に位置している復号済みブロックの動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な復号済みピクチャの動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択し、そのダイレクトベクトルを用いて、その符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するように構成したので、所定のブロック単位に最適なダイレクトモードを選択することができるような符号化データを復号可能な動画像復号装置が得られる効果を奏する。
実施の形態2.
上記実施の形態1では、動き補償予測部5,54(具体的には、類似度算出部42)が、空間ダイレクトモードの評価値SADspatialとして、空間ダイレクトモードの前方予測画像fspatialと後方予測画像gspatialの類似度を算出する一方、時間ダイレクトモードの評価値SADtemporalとして、時間ダイレクトモードの前方予測画像ftemporalと後方予測画像gtemporalの類似度を算出するものについて示したが、空間ダイレクトモードの評価値として、符号化ブロックBの周囲に位置している符号化済みブロック(復号済みブロック)の動きベクトルの分散値σ(spatial)を算出する一方、時間ダイレクトモードの評価値として、符号化ブロックBが参照可能な符号化済みピクチャ(復号済みピクチャ)において、符号化ブロックBと空間的に同じ位置にあるブロックの周囲に位置している符号化済みブロック(復号済みブロック)の動きベクトルの分散値σ(temporal)を算出するようにしてもよく、上記実施の形態1と同様の効果を奏することができる。
即ち、類似度算出部42が、空間ダイレクトモードの評価値SADspatialとして、空間ダイレクトモードの前方予測画像fspatialと後方予測画像gspatialの類似度を算出する代わりに、図16(a)に示すように、符号化ブロックBの周囲に位置している符号化済みブロック(復号済みブロック)の動きベクトルの分散値σ(spatial)を算出する(下記の式(8)を参照)。
また、類似度算出部42が、時間ダイレクトモードの評価値SADtemporalとして、時間ダイレクトモードの前方予測画像ftemporalと後方予測画像gtemporalの類似度を算出する代わりに、図16(b)に示すように、符号化ブロックBが参照可能な符号化済みピクチャ(復号済みピクチャ)において、符号化ブロックBと空間的に同じ位置にあるブロックの周囲に位置している符号化済みブロック(復号済みブロック)の動きベクトルの分散値σ(temporal)を算出する(下記の式(8)を参照)。

Figure 2019146245
また、mはspatial又はtemporalを示す記号である。
ダイレクトベクトル選択部43は、動きベクトルの分散値σ(spatial)と動きベクトルの分散値σ(temporal)とを比較し、動きベクトルの分散値σ(spatial)が動きベクトルの分散値σ(temporal)より大きい場合、空間ダイレクトモードの動きベクトル(空間ダイレクトベクトル)の信頼性が低いと判断して、時間ダイレクトモードの動きベクトル(時間ダイレクトベクトル)を選択する。
一方、動きベクトルの分散値σ(temporal)が動きベクトルの分散値σ(spatial)より大きい場合、時間ダイレクトモードの動きベクトル(時間ダイレクトベクトル)の信頼性が低いと判断して、空間ダイレクトモードの動きベクトル(空間ダイレクトベクトル)を選択する。
上記実施の形態1では、時間ダイレクトベクトルと空間ダイレクトベクトルを生成し、いずれか一方のダイレクトベクトルを選択するものについて示したが、その時間ダイレクトベクトルや空間ダイレクトベクトルの他に、他のベクトルを候補ベクトルとして加え、それらの候補ベクトルの中からダイレクトベクトルを選択するようにしてもよい。
例えば、図17のような空間ベクトルMV_A,MV_B,MV_Cや、時間ベクトルMV_1〜MV_8を候補ベクトルに加えて、これらの空間ベクトルや時間ベクトルからダイレクトベクトルを選択するようにしてもよい。
また、図18に示すように、複数の符号化済ベクトルから1つのベクトルを生成し、そのベクトルを候補ベクトルに加えるようにしてもよい。
このように、候補ベクトルを増やすことで処理量は増加するが、ダイレクトベクトルの確度が向上して、符号化効率を向上させることができる。
上記実施の形態1では、特に言及していないが、ダイレクトベクトルの候補をスライス単位に決定するようにしてもよい。
どのベクトルを候補とするかを示す情報はスライスヘッダに多重する。
例えば、時間ベクトルに関しては、パンするような映像では時間ベクトルの効果が低いため、選択候補から外すようにする一方、カメラが固定な映像では空間ベクトルの効果が大きいため候補に加えるなどの方法が考えられる。
候補となるベクトルが多い方が、より原画像に近い予測画像を生成することができるが、エンコーダの処理量が増大するため、効果がないベクトルは予め候補からはずしておくなど、映像の局所性を考慮して決定することにより、処理量と符号化効率のバランスを図ることができる。
候補となるベクトルの切り替えは、例えば、ベクトル毎にオン/オフのフラグを設け、そのフラグがオンのベクトルのみを候補とする方法が考えられる。
選択候補となる動きベクトルは、スライスヘッダで切り替えてもよいし、シーケンスヘッダやピクチャヘッダなど、上位レイヤで切り替えてもよい。また、選択候補となるセットを一つ以上用意して、その候補セットのインデックスを符号化するようにしてもよい。
また、マクロブロックや符号化ブロック毎に切り替えてもよい。マクロブロックや符号化ブロック毎に切り替えることで、局所性を持たせることができ、符号化効率改善の効果がある。
また、選択候補はパーティションブロックサイズ毎に一意に決定しておいてもよい。一般的にブロックサイズが小さくなると空間的な相関が弱くなるため、メディアン予測で決定されるベクトルの予測精度が悪くなると考えられる。そのため、例えば、メディアン予測で決定される動きベクトルを候補から外すことで、符号化効率を落とさずに処理量を減らすことができる。
上記実施の形態1では、時間ダイレクトベクトルと空間ダイレクトベクトルの双方が存在する場合を想定して説明したが、符号化ブロックBに対して、イントラ符号化処理を実施している場合などには、動きベクトルが存在しない場合もある。この場合、ゼロベクトルとする方法や、候補から外すなどの方法が考えられる。
ゼロベクトルとする場合は、候補が増えるため、符号化効率を向上させることができるが、処理量が増える。ダイレクトベクトルの候補から外す場合は処理量を減らすことができる。
上記実施の形態1では、ダイレクトベクトルを生成するものについて示したが、そのダイレクトベクトルを通常の動きベクトルの符号化に使用する予測ベクトルとして使用するようにしてもよい。
ダイレクトベクトルを予測ベクトルとして使用することで、処理量は増加するが、予測の精度が上がるため、符号化効率を向上させることができる。
上記実施の形態1では、符号化ブロックBより時間的に前にある画像と、後にある画像とを組み合わせて、評価値SADを算出する例を示したが(図15を参照)、図19に示すように、時間的に前にある画像のみを組み合わせて、評価値SADを算出するようにしてもよい。また、時間的に後にある画像のみを組み合わせて、評価値SADを算出するようにしてもよい。
この場合、時間ベクトルは、下記の式(9)(10)で表される。

Figure 2019146245
また、dは時間的な距離を示し、dはリスト0の参照画像の時間的距離を示し、dはリスト0の参照画像の時間的距離を示すものとする。
さらに、vcolとdcolは参照画像中で空間的に同じ位置にあるブロックのベクトルと、そのベクトルが示す参照画像の時間的な距離を示すものとする。
2つの参照画像リストが同じ参照画像を示している場合であっても、リストに2枚以上の参照画像があれば、図19と同様の方法で適用可能である。
上記実施の形態1では、2つの参照画像リストに2枚以上参照画像がある場合を想定しているが、実際は参照画像が1枚しかない場合も考えられる。
この場合、2つの参照画像リストに同じ参照画像がセットされていれば、時間ベクトルは使用せずに、空間ベクトルのみで判断することが考えられる。違う参照画像がセットされている場合は前述の方式で対応可能である。
上記実施の形態1では、2方向からの予測処理を想定しているが、1方向だけの予測処理でもよい。1方向のベクトルから予測する場合は、どちらのベクトルを使用するかを示す情報を符号化して伝送する。これにより、オクルージョンなどの問題に対処することが可能となり、予測精度の向上に寄与する。
上記実施の形態1のダイレクトモードでは、2本のベクトルを用いた予測を想定しているが、ベクトルの本数は3本以上であってもよい。
この場合、例えば、複数のベクトル候補のうち、閾値Th以下の評価値SADになる候補の全てを使用して予測画像を生成する方法が考えられる。また、参照画像リストもそのベクトル分保持している。
また、閾値Th以下の候補の全てを使用するのではなく、スライスヘッダなどに、予め使用する最大ベクトル数を定めておき、評価値の小さい候補から最大ベクトル数分用いて予測画像を生成するようにしてもよい。
一般的に、予測画像に用いる参照画像が多い程、性能が向上することが知られている。そのため、処理量は増えるが、符号化効率の向上に寄与する。
上記実施の形態1では、参照画像間の評価によってベクトルを決定しているが、これは空間的に隣接する符号化済の画像と参照画像との比較で評価してもよい。
この場合は、図20に示すようなL字型の画像を用いて行うことが考えられる。
また、空間的に隣接する画像を用いる場合、パイプライン処理の都合で符号化済みの画像が間に合わない可能性もある。この場合、代わりに予測画像を用いることが考えられる。
上記実施の形態1では、図9に示すように、符号化ブロックBのサイズがL=Mであるものを示したが、符号化ブロックBのサイズがL≠Mであってもよい。
例えば、図21に示すように、符号化ブロックBのサイズがL=kMとなる場合が考えられる。
次の分割では、(Ln+1,Mn+1)=(L,M)となり、以降の分割は、図9と同様の分割を行ってもよいし、(Ln+1,Mn+1)=(L/2,M/2)のように分割を行ってもよい(図22を参照)。
また、図23に示すように、図21と図22の分割のどちらかを選択できるようにしてもよい。選択できるようにした場合は、どちらの分割を選択したかを示すフラグを符号化する。このケースは、例えば、非特許文献1のH.264のような16×16を1つのブロックとするものを横に連結するだけで可能であるため、既存方式との互換性を維持することができる。
上記では、符号化ブロックBのサイズがL=kMとなる場合を示したが、kL=Mのように縦に連結したものであっても、同様の考えで分割が可能であることは言うまでもない。
上記実施の形態1では、変換・量子化部7、逆量子化・逆変換部8,55が予測差分符号化パラメータに含まれている変換ブロックサイズ単位で変換処理(逆変換処理)を実施するものを示したが、変換ブロックサイズ単位は、変換処理単位によって一意に決定してもよいし、図24に示すように階層構造にしてもよい。この場合、各階層では分割するか否かを示すフラグを符号化する。
上記分割は、パーティション単位で行ってもよいし、符号化ブロック単位で行ってもよい。
上記変換は、正方形での変換を仮定しているが、長方形など、他の矩形での変換であってもよい。
実施の形態3.
上記実施の形態1では、動き補償予測部5,54のダイレクトベクトル生成部23,62が、空間ダイレクトベクトルと時間ダイレクトベクトルを生成するものを示したが、その空間ダイレクトベクトルと時間ダイレクトベクトルを生成する際、初期探索点を決定し、その初期探索点の周囲を探索することで、ダイレクトベクトルを決定するようにしてもよい。
図25はこの発明の実施の形態3による動画像符号化装置の動き補償予測部5を示す構成図であり、図において、図2と同一符号は同一または相当部分を示すので説明を省略する。
ダイレクトベクトル生成部25は空間ダイレクトベクトルと時間ダイレクトベクトルを生成する処理を実施する。
図26は動き補償予測部5を構成しているダイレクトベクトル生成部25を示す構成図である。
図26において、初期ベクトル生成部34は符号化済みのブロックの動きベクトルから初期ベクトルを生成する処理を実施する。
動きベクトル探索部35は初期ベクトル生成部34により生成された初期ベクトルが示す初期探索点の周囲を探索することで、ダイレクトベクトルを決定する処理を実施する。
図27はダイレクトベクトル生成部25を構成している初期ベクトル生成部34を示す構成図である。
図27において、空間ベクトル生成部71は例えば図3の空間ダイレクトベクトル生成部31と同様の方法で、符号化済みのブロックの動きベクトルから空間ベクトルを生成する処理を実施する。
時間ベクトル生成部72は例えば図3の時間ダイレクトベクトル生成部32と同様の方法で、符号化済みのブロックの動きベクトルから時間ベクトルを生成する処理を実施する。
初期ベクトル判定部73は空間ベクトル生成部71により生成された空間ベクトル又は時間ベクトル生成部72により生成された時間ベクトルのいずれか一方を初期ベクトルとして選択する処理を実施する。
図28は初期ベクトル生成部34を構成している初期ベクトル判定部73を示す構成図である。
図28において、動き補償部81は図4の動き補償部41と同様の方法で、空間ダイレクトモードのリスト0予測画像、空間ダイレクトモードのリスト1予測画像、時間ダイレクトモードのリスト0予測画像及び時間ダイレクトモードのリスト1予測画像を生成する処理を実施する。
類似度算出部82は図4の類似度算出部42と同様の方法で、空間評価値として、空間ダイレクトモードのリスト0予測画像とリスト1予測画像の類似度を算出するとともに、時間評価値として、時間ダイレクトモードのリスト0予測画像とリスト1予測画像の類似度を算出する処理を実施する。
初期ベクトル決定部83は類似度算出部82により算出された空間評価値と時間評価値を比較し、その比較結果にしたがって、空間ベクトル又は時間ベクトルを選択する処理を実施する。
図29はこの発明の実施の形態3による動画像復号装置の動き補償予測部54を示す構成図であり、図において、図6と同一符号は同一または相当部分を示すので説明を省略する。
ダイレクトベクトル生成部64は空間ダイレクトベクトルと時間ダイレクトベクトルを生成する処理を実施する。
なお、ダイレクトベクトル生成部64の内部構成は、図25のダイレクトベクトル生成部25と同じである。
次に動作について説明する。
上記実施の形態1と比較して、動き補償予測部5,54のダイレクトベクトル生成部23,62が、ダイレクトベクトル生成部25,64に代えられている点以外は同じであるため、ダイレクトベクトル生成部25,64の処理内容のみを説明する。
ただし、ダイレクトベクトル生成部25,64の処理内容は同じであるため、ダイレクトベクトル生成部25の処理内容を説明する。
ダイレクトベクトル生成部25の初期ベクトル生成部34は、符号化済みのブロックの動きベクトルから初期ベクトルMV_firstを生成する。
即ち、初期ベクトル生成部34の空間ベクトル生成部71は、例えば、図3の空間ダイレクトベクトル生成部31と同様の方法で、符号化済みのブロックの動きベクトルから空間ベクトルを生成する。ただし、他の方法で空間ベクトルを生成するようにしてもよい。
初期ベクトル生成部34の時間ベクトル生成部72は、例えば、図3の時間ダイレクトベクトル生成部32と同様の方法で、符号化済みのブロックの動きベクトルから時間ベクトルを生成する。ただし、他の方法で時間ベクトルを生成するようにしてもよい。
初期ベクトル生成部34の初期ベクトル判定部73は、空間ベクトル生成部71が空間ベクトルを生成し、時間ベクトル生成部72が時間ベクトルを生成すると、その空間ベクトル又は時間ベクトルの中から、いずれか一方のベクトルを初期ベクトルMV_firstとして選択する。
即ち、初期ベクトル判定部73の動き補償部81は、図4の動き補償部41と同様の方法で、空間ダイレクトモードのリスト0予測画像、空間ダイレクトモードのリスト1予測画像、時間ダイレクトモードのリスト0予測画像及び時間ダイレクトモードのリスト1予測画像を生成する。
初期ベクトル判定部73の類似度算出部82は、図4の類似度算出部42と同様の方法で、空間評価値として、空間ダイレクトモードのリスト0予測画像とリスト1予測画像の類似度を算出するとともに、時間評価値として、時間ダイレクトモードのリスト0予測画像とリスト1予測画像の類似度を算出する。
初期ベクトル判定部73の初期ベクトル決定部83は、類似度算出部82により算出された空間評価値と時間評価値の比較結果を参照することで、空間ベクトル又は時間ベクトルのうち、予測画像間の類似度が高い方のベクトルを選択する。
ダイレクトベクトル生成部25の動きベクトル探索部35は、初期ベクトル生成部34が初期ベクトルMV_firstを生成すると、図30に示すように、その初期ベクトルMV_firstが示す初期探索点(ブロック)を中心に、その周り±nの範囲を探索することで、ダイレクトベクトルを決定する。
探索の際の評価は、例えば、図28の類似度算出部82と同等の処理を行うようにしてもよい。この場合、初期ベクトルが示す位置をvとすると、下記の式(11)のように、探索の評価値SADを算出する。
Figure 2019146245
ただし、探索範囲nは固定でもよいし、スライスヘッダなど上位ヘッダで決定してもよい。また、探索点の分布範囲(探索範囲)を正方形と仮定しているが、矩形でもよいし、ひし形などでもよい。
動きベクトル探索部35は、探索の評価値SADを算出すると、探索範囲内において、評価値SADが最も小さい動きベクトルをダイレクトベクトルとして動き補償処理部24に出力する。
この実施の形態3では、時間ベクトルと空間ベクトルを生成し、いずれか一方のベクトルを初期ベクトルとして選択するものについて示したが、その時間ベクトルや空間ベクトルの他に、他のベクトルを候補ベクトルとして加え、それらの候補ベクトルの中から初期ベクトルを選択するようにしてもよい。
例えば、図17のような空間ベクトルMV_A,MV_B,MV_Cや、時間ベクトルMV_1〜MV_8を候補ベクトルに加えて、これらの空間ベクトルや時間ベクトルから初期ベクトルを選択するようにしてもよい。
また、図18に示すように、複数の符号化済ベクトルから1つのベクトルを生成し、そのベクトルを候補ベクトルに加えるようにしてもよい。
このように、候補ベクトルを増やすことで処理量は増加するが、初期ベクトルの確度が向上して、符号化効率を向上させることができる。
この実施の形態3では、ダイレクトベクトルの候補をスライス単位に決定するようにしてもよい。
どのベクトルを候補とするか示す情報はスライスヘッダに多重する。
例えば、時間ベクトルに関しては、パンするような映像では時間ベクトルの効果が低いため、選択候補から外すようにする一方、カメラが固定な映像では時間ベクトルの効果が大きいため候補に加えるなどの方法が考えられる。
候補となるベクトルが多い方が、より原画像に近い予測画像を生成することができるが、エンコーダの処理量が増大するため、効果がないベクトルは予め候補からはずしておくなど、映像の局所性を考慮して決定することにより、処理量と符号化効率のバランスを図ることができる。
候補となるベクトルの切り替えは、例えば、ベクトル毎にオン/オフのフラグを設け、そのフラグがオンのベクトルのみを候補とする方法が考えられる。
選択候補となる動きベクトルは、スライスヘッダで切り替えてもよいし、シーケンスヘッダやピクチャヘッダなど、上位レイヤで切り替えてもよい。また、選択候補となるセットを一つ以上用意して、その候補セットのインデックスを符号化するようにしてもよい。
また、マクロブロックや符号化ブロック毎に切り替えてもよい。マクロブロックや符号化ブロック毎に切り替えることで、局所性を持たせることができ、符号化効率改善の効果がある。
また、選択候補はパーティションブロックサイズ毎に一意に決定しておいてもよい。一般的にブロックサイズが小さくなると空間的な相関が弱くなるため、メディアン予測で決定されるベクトルの予測精度が悪くなると考えられる。そのため、例えば、メディアン予測で決定される動きベクトルを候補から外すことで、符号化効率を落とさずに処理量を減らすことができる。
この実施の形態3では、時間ベクトルと空間ベクトルの双方が存在する場合を想定して説明したが、符号化ブロックBに対して、イントラ符号化処理を実施している場合などには、動きベクトルが存在しない場合もある。この場合、ゼロベクトルとする方法や、候補から外すなどの方法が考えられる。
ゼロベクトルとする場合は、候補が増えるため、符号化効率を向上させることができるが処理量が増える。ダイレクトベクトルの候補から外す場合は処理量を減らすことができる。
この実施の形態3では、ダイレクトベクトルを生成するものについて示したが、そのダイレクトベクトルを通常の動きベクトルの符号化に使用する予測ベクトルとして使用するようにしてもよい。
ダイレクトベクトルを予測ベクトルとして使用することで、処理量は増加するが、予測の精度が上がるため、符号化効率を向上させることができる。
この実施の形態3では、符号化ブロックBより時間的に前にある画像と、後にある画像とを組み合わせて、評価値SADを算出する例を示したが(図15を参照)、図19に示すように、時間的に前にある画像のみを組み合わせて、評価値SADを算出するようにしてもよい。また、時間的に後にある画像のみを組み合わせて、評価値SADを算出するようにしてもよい。
この場合、時間ベクトルは、下記の式(12)(13)で表される。

Figure 2019146245
また、dは時間的な距離を示し、dはリスト0の参照画像の時間的距離を示し、dはリスト0の参照画像の時間的距離を示すものとする。
さらに、vcolとdcolは参照画像中で空間的に同じ位置にあるブロックのベクトルと、そのベクトルが示す参照画像の時間的な距離を示すものとする。
2つの参照画像リストが同じ参照画像を示している場合であっても、図19と同様の方法で適用可能である。
この実施の形態3では、2つの参照画像リストに2枚以上参照画像がある場合を想定しているが、実際は参照画像が1枚しかない場合も考えられる。
この場合、2つの参照画像リストに同じ参照画像がセットされていれば、時間ベクトルは使用せずに、空間ベクトルのみで判断することが考えられる。違う参照画像がセットされている場合は前述の方式で対応可能である。
この実施の形態3では、2方向からの予測処理を想定しているが、1方向だけの予測処理でもよい。1方向のベクトルから予測する場合は、どちらのベクトルを使用するか示す情報を符号化して伝送する。これにより、オクルージョンなどの問題に対処することが可能となり、予測精度の向上に寄与する。
この実施の形態3では、2本のベクトルを用いた予測を想定しているが、ベクトルの本数は3本以上であってもよい。
この場合、例えば、複数のベクトル候補のうち、閾値Th以下の評価値SADになる候補の全てを使用して予測画像を生成する方法が考えられる。
また、閾値Th以下の候補の全てを使用するのではなく、スライスヘッダなどに、予め使用する最大ベクトル数を定めておき、評価値の小さい候補から最大ベクトル数分用いて予測画像を生成するようにしてもよい。
この実施の形態3では、参照画像間の評価によってベクトルを決定しているが、これは空間的に隣接する符号化済の画像と参照画像との比較で評価してもよい。
この場合は、図20に示すようなL字型の画像を用いて行うことが考えられる。
また、空間的に隣接する画像を用いる場合、パイプライン処理の都合で符号化済みの画像が間に合わない可能性もある。この場合、代わりに予測画像を用いることが考えられる。
この実施の形態3では、初期ベクトルを決定してから、動きベクトルの探索を行っているが、動きベクトルの探索を行うか否かをスライス単位でフラグを用いて決定するようにしてもよい。
この場合、符号化効率が落ちるが、処理量を大きく削減することができる効果がある。
ただし、フラグはスライス単位でもよいし、シーケンスやピクチャなどの上位レイヤで決定してもよい。フラグがオフであって、動き探索を行わない場合は、上記実施の形態1と同等の動作を行う。
この実施の形態3では、ダイレクトベクトル生成部25,64が、ブロックサイズによらずに行うことを想定しているが、この処理は所定のサイズ以下の場合のみに制限してもよい。
所定のサイズ以下に制限するか否かを示すフラグや、どのブロックサイズ以下にするかを示す情報は、スライスなど上位ヘッダに多重してもよいし、最大CUサイズに応じて変化させてもよい。
ブロックサイズが小さくなると、参照画像間の相関が低くなり、誤差が大きくなる傾向にある。そのため、どちらのベクトルを選択しても、あまり性能に影響がでないケースも多く、大きなブロックサイズでの処理をオフにすることで、符号化性能を落とすことなく処理量を減らす効果がある。
実施の形態4.
上記実施の形態1では、動き補償予測部5,54が、符号化ブロックの周囲に位置している符号化済みブロック(復号済みブロック)の動きベクトルから空間ダイレクトモードの空間ダイレクトベクトルを生成するとともに、当該符号化ブロックが参照可能な符号化済みピクチャ(復号済みピクチャ)の動きベクトルから時間ダイレクトモードの時間ダイレクトベクトルを生成し、その空間ダイレクトベクトル又は時間ダイレクトベクトルの中から、参照画像間の相関が高くなる方のダイレクトベクトルを選択するものについて示したが、動画像符号化装置の動き補償予測部5では、選択可能な1以上の動きベクトルの中から、予測画像の生成に適する動きベクトルを選択し、その動きベクトルを用いて、符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するとともに、その動きベクトルを示すインデックス情報を可変長符号化部13に出力するようにしてもよい。
一方、動画像復号装置の動き補償予測部54では、ビットストリームに多重化されているインデックス情報が示す動きベクトルを用いて、符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するようにしてもよい。
図31はこの発明の実施の形態4による動画像符号化装置の動き補償予測部5を示す構成図であり、図において、図2と同一符号は同一または相当部分を示すので説明を省略する。
ダイレクトベクトル生成部26は選択可能な動きベクトルと、その動きベクトルを示すインデックス情報とが記述されているダイレクトベクトル候補インデックスを参照して、選択可能な1以上の動きベクトルの中から、予測画像の生成に適する動きベクトルを選択し、その動きベクトルをダイレクトベクトルとして動き補償処理部24に出力するとともに、その動きベクトルを示すインデックス情報を可変長符号化部13に出力する処理を実施する。
なお、可変長符号化部13は圧縮データや符号化モード等を可変長符号化する際、そのインデックス情報をインター予測パラメータに含めて可変長符号化する。
図32はこの発明の実施の形態4による動画像復号装置の動き補償予測部54を示す構成図であり、図において、図6と同一符号は同一または相当部分を示すので説明を省略する。
ダイレクトベクトル生成部65は選択可能な動きベクトルと、その動きベクトルを示すインデックス情報とが記述されているダイレクトベクトル候補インデックスを入力し、そのダイレクトベクトル候補インデックスから、インター予測パラメータに含まれているインデックス情報が示す動きベクトルを読み出し、その動きベクトルをダイレクトベクトルとして動き補償処理部63に出力する処理を実施する。
次に動作について説明する。
上記実施の形態1と比較して、動き補償予測部5,54のダイレクトベクトル生成部23,62が、ダイレクトベクトル生成部26,65に代えられている点以外は同じであるため、ダイレクトベクトル生成部26,65の処理内容のみを説明する。
動き補償予測部5のダイレクトベクトル生成部26は、符号化モードm(B)がダイレクトモードである場合、符号化ブロックBのパーティションP 毎に、ダイレクトベクトルを生成する。
即ち、ダイレクトベクトル生成部26は、図33に示すようなダイレクトベクトル候補インデックスを参照して、選択可能な1以上の動きベクトルの中から、予測画像の生成に適する動きベクトルを選択する。
図33の例では、5個の動きベクトルが選択可能な動きベクトルとして列挙されているが、空間予測では、「median」が一番多く選ばれるため、「median」にインデックス0が割り当てられている。
ダイレクトベクトル生成部26は、予測画像の生成に適する動きベクトルを選択する際、下記の式(14)に示すように、選択可能な動きベクトルから得られる予測画像と原画像の歪と、選択可能な動きベクトルのインデックス符号量とからコストRを算出し、複数の動きベクトルの中で、コストRが最小の動きベクトルを選択する。

Figure 2019146245
ダイレクトベクトル生成部26は、コストRが最小の動きベクトルを選択すると、その動きベクトルをダイレクトベクトルとして動き補償処理部24に出力するとともに、その動きベクトルを示すインデックス情報を可変長符号化部13に出力する。
例えば、コストRが最小の動きベクトルとして「median」を選択していれば、インデックス0を可変長符号化部13に出力し、「MV_A」を選択していれば、インデックス1を可変長符号化部13に出力する。
可変長符号化部13は、ダイレクトベクトル生成部26からインデックス情報を受けると、圧縮データや符号化モード等を可変長符号化する際、そのインデックス情報をインター予測パラメータに含めて可変長符号化する。
動き補償予測部54のダイレクトベクトル生成部65は、符号化モードm(B)がダイレクトモードである場合、符号化ブロックBのパーティションP 毎に、ダイレクトベクトルを生成する。
即ち、ダイレクトベクトル生成部65は、図31のダイレクトベクトル生成部26と同じダイレクトベクトル候補インデックスを入力しており(例えば、図33のダイレクトベクトル候補インデックス)、切替スイッチ61からインデックス情報を含むインター予測パラメータを受けると、そのダイレクトベクトル候補インデックスから、そのインデックス情報が示す動きベクトルを読み出し、その動きベクトルをダイレクトベクトルとして動き補償処理部63に出力する。
例えば、インデックス情報がインデックス0であれば、ダイレクトベクトルとして「median」を出力し、インデックス情報がインデックス1であれば、ダイレクトベクトルとして「MV_A」を出力する。
以上で明らかなように、この実施の形態4によれば、選択可能な1以上の動きベクトルの中から、予測画像の生成に適する動きベクトルを選択し、その動きベクトルを用いて、符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するとともに、その動きベクトルを示すインデックス情報を可変長符号化部13に出力するように構成したので、上記実施の形態1と同様に、所定のブロック単位に最適なダイレクトモードを選択して、符号量を削減することができる効果を奏する。
この実施の形態4では、選択可能な位置にある動きベクトルが存在する場合を想定して説明したが、符号化ブロックBに対して、イントラ符号化処理を実施している場合などには、動きベクトルが存在しない場合もある。この場合、ゼロベクトルとする方法や、候補から外すなどの方法が考えられる。
ゼロベクトルとする場合は、候補が増えるため、符号化効率を向上させることができるが、処理量が増える。ダイレクトベクトルの候補から外す場合は処理量を減らすことができる。
この実施の形態4では、ダイレクトベクトルを生成するものについて示したが、そのベクトルを通常の動きベクトルの符号化に使用する予測ベクトルとして使用するようにしてもよい。
予測ベクトルとして使用することで、処理量は増加するが、予測の精度が上がるため、符号化効率を向上させることができる。
この実施の形態4では、選択可能な動きベクトルの候補が固定されているが、選択可能な動きベクトルの候補をスライス単位に決定するようにしてもよい。
どのベクトルを候補とするか示す情報はスライスヘッダに多重する。
例えば、時間ベクトルに関しては、パンするような映像では時間ベクトルの効果が低いため、選択候補から外すようにする一方、カメラが固定な映像では時間ベクトルの効果が大きいため候補に加えるなどの方法が考えられる。
候補となるベクトルが多い方が、より原画像に近い予測画像を生成することができるが、エンコーダの処理量が増大するため、効果がないベクトルは予め候補からはずしておくなど、映像の局所性を考慮して決定することにより、処理量と符号化効率のバランスを図ることができる。
候補となるベクトルの切り替えは、例えば、ベクトル毎にオン/オフのフラグを設け、そのフラグがオンのベクトルのみを候補とする方法が考えられる。
選択候補となる動きベクトルは、スライスヘッダで切り替えてもよいし、シーケンスヘッダやピクチャヘッダなど、上位レイヤで切り替えてもよい。また、選択候補となるセットを一つ以上用意して、その候補セットのインデックスを符号化するようにしてもよい。
また、マクロブロックや符号化ブロック毎に切り替えてもよい。マクロブロックや符号化ブロック毎に切り替えることで、局所性を持たせることができ、符号化効率の改善が図られる。
この実施の形態4では、インデックスの順序を固定にしているが、インデックスの順序をスライス単位で変更するようにしてもよい。スライスによって選択されるベクトルに偏りがある場合、選択回数が多いベクトルに対して短い符号を割り当てるようにインデックス表を切り替えることで、符号化効率の向上が図られる。
切り替え情報の符号化は、個々のベクトルに対して、それぞれ順序を符号化してもよいし、複数のインデックスセットを用意し、どのインデックスセットを用いるかを示す情報を符号化するようにしてもよい。
また、デフォルト設定のみを決めておき、デフォルト設定と違う設定を使用するか否かを示すフラグを用意し、そのフラグがオンである場合に限り、インデックスセットを更新して設定を切り替える方法も考えられる。
ここでは、スライス単位でインデックスの順序を切り替える例を示しているが、インデックスの順序をシーケンスやピクチャなど上位レイヤで決定してもよいことは言うまでもない。
また、パーティションブロックや符号化ブロック毎に切り替えてもよい。マクロブロックや符号化ブロック毎に切り替えることで、局所性を持たせることができ、符号化効率の改善が図られる。
また、選択候補は、パーティションブロックサイズ毎に一意に決定しておいてもよい。一般的にブロックサイズが小さくなると空間的な相関が弱くなるため、メディアン予測で決定されるベクトルの予測精度が悪くなると考えられる。そのため、メディアン予測で決定されるインデックスの順序を変更することで、符号化効率の向上を図ることができる。
この実施の形態4では、選択可能な動きベクトルが5個用意されているダイレクトベクトル候補インデックスを示したが、6個以上の動きベクトルを候補ベクトルとして用意するようにしてもよいし、5個より少ない動きベクトルを候補ベクトルとして用意してもよい。
例えば、図17に示すように、時間ベクトルの近傍のベクトルや、図18に示すように、周囲のベクトルの重み付け加算が行われたベクトルを候補ベクトルとして加えてもよい。
この実施の形態4では、2方向からの予測処理を想定しているが、1方向だけの予測処理でもよい。1方向のベクトルから予測する場合は、どちらのベクトルを使用するかを示す情報を符号化して伝送する。これにより、オクルージョンなどの問題に対処することが可能となり、予測精度の向上に寄与する。
この実施の形態4では、2本のベクトルを用いる両方向予測を想定しているが、ベクトルの本数は3本以上であってもよい。この場合、例えば、選択した全てのベクトルを示すインデックス情報を符号化してもよいし、逆に選択しないベクトルを示すインデックス情報を符号化してもよい。
あるいは、図34に示すように、1本のベクトルのインデックス情報だけを符号化し、そのベクトルが示す参照画像に近い画像を用いる方法が考えられる。
この実施の形態4では、複数の動きベクトルの中で、コストRが最小の動きベクトルを選択するものを示したが、下記の式(15)に示すように、評価値SADを算出して、その評価値SADが閾値Th以下である動きベクトルを選択するようにしてもよい。
Figure 2019146245
ただし、findexはインデックス情報を符号化しているベクトルが示す参照画像、gはベクトルMV_kが示す参照画像を表している。
ここでは、評価値SADを用いる例を示しているが、例えば、SSEなどの別の手法で評価するようにしてもよいことは言うまでもない。
使用するベクトルの本数を示す情報はスライス単位など上位ヘッダに多重するようにしてもよい。ベクトルの本数が増えると、符号化効率は向上するが、処理量が増えるため、トレードオフの関係にある。
また、スライス単位ではなく、符号化ブロックやパーティションなどより細かい単位で設定するようにしてもよい。この場合、画像の局所性に応じて処理量と符号化効率のバランスを図ることができる。
この実施の形態4では、複数の選択可能な動きベクトルの中から、予測画像の生成に適する動きベクトルを選択するものを示したが、上記実施の形態3のように、複数の選択可能な動きベクトルの中から、初期ベクトルとして使用する動きベクトルを選択してから、その初期ベクトルの周囲を探索することで、最終的な動きベクトルを決定するようにしてもよい。この場合のダイレクトベクトル生成部26の構成は図35のようになる。
図35の初期ベクトル生成部36は、図26の初期ベクトル生成部34に相当する。
実施の形態5.
この実施の形態5の動き補償予測部5,54は、上記実施の形態1(または、実施の形態2,3)の機能と、上記実施の形態4の機能とを有し、上記実施の形態1(または、実施の形態2,3)の機能と上記実施の形態4の機能をスライス単位で切り替えることが可能であり、いずれかの機能を使用して、予測画像を生成することができる。
図36はこの発明の実施の形態5による動画像符号化装置の動き補償予測部5を示す構成図であり、図において、図31と同一符号は同一または相当部分を示すので説明を省略する。
ダイレクトベクトル生成部27はダイレクトモード切替フラグが、インデックス情報を送信しない旨を示す場合、図2のダイレクトベクトル生成部23(または、図25のダイレクトベクトル生成部25)と同様の方法で、ダイレクトベクトルを生成する一方、ダイレクトモード切替フラグが、インデックス情報を送信する旨を示す場合、図31のダイレクトベクトル生成部26と同様の方法で、ダイレクトベクトルを生成するとともに、そのダイレクトベクトルを示すインデックス情報を可変長符号化部13に出力する処理を実施する。
また、ダイレクトベクトル生成部27はダイレクトモード切替フラグを可変長符号化部13に出力する処理を実施する。
図37は動き補償予測部5を構成しているダイレクトベクトル生成部27を示す構成図である。
図37において、切替スイッチ91はダイレクトモード切替フラグが、インデックス情報を送信しない旨を示す場合、符号化ブロックBのパーティションP を図2のダイレクトベクトル生成部23(または、図25のダイレクトベクトル生成部25)に相当する部分に出力し、インデックス情報を送信する旨を示す場合、符号化ブロックBのパーティションP を図31のダイレクトベクトル生成部26に相当する部分に出力する処理を実施する。
図38はこの発明の実施の形態5による動画像復号装置の動き補償予測部54を示す構成図であり、図において、図32と同一符号は同一または相当部分を示すので説明を省略する。
ダイレクトベクトル生成部66はインター予測パラメータに含まれているダイレクトモード切替フラグが、インデックス情報を送信しない旨を示す場合、図6のダイレクトベクトル生成部62(または、図29のダイレクトベクトル生成部64)と同様の方法で、ダイレクトベクトルを生成する一方、ダイレクトモード切替フラグが、インデックス情報を送信する旨を示す場合、図32のダイレクトベクトル生成部65と同様の方法で、ダイレクトベクトルを生成する処理を実施する。
次に動作について説明する。
動き補償予測部5のダイレクトベクトル生成部27は、図2のダイレクトベクトル生成部23(または、図25のダイレクトベクトル生成部25)の機能と、図31のダイレクトベクトル生成部26の機能とを有しており、外部から入力されたダイレクトモード切替フラグが、インデックス情報を送信しない旨を示す場合、図2のダイレクトベクトル生成部23(または、図25のダイレクトベクトル生成部25)と同様の方法で、ダイレクトベクトルを生成し、そのダイレクトベクトルを動き補償処理部24に出力する。
また、ダイレクトベクトル生成部27は、そのダイレクトモード切替フラグを可変長符号化部13に出力する。
ダイレクトベクトル生成部27は、そのダイレクトモード切替フラグが、インデックス情報を送信する旨を示す場合、図32のダイレクトベクトル生成部65と同様の方法で、ダイレクトベクトルを生成し、そのダイレクトベクトルを動き補償処理部24に出力する。
また、ダイレクトベクトル生成部27は、そのダイレクトモード切替フラグとインデックス情報を可変長符号化部13に出力する。
可変長符号化部13は、ダイレクトベクトル生成部27からダイレクトモード切替フラグを受けると、圧縮データや符号化モード等を可変長符号化する際、そのダイレクトモード切替フラグをインター予測パラメータに含めて可変長符号化する。
また、可変長符号化部13は、ダイレクトベクトル生成部27からダイレクトモード切替フラグとインデックス情報を受けると、圧縮データや符号化モード等を可変長符号化する際、そのダイレクトモード切替フラグとインデックス情報をインター予測パラメータに含めて可変長符号化する。
動き補償予測部54のダイレクトベクトル生成部66は、可変長復号部51により復号されたインター予測パラメータを受けると、そのインター予測パラメータに含まれているダイレクトモード切替フラグが、インデックス情報を送信しない旨を示す場合、図6のダイレクトベクトル生成部62(または、図29のダイレクトベクトル生成部64)と同様の方法で、ダイレクトベクトルを生成する。
一方、ダイレクトモード切替フラグが、インデックス情報を送信する旨を示す場合、図32のダイレクトベクトル生成部65と同様の方法で、ダイレクトベクトルを生成する。
一般的に、インデックス情報を送信するモードは、インデックス情報を送信しないモードと比べて付加情報が増える。そのため、低レートなど全符号量の中で付加情報の割合が大きい場合には、インデックス情報を送信しないモードの方が性能がよい。
一方、高レートの場合など全符号量の中で付加情報の割合が小さい場合には、インデックス情報を付加して最適なダイレクトベクトルを使用する方が、符号化効率の向上が見込まれる。
この実施の形態5では、ダイレクトモード切替フラグがインター予測パラメータに含まれるものを示したが、ダイレクトモード切替フラグがスライスヘッダに多重されてもよいし、ピクチャやシーケンスヘッダに多重されてもよい。
また、切り替えはパーティションサイズによって決定することも考えられる。
一般的にパーティションサイズが大きくなると、動きベクトルなどの付加情報の割合が相対的に小さくなる。そのため、ある一定以上の大きさの場合は、インデックス情報を送信するモードを選択し、それより小さい場合は、インデックス情報を送信しないモードを選択するなどの構成が考えられる。
上記のように、パーティションによって決定する場合、符号化ブロックサイズ毎に、どちらを使用するかを示すフラグをスライスヘッダなど上位ヘッダに多重するようにしてもよい。
この実施の形態4では、ダイレクトモード切替フラグによって、上記実施の形態1の機能と上記実施の形態4の機能を切り替えるものを示したが、上記実施の形態2の機能と上記実施の形態4の機能を切り替えるようにしてもよいし、上記実施の形態3の機能と上記実施の形態4の機能を切り替えるようにしてもよい。
また、上記実施の形態1の機能と上記実施の形態2の機能を切り替えるようにしてもよいし、上記実施の形態1の機能と上記実施の形態3の機能を切り替えるようにしてもよいし、上記実施の形態2の機能と上記実施の形態3の機能を切り替えるようにしてもよい。
また、上記実施の形態1〜4の機能の中から、任意の機能を選択するようにしてもよい。
この実施の形態5では、ダイレクトモード切替フラグによって、上記実施の形態1の機能と上記実施の形態4の機能を切り替えるものを示したが、これは切り替えるのではなくon/offのフラグとして用いてもよい。例えば、実施の形態1を使用するかどうかのon/offフラグとし、onの場合は実施の形態1と実施の形態4をどちらも行い、符号化効率の良い方のモードを選択し、その情報を符号化することが考えられる。このようにすることで画像の局所性に応じてダイレクトモードを切り替えることができ、符号化効率の向上に寄与する効果を奏する。
上記では実施の形態1をon/offするとしたが、これは実施の形態4をon/offしてもよい。また、組み合わせは実施の形態2と4、実施の形態3と4の組み合わせでもよい。
この実施の形態5では、複数の選択可能な動きベクトルの中から、予測画像の生成に適する動きベクトルを選択するものを示したが、上記実施の形態3のように、複数の選択可能な動きベクトルの中から、初期ベクトルとして使用する動きベクトルを選択してから、その初期ベクトルの周囲を探索することで、最終的な動きベクトルを決定するようにしてもよい。この場合のダイレクトベクトル生成部27の構成は図39のようになる。
図39の初期ベクトル生成部37は、図26の初期ベクトル生成部34に相当する。
例えば、最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定し、利用可能な1以上の符号化モードの中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択すると書いたが、最大サイズあるいは階層数、符号化モードのいずれかもしくは全てをあらかじめ事前に決定しておいてもよい。
実施の形態6.
上記実施の形態4では、動画像符号化装置における動き補償予測部5のダイレクトベクトル生成部26が、図33に示すようなダイレクトベクトル候補インデックスを参照して、選択可能な1以上の動きベクトルを把握するものを示したが、符号化制御部1が、符号化ブロックのブロックサイズに応じて、選択可能な1以上の動きベクトルリストを生成し、選択可能な1以上の動きベクトルを示すダイレクトベクトル候補リストとダイレクトベクトル候補インデックスを参照することで、ダイレクトモードベクトルを決定してもよい。
具体的には、以下の通りである。
上述したように、選択可能な1以上の動きベクトルは、例えば、パーティションのブロックサイズ毎に一意に決定することができるが、図40に示すように、符号化ブロックであるパーティションのブロックサイズが大きい場合、周囲のブロックとの相関が高く、逆にパーティションのブロックサイズが小さい場合、周囲のブロックとの相関が低い。
したがって、パーティションのブロックサイズが小さい程、選択可能な動きベクトルの候補数を減らすことができる。
そこで、符号化制御部1は、図41に示すように、予め、符号化ブロックであるパーティションのブロックサイズ毎に、選択可能な1以上の動きベクトルをリスト化している。
図41から明らかなように、パーティションのブロックサイズが小さい程、選択可能な動きベクトルの候補数を減らしており、例えば、ブロックサイズが「64」のパーティションでは、選択可能な動きベクトルの個数が「4」であるが、ブロックサイズが「8」のパーティションでは、選択可能な動きベクトルの個数が「2」である。
図42における「median」、「MV_A」、「MV_B」、「MV_C」、「temporal」は、図33における「median」、「MV_A」、「MV_B」、「MV_C」、「temporal」と対応している。
符号化制御部1は、選択可能な1以上の動きベクトルを決定する際、例えば、図41のリストを参照して、符号化対象であるパーティションのブロックサイズに対応する1以上の動きベクトルを特定し、その1以上の動きベクトルを示すダイレクトベクトル候補リストを動き補償予測部5に出力する。
例えば、パーティションのブロックサイズが「64」である場合、選択可能な1以上の動きベクトルとして、「MV_A」、「MV_B」、「MV_C」、「temporal」を決定する。
また、パーティションのブロックサイズが「8」である場合、選択可能な1以上の動きベクトルとして、「median」、「temporal」を決定する。
動き補償予測部5のダイレクトベクトル生成部26は、符号化制御部1からダイレクトベクトル候補リストを受けると、上記実施の形態4と同様に、そのダイレクトベクトル候補リストが示す1以上の動きベクトルの中から、予測画像の生成に適する動きベクトルを選択するが、パーティションのブロックサイズが小さい場合、選択可能な動きベクトルの候補数が少ないため、例えば、上記の式(15)に示すような評価値SADの算出数などが減り、動き補償予測部5の処理負荷が軽減される。
このように、動画像符号化装置の符号化制御部1が、選択可能な1以上の動きベクトルを決定する場合、動画像復号装置においても、動画像符号化装置と全く同じ選択可能な1以上のダイレクトベクトル候補リストを持つ必要がある。
動画像復号装置の可変長復号部51は、符号化モードm(B)がダイレクトモードである場合、符号化ブロックBのパーティションP 毎に、そのパーティションのブロックサイズを動き補償予測部54に出力するとともに、ビットストリームから可変長復号したインデックス情報(動画像符号化装置の動き補償予測部5で使用された動きベクトルを示す情報)を動き補償予測部54に出力する。
動き補償予測部54のダイレクトベクトル生成部65は、可変長復号部51からパーティションのブロックサイズを受けると、上記実施の形態4のように、ダイレクトベクトルインデックスを入力し、ブロックサイズに応じて予め決めてある1以上の動きベクトル候補リストからダイレクトモードに用いる動きベクトルを出力する。
即ち、ダイレクトベクトル生成部65は、予め、パーティションのブロックサイズ毎に、選択可能な1以上の動きベクトルをリスト化しており(図41を参照)、選択可能な1以上の動きベクトルを決定する際、図41のリストとダイレクトベクトルインデックスを参照して、今回復号を行うパーティションのブロックサイズに対応する1以上の動きベクトルを出力する。
例えば、パーティションのブロックサイズが「8」であるときに、インデックス情報がインデックス0であれば、ダイレクトベクトルとして「median」を出力し、インデックス情報がインデックス1であれば、ダイレクトベクトルとして「temporal」を出力する。
以上で明らかなように、この実施の形態6によれば、符号化ブロックであるパーティションのブロックサイズに応じて、選択可能な1以上の動きベクトルを決定するように構成したので、周囲のブロックとの相関が低いパーティションでは、予測画像の生成に適する動きベクトル以外の動きベクトルを候補から除くことができるため、処理量の軽減を図ることができる効果を奏する。
また、この実施の形態6によれば、選択可能な1以上の動きベクトルを決定する際、パーティションのブロックサイズが小さい程、選択可能な動きベクトルの候補数を減らすように構成したので、予測画像の生成に適する動きベクトル以外の動きベクトルを候補から除くことができるため、処理量の軽減を図ることができる効果を奏する。
なお、この実施の形態6では、符号化ブロックであるパーティションのブロックサイズが最大で「64」の例を示したが、最大のブロックサイズが64以上でもよいし、64未満でもよい。
図42は、最大のブロックサイズが「128」であるリストの一例を示している。
図42の例では、符号化制御部1及び動き補償予測部54により保持されるリストは、最大のブロックサイズが「128」であるが、実際のパーティションのブロックサイズの最大が例えば「32」であるような場合には、上記リストの中の「32」以下の部分を参照すればよい。
また、この実施の形態6では、符号化ブロックであるパーティションのブロックサイズに応じて、選択可能な1以上の動きベクトルを決定するものを示したが、符号化ブロックの分割パターンに応じて、選択可能な1以上の動きベクトルを決定するようにしてもよく、同様の効果を得ることができる。
図43は符号化ブロックの分割パターン毎に、選択可能な1以上の動きベクトルを示すリストの説明図である。
例えば、符号化ブロックであるパーティションが、2partH1である場合、選択可能な1以上の動きベクトルとして、「MV_A」、「MV_B」、「MV_C」、「temporal」を定めているが、符号化ブロックであるパーティションが、2partH2である場合、左のブロックである2partH1とは動きが異なる可能性が高い。
そのため、2partH2が選択可能な1以上の動きベクトルの中から、左のブロックの動きベクトルである「MV_A」を削除して、「MV_B」、「MV_C」、「temporal」を定めている。
また、この実施の形態6では、時間方向のベクトルを用いているが、これは使用するメモリ量を削減するために、メモリに格納するデータサイズを圧縮してもよい。例えば最小ブロックサイズが4×4である場合、時間方向のベクトルは4×4単位で保持するのが通常であるが、これをさらに大きいブロックサイズで保持することが考えられる。
上記のように時間方向のベクトルを圧縮して保持するとき、保持する単位よりも小さいブロックサイズで処理を行う場合、参照する位置が正しい位置を示さなくなるという問題がある。そのため、保持する単位よりも小さいブロックの場合の時間方向ベクトルを使用しない、という処理を行ってもよい。精度の低いベクトルを候補から外すことで、処理量の削減とインデックス符号量の削減という効果がある。
また、この実施の形態6では、ダイレクトモードベクトルについて述べたが、これは通常の動きベクトル符号化に用いる予測ベクトルの決定に対して、同様の方式を用いてもよい。この方式を用いることで、処理量軽減と符号化効率改善の両面で効果がある。
また、この実施の形態6で、ダイレクトベクトルの生成あるいは予測ベクトルの決定に用いる複数のベクトル候補に対して、ダイレクトベクトルあるいは予測したいベクトルのref_Idxと候補ベクトルのref_Idxが異なる(参照先のピクチャが異なる)場合に、図14に示すように、候補ベクトルに対して時間方向の距離に応じてスケーリング処理を行うように構成してもよい。ref_Idxが同じ場合は、時間方向の距離に応じたスケーリング処理は行わない。
Figure 2019146245
ただし、scaled_MVはスケーリング後のベクトル、MVはスケーリング前の動きベクトル、d(x)はxまでの時間的な距離を示している。
また、Xrは符号化対象のブロックが示す参照画像、Yrはスケーリングの対象となるブロック位置A−Dが示す参照画像を示している。
また、空間ベクトル候補は、図49に示すように、対象となるブロックからインター符号化されているブロックを探索し、そのブロック内に含まれる全てのベクトルを候補として使用するように構成してもよい。上述のように、ダイレクトベクトルあるいは予測したいベクトルの指すべき先の参照ピクチャと、これら候補ベクトルの指す参照ピクチャが同一の場合と異なる場合があり得るが、同一の参照ピクチャを指す候補ベクトルだけを候補として使用するように構成してもよいし、スケーリング処理で同一参照ピクチャを指すように補正を行うように構成してもよい。前者の場合は処理量を増やさずに精度の低いベクトルを候補から外す効果がある。後者の場合は、探索する分処理量は増えるが、選択候補を増やすことができるため符号量削減効果がある。
また、式(16)のようなスケーリングを行う場合、インター符号化されているブロックを見つけた時点で、ダイレクトベクトルあるいは予測したいベクトルのref_Idxとは異なるref_Idxである候補ベクトルはスケーリングを行う(同じref_Idxの場合はスケーリングを行わない)としてもよいし、すべて探索した後で、同じref_Idxである候補ベクトルがなかった場合のみスケーリングを行うとしてもよい。処理量は増えるものの精度を高めたベクトルを候補に加えることが可能となるため、符号量削減効果がある。
実施の形態7.
上記実施の形態6では、動画像符号化装置の符号化制御部1及び動画像復号装置の動き補償予測部54が、予め、選択可能な動きベクトルを示すリストを保持しているものを示したが、動画像符号化装置の可変長符号化部13が、そのリストを示すリスト情報を可変長符号化し、そのリスト情報の符号化データを、例えば、スライスヘッダに多重して、動画像復号装置側に伝送するようにしてもよい。
この場合、動画像復号装置の可変長復号部51は、スライスヘッダに多重されている符号化データからリスト情報を可変長復号して、そのリスト情報が示すリストを動き補償予測部54のダイレクトベクトル生成部65に出力することになる。
このように、リストを示すリスト情報をスライス単位(あるいは、シーケンスやピクチャ単位などでもよい)で動画像復号装置側に伝送するようにしてもよいが、符号化制御部1により保持されているリストが変更された場合にだけ、変更後のリストを示すリスト情報を動画像復号装置側に伝送するようにしてもよい。
以下、具体的に処理内容を説明する。
図44は動画像符号化装置におけるリスト情報の送信処理を示すフローチャートであり、図45は動画像復号装置におけるリスト情報の受信処理を示すフローチャートである。
動画像符号化装置の符号化制御部1は、上記実施の形態6と同様に、符号化ブロックであるパーティションのブロックサイズに応じて、選択可能な1以上の動きベクトルを決定するが、動きベクトルを決定する際に参照するリストが変更されているか否かを確認し、リストが前回と同じであれば(図44のステップST41)、前回とリストが同じである旨を動画像復号装置側に通知するため、変更フラグを“オフ”に設定する(ステップST42)。
可変長符号化部13は、符号化制御部1が変更フラグを“オフ”に設定すると、“オフ”の変更フラグを符号化して、その符号化データを動画像復号装置側に伝送する(ステップST43)。
符号化制御部1は、前回とリストが異なる場合(ステップST41)、前回とリストが異なる旨を動画像復号装置側に通知するため、変更フラグを“オン”に設定する(ステップST44)。
可変長符号化部13は、符号化制御部1が変更フラグを“オン”に設定すると、“オン”の変更フラグと変更後のリストを示すリスト情報を符号化して、その符号化データを動画像復号装置側に伝送する(ステップST45)。
図46はリスト内の「temporal」が選択可から選択不可に変更されているために、“オン”の変更フラグと変更後のリストを示すリスト情報を符号化している例を示している。
動画像復号装置の可変長復号部51は、符号化データから変更フラグを復号し(図45のステップST51)、その変更フラグが“オフ”であれば(ステップST52)、“オフ”の変更フラグを動き補償予測部54に出力する。
動き補償予測部54は、可変長復号部51から“オフ”の変更フラグを受けると、前回とリストが同じであると認識し、現在保持しているリストを参照対象に設定する(ステップST53)。
したがって、動き補償予測部54は、現在保持しているリストを参照して、今回復号を行うパーティションのブロックサイズに対応する1以上の動きベクトルを決定する。
動画像復号装置の可変長復号部51は、変更フラグが“オン”であれば(ステップST52)、符号化データからリスト情報を復号し、“オン”の変更フラグとリスト情報を動き補償予測部54に出力する(ステップST54)。
動き補償予測部54は、可変長復号部51から“オン”の変更フラグとリスト情報を受けると、前回とリストが異なると認識し、そのリスト情報にしたがって現在保持しているリストを変更して、変更後のリストを参照対象に設定する(ステップST55)。
したがって、動き補償予測部54は、変更後のリストを参照して、今回復号を行うパーティションのブロックサイズに対応する1以上の動きベクトルを決定する。
図47は変更フラグが“オン”であるため、現在保持しているリストを変更している例を示している。
以上で明らかなように、この実施の形態7によれば、選択可能な1以上の動きベクトルを示すリストが変更された場合に限り、変更後のリストを示すリスト情報を符号化して符号化データを生成するように構成したので、符号量の大幅な増加を招くことなく、リストの変更を受け付ける機能を実装することができる効果を奏する。
この実施の形態7では、リストが示す選択可能な動きベクトルの一部が変更された場合でも、変更後のリストの全体を示すリスト情報を符号化する例を示したが、図48に示すように、ブロックサイズ毎に変更フラグを用意し、選択可能な動きベクトルが変更されたブロックサイズの変更フラグを“オン”にして、当該ブロックサイズに係るリスト情報だけを符号化するようにしてもよい。
図48の例では、ブロックサイズが「64」と「8」における動きベクトルは変更されていないため、変更フラグは“オフ”であり、当該ブロックサイズに係るリスト情報は符号化されない。
一方、ブロックサイズが「32」と「16」における動きベクトルは変更されているため、変更フラグは“オン”であり、当該ブロックサイズに係るリスト情報は符号化されている。
なお、いずれかのブロックサイズの変更フラグが“オン”である場合に限り、ブロックサイズ単位の変更フラグを符号化するようにして、いずれのブロックサイズの変更フラグも“オフ”である場合には、リスト単位の変更フラグ(“オフ”の変更フラグ)だけを符号化するようにしてもよい。
また、リスト単位の変更フラグを用いずに、ブロックサイズ単位の変更フラグだけを符号化するようにしてもよい。
ここでは、ブロックサイズ毎に、選択可能な動きベクトルを変更できる例を示したが、符号化ブロックの分割パターン毎に、選択可能な動きベクトルを変更できるようにしてもよい。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 符号化制御部(符号化制御手段)、2 ブロック分割部(ブロック分割手段)、3 切替スイッチ(イントラ予測手段、動き補償予測手段)、4 イントラ予測部(イントラ予測手段)、5 動き補償予測部(動き補償予測手段)、6 減算部(差分画像生成手段)、7 変換・量子化部(画像圧縮手段)、8 逆量子化・逆変換部、9 加算部、10 イントラ予測用メモリ、11 ループフィルタ部、12 動き補償予測フレームメモリ、13 可変長符号化部(可変長符号化手段)、21 切替スイッチ、22 動きベクトル探索部、23 ダイレクトベクトル生成部、24 動き補償処理部、25,26,27 ダイレクトベクトル生成部、31 空間ダイレクトベクトル生成部、32 時間ダイレクトベクトル生成部、33 ダイレクトベクトル判定部、34,36,37 初期ベクトル生成部、35 動きベクトル探索部、41 動き補償部、42 類似度算出部、43 ダイレクトベクトル選択部、51 可変長復号部(可変長復号手段)、52 切替スイッチ(イントラ予測手段、動き補償予測手段)、53 イントラ予測部(イントラ予測手段)、54 動き補償予測部(動き補償予測手段)、55 逆量子化・逆変換部(差分画像生成手段)、56 加算部(復号画像生成手段)、57 イントラ予測用メモリ、58 ループフィルタ部、59 動き補償予測フレームメモリ、61 切替スイッチ、62 ダイレクトベクトル生成部、63 動き補償処理部、64,65,66 ダイレクトベクトル生成部、71 空間ベクトル生成部、72 時間ベクトル生成部、73 初期ベクトル判定部、81 動き補償部、82 類似度算出部、83 初期ベクトル決定部、91 切替スイッチ。

Claims (4)

  1. 最大ブロックサイズと階層数の上限値により入力画像を階層的に分割することで得られる符号化ブロックに係わる圧縮データ、符号化ブロックに係わる符号化モード及び動きベクトルを指定するための符号化ブロックに係わるインデックス情報、および当該インデックス情報に基づき選択される動きベクトル候補の数を変更するための制御情報が含まれるビットストリームに多重化されている符号化データに可変長復号処理を行う可変長復号部と、
    上記インデックス情報に基づいて、1以上の動きベクトル候補の中から動きベクトルを選択し、選択された動きベクトルを用いて上記符号化ブロックに対し、動き補償予測処理を実施して予測画像を生成する動き補償予測手段と、を備え、
    上記動き補償予測部は、上記インデックス情報に基づいて、上記符号化ブロックの周囲に位置する複数の復号済みブロックの動きベクトル候補から得られる空間動きベクトル、または上記符号化ブロックが参照可能な復号済みピクチャの動きベクトルから得られる時間動きベクトルを選択し、
    上記動き補償予測部は、上記制御情報に基づいて、上記符号化ブロックの周囲に位置する複数の復号済みブロックから得られる空間動きベクトル、および上記符号化ブロックが参照可能な復号化済みピクチャの動きベクトルから得られる時間動きベクトルの少なくともいずれかを含む上記動きベクトル候補のリストを用意し、
    上記動きベクトル候補は所定の順番でリスト化され、
    上記動きベクトル候補の数はスライス単位で変更可能である、
    ことを特徴とする動画像復号装置。
  2. 符号化ブロックの周囲に位置する複数の符号化済みブロックから得られる空間動きベクトル、および上記符号化ブロックが参照可能な符号化済みピクチャの動きベクトルから得られる時間動きベクトルから動きベクトル候補を用意し、上記動きベクトル候補の中から選択された動きベクトルを用いて上記符号化ブロックに対し、動き補償予測処理を実施して予測画像を生成する動き補償予測部と、
    選択された動きベクトル候補を示すインデックス情報と、上記可変長符号化部は上記動きベクトル候補の数を変更するための制御情報とを含むビットストリームを生成する可変長符号化部と、を備え、
    上記動き補償予測部は、上記空間動きベクトルまたは上記時間動きベクトルから上記動きベクトル候補のリストを用意し、上記動きベクトル候補は所定の順番でリスト化され、
    上記動きベクトル候補の数はスライス毎に変更可能である、
    ことを特徴とする動画像符号化装置。
  3. 予測画像を生成する際に実施された予測処理を示す符号化モードと、
    予測画像と原画像との差分を圧縮処理して生成された圧縮データと、
    上記予測画像を生成するための動き補償予測処理に用いられる動きベクトルに係わるインデックス情報と、
    上記インデックス情報に基づいて選択される動きベクトル候補の数をスライスごとに変更するための制御情報と、
    を備え、
    上記インデックス情報および上記制御情報を用いた動き補償予測処理を実施して、上記予測画像を生成するとともに、上記差分と上記予測画像とに基づいて復号画像を生成する動画像復号装置によって復号される動画像符号化データであって、
    上記動画像符号化データは、複数の符号化ブロックの符号化データが多重化されており、
    各々の上記符号化データは、上記符号化モードと、上記圧縮データとを含み、
    上記インデックス情報は、上記動きベクトルが、上記符号化ブロックの周囲に位置する複数の符号化済みブロックから得られる空間動きベクトル、および上記符号化ブロックが参照可能な符号化済みピクチャの動きベクトルから得られる時間動きベクトルの少なくともいずれかを含む動きベクトル候補から選択されたものである場合、上記動画像復号装置が選択された動きベクトル候補を特定する処理に用いられ、
    上記動きベクトル候補は所定の順番でリスト化され、
    上記動きベクトル候補はスライス単位で変更可能であり、
    上記制御情報は、上記動画像復号装置が上記動きベクトル候補の数を変更する処理に用いられる、
    ことを特徴とする動画像符号データ。
  4. 予測画像を生成する際に実施された予測処理を示す符号化モードと、
    予測画像と原画像との差分を圧縮処理して生成された圧縮データと、
    上記予測画像を生成するための動き補償予測処理に用いられる動きベクトルに係わるインデックス情報と、
    上記インデックス情報に基づいて選択される動きベクトル候補の数をスライスごとに変更するための制御情報と、
    を備え、
    上記インデックス情報および上記制御情報を用いた動き補償予測処理を実施して、上記予測画像を生成するとともに、上記差分と上記予測画像とに基づいて復号画像を生成する動画像復号装置によって復号される動画像符号化データを記録した記録媒体であって、
    上記動画像符号化データは、複数の符号化ブロックの符号化データが多重化されており、
    各々の上記符号化データは、上記符号化モードと、上記圧縮データとを含み、
    上記インデックス情報は、上記動きベクトルが、上記符号化ブロックの周囲に位置する複数の符号化済みブロックから得られる空間動きベクトル、および上記符号化ブロックが参照可能な符号化済みピクチャの動きベクトルから得られる時間動きベクトルの少なくともいずれかを含む動きベクトル候補から選択されたものである場合、上記動画像復号装置が選択された動きベクトル候補を特定する処理に用いられ、
    上記動きベクトル候補は所定の順番でリスト化され、
    上記動きベクトル候補はスライス単位で変更可能であり、
    上記制御情報は、上記動画像復号装置が上記動きベクトル候補の数を変更する処理に用いられる、
    コンピューターで実行可能なビットストリームが記録されたコンピューター読み取り可能な記録媒体。
JP2019082932A 2010-09-30 2019-04-24 動画像復号装置及び動画像符号化装置 Active JP6768110B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010221460 2010-09-30
JP2010221460 2010-09-30
JP2011050214 2011-03-08
JP2011050214 2011-03-08

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018017247A Division JP6768017B2 (ja) 2010-09-30 2018-02-02 動画像復号装置及び動画像符号化装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020157643A Division JP2020202590A (ja) 2010-09-30 2020-09-18 動画像復号装置、動画像符号化装置、動画像復号方法及び動画像符号化方法

Publications (2)

Publication Number Publication Date
JP2019146245A true JP2019146245A (ja) 2019-08-29
JP6768110B2 JP6768110B2 (ja) 2020-10-14

Family

ID=45892217

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2012536149A Active JP5486091B2 (ja) 2010-09-30 2011-07-21 動画像復号装置及び動画像復号方法
JP2014030566A Active JP6071922B2 (ja) 2010-09-30 2014-02-20 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及び動画像符号化データ
JP2016252746A Active JP6312787B2 (ja) 2010-09-30 2016-12-27 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法、動画像符号化データ及び記録媒体
JP2018017247A Active JP6768017B2 (ja) 2010-09-30 2018-02-02 動画像復号装置及び動画像符号化装置
JP2019082932A Active JP6768110B2 (ja) 2010-09-30 2019-04-24 動画像復号装置及び動画像符号化装置
JP2020157643A Pending JP2020202590A (ja) 2010-09-30 2020-09-18 動画像復号装置、動画像符号化装置、動画像復号方法及び動画像符号化方法

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2012536149A Active JP5486091B2 (ja) 2010-09-30 2011-07-21 動画像復号装置及び動画像復号方法
JP2014030566A Active JP6071922B2 (ja) 2010-09-30 2014-02-20 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及び動画像符号化データ
JP2016252746A Active JP6312787B2 (ja) 2010-09-30 2016-12-27 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法、動画像符号化データ及び記録媒体
JP2018017247A Active JP6768017B2 (ja) 2010-09-30 2018-02-02 動画像復号装置及び動画像符号化装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020157643A Pending JP2020202590A (ja) 2010-09-30 2020-09-18 動画像復号装置、動画像符号化装置、動画像復号方法及び動画像符号化方法

Country Status (12)

Country Link
US (5) US9369730B2 (ja)
EP (1) EP2624562A4 (ja)
JP (6) JP5486091B2 (ja)
KR (5) KR101914018B1 (ja)
CN (5) CN106713930B (ja)
BR (1) BR112013006499B1 (ja)
CA (3) CA3033984C (ja)
MX (1) MX2013003694A (ja)
RU (5) RU2597499C2 (ja)
SG (5) SG10201506682SA (ja)
TW (2) TWI581622B (ja)
WO (1) WO2012042719A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210738B (zh) 2010-10-06 2018-10-23 株式会社Ntt都科摩 图像预测解码装置、图像预测解码方法
JP5682582B2 (ja) * 2011-03-08 2015-03-11 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに、受信装置、受信方法及び受信プログラム
JP5807588B2 (ja) * 2011-03-08 2015-11-10 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに、送信装置、送信方法及び送信プログラム
WO2012174423A1 (en) 2011-06-17 2012-12-20 President And Fellows Of Harvard College Stabilized polypeptides as regulators of rab gtpase function
JP6394966B2 (ja) 2012-01-20 2018-09-26 サン パテント トラスト 時間動きベクトル予測を用いた、符号化方法、復号方法、符号化装置、及び、復号装置
WO2013114860A1 (ja) 2012-02-03 2013-08-08 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置
EP2824920A4 (en) 2012-03-06 2016-02-17 Panasonic Ip Corp America VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO COORDING DEVICE, VIDEO CODING DEVICE AND VIDEO CODING / DECODING DEVICE
US10469851B2 (en) * 2012-04-16 2019-11-05 New Cinema, LLC Advanced video coding method, system, apparatus, and storage medium
JP5590269B1 (ja) * 2012-11-06 2014-09-17 日本電気株式会社 映像符号化方法、映像符号化装置および映像符号化プログラム
KR102088383B1 (ko) * 2013-03-15 2020-03-12 삼성전자주식회사 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
US9442637B1 (en) * 2013-06-17 2016-09-13 Xdroid Kft Hierarchical navigation and visualization system
US9693076B2 (en) * 2014-01-07 2017-06-27 Samsung Electronics Co., Ltd. Video encoding and decoding methods based on scale and angle variation information, and video encoding and decoding apparatuses for performing the methods
JP6187286B2 (ja) * 2014-01-28 2017-08-30 富士通株式会社 動画像符号化装置
GB201405649D0 (en) * 2014-03-28 2014-05-14 Sony Corp Data encoding and decoding
WO2015163167A1 (ja) * 2014-04-23 2015-10-29 ソニー株式会社 画像処理装置及び画像処理方法
US10283091B2 (en) * 2014-10-13 2019-05-07 Microsoft Technology Licensing, Llc Buffer optimization
KR102288949B1 (ko) 2015-01-22 2021-08-12 현대모비스 주식회사 자동차의 브레이크 시스템
WO2016195460A1 (ko) * 2015-06-05 2016-12-08 한양대학교 산학협력단 화면 내 예측에 대한 부호화/복호화 방법 및 장치
US10291931B2 (en) * 2016-10-13 2019-05-14 Ati Technologies Ulc Determining variance of a block of an image based on a motion vector for the block
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
US20180242024A1 (en) * 2017-02-21 2018-08-23 Mediatek Inc. Methods and Apparatuses of Candidate Set Determination for Quad-tree Plus Binary-tree Splitting Blocks
CN110495177B (zh) * 2017-04-13 2023-10-20 松下电器(美国)知识产权公司 解码装置、解码方法及存储介质
CN117097891A (zh) * 2017-06-05 2023-11-21 松下电器(美国)知识产权公司 解码装置、编码装置、存储介质、解码方法和编码方法
WO2019049912A1 (ja) * 2017-09-08 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN116389721A (zh) * 2017-11-09 2023-07-04 三星电子株式会社 图像编码方法以及图像解码方法和设备
WO2020005002A1 (ko) * 2018-06-28 2020-01-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 템플릿 영역 도출 방법 및 장치
WO2020005042A1 (ko) 2018-06-29 2020-01-02 인텔렉추얼디스커버리 주식회사 디코더 측면의 움직임 보정을 사용하는 비디오 코딩 방법 및 장치
CN110677658B (zh) 2018-07-01 2022-07-12 北京字节跳动网络技术有限公司 基于优先级的非相邻Merge设计
US10735763B2 (en) * 2018-07-27 2020-08-04 Tencent America LLC Method and apparatus for motion vector prediction using spatial and temporal combination
CN111294601A (zh) 2018-12-07 2020-06-16 华为技术有限公司 视频图像解码、编码方法及装置
CN110312132B (zh) 2019-03-11 2020-05-12 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
JP6835337B2 (ja) * 2019-06-20 2021-02-24 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
JP7267885B2 (ja) * 2019-09-20 2023-05-02 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
JP7473656B2 (ja) * 2020-01-09 2024-04-23 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ピクチャヘッダ存在

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005005844A (ja) * 2003-06-10 2005-01-06 Hitachi Ltd 計算装置及び符号化処理プログラム
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2009041215A1 (ja) * 2007-09-25 2009-04-02 Sharp Kabushiki Kaisha 動画像符号化装置及び動画像復号装置
WO2009051419A2 (en) * 2007-10-16 2009-04-23 Lg Electronics Inc. A method and an apparatus for processing a video signal

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3351645B2 (ja) * 1995-01-31 2002-12-03 松下電器産業株式会社 動画像信号の符号化方法
JP3628810B2 (ja) * 1996-06-28 2005-03-16 三菱電機株式会社 画像符号化装置
FR2756399B1 (fr) * 1996-11-28 1999-06-25 Thomson Multimedia Sa Procede et dispositif de compression video pour images de synthese
EP0945001B1 (en) * 1996-12-18 2003-04-23 Thomson Consumer Electronics, Inc. A multiple format video signal processor
JP4114859B2 (ja) * 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP2004088722A (ja) * 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
US7336720B2 (en) * 2002-09-27 2008-02-26 Vanguard Software Solutions, Inc. Real-time video coding/decoding
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
KR100990829B1 (ko) * 2002-11-01 2010-10-29 파나소닉 주식회사 동화상 부호화 방법 및 동화상 복호화 방법
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7688894B2 (en) * 2003-09-07 2010-03-30 Microsoft Corporation Scan patterns for interlaced video content
US9088802B2 (en) * 2005-01-07 2015-07-21 Nippon Telegraph And Telephone Corporation Video encoding method and apparatus, video decoding method and apparatus, programs therefor, and storage media for storing the programs
JP2007221202A (ja) 2006-02-14 2007-08-30 Victor Co Of Japan Ltd 動画像符号化装置及び動画像符号化プログラム
EP2026585A4 (en) * 2006-05-24 2016-08-31 Panasonic Ip Man Co Ltd IMAGE ENCODING DEVICE AND METHOD, AND IMAGE ENCODING INTEGRATED CIRCUIT
DE602007014060D1 (de) 2006-08-25 2011-06-01 Thomson Licensing Verfahren und vorrichtung für partitionierung mit reduzierter auflösung
CN101652994A (zh) * 2007-03-29 2010-02-17 夏普株式会社 视频发送装置、视频接收装置、视频记录装置、视频重放装置及视频显示装置
CN101682769B (zh) 2007-04-12 2016-11-09 汤姆森特许公司 用于视频编码和解码的跳过-直接模式的取决于环境的合并的方法和装置
JP2008311781A (ja) 2007-06-12 2008-12-25 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
US20100208827A1 (en) * 2007-10-16 2010-08-19 Thomson Licensing Methods and apparatus for video encoding and decoding geometerically partitioned super macroblocks
JP2009147807A (ja) * 2007-12-17 2009-07-02 Fujifilm Corp 画像処理装置
KR101505195B1 (ko) 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
EP2266318B1 (en) * 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
JPWO2009128208A1 (ja) * 2008-04-16 2011-08-04 株式会社日立製作所 動画像符号化装置、動画像復号化装置、動画像符号化方法、および動画像復号化方法
JP4937224B2 (ja) * 2008-09-30 2012-05-23 株式会社東芝 画像符号化装置
US8619856B2 (en) * 2008-10-03 2013-12-31 Qualcomm Incorporated Video coding with large macroblocks
US8483285B2 (en) * 2008-10-03 2013-07-09 Qualcomm Incorporated Video coding using transforms bigger than 4×4 and 8×8
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
TWI405469B (zh) * 2009-02-20 2013-08-11 Sony Corp Image processing apparatus and method
EP2224738A1 (en) * 2009-02-27 2010-09-01 Nxp B.V. Identifying occlusions
US8391365B2 (en) * 2009-03-20 2013-03-05 National Cheng Kung University Motion estimator and a motion estimation method
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
JP5442039B2 (ja) 2010-02-12 2014-03-12 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005005844A (ja) * 2003-06-10 2005-01-06 Hitachi Ltd 計算装置及び符号化処理プログラム
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2009041215A1 (ja) * 2007-09-25 2009-04-02 Sharp Kabushiki Kaisha 動画像符号化装置及び動画像復号装置
WO2009051419A2 (en) * 2007-10-16 2009-04-23 Lg Electronics Inc. A method and an apparatus for processing a video signal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KEN MCCANN ET AL.: "Samsung's Response to the Call for Proposals on Video Compression Technology", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-A124, JPN6020016042, April 2010 (2010-04-01), pages 1 - 15, ISSN: 0004330408 *
TAKESHI CHUJOH ET AL.: "Description of video coding technology proposal by TOSHIBA", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-A117, JPN6020016041, April 2010 (2010-04-01), pages 1 - 6, XP008169779, ISSN: 0004330407 *

Also Published As

Publication number Publication date
KR101723282B1 (ko) 2017-04-04
CA3033984A1 (en) 2012-04-05
JP2014112939A (ja) 2014-06-19
SG10201701439WA (en) 2017-03-30
MX2013003694A (es) 2013-04-24
JP6071922B2 (ja) 2017-02-01
RU2597499C2 (ru) 2016-09-10
KR20180017217A (ko) 2018-02-20
CN106713931B (zh) 2019-09-03
JPWO2012042719A1 (ja) 2014-02-03
KR101554792B1 (ko) 2015-09-21
RU2016132603A (ru) 2018-02-14
US9894376B2 (en) 2018-02-13
WO2012042719A1 (ja) 2012-04-05
TWI571108B (zh) 2017-02-11
CA2813232A1 (en) 2012-04-05
RU2549512C2 (ru) 2015-04-27
CN106454379A (zh) 2017-02-22
CA2991166A1 (en) 2012-04-05
US9369730B2 (en) 2016-06-14
US9900612B2 (en) 2018-02-20
KR20150010774A (ko) 2015-01-28
JP2020202590A (ja) 2020-12-17
BR112013006499B1 (pt) 2022-09-20
CA2991166C (en) 2019-04-09
RU2680199C1 (ru) 2019-02-18
CA2813232C (en) 2020-02-04
KR20180118814A (ko) 2018-10-31
EP2624562A4 (en) 2014-11-19
CN103222265A (zh) 2013-07-24
SG10201506682SA (en) 2015-10-29
KR20170037675A (ko) 2017-04-04
TWI581622B (zh) 2017-05-01
RU2015108787A (ru) 2015-08-10
CN106713930A (zh) 2017-05-24
CA3033984C (en) 2022-03-08
CN103222265B (zh) 2017-02-08
SG189114A1 (en) 2013-05-31
CN106713930B (zh) 2019-09-03
US20150245032A1 (en) 2015-08-27
CN106488249B (zh) 2019-11-05
US20150245035A1 (en) 2015-08-27
JP5486091B2 (ja) 2014-05-07
SG10201802064VA (en) 2018-05-30
TW201640898A (zh) 2016-11-16
US20150245057A1 (en) 2015-08-27
KR101829594B1 (ko) 2018-02-14
KR102013093B1 (ko) 2019-08-21
RU2654136C2 (ru) 2018-05-16
US9900611B2 (en) 2018-02-20
JP6312787B2 (ja) 2018-04-18
US20150281725A1 (en) 2015-10-01
JP6768110B2 (ja) 2020-10-14
EP2624562A1 (en) 2013-08-07
US20130177076A1 (en) 2013-07-11
CN106488249A (zh) 2017-03-08
RU2013119920A (ru) 2014-11-10
SG10201707379SA (en) 2017-10-30
CN106713931A (zh) 2017-05-24
TW201216717A (en) 2012-04-16
JP6768017B2 (ja) 2020-10-14
JP2017060197A (ja) 2017-03-23
BR112013006499A2 (pt) 2020-08-04
RU2706179C1 (ru) 2019-11-14
JP2018067974A (ja) 2018-04-26
US9894375B2 (en) 2018-02-13
KR101914018B1 (ko) 2018-10-31
CN106454379B (zh) 2019-06-28
KR20130076879A (ko) 2013-07-08

Similar Documents

Publication Publication Date Title
JP6312787B2 (ja) 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法、動画像符号化データ及び記録媒体
JP6463521B2 (ja) 画像符号化装置、画像符号化方法、画像復号装置および画像復号方法
JP2012080213A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2012186762A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2013098711A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2012080212A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2012080210A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2013009164A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200918

R150 Certificate of patent or registration of utility model

Ref document number: 6768110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350