JP2015536119A - マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置 - Google Patents

マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置 Download PDF

Info

Publication number
JP2015536119A
JP2015536119A JP2015536667A JP2015536667A JP2015536119A JP 2015536119 A JP2015536119 A JP 2015536119A JP 2015536667 A JP2015536667 A JP 2015536667A JP 2015536667 A JP2015536667 A JP 2015536667A JP 2015536119 A JP2015536119 A JP 2015536119A
Authority
JP
Japan
Prior art keywords
layer
picture
inter
prediction
enhancement layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015536667A
Other languages
English (en)
Inventor
キム、キョン、ヘ
チョ、ヒョン、ホ
ナム、ジョン、ハク
シム、ドン、ギュ
Original Assignee
インテレクチュアル ディスカバリー カンパニー リミテッド
インテレクチュアル ディスカバリー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテレクチュアル ディスカバリー カンパニー リミテッド, インテレクチュアル ディスカバリー カンパニー リミテッド filed Critical インテレクチュアル ディスカバリー カンパニー リミテッド
Publication of JP2015536119A publication Critical patent/JP2015536119A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測方法に関する技術が開示される。マルチレイヤ動画のレイヤ間予測方法は、基準レイヤの予測符号化によって、基準レイヤ内に復元ピクチャを生成するステップと、拡張レイヤ内の現在のピクチャを符号化または復号化するために、拡張レイヤ内の現在のピクチャに対応する時間に、基準レイヤ内の復元ピクチャが存在するかどうか判定するステップと、拡張レイヤ内のピクチャまたは基準レイヤ内の復元ピクチャに基づいてレイヤ間予測を行うステップと、を備える。これにより、拡張レイヤの符号化または復号化を考えると、基準レイヤ内の同じビューからの復元ピクチャがない場合に、拡張レイヤ内のピクチャまたは基準レイヤ内のピクチャを適応的に用いることにより、有効なレイヤ間予測を行うことができる。

Description

本発明は、概して、動画の符号化/復号化に関し、特に、マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置に関する。
近年、ワイヤレスネットワークおよびインターネットの急速な発達により、様々なマルチメディアサービスが稼動されている。特に、圧縮符号化技術のみが開発されていた過去とは異なり、放送通信コンバージェンスネットワークの登場により、マルチメディアが作成され、送信され、消費される様々な環境下でサービス品質(QoS:Quality of Service)を保証するために動画符号化のスケーラビリティを提供するための標準化タスクが行われている。
スケーラブルビデオコード化(SVC:Scalable Video Coding)技術は、様々な端末およびネットワーク環境に応じて、1つの圧縮ビットストリームから、異なる解像度(空間的)、品質、およびフレームレート(時間的)を有する画像を、適応的に再構築するように構成される。SVCは、H.264/AVC(Advanced Video Coding)の高い圧縮率で、様々な種類のマルチメディアデバイスに適応的に対処するために、階層を割り当てられたビデオコーデックであり、ジョイントビデオチーム(JVT)が、H.264/MPEG−4 PART10の改正として、SVCの標準化を行った。
また、従来のH.264/AVCの圧縮効率の2倍を超える圧縮効率を有するとされる次世代の動画圧縮規格技術として、HEVC(High Efficiency Video Coding)が標準化されている。
HEVCは、四分木構造を有するコーディングユニット(CU)と、予測ユニット(PU:Prediction Unit)と、変換ユニット(TU:Transform Unit)とを規定し、サンプル適応オフセット(SAO:Sample Adaptive Offset)または非ブロック化フィルタなどの追加のループ内フィルタを使用する。また、既存のイントラ予測およびインター予測が改善され、これにより、圧縮符号化効率が向上している。
一方、最近の標準化HEVCの拡張版として、SVCも標準化されている。
従来のSVC技術は、レイヤ間予測において、基準レイヤと異なる時間および空間解像度を有する拡張レイヤを符号化する際に、基準レイヤ内のピクチャを参照できない拡張レイヤ内のピクチャが存在する点で問題があり、これは、符号化すべき拡張レイヤ内のピクチャの時間的位置と同じ時間的位置に、基準レイヤ内の再構築ピクチャが存在しないためである。
上述の問題を解決するために本発明の目的は、マルチレイヤ動画を符号化または復号化する際に、基準ピクチャを適応的に判定することにより、レイヤ間予測を行うための方法を提供することである。
上述の問題を解決する本発明の別の目的は、マルチレイヤ動画を符号化または復号化する際に、基準ピクチャを適応的に判定することにより、レイヤ間予測を行うための装置を提供することである。
上記目的を達成するために本発明の一態様によれば、基準レイヤの予測符号化によって基準レイヤ内に再構築ピクチャを生成するステップと、拡張レイヤ内の現在のピクチャに対応する時間に基準レイヤ内の再構築ピクチャが存在するかどうか判定して、拡張レイヤ内の現在のピクチャを符号化または復号化するステップと、拡張レイヤ内のピクチャまたは基準レイヤ内の再構築ピクチャに基づいてレイヤ間予測を行うステップと、を備えるマルチレイヤ動画のレイヤ間予測方法が提供される。
レイヤ間予測を行うステップは、拡張レイヤ内の現在のピクチャに対応する時間に基準レイヤ内の再構築ピクチャが存在しない場合に、拡張レイヤ内における現在のピクチャの前または後のピクチャに基づいてレイヤ間予測を行うステップを備えてもよい。
レイヤ間予測を行うステップは、拡張レイヤ内の現在のピクチャに対応する時間に基準レイヤ内の再構築ピクチャが存在しない場合に、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいてレイヤ間予測を行うステップを備えてもよい。
レイヤ間予測を行うステップは、拡張レイヤ内の現在のピクチャに対応する時間に基準レイヤ内の再構築ピクチャが存在しない場合に、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいてレイヤ間予測を行うステップを備えてもよい。
レイヤ間予測を行うステップは、拡張レイヤ内の現在のピクチャに対応する時間に基準レイヤ内の再構築ピクチャが存在する場合に、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャに基づいてレイヤ間予測を行うステップを備えてもよい。
上記課題を達成するために本発明の別の一態様によれば、基準レイヤ内の再構築ピクチャであって、基準レイヤの予測符号化によって生成される再構築ピクチャを保存するためのフレームバッファと、拡張レイヤ内の現在のピクチャを符号化または復号化するために、拡張レイヤ内のピクチャまたは基準レイヤ内の再構築ピクチャに基づいてレイヤ間予測を行う予測ユニットと、を備えるマルチレイヤ動画のレイヤ間予測装置が提供される。
レイヤ間予測装置は、拡張レイヤの解像度に基づいて、基準レイヤ内の再構築ピクチャを補間するための補間ユニットをさらに備えてもよい。
本発明の実施形態に係るマルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置が使用される場合、拡張レイヤの時間的位置と同じ時間的位置に基準レイヤ内の再構築ピクチャが存在しない場合であっても、拡張レイヤ内のピクチャまたは基準レイヤ内のピクチャを適応的に使用し、これにより、効果的なレイヤ間予測を行える。
また、拡張レイヤ内のピクチャまたは基準レイヤ内のピクチャを適応的に使用するレイヤ間予測手段によって、符号化および復号化の効率を高めることが可能である。
図1は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測を行う符号化装置を示すブロック図である。 図2は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示す概略図である。 図3は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法に基づく基準ピクチャリストを示す図である。 図4は、本発明の別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示す概略図である。 図5は、本発明の別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法に基づく基準ピクチャリストを示す図である。 図6は、本発明のさらに別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示す概略図である。 図7は、本発明のさらに別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法に基づく基準ピクチャリストを示す図である。 図8は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示すフローチャートである。 図9は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測に用いられる構文要素を示す図である。 図10は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測を行う復号化装置を示すブロック図である。
本発明は、様々に変更してもよく、また様々な実施形態を有してもよく、以下、添付の図面を参照して、具体的な実施形態を詳細に説明する。しかし、これらの実施形態は、特定の開示形態に本発明を限定することを意図せず、かつ実施形態は、本発明の趣旨および範囲に含まれる全ての変更、均等物または置換物を含むことを理解すべきである。以下の図面の説明において、同一または類似の要素を示すために、同じ参照符号が用いられる。
”第1”、”第2”、”A”、および”B”などの用語は、様々な構成要素を述べるために用いてもよいが、これらの構成要素は、これらの用語によって限定されるべきではない。用語は、単に、1つの構成要素を他の構成要素から区別するために用いられる。例えば、本発明の範囲に基づく範囲から逸脱することなしに、第1の構成要素を、第2の構成要素として指定してもよく、同様に、第2の構成要素を、第1の構成要素として指定してもよい。”および/または”という用語は、複数の関連する説明項目の組み合わせ、または複数の関連する説明項目のいずれかを含む。
明細書全体を通して、第1の構成要素が第2の構成要素に”接続”または”結合”されることを示す表現は、他の何らかの構成要素をその間に介在させて、第1の構成要素が第2の構成要素に接続または結合される場合や、第1の構成要素が第2の構成要素に直接接続または結合される場合を含んでもよいことを理解すべきである。反対に、第1の構成要素が第2の構成要素に”直接接続”または”直接結合”されることを示す表現は、第1および第2の構成要素の間に構成要素が介在されないことを意味すると理解すべきである。
本明細書にて用いられる用語は、単に具体的な実施形態を説明するために用いられ、本発明を限定することは意図しない。単数の表現は、文脈内において反対の説明が具体的に指摘されない限り、複数の表現を含む。本明細書においては、”含む”または”有する”などの用語は、その特徴、数、ステップ、動作、構成要素、部品、または組み合わせが存在することを示すことを単に意図しており、その1つまたは複数の他の特徴、数、ステップ、動作、構成要素、部品、または組み合わせが存在または追加される可能性を除外することは意図しないと理解すべきである。
異なって定義されない限り、技術的または科学的用語を含む、ここに用いられる全ての用語は、本発明の属する技術分野の当業者によって通常理解される用語と同じ意味を有する。一般的に用いられる辞書に定義される用語と同一の用語は、関連技術の文脈上の意味と同じ意味を有すると解釈されるべきであり、これらが本明細書に明確に定義されない限り、理想的または排他的に形式的な意味としては解釈されない。
以下、後述する動画符号化装置および動画復号化装置は、パーソナルコンピュータ(PC)、ノートパソコン、携帯情報端末(PDA)、ポータブルマルチメディアプレーヤー(PMP)、プレイステーションポータブル(PSP)、ワイヤレス通信端末、スマートフォンまたは様々な類似の種類の装置などのユーザー端末、TVアプリケーションサーバまたはサービスサーバなどのサーバ端末、あるいは、通信装置、例えば、有線/無線通信ネットワーク上で通信を行うための通信モデム、画像を符号化または復号化するため、あるいは符号化または復号化のための画像間または画像内予測を行うのに必要な様々な種類のプログラムおよびデータを格納するためのメモリ、プログラムを実行し、かつ作業および制御を行うためのマイクロプロセッサ等を含む様々な種類の装置のいずれかであってもよい。
また、動画符号化装置によりビットストリーム内で符号化される画像は、インターネット、短距離無線通信ネットワーク、ワイヤレスローカルエリアネットワーク(WLAN)、Wibroネットワーク、または携帯通信ネットワークなどの有線/無線通信ネットワーク上で、あるいは、ケーブルまたはユニバーサルシリアルバス(USB)などの様々な通信インターフェイスを通して、リアルタイムまたは非リアルタイムで、動画復号化装置に送信され、これにより、符号化された画像は、動画復号化装置によって復号化されてもよく、かつオリジナル画像として再構築され、再生されてもよい。
典型的には、動画は、一連のピクチャで構成されていてもよく、各ピクチャは、フレームまたはブロックなどの所定の領域に分割されていてもよい。ピクチャの領域をブロックに分割する場合、分割されたブロックは、コード化方法に従って、主に、イントラブロックおよびインターブロックに分類してもよい。イントラブロックは、イントラ予測コードを用いて符号化されたブロックを示す。ここで、イントラ予測コードは、現在符号化されている現在のピクチャ内で、すでに符号化および復号化され次いで再構築され、ブロック内の画素が用いられている現在のブロック内で画素を予測することにより、予測ブロックが生成され、予測ブロックの画素値と現在のブロックの画素値との差異が符号化される方式を示すものである。また、インターブロックは、インター予測コードを用いて符号化されたブロックを示す。ここで、インター予測コードは、1つまたは複数の前または後のピクチャに基づいて現在のピクチャ内の現在のブロックを予測することにより、予測ブロックが生成され、予測ブロックの画素値と現在のブロックの画素値と差異が符号化される方式を示すものである。この場合、現在のピクチャを符号化または復号化する際に参照されるフレームは、基準フレームと呼ばれる。また、本実施形態が属する技術分野の当業者は、以下に説明される用語”ピクチャ”を、ピクチャと同じ意味を有する別の用語、画像またはフレームなどと置き換え、かつ共に用いてもよいことを理解するであろう。さらに、本実施形態が属する技術分野の当業者は、本発明で言及されるピクチャは再構築ピクチャを意味することを理解するであろう。
以下、本発明の好適な実施形態を、添付の図面を参照して詳細に説明する。
図1は、本発明の実施形態に係るマルチレイヤ動画のレイヤ間予測を行う符号化装置を示すブロック図である。
図1を参照すると、本発明の実施形態に係るマルチレイヤ動画のレイヤ間予測を行う装置は、基準レイヤ用の符号化装置100と、拡張レイヤ用の符号化装置200と、を含んでよい。また、レイヤ間予測装置は、マルチプレキサ320と、補間ユニット310と、を含んでもよい。
符号化装置100または200の各々は、減算ユニット110または210と、変換ユニット120または220と、量子化ユニット130または230と、逆量子化ユニット131または231と、逆変換ユニット121または221と、エントロピー符号化ユニット140または240と、加算ユニット150または250と、ループ内フィルタユニット160または260と、フレームメモリ170または270と、イントラ予測ユニット180または280と、動き補償ユニット190または290と、を含む。
減算ユニット110または210は、イントラ予測またはインター予測によって生成された予測画像を、提供された入力画像である符号化対象画像(現在の画像)から減算し、次いで、現在画像と予測画像との間に残像を生成する。
変換ユニット120または220は、減算ユニット110または210により生成された残像を、空間領域から周波数領域に変換するように機能する。ここで、変換ユニット120または220は、空間軸上の画像信号を、周波数軸に変換するために、アダマール変換、離散コサイン変換、または離散サイン変換などの技術を用いて、残像を周波数領域に変換してよい。
量子化ユニット130または230は、変換ユニット120または220により提供される変換データ(周波数係数)に対して量子化を行う。すなわち、量子化ユニット130または230は、周波数係数を量子化ステップサイズで分けることにより、変換ユニット120または220によって変換された、いくつかのデータである周波数係数を概算し、これにより、量子化結果値を計算する。
エントロピー符号化ユニット140または240は、量子化ユニット130または230により計算された量子化結果値をエントロピー符号化することにより、ビットストリームを生成する。また、エントロピー符号化ユニット140または240は、コンテキスト適応可変長コード化(CAVLC:Context-Adaptive Variable Length Coding)またはコンテキスト適応バイナリ算術コード化(CABAC:Context-Adaptive Binary Arithmetic Coding)技術を用いた量子化ユニット130または230により計算された量子化結果値をエントロピー符号化してもよく、また、量子化結果値に加えて、画像の復号化に必要な情報をエントロピー符号化してもよい。
逆量子化ユニット131または231は、量子化ユニット130または230により計算された量子化結果値を逆量子化する。すなわち、逆量子化ユニット131または231は、量子化結果値から、周波数領域内の値(周波数係数)を再構築する。
逆変換ユニット121または221は、逆量子化ユニット131または231により供給された周波数領域値(周波数係数)を、周波数領域から空間領域に変換することにより残像を再構築する。加算ユニット150または250は、逆変換ユニット121または221によって再構築された残像を、イントラ予測またはインター予測によって生成された予測画像に加算することにより、入力画像の再構築画像を生成し、次いで、再構築画像をフレームメモリ170または270に保存する。
フレームメモリ170は、基準レイヤの予測コード化によって生成される、基準レイヤ内の再構築ピクチャを保存してもよい。また、フレームメモリ270は、拡張レイヤの予測コード化によって生成される、拡張レイヤ内の再構築ピクチャを保存してよく、かつ、基準レイヤ内の再構築ピクチャまたは基準レイヤ内の再構築ピクチャの補間ピクチャを保存してもよい。
予測ユニットは、イントラ予測ユニット180または280と、動き補償ユニット190または290とを含んでよく、次いで、イントラ予測およびインター予測を行ってもよい。
イントラ予測ユニット180または280はイントラ予測を行い、動き補償ユニット190または290は、インター予測のための動きベクトルを補償してよい。
本発明の実施形態に係る予測ユニットは、拡張レイヤ内のピクチャまたは基準レイヤ内の再構築ピクチャを参照してレイヤ間予測を行って、拡張レイヤ内の現在のピクチャを符号化してよい。ここで、レイヤ間予測は、拡張レイヤを符号化または復号化する際に、基準レイヤ内の再構築ピクチャに基づいてイントラ予測またはインター予測を行うことを意味してよい。
まず、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間的位置に存在する場合に、予測ユニットは、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間(時間的位置)の再構築ピクチャに基づいてレイヤ間予測を行ってよい。
特に、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、予測ユニットは、拡張レイヤ内における現在のピクチャの前または後のピクチャに基づいて、レイヤ間予測を行ってよい。
また、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、予測ユニットは、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいてレイヤ間予測を行ってもよい。
さらに、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、予測ユニットは、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいてレイヤ間予測を行ってもよい。
再構築画像にフィルタリングを行うループ内フィルタユニット160または260は、非ブロック化フィルタ(DF:Deblocking Filter)と、サンプル適応オフセット(SAO:Sample Adaptive Offset)フィルタと、適応ループフィルタ(ALF:Adaptive Loop Filter)と、を含んでよい。
補間ユニット310は、基準レイヤ内の再構築ピクチャを補間する。すなわち、補間ユニット310は、拡張レイヤの空間分解能に従って、基準レイヤ内の再構築ピクチャを補間してもよい。
マルチプレキサ320は、基準レイヤおよび拡張レイヤから符号化ビットストリームを受信し、その符号化ビットストリームを出力する。
図2は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示す概略図である。
図2を参照すると、拡張レイヤ内のピクチャは、IE0 20、IE1 21、IE2 22、IE3 23、IE4 24等により表されてよい。また、基準レイヤ内の再構築ピクチャは、IB0 25、IB0 26、IB0 27等により表されてよい。
基準レイヤ内の再構築ピクチャ、すなわちIB0 25、IB2 26、およびIB4 27は、拡張レイヤ内のピクチャ、すなわちIE0 20、IE2 22、およびIE4 24に対応する時間に存在する。しかし、基準レイヤ内の再構築ピクチャは、拡張レイヤ内のピクチャ、すなわちIE1 21およびIE3 23に対応する時間には存在しなくてもよい。
すなわち、基準レイヤ内の再構築ピクチャが、拡張レイヤの現在のピクチャに対応する時間に存在する場合に、拡張レイヤ内の現在のピクチャは、基準レイヤ内の対応する再構築ピクチャに基づいて符号化または復号化されてよい。ここで、現在のピクチャは、符号化または復号化される対象ピクチャを示してもよい。
例えば、拡張レイヤ内の現在のピクチャが、IE0 20、IE2 22またはIE4 24である場合には、現在のピクチャIE0 20、IE2 22またはIE4 24は、基準レイヤ内の再構築ピクチャ、すなわちIB0 25、IB2 26、またはIB4 27をそれぞれ基準にして符号化または復号化されてよい。
しかし、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合には、拡張レイヤ内の現在のピクチャは、拡張レイヤ内における現在のピクチャの前または後のピクチャに基づいて符号化または復号化されてよい。
例えば、拡張レイヤ内の現在のピクチャが、IE1 21である場合には、現在のピクチャIE1 21は、IE0 20またはIE2 22に基づいて符号化または復号化されてよい。
また、拡張レイヤ内の現在のピクチャが、IE3 23である場合には、現在のピクチャIE3 23は、IE2 22またはIE4 24に基づいて符号化または復号化されてよい。
すなわち、本発明の実施形態によれば、拡張レイヤ内の現在のピクチャが、同じレイヤ(拡張レイヤ)内のピクチャに基づいて符号化または復号化されて、時間的スケーラビリティをサポートしてよい。
図3は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法に基づいた基準ピクチャリストを示す図である。
図3を参照すると、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、拡張レイヤ内の現在のピクチャ用の基準リストは、拡張レイヤ内における現在のピクチャの前または後のピクチャを含んでよい。
例えば、拡張レイヤ内の現在のピクチャがIE1 21である場合には、ピクチャIE0 20またはIE2 22が基準リストに含まれてよい。
図4は、本発明の別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示す概略図である。
図4を参照すると、拡張レイヤ内のピクチャは、IE0 40、IE1 41、IE2 42、IE3 43、IE4 44等により表されてよい。また、拡張レイヤ内の再構築ピクチャは、IB0 45、IB2 46、IB4 47等により表されてよい。
基準レイヤ内の再構築ピクチャ、すなわちIB0 45、IB2 46、およびIB4 47は、拡張レイヤ内のピクチャ、すなわちIE0 40、IE2 42、およびIE4 44に対応する時間に存在する。しかし、基準レイヤ内の再構築ピクチャは、拡張レイヤ内のピクチャ、すなわちIE1 41およびIE3 43に対応する時間に存在しなくてもよい。
すなわち、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在する場合に、拡張レイヤ内の現在のピクチャは、基準レイヤ内の対応する再構築ピクチャに基づいて符号化または復号化されてよい。
例えば、拡張レイヤ内の現在のピクチャが、IE0 40、IE2 42またはIE4 44である場合には、現在のピクチャIE0 40、IE2 42またはIE4 44は、基準レイヤ内の再構築ピクチャ、すなわちIB0 45、IB2 46またはIB4 47をそれぞれ基準にして符号化または復号化されてよい。
しかし、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、現在のピクチャは、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいて符号化または復号化されてよい。
例えば、拡張レイヤ内の現在のピクチャが、IE1 41である場合には、現在のピクチャIE1 41は、ピクチャIB0 45またはIB2 46に基づいて符号化または復号化されてよい。
また、拡張レイヤ内の現在のピクチャが、IE3 43である場合には、現在のピクチャIE3 43は、ピクチャIB2 46またはIB4 47に基づいて符号化または復号化されてよい。
すなわち、本発明の実施形態によれば、拡張レイヤ内の現在のピクチャが、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいて符号化または復号化されて、時間的スケーラビリティをサポートしてよい。
図5は、本発明の別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法に基づいた基準ピクチャリストを示す図である。
図5を参照すると、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、拡張レイヤ内の現在のピクチャ用の基準リストは、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャを含んでよい。
例えば、拡張レイヤ内の現在のピクチャが、IE1 41である場合には、ピクチャIB0 45またはIB2 46は、基準リストに含まれてよい。
図6は、本発明のさらに別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示す概略図である。
図6を参照すると、拡張レイヤ内のピクチャは、IE0 60、IE1 61、IE2 62、IE3 63、IE4 64等により表されてよい。また、拡張レイヤ内の再構築ピクチャは、IB0 65、IB2 66、IB4 67等により表されてよい。
基準レイヤ内の再構築ピクチャ、すなわちIB0 65、IB2 66、およびIB4 67は、拡張レイヤ内のピクチャ、すなわちIE0 60、IE2 62、およびIE4 64に対応する時間に存在する。しかし、基準レイヤ内の再構築ピクチャは、拡張レイヤ内のピクチャ、すなわちIE1 61、およびIE3 63に対応する時間に存在しなくてもよい。
すなわち、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在する場合に、拡張レイヤ内の現在のピクチャは、基準レイヤ内の再構築ピクチャに基づいて符号化または復号化されてよい。
例えば、拡張レイヤ内の現在のピクチャが、IE0 60、IE2 62またはIE4 64である場合には、現在のピクチャIE0 60、IE2 62またはIE4 64は、基準レイヤ内の再構築ピクチャ、すなわちIB0 65、IB2 66、またはIB4 67をそれぞれ基準にして符号化または復号化されてよい。
しかし、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、現在のピクチャは、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいて符号化または復号化されてよい。
例えば、拡張レイヤ内の現在のピクチャが、IE1 61である場合には、IE1 61は、ピクチャIE0 60またはIE2 62と、IB0 65またはIB2 66とに基づいて符号化または復号化されてよい。
また、拡張レイヤ内の現在のピクチャが、IE3 63である場合には、IE3 63は、ピクチャIE2 62またはIE4 64と、IB2 66またはIB4 67とに基づいて符号化または復号化されてよい。
すなわち、本発明の実施形態によれば、拡張レイヤ内の現在のピクチャが、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいて符号化または復号化されて、時間的スケーラビリティをサポートしてよい。
図7は、本発明のさらに別の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法に基づいた基準ピクチャリストを示す図である。
図7を参照すると、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャが存在しない場合に、基準リストは、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、を含んでよい。
例えば、拡張レイヤ内の現在のピクチャが、IE1 41である場合には、ピクチャIE0 60またはIE2 62と、ピクチャIB0 65またはIB2 66とは、基準リストに含まれてよい。
図8は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測方法を示すフローチャートである。
図8を参照すると、基準レイヤ内の再構築ピクチャは、基準レイヤの予測符号化によって生成され、基準レイヤ内の再構築ピクチャが拡張レイヤ内の現在のピクチャに対応する時間に存在するかどうか判定して、拡張レイヤ内の現在のピクチャを符号化または復号化してよい。
また、レイヤ間予測は、拡張レイヤ内のピクチャまたは基準レイヤ内の再構築ピクチャに基づいて行われてもよい。
まず、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在する場合に、レイヤ間予測は、拡張レイヤ内の現在のピクチャに対応する時間に存在する基準レイヤ内の再構築ピクチャを用いて、拡張レイヤ内の現在のピクチャに対して行われてよい。
一方、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合には、レイヤ間予測は、拡張レイヤ内における現在のピクチャの前または後のピクチャに基づいて行われてよい。
また、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、レイヤ間予測は、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいて行われてよい。
さらに、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、レイヤ間予測は、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいて行われてもよい。
例えば、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在するかどうかを判定してよい(S810)。すなわち、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャの時間的位置と同じ時間的位置に存在するかどうか判定してよい。
基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在すると判定された場合に、レイヤ間予測は、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャを用いて行われてよい(S820)。
基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しないと判定された場合には、基準ピクチャとして、拡張レイヤ内における現在のピクチャの時間と異なる時間のピクチャを用いるかどうかを示す構文要素であるinter_layer_pred_ext_enable_flagが復号化される。
inter_layer_pred_ext_enable_flag=1を満たすかどうか判定してよい(S830)。inter_layer_pred_ext_enable_flag=1を満たさない場合、イントラ予測は、拡張レイヤ内の現在のピクチャに対して行われてよい(S840)。
inter_layer_pred_ext_enable_flag=1を満たす場合、構文要素inter_layer_pred_ext_modeの値に応じて、どのピクチャを用いてレイヤ間予測を行うか判定してよい。
inter_layer_pred_ext_modeの値が0か1かを、個別に判定してよい(S850,S870)。
inter_layer_pred_ext_mode=0を満たす場合、レイヤ間予測は、拡張レイヤ内における現在のピクチャの前または後のピクチャを参照して行われてよい(S860)。すなわち、イントラ予測またはインター予測が、同じレイヤの再構築ピクチャを用いて行われてよい。
inter_layer_pred_ext_mode=1を満たす場合、レイヤ間予測は、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいて行われてよい(S880)。
inter_layer_pred_ext_mode=1を満たさない場合(inter_layer_pred_ext_mode=2の場合)、レイヤ間予測は、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいて行われてよい(S890)。
図9は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測に用いられる構文要素を示す図である。
図9を参照すると、本発明の実施形態に係る構文要素である、inter_layer_pred_ext_enable_flagを用いることにより、異なる時間のピクチャを基準ピクチャとして使用するかどうかを判定することが可能であり、かつinter_layer_pred_ext_modeを用いることにより、どのピクチャを基準ピクチャとして使用するかを判定することも可能である。
図10は、本発明の実施形態に係る、マルチレイヤ動画のレイヤ間予測を行う復号化装置を示すブロック図である。
図10を参照すると、本発明の実施形態に係る復号化装置は、基準レイヤ用の復号化装置400と、拡張レイヤ用の復号化装置500とを含む。さらに、復号化装置は、補間ユニット610を含む。
復号化装置400または500の各々は、エントロピー復号化ユニット410または510と、逆量子化ユニット420または520と、逆変換ユニット430または530と、加算ユニット440または540と、ループ内フィルタユニット450または550と、フレームメモリ460または560と、イントラ予測ユニット470または570と、動き補償ユニット480または580と、を含む。復号化装置400または500の構成要素は、図1の復号化装置の構成要素にそれぞれ対応するものと理解してもよく、よって、その詳細な説明は省略する。
予測ユニットは、イントラ予測ユニット470または570と、動き補償ユニット480または580と、を含んで、イントラ予測およびインター予測を行ってよい。
本発明の実施形態に係る復号化装置の予測ユニットは、拡張レイヤ内のピクチャまたは基準レイヤ内の再構築ピクチャに基づいてレイヤ間予測を行って、拡張レイヤ内の現在のピクチャを符号化してよい。
まず、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在する場合に、予測ユニットは、拡張レイヤ内の現在のピクチャに対応する時間の、基準レイヤ内の再構築ピクチャに基づいてレイヤ間予測を行ってよい。
特に、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、予測ユニットは、拡張レイヤ内における現在のピクチャの前または後のピクチャに基づいてレイヤ間予測を行ってよい。
また、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、予測ユニットは、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャに基づいて、レイヤ間予測を行ってもよい。
さらに、基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在しない場合に、予測ユニットは、拡張レイヤ内における現在のピクチャの前または後のピクチャと、基準レイヤ内における、拡張レイヤ内の現在のピクチャに対応する時間の再構築ピクチャの前または後のピクチャと、に基づいてレイヤ間予測を行ってもよい。
本発明の実施形態に係るマルチレイヤ動画のレイヤ間予測方法および装置は、拡張レイヤの符号化または復号化の際に、現在のピクチャと同じ時間的位置に、基準レイヤ内の再構築ピクチャが存在しない場合であっても、拡張レイヤ内のピクチャまたは基準レイヤ内のピクチャを適応的に利用することにより、レイヤ間予測を有効に行うことが可能であり、これにより、有効なレイヤ間予測によって、符号化効率を向上させる。
また、本発明の実施形態に係る上述の符号化装置および復号化装置の個別の構成要素は、説明の便宜のため、それぞれの構成要素として別々に列記され、かつ含まれるものとして説明したが、それぞれの構成要素の少なくとも2つを、1つの構成要素に組み合わせるか、または1つの構成要素を複数の構成要素に分割して、単独または組み合わされたこれらの構成要素により機能が行われる方式を実施してもよい。個別の構成要素が組み合わされまたは分離される、それらの実施形態も、本発明の重要な特徴から逸脱することなく、本発明の範囲に含めてもよい。
また、本発明に係る符号化装置および復号化装置は、コンピュータ読み取り可能な記憶媒体に保存してもよく、かつコンピュータ読み取り可能なプログラムまたはコードとして実施してもよい。コンピュータ読み取り可能な記憶媒体は、コンピュータシステムによって読み取り可能なデータが保存される、すべての種類の記録装置を含む。また、コンピュータ読み取り可能な記憶媒体は、ネットワーク上で接続されたコンピュータシステムにまたがって配布してもよく、コンピュータ読み取り可能なプログラムまたはコードを分布する方法で保存および実行してもよい。
本発明は、本発明の好適な実施形態を参照して説明したが、添付される特許請求の範囲に述べられる本発明の趣旨および範囲から逸脱することなしに、様々な方法で、本発明を変更または修正可能であることを、当業者は理解するであろう。

Claims (11)

  1. マルチレイヤ動画の符号化/復号化における前記マルチレイヤ動画のレイヤ間予測方法であって、
    基準レイヤの予測符号化によって前記基準レイヤ内に再構築ピクチャを生成するステップと、
    前記基準レイヤ内の再構築ピクチャが、拡張レイヤ内の現在のピクチャに対応する時間に存在するかどうか判定して、前記拡張レイヤ内の前記現在のピクチャを符号化または復号化するステップと、
    前記拡張レイヤ内のピクチャまたは前記基準レイヤ内の前記再構築ピクチャに基づいてレイヤ間予測を行うステップと、
    を備えるレイヤ間予測方法。
  2. 前記レイヤ間予測を行うステップは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在しない場合に、前記拡張レイヤ内における前記現在のピクチャの前または後のピクチャに基づいてレイヤ間予測を行う、請求項1に記載のレイヤ間予測方法。
  3. 前記レイヤ間予測を行うステップは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在しない場合に、前記基準レイヤ内における、前記拡張レイヤ内の前記現在のピクチャに対応する時間の前記再構築ピクチャの前または後のピクチャに基づいてレイヤ間予測を行う、請求項1に記載のレイヤ間予測方法。
  4. 前記レイヤ間予測を行うステップは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在しない場合に、前記拡張レイヤ内における前記現在のピクチャの前または後のピクチャと、前記基準レイヤ内における、前記拡張レイヤ内の前記現在のピクチャに対応する時間の前記再構築ピクチャの前または後のピクチャと、に基づいてレイヤ間予測を行う、請求項1に記載のレイヤ間予測方法。
  5. 前記レイヤ間予測を行うステップは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の再構築ピクチャが存在する場合に、前記基準レイヤ内における、前記拡張レイヤ内の前記現在のピクチャに対応する時間の前記再構築ピクチャに基づいてレイヤ間予測を行う、請求項1に記載のレイヤ間予測方法。
  6. マルチレイヤ動画を符号化/復号化する、前記マルチレイヤ動画のレイヤ間予測装置であって、
    基準レイヤ内の再構築ピクチャであって、前記基準レイヤの予測符号化によって生成される再構築ピクチャを保存するためのフレームバッファと、
    拡張レイヤ内の現在のピクチャを符号化または復号化するために、前記拡張レイヤ内のピクチャまたは前記基準レイヤ内の前記再構築ピクチャに基づいて、レイヤ間予測を行うための予測ユニットと、
    を備えるレイヤ間予測装置。
  7. 前記拡張レイヤの解像度に基づいて、前記基準レイヤ内の前記再構築ピクチャを補間するための補間ユニットをさらに備える、請求項6に記載のレイヤ間予測装置。
  8. 前記予測ユニットは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在しない場合に、前記拡張レイヤ内における前記現在のピクチャの前または後のピクチャに基づいてレイヤ間予測を行う、請求項6に記載のレイヤ間予測装置。
  9. 前記予測ユニットは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在しない場合に、前記基準レイヤ内における、前記拡張レイヤ内の前記現在のピクチャに対応する時間の前記再構築ピクチャの前または後のピクチャに基づいてレイヤ間予測を行う、請求項6に記載のレイヤ間予測装置。
  10. 前記予測ユニットは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在しない場合に、前記拡張レイヤ内における前記現在のピクチャの前または後のピクチャと、前記基準レイヤ内における、前記拡張レイヤ内の前記現在のピクチャに対応する時間の前記再構築ピクチャの前または後のピクチャと、に基づいてレイヤ間予測を行う、請求項6に記載のレイヤ間予測装置。
  11. 前記予測ユニットは、前記拡張レイヤ内の前記現在のピクチャに対応する時間に前記基準レイヤ内の前記再構築ピクチャが存在する場合に、前記基準レイヤ内における、前記拡張レイヤ内の前記現在のピクチャに対応する時間の前記再構築ピクチャに基づいてレイヤ間予測を行う、請求項6に記載のレイヤ間予測装置。
JP2015536667A 2012-10-09 2012-12-27 マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置 Pending JP2015536119A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2012-0111928 2012-10-09
KR20120111928 2012-10-09
PCT/KR2012/011619 WO2014058110A1 (ko) 2012-10-09 2012-12-27 다중 계층 비디오를 위한 계층 간 예측 방법 및 그 장치

Publications (1)

Publication Number Publication Date
JP2015536119A true JP2015536119A (ja) 2015-12-17

Family

ID=50477560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015536667A Pending JP2015536119A (ja) 2012-10-09 2012-12-27 マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置

Country Status (5)

Country Link
US (2) US9961363B2 (ja)
JP (1) JP2015536119A (ja)
KR (1) KR20140048805A (ja)
CN (2) CN104782129A (ja)
WO (1) WO2014058110A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014160705A1 (en) * 2013-03-26 2014-10-02 Dolby Laboratories Licensing Corporation Encoding perceptually-quantized video content in multi-layer vdr coding
KR20160071569A (ko) * 2014-12-11 2016-06-22 삼성전자주식회사 비디오 장치에서의 영상 처리 방법 및 그에 따른 비디오 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336669A (ja) * 1997-04-01 1998-12-18 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP2003515987A (ja) * 1999-11-23 2003-05-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ハイブリッドな時間的/snr的微細粒状スケーラビリティビデオ符号化
JP2006121701A (ja) * 2004-10-21 2006-05-11 Samsung Electronics Co Ltd 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置
JP2007525924A (ja) * 2004-03-04 2007-09-06 サムスン エレクトロニクス カンパニー リミテッド ビデオストリーミングサービスのためのビデオコーディング方法とビデオエンコーディングシステム、及びビデオデコーディング方法とビデオデコーディングシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU732452B2 (en) 1997-04-01 2001-04-26 Sony Corporation Image encoder, image encoding method, image decoder, image decoding method, and distribution media
KR100596705B1 (ko) * 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
KR100664929B1 (ko) * 2004-10-21 2007-01-04 삼성전자주식회사 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치
TW200704202A (en) * 2005-04-12 2007-01-16 Nokia Corp Method and system for motion compensated fine granularity scalable video coding with drift control
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
KR100781524B1 (ko) 2006-04-04 2007-12-03 삼성전자주식회사 확장 매크로블록 스킵 모드를 이용한 인코딩/디코딩 방법및 장치
KR100904444B1 (ko) 2006-09-07 2009-06-26 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
EP1980107A4 (en) * 2006-11-17 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING / ENCODING A VIDEO SIGNAL
KR20110066523A (ko) * 2009-12-11 2011-06-17 한국전자통신연구원 스케일러블 비디오 디코딩 장치 및 방법
JP5612214B2 (ja) * 2010-09-14 2014-10-22 サムスン エレクトロニクス カンパニー リミテッド 階層的映像符号化及び復号化のための方法及び装置
EP2752000B1 (en) * 2011-08-31 2021-03-17 Dolby Laboratories Licensing Corporation Multiview and bitdepth scalable video delivery
KR20130085088A (ko) * 2012-01-19 2013-07-29 한국전자통신연구원 스케일러블 비디오 코딩에서의 고속 모드 결정 방법 및 그 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336669A (ja) * 1997-04-01 1998-12-18 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP2003515987A (ja) * 1999-11-23 2003-05-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ハイブリッドな時間的/snr的微細粒状スケーラビリティビデオ符号化
JP2007525924A (ja) * 2004-03-04 2007-09-06 サムスン エレクトロニクス カンパニー リミテッド ビデオストリーミングサービスのためのビデオコーディング方法とビデオエンコーディングシステム、及びビデオデコーディング方法とビデオデコーディングシステム
JP2006121701A (ja) * 2004-10-21 2006-05-11 Samsung Electronics Co Ltd 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DANNY HONG ET AL.: "Scalability Support in HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F290r1, JPN6016019056, July 2011 (2011-07-01), pages 1 - 15, ISSN: 0003322779 *
HEIKO SCHWARZ ET AL.: "Overview of the Scalable Video Coding Extension of the H.264/AVC Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 17, no. 9, JPN6016019057, September 2007 (2007-09-01), pages 1103 - 1120, ISSN: 0003322780 *
HYOMIN CHOI ET AL.: "Scalable structures and inter-layer predictions for HEVC scalable extension", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F096, JPN6016019055, July 2011 (2011-07-01), pages 1 - 15, ISSN: 0003322778 *

Also Published As

Publication number Publication date
WO2014058110A1 (ko) 2014-04-17
US20150281732A1 (en) 2015-10-01
KR20140048805A (ko) 2014-04-24
US9961363B2 (en) 2018-05-01
US10219001B2 (en) 2019-02-26
CN108540809A (zh) 2018-09-14
CN104782129A (zh) 2015-07-15
US20180213252A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
KR102165340B1 (ko) 색차 성분 양자화 매개 변수 결정 방법 및 이러한 방법을 사용하는 장치
US11388393B2 (en) Method for encoding video information and method for decoding video information, and apparatus using same
KR102512053B1 (ko) 스킵 모드를 이용한 영상 복호화 방법 및 이러한 방법을 사용하는 장치
DK3280145T3 (en) PROCEDURE FOR ENCODING AND DEVICE FOR DECODING PICTURE THROUGH INTRAPHIC PREDICTION.
KR20180067483A (ko) 인트라 예측 모드 부호화/복호화 방법 및 장치
JP2017513326A (ja) ピクセル距離を使用したデブロックフィルタ処理
KR20130045785A (ko) 메모리 관리 방법 및 그를 이용한 복호화 장치
KR20140062448A (ko) Hevc에서의 샘플 적응성 오프셋의 유연성 대역 오프셋 모드
KR20220121231A (ko) 인트라 예측 모드 스케일러블 코딩 방법 및 장치
KR20130107861A (ko) 인터 레이어 인트라 예측 방법 및 장치
US10219001B2 (en) Inter-layer prediction method for multi-layer video and device therefor
US20130322535A1 (en) Method for encoding and decoding images using plurality of reference images and device using method
KR20140038316A (ko) 디블록킹 필터를 이용한 계층 간 예측 방법 및 장치
KR101802304B1 (ko) 하다마드 변환을 이용한 부호화 방법 및 이러한 방법을 사용하는 장치
KR20140038323A (ko) 다중 계층 비디오의 계층 간 참조 장치 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170414