JP2014509119A - 幾何学ベースのイントラ予測の方法および装置 - Google Patents

幾何学ベースのイントラ予測の方法および装置 Download PDF

Info

Publication number
JP2014509119A
JP2014509119A JP2013550577A JP2013550577A JP2014509119A JP 2014509119 A JP2014509119 A JP 2014509119A JP 2013550577 A JP2013550577 A JP 2013550577A JP 2013550577 A JP2013550577 A JP 2013550577A JP 2014509119 A JP2014509119 A JP 2014509119A
Authority
JP
Japan
Prior art keywords
block
geometric pattern
local geometric
partition
intra prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013550577A
Other languages
English (en)
Other versions
JP2014509119A5 (ja
Inventor
タオラン ルー
チエン シュー
ソレ ジョエル
ポン イン
ユンフェイ ジョン
シアオアン ルー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014509119A publication Critical patent/JP2014509119A/ja
Publication of JP2014509119A5 publication Critical patent/JP2014509119A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

幾何学ベースのイントラ予測の方法および装置が提供される。装置は、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、その一部分に対する周辺領域における局所的な幾何学パターンを検出することによってエンコードし、そしてその一部分のイントラ予測を生成するために局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行するビデオエンコーダ(500)を含む。

Description

関連技術の相互参照
本出願は、2011年1月21日に出願された米国特許仮出願シリアル番号61/435,035の利益を主張し、その開示内容は、すべて参照により本明細書に組み込まれる。
本発明の原理は、概してビデオエンコーディングおよびビデオデコーディングに関し、より具体的には、幾何学ベースのイントラ予測の方法および装置に関する。
国際標準化機構/国際電気標準会議(ISO/IEC)の動画専門家集団−4(MPEG−4)第10部先進動画符号化(AVC)標準/国際電気通信連合、電気通信標準化部門(ITU−T)H.264推奨(以下、「MPEG−4AVC規格」)は、空間方向予測をイントラ符号化に用いた最初のビデオ符号化規格である。MPEG−4AVC規格は、フレキシブルな予測フレームワークを提供し、従ってイントラ予測が変換領域内のみで行われていた以前の規格に比べて符号化効率が大いに向上した。
MPEG−4AVC規格に従うと、空間イントラ予測は、利用できる周辺のサンプルを用いて実行され、そのサンプルは、デコーダが同じスライス内で利用できるすでに再構成されたサンプルである。輝度サンプルに対し、4×4ブロックベース(Intra_4×4と表す)、8×8ブロックベース(Intra_8×8と表す)および16×16マクロブロックベース(Intra_16×16と表す)でイントラ予測を行うことができる。図1では、4×4ブロックベース(Intra_4×4と表す)によるMPEG−4AVC規格の方向イントラ予測を参照番号100で大まかに示している。予測方向は、参照番号110で大まかに示され、画像ブロックは、参照番号120で大まかに示され、そして現在のブロックは、参照番号130で大まかに示されている。輝度予測に加えて、別個の彩度予測も実行される。合計すると、Intra_4×4およびIntra_8×8に対して9つの予測モード、Intra_16×16に対して4つのモードおよび彩度成分に対して4つのモードがある。エンコーダは、典型的には、予測と符号化されるオリジナルブロックとの差を最小にする予測モードを選択する。さらに、I_PCMで表されるイントラ符号化モードは、エンコーダが予測を単にバイパスし、そして符号化プロセスに変換できるようにさせる。それによって、エンコーダがサンプルの値を正確に表し、そして復号される画像品質に制約を加えることなく符号化されるマクロブロックに包含できるビット数に絶対限界を課すことができるようにさせる。
図2では、MPEG−4AVC規格のIntra_4×4モードに関する予測サンプルのラベル付けを参照番号200で大まかに示している。図2は、現在のブロックの上および左のサンプルを(大文字A〜Mで)示し、そのサンプルは、すでに符号化され且つ再構成されていて、従って予測を形成するためにエンコーダおよびデコーダが利用できる。
図3B〜3Jでは、MPEG−4AVC規格のIntra_4×4輝度予測モードを参照番号300で大まかに示している。Intra_4×4輝度予測モード300を用いて、予測ブロックのサンプルa、b、c、、、、pがサンプルA〜Mに基づいて算出される。図3B〜3Jの矢印は、Intra_4×4輝度予測モード300のそれぞれの予測方向を示す。Intra_4×4輝度予測モード300は、モード0〜モード8を含み、モード0(図3B、参照番号310で示す)は、垂直予測モードに対応し、モード1(図3C、参照番号311で示す)は、水平予測モードに対応し、モード2(図3D、参照番号312で示す)は、DC予測モードに対応し、モード3(図3E、参照番号313で示す)は、左下対角線予測モードに対応し、モード4(図3F、参照番号314で示す)は、右下対角線予測モードに対応し、モード5(図3G、参照番号315で示す)は、右垂直予測モードに対応し、モード6(図3H、参照番号316で示す)は、下水平予測モードに対応し、モード7(図3I、参照番号317で示す)は、左垂直予測モードに対応し、そしてモード8(図3J、参照番号318で示す)は、上水平予測モードに対応する。図3Aは、Intra_4×4輝度予測モード300のそれぞれに対応する一般的な予測方向330を示す。
モード3〜モード8において、予測されるサンプルは、予測サンプルA〜Mの重み付け平均から形成される。Intra_8×8は、基本的には、4×4予測と同じ概念を用いるが、ブロックサイズ8×8および再構成された近傍ピクセルのローパスフィルタリングを用いると予測性能が向上する。
図4A〜4Dでは、MPEG−4AVC規格に対応する4つのIntra_16×16モードを参照番号400で大まかに示している。4つのIntra_16×16モード400は、モード0〜モード3を含み、モード0(図4A、参照番号411で示す)は、垂直予測モードに対応し、モード1(図4B、参照番号412で示す)は、水平予測モードに対応し、モード2(図4C、参照番号413で示す)は、DC予測モードに対応し、そしてモード3(図4D、参照番号414で示す)は、プレーン予測モードに対応する。イントラ符号化されるマクロブロックの各8×8彩度成分は、上および/または左のすでに符号化された彩度サンプルから予測され、両彩度成分は、同じ予測モードを用いる。4つの予測モードは、それらのモードの番号付けが異なるということを除けば、Intra_16×16と非常に類似する。それらのモードは、DC(モード0)、水平(モード1)、垂直(モード2)およびプレーン(モード3)である。
従って、MPEG−4AVC規格のIntra_4×4およびIntra_8×8に対する現在のイントラブロック符号化スキームにおいて、最適な予測モードを見つけるためのよく知られた方法は、事前定義された9つの方向に対する歪み率(RD)コストを計算することであり、最適なモードは、従って、最小のRDコストを有する予測モードとして選択される。選択されたモードは、その後、符号化され、そしてデコーダに送信される。
MPEG−4AVC規格に従ったイントラ予測は、ピクチャ内の空間的冗長性を一部活用することができるが、そのような予測は、すでにエンコードされたブロックの上または左のピクセルのみに依存する。再構成された近傍ピクセルと、予測されるピクセル、特に現在のブロックの右下のピクセルとの間の空間距離が長くなる。長い空間距離によって、ピクセルの相関が弱くなり、そして予測後の残差信号が増大し、符号化効率に影響を及ぼす。さらに、因果関係による制約のため、内挿の代わりに外挿が用いられる。
第1の先行技術の手法において、Intra_16×16の平面モードに対する新しいエンコーディング方法が提案されている。マクロブロックが平面モードで符号化される場合、その右下サンプルの信号は、ビットストリームで送られる。マクロブロックの最右および下のサンプルは、線形内挿され、そして真ん中のサンプルは、境界サンプルから双線形内挿される。平面モードが信号で送られると、輝度成分と右下サンプルの個々のシグナリングに分かれた両彩度成分とに同じアルゴリズムが(16×16ベースの動作を輝度に、および8×8ベースの動作を彩度に用いて)適用される。平面モードは、残差信号を符号化しない。
第1の先行技術の手法に従った平面予測方法は、右下サンプルとの空間的相関を一部活用するが、右および下のピクセルの予測精度は、なおも大きく制限される。
第2の先行技術の手法において、イントラ符号化効率を向上させるために双方向イントラ予測(BIP)が提案されている。BIPに対して2つの特徴が以下に提案されている。1つの特徴は、2つの単方向イントラ予測モードを組み合わせた双方向予測であり、もう1つの特徴は、マクロブロックのサブブロック符号化順序を変更することである。双方向予測を導入することによって、BIPの予測モードの総数が9から16に増加する。サブブロック符号化順序を変更するために、BIPは、右下8×8ブロック(または4×4)のサブブロックを最初にエンコードし、他の3つのサブブロックのエンコードを後に行う。符号化順序を変更するかどうかは、RDコストベースの決定によって行われ、その決定をデコーダに信号で送る必要がある。
BIP方法は、符号化効率を大いに向上させるが、このアルゴリズムによるエンコーダの複雑度は、典型的なエンコーダにとって極めて高い。例えば、RDの最小コストを有するモードを選択するのに、MPEG−4AVC規格は、8×8ブロックに対して9つのモードをループさせる一方、BIPは、16*2=32モードをループさせなければならない。BIPは、モードおよび符号化順序を信号で送るのにより多くのビットも必要である。
第3の先行技術の手法において、欠損ブロックの誤り隠蔽に対して幾何学構造ベースの方向フィルタリングスキームが提案され、そこで境界情報が常に利用できる。方向フィルタリングスキームは、周辺ピクセルから抽出された幾何学情報を利用し、従って、欠損ブロックの幾何学構造を保存することができる。この誤り隠蔽アルゴリズムの適用として、受信側において空間内挿を利用して、低ビットレートの符号化を支援するブロックドロップベースの手法もその適用において提案されている。
先行技術のこれらと他の欠点および不利点は、幾何学ベースのイントラ予測の方法および装置を対象とする本発明の原理によって解決される。
本発明の原理の態様に従って、装置が提供される。その装置は、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、その一部分に関して周辺領域における局所的な幾何学パターンを検出することによってエンコードし、局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行してその一部分のイントラ予測を生成するビデオエンコーダを含む。
本発明の原理の別の態様に従って、ビデオエンコーダにおける方法が提供される。その方法は、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、その一部分に関する周辺領域における局所的な幾何学パターンを検出することによってエンコードすることと、そして局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行してその一部分のイントラ予測を生成することを含む。
本発明の原理のさらに別の態様に従って、装置が提供される。その装置は、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、その一部分に関する周辺領域における局所的な幾何学パターンを検出することによってデコードし、そして局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行してその一部分のイントラ予測を生成するビデオデコーダを含む。
本発明の原理のさらに別の態様に従って、ビデオデコーダにおける方法が提供される。その方法は、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、その一部分に関する周辺領域における局所的な幾何学パターンを検出することによってデコードすることと、そして局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行してその一部分のイントラ予測を生成することを含む。
本発明の原理のさらなる態様に従って、コンピュータ可読記憶媒体が提供され、その媒体上でエンコードされるビデオ信号データを有する。コンピュータ可読記憶媒体は、一部分に対する周辺領域における局所的な幾何学パターンを検出し、そして局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行してその一部分のイントラ予測を生成することによってエンコードされる、ピクチャ内の少なくとも一部分のブロックのピクチャデータを含む。
本発明の原理のこれらと他の態様、特徴および利点は、添付図面とともに読まれる、以下の典型的な実施形態の詳細な説明によって明らかになるであろう。
本発明の原理は、以下の典型的な図とともにより良く理解され得る。
4×4ブロックベース(Intra_4×4)に対するMPEG−4AVC規格の方向イントラ予測100を示す図である。 MPEG−4AVC規格のIntra_4×4モードに対する予測サンプルのラベル付け200を示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格のIntra_4×4輝度予測モードをそれぞれに示す図である。 MPEG−4AVC規格に対応する4つのIntra_16×16モードをそれぞれに示す図である。 MPEG−4AVC規格に対応する4つのIntra_16×16モードをそれぞれに示す図である。 MPEG−4AVC規格に対応する4つのIntra_16×16モードをそれぞれに示す図である。 MPEG−4AVC規格に対応する4つのIntra_16×16モードをそれぞれに示す図である。 本発明の原理の実施形態に従って、本発明の原理を適用できる典型的なビデオエンコーダ500を示すブロック図である。 本発明の原理の実施形態に従って、本発明の原理を適用できる典型的なビデオデコーダ600を示すブロック図である。 本発明の原理の実施形態に従って、周辺領域のすべてを利用でき、および検出されたエッジ方向に沿った内挿を用いる、典型的な幾何学ベースのイントラ予測700を示すブロック図である。 本発明の原理の実施形態に従って、周辺領域を部分的に利用でき、および検出されたエッジ方向に沿った外挿を用いる、別の典型的な幾何学ベースのイントラ予測750を示すブロック図である。 本発明の原理の実施形態に従って、幾何学ベースのイントラ予測を用いたエンコーディングの典型的な方法800を示す流れ図である。 本発明の原理の実施形態に従って、幾何学ベースのイントラ予測を用いたデコーディングの典型的な方法900を示す流れ図である。 本発明の原理の実施形態に従って、典型的な遷移ベースのイントラ予測1000を示す図である。 本発明の原理の実施形態に従って、2つの遷移を伴う典型的な幾何学ベースのイントラ予測1100を示す図である。 本発明の原理の実施形態に従って、2つの遷移を伴う別の典型的な幾何学ベースのイントラ予測1200を示す図である。 本発明の原理の実施形態に従って、4つの遷移を有する典型的な幾何学ベースのイントラ予測1200を示す図である。 本発明の原理の実施形態に従って、エッジおよび縞を伴う4つの遷移を有する典型的な幾何学ベースのイントラ予測1400を示す図である。 MPEG−4AVC規格に従って、典型的なラスタ符号化順序1500を示す図である。 本発明の原理の実施形態に従って、典型的な逆符号化順序1600を示す図である。
本発明の原理は、幾何学ベースのイントラ予測の方法および装置を対象とする。
本説明は、本発明の原理を明らかにする。従って、当業者は、本明細書で明示的に説明されていないが、本発明の原理を具体化し、および本発明の原理の精神および範囲内に含まれるさまざまな構成(arrangements)を考案できるであろうことが認識されよう。
本明細書に記載されたすべての例および条件付きの表現は、読み手が、本発明の原理および本技術をさらに発展させる発明者(複数)によって寄与される概念を理解するのを助ける教育的目的を意図し、そのような具体的に記載された例および条件に限定することなく解釈されるものである。
さらに、本発明の原理、態様、および実施形態、ならびにそれらの具体例を記載する本明細書のすべての記述は、その構造的および機能的な等価物の両方を網羅することを意図する。さらに、そのような等価物は、現在知られている等価物および将来開発される等価物、即ち、構造にかかわらず同じ機能を実行する任意に開発された要素の両方を含むことを意図する。
従って、例えば、本明細書で提示されるブロック図は、本発明の原理を具体化する例示的な回路の概念図を表すことが当業者によって認識されよう。同様に、任意のフローチャート、流れ図、状態遷移図、擬似コードなどはいずれも、実質的にはコンピュータ可読媒体で表され、コンピュータまたはプロセッサによってそのように実施されてよいさまざまなプロセスを表し、そのようなコンピュータまたはプロセッサが明示的に示されているか否かによらないことが認識されよう。
図に示したさまざまな要素の機能は、専用ハードウェアならびに適切なソフトウェアと関連してソフトウェアを実施する能力のあるハードウェアの使用を通じて提供されてもよい。プロセッサによって提供される場合、その機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、または一部を共有できる複数の個別プロセッサによって提供されてもよい。さらに、用語「プロセッサ」または「制御器」の明示的な使用は、ソフトウェアを実施する能力のあるハードウェアのみを指すものと解釈されるべきでなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するリードオンリーメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、および不揮発性記憶装置を暗示的に含むことができるが、これらに限定されない。
他のハードウェア、従来型および/またはカスタムハードウェアも含むことができる。同様に、図面に示したいずれのスイッチも概念的なものにすぎない。その機能は、プログラム論理の演算を通じて、専用論理を通じて、プログラム制御と専用論理との対話を通じて、または手動でも実行されてもよく、文脈からより具体的に理解されるように、特定の技術が実装者によって選択可能になる。
本発明の特許請求の範囲において、指定された機能を実行する手段として表される任意の要素は、例えば、a)その機能を実行する回路素子の組み合わせ、またはb)機能を実行するソフトウェアを実施するのに適した回路と組み合わされた、従ってファームウェア、マイクロコードなどを含む、任意の形のファームウェア、を含む機能を実行するいずれの方法も網羅することを意図する。本発明の原理は、そのような特許請求の範囲によって定義されるように、さまざまに記載された手段によって提供される機能性が、その特許請求の範囲が要求する方法で組み合わされ、統合されるという事実による。従って、そのような機能性を提供することができる任意の手段は、本明細書で示した手段と同等であると見なされる。
明細書における本発明の原理の「一実施形態」または「実施形態」、ならびにそれらの他の変形形態への言及は、その実施形態と関連して説明される特定の特徴、構造、特性などが本発明の原理のうちの少なくとも1つの実施形態に含まれることを意味する。従って、「一実施形態において」または「実施形態において」という句の出現、同じく明細書を通じてさまざまな箇所に現れるその他の変形形態は、必ずしもすべて同じ実施形態を指すとは限らない。
以下の「/」、「および/または」、および「のうちの少なくとも1つ」のうちのいずれかの使用は、例えば、「A/B」、「Aおよび/またはB」および「AおよびBのうちの少なくとも1つ」の場合、第1に記載された選択肢(A)のみの選択、または第2に記載された選択肢(B)のみの選択、または両方の選択肢(AおよびB)の選択を網羅することを意図することを認識されたい。さらなる例として、「A、B、および/またはC」および「A、B、およびCのうちの少なくとも1つ」の場合、そのような言い回しは、第1に記載された選択肢(A)のみの選択、または第2に記載された選択肢(B)のみの選択、または第3に記載された選択肢(C)のみの選択、または第1および第2に記載された選択肢(AおよびB)のみの選択、または第1および第3に記載された選択肢(AおよびC)のみの選択、または第2および第3に記載された選択肢(BおよびC)のみの選択、または3つすべての選択肢の選択(AおよびBおよびC)を網羅することを意図する。本技術および関連技術の当業者によって容易に明らかであるように、これは、記載された多くの項目に拡大してよい。
また、本明細書で使用されるように、用語「ピクチャ」および「画像」は、同じ意味で使用され、ビデオシーケンスの静止画像またはピクチャを指す。周知のとおり、ピクチャは、フレームまたはフィールドであってもよい。
さらに、本明細書で使用されるように、用語「信号を送る」は、あるものを対応するデコーダに示すことを指す。例えば、エンコーダは、デコーダにどの特定の順序がエンコーダ側で使われたかを知らせるために、特定のブロックパーティション符号化順序を信号で送ることができる。このように、エンコード側とデコーダ側との両方で同じ順序を使用できる。従って、例えば、エンコーダは、特定の順序をデコーダに送信して、デコーダが同じ特定の順序を使用できるようするか、またはデコーダがすでに他のデコーダと同様に特定の順序を有する場合、(順序を送信せずに)単にそのデコーダに知らせて特定の順序を選択させるシグナリングを使用できる。実順序の送信を避けることによって、ビットの節約を実現できる。シグナリングをさまざまなやり方で完了できることを認識されたい。例えば、1または複数のシンタックス要素、フラグなどを用いて、対応するデコーダに情報を信号で送ることができる。
上記のように、本発明の原理は、幾何学ベースのイントラ予測の方法および装置を対象とする。
図5では、本発明の原理を適用できる典型的なビデオエンコーダを参照番号500で大まかに示している。ビデオエンコーダ500は、信号通信によって結合器585の非反転入力に出力する、フレーム順序付けバッファ510を含む。結合器585の出力は、信号通信によって変換・量子化器525の第1の入力に接続される。変換・量子化器525の出力は、信号通信によってエントロピーコーダ545の第1の入力、および逆変換・逆量子化器550の第1の入力に接続される。エントロピーコーダ545の出力は、信号通信によって結合器590の第1の非反転入力に接続される。結合器590の出力は、信号通信によって出力バッファ535の第1の入力に接続される。
エンコーダ制御器505の第1の出力は、信号通信によってフレーム順序付けバッファ510の第2の入力、逆変換・逆量子化器550の第2の入力、ピクチャタイプ決定モジュール515の入力、マクロブロックタイプ(MB-type)決定モジュール520の第1の入力、イントラ予測モジュール560の第2の入力、非ブロック化フィルタ565の第2の入力、動き補償器570の第1の入力、動き推定器575の第1の入力、および参照ピクチャバッファ580の第2の入力に接続される。
エンコーダ制御器505の第2の出力は、信号通信によって補足的拡張情報(SEI)挿入器530の第1の入力、変換・量子化器525の第2の入力、エントロピーコーダ545の第2の入力、出力バッファ535の第2の入力、およびシーケンスパラメータセット(SPS)・ピクチャパラメータセット(PPS)挿入器540の入力に接続される。
SEI挿入器530の出力は、信号通信によって結合器590の第2の非反転入力に接続される。
ピクチャタイプ決定モジュール515の第1の出力は、信号通信によってフレーム順序付けバッファ510の第3の入力に接続される。ピクチャタイプ決定モジュール515の第2の出力は、信号通信によってマクロブロックタイプ決定モジュール520の第2の入力に接続される。
シーケンスパラメータセット(SPS)・ピクチャパラメータセット(PPS)挿入器540の出力は、信号通信によって結合器590の第3の非反転入力に接続される。
逆変換・逆量子化器550の出力は、信号通信によって結合器519の第1の非反転入力に接続される。結合器519の出力は、信号通信によってイントラ予測モジュール560の第1の入力および非ブロック化フィルタ565の第1の入力に接続される。非ブロック化フィルタ565の出力は、信号通信によって参照ピクチャバッファ580の第1の入力に接続される。参照ピクチャバッファ580の出力は、信号通信によって動き推定器575の第2の入力および動き補償器570の第3の入力に接続される。動き推定器575の第1の出力は、信号通信によって動き補償器570の第2の入力に接続される。動き推定器575の第2の出力は、信号通信によってエントロピーコーダ545の第3の入力に接続される。
動き補償器570の出力は、信号通信によってスイッチ597の第1の入力に接続される。イントラ予測モジュール560の出力は、信号通信によってスイッチ597の第2の入力に接続される。マクロブロックタイプ決定モジュール520の出力は、信号通信によってスイッチ597の第3の入力に接続される。スイッチ597の第3の入力は、(制御入力、即ち、第3の入力と比較して)スイッチの「データ」入力が、動き補償器570またはイントラ予測モジュール560によって与えられるべきか否かを判定する。スイッチ597の出力は、信号通信によって結合器519の第2の非反転入力および結合器585の反転入力に接続される。
フレーム順序付けバッファ510の第1の入力およびエンコーダ制御器505の入力は、入力ピクチャを受け取るための、ビデオエンコーダ500の入力として利用できる。さらに、補足的拡張情報(SEI)挿入器530の第2の入力は、メタデータを受け取るための、ビデオエンコーダ500の入力として利用できる。出力バッファ535の出力は、ビットストリームを出力するための、ビデオエンコーダ500の出力として利用できる。
図6では、本発明の原理を適用できる典型的なビデオデコーダを参照番号600で大まかに示している。ビデオデコーダ600は、信号通信によってエントロピーデコーダ645の第1の入力に接続された出力を有する、入力バッファ610を含む。エントロピーデコーダ645の第1の出力は、信号通信によって逆変換・逆量子化器650の第1の入力に接続される。逆変換・逆量子化器650の出力は、信号通信によって結合器625の第2の非反転入力に接続される。結合器625の出力は、信号通信によって非ブロック化フィルタ665の第2の入力およびイントラ予測モジュール660の第1の入力に接続される。非ブロック化フィルタ665の第2の出力は、信号通信によって参照ピクチャバッファ680の第1の入力に接続される。参照ピクチャバッファ680の出力は、信号通信によって動き補償器670の第2の入力に接続される。
エントロピーデコーダ645の第2の出力は、信号通信によって動き補償器670の第3の入力、非ブロック化フィルタ665の第1の入力、およびイントラ予測器660の第3の入力に接続される。エントロピーデコーダ645の第3の出力は、信号通信によってデコーダ制御器605の入力に接続される。デコーダ制御器605の第1の出力は、信号通信によってエントロピーデコーダ645の第2の入力に接続される。デコーダ制御器605の第2の出力は、信号通信によって逆変換・逆量子化器650の第2の入力に接続される。デコーダ制御器605の第3の出力は、信号通信によって非ブロック化フィルタ665の第3の入力に接続される。デコーダ制御器605の第4の出力は、信号通信によってイントラ予測モジュール660の第2の入力、動き補償器670の第1の入力、および参照ピクチャバッファ680の第2の入力に接続される。
動き補償器670の出力は、信号通信によってスイッチ697の第1の入力に接続される。イントラ予測モジュール660の出力は、信号通信によってスイッチ697の第2の入力に接続される。スイッチ697の出力は、信号通信によって結合器625の第1の非反転入力に接続される。
入力バッファ610の入力は、入力ビットストリームを受け取るための、ビデオデコーダ600の入力として利用できる。非ブロック化フィルタ665の第1の出力は、出力ピクチャを出力するための、ビデオデコーダ600の出力として利用できる。
本発明の原理に従って、我々は、イントラ予測精度およびイントラ符号化効率を向上させる幾何学ベースのイントラ予測(GIP)による新規のイントラブロック符号化スキームを提案する。予測方向は、近傍にある周辺ピクセルの幾何学構造を基に得られる。提案された考えは、ブロック境界の周辺ピクセルが、現在のブロックのイントラ予測モードを得るために使用することができる、局所的な幾何学パターンを特定するのに役立つという見解に基づく。一般に、最適な予測モードを見つけるために事前定義されたすべての予測方向をエンコーダ内でループする、MPEG−4AVC規格のイントラ符号化と比較して、本発明の原理は、エンコーダにおける計算の複雑度を大幅に低減する。さらに、モード選択の必要がなく、イントラ予測モードを示すシンタックスビットを節約する。つまり、予測モードを得るのに同じ動作がデコーダにおいて実行される。従って、モードシグナリング用の付加ビットの量が低減する。さらに、予測は、9つの事前定義された方向のうちの1つに限定されない。正しくは、予測は、任意の方向か、または得られるいくつかの方向の組み合わせにすることができる。GIPに適用するのに、その予測を既存のイントラ予測モードの置き換えか、またはビットを節約するために9つすべての予測モードに取って代わるものとして使用することができる。
さらに、我々は、外挿の代わりに内挿を用いることによって、符号化効率の向上を試みる。さらに、新しい符号化順序を提案し、そこで我々は、現在のブロック、例えば、ブロックの最右列および/または最終行のパーティションを最初にエンコードすることを提案する。再構成された列および/または行は、その後、残りの現在のブロックの予測モードを得るためにすでにエンコードされた近傍の上のブロックおよび左のブロックと組み合わされる。
説明のために、例は、MPEG−4AVC規格の改良という状況において本明細書で説明され、MPEG−4AVC規格を我々の説明の基準として使用し、そしてMPEG−4AVC規格を上回る改良および拡張を説明する。しかしながら、本発明の原理は、唯一MPEG−4AVC規格および/またはその拡張に限定されないことを認識されたい。本明細書に与えられた本発明の原理の教示を所与として、本技術および関連技術の当業者は、本発明の原理が等しく適応可能であることを容易に理解するであろうし、他の規格の拡張に適用される場合、またはまだ開発されていない規格に適用および/または組み込まれる場合に少なくとも同様の利益を与えるであろう。つまり、他の規格を本発明の原理を説明するための出発点として使用し、そして新しいおよび新規の要素をその規格またはその他の規格を上回る変更および進歩として使用できることが当業者には容易に明らかであろう。本発明の原理は、規格に当てはまらないビデオエンコーダおよびビデオデコーダにも適用するが、むしろ独自の定義を確認するものであることをさらに認識されたい。
以下のステップ1〜ステップ4は、エンコーダおよびデコーダとの両方において行われる。
ステップ1.ブロックパーティションの周辺領域を記憶する
我々は、局所的な幾何学パターンを特定するブロックパーティションが利用できる周辺ピクセルを最初に記憶することを提案する。本明細書で使用されるように、「利用できる」は、すでに再構成されたピクセルを意味し、従って、予測を生成するために使用できることを意味する。ブロックパーティションは、(例えば、行、列またはサブブロックなどの)ブロックの一部またはブロック自体になり得る。
通常の符号化順序(即ち、ラスタ順序)において、現在のブロックパーティションの上および左のピクセルのみがイントラ予測用の周辺ピクセルとして利用できる。一実施形態において、周辺領域は、左上の1行列になり得る。別の実施形態において、周辺領域は、左上の2行列になり得る。さらに別の実施形態において、周辺領域は、左上の近傍すべてのブロックパーティションになり得る。
新しい符号化順序において、ブロックは、いくつかのパーティションを含む。第1のパーティションは、現在のブロックの右下のピクセルを含み、そのピクセルが最初にエンコードされる。第1のパーティションに対し、エンコードされた近傍のブロックの左および上のピクセルのみを利用でき、従って、そのプロセスは、通常の符号化順序と同じである。現在のブロックの残りのパーティションに対し、周辺ピクセルは、上および左のピクセルに加えて、下および右のピクセルを利用し得る。従って、周辺領域は、そのパーティションの境界の外側か、または近傍のすべてのブロック/パーティションになり得る。
ステップ2.方向を見つけるために周辺領域を分析する
周辺領域が記憶された後、局所的なパターンを見つける領域で幾何学的分析が実行される。実施形態において、その分析方法は、例えば、ゾーベルオペレータ、キャニーオペレータ、閾値化およびリンキング(linking)などの、エッジ検出方法になり得るが、これらに限定されない。別の実施形態において、その分析方法は、遷移ポイントベースの分析であり、そこで局所エッジが、検出ではなく暗示的に得られる。局所エッジの配向は、イントラ予測の予測方向として使用される。
ステップ3.予測因子を生成するために外挿/内挿を実行する
局所的パターンの方向が見つかると、その方向に沿った外挿または内挿を実行することによって予測されるピクセル値が生成される。得られたエッジ方向の片側の周辺ピクセルのみを利用できる場合、予測値(因子)は、外挿によって生成される。そうでなければ、予測因子は、得られたエッジ方向の両側で利用できる周辺ピクセルを用いる内挿によって生成される。図7Aでは、典型的な幾何学ベースのイントラ予測を参照番号700で大まかに示している。幾何学ベースのイントラ予測700に関して、周辺すべての領域を利用でき、従って、検出されたエッジ方向に沿った内挿が用いられる。図7Bでは、別の典型的な幾何学ベースのイントラ予測を参照番号750で大まかに示している。幾何学ベースのイントラ予測750に関して、周辺の部分的な領域のみ(左および上)を利用でき、従って、検出されたエッジ方向に沿った外挿が用いられる。
ステップ4.エンコーダ/デコーダの残差を生成する
予測因子が生成されると、エンコーダは、減算して残差を生成する。空間領域および/または周波数領域の変換を行って係数を算出する。エントロピー符号化を実行して、符号化効率をさらに向上させる。通常の符号化順序と新しい符号化順序との間のRDコストが比較されて、より少ない歪み率(RD)コストを有する符号化順序の最終決定が信号で送られ、そしてビットストリームに送信される(図8を参照)。デコーダは、ビットストリームからの符号化順序および残差をデコードして、総和プロセスを実行することによって再構成されたピクセル値を生成する(図9を参照)。
図8では、幾何学ベースのイントラ予測を用いたエンコーディングの典型的な方法を参照番号800で大まかに示している。方法800は、機能ブロック810に制御を渡す開始ブロック805を含む。機能ブロック810は、エンコーディングの設定を実行し、そして制御をループ制限ブロック815に渡す。ループ制限ブロック815は、各ブロックにループを実行し、そして機能ブロック820に制御を渡す。機能ブロック820は、通常の符号化順序でエンコードし、周辺領域を記憶し、幾何学パターン(複数)を分析し、外挿によって予測を実行し、RDコストを節約し、そして機能ブロック825に制御を渡す。機能ブロック825は、新しい符号化順序でエンコードし、最初に右下のパーティションをエンコードし、その後、左上のパーティションをエンコードし、周辺領域を記憶し、幾何学パターン(複数)を分析し、外挿/内挿によって予測を実行し、RDコストを節約し、そして機能ブロック830に制御を渡す。機能ブロック830は、最小のRDコストを有する順序を選択し、残差をエンコードし、符号化順序を信号で送り、そしてループ制限ブロック835に制御を渡す。ループ制限ブロック835は、ループを終了し、そして終了ブロック899に制御を渡す。
図9では、幾何学ベースのイントラ予測を用いたデコーディングの典型的な方法を参照番号900で大まかに示している。方法900は、ループ制限ブロック910に制御を渡す開始ブロック905を含む。ループ制限ブロック910は、各ブロックにループを実行し、そして決定ブロック915に制御を渡す。決定ブロック915は、通常の順序を実行するか新しい順序を実行するかどうかを決定する。通常の順序が実行される場合、方法は、機能ブロック925に進む。そうでなければ、方法は、機能ブロック945に進む。機能ブロック925は、周辺領域を記憶し、幾何学パターン(複数)を分析し、外挿によって予測を実行し、そして機能ブロック930に制御を渡す。機能ブロック930は、残差をデコードし、再構成ピクセルを生成し、そしてループ制限ブロック935に制御を渡す。ループ制限ブロックは、ループを終了し、そして終了ブロック999に制御を渡す。機能ブロック945は、右下のパーティションに対して周辺領域を記憶し、幾何学パターン(複数)を分析し、外挿によって予測を実行し、そして機能ブロック950に制御を渡す。機能ブロック950は、左上のパーティションに対して周辺領域を記憶し、幾何学パターン(複数)を分析し、内挿によって予測を実行し、そして機能ブロック930に制御を渡す。
本発明の原理の実施形態を、遷移ベースのイントラ予測(TIP)を対象として説明する。図10では、典型的な遷移ベースのイントラ予測を参照番号1000で大まかに示している。TIP1000の周辺領域は、2つのピクセルレイヤ、即ち、内側レイヤ1010と外側レイヤ1020であり、現在のブロックパーティション1005を囲んでいる。つまり、ブロック境界に沿った局所的な幾何学構造を見つけるために、最も近くを囲んでいる2つの境界レイヤが検査される。2値化閾値は、レイヤのピクセル値の統計量に基づいて適応的に選択される。閾値を算出するのに使用することができるいくつかの方法は、単純平均した境界レイヤのピクセル値、4番目に大きい値と4番目に小さい値の平均、およびセグメンテーションに基づく最も複雑なヒストグラムを含むが、これらに限定されない。閾値よりも大きいピクセルは、白っぽい小さな黒としてマークされる。2値化した後、3ポイントのメジアンフィルタを適用して、孤立した黒点または白点を消去する。
時計方向に黒から白または白から黒への遷移が存在する遷移ポイントが各レイヤ上で定義される。例えば、図10において、内側レイヤ1010上のドット(1011および1012)および外側レイヤ1020上のドット(1021および1022)は、遷移ポイントを示す。内側レイヤ1010上の遷移ポイント(1011および1012)は、エッジの位置(例えば、エッジが交差する位置)を示し、そして外側レイヤ1020上の遷移ポイント(1021および1022)は、エッジの方向を特定する助けとなる(従って、そのエッジの角度を特定する助けとなる)。遷移ポイントの数は、常に偶数であることに留意されたい。
近傍のピクセル値の著しい変化が遷移を形成する。黒から白への遷移(またはその逆)によってエッジの存在がはっきりする。ブロック境界上の遷移分布を所与として、我々は、そのブロック内の局所的な幾何学パターンを分析することができる。イントラ予測は、従って、局所的な幾何学パターンの恩恵を受ける。
内側レイヤ1010上の遷移ポイントの数によって、その状況が以下の4つの典型的な事例に分類される。その事例は、フラット(0遷移)、2つの遷移、4つの遷移、および4つ以上の遷移である。局所エッジ構造を示すのに内側レイヤ1010上の遷移ポイントをどのようにして互いに一致させるかについての曖昧さを解決するために方向の一貫性の測定が用いられる。局所的な幾何学パターンの仮定は、以下の通りである。遷移ポイントiおよびjを通過するエッジがあれば、θij、θおよびθは一致しなければならない。コスト関数は、以下のように導入される。
ここでのiおよびjは、それぞれi番目およびj番目の遷移ポイントである。時計方向において、内側レイヤ1010上のi番目の遷移ポイントに対し、このポイントとそれに対応する外側レイヤθ上の遷移ポイントとを結ぶ線の角度を示す。内側レイヤ1010上のi番目の遷移ポイントとj番目の遷移ポイントとを結ぶ線は、θijで示す(図10を参照)。
周辺すべてのピクセルを利用できない場合、例えば、図10の遷移ポイント1012および1022を利用できない場合、遷移ポイント1011および1021から得られる方向(即ちθ)を予測方向として使用でき、そして外挿を用いてイントラ予測を実行することができる。
フラット/ゼロ遷移
2値化閾値が最大ピクセル値および最小ピクセル値に近すぎる場合、または局所的分散が比較的小さい場合、現在のブロックは、滑らかなブロックである。この場合、既存の方法を用いて最適な配向を見つけることができる。最適な配向を所与として、ピクセルpにおけるイントラ予測因子l(p)を、その配向に沿った双線形内挿によって以下のように生成することができる。
ここでのp1およびp2は、内側レイヤ1010上のそれらに最も近い2つの近傍ピクセルから線形内挿され、そしてd1、d2は、それぞれp1およびp2に対するユークリッド距離である。
2つの遷移
2つの遷移ポイントに対し、2つのシナリオがある。第1のシナリオは、エッジは2つの遷移ポイントを通過するというものである(図11を参照)。このシナリオは、最も可能性の高い事例である。もう1つのシナリオは、縞または角が存在するというものである(図12を参照)。内挿スキームは、このような2つのシナリオによってわずかに異なる。決定は、遷移ペアのコストに基づく。C01<3π/4であれば、エッジが存在する。θ01に沿った双線形内挿を用いて予測因子が生成される。そうでなければ、縞または角が存在し、そしてその内挿は、θ=(θ+θ)/2に沿っている。
図11では、2つの遷移を伴う典型的な幾何学ベースのイントラ予測を参照番号1100で大まかに示している。図11の例において、エッジ1120は、2つの遷移1111および1112を通過する。図12では、2つの遷移を伴う別の典型的な幾何学ベースのイントラ予測を参照番号1200で大まかに示している。図12の例において、2つの遷移1211および1212に対して縞または角が存在する。
4つの遷移
4つの遷移の事例は、2つの遷移の事例よりも複雑である。4つの遷移の事例において、内側レイヤ上で時計方向に最初から開始する遷移ポイントを0、1、2、3として示す(さらに図13の参照番号1320、1321、1322、および1323で示す)。以下のようないくつかの状況がある。
第1の状況において、C01+C23<C03+C21、およびCijは、πに等しくない。これが真であれば、遷移ポイント0は遷移ポイント1と結ばれると仮定される。
第2の状況において、C01+C23>C03+C21、およびCijは、πに等しくない。この状況において、遷移ポイント0は、遷移ポイント3と結ばれる(図13を参照)。このような2つの状況(第1と第2の状況)に対し、2つのエッジは、ブロックを3つの領域に分割する。各ピクセルに対する双線形内挿は、そのピクセルに近いエッジ方向に沿っている。図13では、4つの遷移を有する典型的な幾何学ベースのイントラ予測を参照番号1300で大まかに示している。
第3の状況において、Cijは、πに等しい。ブロック内に別の細かい縞を有する強いエッジが入り、途中で切れていると仮定される(図14を参照)。この場合、すべてのピクセルは、最初にそのエッジ方向に沿って双線形内挿され、その後、縞内のピクセルがその縞の方向に沿って内挿される。図14では、エッジおよび縞を伴う4つの遷移を有する典型的な幾何学ベースのイントラ予測を参照番号1400で大まかに示している。図14において、時計方向に最初から開始する遷移ポイントを参照番号1420、1421、1422、および1423で示す。
6つ以上の遷移
6つ以上の遷移ポイントが見つかる場合、エッジの最適な組み合わせを見つけることは、複雑で困難である。実際に、我々は、ベンチマークとなるいくつかのビデオシーケンスを用いた遷移分布の事例を分析する。その結果、6つ以上の遷移ポイントを有する事例がめったにないことが分かった。性能全体をひどく落とさずに以下のような単純な内挿スキームを用いる。我々は、最も頻度の高い方向を支配的方向として選択する。すべての予想因子は、その方向に沿って双線形で生成される。
前述の遷移ポイント分析および内挿スキームによって、我々は、イントラ予測用のすべての予測因子を生成することができる。残差は、その後、エンコードされ、そしてビットストリームに送られる。予測方向がアルゴリズム自体によって得られるので、TIPモードを明示的に信号で送るシンタックスビットは必要ない。
新しいエンコーディング順序
MPEG−4AVC規格の符号化フレームワークにおいて、現在のブロックの上または左のみをラスタエンコーディング順序で利用できる。図15では、典型的なラスタ符号化順序を参照番号1500で大まかに示している。
周辺すべてのピクセルをTIPモードが利用できるようにするために、我々は、可逆エンコーディング順序を組み込んだ。図16では、典型的な可逆エンコーディング順序を参照番号1600で大まかに示している。マクロブロックに対し、右下(BR)8×8ブロックは、最初に左上の近傍のマクロブロックピクセルを用いてエンコードされる。次に、右上(UR)8×8ブロックは、上および左の近傍のマクロブロックピクセルおよび再構成されたBRブロックをさらに用いてエンコードされる。その後、左下(BL)8×8ブロックは、左および上の近傍のマクロブロックピクセル、BRブロックおよびURブロックを用いてエンコードされる。最後に左上(UL)8×8ブロックは、その周辺すべての利用できるピクセルを用いたTIPモードによって符号化される。
エンコーダは、歪み率の最適化基準に従う対応するモードでエンコーディング順序を選択する。
本発明に付随する多くの利点/特徴の一部について説明する。その一部は、すでに上述した。例えば、1つの利点/特徴は、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、その一部分に対する周辺領域における局所的な幾何学パターンを検出することによってエンコードし、そしてその一部分のイントラ予測を生成するために局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行するビデオエンコーダを有する装置である。
別の利点/特徴は、上述したようなビデオエンコーダを有する装置であり、そこで局所的な幾何学パターンは、エッジ検出方法および遷移ポイントベースの分析のうちの1つを用いて検出される。
さらに別の利点/特徴は、上述したようなビデオエンコーダを有する装置であり、そこでエッジ方向の片側のピクセルのみを利用できる場合、その部分のイントラ予測を生成するのに外挿が用いられ、そしてエッジ方向の両側のピクセルを利用できる場合、その部分のイントラ予測を生成するのに内挿が用いられる。
さらに別の利点/特徴は、上述したようなビデオエンコーダを有する装置であり、そこで局所的な幾何学パターンは、その部分に対して最も近い周辺の2つの境界ピクセルレイヤを検査することによって検出される。
さらに、別の利点/特徴は、上述したようなビデオエンコーダを有する装置であり、そこで複数の異なる内挿スキームのうちの少なくとも1つは、局所的な幾何学パターンが検出された遷移ポイントの数に応じて選択的に用いられる。
さらに、別の利点/特徴は、上述したようなビデオエンコーダを有する装置であり、そこでエッジ方向は、イントラ予測の予測方向として用いられる。
さらに、別の利点/特徴は、上述したようなビデオエンコーダを有する装置であり、そこでブロックのピクチャデータは、最初にブロックの右下のパーティションをエンコードし、その後にブロックの左上のパーティションをエンコードすることによってエンコードされる。
さらに、別の利点/特徴は、上述したような最初にブロックの右下のパーティションをエンコードし、その後にブロックの左上のパーティションをエンコードすることによってエンコードされるビデオエンコーダを有する装置であり、そこでブロックのパーティション符号化順序は、最初から最後までの順序において、右下のパーティション、右上のパーティション、左下のパーティション、そして左上のパーティションの順序を備える。
本発明の原理のこれらおよび他の特徴および利点は、本明細書の教示に基づいて当業者によって容易に解明されるであろう。本発明の原理の教示は、さまざまな形のハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、またはそれらの組み合わせにおいて実装されてよいことを理解されたい。
最も好適には、本発明の原理の教示は、ハードウェアとソフトウェアとの組み合わせとして実装される。さらに、ソフトウェアは、プログラム記憶装置に明示的に具体化されるアプリケーションプログラムとして実装されてもよい。アプリケーションプログラムは、適した任意のアーキテクチャを備えるマシンにアップロードされ、そしてそのマシンによって実行されてもよい。好適には、マシンは、1または複数の中央処理装置(「CPU」)、ランダムアクセスメモリ(「RAM」)、および入力/出力(「I/O」)インタフェースなどの、ハードウェアを有するコンピュータプラットフォームに実装される。コンピュータプラットフォームは、オペレーティングシステムおよびマイクロ命令コードを含むこともできる。本明細書で説明したさまざまなプロセスおよび機能は、マイクロ命令コードの一部またはアプリケーションプログラムの一部、またはそれらの任意の組み合わせのいずれであってもよく、CPUによって実行できる。さらに、他のさまざまな周辺装置を、付加的なデータ記憶装置および印刷装置などの、コンピュータプラットフォームに接続できる。
一部の構成システムコンポーネントおよび添付図面で示した方法は、好適にはソフトウェアに実装されるので、システムコンポーネントまたは処理機能ブロック間の実際の接続は、本発明の原理がプログラムされる方法に応じて異なる場合もあることをさらに理解されたい。本明細書の教示を所与として、当業者は、本発明の原理のこれらおよび同様の実装または構成を企図できるであろう。
例示的な実施形態は、添付図面を参照して本明細書で説明されているが、本発明の原理は、そのような詳細な実施形態に限定されず、本発明の原理の範囲または精神から逸脱せずに当業者によってさまざまな変更および改良がそれらの実施形態に行われてよいことを理解されたい。そのようなすべての変更および改良は、添付の特許請求の範囲に記載されるように本発明の原理の範囲内に含まれることを意図する。

Claims (33)

  1. ピクチャ内の少なくとも一部分のブロックのピクチャデータを、前記一部分に関する周辺領域における局所的な幾何学パターンを検出することによってエンコードし、および前記局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行して前記一部分のイントラ予測を生成するビデオエンコーダ(500)を備えた装置。
  2. 前記局所的な幾何学パターンは、エッジ検出方法および遷移ポイントベースの分析のうちの1つを用いて検出される請求項1に記載の装置。
  3. 前記エッジ方向の片側のピクセルのみを利用できる場合、前記部分の前記イントラ予測を生成するのに外挿が用いられ、および前記エッジ方向の両側のピクセルを利用できる場合、前記部分の前記イントラ予測を生成するのに内挿が用いられる請求項1に記載の装置。
  4. 前記局所的な幾何学パターンは、前記部分に対して最も近い周辺の2つの境界ピクセルレイヤを検査することによって検出される請求項1に記載の装置。
  5. 複数の異なる内挿スキームのうちの少なくとも1つは、前記局所的な幾何学パターンが検出された遷移ポイントの数に応じて選択的に用いられる請求項1に記載の装置。
  6. 前記エッジ方向は、前記イントラ予測の予測方向として用いられる請求項1に記載の装置。
  7. 前記ブロックの前記ピクチャデータは、最初に前記ブロックの右下のパーティションをエンコードし、およびその後に前記ブロックの左上のパーティションをエンコードすることによってエンコードされる請求項1に記載の装置。
  8. 前記ブロックのパーティション符号化順序は、最初から最後までの順序において、前記右下のパーティション、右上のパーティション、左下のパーティション、および前記左上のパーティションの順序を備えた請求項7に記載の装置。
  9. ビデオエンコーダにおいて、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、前記一部分に対する周辺領域における局所的な幾何学パターンを検出する(825)ことによってエンコードするステップと、前記局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行して前記一部分のイントラ予測を生成する(825)ステップを備える方法。
  10. 前記局所的な幾何学パターンは、エッジ検出方法および遷移ポイントベースの分析のうちの1つを用いて検出される請求項9に記載の方法。
  11. 前記エッジ方向の片側のピクセルのみを利用できる場合、前記部分の前記イントラ予測を生成するのに外挿(825)が用いられ、および前記エッジ方向の両側のピクセルを利用できる場合、前記部分の前記イントラ予測を生成するのに内挿(825)が用いられる請求項9に記載の方法。
  12. 前記局所的な幾何学パターンは、前記部分に対して最も近い周辺の2つの境界ピクセルレイヤを検査することによって検出される請求項9に記載の方法。
  13. 複数の異なる内挿スキームのうちの少なくとも1つは、前記局所的な幾何学パターンが検出された遷移ポイントの数に応じて選択的に用いられる請求項9に記載の方法。
  14. 前記エッジ方向は、前記イントラ予測の予測方向として用いられる請求項9に記載の方法。
  15. 前記ブロックの前記ピクチャデータは、最初に前記ブロックの右下のパーティションをエンコードし、およびその後に前記ブロックの左上のパーティションをエンコードすることによってエンコードされる(825)請求項9に記載の方法。
  16. 前記ブロックのパーティション符号化順序は、最初から最後までの順序において、前記右下のパーティション、右上のパーティション、左下のパーティション、および前記左上のパーティションの順序を備えた請求項15に記載の方法。
  17. ピクチャ内の少なくとも一部分のブロックのピクチャデータを、前記一部分に対する周辺領域における局所的な幾何学パターンを検出することによってデコードし、および前記局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行して前記一部分のイントラ予測を生成するビデオデコーダ(600)を備える装置。
  18. 前記局所的な幾何学パターンは、エッジ検出方法および遷移ポイントベースの分析のうちの1つを用いて検出される請求項17に記載の装置。
  19. 前記エッジ方向の片側のピクセルのみを利用できる場合、前記部分の前記イントラ予測を生成するのに外挿が用いられ、および前記エッジ方向の両側のピクセルを利用できる場合、前記部分の前記イントラ予測を生成するのに内挿が用いられる請求項17に記載の装置。
  20. 前記局所的な幾何学パターンは、前記部分に対して最も近い周辺の2つの境界ピクセルレイヤを検査することによって検出される請求項17に記載の装置。
  21. 複数の異なる内挿スキームのうちの少なくとも1つは、前記局所的な幾何学パターンが検出された遷移ポイントの数に応じて選択的に用いられる請求項17に記載の装置。
  22. 前記エッジ方向は、前記イントラ予測の予測方向として用いられる請求項17に記載の装置。
  23. 前記ブロックの前記ピクチャデータは、最初に前記ブロックの右下のパーティションをエンコードし、およびその後に前記ブロックの左上のパーティションをエンコードすることによってエンコードされる請求項17に記載の装置。
  24. 前記ブロックのパーティション符号化順序は、最初から最後までの順序において、前記右下のパーティション、右上のパーティション、左下のパーティション、および前記左上のパーティションの順序を備えた請求項23に記載の装置。
  25. ビデオデコーダにおいて、ピクチャ内の少なくとも一部分のブロックのピクチャデータを、前記一部分に対する周辺領域における局所的な幾何学パターンを検出する(945、950)ことによってデコードするステップと、前記局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行して前記一部分のイントラ予測を生成する(945、950)ステップを備える方法。
  26. 前記局所的な幾何学パターンは、エッジ検出方法および遷移ポイントベースの分析のうちの1つを用いて検出される請求項25に記載の方法。
  27. 前記エッジ方向の片側のピクセルのみを利用できる場合、前記部分の前記イントラ予測を生成するのに外挿(945)が用いられ、および前記エッジ方向の両側のピクセルを利用できる場合、前記部分の前記イントラ予測を生成するのに内挿(950)が用いられる請求項25に記載の方法。
  28. 前記局所的な幾何学パターンは、前記部分に対して最も近い周辺の2つの境界ピクセルレイヤを検査することによって検出される請求項25に記載の方法。
  29. 複数の異なる内挿スキームのうちの少なくとも1つは、前記局所的な幾何学パターンが検出された遷移ポイントの数に応じて選択的に用いられる請求項25に記載の方法。
  30. 前記エッジ方向は、前記イントラ予測の予測方向として用いられる請求項25に記載の方法。
  31. 前記ブロックの前記ピクチャデータは、最初に前記ブロックの右下のパーティションをエンコードし(945)、およびその後に前記ブロックの左上のパーティションをエンコードする(950)ことによってエンコードされる請求項25に記載の方法
  32. 前記ブロックのパーティション符号化順序は、最初から最後までの順序において、前記右下のパーティション、右上のパーティション、左下のパーティション、および前記左上のパーティションの順序を備える請求項31に記載の方法。
  33. コンピュータ可読記憶媒体上でエンコードされるビデオ信号データを有するコンピュータ可読記憶媒体であって、前記一部分に対する周辺領域における局所的な幾何学パターンを検出し、および前記局所的な幾何学パターンのエッジ方向に対して内挿および外挿のうちの少なくとも1つを実行して前記一部分のイントラ予測を生成することによってエンコードされる、ピクチャ内の少なくとも一部分のブロックのピクチャデータを備えたコンピュータ可読記憶媒体。
JP2013550577A 2011-01-21 2012-01-19 幾何学ベースのイントラ予測の方法および装置 Pending JP2014509119A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161435035P 2011-01-21 2011-01-21
US61/435,035 2011-01-21
PCT/US2012/021859 WO2012100047A1 (en) 2011-01-21 2012-01-19 Methods and apparatus for geometric-based intra prediction

Publications (2)

Publication Number Publication Date
JP2014509119A true JP2014509119A (ja) 2014-04-10
JP2014509119A5 JP2014509119A5 (ja) 2016-10-13

Family

ID=45554896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013550577A Pending JP2014509119A (ja) 2011-01-21 2012-01-19 幾何学ベースのイントラ予測の方法および装置

Country Status (7)

Country Link
US (1) US20140010295A1 (ja)
EP (1) EP2666295A1 (ja)
JP (1) JP2014509119A (ja)
KR (1) KR20140005257A (ja)
CN (1) CN103329531A (ja)
BR (1) BR112013018404A2 (ja)
WO (1) WO2012100047A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9380319B2 (en) 2011-02-04 2016-06-28 Google Technology Holdings LLC Implicit transform unit representation
US9667965B2 (en) * 2012-06-25 2017-05-30 Industry-University Cooperation Foundation Hanyang University Video encoding and decoding method
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
US9628790B1 (en) * 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
WO2014115283A1 (ja) * 2013-01-24 2014-07-31 シャープ株式会社 画像復号装置、および画像符号化装置
US9544597B1 (en) 2013-02-11 2017-01-10 Google Inc. Hybrid transform in video encoding and decoding
US9967559B1 (en) 2013-02-11 2018-05-08 Google Llc Motion vector dependent spatial transformation in video coding
US9674530B1 (en) 2013-04-30 2017-06-06 Google Inc. Hybrid transforms in video coding
KR101615503B1 (ko) 2013-05-15 2016-04-26 주식회사 칩스앤미디어 인트라 예측 정보를 이용한 해상도 변환 방법 및 그 장치
GB2516425B (en) * 2013-07-17 2015-12-30 Gurulogic Microsystems Oy Encoder and decoder, and method of operation
EP3243188A4 (en) * 2015-01-06 2018-08-22 Facebook Inc. Method and system for providing depth mapping using patterned light
CN108141593B (zh) * 2015-07-31 2022-05-03 港大科桥有限公司 用于针对深度视频的高效帧内编码的基于深度不连续的方法
US9769499B2 (en) 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
US10277905B2 (en) 2015-09-14 2019-04-30 Google Llc Transform selection for non-baseband signal coding
US9807423B1 (en) 2015-11-24 2017-10-31 Google Inc. Hybrid transform scheme for video coding
WO2017093604A1 (en) * 2015-11-30 2017-06-08 Nokia Technologies Oy A method, an apparatus and a computer program product for encoding and decoding video
JP6669622B2 (ja) * 2016-09-21 2020-03-18 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
WO2018128511A1 (ko) * 2017-01-09 2018-07-12 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
KR102528387B1 (ko) 2017-01-09 2023-05-03 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
WO2020009400A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 인트라 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
US11122297B2 (en) 2019-05-03 2021-09-14 Google Llc Using border-aligned block functions for image compression
JP7180794B2 (ja) * 2019-12-27 2022-11-30 富士通株式会社 復号装置、符号化装置、復号方法及び復号プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009090884A1 (ja) * 2008-01-18 2009-07-23 Panasonic Corporation 画像符号化方法及び画像復号方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3013898B2 (ja) * 1990-06-06 2000-02-28 沖電気工業株式会社 Tv信号における動きベクトルを用いた動き内挿方法
KR100750136B1 (ko) * 2005-11-02 2007-08-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
JP4611427B2 (ja) * 2007-01-24 2011-01-12 富士通株式会社 画像読取装置、画像読取プログラム、画像読取方法
JP4973542B2 (ja) * 2008-02-26 2012-07-11 富士通株式会社 画素補間装置及び画素補間方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009090884A1 (ja) * 2008-01-18 2009-07-23 Panasonic Corporation 画像符号化方法及び画像復号方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHIODERA, T., ET.AL.: ""BLOCK BASED EXTRA/INTER-POLATIONG PREDICTION FOR INTRA CODING"", PROC. OF IEEE INT. CONF. ON IMAGE PROCESSING 2007 (ICIP 2007), JPN5014003479, 1 September 2007 (2007-09-01), pages 445 - 448, ISSN: 0003530767 *
TAORAN LU, "CONTENT-AWARE APPROACHES FOR DIGITAL VIDEO ADAPTATION, SUMMARIZATION AND COMPRESSION", JPN6017011577, 2010, pages 1 - 13, ISSN: 0003530768 *

Also Published As

Publication number Publication date
US20140010295A1 (en) 2014-01-09
BR112013018404A2 (pt) 2017-08-01
CN103329531A (zh) 2013-09-25
KR20140005257A (ko) 2014-01-14
WO2012100047A1 (en) 2012-07-26
EP2666295A1 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
JP2014509119A (ja) 幾何学ベースのイントラ予測の方法および装置
JP6112523B2 (ja) マルチビュービデオ符号化のための低解像度アップデートモードを提供する方法及び装置
JP5746182B2 (ja) イントラ予測モードの効率的なビデオ符号化及び復号化方法及び装置
JP5564061B2 (ja) ビデオ・エンコーダおよびデコーダにおける暗黙的および半暗黙的イントラ・モード信号伝達方法および装置
KR101700966B1 (ko) 인트라 예측 비디오의 조명 보상 방법 및 장치
JP5413923B2 (ja) 変位イントラ予測およびテンプレート・マッチングのためのデブロッキング・フィルタリング
JP6538488B2 (ja) 映像符号化のためのdcイントラ予測モードのための方法
KR101841783B1 (ko) 비디오 인코딩 및 디코딩에서 인터 프레임을 위한 개선된 색차 변환을 위한 방법 및 장치
EP3007447A1 (en) Method for improving intra-prediction of diagonal mode in video coding
JP6425609B2 (ja) 空間変化残差符号化を行う方法および装置
KR101974656B1 (ko) 그룹들에 할당된 픽셀들을 갖는 블록을 인트라 코딩하는 방법 및 장치
JP2013523010A (ja) ビデオ符号化およびビデオ復号化のための暗示的適応型動きベクトル予測器選択の方法および装置
JP2013502150A (ja) 改善されたイントラ・クロマ符号化および復号のための方法および装置
TW202042557A (zh) 視訊編解碼之方法和裝置
TW202335495A (zh) 視頻編解碼系統中多假設幀內模式的方法和裝置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160523

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160707

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20160822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170228

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170331

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170608

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170612

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170612