JP7217226B2 - グローバルな回転における動き補償画像を符号化する方法、デバイス及びストリーム - Google Patents

グローバルな回転における動き補償画像を符号化する方法、デバイス及びストリーム Download PDF

Info

Publication number
JP7217226B2
JP7217226B2 JP2019515450A JP2019515450A JP7217226B2 JP 7217226 B2 JP7217226 B2 JP 7217226B2 JP 2019515450 A JP2019515450 A JP 2019515450A JP 2019515450 A JP2019515450 A JP 2019515450A JP 7217226 B2 JP7217226 B2 JP 7217226B2
Authority
JP
Japan
Prior art keywords
image
motion
data
rotation
immersive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019515450A
Other languages
English (en)
Other versions
JP2019534608A (ja
JP2019534608A5 (ja
Inventor
ボルデ,フィリップ
ラス,ガガン
ラケイプ,ファビアン
ギャルピン,フランク
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2019534608A publication Critical patent/JP2019534608A/ja
Publication of JP2019534608A5 publication Critical patent/JP2019534608A5/ja
Application granted granted Critical
Publication of JP7217226B2 publication Critical patent/JP7217226B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

1.技術分野
本開示は、没入型映像における動き補償の符号化の分野に関し、例えば、そのような没入型映像がバーチャルリアリティ、オーグメンテッドリアリティ又はオーグメンテッドバーチャリティに対してシステムで処理される際のもの、及び、例えば、頭部装着型表示デバイスで表示される際のものに関する。
2.背景
最近は、利用可能な広視野コンテンツ(最大360°)が増加している。そのようなコンテンツは、潜在的には、頭部装着型ディスプレイ、スマートグラス、PCスクリーン、タブレット、スマートフォン及び同様のものなどの没入型表示デバイスでコンテンツを見ているユーザが完全に見ることができるものではない。それは、ある瞬間に、ユーザがコンテンツの一部しか見ることができないことを意味する。しかし、ユーザは、典型的には、頭の移動、マウスの移動、タッチスクリーン、音声及び同様のものなどの様々な手段によって、コンテンツ内でナビゲートすることができる。典型的には、このコンテンツを符号化及び復号することが望ましい。
3.概要
本原理の態様によれば、本開示は、画像シーケンスの第1の画像を符号化してストリームに埋め込む方法に関する。方法は、
- 回転パラメータに従ってグローバルな回転における動き補償を第3の画像に適用することによって第2の画像を得ることであって、第3の画像が、圧縮プロセスのステップにおいて第1の画像を処理することによって得られる、得ることと、
- 動き補償モジュールの入力画像として第2の画像を使用することによって、第1の画像及び関連回転パラメータを符号化してストリームに埋め込むことと
を含む。
特定の特性によれば、第3の画像は第1の画像であり、従って、グローバルな回転における動き補償は、圧縮ループの入力において第1の画像に直接適用される。
特定の実施形態によれば、第3の画像は、圧縮プロセスの間に、入力された第1の画像に応答して残差画像を得ることと、第1の画像に応答して動き予測画像を得ることとによって、上記第1の画像から得られ、第3の画像は、残差画像を動き予測画像に加えることによって得られる再構成された画像である。
また、本開示は、ストリームから画像シーケンスの第1の画像を復号する方法にも関する。方法は、
- ストリームから関連付けられた第2の画像及び関連回転パラメータを得ることと、
- 上記回転パラメータに従ってグローバルな回転における動き補償を第3の画像に適用することによって第1の画像を復号することと
を含む。第3の画像は、解凍プロセスの間に第2の画像から得られる動き補償モジュールの出力画像である。
特定の特性によれば、第3は、復号済みの第1の画像であり、従って、グローバルな動きの回転は、解凍ループの出力において復号済みの画像に適用される。
特定の実施形態によれば、第3の画像は、第2の画像に応答して残差画像を得ることと、第2の画像に応答して動き予測画像を得ることとによって得られ、第3の画像は、解凍プロセスの間に残差画像を動き予測画像に加えることによって得られる再構成された画像である。
また、本開示は、画像シーケンスを表すデータを運ぶビットストリームにも関する。データは、
・ 画像シーケンスを表す構文の第1の要素と、
・ 画像シーケンスの少なくとも1つの画像の識別子と関連付けられたパラメトリックなグローバルな回転における動きのパラメータを表す構文の第2の要素と
を含む。
また、本開示は、画像シーケンスの第1の画像を符号化してストリームに埋め込むデバイスにも関する。デバイスは、少なくとも1つのプロセッサと関連付けられたメモリを含み、少なくとも1つのプロセッサは、
- 回転パラメータに従ってグローバルな回転における動き補償を第3の画像に適用することによって第2の画像を得ることであって、第3の画像が、圧縮プロセスのステップにおいて第1の画像を処理することによって得られる、得ることと、
- 動き補償モジュールの入力画像として第2の画像を使用することによって、第1の画像及び関連回転パラメータを符号化してストリームに埋め込むことと
を行うように構成される。
特定の実施形態によれば、第3の画像は上記第1の画像であり、従って、グローバルな回転における動き補償は、圧縮ループの入力において第1の画像に直接適用される。
特定の実施形態によれば、第3の画像は、解凍プロセスの間に、第1の画像に応答して残差画像を得ることと、第1の画像に応答して動き予測画像を得ることとによって、第1の画像から得られ、第3の画像は、残差画像を動き予測画像に加えることによって得られる再構成された画像である。
また、本開示は、ストリームから画像シーケンスの第1の画像を復号するデバイスにも関する。デバイスは、少なくとも1つのプロセッサと関連付けられたメモリを含み、少なくとも1つのプロセッサは、
- ストリームから第2の画像及び関連回転パラメータを得ることと、
- 上記回転パラメータに従ってグローバルな回転における動き補償を第3の画像に適用することによって第1の画像を復号することと
を行うように構成される。第3の画像は、動き補償モジュールの出力画像であり、解凍プロセスの間のステップにおいて第2の画像から得られる。
4.図のリスト
添付の図面を参照する以下の説明を読み進めるにつれて、本開示がよりよく理解され、他の具体的な特徴及び利点が明らかになるであろう。
本開示の実施形態の例示的な環境による符号化及び復号システムの機能の概要を表す。 本原理の特定の実施形態によるシステムの第1の実施形態を表す。 本原理の特定の実施形態によるシステムの第1の実施形態を表す。 本原理の特定の実施形態によるシステムの第1の実施形態を表す。 本原理の特定の実施形態によるシステムの第1の実施形態を表す。 本原理の特定の実施形態によるシステムの第1の実施形態を表す。 本原理の特定の実施形態によるシステムの第1の実施形態を表す。 本開示によるシステムの第1の実施形態を表す。 本開示によるシステムの第1の実施形態を表す。 本開示による没入型映像レンダリングデバイスの第1の実施形態を表す。 本開示による没入型映像レンダリングデバイスの第1の実施形態を表す。 本開示による没入型映像レンダリングデバイスの第1の実施形態を表す。 本原理の特定の実施形態による、2つの異なるマッピング関数によるフレームへの全方向映像のマッピングの例を示す。 本原理の特定の実施形態による、パニング後の図13の全方向映像のマッピングの例を示す。 本原理の特定の実施形態による、符号化予定の画像に応答して入力画像を動き補償することによって符号化予定の画像を符号化する方法を図示したものである。 本原理の特定の実施形態による、復号予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を復号する方法を図示したものである。 本原理の特定の実施形態による、復号予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を復号する別の方法を図示したものである。 本原理の特定の実施形態による、図15の方法に従って符号化された画像シーケンスを表すデータを運ぶビットストリームのデータ構造の特定の実施形態を示す。 本原理の特定の実施形態による、図15の方法150の第1の実施形態を示す。 本原理の特定の実施形態による、図16の方法160の実施形態を示す。 本原理の特定の実施形態による、図15の方法150の第2の実施形態を示す。 本原理の特定の実施形態による、図17の方法170の実施形態を示す。 本原理の特定の実施形態による、図24の方法のステップを実装して、符号化予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を符号化するように構成されたデバイスの第1の実施形態のブロック図を示す。 本原理の特定の実施形態による、図24に示される方法の第1の実施形態に従って符号化されたビットストリームを復号するように構成されたデバイスの実施形態を示す。 本原理の特定の実施形態による、図26の方法のステップを実装して、符号化予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を符号化するように構成されたデバイスの第2の実施形態のブロック図を示す。 本原理の特定の実施形態による、図26に示される方法の第2の実施形態に従って符号化されたビットストリームを復号するように構成されたデバイスの実施形態を示す。 本原理の特定の実施形態による、図15、16、17、19、20、21又は22に関連して説明された方法を実装するように構成された装置のハードウェア実施形態を示す。
5.実施形態の詳細な説明
ここでは、図面を参照して対象物について説明し、同様の参照番号は、全体を通じて、同様の要素を指すために使用される。以下の説明では、説明の目的で、対象物の完全な理解を提供するために、多くの具体的な詳細を記載する。対象物の実施形態は、これらの具体的な詳細がなくとも実践できることが理解されている。
広視野コンテンツは、数ある中でも特に、三次元コンピュータグラフィック画像シーン(3D CGIシーン)、ポイントクラウド又は没入型映像であり得る。そのような没入型映像を設計するため、例えば、バーチャルリアリティ(VR)、360、パノラマ、4π、ステラジアン、没入型、全方向又は広視野など、多くの用語を使用することができる。
没入型映像は、「規則的な」映像のような画素(すなわち、色情報の要素)の2次元アレイである少なくとも1つの長方形フレーム上の符号化済みの映像である。レンダリングするため、第1に、凸ボリューム(例えば、球体、立方体、ピラミッド)の内面(マッピング表面とも呼ばれる)にフレームがマッピングされ、第2に、バーチャルカメラによってこのボリュームの一部が捕捉される。バーチャルカメラによって捕捉された画像は、没入型表示デバイスのスクリーン上にレンダリングされる。立体映像は、1つ又は2つの長方形フレーム上で符号化され、2つのマッピング表面に投影され、2つのマッピング表面は、デバイスの特性に従って2つのバーチャルカメラによって捕捉するために組み合わされる。
画素は、フレームにおいてマッピング関数に従って符号化される。マッピング関数は、マッピング表面に依存する。同じマッピング表面の場合、いくつかのマッピング関数が可能である。例えば、立方体の面は、フレーム表面内の異なるレイアウトに従って構築され得る。球体は、例えば、正距円筒投影又は心射投影に従ってマッピングすることができる。選択された投影関数から得られた画素の組織は、線の連続性、直交局部フレーム、画素密度を修正又は破壊し、時間及び空間における周期性を導入する。これらは、映像の符号化及び復号に使用される典型的な特徴である。符号化及び復号方法では、没入型映像の特定性への考慮不足が見られる。実際に、没入型映像は360°映像であるため、例えば、パニングは、シーンのコンテンツは変化しないが大量のデータの符号化を必要とする動き及び不連続性を導入する。映像フレームを符号化及び復号する間に没入型映像の特定性を考慮することにより、最先端の方法に対して貴重な利点がもたらされることになる。
図1は、例示的な実施形態による符号化及び復号システムの一般的な概要を示す。図1のシステムは、機能システムである。前処理モジュール300は、符号化デバイス400による符号化のコンテンツを準備することができる。前処理モジュール300は、複数画像の取得、取得した複数画像を共通の空間(典型的には、方向を符号化する場合は3D球体)にマージすること、及び、例えば、これらに限定されないが、正距円筒マッピング又は立方体マッピングを使用して、3D球体を2Dフレームにマッピングすることを実行することができる。また、前処理モジュール300は、特定のフォーマット(例えば、正距円筒)の全方向映像を入力として受け取り、符号化により適したフォーマットにマッピングを変更するために映像を前処理することもできる。取得した映像データ表現に応じて、前処理モジュール300は、マッピング空間変更を実行することができる。符号化デバイス400及び符号化方法は、本明細書の他の図に関して説明する。符号化した後、データ(例えば、没入型映像データを符号化することができる又は3D CGI符号化済みのデータ)は、ネットワークインタフェース500に送信され、ネットワークインタフェース500は、典型的には、いかなるネットワークインタフェースでも実装することができる(例えば、ゲートウェイに存在する)。次いで、データは、インターネットなどの通信ネットワークを通じて送信されるが、他のいかなるネットワークも想定することができる。次いで、データは、ネットワークインタフェース600を介して受信される。ネットワークインタフェース600は、ゲートウェイ、テレビ、セットトップボックス、頭部装着型表示デバイス、イマーシブ(投影型)ウォール又は任意の没入型映像レンダリングデバイスにおいて実装することができる。受信後、データは、復号デバイス700に送信される。復号機能は、以下の図2~12で説明される処理機能のうちの1つである。次いで、復号済みのデータは、プレーヤ800によって処理される。プレーヤ800は、レンダリングデバイス900用にデータを準備し、センサ又はユーザ入力データからの外部データを受信することができる。より正確には、プレーヤ800は、レンダリングデバイス900によって表示される予定の映像コンテンツの一部を準備する。復号デバイス700及びプレーヤ800は、単一のデバイス(例えば、スマートフォン、ゲームコンソール、STB、タブレット、コンピュータなど)に統合することができる。変形形態では、プレーヤ800は、レンダリングデバイス900に統合される。
例えば、没入型映像をレンダリングする際、没入型表示デバイスの復号、再生及びレンダリング機能を実行するために、いくつかのタイプのシステムを想像することができる。
オーグメンテッドリアリティ、バーチャルリアリティ又はオーグメンテッドバーチャリティコンテンツを処理する第1のシステムは、図2~6に示されている。そのようなシステムは、処理機能、没入型映像レンダリングデバイス(例えば、頭部装着型ディスプレイ(HMD)、タブレット又はスマートフォンであり得る)を含み、センサを含む場合もある。また、没入型映像レンダリングデバイスは、表示デバイスと処理機能との間に追加のインタフェースモジュールを含み得る。処理機能は、1つ又はいくつかのデバイスによって実行することができる。処理機能を没入型映像レンダリングデバイスに組み込むことも、処理機能を1つ又はいくつかの処理デバイスに組み込むこともできる。処理デバイスは、1つ又はいくつかのプロセッサや、没入型映像レンダリングデバイスとの通信インタフェース(無線又は有線通信インタフェースなど)を含む。
また、処理デバイスは、直接又はネットワークデバイス(ホーム若しくはローカルゲートウェイなど)を通じて、インターネットなどのワイドアクセスネットワーク及びクラウド上に位置するアクセスコンテンツとの第2の通信インタフェースも含み得る。また、処理デバイスは、イーサネットタイプのローカルアクセスネットワークインタフェースなどの第3のインタフェースを通じてローカルストレージにアクセスすることもできる。実施形態では、処理デバイスは、1つ又はいくつかの処理ユニットを有するコンピュータシステムであり得る。別の実施形態では、処理デバイスは、没入型映像レンダリングデバイスに有線又は無線リンクを通じて接続することができるスマートフォンでも、没入型映像レンダリングデバイスのハウジングに挿入することができ、コネクタを通じて又は無線で没入型映像レンダリングデバイスと通信することができるスマートフォンでもあり得る。処理デバイスの通信インタフェースは、有線インタフェース(例えば、バスインタフェース、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース)又は無線インタフェース(IEEE802.11インタフェース若しくはBluetooth(登録商標)インタフェースなど)であり得る。
処理機能が没入型映像レンダリングデバイスによって実行される際は、没入型映像レンダリングデバイスは、コンテンツを受信及び/又は送信するために、直接又はゲートウェイを通じてネットワークへのインタフェースと共に提供することができる。
別の実施形態では、システムは、没入型映像レンダリングデバイス及び処理デバイスと通信する補助デバイスを含む。そのような実施形態では、この補助デバイスは、処理機能の少なくとも1つを内包し得る。
没入型映像レンダリングデバイスは、1つ又はいくつかのディスプレイを含み得る。デバイスは、そのディスプレイの各々の前でレンズなどの光学系を採用することができる。また、ディスプレイは、スマートフォン又はタブレットの事例のように、没入型表示デバイスの一部でもあり得る。別の実施形態では、ディスプレイ及び光学系は、ユーザが着用することができるヘルメット、眼鏡又はバイザに埋め込むことができる。また、没入型映像レンダリングデバイスは、後に説明されるように、いくつかのセンサを統合することもできる。また、没入型映像レンダリングデバイスは、いくつかのインタフェース又はコネクタも含み得る。没入型映像レンダリングデバイスは、センサ、処理機能、ハンドヘルド又は他のボディ部分関連のデバイス又はセンサと通信するために、1つ又はいくつかの無線モジュールを含む場合もある。
また、没入型映像レンダリングデバイスは、処理機能も含み得、処理機能は、1つ又はいくつかのプロセッサによって実行され、コンテンツを復号するように又はコンテンツを処理するように構成される。本明細書では、コンテンツを処理することにより、すべての機能が表示できるコンテンツを準備することが理解されている。このことは、例えば、コンテンツを復号すること、コンテンツを表示する前にコンテンツをマージすること及び表示デバイスに適合するようにコンテンツを修正することを含み得る。
没入型コンテンツレンダリングデバイスの1つの機能は、仮想ボリュームとして構築されたコンテンツの少なくとも一部を捕捉するバーチャルカメラを制御することである。システムは、バーチャルカメラの姿勢を処理するためにユーザの姿勢(例えば、ユーザの頭の姿勢)を完全に又は部分的に追跡する姿勢追跡センサを含み得る。いくつかの測位センサは、ユーザの移動を追跡することができる。また、システムは、例えば、照明、温度又は音の状態を測定するために、環境に関連する他のセンサも含み得る。また、そのようなセンサは、例えば、発汗又は心拍数を測定するために、ユーザの身体にも関連し得る。これらのセンサを通じて取得された情報は、コンテンツを処理するために使用することができる。また、システムは、ユーザ入力デバイス(例えば、マウス、キーボード、リモートコントロール、ジョイスティック)も含み得る。ユーザ入力デバイスからの情報は、コンテンツを処理するため、ユーザインタフェースを管理するため又はバーチャルカメラの姿勢を制御するために使用することができる。センサ及びユーザ入力デバイスは、有線又は無線通信インタフェースを通じて、処理デバイス及び/又は没入型レンダリングデバイスと通信する。
図2~6を使用すると、オーグメンテッドリアリティ、バーチャルリアリティ、オーグメンテッドバーチャリティ、又は、オーグメンテッドリアリティからバーチャルリアリティまでの任意のコンテンツを表示するこの第1のタイプのシステムのいくつかの実施形態が説明されている。
図2は、没入型映像を復号、処理及びレンダリングするように構成されたシステムの特定の実施形態を示す。システムは、没入型映像レンダリングデバイス10、センサ20、ユーザ入力デバイス30、コンピュータ40及びゲートウェイ50(任意選択の)を含む。
図10に示される没入型映像レンダリングデバイス10は、ディスプレイ101を含む。ディスプレイは、例えば、OLED又はLCDタイプのものである。没入型映像レンダリングデバイス10は、例えば、HMD、タブレット又はスマートフォンである。デバイス10は、タッチ面102(例えば、タッチパッド若しくは触覚スクリーン)、カメラ103、少なくとも1つのプロセッサ104に接続されたメモリ105及び少なくとも1つの通信インタフェース106を含み得る。少なくとも1つのプロセッサ104は、センサ20から受信された信号を処理する。センサからの測定値のいくつかは、デバイスの姿勢を演算するため及びバーチャルカメラを制御するために使用される。姿勢推定のために使用されるセンサは、例えば、ジャイロスコープ、加速度計又はコンパスである。また、より複雑なシステム(例えば、カメラのリグを使用する)を使用することもできる。この事例では、少なくとも1つのプロセッサは、デバイス10の姿勢を推定するために、画像処理を実行する。他のいくつかの測定値は、環境状態又はユーザの反応に従ってコンテンツを処理するために使用される。環境及びユーザを観察するために使用されるセンサは、例えば、マイクロフォン、光センサ又は接触センサである。また、例えば、ユーザの目を追跡する映像カメラのような、より複雑なシステムを使用することもできる。この事例では、少なくとも1つのプロセッサは、予想される測定を操作するために、画像処理を実行する。また、センサ20及びユーザ入力デバイス30からのデータは、コンピュータ40に送信することもでき、コンピュータ40は、これらのセンサの入力に従ってデータを処理する。
メモリ105は、プロセッサ104用のパラメータ及びコードプログラム命令を含む。また、メモリ105は、センサ20及びユーザ入力デバイス30から受信されたパラメータも含み得る。通信インタフェース106は、没入型映像レンダリングデバイスがコンピュータ40と通信できるようにする。処理デバイスの通信インタフェース106は、有線インタフェース(例えば、バスインタフェース、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース)又は無線インタフェース(IEEE802.11インタフェース若しくはBluetooth(登録商標)インタフェースなど)であり得る。コンピュータ40は、データを送信し、任意選択により、没入型映像レンダリングデバイス10に対するコマンドを制御する。コンピュータ40は、データの処理を担当する(すなわち、没入型映像レンダリングデバイス10による表示用にデータを準備する)。処理をコンピュータ40によって排他的に行うことも、処理の一部をコンピュータによって行い、別の部分を没入型映像レンダリングデバイス10によって行うこともできる。コンピュータ40は、直接又はゲートウェイ若しくはネットワークインタフェース50を通じて、インターネットに接続される。コンピュータ40は、インターネットから没入型映像を表すデータを受信し、これらのデータを処理し(例えば、データを復号し、場合により、没入型映像レンダリングデバイス10によって表示される予定の映像コンテンツの一部を準備する)、表示のために処理済みのデータを没入型映像レンダリングデバイス10に送信する。また、変形形態では、システムは、没入型映像を表すデータが格納されたローカルストレージ(表示せず)も含み得、上記ローカルストレージは、コンピュータ40上、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)上のものであり得る。
図3は、第2の実施形態を表す。この実施形態では、STB 90は、直接(すなわち、STB 90はネットワークインタフェースを含む)又はゲートウェイ50を介して、インターネットなどのネットワークに接続されている。STB 90は、テレビ100又は没入型映像レンダリングデバイス200などのレンダリングデバイスに無線インタフェースを通じて又は有線インタフェースを通じて接続される。STBの古典的な機能に加えて、STB 90は、テレビ100又は任意の没入型映像レンダリングデバイス200上でレンダリングするために映像コンテンツを処理する処理機能を含む。これらの処理機能は、コンピュータ40に対して説明されるものと同じであり、ここでは、再度説明することはしない。また、センサ20及びユーザ入力デバイス30は、図2に関して以前に説明されるものと同じタイプのものである。STB 90は、インターネットから没入型映像を表すデータを得る。変形形態では、STB 90は、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から没入型映像を表すデータを得る。
図4は、図2で表されるものに関連する第3の実施形態を表す。ゲームコンソール60は、コンテンツデータを処理する。ゲームコンソール60は、データを送信し、任意選択により、没入型映像レンダリングデバイス10に対するコマンドを制御する。ゲームコンソール60は、没入型映像を表すデータを処理し、表示のために処理済みのデータを没入型映像レンダリングデバイス10に送信するように構成される。処理をゲームコンソール60によって排他的に行うことも、処理の一部を没入型映像レンダリングデバイス10によって行うこともできる。
ゲームコンソール60は、直接又はゲートウェイ若しくはネットワークインタフェース50を介して、インターネットに接続される。ゲームコンソール60は、インターネットから没入型映像を表すデータを得る。変形形態では、ゲームコンソール60は、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から没入型映像を表すデータを得て、上記ローカルストレージは、ゲームコンソール60上、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)上のものであり得る。
ゲームコンソール60は、インターネットから没入型映像を表すデータを受信し、これらのデータを処理し(例えば、データを復号し、場合により、表示される予定の映像の一部を準備する)、表示のために処理済みのデータを没入型映像レンダリングデバイス10に送信する。ゲームコンソール60は、センサ20及びユーザ入力デバイス30からデータを受信し、それらのデータを使用して、インターネットから又はローカルストレージから得られた没入型映像を表すデータを処理することができる。
図5は、上記第1のタイプのシステムの第4の実施形態を表し、没入型映像レンダリングデバイス70は、ハウジング705に挿入されたスマートフォン701によって形成される。スマートフォン701は、インターネットに接続することができ、従って、インターネットから没入型映像を表すデータを得ることができる。変形形態では、スマートフォン701は、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から没入型映像を表すデータを得て、上記ローカルストレージは、スマートフォン701上、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)上のものであり得る。
没入型映像レンダリングデバイス70は、没入型映像レンダリングデバイス70の好ましい実施形態を与える図11を参照して説明される。没入型映像レンダリングデバイス70は、任意選択により、少なくとも1つのネットワークインタフェース702及びスマートフォン701用のハウジング705を含む。スマートフォン701は、スマートフォン及びディスプレイのすべての機能を含む。スマートフォンのディスプレイは、没入型映像レンダリングデバイス70ディスプレイとして使用される。従って、スマートフォン701のディスプレイ以外のディスプレイは含まない。しかし、スマートフォンディスプレイ上でデータを見るために、レンズなどの光学系704が含まれる。スマートフォン701は、場合により、センサ20から及びユーザ入力デバイス30から受信されたデータに従って、没入型映像を表すデータを処理する(例えば、復号し、表示用に準備する)ように構成される。センサからの測定値のいくつかは、デバイスの姿勢を演算するため及びバーチャルカメラを制御するために使用される。姿勢推定のために使用されるセンサは、例えば、ジャイロスコープ、加速度計又はコンパスである。また、より複雑なシステム(例えば、カメラのリグを使用する)を使用することもできる。この事例では、少なくとも1つのプロセッサは、デバイス10の姿勢を推定するために、画像処理を実行する。他のいくつかの測定値は、環境状態又はユーザの反応に従ってコンテンツを処理するために使用される。環境及びユーザを観察するために使用されるセンサは、例えば、マイクロフォン、光センサ又は接触センサである。また、例えば、ユーザの目を追跡する映像カメラのような、より複雑なシステムを使用することもできる。この事例では、少なくとも1つのプロセッサは、予想される測定を操作するために、画像処理を実行する。
図6は、上記第1のタイプのシステムの第5の実施形態を表し、没入型映像レンダリングデバイス80は、データコンテンツを処理して表示するすべての機能を含む。システムは、没入型映像レンダリングデバイス80、センサ20及びユーザ入力デバイス30を含む。没入型映像レンダリングデバイス80は、場合により、センサ20から及びユーザ入力デバイス30から受信されたデータに従って、没入型映像を表すデータを処理する(例えば、復号し、表示用に準備する)ように構成される。没入型映像レンダリングデバイス80は、インターネットに接続することができ、従って、インターネットから没入型映像を表すデータを得ることができる。変形形態では、没入型映像レンダリングデバイス80は、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から没入型映像を表すデータを得て、上記ローカルストレージは、レンダリングデバイス80上、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)上のものであり得る。
没入型映像レンダリングデバイス80は、図12に示される。没入型映像レンダリングデバイスは、ディスプレイ801を含む。ディスプレイは、例えば、OLED又はLCDタイプのもの、タッチパッド(任意選択の)802、カメラ(任意選択の)803、少なくとも1つのプロセッサ804に接続されたメモリ805及び少なくとも1つの通信インタフェース806であり得る。メモリ805は、プロセッサ804用のパラメータ及びコードプログラム命令を含む。また、メモリ805は、センサ20及びユーザ入力デバイス30から受信されたパラメータも含み得る。また、メモリは、没入型映像コンテンツを表すデータを格納できるほど十分に大容量のものでもあり得る。このため、いくつかのタイプのメモリが存在し得、メモリ805は、単一のメモリでも、いくつかのタイプのストレージ(SDカード、ハードディスク、揮発性又は不揮発性メモリ…)でもあり得る。通信インタフェース806は、没入型映像レンダリングデバイスがインターネットネットワークと通信できるようにする。プロセッサ804は、ディスプレイ801に映像を表示するために、映像を表すデータを処理する。カメラ803は、画像処理ステップの環境の画像を捕捉する。データは、没入型映像レンダリングデバイスを制御するために、このステップから抽出される。
オーグメンテッドリアリティ、バーチャルリアリティ又はオーグメンテッドバーチャリティコンテンツを処理する第2のシステムは、図7~9に示される。そのようなシステムは、イマーシブウォールを含む。
図7は、第2のタイプのシステムを表す。第2のタイプのシステムは、コンピュータ4000からデータを受信するイマーシブ(投影型)ウォールであるディスプレイ1000を含む。コンピュータ4000は、インターネットから没入型映像データを受信することができる。コンピュータ4000は、通常は、直接又はゲートウェイ5000若しくはネットワークインタフェースを通じて、インターネットに接続される。変形形態では、没入型映像データは、コンピュータ4000によって、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から得て、上記ローカルストレージは、コンピュータ4000内、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)内のものであり得る。
また、このシステムは、センサ2000及びユーザ入力デバイス3000も含み得る。イマーシブウォール1000は、OLED又はLCDタイプのものであり得る。イマーシブウォール1000は、1つ又はいくつかのカメラを装備し得る。イマーシブウォール1000は、センサ2000(又は複数のセンサ2000)から受信されたデータを処理することができる。センサ2000から受信されたデータは、照明状態、温度、ユーザの環境(例えば、物体の位置)に関連し得る。
また、イマーシブウォール1000は、ユーザ入力デバイス3000から受信されたデータを処理することもできる。ユーザ入力デバイス3000は、ユーザの感情に対するフィードバックを与えるために、触力覚信号などのデータを送信する。ユーザ入力デバイス3000の例は、スマートフォン、リモートコントロール及びジャイロスコープ機能を有するデバイスなどのハンドヘルドデバイスである。
また、センサ2000及びユーザ入力デバイス3000データは、コンピュータ4000に送信することもできる。コンピュータ4000は、これらのセンサ/ユーザ入力デバイスから受信されたデータに従って映像データを処理することができる(例えば、映像データを復号し、表示用に映像データを準備する)。センサ信号は、イマーシブウォールの通信インタフェースを通じて受信することができる。この通信インタフェースは、Bluetoothタイプのものでも、WIFIタイプのものでも、他のタイプの接続のものでもよく、好ましくは、無線のものであるが、有線接続でもよい。
コンピュータ4000は、イマーシブウォール1000に処理済みのデータを送信し、任意選択により、コマンドを制御する。コンピュータ4000は、イマーシブウォール1000によって表示される予定のデータを処理する(すなわち、表示用にデータを準備する)ように構成される。処理をコンピュータ4000によって排他的に行うことも、処理の一部をコンピュータ4000によって行い、別の部分をイマーシブウォール1000によって行うこともできる。
図8は、第2のタイプの別のシステムを表す。システムは、イマーシブ(投影型)ウォール6000を含み、イマーシブ(投影型)ウォール6000は、映像コンテンツを処理し(例えば、データを復号し、表示用にデータを準備する)、表示するように構成される。システムは、センサ2000、ユーザ入力デバイス3000をさらに含む。
イマーシブウォール6000は、インターネットからゲートウェイ5000を通じて又はインターネットから直接、没入型映像データを受信する。変形形態では、没入型映像データは、イマーシブウォール6000によって、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から得て、上記ローカルストレージは、イマーシブウォール6000内、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)内のものであり得る。
また、このシステムは、センサ2000及びユーザ入力デバイス3000も含み得る。イマーシブウォール6000は、OLED又はLCDタイプのものであり得る。イマーシブウォール6000は、1つ又はいくつかのカメラを装備し得る。イマーシブウォール6000は、センサ2000(又は複数のセンサ2000)から受信されたデータを処理することができる。センサ2000から受信されたデータは、照明状態、温度、ユーザの環境(例えば、物体の位置)に関連し得る。
また、イマーシブウォール6000は、ユーザ入力デバイス3000から受信されたデータを処理することもできる。ユーザ入力デバイス3000は、ユーザの感情に対するフィードバックを与えるために、触力覚信号などのデータを送信する。ユーザ入力デバイス3000の例は、スマートフォン、リモートコントロール及びジャイロスコープ機能を有するデバイスなどのハンドヘルドデバイスである。
イマーシブウォール6000は、これらのセンサ/ユーザ入力デバイスから受信されたデータに従って映像データを処理することができる(例えば、映像データを復号し、表示用に映像データを準備する)。センサ信号は、イマーシブウォールの通信インタフェースを通じて受信することができる。この通信インタフェースは、Bluetoothタイプのものでも、WIFIタイプのものでも、他のタイプの接続のものでもよく、好ましくは、無線のものであるが、有線接続でもよい。イマーシブウォール6000は、センサ及びインターネットと通信するために少なくとも1つの通信インタフェースを含み得る。
図9は、イマーシブウォールがゲームのために使用される第3の実施形態を示す。1つ又はいくつかのゲームコンソール7000は、好ましくは、無線インタフェースを通じて、イマーシブウォール6000に接続される。イマーシブウォール6000は、インターネットからゲートウェイ5000を通じて又はインターネットから直接、没入型映像データを受信する。変形形態では、没入型映像データは、イマーシブウォール6000によって、没入型映像を表すデータが格納されたローカルストレージ(表示せず)から得て、上記ローカルストレージは、イマーシブウォール6000内、又は、例えば、ローカルエリアネットワークを通じてアクセス可能なローカルサーバ(表示せず)内のものであり得る。
ゲームコンソール7000は、命令及びユーザ入力パラメータをイマーシブウォール6000に送信する。イマーシブウォール6000は、表示用にコンテンツを準備するため、場合により、センサ2000、ユーザ入力デバイス3000及びゲームコンソール7000から受信された入力データに従って没入型映像コンテンツを処理する。また、イマーシブウォール6000は、表示予定のコンテンツを格納する内部メモリも含み得る。
本開示の非限定的な実施形態によれば、広視野映像の画像を符号化してストリームに埋め込む方法及びデバイスが開示される。また、ストリームから広視野映像の画像を復号する方法及びデバイスも開示される。また、広視野映像の画像を符号化するストリームの構文も開示される。
図13は、2つの異なるマッピング関数によるフレームへの全方向映像のマッピングの例を示す。3Dシーン(ここでは、ホテルホール)は、球体のマッピング表面130に投影される。表面をフレームにマッピングするために前方方向が選択される。前方方向は、図2~12で説明されるように、没入型映像レンダリングデバイス上でレンダリングする際にユーザの目の前に表示されたコンテンツ部分に相当し得る。図13の例では、前方方向は、「A」がプリントされているウィンドウに面している。「B」がプリントされている回転ドアは、前方方向の左側にある。図1の前処理モジュールは、フレームへの投影130のマッピングを実行する。異なるマッピング関数を使用して異なるフレームにつなげることができる。図13の例では、前処理モジュール300は、球体130に適用された正距円筒マッピング関数に従って、フレーム131のシーケンスを生成する。変形形態では、前処理モジュール300は、マッピング空間変更を実行し、球体130を立方体132に変換し、その後、立方体レイアウト134に従って立方体132をフレーム133にマッピングする。図13の例示的な立方体レイアウトは、フレームを3つの正方形を有する2つの行に分割する。上の行には、立方体の左面、前面及び右面が位置し、下の行には、立方体の90°回転された上面、後面及び下面が位置する。連続性は、各行において保証される。立方体レイアウト134の表現の数値は、立方体のエッジの接続を表す。
1つ又は複数の長方形ピクチャへの3D表面のマッピングは、結果として得られた映像を符号化する際に、必然的に、圧縮効率に影響を及ぼし得るいくつかの影響を導入する。
Figure 0007217226000001
実際に、投影は、以下の影響を導入し得る。
・ 強いジオメトリ歪み:
・ 直線はもはや真っ直ぐではない
・ 正規直交座標系はもはや正規直交ではない
・ 不均一な画素密度:符号化予定のピクチャの画素は、符号化予定の表面の同じ表面を常に表すとは限らない(例えば、球体のポールは、2D画像の画素の線によって表され得る)
・ 強い不連続性:ピクチャレイアウトは、表面上の2つの隣接する画素間において強い不連続性を導入し得る
・ ピクチャにおいて何らかの周期性が起こり得る(例えば、ある境界から反対側の境界にかけて)
表1は、様々なマッピング関数に対するそのような影響の例をリストする。これらの影響のいくつかは、図13の映像フレーム131、133及び図14のフレーム141、143に現れる。
図14は、パニング後の図13の全方向映像のマッピングの例を示す。3Dシーンの前方方向は回転されている(144)。3Dシーンは、図13のものと同じであり、前方方向が回転されているだけである。図14の例では、回転は、左側へのパニングに相当する。球体140の前方方向は、通路に面しており、「A」がプリントされているウィンドウは、左面にあり、「B」がプリントされている回転ドアは、後面にある。正距円筒マッピング関数による球体140のマッピングは、映像フレーム141を生成する。変形形態では、前処理モジュールは、マッピング空間変更を実行し、球体140を立方体142に変換し、その後、図13の立方体レイアウト134に従って立方体142をフレーム143にマッピングする。マッピング表面の3D回転144は、オイラー角表記(α,β,γ)を使用して示される。(α(t),β(t),γ(t))により、時刻(t)における3Dシーンにおける前方方向の配向を示す。角度は、参照フレームに従って設定される。前方方向は、絶対参照フレーム(例えば、水平計画の北の方向)に従って表現することができる。変形形態では、画像と関連付けられた前方方向(グローバルな回転における動きパラメータとさらに呼ばれる)は、参照画像の前方方向に対して参照フレームにおいて設定される。そのような変形形態では、画像と関連付けられた角度は、それ自体の前方方向と参照画像の前方方向との差(例えば、減算)に相当する。
これらの角度は、現実又は仮想のものであり得る取得システムの配向に相当する。取得システムは、各フレームと関連付けて、前方方向の配向を表す角度を符号化モジュール400に送信する。変形形態では、前方方向角度は、取得システムの回転が検出された際にのみ送信される。別の変形形態では、前方方向角度は、規則的な頻度で(例えば、10フレームごとに又は24フレームごとに)符号化モジュール400に送信される。別の実施形態では、取得システムは回転しない。前方方向は、取得システムと符号化モジュール400との中間の編集モジュール(図1では表示せず)によって管理される。編集モジュールは、選択された変形形態に従って、各フレームと関連付けて又は回転が検出される度に若しくは規則的な頻度で、人間オペレータ又はアルゴリズムによって修正された前方方向角度を符号化モジュール400に送信する。別の実施形態では、前処理モジュール300は、2つのマッピング済みの表面(例えば、球体130、140)又は選択されたマッピング関数に従って生成された2つのフレーム(例えば、フレーム131、141又は133、143)を比較することによって、前方方向角度を演算する。前方方向角度の変化は、フレームのグローバルな回転における動きに相当する。全方向映像の場合、シーン全体が捕捉されるため、グローバルな回転における動きは、画像のコンテンツ情報を修正しない。フレーム131、141(相互に、133、143)は、同じ3Dシーンを表し、異なる前方方向から符号化された同じ色情報(格子補間まで)を含む。しかし、ピクチャ131、141の画素は、大幅に異なる。グローバルな回転における動き(例えば、パニングのような)を含むフレームシーケンスの符号化(映像圧縮規格方法による)は、動きモデルの計算を含意し、演算上の要求が多く、符号化済みの3Dシーンは同じ状態のままであるが大量のデータが必要とされる。
HEVC、H.264/AVCなどの映像圧縮規格は、符号化予定の情報を低減するために、時間冗長性を利用する。それは、インター予測に基づき、インター予測は、前の瞬間又は他の瞬間に対応するピクチャの再構成されたブロックの動き補償(MC)を操作する。時刻tにおけるピクチャPの画素pは、時刻tにおけるピクチャPの画素pに相当する。
[eq1] p(x,y,t)=p(x,y,t
とPとの間の画素の変位は、方程式eq2のように分解することができる。
[eq2] p(x,y,t)-p(x,y,t)=dp(t,t)+gmc(p,t,t
式中、pは、画素であり(すなわち、同じ画素としてのp及びpの識別)、dpは、3Dシーンにおける物理的なポイントの適切な動きによる画素の見かけの動きであり、gmcは、グローバルな回転における動きによる画素の見かけの動きである。前方方向が回転すると、シーンが変わらない場合(すなわち、dp(t,t)=(0,0))であっても、ピクチャの画素は著しく変化する。このことは、前方方向はシーンの対象の物体の方に向けられる場合が多く、参照フレームを回転させることによって視点を適応させるため、実際には、頻繁に起こる。
本原理の非限定的な実施形態の例では、入力画像に対するグローバルな回転における動き補償を操作することにより、新しい画像が生成される。グローバルな回転における動きパラメータ(例えば、入力画像と関連付けられた前方方向角度)は、第1の画像のグローバルな回転における動きパラメータと比較される(例えば、減算される)。入力画像の画素は、新しい画像が、第1の画像の前方方向で捕捉されているかのように、入力画像のコンテンツと同じコンテンツを表すように再編成される。この原理によれば、入力画像及び参照画像は、容易に比較できるという利点を有する。第1の変形形態では、入力画像は、圧縮ループ(例えば、HEVC又はH.264/AVCなどの圧縮規格の圧縮ループ)の参照画像であり、第1の画像は、符号化予定の画像である。別の変形形態では、入力画像は、符号化予定の画像であり、第1の画像は、圧縮ループの参照画像である。この実施形態は、非限定的である。
図15は、符号化予定の画像I1に応答して入力画像I2を動き補償することによってシーケンス画像の画像I1を符号化する方法150を図示したものである。この方法は、図1の符号化モジュール400において実装される。ステップ151では、画像I1は、グローバルな回転における動き補償ステップ152の入力画像I2になるように準備される。ステップ151の実施形態は、図19及び21に関連してさらに説明する。ステップ152では、以前に得られたグローバルな回転における動きパラメータRP(すなわち、前方方向角度)に従ってグローバルな回転における動き補償が入力画像I2に適用される。ステップ152の実施形態は、図24及び26に関連してさらに説明する。ステップ152は、グローバルな回転における動き補償画像I3を生成する。ステップ153では、動き補償モジュールの入力として画像I3が使用され、動き補償モジュールは、予測画像に応答して、残差データ、ブロックに対する動きベクトル及び参照画像に対する情報データID1を生成する。本原理の特定の実施形態では、ステップ154は、符号化予定の画像を表すデータを運ぶビットストリームSを生成する。グローバルな回転における動きパラメータRPは、ロスレス形式でストリーム内で符号化される。
図16は、復号予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を復号する方法160を図示したものである。データ供給源Sは、図15の方法150の第1の実施形態(図24によって示される)に従って符号化済みのビットストリームを提供する。例えば、データ供給源は、ローカルメモリ(例えば、ビデオメモリ、ランダムアクセスメモリ、フラッシュメモリ、読み取り専用メモリ、ハードディスクなど)、記憶装置インタフェース(例えば、大容量記憶装置、光ディスク又は磁気サポートとのインタフェース)、及び、通信インタフェース(例えば、有線インタフェース(例えば、バスインタフェース、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース)又は無線インタフェース(IEEE802.11インタフェース若しくはBluetooth(登録商標)インタフェースなど))を含む供給源のセットに属する。ステップ161では、ストリームから画像I4が得られ、画像I4は、グローバルな回転における動き補償ステップ162の入力に相当する。グローバルな回転における動きパラメータは、ビットストリームから得られる。ステップ161の実施形態は、図20に関連してさらに説明する。ステップ162では、グローバルな回転における動きパラメータRPに従ってグローバルな回転における動き補償を入力画像I4に適用することによって、画像I5が生成される。ステップ162の実施形態は、図20に関連してさらに説明する。ステップ163では、動き補償モジュールの入力として画像I3が使用され、動き補償モジュールは、復号済みの画像I6を生成する。
図17は、復号予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を復号する方法170を図示したものである。データ供給源Sは、図15の方法150の第2の実施形態(図26によって説明される)に従って符号化済みのビットストリームを提供する。例えば、供給源は、ローカルメモリ(例えば、ビデオメモリ、ランダムアクセスメモリ、フラッシュメモリ、読み取り専用メモリ、ハードディスクなど)、記憶装置インタフェース(例えば、大容量記憶装置、光ディスク又は磁気サポートとのインタフェース)、及び、通信インタフェース(例えば、有線インタフェース(例えば、バスインタフェース、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース)又は無線インタフェース(IEEE802.11インタフェース若しくはBluetooth(登録商標)インタフェースなど))を含む供給源のセットに属する。ステップ171では、復号予定の画像に応答して、残差データ、動きベクトル及び画像参照に対する情報データID2がビットストリームから得られ、グローバルな回転における動きパラメータがビットストリームから得られる。ステップ172では、残差画像を、情報データID2に従って得られた動き予測画像と加えることによって、画像I7が復号される。ステップ172の実施形態は、図22に関連してさらに説明する。ステップ173では、グローバルな回転における動きパラメータに従って復号済みの画像I7にグローバルな回転における動き補償を適用することによって画像I8が生成される。ステップ173の実施形態は、図22に関連してさらに説明する。
図24は、図15の方法150の第1の実施形態を示す。この方法では、HEVC、H.264/AVCなどの映像圧縮規格に従って圧縮ループが開始される。シーケンスの画像のいくつかは、参照画像として使用され、メモリに格納される。方法150のステップ151は、この実施形態では、3つのサブステップ241、242、243を含む。ステップ241では、符号化予定の画像を参照画像と比較する(例えば、減算する)ことによって残差画像が計算される。周知のプロセスによれば、ステップ242では、動き予測画像を得るために動き推定プロセスが使用される。プロセスは、符号化予定の画像の画素と参照画像の画素との間で演算されたエラーを最小化するため又はレート歪みコストのような別の計量を最小化するために、参照画像において、動きベクトルなどの動きデータを検索する。ステップ243では、残差画像と動き予測画像とを加えることによって、再構成された画像が生成される。ステップ243の出力は、ステップ151の出力に相当する。ステップ152では、符号化予定の画像のGRMパラメータに従って、参照画像に対してグローバルな回転における動き補償が行われる。変形形態では、画像に対して、符号化予定の画像のRMパラメータと参照画像のGRMパラメータとの角度差の補償が行われる。ステップ153は、グローバルな回転における動き補償参照画像に従って、符号化予定の画像を動き補償することを含む。参照画像はグローバルな回転における動き補償が行われているため、ステップ153が促進され、計算済みの動きモデルは、少量のビットの符号化しか必要としない。ステップ154では、準備された符号化予定の画像がエントロピー符号化される。シーケンスのエントロピー符号化済みの画像は、ビットストリーム180の構文の第1の要素を形成し、ビットストリーム180の構文の第1の要素は、ビットストリーム180のペイロード部分182に格納される。グローバルな回転における動きパラメータは、ビットストリームの構文の第2の要素に含まれ、構文の上記第2の要素は、ビットストリーム180のヘッダ部分181に含まれる。ヘッダ部分181は、ロスレス形式で符号化される。
図25は、図16の方法160の実施形態を示す。この方法では、HEVC、H.264/AVCなどの映像圧縮規格に従って解凍ループが開始される。方法160のステップ161は、この実施形態では、2つのサブステップ251、252を含む。ステップ251では、残差画像がエントロピー復号され、動きモデルがビットストリームから得られる。動き予測画像は、動きモデルに従って計算される。ビットストリームから抽出された画像のいくつかは、参照画像として使用され、メモリに格納される。復号予定の画像に応答して、例えば、残差画像と動き補償画像とを加えることによって、画像が再構成される。ステップ252では、復号予定の画像と関連付けられたGRMパラメータがビットストリームから得られる。また、メモリに格納された参照画像も、以前に復号された画像として、それらのGRMパラメータと関連付けられる。ステップ162では、復号予定の画像のGRMパラメータに従って、復号予定の画像と関連付けられた参照画像に対してグローバルな回転における動き補償が行われる。変形形態では、画像に対して、符号化予定の画像のRMパラメータと参照画像のGRMパラメータとの角度差の補償が行われる。ステップ163は、グローバルな回転における動き補償参照画像に従って、復号予定の画像を動き補償することを含む。参照画像はグローバルな回転における動き補償が行われているため、ステップ163が促進される。
図26は、図15の方法150の第2の実施形態を示す。方法150のこの実施形態では、ステップ151は、符号化予定のフレーム及び画像と関連付けられたGRMパラメータを得ることである。圧縮ループが開始されており、画像シーケンスのいくつかの画像が選択されており、参照画像を有し、メモリに格納される。また、参照画像も、GRMパラメータと関連付けられる。ステップ152では、符号化予定の画像は、入力画像として使用され、関連付けられたGRMパラメータに従ってグローバルな回転における動き補償が行われる。画像は、例えば、ある角度だけ回転され、その角度は、GRMパラメータに含まれており、絶対参照方向(例えば、水平平面の北の方向)に従って定義される。変形形態では、符号化予定の画像は、メモリに格納された参照画像と関連付けられ、符号化予定の画像のGRMパラメータと参照画像のGRMパラメータとの差に従って計算された角度だけ回転される。ステップ153では、ステップ152で出力された画像は、HEVC、H.264/AVCなどの映像圧縮規格に従って構成された圧縮ループに入る。動き補償ステップが実行される。周知のプロセスによれば、動き推定は、符号化予定の画像I1の画素と参照画像I3の画素との間で演算されたエラーを最小化するため又はレート歪みコストのような別の計量を最小化するために、参照画像I3において、動きベクトルなどの動きデータを検索する。符号化予定の画像I1はステップ152においてグローバルな回転における動き補償が行われているため、動きデータの検索が促進され、符号化に必要とされるデータのボリュームは小さい。ステップ154では、準備された符号化予定の画像がエントロピー符号化される。シーケンスのエントロピー符号化済みの画像は、ビットストリーム180の構文の第1の要素を形成し、ビットストリーム180の構文の第1の要素は、ビットストリーム180のペイロード部分182に格納される。グローバルな回転における動きパラメータは、ビットストリームの構文の第2の要素に含まれ、構文の上記第2の要素は、ビットストリーム180のヘッダ部分181に含まれる。ヘッダ部分181は、ロスレス形式で符号化される。
図27は、図17の方法170の実施形態を示す。データ供給源Sは、図15の方法150の第2の実施形態(図26によって説明される)によって符号化済みのビットストリームを提供する。この方法では、HEVC、H.264/AVCなどの映像圧縮規格に従って解凍ループが開始されている。少なくとも1つの参照画像の解凍及び復号は既に実行されている。少なくとも1つの参照画像は、メモリに格納され、データ供給源Sから抽出されたGRMパラメータと関連付けられる。ステップ171では、復号予定の画像に応答して、残差データ、動きベクトル及びグローバルな回転における動きパラメータに対する情報データがビットストリームから得られる。ステップ172では、残差画像を、情報データに従って得られた動き予測画像と加えることによって、画像が復号される。復号予定の画像は、メモリに格納された参照画像に関連する動き補償プロセスを含む周知の解凍プロセスに従って再構成される。ステップ173では、再構成された画像は、復号予定の画像と関連付けられたグローバルな回転における動きパラメータに従ってグローバルな回転における動き補償が行われる。再構成された画像は、復号予定の画像と関連付けられたGRMパラメータによって符号化された絶対角度値(例えば、局所的な水平平面の北の方向を使用した参照フレームにおける)に相当する三次元角度だけ回転される。変形形態では、再構成された画像は、そのGRMパラメータにおいて符号化された角度と復号予定の画像の再構成に使用された参照画像と関連付けられたGRMパラメータにおいて符号化された角度との差に相当する三次元角度だけ回転される。
図18は、図15の方法150に従って符号化された画像シーケンスを表すデータを運ぶビットストリーム180のデータ構造の特定の実施形態を示す。シーケンスのエントロピー符号化済みの画像は、ビットストリーム180の構文の第1の要素を形成し、ビットストリーム180の構文の第1の要素は、ビットストリーム180のペイロード部分182に格納される。グローバルな回転における動きパラメータは、ビットストリームの構文の第2の要素に含まれ、構文の上記第2の要素は、ビットストリーム180のヘッダ部分181に含まれる。ヘッダ部分181は、ロスレス形式で符号化される。
図19は、符号化予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を符号化するデバイスの第1の実施形態のブロック図を示す。図19のデバイスのモジュールは、図24の方法のステップを実装する。
時間予測に基づくコード化(すなわち、インターコード化)に関連するデバイスの機能モジュールのみが図19に示されている。先行技術分野でよく知られている他のモジュール(図示せず)は、例えば、空間予測の有無にかかわらず、イントラコード化を実装する。
符号化予定の画像I1は、モジュール191によって入力として取り入れられ、モジュール191は、残差画像Irを生成するために、例えば、画素に基づいて、現在の画像I1から予測画像Ipを抽出する。モジュール192は、残差画像Irを変換して定量化する。変換Tは、例えば、離散余弦変換(DCT)、ブロックベースの変換又はウェーブレットベースの変換である。モジュール193は、逆動作(すなわち、逆量子化IQに続いて逆変換IT)を実装する。モジュール194は、再構成された(エイリアス復号された)画像を生成するために、例えば、画素に基づいて、モジュール193から出力された画像と予測画像Ipとをマージし、再構成された画像は、復号済みピクチャバッファ(DPB)であるメモリ(モジュール195)に格納される。モジュール193は、画像I2を生成し、メモリ(モジュール195)に格納し、画像I2は、時間予測モジュールの参照入力画像として使用することができる。
モジュール196は、メモリ195に格納された参照入力画像I2及びグローバルな回転における動きパラメータ(前方方向の角度)を入力として取り入れる。現在の画像の各画素の見かけの動きは、さらなるモジュール197によって、グローバルな回転における動きが最初に適用された参照入力I2に従って計算される。符号化予定の現在の画像I1は、グローバルな回転における動きパラメータ(GRMパラメータ)(α(t),β(t),γ(t))及びm(x,y)(このピクチャでは、画素)と関連付けられる。復号済みピクチャバッファ(モジュール195)GRMパラメータ(α(t’),β(t’),γ(t’))及びn(x’,y’)からの再構成された画像I2は、このピクチャでは、画素である。グローバルな動き補償参照ピクチャは、I2の対応する画素を得るためにI1の各画素に動き補償を適用することによって再構成される((x,y)→(x’,y’)として)。座標(x’,y’)は、グローバルな回転における動き補償を適用することによって計算される。ポイントMt’が計算される。Mt’は、瞬間tにおいて画像I1の参照フレームにおいて表現される画素m(x,y)を瞬間t’における画像I1の参照フレームに投影したものに相当する。方程式[eq.3]は、軸システム変更変換を操作する。
Figure 0007217226000002

式中、関数f及びProjは、画像I1及びI2のマッピングに従って定義された関数であり、Rは、GRMパラメータ(α(t),β(t),γ(t))に従って計算された回転行列であり、Rt’は、GRMパラメータ(α(t’),β(t’),γ(t’))に従って計算された回転行列である。画素n(x’,y’)は、方程式[eq.4]に従ってポイントMt’を参照入力画像I2に投影することによって計算される。
[eq.4] n(x’,y’)=f-1(Proj(Mt’))
Figure 0007217226000003
方程式[eq.5]は、瞬時のグローバルな回転における動き補償を表現する。図19の実施形態の変形形態では、画像I1及びI2は、図13の画像131及び図14の画像141によって示されるような正距円筒マッピングに従って符号化される。正距円筒マッピングは、関数f及びProjを以下のように定義する。
Figure 0007217226000004
図19に示されるデバイスの実施形態の変形形態では、画像I1及びI2は、図13の画像133及び図14の画像143によって示されるような図13のレイアウト134を用いた立方体マッピングに従って符号化される。この事例では、関数f及びProjは、以下のように定義される。
Figure 0007217226000005

式中、wは、画像幅の3分の1であり、hは、画像の高さの半分である。逆関数f-1は、上記の方程式から明快である。
Figure 0007217226000006
逆関数Projは、上記の方程式から明快である。
図19に示されるモジュール197では、モジュール152から出力された画像I3対して動き補償及び予測が実行される。モジューク196は、符号化予定の画像I1とグローバルな回転における動き補償参照画像I3との間の少なくとも1つの動きベクトルを推定する。周知のプロセスによれば、動き推定は、符号化予定の画像I1の画素と参照画像I3の画素との間で演算されたエラーを最小化するため又はレート歪みコストのような別の計量を最小化するために、参照画像I3において、動きベクトルなどの動きデータを検索する。参照画像I3はモジュール196によってグローバルな回転における動き補償が行われているため、動きデータの検索が促進される。符号化予定の画像I1は、予測画像Ipとして符号化される。
モジュール198は、数量データをエントロピー符号化してコード化済みのデータのビットストリームSに埋め込む。このモジュールは、図18に関連して説明されるようなストリームを生成する。ビットストリームの構文の第1の要素では、構文の要素は、ビットストリーム180のペイロード部分182を形成し、モジュールは、通常のCABAC(コンテキスト適応型バイナリ算術コード化)を使用し、画像シーケンスを表すエントロピー符号化済みのデータを格納する。ビットストリーム180のヘッダ部分181を形成する構文の第2の要素では、モジュールは、数ある他のデータの中でも特に、画像の識別子と関連付けられたグローバルな回転における動きパラメータをロスレス形式で符号化する。
図20は、図24に示される方法150の第1の実施形態に従って符号化されたビットストリームSを復号するように構成されたデバイスの実施形態を示す。ビットストリームSは、画像シーケンスを表し、図18及び19に関連して説明されるような構文の2つの要素を含む。図20のデバイスのモジュールは、図25の方法のステップを実装する。
モジュール201は、復号予定のコード化済みの画像シーケンスに対する残差データ及び復号済みの画像の再構成に必要な構文要素(例えば、コード化モード、画像の符号化に使用されたマッピング、動きデータ又は重要なマップなど)をエントロピー復号するCABACを実装する。また、モジュールは、各画像と関連付けて、グローバルな回転における動きパラメータを抽出することも行う。
変形形態によれば、図20には示されていないが、動きデータを復号することは、動きを推定することを含む。復号予定の画像に対する復号済みの映像データは、モジュール202に送信され、モジュール202は、逆量子化に続いて逆変換を適用する。モジュール202は、図19のモジュール193と同様である。モジュール202は、モジュール203にリンクされ、モジュール203は、復号予定の画像を表す復号済みの画像I6を生成するために、例えば、画素ごとに、モジュール202から出力された残差画像と予測画像Ipとをマージする。また、再構成された画像I6は、メモリ204にも格納される。
モジュール205は、メモリ204に格納された参照入力画像I4、この画像I4と関連付けられたグローバルな回転における動きパラメータ及び復号予定の現在の画像と関連付けられたGRMパラメータを入力として取り入れる。現在の画像の各画素の見かけの動きは、さらなるモジュール206によって、グローバルな回転における動きが最初に適用された参照入力I4に従って計算される。グローバルな動き補償参照ピクチャは、I5の対応する画素を得るためにI4の各画素に動き補償を適用することによって再構成される((x,y)→(x’,y’)として)。座標(x’,y’)は、図19のモジュール196に関連して説明されるように、グローバルな回転における動き補償を適用することによって計算される。関数f、f-1、Proj及びProj-1は、画像の符号化に使用されたマッピングに従って選択される。
動き補償及び予測は、モジュール206によって、モジュール205から出力された画像I5に対して実行される。モジュール206は、復号予定の画像とグローバルな回転における動き補償参照画像I5との間の少なくとも1つの動きベクトルを推定する。周知のプロセスによれば、動き推定は、復号予定の画像の画素と参照画像I5の画素との間で演算されたエラー又はレート歪みコストのような別の計量を最小化するために、参照画像I5において、動きベクトルなどの動きデータを検索する。参照画像I5はモジュール205によってグローバルな回転における動き補償が行われているため、動きデータの検索が促進される。復号予定の画像は、予測画像Ipとして符号化される。
図21は、符号化予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を符号化するように構成されたデバイスの第2の実施形態のブロック図を示す。図21のデバイスのモジュールは、図26の方法のステップを実装する。
モジュール211は、画像I1を得るように構成される。モジュール211は、グローバルな回転における動き参照パラメータ(例えば、シーケンスの第1の画像のGRMパラメータ又はイントラ予測でのみコード化された最後の画像のGRMパラメータ及び符号化予定の画像I1と関連付けられたGRMパラメータ)に従って、図19に関連して説明されるように、関数f、f-1、Proj及びProj-1を適用することによってグローバルな回転における動き補償を実行する。画像I1は、参照画像の前方方向に従ってマッピングされる。参照画像とモジュール211から出力されたGRM補償画像I3との画素差は、シーンにおける物体の見かけの動きによるものであり、もはや前方方向の回転によるものではない。GRM補償画像I3は、モジュール212の構造によって、先行技術の周知の方法に従って動き補償が行われ、モジュール213によって、エントロピー符号化される。モジュール213は、数量データをエントロピー符号化してコード化済みのデータのビットストリームSに埋め込む。このモジュールは、図18に関連して説明されるようなストリームを生成する。ビットストリームの構文の第1の要素では、構文の要素は、ビットストリーム180のペイロード部分182を形成し、モジュールは、通常のCABAC(コンテキスト適応型バイナリ算術コード化)を使用し、画像シーケンスを表すエントロピー符号化済みのデータを格納する。ビットストリーム180のヘッダ部分181を形成する構文の第2の要素では、モジュールは、数ある他のデータの中でも特に、画像の識別子と関連付けられたグローバルな回転における動きパラメータをロスレス形式で符号化する。
図22は、図26に示される方法150の第2の実施形態に従って符号化されたビットストリームSを復号するように構成されたデバイスの実施形態を示す。ビットストリームSは、画像シーケンスを表し、図18及び21に関連して説明されるような構文の2つの要素を含む。図22のデバイスのモジュールは、図27の方法のステップを実装する。
モジュール221は、復号予定のコード化済みの画像シーケンスに対する残差データ及び復号済みの画像の再構成に必要な構文要素(例えば、コード化モード、画像の符号化に使用されたマッピング、動きデータ又は重要なマップなど)をエントロピー復号するCABACを使用する。また、モジュールは、各画像と関連付けられたグローバルな回転における動きパラメータを抽出することも行う。変形形態によれば、図20には示されていないが、動きデータを復号することは、動きを推定することを含む。復号予定の画像に対する復号済みの映像データは、モジュール222に送信され、モジュール222は、逆量子化に続いて逆変換を適用する。モジュール222は、図19のモジュール193と同様である。モジュール222は、モジュール223にリンクされ、モジュール223は、復号予定の画像を表す復号済みの画像I7を生成するために、例えば、画素ごとに、ステップ222から出力された残差画像と予測画像Ipとをマージする。また、再構成された画像I7は、メモリ224にも格納される。動き補償及び予測は、モジュール225によって、メモリ224から出力された画像に対して実行される。モジュール226は、復号予定の画像とグローバルな回転における動き補償参照画像との間の少なくとも1つの動きベクトルを推定する。周知のプロセスによれば、動き推定は、復号予定の画像の画素と参照画像の画素との間で演算されたエラー又はレート歪みコストのような他の任意の計量を最小化するために、参照画像において、動きベクトルなどの動きデータを検索する。参照画像はモジュール225によってグローバルな回転における動き補償が行われているため、動きデータの検索が促進される。復号予定の画像は、予測画像Ipとして符号化される。
図23は、図15、16、17、19、20、21又は22に関連して説明されるような方法を実装するように構成された装置230のハードウェア実施形態を示す。この例では、デバイス230は、クロック信号も輸送するアドレス及びデータのバス231によって互いに接続される以下の要素、すなわち、
- 例えばDSP(又はデジタル信号プロセッサ)である、マイクロプロセッサ232(又はCPU)、
- ROM(読み取り専用メモリ)タイプの不揮発性メモリ233、
- ランダムアクセスメモリ又はRAM(234)、
- アプリケーションから送信用のデータを受信するI/Oインタフェース235、
- ランダムアクセスメモリのレジスタを埋め込むことができるグラフィクスカード236、
- 電源237
を含む。
例によれば、電源237は、デバイスの外部のものである。言及されるメモリの各々では、本明細書で使用される「レジスタ」という用語は、小容量のエリア(数ビット)又は非常に大きなエリア(例えば、全プログラム又は大量の受信若しくは復号済みのデータ)に相当し得る。ROM 233は、プログラム及びパラメータを少なくとも含む。ROM 233は、本原理による技法を実行するアルゴリズム及び命令を格納することができる。電源を入れると、CPU 232は、RAMにプログラムをアップロードし、対応する命令を実行する。
RAM 234は、プログラム(CPU 232によって実行され、デバイス230の電源を入れた後にアップロードされる)をレジスタに含み、入力データをレジスタに含み、方法の異なる状態の中間データをレジスタに含み、方法の実行のために使用される他の変数をレジスタに含む。
本明細書で説明される実装形態は、例えば、方法150、160、170のうちの1つのモジュール若しくはプロセス、装置、ソフトウェアプログラム、データストリーム、又は、信号で実装することができる。実装の単一の形態の文脈においてのみ論じられる(例えば、方法又はデバイスとしてのみ論じられる)場合であっても、論じられる特徴の実装形態は、他の形態(例えば、プログラム)でも実装することができる。装置は、例えば、図2~12で説明されるシステムのコンポーネントのうちの1つであり得る適切なハードウェア、ソフトウェア及びファームウェアで実装することができる。方法及びそれらのモジュールは、例えば、コンピュータ、マイクロプロセッサ、集積回路又はプログラマブル論理デバイスを含む、例えば、一般に処理デバイスを指す装置(例えば、プロセッサなど)で実装することができる。また、プロセッサは、例えば、図2~12で説明されるシステムのコンポーネントなど、例えば、コンピュータ、携帯電話、ポータブル/携帯情報端末(「PDA」)、セットトップボックス、及び、エンドユーザ間の情報の通信を容易にする他のデバイスなどの通信デバイスも含む。
図15、19、21に示されるように符号化予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を符号化する例によれば、画像シーケンスを表すビットストリームは、供給源から得られる。例えば、供給源は、
- ローカルメモリ(233、234又は236)(例えば、ビデオメモリ又はRAM(若しくはランダムアクセスメモリ)、フラッシュメモリ、ROM(若しくは読み取り専用メモリ)、ハードディスク)、
- 記憶装置インタフェース(235)(例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインタフェース)、
- 通信インタフェース(235)(例えば、有線インタフェース(例えば、バスインタフェース、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース)又は無線インタフェース(IEEE802.11インタフェース若しくはBluetooth(登録商標)インタフェースなど))
を含むセットに属する。
特定の一実施形態によれば、符号化予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を符号化する方法150のステップを実装するアルゴリズムは、これらのステップを実装するデバイス230と関連付けられたグラフィクスカード236のメモリGRAMに格納される。変形形態によれば、RAM(234)の一部は、CPU(232)によって、アルゴリズムの格納用に割り当てられる。これらのステップは、ローカルメモリ(例えば、ビデオメモリ(234)、RAM(234)、ROM(233)、フラッシュメモリ(233)又はハードディスク(233))、記憶装置インタフェース(235)(例えば、大容量記憶装置、RAM、ROM、フラッシュメモリ、光ディスク又は磁気サポートとのインタフェース)を含むセットに属する送り先に送信される、及び/又は、通信インタフェース(235)(例えば、ポイントツーポイントリンク、バス、ポイントツーマルチポイントリンク又は放送ネットワークとのインタフェース)から受信される映像ストリームの生成をもたらす。
復号予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を復号する例によれば、画像シーケンスを表すビットストリームは、供給源から得られる。例示的には、ビットストリームは、ローカルメモリ(例えば、ビデオメモリ(234)、RAM(234)、ROM(233)、フラッシュメモリ(233)又はハードディスク(233))から読み取られる。変形形態では、ストリームは、記憶装置インタフェース(235)(例えば、大容量記憶装置、RAM、ROM、フラッシュメモリ、光ディスク又は磁気サポートとのインタフェース)から受信される、及び/又は、通信インタフェース(235)(例えば、ポイントツーポイントリンク、バス、ポイントツーマルチポイントリンク又は放送ネットワークとのインタフェース)から受信される。
特定の一実施形態によれば、復号予定の画像に応答して入力画像を動き補償することによって画像シーケンスの画像を復号する方法のステップを実装するアルゴリズムは、これらのステップを実装するデバイス230と関連付けられたグラフィクスカード236のメモリGRAMに格納される。変形形態によれば、RAM(234)の一部は、CPU(232)によって、アルゴリズムの格納用に割り当てられる。これらのステップは、例えば、
- モバイルデバイス、
- 通信デバイス、
- ゲームデバイス、
- セットトップボックス
- テレビ
- タブレット(又はタブレットコンピュータ)、
- ラップトップ、
- ディスプレイ、及び、
- 復号チップ、
など、図2~12で説明されるシステムのコンポーネントを含むセットに属する送り先に送信される映像の構成をもたらす。
当然ながら、本開示は、以前に説明される実施形態に限定されない。
具体的には、本開示は、画像シーケンスを符号化及び復号する方法に限定されず、復号済みの映像を表示する任意の方法や、例えば、図2~12の表示デバイスのような、この表示の方法を実装する任意のデバイスまで拡張される。ビットストリームの符号化及び復号に必要な計算の実装形態は、シェーダタイプのマイクロプログラムの実装形態に限定されず、例えば、CPUタイプのマイクロプロセッサによって実行することができるプログラムなど、任意のプログラムタイプの実装形態まで拡張される。本開示の方法の使用は、撮影中の利用に限定されず、例えば、録音スタジオにおけるポストプロダクション処理として知られている処理など、他の任意の利用まで拡張される。
本明細書で説明される実装形態は、例えば、方法若しくはプロセス、装置、ソフトウェアプログラム、データストリーム、又は、信号で実装することができる。実装の単一の形態の文脈においてのみ論じられる(例えば、方法又はデバイスとしてのみ論じられる)場合であっても、論じられる特徴の実装形態は、他の形態(例えば、プログラム)でも実装することができる。装置は、例えば、適切なハードウェア、ソフトウェア及びファームウェアで実装することができる。方法は、例えば、コンピュータ、マイクロプロセッサ、集積回路又はプログラマブル論理デバイスを含む、例えば、一般に処理デバイスを指す装置(例えば、プロセッサなど)で実装することができる。また、プロセッサは、例えば、スマートフォン、タブレット、コンピュータ、携帯電話、ポータブル/携帯情報端末(「PDA」)、及び、エンドユーザ間の情報の通信を容易にする他のデバイスなどの通信デバイスも含む。
本明細書で説明される様々なプロセス及び特徴の実装形態は、様々な異なる機器又はアプリケーション(特に、例えば、データ符号化、データ復号、ビュー生成、テクスチャ処理、並びに、画像、関連テクスチャ情報及び/又は深度情報の他の処理と関連付けられた機器又はアプリケーション)で具体化することができる。そのような機器の例は、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダに入力を提供するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA及び他の通信デバイスを含む。明確であるべきだが、機器は、モバイルであり得、移動車両にインストールすることさえも可能である。
それに加えて、方法は、プロセッサによって実行されている命令によって実装することができ、そのような命令(及び/又は実装形態によって生成されたデータ値)は、例えば、集積回路、ソフトウェアキャリア又は他の記憶装置(例えば、ハードディスク、コンパクトディスク(「CD」)、光ディスク(例えば、デジタル多用途ディスク若しくはデジタルビデオディスクと呼ばれる場合が多いDVDなど)、ランダムアクセスメモリ(「RAM」)又は読み取り専用メモリ(「ROM」))などのプロセッサ可読媒体上に格納することができる。命令は、プロセッサ可読媒体上で有形に具体化されたアプリケーションプログラムを形成することができる。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア又は組合せにおけるものであり得る。命令は、例えば、オペレーティングシステム、別個のアプリケーション又はその2つの組合せで見つけることができる。従って、プロセッサは、例えば、プロセスを実行するように構成されたデバイスと、プロセスを実行する命令を有するプロセッサ可読媒体(記憶装置など)を含むデバイスの両方として特徴付けることができる。さらに、プロセッサ可読媒体は、命令に加えて又は命令の代わりに、実装形態によって生成されたデータ値を格納することができる。
当業者には明らかであるように、実装形態は、例えば、格納又は送信することができる情報を伝えるようにフォーマットされた様々な信号を生成することができる。情報は、例えば、方法を実行する命令、又は、説明される実装形態のうちの1つによって生成されたデータを含み得る。例えば、信号は、説明される実施形態の構文を書き込む又は読み取る規則をデータとして伝えるように、或いは、説明される実施形態によって書き込まれた実際の構文・値をデータとして伝えるように、フォーマットすることができる。そのような信号は、例えば、電磁波として(例えば、スペクトルの高周波部分を使用して)又はベースバンド信号としてフォーマットすることができる。フォーマットすることは、例えば、データストリームを符号化すること、及び、符号化済みのデータストリームで搬送波を変調することを含み得る。信号が伝える情報は、例えば、アナログ又はデジタル情報であり得る。信号は、知られているように、様々な異なる有線又は無線リンク上で送信することができる。信号は、プロセッサ可読媒体上に格納することができる。
多くの実装形態について説明してきた。それにもかかわらず、様々な変更を行えることが理解されよう。例えば、他の実装形態を生成するために、異なる実装形態の要素を組み合わせることも、補足することも、変更することも、除去することもできる。それに加えて、当業者は、開示されるものの代わりに、他の構造及びプロセスを代用することができ、結果として得られる実装形態は、開示される実装形態と少なくとも実質的に同じ結果を達成するために、少なくとも実質的に同じ方法で、少なくとも実質的に同じ機能を実行することを理解するであろう。それに従って、これらの及び他の実装形態は、この出願によって企図される。
(付記1)
画像シーケンスの第1の画像(I1)を符号化してストリームに埋め込む方法であって、
回転パラメータに従ってグローバルな回転における動き補償を第3の画像(I2)に適用することによって第2の画像(I3)を得ることであって、前記第3の画像(I2)が、前記第1の画像から得られる、得ることと、
動き補償モジュールの入力画像として前記第2の画像(I3)を使用することによって、前記第1の画像(I1)及び前記第1の画像と関連付けられた回転パラメータを符号化して前記ストリームに埋め込むことと
を含む、方法。
(付記2)
前記第3の画像が前記第1の画像である、付記1に記載の方法。
(付記3)
前記第3の画像が、
前記第1の画像に応答して残差画像を得ることと、
前記第1の画像に応答して動き予測画像を得ることと
を行うことによって前記第1の画像から得られ、前記第3の画像が、前記残差画像を前記動き予測画像に加えることによって得られる再構成された画像である、付記1に記載の方法。
(付記4)
ストリームから画像シーケンスの第1の画像を復号する方法であって、
前記ストリームから第2の画像及び前記第2の画像と関連付けられた回転パラメータを得ることと、
前記回転パラメータに従ってグローバルな回転における動き補償を第3の画像(I4、I7)に適用することによって前記第1の画像を復号することと
を含み、前記第3の画像が、動き補償モジュールの出力画像であり、前記出力画像が、前記第2の画像から得られる、方法。
(付記5)
前記第3の画像が、前記復号済みの第1の画像である、付記4に記載の方法。
(付記6)
前記第3の画像が、
前記第2の画像に応答して残差画像を得ることと、
前記第2の画像に応答して動き予測画像を得ることと
を行うことによって得られ、前記第3の画像が、前記残差画像を前記動き予測画像に加えることによって得られる再構成された画像である、付記4に記載の方法。
(付記7)
画像シーケンスを表すデータを運ぶビットストリームであって、前記データが、
前記画像シーケンスを表す構文の第1の要素と、
前記画像シーケンスの少なくとも1つの画像の識別子と関連付けられたパラメトリックなグローバルな回転における動きのパラメータを表す構文の第2の要素と
を含むことを特徴とする、ビットストリーム。
(付記8)
画像シーケンスの第1の画像(I1)を符号化してストリームに埋め込むデバイスであって、少なくとも1つのプロセッサと関連付けられたメモリを含み、前記少なくとも1つのプロセッサが、
回転パラメータに従ってグローバルな回転における動き補償を第3の画像(I2)に適用することによって第2の画像(I3)を得ることであって、前記第3の画像(I2)が、前記第1の画像から得られる、得ることと、
動き補償モジュールの入力画像として前記第2の画像(I3)を使用することによって、前記第1の画像(I1)及び前記第1の画像と関連付けられた回転パラメータを符号化して前記ストリームに埋め込むことと
を行うように構成される、デバイス。
(付記9)
前記第3の画像が前記第1の画像である、付記8に記載のデバイス。
(付記10)
前記第3の画像が、
前記第1の画像に応答して残差画像を得ることと、
前記第1の画像に応答して動き予測画像を得ることと
を行うことによって前記第1の画像から得られ、前記第3の画像が、前記残差画像を前記動き予測画像に加えることによって得られる再構成された画像である、付記8に記載のデバイス。
(付記11)
ストリームから画像シーケンスの第1の画像を復号するデバイスであって、少なくとも1つのプロセッサと関連付けられたメモリを含み、前記少なくとも1つのプロセッサが、
前記ストリームから第2の画像及び前記第2の画像と関連付けられた回転パラメータを得ることと、
前記回転パラメータに従ってグローバルな回転における動き補償を第3の画像(I4、I7)に適用することによって前記第1の画像を復号することと
を行うように構成され、前記第3の画像が、動き補償モジュールの出力画像であり、前記出力画像が、前記第2の画像から得られる、デバイス。
(付記12)
前記第3が、前記復号済みの第1の画像である、付記11に記載のデバイス。
(付記13)
前記第3の画像が、
前記第2の画像に応答して残差画像を得ることと、
前記第2の画像に応答して動き予測画像を得ることと
を行うことによって得られ、前記第3の画像が、前記残差画像を前記動き予測画像に加えることによって得られる再構成された画像である、付記12に記載のデバイス。
(付記14)
付記2、3、5又は6のいずれか一つに記載の方法の少なくともステップをプロセッサに実行させる命令がその中に格納された非一時的なプロセッサ可読媒体。
(付記15)
符号化してビットストリームに埋め込まれた広視野映像の没入型レンダリングのシステムであって、
データネットワークから前記ビットストリームを受信するネットワークインタフェース(600)と、
付記12又は13に記載の前記ビットストリームを復号するデバイス(700)と、
没入型レンダリングデバイス(900)と
を少なくとも含む、システム。

Claims (7)

  1. 参照方向に従って画像を符号化してストリームに埋め込む方法であって、
    3Dから2Dへのマッピングオペレータ及び前方方向に従って3Dシーンを第1の画像にマッピングすることと、
    前記3Dから2Dへのマッピングオペレータ及び前記前方方向と前記参照方向との間の角度に従って、回転パラメータを決定することと、
    第2の画像を得るために前記回転パラメータに従ってグローバルな回転における動き補償を参照の第3の画像に適用することであって、前記参照の第3の画像は、
    前記第1の画像であり、又は
    記第1の画像を参照画像と比較することにより算出される残差画像と、前記第1の画像に動き推定プロセスを適用することにより得られる動き予測画像を加えることによって得られる、再構成された画像である、適用することと、
    残差データ及び動きベクトルを用いる動き補償モジュール内に前記第2の画像を入力することによって符号化されるための前記画像を生成することと、
    前記画像及び前記回転パラメータを符号化して前記ストリームに埋め込むことと
    を含む、方法。
  2. 参照方向に従って第3の画像をレンダリングする方法であって
    トリームから画像及び回転パラメータを得ることであって、前記画像は3Dから2Dへのマッピングオペレータ及び前方方向に従ってマッピングされた3Dシーンを表し、且つ、前記回転パラメータは前記3Dから2Dへのマッピングオペレータ及び前記前方方向と前記参照方向との間の角度に従って決定される、得ることと、
    残差画像及び動きベクトルを用いる動き補償モジュール内に前記画像を入力することによって第2の画像を得ることであって、前記残差画像は、前記画像と参照画像とを比較することにより算出される、得ることと、
    前記第3の画像を得るために前記回転パラメータに従ってグローバルな回転における動き補償を前記第2の画像に適用することであって、前記第3の画像が、
    記画像であり、又は
    記第2の画像を参照画像と比較することにより算出される残差画像と、前記第2の画像に動き推定プロセスを適用することにより得られる動き予測画像とを加えることによって得られる、再構成された画像である、適用することと、
    前記第3の画像をレンダリングすることと、を含む、方法。
  3. 参照方向に従って画像を符号化してストリームに埋め込むデバイスであって、少なくとも1つのプロセッサと関連付けられたメモリを含み、前記少なくとも1つのプロセッサが、
    3Dから2Dへのマッピングオペレータ及び前方方向に従って3Dシーンを第1の画像にマッピングすることと、
    前記3Dから2Dへのマッピングオペレータ及び前記前方方向と前記参照方向との間の角度に従って、回転パラメータを決定することと、
    第2の画像を得るために前記回転パラメータに従ってグローバルな回転における動き補償を参照の第3の画像に適用することであって、前記参照の第3の画像は、
    前記第1の画像あり、又は
    記第1の画像を参照画像と比較することにより算出される残差画像と、前記第1の画像に動き推定プロセスを適用することにより得られる動き予測画像とを加えることによって得られる、再構成された画像である、適用することと、
    残差データ及び動きベクトルを用いる動き補償モジュール内に前記第2の画像を入力することによって符号化されるための前記画像を生成することと、
    前記画像及び前記回転パラメータを符号化して前記ストリームに埋め込むことと
    を行うように構成される、デバイス。
  4. 参照方向に従って第3の画像をレンダリングするデバイスであって、少なくとも1つのプロセッサと関連付けられたメモリを含み、前記少なくとも1つのプロセッサが
    トリームから画像及び回転パラメータを得ることであって、前記画像は3Dから2Dへのマッピングオペレータ及び前方方向に従ってマッピングされた3Dシーンを表し、且つ、前記回転パラメータは前記3Dから2Dへのマッピングオペレータ及び前記前方方向と前記参照方向との間の角度に従って決定される、得ることと、
    残差画像及び動きベクトルを用いる動き補償モジュール内に前記画像を入力することによって第2の画像を得ることであって、前記残差画像は、前記画像と参照画像とを比較することにより算出される、得ることと、
    前記第3の画像を得るために前記回転パラメータに従ってグローバルな回転における動き補償を前記第2の画像に適用することであって、前記第3の画像が、
    記画像であり、又は
    記第2の画像を参照画像と比較することにより算出される残差画像と、前記第2の画像に動き推定プロセスを適用することにより得られる動き予測画像とを加えることによって得られる、再構成された画像である、適用することと、を行うように構成された、デバイス。
  5. 請求項1に記載の方法の少なくともステップをプロセッサに実行させる命令がその中に格納された非一時的なプロセッサ可読媒体。
  6. 請求項2に記載の方法の少なくともステップをプロセッサに実行させる命令がその中に格納された非一時的なプロセッサ可読媒体。
  7. 符号化してビットストリームに埋め込まれた広視野映像の没入型レンダリングのシステムであって、
    データネットワークから前記ビットストリームを受信するネットワークインタフェースと、
    請求項4に記載の前記ビットストリームを復号するデバイスと、
    没入型レンダリングデバイスと
    を少なくとも含む、システム。
JP2019515450A 2016-09-30 2017-09-21 グローバルな回転における動き補償画像を符号化する方法、デバイス及びストリーム Active JP7217226B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16306266.4A EP3301928A1 (en) 2016-09-30 2016-09-30 Methods, devices and stream to encode global rotation motion compensated images
EP16306266.4 2016-09-30
PCT/EP2017/073906 WO2018060048A1 (en) 2016-09-30 2017-09-21 Methods, devices and stream to encode global rotation motion compensated images

Publications (3)

Publication Number Publication Date
JP2019534608A JP2019534608A (ja) 2019-11-28
JP2019534608A5 JP2019534608A5 (ja) 2020-11-05
JP7217226B2 true JP7217226B2 (ja) 2023-02-02

Family

ID=57138002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019515450A Active JP7217226B2 (ja) 2016-09-30 2017-09-21 グローバルな回転における動き補償画像を符号化する方法、デバイス及びストリーム

Country Status (9)

Country Link
US (1) US11812066B2 (ja)
EP (2) EP3301928A1 (ja)
JP (1) JP7217226B2 (ja)
KR (2) KR20190054076A (ja)
CN (1) CN110024404B (ja)
BR (1) BR112019006250A2 (ja)
CA (1) CA3038689A1 (ja)
MX (1) MX2019003587A (ja)
WO (1) WO2018060048A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10560678B2 (en) * 2016-11-09 2020-02-11 Mediatek Inc. Method and apparatus having video encoding function with syntax element signaling of rotation information of content-oriented rotation applied to 360-degree image content or 360-degree video content represented in projection format and associated method and apparatus having video decoding function
CN112997499A (zh) * 2018-09-14 2021-06-18 皇家Kpn公司 基于经全局运动补偿的运动矢量预测值的视频编码
EP3850845A1 (en) * 2018-09-14 2021-07-21 Koninklijke KPN N.V. Video coding based on global motion compensated motion vectors
CN111225208B (zh) * 2018-11-27 2022-09-02 北京小米移动软件有限公司 视频编码方法及装置
CN113228658B (zh) * 2018-12-14 2023-10-17 中兴通讯股份有限公司 沉浸式视频比特流处理
KR102476057B1 (ko) 2019-09-04 2022-12-09 주식회사 윌러스표준기술연구소 클라우드 가상 현실을 위한 imu 센서 데이터를 활용한 비디오 인코딩 및 디코딩 가속 방법 및 장치
CN114915791B (zh) * 2021-02-08 2023-10-20 荣耀终端有限公司 基于二维规则化平面投影的点云序列编解码方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005020478A (ja) 2003-06-27 2005-01-20 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2007523525A (ja) 2004-03-15 2007-08-16 サムスン エレクトロニクス カンパニー リミテッド 回転マッチングを使用して動きを予測する映像符号化装置及び方法
JP2009081622A (ja) 2007-09-26 2009-04-16 Oki Semiconductor Co Ltd 動画像圧縮符号化装置
WO2018056181A1 (ja) 2016-09-26 2018-03-29 ソニー株式会社 符号化装置、符号化方法、復号化装置、復号化方法、送信装置および受信装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3505199B2 (ja) * 1992-06-30 2004-03-08 株式会社リコー ビデオカメラジッタ補正装置、データ圧縮装置、データ伸長装置、データ圧縮方法及びデータ伸長方法
US5844613A (en) 1997-03-17 1998-12-01 Microsoft Corporation Global motion estimator for motion video signal encoding
CN1258925C (zh) 2003-06-27 2006-06-07 中国科学院计算技术研究所 多视角视频编解码预测补偿方法及装置
KR101117840B1 (ko) 2004-04-02 2012-03-15 톰슨 라이센싱 복잡도 가변 비디오 디코더를 위한 방법 및 장치
KR101365445B1 (ko) * 2007-01-03 2014-02-19 삼성전자주식회사 전역 및 국부 움직임 보상을 순차적으로 이용하는 움직임보상 방법, 복호화 방법, 장치, 인코더 및 디코더
CN101350920A (zh) 2007-07-17 2009-01-21 北京华辰广正科技发展有限公司 一种面向全景视频的全局运动估计方法
US10104361B2 (en) * 2014-11-14 2018-10-16 Samsung Electronics Co., Ltd. Coding of 360 degree videos using region adaptive smoothing
EP3267688A4 (en) * 2015-03-05 2018-08-01 Sony Corporation Image processing device and image processing method
US11228754B2 (en) * 2016-05-06 2022-01-18 Qualcomm Incorporated Hybrid graphics and pixel domain architecture for 360 degree video
KR102208132B1 (ko) * 2016-05-26 2021-01-27 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
US10127637B2 (en) * 2016-08-30 2018-11-13 Adobe Systems Incorporated Automatic orientation adjustment of spherical panorama digital images
US10390039B2 (en) * 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005020478A (ja) 2003-06-27 2005-01-20 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2007523525A (ja) 2004-03-15 2007-08-16 サムスン エレクトロニクス カンパニー リミテッド 回転マッチングを使用して動きを予測する映像符号化装置及び方法
JP2009081622A (ja) 2007-09-26 2009-04-16 Oki Semiconductor Co Ltd 動画像圧縮符号化装置
WO2018056181A1 (ja) 2016-09-26 2018-03-29 ソニー株式会社 符号化装置、符号化方法、復号化装置、復号化方法、送信装置および受信装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Andreas Krutz et al.,Tool Experiment 3: Inter Prediction in HEVC,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 1st Meeting: Dresden, DE, 15-23 April, 2010, [JCTVC-A303],JCTVC-A303 (version 1),2012年03月19日,JCTVC-A303.zip: JCTVC-A303.doc: pp. 1-8
高橋 卓也 他,ディジタルミュージアム画像の回転補償可逆符号化について,2002年 画像符号化シンポジウム 第17回シンポジウム資料 ,日本,電子情報通信学会画像工学研究専門委員会,2002年11月13日,P-5.19,pp. 105-106,TAKAHASHI, Takuya et al. "Study on a Lossless Coding of Digital Museum Image Using Rotation Compensation", The Proceedings of the 17th Picture Coding Symposium of Japan

Also Published As

Publication number Publication date
KR20190054076A (ko) 2019-05-21
CA3038689A1 (en) 2018-04-05
EP3520411A1 (en) 2019-08-07
WO2018060048A1 (en) 2018-04-05
KR20230051638A (ko) 2023-04-18
BR112019006250A2 (pt) 2019-06-18
US20200045342A1 (en) 2020-02-06
JP2019534608A (ja) 2019-11-28
CN110024404B (zh) 2023-06-20
US11812066B2 (en) 2023-11-07
KR102658946B1 (ko) 2024-04-18
CN110024404A (zh) 2019-07-16
EP3301928A1 (en) 2018-04-04
MX2019003587A (es) 2019-06-10

Similar Documents

Publication Publication Date Title
JP7217226B2 (ja) グローバルな回転における動き補償画像を符号化する方法、デバイス及びストリーム
JP6939883B2 (ja) 自由視点映像ストリーミング用の復号器を中心とするuvコーデック
JP7008903B2 (ja) 適応イントラ予測による全方位映像符号化および復号のための方法および装置
US10600233B2 (en) Parameterizing 3D scenes for volumetric viewing
US10567464B2 (en) Video compression with adaptive view-dependent lighting removal
JP7043148B2 (ja) 適応型イントラ最確モードを用いた全方位映像符号化のための方法および装置
JP2017530626A (ja) ビデオコード化のための同時ローカライゼーション及びマッピング
JP2019534620A (ja) 広視野ビデオを符号化及び復号する方法及び装置
KR20190055101A (ko) 전방향성 비디오를 인코딩하고 디코딩하기 위한 방법 및 장치
US20190268584A1 (en) Methods, devices and stream to provide indication of mapping of omnidirectional images
KR20190054150A (ko) 무지향성 비디오들에 대한 개선된 모션 보상을 위한 방법 및 장치
JP7177034B2 (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
JP2022541908A (ja) ボリュメトリックビデオコンテンツを配信するための方法および装置
US11653014B2 (en) Method and apparatus for encoding and decoding an omnidirectional video
CN111108751B (zh) 适应于全向视频的运动矢量预测量的方法和装置
JP2022549431A (ja) 容積ビデオを符号化、送信、及び復号化するための方法及び装置
JP2022551064A (ja) 容積ビデオを符号化、送信、及び復号化するための方法及び装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7217226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150