JP7241018B2 - 没入型ビデオフォーマットのための方法、装置、及びストリーム - Google Patents
没入型ビデオフォーマットのための方法、装置、及びストリーム Download PDFInfo
- Publication number
- JP7241018B2 JP7241018B2 JP2019537358A JP2019537358A JP7241018B2 JP 7241018 B2 JP7241018 B2 JP 7241018B2 JP 2019537358 A JP2019537358 A JP 2019537358A JP 2019537358 A JP2019537358 A JP 2019537358A JP 7241018 B2 JP7241018 B2 JP 7241018B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- patch atlas
- representing
- patch
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本開示は、没入型ビデオコンテンツの領域に関する。また、本開示は、例えば、モバイル装置又はヘッドマウント型ディスプレイなどのエンドユーザー装置上におけるレンダリングのための、没入型コンテンツを表すデータのフォーマッティングに関連しても理解される。
本節は、以下において記述及び/又は特許請求されている本開示の様々な側面に関係しうる技術の様々な側面を読者に対して紹介することを意図している。この説明は、本発明の様々な態様のより良い理解を促進するための背景情報の読者への提供において有用であるものと思われる。従って、これらの記述は、従来技術の承認としてではなく、上述の観点において参照するべきであることを理解されたい。
本明細書における「一実施形態(one embodiment)」、「一実施形態(an embodiment)」、「例示用の一実施形態(an example embodiment)」、「特定の一実施形態(a particular embodiment)」に対する参照は、記述されている実施形態が、特定の特徴、構造、又は特性を含みうるが、必ずしも、すべての実施形態が、その特定の特徴、構造、又は特性を含みえないことを通知している。更には、このようなフレーズは、必ずしも同一の実施形態を参照しているものでもない。更には、特定の特徴、構造、又は特性が、一実施形態との関連において記述されている際には、明示的に記述されているかどうかとは無関係に、その他の実施形態との関連において、このような特徴、構造、又は特性に影響を及ぼすことが当業者の知識に含まれているという点にも留意されたい。
-3次元ポイントクラウドを3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することであって、3次元ポイントクラウドは、視点の範囲から観察されるオブジェクトを表している、ことと、
-複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分ごとに、
・3次元部分と関連する2次元パラメータ化であって、少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報とに応答している2次元パラメータ化を表すパラメータ及び3次元部分内に含まれている少なくとも1つのポイントと関連するデータに従って、3次元部分と関連する深度マップを判定し、且つ、
・3次元部分内に含まれている少なくとも1つのポイントと関連するパラメータ及びデータに従って、3次元部分と関連する色マップを判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、第1のパッチアトラスの1つのパッチに対応しており、且つ、複数の判定された色マップは、第3のパッチアトラス内において表され、それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応している、ことと、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、2次元パラメータ化と第1のパッチアトラス内の対応する深度マップ及び第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有するストリームを生成することと、
を有する。
-3次元ポイントクラウドを3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することであって、3次元ポイントクラウドは、視点の範囲から観察されるオブジェクトを表している、ことと、
-複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分ごとに、
・3次元部分と関連する2次元パラメータ化であって、少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータ及び3次元部分内に含まれている少なくとも1つのポイントと関連するデータに従って、3次元部分と関連する深度マップを判定し、且つ、
・3次元部分内に含まれている少なくとも1つのポイントと関連するパラメータ及びデータに従って、3次元部分と関連する色マップを判定することであって、
複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、第1のパッチアトラスの1つのパッチに対応しており、且つ、複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応している、ことと、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、2次元パラメータ化と第1のパッチアトラス内の対応する深度マップ及び第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有するストリームを生成することと、
を行うように構成されている。
-3次元ポイントクラウドを3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化する手段であって、3次元ポイントクラウドは、視点の範囲から観察されるオブジェクトを表している、手段と、
-複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分ごとに、
・3次元部分と関連する2次元パラメータ化であって、少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータ及び3次元部分内に含まれている少なくとも1つのポイントと関連するデータに従って、3次元部分と関連する深度マップ、並びに
・3次元部分内に含まれている少なくとも1つのポイントと関連するパラメータ及びデータに従って、3次元部分と関連する色マップを判定する手段であって、
複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、第1のパッチアトラスの1つのパッチに対応しており、且つ、複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応している、手段と、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、2次元パラメータ化と第1のパッチアトラス内の対応する深度マップ及び第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有するストリームを生成する手段と、
を有する。
-視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータであって、3次元部分内に含まれているポイントクラウドのポイントと関連する幾何学的情報に従って、且つ、視点の範囲と関連するポーズ情報に従って、取得されるパラメータと、
-3次元部分の1つとそれぞれが関連する複数の深度マップを有する、且つ、3次元部分内に含まれているポイントクラウドのポイントと関連するパラメータ及びデータから判定された、第1のパッチアトラスを表すデータと、
-3次元部分の1つとそれぞれが関連する複数の色マップを有する、且つ、3次元部分内に含まれているポイントクラウドのポイントと関連するパラメータ及びデータから判定された、第2のパッチアトラスを表すデータと、
-2次元パラメータ化、第1のパッチアトラス内の深度マップ、及び第2のパッチアトラス内の色マップの間のマッピングを表す第1のマッピング情報と、
を有する。
-ストリームから、視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラス内の関連する深度マップのデータ、第2のパッチアトラス内の関連する色マップのデータ、並びに、ストリームから取得された、且つ、2次元パラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、オブジェクトを表すポイントクラウドのポイントと関連するデータを取得することと、
を有する。
-ストリームから、視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得し、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の深度マップを有する第1のパッチアトラスを表すデータを取得し、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の色マップを有する第2のパッチアトラスを表すデータを取得し、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラス内の関連する深度マップのデータ、第1のパッチアトラス内の関連する色マップのデータ、並びに、ストリームから取得された、且つ、2次元パラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、オブジェクトを表すポイントクラウドのポイントと関連するデータを取得する、
ように構成されている。
-ストリームから、視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得する手段と、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の深度マップを有する第2のパッチアトラスを表すデータを取得する手段と、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の色マップを有する第2のパッチアトラスを表すデータを取得する手段と、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラス内の関連する深度マップのデータ、第2のパッチアトラス内の関連する色マップのデータ、ストリームから取得された、且つ、2次元パラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、オブジェクトを表すポイントクラウドのポイントと関連するデータを取得する手段と、
を有する。
以下の添付図面を参照して実施される以下の説明を参照することにより、本開示について更に十分に理解することができる共に、その他の特定の特徴及び利点について明らかとなろう。
以下、その全体を通じて同一の参照符号が同一の要素を参照するべく使用されている図面を参照し、主題について説明する。以下の説明においては、説明を目的として、主題の十分な理解を提供するべく、多数の具体的な詳細事項が記述されている。但し、主題の実施形態が、これらの具体的な詳細事項を伴うことなしに、実施されうることは明らかでありうる。
・任意選択により、深度能動型検知装置によって補完された、図2のカメラアレイとしての、カメラの装備によって撮影された現実のオブジェクトのキャプチャから、
・モデル化ツール内の仮想カメラの装備によって撮影された仮想/合成オブジェクトのキャプチャから、
・現実の且つ仮想的なオブジェクトの両方の混合物から、
などの様々な方法により、取得することができる。
-視点と関連するプレーン上へのポイントクラウドの3D部分のポイントの線形透視投影であり、線形透視投影を表すパラメータは、仮想的カメラの場所、空間的サンプリングステップ、及び2つの次元における視野を有する、
-表面上へのポイントクラウドの3D部分のポイントの正投影であり、正投影を表すパラメータは、投影表面のジオメトリ(形状、サイズ、及び向き)及び空間的サンプリングステップを有する、
-ここでは、3Dから2Dへの変換/変形に適用されている、次元低減の数学演算に対応するLLE(Locally-Linear Embedding)であり、LLEを表すパラメータは、変換係数を有する、
という方法のいずれか1つを実装することにより、様々な方法によって取得することができる。
{2Dパラメータ化のパラメータ;深度マップID;色マップID}
という形態を有していてもよく、この場合に、深度マップIDは、第1のパッチアトラスのパッチのマトリックス内の、深度マップが属する、列インデックスU及び行インデックスVを有する整数値又は値のペアであってよく、色マップIDは、第2のパッチアトラスのパッチのマトリックス内の、色マップが属する、列インデックスU’及び行インデックスV’を有する整数値又は値のペアであってよい。
{2Dパラメータ化のパラメータ;深度及び色マップID}
という形態を有していてもよく、この場合に、「深度及び色マップID」は、深度及び色マップの両方と関連する同一の整数を介して、或いは、それぞれ第1のパッチアトラス及び第2のパッチアトラス内の、深度及び色マップが属する、列インデックスU及び行インデックスVの値のペアを介して、第1のパッチアトラス内の深度マップ及び第2のマップトラス内の色マップの両方を識別している。
{2Dパラメータ化のパラメータ;深度及び色マップID}i
ここで、i=1~nであり、nは、2Dパラメータ化の数である。
{3D部分の識別;ピクセル又はピクセルのグループの識別}
という形態の、リストに対応している。第2のマッピング情報よれば、画像のそれぞれのピクセルごとに生じることになる、それぞれの3D部分と関連する識別情報の取得を容易化することにより、デコーダ/被レンダリング側における情報のデコーディングを加速させることが可能となる。デコーダの通常の実装形態は、リストのブラウジングを回避しなければならないGPU(Graphical Processing Unit)上における画像のそれぞれのピクセルごとのこの取得の並行的な実装を必要としている。この任意選択の変形によれば、この第2のマッピング情報は、色及び深度画像よりも低い分解能を通常は有する画像であり、この場合に、それぞれのピクセルは、ピクセル/ポイントが属するそれぞれの3D部分と関連する識別情報を直接的に付与している。
-例えば、DSP(即ち、Digital Signal Processor)である、マイクロプロセッサ92、
-ROM(即ち、Read Only Memory)93、
-RAM(即ち、Random Access Memory)94、
-ストレージインターフェイス95、
-アプリケーションからのデータの受信及び送信のためのI/Oインターフェイス96、及び、
-例えば、電池などの電源、
という、データ及びアドレスバス91によって1つにリンクされた要素を有する。
-例えば、ビデオメモリ又はRAM(即ち、Random Access Memory)、フラッシュメモリ、ROM(即ち、Read Only Memory)、ハードディスクなどの、ローカルメモリ(93又は94)、
-例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光ディスク、又は磁気サポートとのインターフェイスなどの、ストレージインターフェイス(95)、
-例えば、有線インターフェイス(例えば、バスインターフェイス、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス)、或いは、無線インターフェイス(IEEE802.11インターフェイス又はBluetooth(登録商標)インターフェイスなど)などの、通信インターフェイス(96)、及び、
-ユーザーがデータを入力することを可能にするグラフィカルユーザーインターフェイスなどのユーザーインターフェイス、
を有する組に属する。
-例えば、ビデオメモリ又はRAM、フラッシュメモリ、ハードディスクなどの、ローカルメモリ(93又は94)、
-例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光ディスク、又は磁気サポートとのインターフェイスなどの、ストレージインターフェイス(95)、及び、
-例えば、有線インターフェイス(例えば、バスインターフェイス(例えば、USB(即ち、Universal Serial Bus))、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス、HDMI(High Definition Multimedia Interface)インターフェイス)、或いは、無線インターフェイス(IEEE802.11インターフェイス、WiFi(登録商標)又はBluetooth(C)インターフェイスなど)などの、通信インターフェイス(96)、
を有する組に属する。
-モバイル装置と、
-通信装置と、
-ゲーム装置と、
-タブレット(或いは、タブレットコンピュータ)と
-ラップトップと
-スチール写真カメラと、
-ビデオカメラと、
-エンコーディングチップと、
-サーバー(例えば、ブロードキャストサーバー、ビデオオンデマンドサーバー、又はウェブサーバー)と、
を有する組に属する。
-モバイル装置と、
-通信装置と、
-ゲーム装置と、
-セットトップボックスと、
-TVセットと、
-タブレット(或いは、タブレットコンピュータ)と、
-ラップトップと、
-(例えば、HMDなどの)ディスプレイと、
を有する組に属する。
[付記1]
シーンのオブジェクトを表すデータを有するストリームを生成する方法であって、
-3次元ポイントクラウド(5)を前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分(71、72、73)にパーティション化すること(1201)であって、前記3次元ポイントクラウドは、視点の範囲から観察される前記オブジェクトを表している、ことと、
-前記複数の3次元部分(71、72、73)の少なくとも1つの部分のそれぞれの3次元部分ごとに、
・前記3次元部分と関連する2次元パラメータ化(701、702、703、704)であって、前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、前記視点の範囲と関連するポーズ情報に応答している2次元パラメータ化(701、702、703、704)を表すパラメータ及び前記3次元部分内に含まれている前記少なくとも1つのポイントと関連するデータに従って前記3次元部分と関連する深度マップ(741、742、743、744)を判定し、且つ、
・前記3次元部分内に含まれている前記少なくとも1つのポイントと関連する前記パラメータ及びデータに従って、前記3次元部分と関連する色マップを判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス(74)内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチに対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス(75)内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリーム(1100)を生成することと、
を有する方法。
[付記2]
シーンのオブジェクトを表すデータを有するストリームを生成するように構成された装置(9)であって、前記装置は、
-3次元ポイントクラウドを前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することであって、前記3次元ポイントクラウドは、視点の範囲から観察される前記オブジェクトを表している、ことと、
-前記複数の3次元部分の少なくとも1つの部分のそれぞれの3次元部分ごとに、
・前記3次元部分と関連する2次元パラメータ化であって、前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、前記視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータ及び前記3次元部分内に含まれている前記少なくとも1つのポイントと関連するデータに従って前記3次元部分と関連している深度マップ、並びに
・前記3次元部分内に含まれている前記少なくとも1つのポイントと関連する前記パラメータ及びデータに従って前記3次元部分と関連している色マップ、
を判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチに対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリームを生成することと、
を行うように構成されている少なくとも1つのプロセッサ(92)と関連するメモリ(94)を有する装置。
[付記3]
複数の2次元パラメータ化は、前記複数の3次元部分の少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、付記1に記載の方法又は付記2に記載の装置。
[付記4]
前記ストリームは、前記3次元パッチを識別する情報とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する付記1若しくは3に記載の方法又は付記2若しくは3に記載の装置。
[付記5]
前記ポイントクラウドの前記パーティション化は、時間に伴って変化している付記1、3、若しくは4のいずれか1つに記載の方法又は付記2~4のいずれか1つに記載の装置。
[付記6]
シーンのオブジェクトを表すデータを搬送するストリームであって、
前記データは、
-視点の範囲から観察される前記オブジェクト(5)を表すポイントクラウドの3次元部分(71、72、73)の2次元パラメータ化(701、702、703、704)を表すパラメータであって、前記3次元部分内に含まれている前記ポイントクラウドのポイントと関連する幾何学的情報に従って、且つ、前記視点の範囲と関連するポーズ情報に従って、取得されるパラメータと、
-前記3次元部分(71、72、73)のうちの1つとそれぞれが関連付けられた、且つ、前記3次元部分(71、72、73)内に含まれている前記ポイントクラウドの前記ポイントと関連する前記パラメータ及びデータから判定された、複数の深度マップ(741、742、743、744)を有する第1のパッチアトラス(74)を表すデータと、
-前記3次元部分(71、72、73)のうちの1つとそれぞれが関連付けられた、且つ、前記3次元部分(71、72、73)内に含まれている前記ポイントクラウドの前記ポイントと関連する前記パラメータ及びデータから判定された、複数の色マップを有する第2のパッチアトラス(75)を表すデータと、
-前記2次元パラメータ化、前記第1のパッチアトラス内の前記深度マップ、及び前記第2のパッチアトラス内の前記色マップの間のマッピングを表す第1のマッピング情報と、
を有する、ストリーム。
[付記7]
複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、付記6に記載のストリーム。
[付記8]
前記ストリームは、前記3次元パッチを識別する情報とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する付記6又は7に記載のストリーム。
[付記9]
オブジェクトを表すデータを搬送するストリームから前記オブジェクトを表すポイントクラウドを取得する方法であって、
-前記ストリームから、視点の範囲から観察される前記オブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得すること(1301)と、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得すること(1302)と、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得すること(1303)と、
-前記2次元パラメータ化を表す前記パラメータからの前記オブジェクトを表す前記ポイントクラウドのポイントと関連するデータ、前記第1のパッチアトラス内の関連する深度マップのデータ、前記第2のパッチアトラス内の関連する色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報を取得すること(1304)と、
を有する方法。
[付記10]
オブジェクトを表すデータを搬送するストリームから前記オブジェクトを表すポイントクラウドを取得するように構成された装置であって、前記装置は、
-前記ストリームから、視点の範囲から観察される前記オブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラス内の関連している深度マップのデータ、前記第2のパッチアトラス内の関連している色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、前記オブジェクトを表す前記ポイントクラウドのポイントと関連するデータを取得することと、
を行うように構成されている少なくとも1つのプロセッサ(92)と関連しているメモリ(94)を有する装置。
[付記11]
複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、付記9に記載の方法又は付記10に記載の装置。
[付記12]
前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、付記9若しくは11に記載の方法又は付記10若しくは11に記載の装置。
[付記13]
前記オブジェクトを表す画像は、前記ポイントクラウドを表す前記取得済みのデータに従ってレンダリングされる、付記9、11、若しくは12のいずれか1つに記載の方法又は付記10~12のいずれか1つに記載の装置。
[付記14]
プロセッサが、少なくとも、付記1に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
[付記15]
プロセッサが、少なくとも、付記9に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
Claims (18)
- ストリームを生成する方法であって、
-3次元ポイントクラウドを前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することと、
-前記3次元部分のそれぞれに対し、
・前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータに従って前記3次元部分の深度マップを判定し、且つ、
・前記パラメータに従って、前記3次元部分の色マップを判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチ
に対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリームを生成することと、
を有する方法。 - ストリームを生成するように構成された装置であって、前記装置は、
-3次元ポイントクラウドを前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することと、
-前記3次元部分のそれぞれに対し、
・前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータに従って前記3次元部分の深度マップ、並びに
・前記パラメータに従って前記3次元部分の色マップ、
を判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチに対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリームを生成することと、
を行うように構成されているプロセッサと関連するメモリを有する装置。 - 複数の2次元パラメータ化は、前記複数の3次元部分の少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項1に記載の方法。
- 前記ストリームは、3次元パッチを識別する情報とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する請求項1若しくは3に記載の方法。
- 前記3次元ポイントクラウドの前記パーティション化は、時間に伴って変化している請求項1又は3に記載の方法。
- ストリームから3次元ポイントクラウドを取得する方法であって、
-前記ストリームから、前記3次元ポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
-前記2次元パラメータ化を表す前記パラメータからの前記3次元ポイントクラウドのポイントと関連するデータ、前記第1のパッチアトラス内の関連する深度マップのデータ、前記第2のパッチアトラス内の関連する色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報を取得することと、
を有する方法。 - ストリームから3次元ポイントクラウドを取得するように構成された装置であって、前記装置は、
-前記ストリームから、前記3次元ポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラス内の関連している深度マップのデータ、前記第2のパッチアトラス内の関連している色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、前記3次元ポイントクラウドのポイントと関連するデータを取得することと、
を行うように構成されている少なくとも1つのプロセッサと関連しているメモリを有する装置。 - 複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項6に記載の方法。
- 前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、請求項6又は8に記載の方法。
- 前記ストリームは、オブジェクトを表すデータを搬送するストリームであり、
前記オブジェクトを表す画像は、前記3次元ポイントクラウドを表す取得済みのデータに従ってレンダリングされる、請求項6又は8に記載の方法。 - プロセッサが、少なくとも、請求項1に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
- プロセッサが、少なくとも、請求項6に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
- 複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項2に記載の装置。
- 前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、請求項2又は13に記載の装置。
- 前記3次元ポイントクラウドのパーティション化は、時間に伴って変化する、請求項2又は13に記載の装置。
- 複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項7に記載の装置。
- 前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、請求項7又は16に記載の装置。
- 前記ストリームは、オブジェクトを表すデータを搬送するストリームであり、
前記オブジェクトを表す画像は、前記3次元ポイントクラウドを表す取得済みのデータに従ってレンダリングされる、請求項7又は16に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17305041.0A EP3349182A1 (en) | 2017-01-13 | 2017-01-13 | Method, apparatus and stream for immersive video format |
EP17305041.0 | 2017-01-13 | ||
PCT/EP2018/050348 WO2018130491A1 (en) | 2017-01-13 | 2018-01-08 | Method, apparatus and stream for immersive video format |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020515937A JP2020515937A (ja) | 2020-05-28 |
JP2020515937A5 JP2020515937A5 (ja) | 2021-02-12 |
JP7241018B2 true JP7241018B2 (ja) | 2023-03-16 |
Family
ID=57868190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019537358A Active JP7241018B2 (ja) | 2017-01-13 | 2018-01-08 | 没入型ビデオフォーマットのための方法、装置、及びストリーム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10891784B2 (ja) |
EP (2) | EP3349182A1 (ja) |
JP (1) | JP7241018B2 (ja) |
KR (1) | KR102468178B1 (ja) |
CN (1) | CN110383342B (ja) |
WO (1) | WO2018130491A1 (ja) |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10803561B2 (en) * | 2017-06-02 | 2020-10-13 | Wisconsin Alumni Research Foundation | Systems, methods, and media for hierarchical progressive point cloud rendering |
US11818401B2 (en) | 2017-09-14 | 2023-11-14 | Apple Inc. | Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables |
US10897269B2 (en) | 2017-09-14 | 2021-01-19 | Apple Inc. | Hierarchical point cloud compression |
US10861196B2 (en) | 2017-09-14 | 2020-12-08 | Apple Inc. | Point cloud compression |
US11113845B2 (en) | 2017-09-18 | 2021-09-07 | Apple Inc. | Point cloud compression using non-cubic projections and masks |
US10909725B2 (en) | 2017-09-18 | 2021-02-02 | Apple Inc. | Point cloud compression |
US10607373B2 (en) | 2017-11-22 | 2020-03-31 | Apple Inc. | Point cloud compression with closed-loop color conversion |
US10699444B2 (en) | 2017-11-22 | 2020-06-30 | Apple Inc | Point cloud occupancy map compression |
US11010928B2 (en) | 2018-04-10 | 2021-05-18 | Apple Inc. | Adaptive distance based point cloud compression |
US10909727B2 (en) | 2018-04-10 | 2021-02-02 | Apple Inc. | Hierarchical point cloud compression with smoothing |
US10939129B2 (en) * | 2018-04-10 | 2021-03-02 | Apple Inc. | Point cloud compression |
US10909726B2 (en) | 2018-04-10 | 2021-02-02 | Apple Inc. | Point cloud compression |
US10984541B2 (en) * | 2018-04-12 | 2021-04-20 | Samsung Electronics Co., Ltd. | 3D point cloud compression systems for delivery and access of a subset of a compressed 3D point cloud |
EP3791592A4 (en) * | 2018-05-07 | 2021-12-08 | Nokia Technologies Oy | METHODS AND TECHNICAL EQUIPMENT FOR CODING AND DECODING A VOLUMETRIC VIDEO |
US11017566B1 (en) | 2018-07-02 | 2021-05-25 | Apple Inc. | Point cloud compression with adaptive filtering |
US11202098B2 (en) | 2018-07-05 | 2021-12-14 | Apple Inc. | Point cloud compression with multi-resolution video encoding |
WO2020013567A1 (ko) * | 2018-07-10 | 2020-01-16 | 삼성전자 주식회사 | 컨텐츠의 처리 방법 및 장치 |
US11699248B2 (en) * | 2018-07-11 | 2023-07-11 | Sony Corporation | Image processing apparatus and method |
US11012713B2 (en) | 2018-07-12 | 2021-05-18 | Apple Inc. | Bit stream structure for compressed point cloud data |
JP2021182650A (ja) * | 2018-07-20 | 2021-11-25 | ソニーグループ株式会社 | 画像処理装置および方法 |
JP7331852B2 (ja) * | 2018-08-02 | 2023-08-23 | ソニーグループ株式会社 | 画像処理装置および方法 |
EP3614674A1 (en) * | 2018-08-23 | 2020-02-26 | Nokia Technologies Oy | An apparatus, a method and a computer program for volumetric video |
US11315321B2 (en) * | 2018-09-07 | 2022-04-26 | Intel Corporation | View dependent 3D reconstruction mechanism |
MX2021003179A (es) | 2018-09-18 | 2021-08-11 | Vid Scale Inc | Metodos y aparatos para formato de flujo de bits de compresion de nube de puntos. |
US11386524B2 (en) | 2018-09-28 | 2022-07-12 | Apple Inc. | Point cloud compression image padding |
CN110971906B (zh) * | 2018-09-29 | 2021-11-30 | 上海交通大学 | 层级化的点云码流封装方法和*** |
CN110971912B (zh) | 2018-09-30 | 2022-04-29 | 华为技术有限公司 | 点云编解码方法、编解码器、编解码装置和存储介质 |
US11367224B2 (en) | 2018-10-02 | 2022-06-21 | Apple Inc. | Occupancy map block-to-patch information compression |
US11430155B2 (en) | 2018-10-05 | 2022-08-30 | Apple Inc. | Quantized depths for projection point cloud compression |
US10735766B2 (en) | 2018-12-17 | 2020-08-04 | Sony Corporation | Point cloud auxiliary information coding |
US11095900B2 (en) * | 2018-12-19 | 2021-08-17 | Sony Group Corporation | Point cloud coding structure |
JP2022036353A (ja) * | 2018-12-28 | 2022-03-08 | ソニーグループ株式会社 | 画像処理装置および方法 |
EP3905696A4 (en) * | 2019-01-07 | 2022-06-08 | Sony Group Corporation | IMAGE PROCESSING DEVICE AND METHOD |
WO2020145668A1 (ko) * | 2019-01-08 | 2020-07-16 | 삼성전자주식회사 | 3차원 컨텐츠의 처리 및 전송 방법 |
US10353073B1 (en) * | 2019-01-11 | 2019-07-16 | Nurulize, Inc. | Point cloud colorization system with real-time 3D visualization |
WO2020162542A1 (ja) * | 2019-02-06 | 2020-08-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、および、三次元データ復号装置 |
US10549928B1 (en) | 2019-02-22 | 2020-02-04 | Dexterity, Inc. | Robotic multi-item type palletizing and depalletizing |
US11741566B2 (en) * | 2019-02-22 | 2023-08-29 | Dexterity, Inc. | Multicamera image processing |
CN113906757B (zh) | 2019-03-12 | 2023-02-03 | 华为技术有限公司 | 用于点云数据的点云块数据单元编码和解码 |
US11823421B2 (en) * | 2019-03-14 | 2023-11-21 | Nokia Technologies Oy | Signalling of metadata for volumetric video |
US11159811B2 (en) * | 2019-03-15 | 2021-10-26 | Tencent America LLC | Partitioning of coded point cloud data |
US20200296401A1 (en) * | 2019-03-15 | 2020-09-17 | Mediatek Inc. | Method and Apparatus of Patch Segmentation for Video-based Point Cloud Coding |
EP3884664A4 (en) * | 2019-03-18 | 2022-04-27 | Samsung Electronics Co., Ltd. | METHOD AND APPARATUS FOR ACCESSING AND TRANSFERRING POINT CLOUD CONTENT IN A 360 DEGREE VIDEO ENVIRONMENT |
US11334969B2 (en) * | 2019-03-19 | 2022-05-17 | Sony Group Corporation | Point cloud geometry padding |
US11057564B2 (en) | 2019-03-28 | 2021-07-06 | Apple Inc. | Multiple layer flexure for supporting a moving image sensor |
EP3716628A1 (en) * | 2019-03-29 | 2020-09-30 | InterDigital CE Patent Holdings | A method and apparatus for encoding and decoding volumetric video |
CN113748445A (zh) * | 2019-04-24 | 2021-12-03 | 奇跃公司 | 根据摆姿势的单目视频的边界估计 |
EP3970361A4 (en) * | 2019-05-14 | 2023-03-22 | INTEL Corporation | IMMERSIVE VIDEO CODING TECHNIQUES FOR THREE DEGREES OF FREEDOM PLUS/METADATA FOR IMMERSIVE VIDEO (3DOF+/MIV) AND VIDEO POINT CLOUD CODING (V-PCC) |
US11432009B2 (en) * | 2019-07-02 | 2022-08-30 | Intel Corporation | Techniques for encoding and decoding immersive video |
EP4032311A1 (en) | 2019-09-19 | 2022-07-27 | InterDigital CE Patent Holdings | Devices and methods for generating and rendering immersive video |
US11562507B2 (en) | 2019-09-27 | 2023-01-24 | Apple Inc. | Point cloud compression using video encoding with time consistent patches |
US11627314B2 (en) | 2019-09-27 | 2023-04-11 | Apple Inc. | Video-based point cloud compression with non-normative smoothing |
US11538196B2 (en) | 2019-10-02 | 2022-12-27 | Apple Inc. | Predictive coding for point cloud compression |
US11895307B2 (en) | 2019-10-04 | 2024-02-06 | Apple Inc. | Block-based predictive coding for point cloud compression |
JP2023504097A (ja) * | 2019-11-29 | 2023-02-01 | 中興通訊股▲ふん▼有限公司 | マルチビュービデオ処理方法および装置 |
KR20220127246A (ko) * | 2019-12-19 | 2022-09-19 | 인터디지털 브이씨 홀딩스 프랑스 | 보조 패치들을 갖는 볼류메트릭 비디오 |
BR112022013389A2 (pt) * | 2020-01-06 | 2022-09-13 | Huawei Tech Co Ltd | Sinalização de parâmetros de câmera em codificação de nuvem de pontos |
US11798196B2 (en) | 2020-01-08 | 2023-10-24 | Apple Inc. | Video-based point cloud compression with predicted patches |
CN111273878B (zh) * | 2020-01-08 | 2020-11-10 | 广州市三川田文化科技股份有限公司 | 一种基于cave空间的视频播放方法、装置及存储介质 |
KR102373833B1 (ko) * | 2020-01-09 | 2022-03-14 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
US11625866B2 (en) | 2020-01-09 | 2023-04-11 | Apple Inc. | Geometry encoding using octrees and predictive trees |
CN115053531A (zh) * | 2020-01-10 | 2022-09-13 | 诺基亚技术有限公司 | 在isobmff中存储来自一个v-pcc基本流的多个图集 |
EP4111359A1 (en) | 2020-02-27 | 2023-01-04 | Apple Inc. | Semantic labeling of point cloud clusters |
WO2021187737A1 (ko) | 2020-03-18 | 2021-09-23 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
WO2021193087A1 (ja) * | 2020-03-25 | 2021-09-30 | ソニーグループ株式会社 | 画像処理装置および方法 |
JP2023519660A (ja) * | 2020-03-31 | 2023-05-12 | インテル コーポレイション | 没入型ビデオにおいてアトラスごとに有効なビューをシグナリングする方法及び装置 |
US20230239508A1 (en) * | 2020-04-03 | 2023-07-27 | Intel Corporation | Methods and apparatus to identify a video decoding error |
WO2021204700A1 (en) * | 2020-04-07 | 2021-10-14 | Interdigital Vc Holdings France | Different atlas packings for volumetric video |
CN115486076A (zh) * | 2020-04-14 | 2022-12-16 | 交互数字专利控股公司 | Isobmff容器中对基于视频的点云流的部分访问支持 |
US20230188696A1 (en) * | 2020-04-24 | 2023-06-15 | Visionary Machines Pty Ltd | Systems And Methods For Generating And/Or Using 3-Dimensional Information With Camera Arrays |
US11321928B2 (en) * | 2020-05-14 | 2022-05-03 | Qualcomm Incorporated | Methods and apparatus for atlas management of augmented reality content |
KR102441171B1 (ko) | 2020-05-26 | 2022-09-08 | 한국전자통신연구원 | 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법 |
US11615557B2 (en) | 2020-06-24 | 2023-03-28 | Apple Inc. | Point cloud compression using octrees with slicing |
US11620768B2 (en) | 2020-06-24 | 2023-04-04 | Apple Inc. | Point cloud geometry compression using octrees with multiple scan orders |
WO2022045717A1 (ko) * | 2020-08-24 | 2022-03-03 | 현대자동차주식회사 | Mpeg 몰입형 비디오 포맷에서의 프레임 패킹방법 |
US11948338B1 (en) | 2021-03-29 | 2024-04-02 | Apple Inc. | 3D volumetric content encoding using 2D videos and simplified 3D meshes |
CN113284251B (zh) * | 2021-06-11 | 2022-06-03 | 清华大学深圳国际研究生院 | 一种自适应视角的级联网络三维重建方法及*** |
CN117693936A (zh) * | 2021-07-04 | 2024-03-12 | 抖音视界有限公司 | 用于点云编解码的方法、装置和介质 |
KR20240020851A (ko) * | 2022-08-09 | 2024-02-16 | 한국전자기술연구원 | 포인트 클라우드 기반 콘텐츠 스트리밍을 위한 영상 스트리밍 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013161133A (ja) | 2012-02-01 | 2013-08-19 | Toshiba Plant Systems & Services Corp | 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法 |
JP2014517563A (ja) | 2011-06-15 | 2014-07-17 | メディアテック インコーポレイテッド | 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置 |
WO2016132490A1 (ja) | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | 図面作成システム及び図面作成方法 |
JP2016163342A (ja) | 2015-03-03 | 2016-09-05 | 芳隆 大吉 | 三次元形状情報の配信または放送の方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9117281B2 (en) * | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US20140354632A1 (en) * | 2012-01-13 | 2014-12-04 | Thomson Licensing | Method for multi-view mesh texturing and corresponding device |
ES2652132T3 (es) * | 2013-07-19 | 2018-01-31 | Huawei Technologies Co., Ltd. | Método y aparato para codificar y descodificar un bloque de textura mediante el uso de partición de bloque basada en la profundidad |
US20160225157A1 (en) * | 2013-10-14 | 2016-08-04 | Koninklijke Philips N.V. | Remapping a depth map for 3d viewing |
WO2016024203A2 (en) * | 2014-08-12 | 2016-02-18 | Mantisvision Ltd. | System, method and computer program product to project light pattern |
US9811911B2 (en) * | 2014-12-29 | 2017-11-07 | Nbcuniversal Media, Llc | Apparatus and method for generating virtual reality content based on non-virtual reality content |
US10515259B2 (en) | 2015-02-26 | 2019-12-24 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining 3D object poses and landmark points using surface patches |
US10237532B2 (en) * | 2017-03-07 | 2019-03-19 | Trimble Ab | Scan colorization with an uncalibrated camera |
US10424083B2 (en) * | 2017-10-21 | 2019-09-24 | Samsung Electronics Co., Ltd. | Point cloud compression using hybrid transforms |
US10535161B2 (en) * | 2017-11-09 | 2020-01-14 | Samsung Electronics Co., Ltd. | Point cloud compression using non-orthogonal projection |
US10529086B2 (en) * | 2017-11-22 | 2020-01-07 | Futurewei Technologies, Inc. | Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system |
US10909726B2 (en) * | 2018-04-10 | 2021-02-02 | Apple Inc. | Point cloud compression |
-
2017
- 2017-01-13 EP EP17305041.0A patent/EP3349182A1/en not_active Withdrawn
-
2018
- 2018-01-08 KR KR1020197020484A patent/KR102468178B1/ko active IP Right Grant
- 2018-01-08 CN CN201880014763.8A patent/CN110383342B/zh active Active
- 2018-01-08 US US16/477,620 patent/US10891784B2/en active Active
- 2018-01-08 JP JP2019537358A patent/JP7241018B2/ja active Active
- 2018-01-08 EP EP18700113.6A patent/EP3568834B1/en active Active
- 2018-01-08 WO PCT/EP2018/050348 patent/WO2018130491A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014517563A (ja) | 2011-06-15 | 2014-07-17 | メディアテック インコーポレイテッド | 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置 |
JP2013161133A (ja) | 2012-02-01 | 2013-08-19 | Toshiba Plant Systems & Services Corp | 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法 |
WO2016132490A1 (ja) | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | 図面作成システム及び図面作成方法 |
JP2016163342A (ja) | 2015-03-03 | 2016-09-05 | 芳隆 大吉 | 三次元形状情報の配信または放送の方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110383342A (zh) | 2019-10-25 |
CN110383342B (zh) | 2023-06-20 |
US20190371051A1 (en) | 2019-12-05 |
EP3568834B1 (en) | 2020-11-11 |
KR102468178B1 (ko) | 2022-11-16 |
US10891784B2 (en) | 2021-01-12 |
EP3568834A1 (en) | 2019-11-20 |
WO2018130491A1 (en) | 2018-07-19 |
EP3349182A1 (en) | 2018-07-18 |
JP2020515937A (ja) | 2020-05-28 |
KR20190105011A (ko) | 2019-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7241018B2 (ja) | 没入型ビデオフォーマットのための方法、装置、及びストリーム | |
KR102594003B1 (ko) | 볼류메트릭 비디오를 인코딩/디코딩하기 위한 방법, 장치 및 스트림 | |
JP2021502033A (ja) | ボリュメトリックビデオを符号化/復号する方法、装置、およびストリーム | |
EP3249922A1 (en) | Method, apparatus and stream for immersive video format | |
US20220094903A1 (en) | Method, apparatus and stream for volumetric video format | |
EP3562159A1 (en) | Method, apparatus and stream for volumetric video format | |
US20190251735A1 (en) | Method, apparatus and stream for immersive video format | |
CN112425177A (zh) | 用于体积视频传输的方法和装置 | |
CN114503554A (zh) | 用于传送体积视频内容的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |