JP7241018B2 - 没入型ビデオフォーマットのための方法、装置、及びストリーム - Google Patents

没入型ビデオフォーマットのための方法、装置、及びストリーム Download PDF

Info

Publication number
JP7241018B2
JP7241018B2 JP2019537358A JP2019537358A JP7241018B2 JP 7241018 B2 JP7241018 B2 JP 7241018B2 JP 2019537358 A JP2019537358 A JP 2019537358A JP 2019537358 A JP2019537358 A JP 2019537358A JP 7241018 B2 JP7241018 B2 JP 7241018B2
Authority
JP
Japan
Prior art keywords
dimensional
patch atlas
representing
patch
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019537358A
Other languages
English (en)
Other versions
JP2020515937A5 (ja
JP2020515937A (ja
Inventor
ドレ,ルノー
ギャルピン,フランク
ブリアン,ジェラール
フリュールー,ジュリアン
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2020515937A publication Critical patent/JP2020515937A/ja
Publication of JP2020515937A5 publication Critical patent/JP2020515937A5/ja
Application granted granted Critical
Publication of JP7241018B2 publication Critical patent/JP7241018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

1.技術分野
本開示は、没入型ビデオコンテンツの領域に関する。また、本開示は、例えば、モバイル装置又はヘッドマウント型ディスプレイなどのエンドユーザー装置上におけるレンダリングのための、没入型コンテンツを表すデータのフォーマッティングに関連しても理解される。
2.背景
本節は、以下において記述及び/又は特許請求されている本開示の様々な側面に関係しうる技術の様々な側面を読者に対して紹介することを意図している。この説明は、本発明の様々な態様のより良い理解を促進するための背景情報の読者への提供において有用であるものと思われる。従って、これらの記述は、従来技術の承認としてではなく、上述の観点において参照するべきであることを理解されたい。
ヘッドマウント型ディスプレイ(HMD:Head-Mounted Display)又はCAVEなどの表示システムは、ユーザーが没入型ビデオコンテンツ内にブラウジングすることを許容している。没入型ビデオコンテンツは、CGI(Computer-Generated Imagery)技法によって取得することができる。このような没入型ビデオコンテンツによれば、それを観察しているユーザーの視点に応じて、但し、非現実的なグラフィック品質により、コンテンツを演算することができる。没入型ビデオコンテンツは、球体又は立方体などの表面上における(例えば、いくつかのカメラによって取得されたビデオなどの)ビデオのマッピングにより、取得することができる。このような没入型ビデオコンテンツは、良好な画像品質を提供するが、特に、フォアグラウンドの、即ち、カメラから近接した、シーンのオブジェクトの場合に、視差に関係する問題が生じる。
没入型ビデオコンテンツの文脈においては、フリービューポイントビデオ(FVV:Free-Viewpoint Video)は、マルチビュービデオの表現及びコーディング並びに任意の視点からの後続のリレンダリングのための技法である。没入型コンテンツにおけるユーザー経験を向上させる際には、レンダラに搬送されるデータの量が、非常に重要であり、且つ、問題となりうる。
3.概要
本明細書における「一実施形態(one embodiment)」、「一実施形態(an embodiment)」、「例示用の一実施形態(an example embodiment)」、「特定の一実施形態(a particular embodiment)」に対する参照は、記述されている実施形態が、特定の特徴、構造、又は特性を含みうるが、必ずしも、すべての実施形態が、その特定の特徴、構造、又は特性を含みえないことを通知している。更には、このようなフレーズは、必ずしも同一の実施形態を参照しているものでもない。更には、特定の特徴、構造、又は特性が、一実施形態との関連において記述されている際には、明示的に記述されているかどうかとは無関係に、その他の実施形態との関連において、このような特徴、構造、又は特性に影響を及ぼすことが当業者の知識に含まれているという点にも留意されたい。
本開示は、シーンのオブジェクトを表すデータを有するストリームを生成する方法に関し、方法は、
-3次元ポイントクラウドを3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することであって、3次元ポイントクラウドは、視点の範囲から観察されるオブジェクトを表している、ことと、
-複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分ごとに、
・3次元部分と関連する2次元パラメータ化であって、少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報とに応答している2次元パラメータ化を表すパラメータ及び3次元部分内に含まれている少なくとも1つのポイントと関連するデータに従って、3次元部分と関連する深度マップを判定し、且つ、
・3次元部分内に含まれている少なくとも1つのポイントと関連するパラメータ及びデータに従って、3次元部分と関連する色マップを判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、第1のパッチアトラスの1つのパッチに対応しており、且つ、複数の判定された色マップは、第3のパッチアトラス内において表され、それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応している、ことと、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、2次元パラメータ化と第1のパッチアトラス内の対応する深度マップ及び第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有するストリームを生成することと、
を有する。
また、本開示は、シーンのオブジェクトを表すデータを有するストリームを生成するように構成された装置にも関し、装置は、少なくとも1つのプロセッサと関連するメモリを有し、プロセッサは、
-3次元ポイントクラウドを3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することであって、3次元ポイントクラウドは、視点の範囲から観察されるオブジェクトを表している、ことと、
-複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分ごとに、
・3次元部分と関連する2次元パラメータ化であって、少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータ及び3次元部分内に含まれている少なくとも1つのポイントと関連するデータに従って、3次元部分と関連する深度マップを判定し、且つ、
・3次元部分内に含まれている少なくとも1つのポイントと関連するパラメータ及びデータに従って、3次元部分と関連する色マップを判定することであって、
複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、第1のパッチアトラスの1つのパッチに対応しており、且つ、複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応している、ことと、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、2次元パラメータ化と第1のパッチアトラス内の対応する深度マップ及び第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有するストリームを生成することと、
を行うように構成されている。
また、本開示は、シーンのオブジェクトを表すデータを有するストリームを生成するように構成された装置にも関し、装置は、
-3次元ポイントクラウドを3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化する手段であって、3次元ポイントクラウドは、視点の範囲から観察されるオブジェクトを表している、手段と、
-複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分ごとに、
・3次元部分と関連する2次元パラメータ化であって、少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータ及び3次元部分内に含まれている少なくとも1つのポイントと関連するデータに従って、3次元部分と関連する深度マップ、並びに
・3次元部分内に含まれている少なくとも1つのポイントと関連するパラメータ及びデータに従って、3次元部分と関連する色マップを判定する手段であって、
複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、第1のパッチアトラスの1つのパッチに対応しており、且つ、複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応している、手段と、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、2次元パラメータ化と第1のパッチアトラス内の対応する深度マップ及び第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有するストリームを生成する手段と、
を有する。
特定の一特性によれば、複数の2次元パラメータ化は、複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連している。
特定の一特性によれば、ストリームは、3次元パッチを識別する情報とそれぞれ第1のパッチアトラス及び第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する。
特定の一特性によれば、前記ポイントクラウドのパーティション化は、時間に伴って変化している。
また、本開示は、シーンのオブジェクトの表すデータを搬送するストリームにも関し、データは、
-視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータであって、3次元部分内に含まれているポイントクラウドのポイントと関連する幾何学的情報に従って、且つ、視点の範囲と関連するポーズ情報に従って、取得されるパラメータと、
-3次元部分の1つとそれぞれが関連する複数の深度マップを有する、且つ、3次元部分内に含まれているポイントクラウドのポイントと関連するパラメータ及びデータから判定された、第1のパッチアトラスを表すデータと、
-3次元部分の1つとそれぞれが関連する複数の色マップを有する、且つ、3次元部分内に含まれているポイントクラウドのポイントと関連するパラメータ及びデータから判定された、第2のパッチアトラスを表すデータと、
-2次元パラメータ化、第1のパッチアトラス内の深度マップ、及び第2のパッチアトラス内の色マップの間のマッピングを表す第1のマッピング情報と、
を有する。
特定の一特性によれば、ストリームは、3次元パッチを識別する情報とそれぞれ第1のパッチアトラス及び第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する。
また、本開示は、オブジェクトを表すデータを搬送するストリームからオブジェクトを表すポイントクラウドを取得する方法にも関し、方法は、
-ストリームから、視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラス内の関連する深度マップのデータ、第2のパッチアトラス内の関連する色マップのデータ、並びに、ストリームから取得された、且つ、2次元パラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、オブジェクトを表すポイントクラウドのポイントと関連するデータを取得することと、
を有する。
また、本開示は、オブジェクトを表すデータを搬送するストリームからオブジェクトを表すポイントクラウドを取得するように構成された装置にも関し、装置は、少なくとも1つのプロセッサと関連するメモリを有しており、プロセッサは、
-ストリームから、視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得し、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の深度マップを有する第1のパッチアトラスを表すデータを取得し、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の色マップを有する第2のパッチアトラスを表すデータを取得し、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラス内の関連する深度マップのデータ、第1のパッチアトラス内の関連する色マップのデータ、並びに、ストリームから取得された、且つ、2次元パラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、オブジェクトを表すポイントクラウドのポイントと関連するデータを取得する、
ように構成されている。
また、本開示は、オブジェクトを表すデータを搬送するストリームからオブジェクトを表すポイントクラウドを取得するように構成された装置にも関し、装置は、
-ストリームから、視点の範囲から観察されるオブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得する手段と、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の深度マップを有する第2のパッチアトラスを表すデータを取得する手段と、
-ストリームから、2次元パラメータ化の1つとそれぞれが関連する複数の色マップを有する第2のパッチアトラスを表すデータを取得する手段と、
-2次元パラメータ化を表すパラメータ、第1のパッチアトラス内の関連する深度マップのデータ、第2のパッチアトラス内の関連する色マップのデータ、ストリームから取得された、且つ、2次元パラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、オブジェクトを表すポイントクラウドのポイントと関連するデータを取得する手段と、
を有する。
特定の一特性によれば、オブジェクトを表す画像は、ポイントクラウドを表す取得済みのデータに従ってレンダリングされている。
また、本開示は、このプログラムがコンピュータ上において実行された際にシーンのオブジェクトを表すデータを有するストリームを生成する方法のステップを実行するためのプログラムコード命令を有するコンピュータプログラムプロダクトにも関する。
また、本開示は、このプログラムがコンピュータ上において実行された際にオブジェクトを表すデータを搬送するストリームからオブジェクトを表すポイントクラウドを取得する方法のステップを実行するためのプログラムコード命令を有するコンピュータプログラムプロダクトにも関する。
また、本開示は、プロセッサが、少なくとも、このプログラムがコンピュータ上において実行された際にシーンのオブジェクトを表すデータを有するストリームを生成する上述の方法を実行するようにする、命令をその内部において保存された状態で有する(非一時的な)プロセッサ可読媒体にも関する。
また、本開示は、プロセッサが、少なくとも、このプログラムがコンピュータ上において実行された際にオブジェクトを表すデータを搬送するストリームからオブジェクトを表すポイントクラウドを取得する上述の方法を実行するようにする、命令をその内部において保存された状態で有する(非一時的な)プロセッサ可読媒体にも関する。
4.図のリスト
以下の添付図面を参照して実施される以下の説明を参照することにより、本開示について更に十分に理解することができる共に、その他の特定の特徴及び利点について明らかとなろう。
本原理の特定の一実施形態による没入型コンテンツを示す。 本原理の特定の一実施形態による、図1の没入型コンテンツの少なくとも一部分を取得するべく、シーンの[或いは、シーンの一部分の]画像を取得するように構成されたライトフィールド取得装置を示す。 本原理の特定の一実施形態による、図1の没入型コンテンツの少なくとも一部分を取得するべく、シーンの[或いは、シーンの一部分の]画像を取得するように構成されたライトフィールド取得装置を示す。 本原理の特定の一実施形態による、図2A及び図2Bの取得装置によって取得されたシーンのオブジェクトの一部分の表現を示す。 本原理の特定の一実施形態による、図3のオブジェクトの表現の3D部分と関連する2Dパラメータ化を示す。 本原理の特定の実施形態による、図4の3D部分と関連するパッチアトラスを示す。 本原理の特定の実施形態による、図4の3D部分と関連するパッチアトラスを示す。 本原理の非限定的な一実施形態による、図5及び図6のパッチアトラスの生成を示す。 図3のオブジェクトの3D表現のパーティション化の非限定的な一例を示す。 図3のオブジェクトの3D表現のパーティション化の非限定的な一例を示す。 図3のオブジェクトの3D表現のパーティション化の非限定的な一例を示す。 図3のオブジェクトの3D表現のパーティション化の非限定的な一例を示す。 本原理の一例による、図12及び/又は図13の方法を実装するべく構成された装置のアーキテクチャの一例を示す。 本原理の一例による、通信ネットワーク上において通信する図9の2つのリモート装置を示す。 本原理の一例による、図3のオブジェクトの記述を搬送する信号のシンタックスを示す。 本原理の一例による、図3のオブジェクトを記述するデータのストリームを生成する方法を示す。 本原理の一例による、図3のオブジェクトの画像をレンダリングする方法を示す。
5.実施形態の詳細な説明
以下、その全体を通じて同一の参照符号が同一の要素を参照するべく使用されている図面を参照し、主題について説明する。以下の説明においては、説明を目的として、主題の十分な理解を提供するべく、多数の具体的な詳細事項が記述されている。但し、主題の実施形態が、これらの具体的な詳細事項を伴うことなしに、実施されうることは明らかでありうる。
本説明は、本開示の原理を例示している。従って、当業者は、本明細書において明示的に記述又は図示されてはいない、本開示の原理を実施する、様々な構成を考案しうることを理解されたい。
シーンの1つ又は複数のオブジェクトを表すデータのストリームを生成する方法及び/又は生成されたデータストリームからこの/これらのオブジェクトの画像をレンダリングする方法の特定の実施形態を参照し、本原理について説明することとする。シーンのオブジェクトは、判定された視点の範囲に従って、3次元(3D)ポイントクラウドによって表現される。ポイントクラウドは、例えば、シーンの画像から取得され、それぞれの画像は、判定された視点の範囲内の異なる視点に従って、シーン又はその一部分を表している。3Dポイントクラウドは、3Dポイントクラウドの1つ又は複数のポイントをそれぞれが有する複数の3D基本部分にパーティション化される。2次元(2D)パラメータ化の組が判定され、それぞれの2Dパラメータ化は、パラメータの組によってポイントクラウドの1つの3D部分を表している。それぞれの3D部分は、それぞれの2Dピクセル表現用のいくつかのパラメータを介して、1つ又は複数の2Dピクセル表現によって表される。深度マップ(或いは、高さマップとも呼称される)及び色マップ(或いは、テクスチャマップとも呼称される)が、それぞれの3D部分と関連する2Dパラメータ化のパラメータを使用することにより、それぞれの3D部分について、判定され、且つ、これと関連付けられる。取得された深度マップは、第1のパッチアトラス内において表され(第1のパッチアトラスの1つのパッチが1つの深度マップに対応している)、且つ、取得された色マップは、第2のパッチアトラス内において表される(第2のパッチアトラスの1つのパッチが1つの色マップに対応している)。2Dパラメータ化のパラメータ、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、並びに、それぞれの2Dパラメータ化をそれぞれ第1の及び第2のパッチアトラス内のその関連する深度マップ及び色マップとリンクしているマッピング情報を組み合わせる及び/又はコーディングすることにより、データストリームが生成される。
デコーダ/被レンダリング側においては、2Dパラメータ化のパラメータ及び関連する高さ及びテキスチャマップをストリームからデコーディング/抽出することにより、ポイントクラウドを再構築することができると共に、ポイントクラウドから1つ又は複数のオブジェクトの画像をレンダリングすることができる。
テクスチャ及び高さ情報によってオブジェクトを表すための基準として複数の2Dパラメータ化を使用することにより、最適な詳細レベルを有する複雑なトポロジーによってオブジェクトを表すことを可能にしつつ、ポイントクラウドによる表現との比較において、オブジェクトを表すのに必要とされるデータの量の低減が可能となる。
図1は、本原理の特定の且つ非限定的な一実施形態による4πステラジアンのビデオコンテンツの非限定的な例示用の形態における没入型コンテンツ10の一例を示している。図1は、没入型コンテンツ10の二次元表現に対応している。没入型コンテンツ10は、例えば、1つ又は複数のカメラによって取得された実際のシーンに、或いは、実際の且つ仮想的なオブジェクトを有する混合された現実のシーンに、対応しており、仮想的オブジェクトは、例えば、3Dレンダリングツールを使用することによって合成されている。没入型コンテンツ10の一部分11は、例えば、没入型コンテンツを視覚化するように適合された表示装置上に表示される没入型コンテンツの一部分(ビューポートと呼称される)に対応しており、部分11のサイズは、例えば、表示装置によって提供される視野に等しい。
没入型コンテンツ10を視覚化するべく使用される表示装置は、ユーザーの頭部上において着用された、或いは、ヘルメットの一部としての、例えば、HMD(ヘッドマウント型ディスプレイ)である。HMDは、有利には、1つ又は複数の表示画面(例えば、LCD(Liquid Crystal Display)、OLED(Organic Light-Emitting Diode)又はLCOS(Liquid Crystal On Silicon))、並びに、例えば、現実世界の1つ、2つ、又は3つの軸(ピッチ、ヨー、及び/又はロール軸)に従って、ジャイロスコープ又はIMU(Inertial Measurement Unit)などの、HDMの位置の変化を計測するべく構成されたセンサを有する。HMDの計測位置に対応する没入型コンテンツ10の一部分11は、有利には、現実世界内のHMDと関連する視点と没入型コンテンツ10と関連する仮想的カメラの視点の間の関係を確立する特定の関数により、判定される。HMDの計測位置に従ってHMDの表示画面上において表示されるビデオコンテンツの一部分11を制御することにより、HMDを着用するユーザーは、HMDの表示画面と関連する視野よりも大きな没入型コンテンツ内にブラウジングすることが可能となる。例えば、HMDによって提供される視野が(例えば、ヨー軸を中心として)110°に等しく、且つ、没入型コンテンツが180°のコンテンツを提供している場合には、HMDを着用したユーザーは、HMDによって提供される視野の外側のビデオコンテンツの部分を観察するべく、自身の頭部を右に又は左に回転させることができる。別の例によれば、没入型システムは、CAVE(Cave Automatic Virtual Environment)システムであり、この場合に、没入型コンテンツは、部屋の壁上に投影される。CAVEの壁は、例えば、後方投影画面又はフラットパネルディスプレイから構成されている。従って、ユーザーは、自身の注視を部屋の異なる壁上においてブラウジングすることができる。CAVEシステムには、有利には、これらの画像のビデオ処理によってユーザーの注視方向を判定するべく、ユーザーの画像を取得するカメラが提供されている。一変形によれば、ユーザーの注視又はポーズは、ユーザーが赤外線センサを着用した状態において、例えば、赤外線追跡システムなどの追跡システムによって判定されている。別の変形によれば、没入型システムは、触覚表示画面を有するタブレットであり、ユーザーは、1つ又は複数の指が触覚表示画面上に摺動する状態においてコンテンツをスクロールすることにより、コンテンツ内にブラウジングしている。
同様に、没入型コンテンツ10及び一部分11は、フォアグラウンドオブジェクト及びバックグラウンドオブジェクトを有することもできる。
当然のことながら、没入型コンテンツ10は、4πステラジアンのビデオコンテンツに限定されるものではなく、視野11よりも大きなサイズを有する任意のビデオコンテンツ(或いは、オーディオ-ビジュアルコンテンツ)にも拡張される。没入型コンテンツは、例えば、2π、2.5π、3πステラジアンのコンテンツなどであってよい。
図2A及び図2Bは、ライトフィールド取得装置の一例を示している。更に詳しくは、図2A及び図2Bは、それぞれ、本原理の2つの特定の実施形態によるカメラアレイ2A、2B(或いは、カメラアレイとも呼称される)を示している。
カメラアレイ2Aは、いくつかのマイクロレンズ201、202~20pを有するレンズ又はマイクロレンズのアレイ20と、1つ又は複数のセンサアレイ21と、を有しており、この場合に、pは、マイクロレンズの数に対応する整数である。カメラアレイ2Aは、主レンズを含んでいない。レンズのアレイ20は、小さな装置であってよく、これは、一般に、マイクロレンズアレイと呼称される。単一のセンサを有するカメラアレイは、主レンズが無限焦点距離を有する、プレノプティックカメラの特殊なケースとして見なすことができる。フォトセンサの数がマイクロレンズの数に等しい、即ち、1つのフォトセンサが1つのマイクロレンズと光学的に関連付けられている、特定の一構成によれば、カメラアレイ20は、例えば、(図2Aに示されているような)正方形の構成又は5点形構成、或いは、例えば、円筒形表面上における非平坦構成などの、近接するように離隔した複数の個別のカメラ(例えば、マイクロカメラ)の構成として見なすことができる。
カメラアレイ2Bは、レンズ及びフォトセンサアレイをそれぞれが有する個々のカメラの装備に対応している。カメラは、例えば、数センチメートル以下、或いは、5、7、又は10cmに等しい距離だけ、離隔している。
このようなカメラアレイ2A又は2Bによって取得された(所謂ライトフィールド画像を形成する)ライトフィールドデータは、レンズレットアレイとフォトセンサアレイの間の距離がマイクロレンズの焦点距離に等しいプレノプティックカメラに対応しているタイプ1.0の、或いは、さもなければ、(合焦型プレノプティックカメラとも呼称される)タイプ2.0の、プレノプティックカメラなどの、プレノプティックカメラによって取得された未加工の画像を逆多重化又は逆モザイク化することによって取得することができるシーンの複数のビューに、即ち、最終的なビューに、対応している。カメラアレイ2Bのカメラは、任意の既知の方法に従って較正されており、即ち、カメラの内在的な且つ外来的なパラメータが既知である。
ライトフィールド取得装置によって取得された異なるビューにより、例えば、ディスパリティに基づいて深度を演算しうるアルゴリズムを使用して没入型コンテンツ又は没入型コンテンツの少なくとも一部分を取得することが可能となる。当然のことながら、没入型コンテンツは、例えば、(MicrosoftのKinectなどの赤外線エミッタ/レシーバ又はレーザーエミッタなどの)深度センサと関連するカメラなどの、ライトフィールド取得装置とは異なる取得装置により、取得することもできる。
図3は、没入型コンテンツによって表されるシーンの、オブジェクト又はその一部分の、2つの異なる表現を示している。図3の例によれば、オブジェクトは、例えば、シーン内において運動する、人物であり、且つ、図3には、頭部に対応するオブジェクトの一部分が示されている。
オブジェクトの一部分の第1の表現30は、ポイントクラウドである。ポイントクラウドは、例えば、オブジェクトの外部表面又は外部形状などの、オブジェクトを表すポイントの大きな集合体に対応している。ポイントクラウドは、ベクトルに基づいた構造として見なされてもよく、この場合に、それぞれのポイントは、その座標(例えば、3次元座標XYZ、又は所与の視点からの深度/距離)と、成分とも呼称される、1つ又は複数の属性と、を有する。成分の一例は、例えば、RGB(Red、Green、及びBlue)又はYUV(Yは、ルマ成分であり、且つ、UVは、2つのクロミナンス成分である)などの、異なる色空間において表現されうる色成分である。ポイントクラウドは、所与の視点又は視点の範囲から観察されるオブジェクトの表現である。ポイントクラウドは、例えば、
・任意選択により、深度能動型検知装置によって補完された、図2のカメラアレイとしての、カメラの装備によって撮影された現実のオブジェクトのキャプチャから、
・モデル化ツール内の仮想カメラの装備によって撮影された仮想/合成オブジェクトのキャプチャから、
・現実の且つ仮想的なオブジェクトの両方の混合物から、
などの様々な方法により、取得することができる。
第1のケース(現実のオブジェクトのキャプチャから)においては、カメラの組は、異なるビュー(異なる視点)に対応する画像の組又は画像(ビデオ)のシーケンスを生成している。深度情報―それぞれのカメラの中心からオブジェクトの表面までの距離を意味している―は、例えば、赤外線範囲内においては、能動型深度検知装置により、且つ、構造化光分析又は飛行時間に基づいて、或いは、ディスパリティアルゴリズムに基づいて、取得される。いずれのケースにおいても、すべてのカメラは、内在的に且つ外来的に、較正する必要がある。ディスパリティアルゴリズムは、通常は、1次元のラインに沿って実施される、調整済みのカメラ画像のペア上における類似の視覚的特徴のサーチを有しており、ピクセルのカラム差が大きいほど、この特徴の表面は接近する。カメラアレイのケースにおいては、グローバルな深度情報は、複数のカメラペアの利益を享受することにより、複数のピアディスパリティ情報を組み合わせることから取得され、これにより、信号対ノイズ比を改善することができる。
第2のケース(合成オブジェクト)においては、モデル化ツールが、深度情報を直接的に提供している。
オブジェクトの一部分の第2の表現31が、ポイントクラウド表現30から取得されてもよく、第2の表現は、表面表現に対応している。その表面を演算するべく、ポイントクラウドを処理することができる。これを目的として、ポイントクラウドの所与のポイントについて、この所与のポイントにおける局所的表面に対する法線を演算するべく、この所与のポイントの隣接するポイントが使用され、この所与のポイントと関連する表面要素は、法線から導出される。このプロセスは、表面を取得するべく、すべてのポイントについて反復される。ポイントクラウドから表面を再構築する方法については、例えば、「“State of the Art in Surface Reconstruction from Point Clouds”, State of the Art Report, 2014」において、Matthew Berger他によって記述されている。一変形によれば、ポイントクラウドの所与のポイントと関連する表面要素は、この所与のポイントにスプラットレンダリングを適用することにより、取得されている。オブジェクトの表面(オブジェクトの陰関数表面又は外部表面とも呼称される)は、ポイントクラウドのポイントと関連するすべてのスプラット(例えば、楕円)をブレンディングすることにより、取得される。
特定の一実施形態においては、ポイントクラウドは、オブジェクトの全体ではなく、オブジェクトの部分的なビューのみを表しており、且つ、これは、例えば、映画のシーンにおけるものなどのように、オブジェクトがレンダリング側において観察されると想定される方式に対応している。例えば、フラットなカメラアレイに対向するキャラクタの撮影は、装備のこの側においてのみ、ポイントクラウドを生成する。キャラクタの背面は、存在さえもせず、オブジェクトは、それ自体で閉じておらず、且つ、従って、このオブジェクトの幾何学的特性は、装備の方向において方向付けされたすべての表面の組である(それぞれの局所的表面の法線と取得装置に戻る光線の間の角度は、例えば、90°未満である)。
図4は、本原理の特定の一実施形態による、カメラ4001、4002、4003、及び4004によって取得されたシーンのオブジェクトの表現40の3D部分と関連する2Dパラメータ化41、42、及び43を示している。カメラ4001~4004は、例えば、図2Bの装備のカメラのいくつかに対応している。オブジェクトは、図3の例31におけるように、その表面40によって表されているが、図3の例30におけるように、ポイントクラウド自体によって表することもできる。それぞれの2Dパラメータ化は、オブジェクトの表現の3D部分と関連付けられており、それぞれの3D部分は、ポイントクラウドの1つ又は複数のポイントを有する容積に対応している。それぞれの2Dパラメータ化は、前記それぞれの2Dパラメータ化と関連する3D部分内に含まれているポイントクラウドの(取得装置の視点の範囲によって生成される)最大数のポイントをブラウジングするような方式によって取得装置のポーズ情報を考慮することにより、判定される。2Dパラメータ化が、関連する3D部分のポイントの線形透視投影によって取得される際には、判定された視点は、それぞれの2Dパラメータ化と関連付けられ、それぞれの視点は、シーンを取得するべく使用された視点の範囲に対応する視点の範囲内に含まれている。2Dパラメータ化41は、視点401と関連付けられており、2Dパラメータ化42は、視点402と関連付けられており、且つ、2Dパラメータ化43は、視点403と関連付けられている。図4において観察されうるように、視点401~403のポイントのそれぞれは、取得装置の視点の範囲のそれぞれ左限界4001及び右限界4004に対応する視点4001及び4002の間に配置されている。ポイントクラウドは、限定された且つ判定された視点の範囲から取得され、且つ、ポイントクラウドの3D部分の2D表現(即ち、2Dパラメータ化)は、すべて、ポイントクラウドを取得するべく使用された視点の限定された且つ判定された範囲内に配置された視点から観察されている。それぞれの2Dパラメータ化は、それが関連付けられているポイントクラウドの3D部分の2D表現である。同一の3D部分が、例えば、2個、3個、又はこれよりも大きな数の2Dパラメータ化などの、1つ又は複数の2Dパラメータ化によって表されてもよい。上述のように、ポイントクラウドの1つの所与の3D部分と関連する2Dパラメータ化は、ポイントクラウドの所与の3D部分の2つの次元におけるブラウジングに対応しており、これにより、所与の3D部分のサンプリングが許容され、即ち、この所与の3D部分のコンテンツ(即ち、ポイント)の2D表現は、複数のサンプルを有しており、その数は、適用されるサンプリングステップに依存している。2Dパラメータ化は、例えば、
-視点と関連するプレーン上へのポイントクラウドの3D部分のポイントの線形透視投影であり、線形透視投影を表すパラメータは、仮想的カメラの場所、空間的サンプリングステップ、及び2つの次元における視野を有する、
-表面上へのポイントクラウドの3D部分のポイントの正投影であり、正投影を表すパラメータは、投影表面のジオメトリ(形状、サイズ、及び向き)及び空間的サンプリングステップを有する、
-ここでは、3Dから2Dへの変換/変形に適用されている、次元低減の数学演算に対応するLLE(Locally-Linear Embedding)であり、LLEを表すパラメータは、変換係数を有する、
という方法のいずれか1つを実装することにより、様々な方法によって取得することができる。
2Dパラメータ化41、42、及び43は、限られた数のパラメータによって表すことができると共に、例えば、1つ又は複数のパラメトリック方程式によって定義することができる。ポイントクラウドの所与の3D部分と関連する2Dパラメータ化は、所与の3D部分の幾何学的特性(例えば、所与の3D部分の極値ポイント及び/又は3D部分内において配置されたポイントから得られる所与の3D部分内に含まれているオブジェクトの部分の外部表面の要素と関連する法線情報)及び(例えば、2Dパラメータ化を方向付けるための)取得装置のポーズ情報を考慮することにより、判定される。3D部分の幾何学的特性及びポーズ情報を考慮することにより、3D部分に対向している空間内において配置されている2Dパラメータ化、即ち、取得装置とポイントクラウドとの間に配置されている2Dパラメータ化、を取得することが可能となる。
図4において観察されうるように、2Dパラメータ化41、42、及び43は、互いにオーバーラップしていてもよく、このオーバーラップは、例えば、2Dパラメータ化が関連している3D部分のオーバーラップに起因したものである。
3D部分を取得するべく、ポイントクラウドを異なる方法に従ってパーティション化することができる。例えば、ポイントクラウドは、図8A~図8Dの例に従ってパーティション化することができる。図8Aの非限定的な例によれば、ポイントクラウドによって占有されている3D空間81(例えば、半球体)は、球面座標(r,θ,φ)に従って、即ち、半球体の半径に対応する距離「r」及び角度「θ」及び「φ」に従って、パーティション化されており、それぞれの次元「r」、「θ」、及び「φ」が、均等にパーティション化されている。一変形によれば、次元「r」、「θ」、及び「φ」のうちの1つ又は複数は、変化してもよく、例えば、3D部分の深度が、次元「r」に伴って変化しうる。一変形によれば、それぞれの3D部分のサイズは、ポイントクラウドのポイントを3D部分内に均一に分散させるように、判定されており、3Dポイントのサイズは、ポイントクラウドによって占有されている空間の異なるエリア内のポイントの局所的密度に依存している。図8Bの例においては、ポイントクラウドによって占有されている3D空間82(例えば、半球体)は、千鳥状の方式により、球面座標(r,θ,φ)に従ってパーティション化されている。図8A及び図8Bの例においては、3D部分は、ビューカメラの錐台容積として見なすことができる。図8Cの非限定的な例によれば、ポイントクラウドによって占有されている3D空間83(例えば、ポイントクラウドの境界を定めるボックスに対応した平行六面体)は、デカルト座標(x,y,z)に従って、即ち、3Dデカルト基準フレームの3つ次元に従って、パーティション化されている。それぞれの3D部分は、立方体の、或いは、矩形の平行六面体の、形態を有することができる。例えば、ポイントをすべての3D部分内に均一に分散させるべく、それぞれの3D部分は、同一のサイズを有していてもよく、或いは、3D部分は、異なるサイズを有していてもよい。図8Dは、平行六面体が、ポイントクラウドによって占有されている3D空間84内において千鳥状の方式によって分散している、図8Cのパーティション化の一変形を示している。図8A、図8B、図8C、及び図8Dには示されていない場合にも、ポイントクラウドのパーティション化の結果として得られる3D部分は、部分的に互いにオーバーラップしていてもよく、これは、ポイントクラウドの空間のいくつかの部分がいくつかの3D部分に属しうることを意味している。ポイントクラウドのパーティション化は、固定されたものであってもよく、或いは、時間に伴って変化することもできる。例えば、ポイントクラウドのパーティション化は、GOP(Group Of Picture)の間において変化することができる。MPEG-DASH(Dynamic Adaptive Streaming over HTTP)の文脈において適用される際には、パーティション化は、セグメントの間において変化してもよく、且つ、ISOBMFF規格の枠組みにおいては、このセグメントは、ISOBMFFセグメントであってよい。
図5は、本原理の非限定的な例による、フレームi、並びに、時間的にフレームiの後に配置されたフレームj、における、ポイントクラウドの3D部分との間における深度マップ及び色マップの関連付けを示している。オブジェクト5を表す3Dポイントクラウド(図5の例における人物)は、グレーのシェードで示されている。オブジェクト5のパーティション化51は、図8Aの例、即ち、球面座標によるパーティション化、に対応しており、隣接する3D部分の間の部分的なオーバーラップを伴っている。わかりやすさを目的として、ポイントクラウド及びそのパーティション化は、θ及びφのみに従って、2Dにおいて表されている。パーティション化から結果的に得られる3D部分は、マトリックス方式において配列された正方形5100、5110、51mnによって示されており、この場合に、「m」は、行インデックスに対応し、且つ、「n」」は、列インデックスに対応している。例えば、参照符号5100は、インデックス「0」を有する行に、且つ、インデックス「1」を有する列に、属する正方形を指し示しており、且つ、参照符号数5110は、インデックス「1」を有する行に、且つ、インデックス「0」を有する列に、属する正方形を指し示している。1つの深度マップは、ポイントクラウド5のそれぞれの3D部分と関連付けられている。同じ方式により、1つの色マップも、ポイントクラウド5のそれぞれの3D部分と関連付けられている。
例えば、3D部分5110などの、所与の3D部分と関連する深度マップは、所与の3D部分5110と関連する2Dパラメータ化のパラメータを使用することにより、取得され、且つ、深度マップ5320は、3D部分5320と関連する2Dパラメータ化のパラメータを使用することにより、取得される。例えば、2Dパラメータ化が、線形透視投影に対応している際には、2Dパラメータ化を表すパラメータは、視点の場所(例えば、3D部分内に含まれているポイントクラウドのポイントと関連する法線から取得することができる)(即ち、仮想的カメラの場所)及び水平方向及び垂直方向の視野である。深度マップ内において保存される深度情報は、例えば、(線形透視投影のケースにおいて)ワールドスペース内のポイントの座標及び視点の座標を知ることにより、線形透視のケースにおける視点又は正投影のケースにおける投影表面に対する垂線から始まり、且つ、3D部分内に含まれているポイントクラウドのポイントにおいて終わる、光線に沿った、線形透視のケースにおける仮想的カメラの場所又は正投影のケースにおける2D投影表面と3D部分内に含まれているポイントクラウドのポイントの間の距離に対応しうる。オブジェクトが、ポイントクラウドのポイントから得られるその陰関数表面によって表されている際には、深度マップ内において保存される距離は、一方においては、光線と2Dパラメータ化表面の間の交差点と、他方においては、光線と陰関数表面の間の交差点との間の距離に対応している。深度情報の数は、サンプリングステップサイズに依存する2Dパラメータ化表面の分解能に依存しうる。深度マップは、例えば、スプラットレンダリング技法を適用することにより、取得され、即ち、ポイントと関連する深度値は、このポイントと関連する2Dパラメータ化表面のサンプル(このサンプルは、例えば、線形透視投影、正投影、又はLLEなどの、使用される2Dパラメータ化のタイプに依存している)に、且つ、交差したサンプルの近傍に配置されているサンプル(これらのサンプルは、スプラットを形成している)に、割り当てられる。一変形によれば、深度マップは、光線追跡技法を適用することにより、即ち、2Dパラメータ化表面のサンプルから光線を発射することにより、且つ、この所与のサンプルから発射された光線が交差するポイント(或いは、光線に最も近接したポイント)と関連する深度値に対応する深度値を所与のサンプルに割り当てることにより、取得される。
深度情報のコーディングは、第1のパッチアトラス53内において、深度マップの間において変化することができる。例えば、所与の深度マップ用の深度情報のコーディングは、所与の深度マップと関連する3D部分用の深度値の範囲に対して、及び/又は、3D部分内に含まれているポイントの数に対して、適合させることができる。例えば、3D部分について演算された最小深度値及び最大深度値に応じて、対応する深度マップ内の深度情報のコーディングは、これらの最小及び最大値の間の差に対して適合するように、判定される。差が小さい場合には、深度情報は、例えば、8又は10ビット上において、コーディングされてもよく、且つ、差が大きい場合には、深度情報は、例えば、12個、14個、又はこれらよりも大きな数のビット上において、コーディングされてもよい。深度マップの間においてコーディングを変化させることにより、ビットレートコーディングを最適化することが可能となる。一変形によれば、深度情報は、それぞれの3Dマップごとに、最小及び最大深度値の間の差とは無関係に、但し、最小及び最大値を考慮することにより、同一のビット深度(例えば、8、10、12、又は14ビット)において、コーディングされている。このような変形によれば、差が小さい際に、定量化ステップを減少させることが可能となり、その結果、深度情報のコーディングと関連する定量化ノイズを減少させることが可能となる。
同様の方式により、所与の3D部分と関連する色マップも、所与の3D部分と関連する2Dパラメータ化のパラメータを使用することにより、取得される。所与の3D部分内に含まれているポイントクラウドのポイントから取得された色情報又は視点から投影された光線が交差するオブジェクトの陰関数表面から取得された色情報は、色マップを形成するべく、2Dパラメータ化表面のサンプルと関連付けられる。深度マップと同様に、色マップは、例えば、スプラットレンダリング技法を適用することにより、取得され、即ち、ポイントと関連する色値は、このポイントと関連する2Dパラメータ化表面のサンプル(このサンプルは、例えば、線形透視投影、正投影、又はLLEなどの、使用されている2Dパラメータ化のタイプに依存している)に、且つ、交差したサンプルの近傍に配置されているサンプル(これらのサンプルは、スプラットを形成している)にも、割り当てられる。一変形によれば、色マップは、光線追跡技法を適用することにより、即ち、2Dパラメータ化表面のサンプルから光線を発射することにより、且つ、この所与のサンプルから発射された光線が交差するポイント(或いは、光線に最も近接したポイント)と関連する色値に対応する色値を所与のサンプルに割り当てることにより、取得される。深度情報と同様に、所与の色マップ用の色情報のコーディングは、所与の色マップと関連する3D部分用の色値の範囲に対して、及び/又は、3D部分内に含まれているポイントの数に対して、適合させることができる。例えば、3D部分について演算された最小色値及び最大色値に応じて、対応する色マップ内の色情報のコーディングは、これらの最小及び最大値の間の差に対して適合するように、判定される。差が小さい場合には、色情報は、例えば、8又は10ビット上において、コーディングされてもよく、且つ、差が大きい場合には、色情報は、例えば、12個、14個、又はこれらを上回る数のビット上において、コーディングすることができる。色マップの間においてコーディングを変化させることにより、ビットレートコーディングを最適化することが可能となる。一変形によれば、色情報は、最小及び最大色値の間の差とは無関係により、但し、最小及び最大値を考慮することにより、それぞれの色マップごとに、同一のビット深度(例えば、8、10、12、又は14ビット)において、コーディングされている。このような変形によれば、差が小さい際には、定量化ステップを減少させることが可能となり、その結果、ポイントクラウドによって表されるオブジェクトのHDR(High Dynamic Range)表現を取得するべく使用されうる、相対的に大きな色のダイナミックレンジ又は相対的に大きなルミナンスレンジが可能となる。
取得された深度マップの組は、例えば、行及び列を有するマトリックスの方式などの、判定された又はランダムな配列に従って、第1のパッチアトラス53内において配列され、この場合に、第1のパッチアトラス53の1つのパッチは、1つの深度マップに対応している。例えば、パッチ531は、3D部分5110と関連する深度マップである。
同一の方式により、取得された色マップの組も、例えば、第1のパッチアトラス53内の深度マップと同一の配列に従って、第2のパッチアトラス54内において配列される。
2Dパラメータ化とそれぞれ第1及び第2のパッチアトラス内の関連する深度マップ及び色マップの間の接続を維持するべく、第1のマッピング情報を生成することができる。第1のマッピング情報は、例えば、
{2Dパラメータ化のパラメータ;深度マップID;色マップID}
という形態を有していてもよく、この場合に、深度マップIDは、第1のパッチアトラスのパッチのマトリックス内の、深度マップが属する、列インデックスU及び行インデックスVを有する整数値又は値のペアであってよく、色マップIDは、第2のパッチアトラスのパッチのマトリックス内の、色マップが属する、列インデックスU’及び行インデックスV’を有する整数値又は値のペアであってよい。
深度マップ及び色マップが、第1のパッチアトラス及び第2のパッチアトラス内において同一の配列に従って配列される際には、深度マップID及び色マップIDは、同一であり、且つ、第1のマッピング情報は、例えば、
{2Dパラメータ化のパラメータ;深度及び色マップID}
という形態を有していてもよく、この場合に、「深度及び色マップID」は、深度及び色マップの両方と関連する同一の整数を介して、或いは、それぞれ第1のパッチアトラス及び第2のパッチアトラス内の、深度及び色マップが属する、列インデックスU及び行インデックスVの値のペアを介して、第1のパッチアトラス内の深度マップ及び第2のマップトラス内の色マップの両方を識別している。
それぞれの2Dパラメータ化及び関連する深度及び色マップごとに、同一のマッピング情報が生成される。このような第1のマッピング情報により、対応する深度及び色マップとの2Dパラメータ化の関連付けを確立することによるポイントクラウドの再構築が可能となる。2Dパラメータ化が投影である場合には、ポイントクラウドは、関連する深度マップ内に含まれている深度情報及び関連する色マップ内の色情報を逆投影する(インバース投影を実行する)ことにより、再構築することができる。この結果、第1のマッピング情報は、マッピング情報のリストに対応しており、
{2Dパラメータ化のパラメータ;深度及び色マップID}i
ここで、i=1~nであり、nは、2Dパラメータ化の数である。
第1のパッチアトラス53及び第2のパッチアトラスは、同一の分解能を有する、即ち、K列及びL行を有するマトリックス方式で配列された同一の数のピクセルを有する、画像として見なされてもよく、この場合に、K及びLは、整数である。(第1のパッチアトラス53用の深度マップ又は第2のパッチアトラス54用の色マップに対応している)それぞれのパッチは、第1のパッチアトラス53又は第2のパッチアトラスを表す画像のピクセルのサブセットを有する。
任意選択の一変形によれば、第2のマッピング情報が、第1のパッチアトラス53又は第2のパッチアトラス54を表す画像のピクセルと関連付けられてもよく、第2のマッピング情報は、有利には、第1のパッチアトラス53を表す画像及び第2のパッチアトラス54を表す画像に共通しており、分解能は、両方の画像について同一であり、且つ、同一の2Dパラメータ化を参照しているパッチは、第1及び第2のパッチアトラスの両方において同一の配列に従って組織化されている。第2のマッピング情報は、第1のパッチアトラス(或いは、第2のパッチアトラス)を表す画像のそれぞれのピクセル又はピクセルのそれぞれのグループが参照している又は関連付けられている2Dパラメータ化を通知している。この目的を実現するべく、識別情報(例えば、それぞれの2Dパラメータ化ごとに異なる整数値)が、それぞれの2Dパラメータ化と関連付けられている。第2のマッピング情報は、例えば、行及び列において配列されたセルのマップの形態を有していてもよく、それぞれのセルは、画像のピクセル又はピクセルのグループに対応しており、且つ、対応する2Dパラメータ化の識別情報を有する。別の例によれば、第2のマッピング情報は、第1/第2のパッチアトラスを表す画像のそれぞれのピクセル又はピクセルのそれぞれのグループごとに、例えば、
{3D部分の識別;ピクセル又はピクセルのグループの識別}
という形態の、リストに対応している。第2のマッピング情報よれば、画像のそれぞれのピクセルごとに生じることになる、それぞれの3D部分と関連する識別情報の取得を容易化することにより、デコーダ/被レンダリング側における情報のデコーディングを加速させることが可能となる。デコーダの通常の実装形態は、リストのブラウジングを回避しなければならないGPU(Graphical Processing Unit)上における画像のそれぞれのピクセルごとのこの取得の並行的な実装を必要としている。この任意選択の変形によれば、この第2のマッピング情報は、色及び深度画像よりも低い分解能を通常は有する画像であり、この場合に、それぞれのピクセルは、ピクセル/ポイントが属するそれぞれの3D部分と関連する識別情報を直接的に付与している。
オブジェクト5のパーティション化は、例えば、GOPとその他の後続のGOPの間などのように時間に伴って、或いは、オブジェクト5のトポロジーが変化した際に、或いは、q個のフレームごとに、変化してもよく、この場合に、qは、1以上の整数である。このようなパーティション化の変動は、フレームjを伴って、図5に示されている。フレームjにおけるオブジェクト5のパーティション化52は、フレームiにおける同一のオブジェクト5のパーティション化51と異なっている。図5の例においては、フレームjにおけるオブジェクト5のトポロジーは、フレームiにおけるオブジェクト5のトポロジーと異なっている。フレームjは、例えば、フレームiを有するGOPに時間的に後続するGOPに属しうる。3D部分に関連し、2Dパラメータ化に対応する深度マップを有する第1のパッチアトラス55は、フレームiとの関係において記述されているように、パーティション化の結果として、且つ、3D部分内に含まれているポイントのジオメトリを表すデータ(例えば、座標)の結果として、得られる3D部分と関連する2Dパラメータ化を表すパラメータを使用することにより、取得される。パーティション化52の結果として得られる3D部分の数は、パーティション化51の結果として得られる3D部分の数未満であることから、第1のパッチアトラス55内の深度マップの数は、第1のパッチアトラス53内に含まれている深度マップの数を下回っている。同一の方式により、3D部分に関連し、2Dパラメータ化に対応する色マップを有する第2のパッチアトラス56も、フレームiとの関連において記述されているように、パーティション化52の結果として、且つ、3D部分内に含まれているポイントのジオメトリ(例えば、座標)を表すデータの結果として、得られる3D部分と関連する2Dパラメータ化を表すパラメータを使用することにより、取得される。パーティション化52の結果として得られる3D部分の数は、パーティション化51の結果として得られる3D部分の数未満であることから、第2のパッチアトラス56内の色マップの数は、第2のパッチアトラス54内に含まれている深度マップの数を下回っている。
図6は、オブジェクト5を表すポイントクラウドの3D部分と関連する第1又は第2のパッチアトラスの更なる非限定的な例を示している。図6は、例えば、図5のパーティション化51に対応するポイントクラウドの第1のパーティション化61と、同一のポイントクラウドの第2のパーティション化62と、を示している。第1のパッチアトラス63が、第1のパーティション化61から生成され、第1のパッチアトラス63は、パーティション化61から結果的に得られる3D部分と関連する2Dパラメータ化から得られた深度マップを有する。第2のパッチアトラス64が、第1のパーティション化61から生成され、第2のパッチアトラス64は、パーティション化61から結果的に得られる3D部分と関連する2Dパラメータ化から得られる色マップを有する。
第2のパーティション化62は、第1のパーティション化61の3D部分のいくつかが、第2のパーティション化62の単一の3D部分内にグループ化されている、という意味において、第1のパーティション化61とは異なっている。例えば、人物の胴体を表す第1のパーティション化61の6個の3D部分が、第2のパーティション化62内の1つの3D部分622を形成するべく、グループ化されている。同一の方式により、人物の肩及び腕の部分を表す第1のパーティション化61の4個の3D部分が、第2のパーティション化62内の1つの3D部分621を形成するべく、グループ化されている。これらの3D部分は、例えば、3D部分内に含まれているポイントクラウドのポイントと関連する幾何学的特性に従ってグループ化されている。例えば、3D部分は、これらの3D部分のそれぞれ内に含まれているポイントから得られる陰関数表面が、例えば、互いに近接した法線及び/又は互いに近接した関連する深度値の範囲などの、類似のトポロジーを有している際に、1つにグループ化することができる。
第1のパッチアトラス65が、第1のパーティション化62から生成されており、第1のパッチアトラス65は、第2のパーティション化62の結果として得られる3D部分と関連する2Dパラメータ化から得られた深度マップを有する。図6に示されているように、第1のパッチアトラス65内の深度マップの形状及び数は、第1のパッチアトラス63内の深度マップの形状及び数とは異なっている。3D部分621、622の2Dパラメータ化と関連する深度マップ651、652のいくつかは、第1のパッチアトラス63内の対応する深度マップとの比較において、サイズが異なっている。同一の方式により、第2のパッチアトラス66も、第2のパーティション化62から生成され、第2のパッチアトラス66は、第2のパーティション化62の結果として得られる3D部分と関連する2Dパラメータ化から得られる色マップを有する。第2のパッチアトラス66内の色マップの数は、第1のパーティション化62を取得するための第1のパーティション化61の3D部分のグループ化の後に、第2のパッチアトラス64内の色マップの数を下回っている。このグループ化により、パッチの数と、従って、鋭い境界及び高空間周波数情報の数、の低減が可能となる。これを低減することにより、色及び深度マップの圧縮ビットレートが低下する。
図7は、本原理の非限定的な例による、オブジェクト5を表すポイントクラウドの3D部分からの第1及び第2のパッチアトラスの生成を示している。
オブジェクト5を表すポイントクラウドが、例えば、50個、100個、1000個、或いは、更に大きな数の3D部分などの、複数の3D部分にパーティション化されており、図7には、これらのうちの3つのみ、即ち、3D部分71、72、及び73、が示されており、3D部分71は、人物の頭部の部分を表すポイントクラウドのポイントを有し、3D部分72は、人物の腋窩を表すポイントクラウドのポイントを有し、且つ、3D部分73は、人物の手を表すポイントクラウドのポイントを有する。それぞれの3D部分の、或いは、3D部分の一部分の、1つ又は複数の2Dパラメータ化が、2つの次元においてそれぞれの3D部分を表すように、生成されている。例えば、2Dパラメータ化701が、3D部分71について取得され、2Dパラメータ化702が、3D部分72について取得され、且つ、2つの異なる2Dパラメータ化703及び704が、3D部分73について取得されている。2Dパラメータ化は、3D部分の間において変化してもよい。例えば、3D部分71と関連する2Dパラメータ化701は、線形透視投影である一方で、3D部分72と関連する2Dパラメータ化702は、LLEであり、且つ、3D部分73と関連する2Dパラメータ化703及び704は、両方とも、異なる視点による正投影である。2Dパラメータ化を取得するべく使用されるすべての視点は、オブジェクト5の画像を取得するべく、且つ、関連するポイントクラウドを取得するべく、使用される取得装置の視点の範囲内に配置されるように、選択されている。一変形によれば、すべての3D部分と関連するすべての2Dパラメータ化は、例えば、線形透視投影又は正投影などの、同一のタイプを有する。一変形によれば、異なる2Dパラメータ化が、同一の3D部分について使用されてもよい。取得された2Dパラメータ化と関連する深度マップを収集した第1のパッチアトラス74が、図5及び図6との関連において説明されているように、生成される。第1のパッチアトラスは、その他の深度マップに加えて、2Dパラメータ化701と関連する深度マップ741、2Dパラメータ化702と関連する深度マップ742、2Dパラメータ化703と関連する深度マップ743、及び2Dパラメータ化704と関連する深度マップ744を有する。取得された2Dパラメータ化と関連する色マップを収集した第2のパッチアトラス75が、図5及び図6との関連において説明されているように、生成される。
それぞれの3D部分用の2Dパラメータ化の選択肢は、例えば、第1及び第2のパッチアトラス内のマップの数を低減するべく、及び/又は、3Dから2D変換プロセスにおいて失われることになる3D部分のポイントを極小化するべく、例えば、最適化プロセスに基づいている。
それぞれの深度又は色マップは、有利には、第1のパッチアトラス及び第2のパッチアトラスに対するパッキングプロセスを容易化するように、矩形の形状を有する。
それぞれ第1のパッチアトラス及び第2のパッチアトラス内の深度マップ及び色マップは、鋭い視覚的境界において発生する圧縮アーチファクトを除去するべくデコーダ側において破棄される境界によって分離されることになる。例えば、深度/色マップの幅及び高さなどの、ポイントクラウドの再生成のためにデコーダ側において深度及び色マップについて取得するべき正確な情報の部分は、例えば、線形透過又は正投影のケースにおけるピクセルにおいて表現された投影表面の2つの次元におけるスパンを付与するパラメータのような、2Dパラメータ化パラメータのいくつかにより、提供される。
一変形によれば、第1のパッチアトラス及び第2のパッチアトラスは、単一のパッチアトラスを形成しており、マッピング情報は、同一の3D部分と関連する深度マップ及び色マップの取得を可能にする情報を有する。
図12は、本原理の非限定的な一実施形態による、例えば、(図9との関連において記述されている)装置9において実装されるシーンのオブジェクトを表すデータを有するストリームを生成する方法を示している。
ステップ1200において、装置9の様々なパラメータが更新されている。具体的には、オブジェクトの表現と関連するデータが、任意の方式により、初期化されている。
動作1201において、視点の範囲から観察されるオブジェクトを表す3Dポイントクラウドが、例えば、5個、10個、50個、100個、1000個、又はこれらよりも多くの数の3D部分などの、複数の3D部分に、パーティション化されており、これらのそれぞれは、3Dポイントクラウドの1つ又は複数のポイントを有する。オブジェクト(或いは、オブジェクトの一部分)を表す3Dポイントクラウドのポイントと関連するデータが、取得されており、即ち、例えば、(例えば、インターネット又はローカルエリアネットワークなどのネットワークを介して)装置9のローカルメモリ又はサーバーなどのリモートストレージ装置などのメモリ装置から、受け取られている。別の例によれば、データは、オブジェクトを有するシーンの1つ又は複数のビューを取得するべく使用される1つ又は複数の取得装置から、受け取られている。データは、例えば、色情報(或いは、テキスチャ情報)と、距離情報(例えば、考慮対象のポイントと考慮対象のポイントと関連する視点、即ち、考慮対象のポイントを取得するべく使用される取得装置の視点、の間の距離に対応した深度又は高さ)と、を有する。
動作1202において、深度マップの集合体を有する第1のパッチアトラスが、3Dポイントクラウドの1つの3D部分とそれぞれが関連している2Dパラメータ化を表すパラメータから、且つ、2Dパラメータ化が関連している3D部分内に含まれているポイントと関連する幾何学的情報から、判定されている。それぞれの深度マップは、第1のパッチアトラスのパッチに対応しており、且つ、ポイントクラウドの1つの3D部分の1つの2Dパラメータ化と関連している。3D部分と関連する2Dパラメータ化は、前記3D部分内に含まれているポイントと関連する幾何学的データから取得された3D陰関数表面の2Dピクセル/サンプル表現であり、オブジェクトの空間内の2Dパラメータ化の場所及び2Dパラメータ化と関連する視点は、ポイントクラウドが観察されている視点の範囲と関連するポーズ情報に従っている。2Dパラメータ化は、ポイントクラウドによって表されているオブジェクトの表面と視点の範囲の間となるような方式によって配置されており、即ち、2Dパラメータ化によって取得される2D表現は、それが関連付けられている3D部分と対向している。1つ又は複数の2Dパラメータ化が、ポイントクラウドのそれぞれの3D部分ごとに、且つ、それぞれの3D部分の一部分についてのみ、生成される。1つの深度マップが、それぞれの生成された2Dパラメータ化ごとに生成され、且つ、従って、生成された深度マップは、画像内において収集され、且つ、第1のパッチアトラスの形態の下において配列される。データが、第1のパッチアトラスのピクセルと関連付けられている際には、このデータは、距離又は深度情報に対応している。例えば、2つのパッチの間に配置されているピクセルの場合などのように、第1のパッチアトラスのいくつかのピクセルは、自身と関連する情報を有してはいない。
動作1203において、色マップの集合体を有する第2のパッチアトラスが、3Dポイントクラウドの1つの3D部分とそれぞれが関連している2Dパラメータ化を表すパラメータから、且つ、2Dパラメータ化が関連している3D部分内に含まれているポイントと関連している幾何学的情報から、判定される。それぞれの色マップは、第2のパッチアトラスの1つのパッチに対応しており、且つ、ポイントクラウドの1つの3D部分の1つの2Dパラメータ化と関連付けられている。1つの色マップが、それぞれの生成された2Dパラメータ化ごとに生成され、且つ、従って、生成された色マップは、画像内において収集され、且つ、第2のパッチアトラスの形態の下において配列される。データが第2のパッチアトラスのピクセルと関連付けられている際には、このデータは、色(例えば、赤色、緑色、青色、又はシアン、マゼンタ、黄色、黒色)情報に対応している。例えば、2つのパッチの間に配置されているピクセルの場合などのように、第1のパッチアトラスのいくつかのピクセルは、自身と関連する情報を有してはいない。
第1のパッチアトラスの異なる深度マップ及び第2のパッチアトラスの異なる色マップは、ポイントクラウドの1つの3D部分に対応するそれぞれの2Dパラメータ化と関連付けられている。所与の2Dパラメータ化と関連する深度マップ及び色マップは、それぞれ第1のパッチアトラス及び第2のパッチアトラス内において同一の場所(例えば、同一の行、同一の列)において配列される。一変形によれば、所与の2Dパラメータ化と関連する深度マップ及び色マップは、それぞれ第1のパッチアトラス及び第2のパッチアトラス内において(例えば、行インデックス及び列インデックスによって表現された)異なる場所において配列されている。
動作1204において、第1のパッチアトラスを表すデータ、第2のパッチアトラスを表すデータ、2Dパラメータ化を表すパラメータ、及び第1のマッピング情報を有するデータストリームが生成されている。第1のマッピング情報により、2Dパラメータ化とそれぞれ第1のパッチアトラス及び第2のパッチアトラス内のその関連する深度マップ及び色マップの間の対応性情報を取得することが可能となる。
図13は、図12の方法によって取得されたストリームからオブジェクトを表すポイントクラウドを表すデータを取得する方法を示している。方法は、例えば、本原理の非限定的な一実施形態に従って、(図9との関連において記述されている)装置9内において実装される。
動作1300において、装置9の様々なパラメータが更新されている。具体的には、オブジェクトの少なくとも1つの部分の表現と関連するデータが、任意の方式により、初期化されている。
動作1301において、それぞれの2Dパラメータ化を表すパラメータが、データストリームから取得されており、このようなストリームの構造の一例については、図11との関連において説明する。
動作1302において、ステップ1301において取得された第2のパラメータ化と関連する深度マップを有する第1のパッチアトラスを表すデータが、データストリームから取得されている。第1のパッチアトラスを表すデータは、例えば、動作1202において取得されたデータに対応している。
動作1303において、ステップ1301において取得された2Dパラメータ化と関連する色マップを有する第2のパッチアトラスを表すデータが、データストリームから取得されている。第2のパッチアトラスを表すデータは、例えば、動作1203において取得されたデータに対応している。
動作1304において、ポイントクラウドのポイントと関連するデータが、動作1301において取得された2Dパラメータ化のパラメータ、動作1302において取得された第1のパッチアトラスのデータ、及びステップ1303において取得された第2のパッチアトラスのデータから取得されており、所与の2Dパラメータ化と第1のパッチアトラス内のその対応する深度マップ及び第2のパッチアトラス内の対応する色マップの関連付けは、データストリーム内に含まれている第1のマッピング情報から取得されている。ポイントは、2Dパラメータ化によって取得された2D表面のサンプル/ピクセルに対して、2Dパラメータ化を取得するべく使用されたものとは逆の動作(例えば、逆投影又は逆LLE)を実行することにより、取得される。
任意選択の動作において、2Dパラメータ化及び関連する第1のパッチアトラス及び第2のパッチアトラスによって表されているオブジェクトの画像が、ストリーム1100内に含まれうる位置情報によって制約されている視点から、レンダリングされ、この場合に、位置情報は、例えば、ポイントクラウドが観察されている視点の範囲に対応している。例えば、取得されたポイントクラウドのポイントに対してスプラットレンダリング技法を適用することにより、オブジェクトの外部表面を取得することができる。一変形においては、ストリームが、フレームのシーケンス(即ち、画像)について、オブジェクト又はその一部分を表す情報を有している際には、画像のシーケンスがレンダリングされる。
図9は、図12及び/又は図13との関係において説明した方法を実装するように構成されうる装置9の例示用のアーキテクチャを示している。
装置9は、
-例えば、DSP(即ち、Digital Signal Processor)である、マイクロプロセッサ92、
-ROM(即ち、Read Only Memory)93、
-RAM(即ち、Random Access Memory)94、
-ストレージインターフェイス95、
-アプリケーションからのデータの受信及び送信のためのI/Oインターフェイス96、及び、
-例えば、電池などの電源、
という、データ及びアドレスバス91によって1つにリンクされた要素を有する。
一例によれば、電源は、装置の外部に位置している。言及されているメモリのそれぞれにおいて、本明細書において使用されている「レジスタ」という用語は、小さな容量のエリア(数ビット)に、或いは、非常に大きなエリア(例えば、プログラムの全体、或いは、受け取られた又はデコーディングされた大量のデータ)に、対応しうる。ROM93は、少なくとも、プログラム及びパラメータを有する。ROM93は、本原理に従って技法を実行するべく、アルゴリズム及び命令を保存することができる。スイッチオンされた際に、CPU92は、プログラムをRAM内にアップロードし、且つ、対応する命令を実行する。
RAM94は、CPU92によって実行される且つ装置9のスイッチオンの後にアップロードされるプログラムをレジスタ内において有し、入力データをレジスタ内において有し、方法の異なる状態における中間データをレジスタ内において有し、且つ、方法の実行のために使用されるその他の変数をレジスタ内において有する。
本明細書において記述されている実装形態は、例えば、方法又はプロセス、装置、コンピュータプログラムプロダクト、データストリーム、又は信号において実装することができる。単一の実装の形態の文脈においてのみ記述されている(例えば、方法又は装置としてのみ記述されている)場合にも、記述されている特徴の実装形態は、その他の形態(例えば、プログラム)において実装することができる。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアにおいて実装することができる。例えば、方法は、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能な論理装置を含む、一般に処理装置を意味する、例えば、プロセッサなどの、装置において実装することができる。また、プロセッサは、例えば、コンピュータ、セル電話機、携帯型/個人用デジタルアシスタント(「PDA:Personal Digital Assistant」)、及びエンドユーザーの間の情報の通信を促進するその他の装置などの、通信装置を含む。
エンコーディング又はエンコーダの一例によれば、第1、第2、第3、及び/又は第4のシンタックス要素がソースから取得されている。例えば、ソースは、
-例えば、ビデオメモリ又はRAM(即ち、Random Access Memory)、フラッシュメモリ、ROM(即ち、Read Only Memory)、ハードディスクなどの、ローカルメモリ(93又は94)、
-例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光ディスク、又は磁気サポートとのインターフェイスなどの、ストレージインターフェイス(95)、
-例えば、有線インターフェイス(例えば、バスインターフェイス、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス)、或いは、無線インターフェイス(IEEE802.11インターフェイス又はBluetooth(登録商標)インターフェイスなど)などの、通信インターフェイス(96)、及び、
-ユーザーがデータを入力することを可能にするグラフィカルユーザーインターフェイスなどのユーザーインターフェイス、
を有する組に属する。
デコーディング又はデコーダの例によれば、第1、第2、及び/又は第3の情報は、宛先に送信され、具体的に、宛先は、
-例えば、ビデオメモリ又はRAM、フラッシュメモリ、ハードディスクなどの、ローカルメモリ(93又は94)、
-例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光ディスク、又は磁気サポートとのインターフェイスなどの、ストレージインターフェイス(95)、及び、
-例えば、有線インターフェイス(例えば、バスインターフェイス(例えば、USB(即ち、Universal Serial Bus))、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス、HDMI(High Definition Multimedia Interface)インターフェイス)、或いは、無線インターフェイス(IEEE802.11インターフェイス、WiFi(登録商標)又はBluetooth(C)インターフェイスなど)などの、通信インターフェイス(96)、
を有する組に属する。
エンコーディング又他はエンコーダの例によれば、オブジェクトを表すデータを有するビットストリームが、宛先に送信されている。一例として、ビットストリームは、例えば、ビデオメモリ(94)又はRAM(94)、ハードディスク(93)などの、ローカル又はリモートメモリ内において保存されている。一変形においては、ビットストリームは、例えば、マスストレージ、フラッシュメモリ、ROM、光ディスク、又は磁気サポートとのインターフェイスなどの、ストレージインターフェイス(95)に送信され、及び/又は、例えば、ポイントツーポイントリンク、通信バス、ポイントツーマルチポイントリンク、又はブローキャストネットワークに対するインターフェイスなどの、通信インターフェイス(96)上において送信されている。
デコーディング又はデコーダ又はレンダラの例によれば、ビットストリームは、ソースから取得される。例として、ビットストリームは、例えば、ビデオメモリ(94)、RAM(94)、ROM(93)、フラッシュメモリ(93)、又はハードディスク(93)などの、ローカルメモリから読み取られる。一変形においては、ビットストリームは、例えば、マスストレージ、RAM、ROM、フラッシュメモリ、光ディスク、又は磁気サポートとのインターフェースなどの、ストレージインターフェイス(95)から受け取られ、及び/又は、例えば、ポイントツーポイントリンク、バス、ポイントツーマルチポイントリンク、又はブロードキャストネットワークに対するインターフェイスなどの、通信インターフェイス(95)から受け取られている。
例によれば、装置9は、図12との関係において記述されている方法を実装するように構成されており、且つ、
-モバイル装置と、
-通信装置と、
-ゲーム装置と、
-タブレット(或いは、タブレットコンピュータ)と
-ラップトップと
-スチール写真カメラと、
-ビデオカメラと、
-エンコーディングチップと、
-サーバー(例えば、ブロードキャストサーバー、ビデオオンデマンドサーバー、又はウェブサーバー)と、
を有する組に属する。
例によれば、装置9は、図13との関係において記述されているレンダリング方法を実装するように構成されており、且つ、
-モバイル装置と、
-通信装置と、
-ゲーム装置と、
-セットトップボックスと、
-TVセットと、
-タブレット(或いは、タブレットコンピュータ)と、
-ラップトップと、
-(例えば、HMDなどの)ディスプレイと、
を有する組に属する。
図10に示されている例によれば、通信ネットワークNET1000上における(装置9のタイプの)2つのリモート装置1001及び1002の間の送信の文脈においては、装置1001は、図12との関係において記述されているストリームを生成する方法を実装するように構成された手段を有し、且つ、装置1002は、図13との関係において記述されている画像をレンダリングする方法を実装するように構成された手段を有する。
一例によれば、ネットワーク1000は、装置1001から、装置1002を含むデコーディング/レンダリング装置に、関連するオーディオ情報と共に、スチール写真又はビデオ写真をブロードキャストするように適合されたLAN又はWLANネットワークである。
図11は、データがパケットに基づいた送信プロトコル上において送信される際の、このような信号のシンタックスの一実施形態の一例を示している。図11は、没入型ビデオストリームの例示用の構造1100を示している。構造は、ストリームを独立的なシンタックス要素として組織化するコンテナを有する。構造は、ストリームのすべてのシンタックス要素に共通するデータの組であるヘッダ部分1101を有することができる。例えば、ヘッダ部分は、それぞれのシンタックス要素の特性及び役割を記述する、シンタックス要素に関するメタデータを収容している。また、ヘッダ部分は、第1のマッピング情報と、任意選択により、第2及び第3のマッピング情報と、を有することもできる。構造は、シンタックス要素1102、1103、1104を有するペイロードを有していてもよく、第1のシンタックス要素1102は、2Dパラメータ化を定義するパラメータに関連しており、第2のシンタックス要素は、第1のパッチアトラスを表すデータに関連しており、且つ、第3のシンタックス要素は、第2のパッチアトラスを表すデータに関連している。第1のパッチアトラスを表すデータは、それぞれの深度マップ内に含まれているピクセルに関する情報(深度マップの幅がピクセルの数を単位として表現され、深度マップの高さがピクセルの数を単位として表現される状態における、例えば、左上隅のピクセルの座標などの、例えば、深度マップの基準ピクセルの座標)を有することができる。第2のパッチアトラスを表すデータは、それぞれの色マップ内に含まれているピクセルに関する情報(深度マップの幅がピクセルの数を単位として表現され、且つ、色マップの高さがピクセルの数を単位として表現される状態において、例えば、左上隅のピクセルの座標などの、例えば、色マップの基準ピクセルの座標)を有することができる。任意選択の一変形によれば、第1のパッチアトラスを表すデータは、それぞれの深度マップ内に含まれている最小及び最大深度値に関する情報を更に有することができる。第2のパッチアトラスを表すデータは、それぞれの色マップ内に含まれている最小及び最大色値に関する情報を更に有することができる。
例示を目的として、ISOBMFFファイルフォーマット規格の文脈においては、色マップ、深度マップ、及びメタデータは、通常、色マップ及び深度マップデータ自体がmdatタイプのメディアデータボックス内において埋め込まれた状態において、MOOVタイプのボックスのISOBMFFトラック内において参照されることになろう。
当然のことながら、本開示は、上述の実施形態に限定されるものではない。
具体的には、本開示は、ストリームを生成する方法及び装置に限定されるものではなく、シーンのオブジェクトを表すデータを有するパケットをエンコーディング/デコーディングする方法にも、拡張され、且つ、この方法を実装する任意の装置、並びに、特に、少なくとも1つのCPU及び/又は少なくとも1つのGPUを有する任意の装置にも、拡張される。
また、本開示は、シーンのオブジェクトを表す情報を有するデータストリームからレンダリングされた画像を表示する方法(並びに、このように構成された装置)と、フラットビデオによってオブジェクトをレンダリング及び表示する方法(並びに、このように構成された装置)と、にも関する。
また、本開示は、ストリームを送信及び/又は受信する方法(並びに、このように構成された装置)にも関する。
本明細書において記述されている実装形態は、例えば、方法又はプロセス、装置、コンピュータプログラムプロダクト、データストリーム、又は信号において実装することができる。単一の実装の形態の文脈においてのみ記述されている(例えば、方法又は装置としてのみ記述されている)場合にも、記述されている特徴の実装は、その他の形態(例えば、プログラム)において実装することもできる。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアにおいて実装することができる。例えば、方法は、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能な論理装置を含む、一般に処理装置を参照する、例えば、プロセッサなどの、装置において実装することができる。また、プロセッサは、例えば、スマートフォン、タブレット、コンピュータ、携帯電話機、携帯型/個人用デジタルアシスタント(「PDA」)、及びエンドユーザーの間における情報の通信を促進するその他の装置などの、通信装置を含む。
本明細書において記述されている様々なプロセス及び特徴の実装形態は、特に、例えば、データエンコーディング、データデコーディング、ビュー生成、テクスチャ処理、並びに、画像及び関係するテクスチャ情報及び/又は深度情報のその他の処理と関連する機器又はアプリケーションなどの、様々な異なる機器又はアプリケーションにおいて実施することができる。このような機器の例は、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダに対して入力を提供するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバー、セットトップボックス、ラップトップ、パーソナルコンピュータ、セル電話機、PDA、及びその他の通信装置を含む。明らかとなるように、機器は、可動型であってよく、場合によっては、可動型の車両内において設置することもできる。
これに加えて、方法は、プロセッサによって実行される命令によって実装することができると共に、このような命令(並びに/或いは、実装によって生成されるデータ値)は、例えば、集積回路、ソフトウェアキャリア、或いは、例えば、ハードディスク、コンパクトディスケット(「CD:Compact Diskette」)、(例えば、デジタルバーサタイルディスク又はデジタルビデオディスクとしばしば呼称されるDVDなどの)光ディスク、ランダムアクセスメモリ(「RAM:Randome Access Memory」)、又は読み出し専用メモリ(「ROM:Read-Only Memory」)などの、その他のストレージ装置などの、プロセッサ可読媒体上において保存することができる。命令は、プロセッサ可読媒体上において有体の方式で実施されたアプリケーションプログラムを形成することができる。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、又は組合せ中にあってもよい。命令は、例えば、オペレーティングシステム、別個のアプリケーション、又はこれら2つのものの組合せにおいて見出すことができる。従って、プロセッサは、例えば、プロセスを実行するように構成された装置及び(ストレージ装置などの)プロセスを実行する命令を有するプロセッサ可読媒体を含む装置の両方として特徴付けることができる。更には、プロセッサ可読媒体は、命令に加えて、又はこの代わりに、実装によって生成されるデータ値を保存することもできる。
当業者には明らかとなるように、実装形態は、例えば、保存又は送信されうる情報を搬送するようにフォーマッティングされた様々な信号を生成することができる。情報は、例えば、方法を実行する命令又は記述されている実装形態のうちの1つによって生成されたデータを含むことができる。例えば、信号は、記述されている実施形態のシンタックスを書き込む又は読み取るための規則をデータとして搬送するように、或いは、記述されている実施形態によって書き込まれた実際のシンタックス値をデータとして搬送するように、フォーマッティングすることができる。このような信号は、例えば、(例えば、スペクトルの高周波部分を使用する)電磁波として、或いは、ベースバンド信号として、フォーマッティングすることができる。フォーマッティングは、例えば、データストリームをエンコードすることと、エンコーディングされたデータストリームによって搬送波を変調することと、を含むことができる。信号が搬送する情報は、例えば、アナログ又はデジタル情報であってよい。信号は、周知のように、様々な異なる有線又は無線リンク上において送信することができる。信号は、プロセッサ可読媒体上において保存することができる。
以上、いくつかの実装形態について説明した。但し、様々な変更が実施されうることを理解されたい。例えば、異なる実装形態の要素は、その他の実装形態を生成するべく、組み合わせられてもよく、補完されてもよく、変更されてもよく、或いは、除去されてもよい。これに加えて、当業者は、開示されているものは、その他の構造及びプロセスによって置換されてもよく、且つ、その結果得られる実装形態が、開示されている実装形態と少なくとも実質的に同一の結果を実現するべく、少なくとも実質的に同一の方式により、少なくとも実質的に同一の機能を実行することになることを理解するであろう。従って、これらの及びその他の実装形態は、本出願によって想定されている。
[付記1]
シーンのオブジェクトを表すデータを有するストリームを生成する方法であって、
-3次元ポイントクラウド(5)を前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分(71、72、73)にパーティション化すること(1201)であって、前記3次元ポイントクラウドは、視点の範囲から観察される前記オブジェクトを表している、ことと、
-前記複数の3次元部分(71、72、73)の少なくとも1つの部分のそれぞれの3次元部分ごとに、
・前記3次元部分と関連する2次元パラメータ化(701、702、703、704)であって、前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、前記視点の範囲と関連するポーズ情報に応答している2次元パラメータ化(701、702、703、704)を表すパラメータ及び前記3次元部分内に含まれている前記少なくとも1つのポイントと関連するデータに従って前記3次元部分と関連する深度マップ(741、742、743、744)を判定し、且つ、
・前記3次元部分内に含まれている前記少なくとも1つのポイントと関連する前記パラメータ及びデータに従って、前記3次元部分と関連する色マップを判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス(74)内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチに対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス(75)内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリーム(1100)を生成することと、
を有する方法。
[付記2]
シーンのオブジェクトを表すデータを有するストリームを生成するように構成された装置(9)であって、前記装置は、
-3次元ポイントクラウドを前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することであって、前記3次元ポイントクラウドは、視点の範囲から観察される前記オブジェクトを表している、ことと、
-前記複数の3次元部分の少なくとも1つの部分のそれぞれの3次元部分ごとに、
・前記3次元部分と関連する2次元パラメータ化であって、前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、前記視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータ及び前記3次元部分内に含まれている前記少なくとも1つのポイントと関連するデータに従って前記3次元部分と関連している深度マップ、並びに
・前記3次元部分内に含まれている前記少なくとも1つのポイントと関連する前記パラメータ及びデータに従って前記3次元部分と関連している色マップ、
を判定することであって、
前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチに対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリームを生成することと、
を行うように構成されている少なくとも1つのプロセッサ(92)と関連するメモリ(94)を有する装置。
[付記3]
複数の2次元パラメータ化は、前記複数の3次元部分の少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、付記1に記載の方法又は付記2に記載の装置。
[付記4]
前記ストリームは、前記3次元パッチを識別する情報とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する付記1若しくは3に記載の方法又は付記2若しくは3に記載の装置。
[付記5]
前記ポイントクラウドの前記パーティション化は、時間に伴って変化している付記1、3、若しくは4のいずれか1つに記載の方法又は付記2~4のいずれか1つに記載の装置。
[付記6]
シーンのオブジェクトを表すデータを搬送するストリームであって、
前記データは、
-視点の範囲から観察される前記オブジェクト(5)を表すポイントクラウドの3次元部分(71、72、73)の2次元パラメータ化(701、702、703、704)を表すパラメータであって、前記3次元部分内に含まれている前記ポイントクラウドのポイントと関連する幾何学的情報に従って、且つ、前記視点の範囲と関連するポーズ情報に従って、取得されるパラメータと、
-前記3次元部分(71、72、73)のうちの1つとそれぞれが関連付けられた、且つ、前記3次元部分(71、72、73)内に含まれている前記ポイントクラウドの前記ポイントと関連する前記パラメータ及びデータから判定された、複数の深度マップ(741、742、743、744)を有する第1のパッチアトラス(74)を表すデータと、
-前記3次元部分(71、72、73)のうちの1つとそれぞれが関連付けられた、且つ、前記3次元部分(71、72、73)内に含まれている前記ポイントクラウドの前記ポイントと関連する前記パラメータ及びデータから判定された、複数の色マップを有する第2のパッチアトラス(75)を表すデータと、
-前記2次元パラメータ化、前記第1のパッチアトラス内の前記深度マップ、及び前記第2のパッチアトラス内の前記色マップの間のマッピングを表す第1のマッピング情報と、
を有する、ストリーム。
[付記7]
複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、付記6に記載のストリーム。
[付記8]
前記ストリームは、前記3次元パッチを識別する情報とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する付記6又は7に記載のストリーム。
[付記9]
オブジェクトを表すデータを搬送するストリームから前記オブジェクトを表すポイントクラウドを取得する方法であって、
-前記ストリームから、視点の範囲から観察される前記オブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得すること(1301)と、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得すること(1302)と、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得すること(1303)と、
-前記2次元パラメータ化を表す前記パラメータからの前記オブジェクトを表す前記ポイントクラウドのポイントと関連するデータ、前記第1のパッチアトラス内の関連する深度マップのデータ、前記第2のパッチアトラス内の関連する色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報を取得すること(1304)と、
を有する方法。
[付記10]
オブジェクトを表すデータを搬送するストリームから前記オブジェクトを表すポイントクラウドを取得するように構成された装置であって、前記装置は、
-前記ストリームから、視点の範囲から観察される前記オブジェクトを表すポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
-前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
-前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラス内の関連している深度マップのデータ、前記第2のパッチアトラス内の関連している色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、前記オブジェクトを表す前記ポイントクラウドのポイントと関連するデータを取得することと、
を行うように構成されている少なくとも1つのプロセッサ(92)と関連しているメモリ(94)を有する装置。
[付記11]
複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、付記9に記載の方法又は付記10に記載の装置。
[付記12]
前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、付記9若しくは11に記載の方法又は付記10若しくは11に記載の装置。
[付記13]
前記オブジェクトを表す画像は、前記ポイントクラウドを表す前記取得済みのデータに従ってレンダリングされる、付記9、11、若しくは12のいずれか1つに記載の方法又は付記10~12のいずれか1つに記載の装置。
[付記14]
プロセッサが、少なくとも、付記1に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
[付記15]
プロセッサが、少なくとも、付記9に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。

Claims (18)

  1. ストリームを生成する方法であって、
    -3次元ポイントクラウドを前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することと、
    -前記3次元部分のそれぞれに対し、
    ・前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータに従って前記3次元部分の深度マップを判定し、且つ、
    ・前記パラメータに従って、前記3次元部分の色マップを判定することであって、
    前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチ
    に対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
    -前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリームを生成することと、
    を有する方法。
  2. ストリームを生成するように構成された装置であって、前記装置は、
    -3次元ポイントクラウドを前記3次元ポイントクラウドの少なくとも1つのポイントをそれぞれが有する複数の3次元部分にパーティション化することと、
    -前記3次元部分のそれぞれに対し、
    ・前記少なくとも1つのポイントと関連する幾何学的情報に、且つ、視点の範囲と関連するポーズ情報に応答している2次元パラメータ化を表すパラメータに従って前記3次元部分の深度マップ、並びに
    ・前記パラメータに従って前記3次元部分の色マップ、
    を判定することであって、
    前記複数の判定された深度マップは、第1のパッチアトラス内において表され、それぞれの深度マップは、前記第1のパッチアトラスの1つのパッチに対応しており、且つ、前記複数の判定された色マップは、第2のパッチアトラス内において表され、それぞれの色マップは、前記第2のパッチアトラスの1つのパッチに対応している、ことと、
    -前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラスを表すデータ、前記第2のパッチアトラスを表すデータ、並びに、前記2次元パラメータ化と前記第1のパッチアトラス内の対応する深度マップ及び前記第2のパッチアトラス内の対応する色マップの間のマッピングを表す第1のマッピング情報を有する前記ストリームを生成することと、
    を行うように構成されているプロセッサと関連するメモリを有する装置。
  3. 複数の2次元パラメータ化は、前記複数の3次元部分の少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項1に記載の方法。
  4. 前記ストリームは、3次元パッチを識別する情報とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する請求項1若しくは3に記載の方法。
  5. 前記3次元ポイントクラウドの前記パーティション化は、時間に伴って変化している請求項1又は3に記載の方法。
  6. ストリームから3次元ポイントクラウドを取得する方法であって、
    -前記ストリームから、前記3次元ポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
    -前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
    -前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
    -前記2次元パラメータ化を表す前記パラメータからの前記3次元ポイントクラウドのポイントと関連するデータ、前記第1のパッチアトラス内の関連する深度マップのデータ、前記第2のパッチアトラス内の関連する色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報を取得することと、
    を有する方法。
  7. ストリームから3次元ポイントクラウドを取得するように構成された装置であって、前記装置は、
    -前記ストリームから、前記3次元ポイントクラウドの3次元部分の2次元パラメータ化を表すパラメータを取得することと、
    -前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の深度マップを有する第1のパッチアトラスを表すデータを取得することと、
    -前記ストリームから、前記2次元パラメータ化のうちの1つとそれぞれが関連している複数の色マップを有する第2のパッチアトラスを表すデータを取得することと、
    -前記2次元パラメータ化を表す前記パラメータ、前記第1のパッチアトラス内の関連している深度マップのデータ、前記第2のパッチアトラス内の関連している色マップのデータ、並びに、前記ストリームから取得された、且つ、前記2次元パラメータ化とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラス内の対応する深度マップ及び色マップの間のマッピングを表す、第1のマッピング情報から、前記3次元ポイントクラウドのポイントと関連するデータを取得することと、
    を行うように構成されている少なくとも1つのプロセッサと関連しているメモリを有する装置。
  8. 複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項6に記載の方法。
  9. 前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、請求項6又は8に記載の方法。
  10. 前記ストリームは、オブジェクトを表すデータを搬送するストリームであり、
    前記オブジェクトを表す画像は、前記3次元ポイントクラウドを表す取得済みのデータに従ってレンダリングされる、請求項6又は8に記載の方法。
  11. プロセッサが、少なくとも、請求項1に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
  12. プロセッサが、少なくとも、請求項6に記載の前記方法のステップを実行するようにする命令をその内部において保存された状態で有する非一時的なプロセッサ可読媒体。
  13. 複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項2に記載の装置。
  14. 前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、請求項2又は13に記載の装置。
  15. 前記3次元ポイントクラウドのパーティション化は、時間に伴って変化する、請求項2又は13に記載の装置。
  16. 複数の2次元パラメータ化は、前記複数の3次元部分のうちの少なくとも1つの部分のそれぞれの3次元部分と関連付けられている、請求項7に記載の装置。
  17. 前記ストリームは、前記3次元部分とそれぞれ前記第1のパッチアトラス及び前記第2のパッチアトラスを表す第1及び第2の画像のピクセルの間のマッピングを表す第2のマッピング情報を更に有する、請求項7又は16に記載の装置。
  18. 前記ストリームは、オブジェクトを表すデータを搬送するストリームであり、
    前記オブジェクトを表す画像は、前記3次元ポイントクラウドを表す取得済みのデータに従ってレンダリングされる、請求項7又は16に記載の装置。
JP2019537358A 2017-01-13 2018-01-08 没入型ビデオフォーマットのための方法、装置、及びストリーム Active JP7241018B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17305041.0A EP3349182A1 (en) 2017-01-13 2017-01-13 Method, apparatus and stream for immersive video format
EP17305041.0 2017-01-13
PCT/EP2018/050348 WO2018130491A1 (en) 2017-01-13 2018-01-08 Method, apparatus and stream for immersive video format

Publications (3)

Publication Number Publication Date
JP2020515937A JP2020515937A (ja) 2020-05-28
JP2020515937A5 JP2020515937A5 (ja) 2021-02-12
JP7241018B2 true JP7241018B2 (ja) 2023-03-16

Family

ID=57868190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019537358A Active JP7241018B2 (ja) 2017-01-13 2018-01-08 没入型ビデオフォーマットのための方法、装置、及びストリーム

Country Status (6)

Country Link
US (1) US10891784B2 (ja)
EP (2) EP3349182A1 (ja)
JP (1) JP7241018B2 (ja)
KR (1) KR102468178B1 (ja)
CN (1) CN110383342B (ja)
WO (1) WO2018130491A1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803561B2 (en) * 2017-06-02 2020-10-13 Wisconsin Alumni Research Foundation Systems, methods, and media for hierarchical progressive point cloud rendering
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US10939129B2 (en) * 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US10984541B2 (en) * 2018-04-12 2021-04-20 Samsung Electronics Co., Ltd. 3D point cloud compression systems for delivery and access of a subset of a compressed 3D point cloud
EP3791592A4 (en) * 2018-05-07 2021-12-08 Nokia Technologies Oy METHODS AND TECHNICAL EQUIPMENT FOR CODING AND DECODING A VOLUMETRIC VIDEO
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
WO2020013567A1 (ko) * 2018-07-10 2020-01-16 삼성전자 주식회사 컨텐츠의 처리 방법 및 장치
US11699248B2 (en) * 2018-07-11 2023-07-11 Sony Corporation Image processing apparatus and method
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
JP2021182650A (ja) * 2018-07-20 2021-11-25 ソニーグループ株式会社 画像処理装置および方法
JP7331852B2 (ja) * 2018-08-02 2023-08-23 ソニーグループ株式会社 画像処理装置および方法
EP3614674A1 (en) * 2018-08-23 2020-02-26 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
US11315321B2 (en) * 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism
MX2021003179A (es) 2018-09-18 2021-08-11 Vid Scale Inc Metodos y aparatos para formato de flujo de bits de compresion de nube de puntos.
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
CN110971906B (zh) * 2018-09-29 2021-11-30 上海交通大学 层级化的点云码流封装方法和***
CN110971912B (zh) 2018-09-30 2022-04-29 华为技术有限公司 点云编解码方法、编解码器、编解码装置和存储介质
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US10735766B2 (en) 2018-12-17 2020-08-04 Sony Corporation Point cloud auxiliary information coding
US11095900B2 (en) * 2018-12-19 2021-08-17 Sony Group Corporation Point cloud coding structure
JP2022036353A (ja) * 2018-12-28 2022-03-08 ソニーグループ株式会社 画像処理装置および方法
EP3905696A4 (en) * 2019-01-07 2022-06-08 Sony Group Corporation IMAGE PROCESSING DEVICE AND METHOD
WO2020145668A1 (ko) * 2019-01-08 2020-07-16 삼성전자주식회사 3차원 컨텐츠의 처리 및 전송 방법
US10353073B1 (en) * 2019-01-11 2019-07-16 Nurulize, Inc. Point cloud colorization system with real-time 3D visualization
WO2020162542A1 (ja) * 2019-02-06 2020-08-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、および、三次元データ復号装置
US10549928B1 (en) 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
US11741566B2 (en) * 2019-02-22 2023-08-29 Dexterity, Inc. Multicamera image processing
CN113906757B (zh) 2019-03-12 2023-02-03 华为技术有限公司 用于点云数据的点云块数据单元编码和解码
US11823421B2 (en) * 2019-03-14 2023-11-21 Nokia Technologies Oy Signalling of metadata for volumetric video
US11159811B2 (en) * 2019-03-15 2021-10-26 Tencent America LLC Partitioning of coded point cloud data
US20200296401A1 (en) * 2019-03-15 2020-09-17 Mediatek Inc. Method and Apparatus of Patch Segmentation for Video-based Point Cloud Coding
EP3884664A4 (en) * 2019-03-18 2022-04-27 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR ACCESSING AND TRANSFERRING POINT CLOUD CONTENT IN A 360 DEGREE VIDEO ENVIRONMENT
US11334969B2 (en) * 2019-03-19 2022-05-17 Sony Group Corporation Point cloud geometry padding
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
EP3716628A1 (en) * 2019-03-29 2020-09-30 InterDigital CE Patent Holdings A method and apparatus for encoding and decoding volumetric video
CN113748445A (zh) * 2019-04-24 2021-12-03 奇跃公司 根据摆姿势的单目视频的边界估计
EP3970361A4 (en) * 2019-05-14 2023-03-22 INTEL Corporation IMMERSIVE VIDEO CODING TECHNIQUES FOR THREE DEGREES OF FREEDOM PLUS/METADATA FOR IMMERSIVE VIDEO (3DOF+/MIV) AND VIDEO POINT CLOUD CODING (V-PCC)
US11432009B2 (en) * 2019-07-02 2022-08-30 Intel Corporation Techniques for encoding and decoding immersive video
EP4032311A1 (en) 2019-09-19 2022-07-27 InterDigital CE Patent Holdings Devices and methods for generating and rendering immersive video
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
JP2023504097A (ja) * 2019-11-29 2023-02-01 中興通訊股▲ふん▼有限公司 マルチビュービデオ処理方法および装置
KR20220127246A (ko) * 2019-12-19 2022-09-19 인터디지털 브이씨 홀딩스 프랑스 보조 패치들을 갖는 볼류메트릭 비디오
BR112022013389A2 (pt) * 2020-01-06 2022-09-13 Huawei Tech Co Ltd Sinalização de parâmetros de câmera em codificação de nuvem de pontos
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
CN111273878B (zh) * 2020-01-08 2020-11-10 广州市三川田文化科技股份有限公司 一种基于cave空间的视频播放方法、装置及存储介质
KR102373833B1 (ko) * 2020-01-09 2022-03-14 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11625866B2 (en) 2020-01-09 2023-04-11 Apple Inc. Geometry encoding using octrees and predictive trees
CN115053531A (zh) * 2020-01-10 2022-09-13 诺基亚技术有限公司 在isobmff中存储来自一个v-pcc基本流的多个图集
EP4111359A1 (en) 2020-02-27 2023-01-04 Apple Inc. Semantic labeling of point cloud clusters
WO2021187737A1 (ko) 2020-03-18 2021-09-23 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2021193087A1 (ja) * 2020-03-25 2021-09-30 ソニーグループ株式会社 画像処理装置および方法
JP2023519660A (ja) * 2020-03-31 2023-05-12 インテル コーポレイション 没入型ビデオにおいてアトラスごとに有効なビューをシグナリングする方法及び装置
US20230239508A1 (en) * 2020-04-03 2023-07-27 Intel Corporation Methods and apparatus to identify a video decoding error
WO2021204700A1 (en) * 2020-04-07 2021-10-14 Interdigital Vc Holdings France Different atlas packings for volumetric video
CN115486076A (zh) * 2020-04-14 2022-12-16 交互数字专利控股公司 Isobmff容器中对基于视频的点云流的部分访问支持
US20230188696A1 (en) * 2020-04-24 2023-06-15 Visionary Machines Pty Ltd Systems And Methods For Generating And/Or Using 3-Dimensional Information With Camera Arrays
US11321928B2 (en) * 2020-05-14 2022-05-03 Qualcomm Incorporated Methods and apparatus for atlas management of augmented reality content
KR102441171B1 (ko) 2020-05-26 2022-09-08 한국전자통신연구원 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
WO2022045717A1 (ko) * 2020-08-24 2022-03-03 현대자동차주식회사 Mpeg 몰입형 비디오 포맷에서의 프레임 패킹방법
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN113284251B (zh) * 2021-06-11 2022-06-03 清华大学深圳国际研究生院 一种自适应视角的级联网络三维重建方法及***
CN117693936A (zh) * 2021-07-04 2024-03-12 抖音视界有限公司 用于点云编解码的方法、装置和介质
KR20240020851A (ko) * 2022-08-09 2024-02-16 한국전자기술연구원 포인트 클라우드 기반 콘텐츠 스트리밍을 위한 영상 스트리밍 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161133A (ja) 2012-02-01 2013-08-19 Toshiba Plant Systems & Services Corp 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法
JP2014517563A (ja) 2011-06-15 2014-07-17 メディアテック インコーポレイテッド 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置
WO2016132490A1 (ja) 2015-02-18 2016-08-25 株式会社日立製作所 図面作成システム及び図面作成方法
JP2016163342A (ja) 2015-03-03 2016-09-05 芳隆 大吉 三次元形状情報の配信または放送の方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117281B2 (en) * 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US20140354632A1 (en) * 2012-01-13 2014-12-04 Thomson Licensing Method for multi-view mesh texturing and corresponding device
ES2652132T3 (es) * 2013-07-19 2018-01-31 Huawei Technologies Co., Ltd. Método y aparato para codificar y descodificar un bloque de textura mediante el uso de partición de bloque basada en la profundidad
US20160225157A1 (en) * 2013-10-14 2016-08-04 Koninklijke Philips N.V. Remapping a depth map for 3d viewing
WO2016024203A2 (en) * 2014-08-12 2016-02-18 Mantisvision Ltd. System, method and computer program product to project light pattern
US9811911B2 (en) * 2014-12-29 2017-11-07 Nbcuniversal Media, Llc Apparatus and method for generating virtual reality content based on non-virtual reality content
US10515259B2 (en) 2015-02-26 2019-12-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining 3D object poses and landmark points using surface patches
US10237532B2 (en) * 2017-03-07 2019-03-19 Trimble Ab Scan colorization with an uncalibrated camera
US10424083B2 (en) * 2017-10-21 2019-09-24 Samsung Electronics Co., Ltd. Point cloud compression using hybrid transforms
US10535161B2 (en) * 2017-11-09 2020-01-14 Samsung Electronics Co., Ltd. Point cloud compression using non-orthogonal projection
US10529086B2 (en) * 2017-11-22 2020-01-07 Futurewei Technologies, Inc. Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system
US10909726B2 (en) * 2018-04-10 2021-02-02 Apple Inc. Point cloud compression

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014517563A (ja) 2011-06-15 2014-07-17 メディアテック インコーポレイテッド 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置
JP2013161133A (ja) 2012-02-01 2013-08-19 Toshiba Plant Systems & Services Corp 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法
WO2016132490A1 (ja) 2015-02-18 2016-08-25 株式会社日立製作所 図面作成システム及び図面作成方法
JP2016163342A (ja) 2015-03-03 2016-09-05 芳隆 大吉 三次元形状情報の配信または放送の方法

Also Published As

Publication number Publication date
CN110383342A (zh) 2019-10-25
CN110383342B (zh) 2023-06-20
US20190371051A1 (en) 2019-12-05
EP3568834B1 (en) 2020-11-11
KR102468178B1 (ko) 2022-11-16
US10891784B2 (en) 2021-01-12
EP3568834A1 (en) 2019-11-20
WO2018130491A1 (en) 2018-07-19
EP3349182A1 (en) 2018-07-18
JP2020515937A (ja) 2020-05-28
KR20190105011A (ko) 2019-09-11

Similar Documents

Publication Publication Date Title
JP7241018B2 (ja) 没入型ビデオフォーマットのための方法、装置、及びストリーム
KR102594003B1 (ko) 볼류메트릭 비디오를 인코딩/디코딩하기 위한 방법, 장치 및 스트림
JP2021502033A (ja) ボリュメトリックビデオを符号化/復号する方法、装置、およびストリーム
EP3249922A1 (en) Method, apparatus and stream for immersive video format
US20220094903A1 (en) Method, apparatus and stream for volumetric video format
EP3562159A1 (en) Method, apparatus and stream for volumetric video format
US20190251735A1 (en) Method, apparatus and stream for immersive video format
CN112425177A (zh) 用于体积视频传输的方法和装置
CN114503554A (zh) 用于传送体积视频内容的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R150 Certificate of patent or registration of utility model

Ref document number: 7241018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150