JP7499182B2 - ボリュメトリックビデオフォーマット用の方法、装置及びストリーム - Google Patents
ボリュメトリックビデオフォーマット用の方法、装置及びストリーム Download PDFInfo
- Publication number
- JP7499182B2 JP7499182B2 JP2020552727A JP2020552727A JP7499182B2 JP 7499182 B2 JP7499182 B2 JP 7499182B2 JP 2020552727 A JP2020552727 A JP 2020552727A JP 2020552727 A JP2020552727 A JP 2020552727A JP 7499182 B2 JP7499182 B2 JP 7499182B2
- Authority
- JP
- Japan
- Prior art keywords
- tile
- tiles
- scene
- patches
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 89
- 230000015654 memory Effects 0.000 claims description 30
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000009877 rendering Methods 0.000 description 37
- 238000013507 mapping Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 32
- 238000012856 packing Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 229920001690 polydopamine Polymers 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- PEIBAWRLFPGPAT-UHFFFAOYSA-N 1-(diazomethyl)pyrene Chemical compound C1=C2C(C=[N+]=[N-])=CC=C(C=C3)C2=C2C3=CC=CC2=C1 PEIBAWRLFPGPAT-UHFFFAOYSA-N 0.000 description 1
- 241000385654 Gymnothorax tile Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- AWSBQWZZLBPUQH-UHFFFAOYSA-N mdat Chemical compound C1=C2CC(N)CCC2=CC2=C1OCO2 AWSBQWZZLBPUQH-UHFFFAOYSA-N 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8451—Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Generation (AREA)
Description
本開示は、ボリュメトリックビデオコンテンツの領域に関する。本開示はまた、ボリュメトリックコンテンツを表すデータの符号化及び/又はフォーマット設定、例えばモバイル機器又はヘッドマウントディスプレイ等のエンドユーザー機器上でのレンダリングの関連で理解される。
本節は、以下に記述及び/又は権利請求する本開示の各種態様に関連し得る当分野の各種態様を読者に紹介することを意図している。ここでの議論は、本発明の各種態様の理解をより容易にすべく読者に背景情報を提供するのに役立つと思われる。従って、以下の記述は従来技術の紹介としてではなく上記の観点から読まれたい。
本明細書における「ある実施形態」、「一実施形態」、「例示的な一実施形態」、「特定の実施形態」への言及は、記述する実施形態が特定の特性、構造、又は特徴を含んでいてよいことを示すが、全ての実施形態が必ずしも特定の特性、構造、又は特徴を含んでいる訳ではない。更に、このような語句は必ずしも同一実施形態を指す訳ではない。更に、特定の特性、構造、又は特徴が一実施形態との関連で記述されている場合、明示的に記述されているか否かに依らず、そのような特性、構造、又は特徴を他の実施形態と共に実現することは当業者の知識の範囲内であることを言明するものである。
-第1の視点に従い視認可能な3Dシーンのテクスチャを表す第1のデータであって第1のフレームの複数の第1のタイルに配列された第1のデータを、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラック内に符号化することと、
-3Dシーンの複数の点に関連付けられた奥行きを表す第2のデータであって第2のフレームの複数の第2のタイルに配列された第2のデータを、少なくとも1個の第2のトラック内に符号化する際に、第2のフレームの第2のタイルの総数が第1のフレームの第1のタイルの総数よりも多い状態で、且つ複数の第1のタイルの少なくとも一部の各第1のタイル毎に、
・複数の第2のタイルの少なくとも1個の第2のタイルを含む第2のタイルの組が、複数の第1のタイルの少なくとも一部の各第1のタイルに割り当てられ、
・少なくとも1個のパッチの組が第2のタイルの組に配列され、各パッチが、各第1のタイルに関連付けられた3Dシーンの一部に含まれる3D点の集団の2次元パラメータ化に対応し、且つ当該集団の複数の3D点に関連付けられた奥行きを表す第2のデータを含むように符号化することと、
-少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックの少なくとも一部から第1のデータ及び第2のデータの少なくとも一部を抽出する旨の少なくとも1個の命令を、少なくとも1個の第3のトラック内に符号化することを含んでいる。
-第1の視点に従い視認可能な3Dシーンのテクスチャを表す第1のデータであって第1のフレームの複数の第1のタイルに配列された第1のデータを、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラック内に符号化し、
-3Dシーンの複数の点に関連付けられた奥行きを表す第2のデータであって第2のフレームの複数の第2のタイルに配列された第2のデータを、少なくとも1個の第2のトラック内に符号化する際に、第2のフレームの第2のタイルの総数が第1のフレームの第1のタイルの総数よりも多い状態で、且つ複数の第1のタイルの少なくとも一部の各第1のタイル毎に、
・複数の第2のタイルの少なくとも1個の第2のタイルを含む第2のタイルの組が、複数の第1のタイルの少なくとも一部の各第1のタイルに割り当てられ、
・少なくとも1個のパッチの組が第2のタイルの組に配列され、各パッチが、各第1のタイルに関連付けられた3Dシーンの一部に含まれる3D点の集団の2次元パラメータ化に対応し、且つ当該集団の複数の3D点に関連付けられた奥行きを表す第2のデータを含むように符号化し、
-少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックの少なくとも一部から第1のデータ及び第2のデータの少なくとも一部を抽出する旨の少なくとも1個の命令を、少なくとも1個の第3のトラック内に符号化すべく構成された少なくとも1個のプロセッサに関連付けられたメモリを含んでいる。
-第1の視点に従い視認可能な3Dシーンのテクスチャを表す第1のデータであって第1のフレームの複数の第1のタイルに配列された第1のデータを、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラック内に符号化すべく構成されたエンコーダと、
-3Dシーンの複数の点に関連付けられた奥行きを表す第2のデータであって第2のフレームの複数の第2のタイルに配列された第2のデータを、少なくとも1個の第2のトラック内に符号化すべく構成されたエンコーダにおいて、第2のフレームの第2のタイルの総数が第1のフレームの第1のタイルの総数よりも多い状態で、且つ複数の第1のタイルの少なくとも一部の各第1のタイル毎に、
・複数の第2のタイルの少なくとも1個の第2のタイルを含む第2のタイルの組が、複数の第1のタイルの少なくとも一部の各第1のタイルに割り当てられ、
・少なくとも1個のパッチの組が第2のタイルの組に配列され、各パッチが、各第1のタイルに関連付けられた3Dシーンの一部に含まれる3D点の集団の2次元パラメータ化に対応し、且つ当該集団の複数の3D点に関連付けられた奥行きを表す第2のデータを含むエンコーダと、
-少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックの少なくとも一部から第1のデータ及び第2のデータの少なくとも一部を抽出する旨の少なくとも1個の命令を、少なくとも1個の第3のトラック内に符号化すべく構成されたエンコーダを含んでいる。
-第1の視点に従い視認可能な3Dシーンのテクスチャを表す第1のデータであって第1のフレームの複数の第1のタイルに配列された第1のデータを、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラック内に符号化する手段と、
-3Dシーンの複数の点に関連付けられた奥行きを表す第2のデータであって第2のフレームの複数の第2のタイルに配列された第2のデータを、少なくとも1個の第2のトラック内に符号化する手段において、第2のフレームの第2のタイルの総数が第1のフレームの第1のタイルの総数よりも多い状態で、且つ複数の第1のタイルの少なくとも一部の各第1のタイル毎に、
・複数の第2のタイルの少なくとも1個の第2のタイルを含む第2のタイルの組が、複数の第1のタイルの少なくとも一部の各第1のタイルに割り当てられ、
・少なくとも1個のパッチの組が第2のタイルの組に配列され、各パッチが、各第1のタイルに関連付けられた3Dシーンの一部に含まれる3D点の集団の2次元パラメータ化に対応し、且つ当該集団の複数の3D点に関連付けられた奥行きを表す第2のデータを含む手段と、
-少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックの少なくとも一部から第1のデータ及び第2のデータの少なくとも一部を抽出する旨の少なくとも1個の命令を、少なくとも1個の第3のトラック内に符号化する手段を含んでいる。
-第1のデータ及び第2のデータを少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックから抽出する旨の少なくとも1個の命令を少なくとも1個の第3のトラックから復号化することと、
-第1のデータが第1の視点に従い視認可能な3Dシーンのテクスチャを表し、第1のデータが第1のフレームの第1の複数のタイルに配列され、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラックから第1のデータを復号化することと、
-第2のデータが3Dシーンの複数の点に関連付けられた奥行きを表し、第2のデータが第2のフレームの第2のタイルの少なくとも1個の組に配列された少なくとも1個のパッチに含まれる奥行きを表し、第2のタイルの組が各第1のタイルに割り当てられ、少なくとも1個のパッチが各第1のタイルに関連付けられた3Dシーンの少なくとも一部に含まれる3D点の集団の2次元パラメータ化に対応し、第2のデータが集団の複数の3D点に関連付けられた奥行きを表している状態で、少なくとも1個の第2のトラックから第2のデータを復号化することを含んでいる。
-第1のデータ及び第2のデータを少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックから抽出する旨の少なくとも1個の命令を少なくとも1個の第3のトラックから復号化し、
-第1のデータが第1の視点に従い視認可能な3Dシーンのテクスチャを表し、第1のデータが第1のフレームの第1の複数のタイルに配列され、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラックから第1のデータを復号化し、
-第2のデータが3Dシーンの複数の点に関連付けられた奥行きを表し、第2のデータが第2のフレームの第2のタイルの少なくとも1個の組に配列された少なくとも1個のパッチに含まれる奥行きを表し、第2のタイルの組が各第1のタイルに割り当てられ、少なくとも1個のパッチが各第1のタイルに関連付けられた3Dシーンの少なくとも一部に含まれる3D点の集団の2次元パラメータ化に対応し、第2のデータが集団の複数の3D点に関連付けられた奥行きを表している状態で、少なくとも1個の第2のトラックから第2のデータを復号化すべく構成された少なくとも1個のプロセッサに関連付けられたメモリを含んでいる。
-第1のデータ及び第2のデータを少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックから抽出する旨の少なくとも1個の命令を少なくとも1個の第3のトラックから復号化すべく構成されたデコーダと、
-第1のデータが第1の視点に従い視認可能な3Dシーンのテクスチャを表し、第1のデータが第1のフレームの第1の複数のタイルに配列され、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラックから第1のデータを復号化すべく構成されたデコーダと、
-第2のデータが3Dシーンの複数の点に関連付けられた奥行きを表し、第2のデータが第2のフレームの第2のタイルの少なくとも1個の組に配列された少なくとも1個のパッチに含まれる奥行きを表し、第2のタイルの組が各第1のタイルに割り当てられ、少なくとも1個のパッチが各第1のタイルに関連付けられた3Dシーンの少なくとも一部に含まれる3D点の集団の2次元パラメータ化に対応し、第2のデータが集団の複数の3D点に関連付けられた奥行きを表している状態で、少なくとも1個の第2のトラックから第2のデータを復号化すべく構成されたデコーダを含んでいる。
-第1のデータ及び第2のデータを少なくとも1個の第1のトラック及び少なくとも1個の第2のトラックから抽出する旨の少なくとも1個の命令を少なくとも1個の第3のトラックから復号化する手段と、
-第1のデータが第1の視点に従い視認可能な3Dシーンのテクスチャを表し、第1のデータが第1のフレームの第1の複数のタイルに配列され、3Dシーンの一部が複数の第1のタイルの各第1のタイルに関連付けられた状態で、少なくとも1個の第1のトラックから第1のデータを復号化する手段と、
-第2のデータが3Dシーンの複数の点に関連付けられた奥行きを表し、第2のデータが第2のフレームの第2のタイルの少なくとも1個の組に配列された少なくとも1個のパッチに含まれる奥行きを表し、第2のタイルの組が各第1のタイルに割り当てられ、少なくとも1個のパッチが各第1のタイルに関連付けられた3Dシーンの少なくとも一部に含まれる3D点の集団の2次元パラメータ化に対応し、第2のデータが集団の複数の3D点に関連付けられた奥行きを表している状態で、少なくとも1個の第2のトラックから第2のデータを復号化する手段を含んでいる。
添付の図面を参照しながら以下の記述を精査することにより本開示に対する理解が深まると共に他の特定の特徴及び利点が明らかになろう。
主題について、同一要素に同一参照番号が付与された図面を参照しながら以下に記述する。以下の記述において、主題を完全に理解できるよう説明目的で多数の具体的な詳細事項開示している。しかし、これらの具体的な詳細事項が無くても主題の実施形態が実施できることは明らかである。
-第1の視点から見た3Dシーンの複数の点に関連付けられた奥行き情報、
-第1の視点以外の立方体11の視点から見た3Dシーンの複数部分に関連付けられた奥行き情報と、
-第1の視点以外の立方体11の視点から見た3Dシーンの複数部分に関連付けられたテクスチャ情報(色情報とも呼ばれる)の1個又は任意の組み合わせを含んでいてよい。
・カメラのリグから撮影され、任意選択的に奥行き能動検出装置により補足された実被写体の撮像から、
・モデリングツールの仮想カメラのリグにより撮影された仮想/合成被写体の撮像から、
・実及び仮想被写体の両方の混合から取得されてよい。
-視点に関連付けられた球面上への点群の点の集団に属する点の正距円筒投影(ERP)であって、ERP投影を表現するパラメータが球体の位置、方位及び空間サンプリングステップを含む投影、
-視点に関連付けられた平面への点群の点の集団に属する点の線形遠近投影であって、線形遠近投影を表現するパラメータが仮想カメラの位置、焦点距離、空間サンプリングステップ及び2次元視野を含む投影、
-表面への点群の点の集団に属する点の正射投影であって、正射投影を表現するパラメータが投影面のジオメトリ(形状、サイズ及び向き)及び空間サンプリングステップを含む投影、
-ここでは3Dから2Dへの転換/変換に適用される次元削減の個数値演算に対応するLLE(局所線形埋め込み)であって、LLEを表現するパラメータが変換係数を含む投影のうち任意の一つを実行することにより取得できる。
{2Dパラメータ化のパラメータ、ジオメトリパッチID、テクスチャパッチID}の形式であってよく、
ジオメトリパッチIDは1個の整数値であっても、又はジオメトリパッチが配列されたフレーム内で当該ジオメトリパッチが属する行番号U及び列番号Vを含む一対の値であってよく、テクスチャパッチIDは1個の整数値又はパッチが属するフレーム(群)の(又はフレーム(群)のタイルの)パッチのマトリクス内でテクスチャパッチが属する行番号U’ 及び列番号V’を含む一対の値であってよい。
{2Dパラメータ化のパラメータ、ジオメトリ及びテクスチャパッチID}i
i=1~n、nは2Dパラメータ化の個数。
・HEVC(仕様はITUウェブサイト、T推奨、Hシリーズ、h265、http://www.itu.int/rec/T-REC-H.265-201612-I/enで見られる)、
・3D-HEVC(仕様がITUウェブサイト、T推奨、Hシリーズ、h265、h265, http://www.itu.int/rec/T-REC-H.265-201612-I/en annex G and Iに見られるHEVCの拡張)、
・Googleが開発したVP9、又は
・Alliance for Open Mediaが開発したAV1(AOMedia Video 1)。
-ローカルメモリ、例えばビデオメモリ又はRAM(又はランダムアクセスメモリ(Random Access Memory))、(フラッシュメモリ)、ROM(又は読出し専用メモリ(Read Only Memory))、ハードディスク等、
-ストレージインターフェース、例えば大容量ストレージとのインターフェース、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポート、
-通信インターフェース、例えば有線インターフェース(例:バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)又は無線インターフェース(IEEE802.11インターフェース又はBluetooth(登録商標)インターフェース等)、
-ユーザーがデータを入力できるようにするグラフィカルユーザーインターフェース等のユーザーインターフェースを含む集合に属している。
・HEVC、
・3D-HEVC(HEVCの拡張)、
・VP9、又は
・AV1
等のデコーダに準拠している。
(i)
(ii)
(iii)
・後方互換全方向ビデオを担持する複数のタイルトラック1710であって、N個の第1のタイルT1~T8のうち1個の異なる第1のタイルに含まれるデータを各々含み(例:第1のタイルT1のコンテンツを担持する1個のタイルトラック、第1のタイルT2のコンテンツを担持する1個のタイルトラック、第1のタイルT3のコンテンツを担持する1個のタイルトラック、...及び第1のタイルT8のコンテンツを担持する1個のタイルトラック)、タイルトラックの個数は例えば2~Nに含まれ、Nは第1のフレーム40の第1のタイルの個数に対応しているタイルトラック1710と、
・第1のフレーム、スティッチング及び領域毎のパッキングを取得して全方向ビデオをレンダリングするのに用いた投影に対応するメタデータ1712と、
・C個の可能なビューポート方位の個数に対応する抽出器トラックの最大数までの1個以上の抽出器トラック1711であって、1個の抽出器が1個のデコーダにより復号化可能なビットストリームを再構築する命令を含み、再構築されたビットストリームはデコーダにより復号化されるべく構文的に正しい抽出器トラック1711を取得すべく符号化することができる。
・第2のタイル及び関連付けられたパッチを担持する複数のタイルトラック1720であって、M個の第2のタイル1301~13032のうち1個の異なる第2のタイルに含まれるデータを各々が含むタイルトラック1720と、
・例えばパッチの投影解除パラメータ、第2のフレームの第2のタイル内の位置(又は適用可能な場合、第3のフレームの第3のタイル内の位置)を表す情報を含むメタデータ1722と、
・C個の可能なビューポート方位の個数に対応する抽出器トラックの最大数までの1個以上の抽出器トラック1721であって、1個の抽出器が1個のデコーダにより復号化可能なビットストリームを再構築する1個以上の命令を含み、再構築されたビットストリームはデコーダにより復号化されるべく構文的に正しく、“Information Technology - Coding of audio-visual objects - Part 15: carriage of NAL unit structured video in the ISO Base Media File Format, AMENDMENT 1: Carriage of Layered HEVC”,ISO/IEC 14496-15:2014/PDAM 1, dated July 11, 2014に記述するように、ある抽出器が別のトラックから当該抽出器が常駐するトラックに紐付けられたデータを抽出する命令を含む抽出器トラック1721を取得すべく符号化することができる。
-マイクロプロセッサ192(又はCPU)、例えばDSP(又はデジタル信号プロセッサ)、
-ROM(読み出し専用メモリ(Read Only Memory))193、
-RAM(ランダムアクセスメモリ(Random-Access Memory))194、
-記憶インターフェース195、
-送信対象データをアプリケーションから受信するためのI/Oインターフェース196、
-電源、例:電池を含んでいる。
-ローカルメモリ(193又は194)、例えばビデオメモリ又はRAM(ランダムアクセスメモリ(Random-Access Memory))、フラッシュメモリ、ROM(読み出し専用メモリ(Read Only Memory))、ハードディスク、
-記憶インターフェース(195)、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインターフェース、
-通信インターフェース(196)、例えば有線インターフェース(例:バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)又は無線インターフェース(IEEE802.11インターフェース又はBluetooth(登録商標)インターフェース等)、
-ユーザーがデータを入力できるようにするグラフィカルユーザーインターフェース等のユーザーインターフェースを含む組に属している。
-ローカルメモリ(193又は194)、例えばビデオメモリ又はRAM、フラッシュメモリ、ハードディスク、
-記憶インターフェース(195)、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインターフェース、
-通信インターフェース(196)、例えば有線インターフェース(例:バスインターフェース(例:USB(ユニバーサルシリアルバス))、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース、HDMI(登録商標)(高解像度マルチメディアインターフェース)インターフェース)又は無線インターフェース(IEEE802.11インターフェース、WiFi(登録商標)又はBluetooth(登録商標)インターフェース等)を含む組に属している。
-モバイル機器、
-通信機器、
-ゲーム機器、
-タブレット(又はタブレットコンピュータ)、
-ラップトップ、
-スチル写真カメラ、
-ビデオカメラ、
-符号化チップ、
-サーバ(例:ブロードキャストサーバ、ビデオオンデマンドサーバ又はウェブサーバ)を含む組に属している。
Claims (22)
- 3Dシーンを表すデータを符号化する方法であって、
第1の視点から視認可能な前記3Dシーンの点を投影することにより得られる第1のテクスチャ画像を、少なくとも1個の第1のトラック内に符号化することであって、前記第1のテクスチャ画像は、複数の第1のタイルに配列され、前記3Dシーンの一部は、各第1のタイルに関連付けられている、ことと、
各第1のタイルについて、
・パッチのグループを取得することであって、パッチは、前記第1のタイルに関連付けられている前記3Dシーンの一部の点の一部を、第2の視点と投影された点との間の距離を符号化するピクチャに投影することにより得られる、ことと、
・前記パッチのグループのパッチを、第2の画像の少なくとも1個の第2のタイルに配列することであって、前記少なくとも1個の第2のタイルは、前記第1のタイルに関連付けられており、前記第2の画像の前記第2のタイルの総数は、前記第1のテクスチャ画像の前記第1のタイルの総数よりも多い、ことと、
前記第2の画像を、少なくとも1個の第2のトラック内に符号化することと、
前記第1のテクスチャ画像の少なくとも一部を少なくとも1個の第1のトラックから抽出し、前記第2の画像の少なくとも一部を少なくとも1個の第2のトラックから抽出する少なくとも1個の命令を、少なくとも1個の第3のトラック内に符号化することと、
を含む方法。 - 3Dシーンを表すデータを符号化するように構成された装置であって、少なくとも一つのプロセッサに関連付けられたメモリを備え、
前記プロセッサは、
第1の視点から視認可能な前記3Dシーンの点を投影することにより得られる第1のテクスチャ画像を、少なくとも1個の第1のトラック内に符号化することであって、前記第1のテクスチャ画像は、複数の第1のタイルに配列され、前記3Dシーンの一部は、各第1のタイルに関連付けられている、ことと、
各第1のタイルについて、
・パッチのグループを取得することであって、パッチは、前記第1のタイルに関連付けられている前記3Dシーンの一部の点の一部を、第2の視点と投影された点との間の距離を示す深度データを符号化するピクチャに投影することにより得られる、ことと、
・前記パッチのグループのパッチを、第2の画像の少なくとも1個の第2のタイルに配列することであって、前記少なくとも1個の第2のタイルは、前記第1のタイルに関連付けられており、前記第2の画像の前記第2のタイルの総数は、前記第1のテクスチャ画像の前記第1のタイルの総数よりも多い、ことと、
前記第2の画像を、少なくとも1個の第2のトラック内に符号化することと、
前記第1のテクスチャ画像の少なくとも一部を少なくとも1個の第1のトラックから抽出し、前記第2の画像の少なくとも一部を少なくとも1個の第2のトラックから抽出する少なくとも1個の命令を、少なくとも1個の第3のトラック内に符号化することと、
を行うように構成されている、装置。 - 前記パッチは、前記第1のタイルに関連付けられている前記3Dシーンの一部の点の一部を、投影された点の深度データ及びテクスチャデータを符号化するピクチャに投影することにより取得される、請求項1に記載の方法。
- 各第1のタイルについて、
・パッチのグループを取得することであって、パッチは、前記第1のタイルに関連付けられている前記3Dシーンの一部の点の一部を、投影された点のテクスチャデータを符号化するピクチャに投影することにより得られる、ことと、
・前記パッチのグループのパッチを、第3の画像の少なくとも1個の第3のタイルに配列することと、
前記第3の画像を、少なくとも1個の第4のトラック内に符号化することと、
を更に含む、請求項1に記載の方法。 - セットのパッチのサイズは、前記パッチがその中に配列される第2のタイルのサイズより大きく、前記パッチは、各々のサイズが第2のタイルのサイズよりも小さい複数の部分パッチに分割される、請求項1に記載の方法。
- セットのパッチは、前記パッチの視覚的重要度に応じて優先順位にて配列され、前記視覚的重要度は、前記パッチに関連付けられた深度データに依存する、請求項1に記載の方法。
- 前記第2のタイルは、複数の時間的に連続する第2の画像に対して固定されたサイズと同じサイズを有する、請求項1に記載の方法。
- 3Dシーンを表すデータを復号化する方法であって、
第1の画像を少なくとも1個の第1のトラックから抽出し、第2の画像を少なくとも1個の第2のトラックから抽出する少なくとも1個の命令を少なくとも1個の第3のトラックから復号化することと、
前記第1の画像を復号化することであって、前記第1の画像は、第1の視点から視認可能な前記3Dシーンの点を投影することにより取得され、前記第1の画像は、複数の第1のタイルに配列され、前記3Dシーンの一部は、各第1のタイルに関連付けられている、ことと、
前記第2の画像を復号化することであって、前記第2の画像は、複数の第2のタイルに配列され、第2のタイルは、第1のタイルに関連付けられ、かつ、パッチを備え、第2のタイルのパッチは、前記第2のタイルに関連付けられる前記第1のタイルに関連付けられる前記3Dシーンの一部の点の一部を、第2の視点と投影された点との間の距離を符号化するピクチャに投影することにより取得される、ことと、
を含む方法。 - 3Dシーンを表すデータを復号化するように構成された装置であって、少なくとも一つのプロセッサに関連付けられたメモリを備え、
前記プロセッサは、
第1の画像を少なくとも1個の第1のトラックから抽出し、第2の画像を少なくとも1個の第2のトラックから抽出する少なくとも1個の命令を少なくとも1個の第3のトラックから復号化することと、
前記第1の画像を復号化することであって、前記第1の画像は、第1の視点から視認可能な前記3Dシーンの点を投影することにより取得され、前記第1の画像は、複数の第1のタイルに配列され、前記3Dシーンの一部は、各第1のタイルに関連付けられている、ことと、
前記第2の画像を復号化することであって、前記第2の画像は、複数の第2のタイルに配列され、第2のタイルは、第1のタイルに関連付けられ、かつ、パッチを備え、第2のタイルのパッチは、前記第2のタイルに関連付けられる前記第1のタイルに関連付けられる前記3Dシーンの一部の点の一部を、第2の視点と投影された点との間の距離を符号化するピクチャに投影することにより取得される、ことと、
を行うように構成されている、装置。 - 前記パッチは、前記第1のタイルに関連付けられる前記3Dシーンの一部の点の一部を、投影された点の深度データ及びテクスチャデータを符号化するピクチャに投影することにより取得される、請求項8に記載の方法。
- 少なくとも1個の第3のトラックから第3の画像を復号化することであって、前記第3の画像は、複数の第3のタイルに配列され、第3のタイルは、第1のタイルに関連付けられ、かつ、パッチを備え、第3のタイルのパッチは、前記第3のタイルに関連付けられる前記第1のタイルに関連付けられる前記3Dシーンの一部の点の一部を、投影された点のテクスチャデータを符号化するピクチャに投影することにより取得される、ことと、
を更に含む、請求項8に記載の方法。 - 前記3Dシーンの少なくとも一部は、前記第1及び第2の画像に従ってレンダリングされる、請求項8に記載の方法。
- 請求項1及び3~7のいずれか1項に記載の方法をプロセッサに実行させるための命令を保存している非一時的プロセッサ可読媒体。
- 請求項8及び10~12のいずれか1項に記載の方法をプロセッサに実行させるための命令を保存している非一時的プロセッサ可読媒体。
- 前記パッチは、前記第1のタイルに関連付けられている前記3Dシーンの一部の点の一部を、投影された点の深度データ及びテクスチャデータを符号化するピクチャに投影することにより取得される、請求項2に記載の装置。
- 前記プロセッサは、
各第1のタイルについて、
・パッチのグループを取得することであって、パッチは、前記第1のタイルに関連付けられている前記3Dシーンの一部の点の一部を、投影された点のテクスチャデータを符号化するピクチャに投影することにより得られる、ことと、
・前記パッチのグループのパッチを、第3の画像の少なくとも1個の第3のタイルに配列することと、
前記第3の画像を、少なくとも1個の第4のトラック内に符号化することと、
を行うように更に構成されている、請求項2に記載の装置。 - セットのパッチのサイズは、前記パッチがその中に配列される第2のタイルのサイズより大きく、前記パッチは、各々のサイズが第2のタイルのサイズよりも小さい複数の部分パッチに分割される、請求項2に記載の装置。
- セットのパッチは、前記パッチの視覚的重要度に応じて優先順位にて配列され、前記視覚的重要度は、前記パッチに関連付けられた深度データに依存する、請求項2に記載の装置。
- 前記第2のタイルは、複数の時間的に連続する第2の画像に対して固定されたサイズと同じサイズを有する、請求項2に記載の装置。
- 前記パッチは、前記第1のタイルに関連付けられる前記3Dシーンの一部の点の一部を、投影された点の深度データ及びテクスチャデータを符号化するピクチャに投影することにより取得される、請求項9に記載の装置。
- 前記プロセッサは、
少なくとも1個の第3のトラックから第3の画像を復号化することであって、前記第3の画像は、複数の第3のタイルに配列され、第3のタイルは、第1のタイルに関連付けられ、かつ、パッチを備え、第3のタイルのパッチは、前記第3のタイルに関連付けられる前記第1のタイルに関連付けられる前記3Dシーンの一部の点の一部を、投影された点のテクスチャデータを符号化するピクチャに投影することにより取得される、こと、
を行うように更に構成されている、請求項9に記載の装置。 - 前記3Dシーンの少なくとも一部は、前記第1及び第2の画像に従ってレンダリングされる、請求項9に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18305372.7 | 2018-03-30 | ||
EP18305372.7A EP3547704A1 (en) | 2018-03-30 | 2018-03-30 | Method, apparatus and stream for volumetric video format |
PCT/US2019/024245 WO2019191205A1 (en) | 2018-03-30 | 2019-03-27 | Method, apparatus and stream for volumetric video format |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021520101A JP2021520101A (ja) | 2021-08-12 |
JPWO2019191205A5 JPWO2019191205A5 (ja) | 2022-03-31 |
JP7499182B2 true JP7499182B2 (ja) | 2024-06-13 |
Family
ID=61965880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552727A Active JP7499182B2 (ja) | 2018-03-30 | 2019-03-27 | ボリュメトリックビデオフォーマット用の方法、装置及びストリーム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11178383B2 (ja) |
EP (2) | EP3547704A1 (ja) |
JP (1) | JP7499182B2 (ja) |
CN (1) | CN112189345B (ja) |
WO (1) | WO2019191205A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020036389A1 (en) * | 2018-08-13 | 2020-02-20 | Lg Electronics Inc. | Method for transmitting video, apparatus for transmitting video, method for receiving video, and apparatus for receiving video |
WO2020145668A1 (ko) * | 2019-01-08 | 2020-07-16 | 삼성전자주식회사 | 3차원 컨텐츠의 처리 및 전송 방법 |
WO2020146571A1 (en) * | 2019-01-09 | 2020-07-16 | Tencent America LLC | Method and apparatus for dynamic point cloud partition packing |
US11432009B2 (en) * | 2019-07-02 | 2022-08-30 | Intel Corporation | Techniques for encoding and decoding immersive video |
CN115023955A (zh) * | 2020-01-29 | 2022-09-06 | 诺基亚技术有限公司 | 用于视频流传输的方法、装置和计算机程序产品 |
WO2021187737A1 (ko) * | 2020-03-18 | 2021-09-23 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
WO2021210837A1 (ko) * | 2020-04-13 | 2021-10-21 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
AU2021330784A1 (en) * | 2020-08-26 | 2023-04-06 | Charles Leon CLAPSHAW | Volumetric immersion system and method |
CN112258568B (zh) * | 2020-10-12 | 2022-07-01 | 武汉中海庭数据技术有限公司 | 一种高精度地图要素的提取方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008509630A (ja) | 2004-08-13 | 2008-03-27 | インダストリー・アカデミック・コーオペレーション・ファウンデーション・キョンヒ・ユニヴァーシティ | パノラマ画像の動き推定及び補償のために仮想画像領域を生成する方法及び装置 |
US20180035134A1 (en) | 2015-04-15 | 2018-02-01 | Lytro, Inc. | Encoding and decoding virtual reality video |
US20190087978A1 (en) | 2017-09-18 | 2019-03-21 | Apple Inc. | Point cloud compression using non-cubic projections and masks |
JP2022502961A (ja) | 2018-10-02 | 2022-01-11 | 華為技術有限公司Huawei Technologies Co., Ltd. | 3d補助データを用いた動き推定 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2168096A1 (en) | 2007-07-12 | 2010-03-31 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
KR101940023B1 (ko) * | 2009-02-19 | 2019-01-21 | 톰슨 라이센싱 | 3d 비디오 포맷 |
RU2453922C2 (ru) | 2010-02-12 | 2012-06-20 | Георгий Русланович Вяхирев | Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты) |
JP6074509B2 (ja) | 2012-09-29 | 2017-02-01 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 映像符号化及び復号化方法、装置及びシステム |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
JP6266761B2 (ja) | 2013-05-10 | 2018-01-24 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | マルチビューレンダリング装置とともに使用するためのビデオデータ信号の符号化方法 |
US8860720B1 (en) * | 2014-01-02 | 2014-10-14 | Ubitus Inc. | System and method for delivering graphics over network |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
RU2606875C2 (ru) | 2015-01-16 | 2017-01-10 | Общество с ограниченной ответственностью "Системы Компьютерного зрения" | Способ и система отображения масштабных сцен в режиме реального времени |
US20170347084A1 (en) * | 2016-05-27 | 2017-11-30 | Intel Corporation | Virtual reality panoramic video system using scalable video coding layers |
IL292911B2 (en) | 2016-08-11 | 2023-11-01 | Magic Leap Inc | Automatic positioning of a virtual object in three-dimensional space |
WO2018050529A1 (en) * | 2016-09-13 | 2018-03-22 | Thomson Licensing | Method, apparatus and stream for immersive video format |
-
2018
- 2018-03-30 EP EP18305372.7A patent/EP3547704A1/en not_active Withdrawn
-
2019
- 2019-03-27 CN CN201980034571.8A patent/CN112189345B/zh active Active
- 2019-03-27 WO PCT/US2019/024245 patent/WO2019191205A1/en active Application Filing
- 2019-03-27 JP JP2020552727A patent/JP7499182B2/ja active Active
- 2019-03-27 US US17/043,504 patent/US11178383B2/en active Active
- 2019-03-27 EP EP19727919.3A patent/EP3777222A1/en active Pending
-
2021
- 2021-11-02 US US17/516,892 patent/US11647177B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008509630A (ja) | 2004-08-13 | 2008-03-27 | インダストリー・アカデミック・コーオペレーション・ファウンデーション・キョンヒ・ユニヴァーシティ | パノラマ画像の動き推定及び補償のために仮想画像領域を生成する方法及び装置 |
US20180035134A1 (en) | 2015-04-15 | 2018-02-01 | Lytro, Inc. | Encoding and decoding virtual reality video |
US20190087978A1 (en) | 2017-09-18 | 2019-03-21 | Apple Inc. | Point cloud compression using non-cubic projections and masks |
JP2022502961A (ja) | 2018-10-02 | 2022-01-11 | 華為技術有限公司Huawei Technologies Co., Ltd. | 3d補助データを用いた動き推定 |
Non-Patent Citations (3)
Title |
---|
MAO, Yu et al.,On Constructing z-Dimensional DIBR-Synthesized Images,IEEE Transactions on Multimedia,IEEE,2016年05月26日,Vol.18, No.8,pp.1453-1468,[online],[retrieved on 2023-04-28],Retrieved from the Internet: <URL: https://ieeexplore.ieee.org/document/7479491> |
TECH, Gerhard et al.,AHG13: Restriction of Inter-Layer Prediction on Tile Boundaries,JCT3V-D0051 (version 2),ITU,2013年04月22日,pp.1-3,[online],[retrieved on 2023-04-28],Retrieved from the Internet: <URL: http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/4_Incheon/wg11/JCT3V-D0051-v2.zip>,JCT3V-D0051-v2.doc |
WANG, Ye-Kui et al.,WD of ISO/IEC 14496-15:2013/AMD 1 Enhanced Carriage of HEVC and Support of MVC with Depth Information,ISO/IEC,2014年01月,Sect.8.5.6.1,[online],[retrieved on 2023-04-28],Retrieved from the Internet: <URL: https://mpeg.chiariglione.org/tags/enhanced-carriage-hevc>,"w14123 - 14496-15_2013_AMD1_WD2.doc" |
Also Published As
Publication number | Publication date |
---|---|
EP3777222A1 (en) | 2021-02-17 |
RU2020135597A (ru) | 2022-05-04 |
EP3547704A1 (en) | 2019-10-02 |
CN112189345B (zh) | 2023-02-21 |
US11647177B2 (en) | 2023-05-09 |
CN112189345A (zh) | 2021-01-05 |
JP2021520101A (ja) | 2021-08-12 |
US20210112236A1 (en) | 2021-04-15 |
US20220094903A1 (en) | 2022-03-24 |
US11178383B2 (en) | 2021-11-16 |
WO2019191205A1 (en) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7499182B2 (ja) | ボリュメトリックビデオフォーマット用の方法、装置及びストリーム | |
KR102468178B1 (ko) | 몰입형 비디오 포맷을 위한 방법, 장치 및 스트림 | |
KR102594003B1 (ko) | 볼류메트릭 비디오를 인코딩/디코딩하기 위한 방법, 장치 및 스트림 | |
KR20200065076A (ko) | 볼류메트릭 비디오 포맷을 위한 방법, 장치 및 스트림 | |
KR102600011B1 (ko) | 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들 | |
US11202086B2 (en) | Apparatus, a method and a computer program for volumetric video | |
JP2021502033A (ja) | ボリュメトリックビデオを符号化/復号する方法、装置、およびストリーム | |
EP3562159A1 (en) | Method, apparatus and stream for volumetric video format | |
WO2019191202A1 (en) | Method, apparatus and stream for volumetric video format | |
KR102607709B1 (ko) | 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들 | |
KR20220035229A (ko) | 볼류메트릭 비디오 콘텐츠를 전달하기 위한 방법 및 장치 | |
WO2019077199A1 (en) | APPARATUS, METHOD, AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO | |
US20230217006A1 (en) | A method and apparatuses for delivering a volumetric video content | |
JP2022549431A (ja) | 容積ビデオを符号化、送信、及び復号化するための方法及び装置 | |
EP3709659A1 (en) | A method and apparatus for encoding and decoding volumetric video | |
RU2807582C2 (ru) | Способ, устройство и поток для формата объемного видео | |
US20230032599A1 (en) | Methods and apparatuses for encoding, decoding and rendering 6dof content from 3dof+ composed elements | |
CN117121059A (zh) | 支持光效果的体积视频 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230508 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7499182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |