JP2021168479A - デプスマップの推定および更新を用いる効率的なマルチビュー符号化 - Google Patents
デプスマップの推定および更新を用いる効率的なマルチビュー符号化 Download PDFInfo
- Publication number
- JP2021168479A JP2021168479A JP2021100230A JP2021100230A JP2021168479A JP 2021168479 A JP2021168479 A JP 2021168479A JP 2021100230 A JP2021100230 A JP 2021100230A JP 2021100230 A JP2021100230 A JP 2021100230A JP 2021168479 A JP2021168479 A JP 2021168479A
- Authority
- JP
- Japan
- Prior art keywords
- view
- motion
- current picture
- block
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 663
- 239000013598 vector Substances 0.000 claims abstract description 358
- 230000001419 dependent effect Effects 0.000 claims abstract description 124
- 238000000034 method Methods 0.000 claims description 84
- 238000009795 derivation Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 239000002245 particle Substances 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract 1
- 239000000523 sample Substances 0.000 description 113
- 230000002123 temporal effect Effects 0.000 description 38
- 230000006870 function Effects 0.000 description 23
- 239000010410 layer Substances 0.000 description 23
- 230000008569 process Effects 0.000 description 16
- 230000008901 benefit Effects 0.000 description 9
- 238000013507 mapping Methods 0.000 description 9
- 239000013074 reference sample Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 241000023320 Luma <angiosperm> Species 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011229 interlayer Substances 0.000 description 3
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 108091026890 Coding region Proteins 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
- H04N19/194—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/89—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
- H04N19/895—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【解決手段】装置10において、データストリームに符号化されたマルチビュー信号を再構成するディペンデントビュー再構成器26は、ディペンデントビュー内の現在のピクチャの符号化ブロックに対応するマルチビュー信号の参照ビューの現在のピクチャ内の参照ブロックに関連付けられた第2の動きベクトルに基づいた、第1の動きベクトルの推定と、第1の動きベクトルの動きベクトル候補のリストへの追加と、動きベクトル候補のリストのうちの選択された動きベクトルと、動き補償予測に使用される選択された動きベクトルに関連付けられたディペンデントビュー内の参照ピクチャとを示すインデックス情報のデータストリームからの抽出と、選択された動きベクトル及び参照ピクチャに基づいて動き補償予測を実行することによる、ディペンデントビューの現在のピクチャ内の符号化ブロックの再構成と、を含む。
【選択図】図1
Description
・動きベクトルは、一定の動きベクトル予測因子を用いることによって符号化されない。その代わりに、動きベクトル予測因子候補のリストが存在し、さらに、これらの予測因子の1つは、ブロックベースで適応的に選択される。選択された予測因子は、ビットストリーム内に信号で送られる。
・ITU-T Rec. H.264 | ISO/IEC 14496-10は、動きパラメータ(仮説の数、参照インデックス、動きベクトル)が(残差情報を除いて)いかなる付加的なパラメータも符号化せずに、すでに符号化された情報から完全に導出されるSKIPおよびDIRECTを提供する。HEVCは、いわゆるマージモードを提供する。このモードのために、空間的におよび時間的に隣接したブロックの動きパラメータによって与えられる動きパラメータ候補のリストが確立される。マージモードにおいて符号化されるブロックのために選択される動きパラメータ(仮説の数、参照インデックスおよび動きベクトルを含む)は、インデックスを候補リストに送信することによって信号で送られる。
・導出されたデプス/視差データに基づく現在のブロックのための候補動きまたは視差データの導出。
・現在のブロックのための動きまたは視差データの符号化。
・参照ビューのための動きベクトルは、参照ビューの参照ピクチャおよび参照ビューの現在のピクチャにおいて投影されたオブジェクトポイントの位置の差によって与えられ、MVR(xR,t)=xR,t-1−xR,tであり、
・現在の時刻のための視差ベクトルは、参照ビューの現在のピクチャおよび現在のビューの現在のピクチャにおいて投影されたオブジェクトポイントの位置の差によって与えられ、DVt(xC,t)=xR,t−xC,tであり、
・参照時刻のための視差ベクトルは、参照ビューの参照ピクチャおよび現在のビューの参照ピクチャにおいて投影されたオブジェクトポイントの位置の差によって与えられ、DVt-1(xC,t-1)=xR,t-1−xC,t-1である。
MVC(xC,t)+DVt-1(xC,t-1)−MVR(xR,t)−DVt(xC,t)=0
MVC(xC,t)=MVR(xR,t)+DVt(xC,t)−DVt-1(xC,t-1)
に従って導出され得る。ほとんどの場合、参照ビューのための動きベクトル(または動きパラメータ)は、このビューが動き補償予測を用いてすでに符号化されるので、与えられる。しかし、視差は通常与えられることなく、それらは推定され得るだけである。しかしながら、2つの推定値を用いることによって、最終的な結果の精度は、全く不正確であってもよく、さらに、十分に正確な時間的な動きベクトル予測因子を導出することに適していなくてもよい。しかし、一般に、オブジェクトポイントのデプス(カメラからの現実世界のオブジェクトポイントの距離)がほとんど現在のおよび参照ピクチャに対応する時刻間の定数であると仮定されることは正当化される(2つの連続したピクチャ間のカメラからまたはまでのオブジェクト動きは、通常、オブジェクトからカメラまでの距離よりも非常に小さい)。そして、視差もほとんど定数であり、さらに、動きベクトル間の関係は、
MVC(xC,t)≒MVR(xR,t)=MVR(xC,t+DVt(xC,t))
に単純化する。
d=fdz(z)
v(x)=fvd(d(x),x)
ここで、fvdは、視差ベクトルにサンプル位置x=[x,y]Tでデプス値dをマッピングする関数を特定する。1次元の並列カメラ構成である特定の重要なセットアップにおいて、それは、以下の特性によって特徴づけられる。
・すべてのカメラの光学軸は、平行であり、さらに、同じ平面内にある
・イメージセンサのスキャンラインは、光学軸を含む平面と平行である
v=fvd(d)
によって与えられる。
・動き/視差ベクトル予測因子候補の所定のリストの動き/視差ベクトル予測因子を特定する動き/視差ベクトル予測因子インデックス。動き/視差ベクトル予測因子候補のリストが単一の要素からなる場合、このインデックスは、送信されないがデコーダ側で推測される。ピクチャの少なくとも1つのブロックのために、動き/視差ベクトル予測因子候補のリストは、すでに符号化されたビューにおいて所定のデプス/視差情報および動き情報に基づいて導出される動き/視差ベクトルを含む。
・さもなければ(参照インデックスが時間的な参照ピクチャ(すなわち、同じビュー(例えば22など)のすでに符号化されたピクチャ)を参照し、動きベクトル予測因子が所定の参照ビューまたは例えば20などの参照ビューのセットに基づいて導出される。参照ビューまたは参照ビューのセットは、特定のアルゴリズムで決定され、または、ビットストリーム14において信号で送られる。例えば、参照ビューは、同じ時刻のための前に符号化されたビューであり得て、または、それは、現在のビューに最も小さい距離を有する(同じ時刻のために)すでに符号化されたビューまたは特定のアルゴリズムによって決定されるすでに符号化されたビューの他のいかなるものでもあり得る。すでに符号化されたビューのセットは、現在の時刻のためのすでに符号化されたビューのセットまたはこのセットのいかなるサブセットでもあり得る。
・さもなければ、(参照インデックスは、時間的な参照ピクチャ(すなわち、同じビューのすでに符号化されたピクチャ)を参照し)、動きベクトル予測因子は、所定の参照ビューまたは参照ビューのセットに基づいて導出される。サンプル位置xiごとに、デプス値diは、導出され、さらに、視差ベクトルviにマッピングされる。そして、(利用できるようにマークされる)視差ベクトルviごとに、動きベクトルmiは、(第1の好適な実施形態のために)上に特定されるアルゴリズムのいずれかによって導出される。それから、最終的な動きベクトル予測因子は、動きベクトルmiの関数によって与えられる。動きベクトル予測因子は、ほとんどの場合に発生する動きベクトルmiに等しく設定され得て、または、それは、動きベクトルmiのメジアン(または成分ごとのメジアン)に設定され得て、または、それは、動きベクトルmiの平均に設定され得て、または、それは、動きベクトルmiの他のいかなる関数によっても決定され得る。
・参照ビューにおいて参照インデックスがインタービュー参照ピクチャを参照する場合、現在のビューのための参照インデックスは、それが選択されたインタービュー参照ピクチャ(例えば、現在のビューと同じインタービュー参照ピクチャまたは参照ビューによって表される参照ピクチャ)も参照する方法で修正され得る。この場合、動きベクトルも、視差ベクトルに置き換えられなければならず、それは、代表デプスdを視差ベクトルに変換することによって得られ得る。
・参照ブロックにおいて用いられるすべての参照ピクチャのために対応するピクチャ(同じ時刻またはピクチャ順序カウントまたは参照インデックス)が現在のブロックのための参照リストにおいて利用できない場合、現在のブロックに利用できない参照ピクチャを参照する動き仮説が存在しないよう考慮され得る。
・参照ブロックがイントラ符号化される場合、動きパラメータは、視差補償予測のための動きパラメータに置き換えられ得る。例えば、参照インデックスは、それが参照ビューピクチャを参照する方法で設定され得て、さらに、動きベクトルは、代表デプスdを視差ベクトルに変換することによって得られる視差ベクトルに等しく設定され得る。代案として、動きパラメータは、利用できないようにマークされ得る。
・デプス値が特定のサンプル位置にさらに割り当てられない場合、それは、フォアグラウンドオブジェクトが移動し、さらに、前にカバーされたバックグラウンドが見えることを意味する。そのような領域のために行われ得る最高のものは、非閉塞バックグラウンドが隣接したバックグラウンドサンプルと比べて同じデプスを有すると仮定することである。そのため、デプス値が割り当てられていない領域は、カメラまでの最も大きい距離を表す周囲のサンプルのデプス値で満たされる。
2.参照デプスマップのサンプル位置xRごとに、以下のことが適用される。
a.サンプル位置xRのデプス値dは、所定のカメラまたは変換パラメータを用いて視差ベクトルvに変換され、視差ベクトルvは、(該当する場合に)サンプル精度に丸められ、さらに、現在のピクチャ内のサンプル位置は、
xC=xR+v=xR+[round(f]vd(d))
によって導出される。
b.現在のピクチャにおいてサンプル位置xCのデプス値が定義されていない値を有する場合、サンプル位置のデプス値は、デプス値dに等しく設定される。
c.さもなければ、現在のピクチャにおいてサンプル位置xCのデプス値は、dx<dで定義された値dxを有する場合、サンプル位置のデプス値は、デプス値dに等しく修正されさらに設定される。
3.定義されていないデプス値を有する現在のデプスマップの領域は、特定のホールフィルングアルゴリズムによって満たされる。そのようなホールフィリングアルゴリズムのために、現在のビューにおいてカバーされていないバックグラウンドのデプス値は、周囲のデプス値のサンプルに基づいて導出される。例えば、周囲のサンプルの最も小さいデプスマップ値が割り当てられ得る。しかし、より高度なホールフィリングアルゴリズムが可能である。
・関連したピクチャの動きパラメータを用いてベースビューデプスマップの時間的な予測。
・関連したピクチャのための実際に符号化された動きおよび視差ベクトルを用いてデプスマップ推定の更新。
・さもなければ、ブロックが1つ以上の視差ベクトル(視差仮説)を用いて符号化される場合、デプスサンプルは、視差ベクトルをデプス値に変換することによって導出される。1つの視差ベクトル(視差仮説)だけがブロックのために用いられる場合、デプス値は、対応する視差ベクトルによって与えられる。2つ以上の視差ベクトルがブロックのために用いられる場合、視差ベクトルの1つは、デプス値を導出するために選択され得て、または、視差ベクトルごとに、デプス値は、導出され得て、さらに、最後に割り当てられたデプス値は、個々に導出されたデプス値の関数を適用することによって得られる。可能な関数は、その中で、個々のデプス値の最小または最大、デプス値のメジアン、デプス値の平均、または、ほとんどの場合に発生するデプス値である。
・さもなければ、ブロックは、時間的な動き仮説だけを用いて符号化され、さらに、時間的な動き仮説は、ブロックのためのデプスサンプルを更新するために用いられる。
mcurr+vt-1−mref−vt=0
であり、符号化された動きパラメータおよび参照ピクチャにおいて視差が正しいと仮定する場合、現在の視差ベクトルは、
vt=vt-1+(mcurr−mref)
に等しく設定され得る。視差ベクトルは、デプスにおよびその逆に変換され得る。そのため、現在のデプスは、
として表され得る。
[1] ITU-T and ISO/IEC JTC 1, "Advanced video coding for generic audiovisual services," ITU-T Recommendation H.264 and ISO/IEC 14496-10 (MPEG-4 AVC), 2010
[2] A. Vetro, T. Wiegand, G. J. Sullivan, "Overview of the Stereo and Multiview Video Coding Extension of the H.264/MPEG-4 AVC Standard", Proceedings of IEEE, vol. 99, no.4, pp. 626-642, Apr. 2011
[3] H. Schwarz, D. Marpe, T. Wiegand, "Overview of the Scalable Video Coding Extension of the H.264/AVC Standard", IEEE Transactions on Circuits and Systems for Video Technology, vol. 17, no. 9, pp. 1103-1120, Sep. 2007
Claims (22)
- マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための装置であって、
前記マルチビュー信号の前に復号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の前記現在のピクチャの少なくとも1つのブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、前記少なくとも1つのブロックのための視差ベクトルを決定し、
決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出し、
前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記マルチビューデータストリームから、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を抽出し、さらに
特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成する
ように構成されるディペンデントビュー再構成器(26)を含む、装置。 - 前記参照ビュー(20)のための前記マルチビューデータストリーム(14)内に送信される動きデータ(42)に基づいて動き補償予測を用いて前記マルチビュー信号(12)の前記参照ビュー(20)の前記現在のピクチャ(32t1)を再構成するように構成される参照ビュー再構成器(24)、および
前記参照ビュー(20)のための前記動きデータ(42)を前記参照ビュー(20)の前のピクチャのデプスマップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)のデプスマップ推定(64)を生成し(71)、さらに
前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)のデプスマップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新されたデプスマップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)のデプスマップを推定するように構成されるデプス推定器(28)をさらに含み、
前記ディペンデントビュー再構成器(26)は、前記少なくとも1つのブロックのための前記視差ベクトルを決定する際に、前記決定された視差ベクトルを得るために前記少なくとも1つのブロックで前記デプスデータ推定をデプス対視差変換にさらすように構成される、請求項1に記載の装置。 - 前記ディペンデントビュー再構成器(26)は、前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記特定された動きベクトル候補に関する動きベクトル差をさらに抽出し、さらに、用いられた動きベクトルが前記動きベクトル差および前記特定された動きベクトル候補の合計にさらに依存するように前記現在のピクチャの前記少なくとも1つのブロックの再構成を実行するように構成される、請求項1または請求項2に記載の装置。
- 前記ディペンデントビュー再構成器は、前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記参照ビューの前記現在のピクチャおよび前記ディペンデントビュー(22)のすでに復号化されたピクチャを含む参照ピクチャのリストの参照ピクチャを特定する参照ピクチャインデックスをさらに抽出するように構成され、前記ディペンデントビュー再構成器は、前記参照ピクチャが前記ディペンデントビュー(22)の前記すでに復号化されたピクチャの1つである場合、参照として前記ディペンデントビュー(22)の1つのすでに復号化されたピクチャを用いて前記動き補償予測を実行し、さらに、前記参照ピクチャが前記参照ビューの前記現在のピクチャである場合、前記決定された視差ベクトルまたは前記決定された視差ベクトルから導出される修正された視差ベクトルを視差ベクトル予測候補のリストに加え、前記マルチビューデータストリームから視差ベクトル予測因子候補の前記リストの1つの視差ベクトル予測因子候補を特定するインデックス情報を抽出し、さらに、参照として前記参照ビューの前記現在のピクチャを用いて特定された視差ベクトル候補に依存する視差ベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの視差補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成するように構成される、先行する請求項のいずれかに記載の装置。
- 前記ディペンデントビュー再構成器は、動きベクトル予測因子候補の前記リストを導出する際に、前記ディペンデントビュー(22)の空間的におよび/または時間的に隣接したブロックからさらなる動きベクトルを空間的におよび/または時間的に予測し、さらに、前記さらなる動きベクトルまたは前記さらなる動きベクトルから導出されるバージョンを動きベクトル予測可能な候補の前記リストに加えるようにさらに構成される、先行する請求項のいずれかに記載の装置。
- 前記ディペンデントビュー再構成器は、それぞれが、多数の仮説と、仮説ごとに、動き/視差動きベクトルと、参照ビューの前記現在のピクチャおよび前記ディペンデントビュー(22)の前に復号化されたピクチャを含む参照ピクチャのリストから参照ピクチャを特定する参照インデックスとを含む、動き/視差パラメータ候補のリストである動き/視差ベクトル予測因子候補のリストを介して動きベクトル予測因子候補の前記リストの導出を実行するように構成され、前記ディペンデントビュー再構成器は、動き/視差パラメータを前記参照ビューの前記現在のピクチャの前記決定されたブロックと関連する動き/視差パラメータに依存する動き/視差パラメータ候補の前記リストに加え、さらに、前記インデックス情報によって特定される動き/視差パラメータ候補に依存する動き/視差パラメータを用いて動き/視差補償予測を前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックに実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成するように構成される、先行する請求項のいずれかに記載の装置。
- マルチビューデータストリームにマルチビュー信号を符号化するための装置であって、
前記マルチビュー信号の前に符号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の現在のブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、少なくとも1つのブロックのための視差ベクトルを決定し、
決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出し、
前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を、前記マルチビューデータストリームに挿入し、さらに
特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを符号化する
ように構成されるディペンデントビューエンコーダを含む、装置。 - マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための装置であって、
参照ビュー(20)のための前記マルチビューデータストリーム(14)内に送信される動きデータ(42)に基づいて動き補償予測を用いて前記マルチビュー信号(12)の参照ビュー(20)の現在のピクチャ(32t1)を再構成するように構成される参照ビュー再構成器(24)、
前記参照ビュー(20)のための前記動きデータ(42)を前記参照ビュー(20)の前のピクチャのデプスマップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)のデプスマップ推定(64)を生成し(71)、さらに
ディペンデントビュー(22)の現在のピクチャ(32t2)のデプスマップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新されたデプスマップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)のデプスマップを推定するように構成されるデプス推定器(28)、および
前記デプスマップ推定を用いて前記マルチビューデータストリームのディペンデントビュー部分から前記ディペンデントビューの前記現在のピクチャを再構成するように構成されるディペンデントビュー再構成器(26)を含む、装置。 - 前記動きデータ(42)は、ブロック粒度で定義される、請求項8に記載の装置。
- 前記ディペンデントビュー再構成器(26)は、前記マルチビューデータストリーム(14)の前記ディペンデントビュー部分(38)で構成される前記ディペンデントビュー(22)のための視差および/または動きデータ(54、60)に基づいて視差および/または動き補償予測を用いて前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)を再構成するように構成され、
前記デプス推定器は、前記ディペンデントビュー(22)のための前記視差および/または動きデータ(54、60)を用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記デプスマップ推定(64)を更新する(77)ように構成される、請求項8または請求項9に記載の装置。 - 前記デプス推定器は、前記参照ビュー(20)の前記現在のピクチャ(32t1)の更新されたデプスマップ推定(74)を得るために前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の前記更新されたデプスマップ推定(74)を前記参照ビュー(20)にワープする(78)ように構成され、前記デプス推定器(28)は、
前記参照ビュー(20)の次のピクチャ(32t1)の動きデータ(42)を前記参照ビュー(20)の前記現在のピクチャの前記更新されたデプスマップ推定(74)に適用することによって前記参照ビュー(20)の前記次のピクチャ(32t1)のデプスマップ推定(64)を生成し(79)、さらに
前記ディペンデントビュー(22)の次の現在のピクチャ(32t2)の前記デプスマップ推定(64)を得るために前記参照ビュー(20)の前記次のピクチャ(32t1)の前記更新されたデプスマップ推定(74)を前記ディペンデントビュー(22)にワープする
ことによって前記ディペンデントビュー(22)の次のピクチャ(32t2)の前記デプスマップを推定するように構成される、請求項10に記載の装置。 - 前記ディペンデントビュー再構成器は、前記ディペンデントビューの前記現在のピクチャの前記デプスデータ推定に基づく前記ディペンデントビューの前記現在のピクチャの動きデータおよび前記参照ビューの前記現在のピクチャのための動きデータを予測し、さらに、予測された動きデータに基づいて動き補償予測を用いて前記ディペンデントビューの前記現在のピクチャを再構成するように構成される、請求項8ないし請求項11のいずれかに記載の装置。
- 前記現在のビュー再構成器は、前記ディペンデントビューの前記現在のピクチャの前記動きデータを予測する際に、前記参照ビューの前記現在のピクチャにおいて対応する位置を決めるために前記ディペンデントビューの前記現在のビューの前記デプスデータ推定を用い、さらに、前記ディペンデントビューの前記現在のピクチャの前記動きデータを予測するために前記対応する位置で前記参照ビューの前記現在のピクチャのための前記動きデータを用いるように構成される、請求項12のいずれかに記載の装置。
- 前記ディペンデントビュー再構成器は、前記ディペンデントビューの前記現在のピクチャの前記デプスデータ推定に基づいて前記ディペンデントビューの前記現在のピクチャのための視差データを予測し、さらに、予測された視差データに基づいて視差補償予測を用いて前記ディペンデントビューの前記現在のピクチャを再構成するように構成される、請求項8ないし請求項13のいずれかに記載の装置。
- 前記ディペンデントビュー再構成器は、前記デプスデータを視差ベクトルに変換することによって前記ディペンデントビューの前記現在のピクチャの前記デプスデータ推定に基づいて前記ディペンデントビューの前記現在のピクチャのための前記視差データを予測するように構成される、請求項14に記載の装置。
- 前記ディペンデントビュー再構成器は、予測参照として前記デプスマップ推定を用いて前記マルチビューデータストリームの前記ディペンデントビュー部分のディペンデントビューデプスマップ部分から前記ディペンデントビューの前記現在のピクチャのデプスマップを再構成するように構成される、請求項15に記載の装置。
- マルチビューデータストリームにマルチビュー信号を符号化するための装置であって、
前記マルチビューデータストリームを介して参照ビューのための動きデータを送信することによって前記参照ビューのための動きデータに基づいて動き補償予測を用いて前記マルチビュー信号の参照ビューの現在のピクチャを符号化するように構成される参照ビューエンコーダ、
前記参照ビュー(20)のための前記動きデータ(42)を前記参照ビュー(20)の前のピクチャのデプスマップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)のデプスマップ推定(64)を生成し(71)、さらに
前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の前記デプスマップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新されたデプスマップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)のデプスマップを推定するように構成されるデプス推定器、および
前記デプスマップ推定を用いて前記ディペンデントビューの前記現在のピクチャを前記マルチビューデータストリームのディペンデントビュー部分に符号化するように構成されるディペンデントビューエンコーダを含む、装置。 - マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための方法であって、
前記マルチビュー信号の前に復号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の前記現在のピクチャのブロックの少なくとも1つのブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、前記少なくとも1つのブロックのための視差ベクトルを決定し、
決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出するステップ、
前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記マルチビューデータストリームから、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を抽出するステップ、および
特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成するステップを含む、方法。 - マルチビューデータストリームにマルチビュー信号を符号化するための方法であって、
前記マルチビュー信号の前に符号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の現在のブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、少なくとも1つのブロックのための視差ベクトルを決定し、
決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出するステップ、
前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を、前記マルチビューデータストリームに挿入するステップ、および
特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを符号化するステップを含む、方法。 - マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための方法であって、
参照ビュー(20)のための前記マルチビューデータストリーム(14)内に送信される動きデータ(42)に基づいて動き補償予測を用いて前記マルチビュー信号(12)の参照ビュー(20)の現在のピクチャ(32t1)を再構成するステップ、
前記参照ビュー(20)のための前記動きデータ(42)を前記参照ビュー(20)の前のピクチャのデプスマップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)のデプスマップ推定(64)を生成し(71)、さらに
ディペンデントビュー(22)の現在のピクチャ(32t2)のデプスマップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新されたデプスマップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)のデプスマップを推定するステップ、および
前記デプスマップ推定を用いて前記マルチビューデータストリームのディペンデントビュー部分から前記ディペンデントビューの前記現在のピクチャを再構成するステップを含む、方法。 - マルチビューデータストリームにマルチビュー信号を符号化するための方法であって、
前記マルチビューデータストリームを介して参照ビューのための動きデータを送信することによって前記参照ビューのための動きデータに基づいて動き補償予測を用いて前記マルチビュー信号の参照ビューの現在のピクチャを符号化するステップ、
前記参照ビュー(20)のための前記動きデータ(42)を前記参照ビュー(20)の前のピクチャのデプスマップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)のデプスマップ推定(64)を生成し(71)、さらに
前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の前記デプスマップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新されたデプスマップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)のデプスマップを推定するステップ、および
前記デプスマップ推定を用いて前記ディペンデントビューの前記現在のピクチャを前記マルチビューデータストリームのディペンデントビュー部分に符号化するステップを含む、方法。 - コンピュータ上で実行されるときに、請求項18または請求項21に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023041766A JP2023085341A (ja) | 2011-11-11 | 2023-03-16 | 深度マップの推定および更新を用いる効率的なマルチビュー符号化 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161558651P | 2011-11-11 | 2011-11-11 | |
US61/558,651 | 2011-11-11 | ||
JP2019105062A JP7210381B2 (ja) | 2011-11-11 | 2019-06-05 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019105062A Division JP7210381B2 (ja) | 2011-11-11 | 2019-06-05 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023041766A Division JP2023085341A (ja) | 2011-11-11 | 2023-03-16 | 深度マップの推定および更新を用いる効率的なマルチビュー符号化 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021168479A true JP2021168479A (ja) | 2021-10-21 |
JP7248741B2 JP7248741B2 (ja) | 2023-03-29 |
Family
ID=47257762
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014540483A Active JP6178326B2 (ja) | 2011-11-11 | 2012-11-09 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
JP2017137033A Active JP6659628B2 (ja) | 2011-11-11 | 2017-07-13 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
JP2019105062A Active JP7210381B2 (ja) | 2011-11-11 | 2019-06-05 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
JP2021100230A Active JP7248741B2 (ja) | 2011-11-11 | 2021-06-16 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
JP2023041766A Pending JP2023085341A (ja) | 2011-11-11 | 2023-03-16 | 深度マップの推定および更新を用いる効率的なマルチビュー符号化 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014540483A Active JP6178326B2 (ja) | 2011-11-11 | 2012-11-09 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
JP2017137033A Active JP6659628B2 (ja) | 2011-11-11 | 2017-07-13 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
JP2019105062A Active JP7210381B2 (ja) | 2011-11-11 | 2019-06-05 | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023041766A Pending JP2023085341A (ja) | 2011-11-11 | 2023-03-16 | 深度マップの推定および更新を用いる効率的なマルチビュー符号化 |
Country Status (9)
Country | Link |
---|---|
US (5) | US10097810B2 (ja) |
EP (2) | EP3657795A1 (ja) |
JP (5) | JP6178326B2 (ja) |
KR (8) | KR102641723B1 (ja) |
CN (2) | CN110139108B (ja) |
BR (1) | BR112014011425B1 (ja) |
HK (1) | HK1202208A1 (ja) |
IN (1) | IN2014KN00990A (ja) |
WO (1) | WO2013068547A2 (ja) |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8867854B2 (en) | 2008-10-01 | 2014-10-21 | Electronics And Telecommunications Research Institute | Image encoder and decoder using undirectional prediction |
KR101356448B1 (ko) | 2008-10-01 | 2014-02-06 | 한국전자통신연구원 | 예측 모드를 이용한 복호화 장치 |
TWI523497B (zh) * | 2011-11-10 | 2016-02-21 | Sony Corp | Image processing apparatus and method |
CN110139108B (zh) * | 2011-11-11 | 2023-07-18 | Ge视频压缩有限责任公司 | 用于将多视点信号编码到多视点数据流中的装置及方法 |
WO2013068548A2 (en) | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient multi-view coding using depth-map estimate for a dependent view |
EP3739886A1 (en) | 2011-11-18 | 2020-11-18 | GE Video Compression, LLC | Multi-view coding with efficient residual handling |
US20130176390A1 (en) * | 2012-01-06 | 2013-07-11 | Qualcomm Incorporated | Multi-hypothesis disparity vector construction in 3d video coding with depth |
US9560353B2 (en) | 2012-01-27 | 2017-01-31 | Sun Patent Trust | Video encoding method, video encoding device, video decoding method and video decoding device |
CN107835428B (zh) * | 2012-03-02 | 2021-09-24 | 太阳专利托管公司 | 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置 |
CN104185993B (zh) * | 2012-03-30 | 2019-02-12 | 索尼公司 | 图像处理设备和方法以及记录介质 |
EP2839639A4 (en) * | 2012-04-19 | 2016-01-06 | Intel Corp | THREE-DIMENSIONAL VIDEO CODING (3D) INCLUDING DEPARTIVITY VECTOR CALIBRATION BASED ON DEPTH |
EP2838264A4 (en) * | 2012-04-23 | 2016-01-06 | Samsung Electronics Co Ltd | METHOD FOR ENCODING MULTIVUE VIDEO USING A MULTIVUE VIDEO PREDICTION REFERENCE LIST AND DEVICE THEREFOR, AND METHOD FOR DECODING MULTIVUE VIDEO USING A MULTIVUE VIDEO PREDICTION REFERENCE LIST AND DEVICE THEREOF |
CN104396252B (zh) * | 2012-04-25 | 2018-05-04 | 三星电子株式会社 | 使用用于多视点视频预测的参考画面集的多视点视频编解码方法及其装置 |
CN104272743B (zh) | 2012-05-09 | 2019-01-01 | 太阳专利托管公司 | 执行运动矢量预测的方法、编码和解码方法及其装置 |
CN104662910B (zh) * | 2012-09-21 | 2018-04-10 | 寰发股份有限公司 | 3d视频编码中的虚拟深度值的方法和装置 |
US10075728B2 (en) * | 2012-10-01 | 2018-09-11 | Inria Institut National De Recherche En Informatique Et En Automatique | Method and device for motion information prediction refinement |
KR102445274B1 (ko) | 2012-10-01 | 2022-09-20 | 지이 비디오 컴프레션, 엘엘씨 | 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩 |
KR101421411B1 (ko) * | 2012-11-14 | 2014-07-22 | 에스케이플래닛 주식회사 | 지도정보 제공 방법, 이를 위한 시스템, 이를 위한 단말기 및 이를 위한 서비스장치 |
US9948939B2 (en) * | 2012-12-07 | 2018-04-17 | Qualcomm Incorporated | Advanced residual prediction in scalable and multi-view video coding |
US9781416B2 (en) | 2013-02-26 | 2017-10-03 | Qualcomm Incorporated | Neighboring block disparity vector derivation in 3D video coding |
US9596448B2 (en) * | 2013-03-18 | 2017-03-14 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
JP6154643B2 (ja) * | 2013-03-29 | 2017-06-28 | Kddi株式会社 | 動画像符号化装置、動画像符号化装置のデプスイントラ予測方法およびプログラム、ならびに動画像復号装置、動画像復号装置のデプスイントラ予測方法およびプログラム |
EP2932720A4 (en) * | 2013-04-10 | 2016-07-27 | Mediatek Inc | METHOD AND APPARATUS FOR DIVIDING VECTOR DIVIDER FOR THREE-DIMENSIONAL AND MULTI-VIEW VIDEO CODING |
KR101854003B1 (ko) * | 2013-07-02 | 2018-06-14 | 경희대학교 산학협력단 | 복수의 레이어를 포함하는 영상의 부호화 및 복호화 방법 |
EP3021584A4 (en) | 2013-07-12 | 2017-03-15 | Samsung Electronics Co., Ltd. | Method and apparatus for inter-layer decoding video using depth-based disparity vector, and method and apparatus for inter-layer encoding video using depth-based disparity vector |
WO2015007159A1 (en) * | 2013-07-15 | 2015-01-22 | Mediatek Singapore Pte. Ltd. | Method of disparity derived depth coding in 3d video coding |
US10070147B2 (en) | 2013-10-18 | 2018-09-04 | Lg Electronics Inc. | Method predicting view synthesis in multi-view video coding and method for constituting merge candidate list by using same |
WO2015093919A1 (ko) * | 2013-12-20 | 2015-06-25 | 삼성전자 주식회사 | 인터 뷰 예측을 이용한 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
CN103763557B (zh) * | 2014-01-03 | 2017-06-27 | 华为技术有限公司 | 一种Do‑NBDV获取方法及视频解码装置 |
CN106464899A (zh) * | 2014-03-20 | 2017-02-22 | 日本电信电话株式会社 | 活动图像编码装置及方法和活动图像解码装置及方法 |
KR102260146B1 (ko) * | 2014-03-31 | 2021-06-03 | 인텔렉추얼디스커버리 주식회사 | 시점 간 움직임 병합 후보 유도 방법 및 장치 |
KR102240570B1 (ko) * | 2014-05-13 | 2021-04-15 | 삼성전자주식회사 | 신장 트리 생성 방법 및 장치,스테레오 매칭 방법 및 장치,업 샘플링 방법 및 장치,및 기준 픽셀 생성 방법 및 장치 |
US9939253B2 (en) * | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
WO2015184605A1 (en) * | 2014-06-04 | 2015-12-10 | Mediatek Singapore Pte. Ltd. | Depth coding compatible with arbitrary bit-depth |
CN104079944B (zh) | 2014-06-30 | 2017-12-01 | 华为技术有限公司 | 视频编码的运动矢量列表构建方法和*** |
WO2016008157A1 (en) * | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
WO2016026526A2 (en) * | 2014-08-20 | 2016-02-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Video composition |
US10453207B2 (en) * | 2015-07-31 | 2019-10-22 | Versitech Limited | Method and system for global motion estimation and compensation |
CN109274974B (zh) | 2015-09-29 | 2022-02-11 | 华为技术有限公司 | 图像预测的方法及装置 |
CN109076200B (zh) * | 2016-01-12 | 2021-04-23 | 上海科技大学 | 全景立体视频***的校准方法和装置 |
CN107094260A (zh) * | 2016-02-17 | 2017-08-25 | 浙江大学 | 导出视差矢量和运动矢量的方法和装置 |
WO2018012851A1 (ko) * | 2016-07-12 | 2018-01-18 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 이를 위한 기록 매체 |
KR102004247B1 (ko) * | 2016-11-25 | 2019-07-29 | 경희대학교 산학협력단 | 영상 병렬 처리 방법 및 장치 |
US10609367B2 (en) * | 2016-12-21 | 2020-03-31 | Qualcomm Incorporated | Low-complexity sign prediction for video coding |
FR3068558A1 (fr) * | 2017-07-05 | 2019-01-04 | Orange | Procede de codage et decodage d'images,dispositif de codage et decodage et programmes d'ordinateur correspondants |
DE102017117859A1 (de) | 2017-08-07 | 2019-02-07 | Osram Opto Semiconductors Gmbh | Verfahren zum Betreiben einer autostereoskopischen Anzeigevorrichtung und autostereoskopische Anzeigevorrichtung |
JP2019050451A (ja) * | 2017-09-07 | 2019-03-28 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム及び画像処理システム |
US10244164B1 (en) | 2017-09-11 | 2019-03-26 | Qualcomm Incorporated | Systems and methods for image stitching |
US10931963B2 (en) * | 2017-12-07 | 2021-02-23 | Tencent America LLC | Method and apparatus for video coding |
WO2020003270A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Number of motion candidates in a look up table to be checked according to mode |
CN114900694A (zh) | 2018-06-29 | 2022-08-12 | 抖音视界(北京)有限公司 | 哪个查找表需要更新或不更新 |
EP3791585A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
JP7137008B2 (ja) | 2018-06-29 | 2022-09-13 | 北京字節跳動網絡技術有限公司 | 1つまたは複数のルックアップテーブルを使用して、以前コーディングされた動き情報を順に記憶させてそれらを後続のブロックのコーディングに使用する概念 |
CN110662043B (zh) | 2018-06-29 | 2021-12-21 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
EP3791588A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Checking order of motion candidates in lut |
AU2019293670B2 (en) | 2018-06-29 | 2023-06-08 | Beijing Bytedance Network Technology Co., Ltd. | Update of look up table: FIFO, constrained FIFO |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
CN110677667B (zh) | 2018-07-02 | 2022-06-07 | 北京字节跳动网络技术有限公司 | 查找表的使用 |
WO2020036384A1 (en) * | 2018-08-12 | 2020-02-20 | Lg Electronics Inc. | An apparatus for transmitting a video, a method for transmitting a video, an apparatus for receiving a video, and a method for receiving a video |
CN110876058B (zh) * | 2018-08-30 | 2021-09-21 | 华为技术有限公司 | 一种历史候选列表更新方法与装置 |
WO2020053800A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | How many hmvp candidates to be checked |
EP3644604A1 (en) * | 2018-10-23 | 2020-04-29 | Koninklijke Philips N.V. | Image generating apparatus and method therefor |
JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
CN113273207A (zh) | 2019-01-10 | 2021-08-17 | 北京字节跳动网络技术有限公司 | 基于几何分区的具有运动矢量差(MVD)的Merge |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
CN113330739A (zh) | 2019-01-16 | 2021-08-31 | 北京字节跳动网络技术有限公司 | Lut中的运动候选的***顺序 |
CN113615193B (zh) | 2019-03-22 | 2024-06-25 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
CN112040245B (zh) * | 2019-06-04 | 2023-07-21 | 万维数码有限公司 | 用于帧内编码深度图多层表示的***和方法 |
CN114128285B (zh) * | 2019-06-14 | 2024-07-19 | 现代自动车株式会社 | 用于利用帧间预测来编码和解码视频的方法和装置 |
MX2022000044A (es) * | 2019-06-27 | 2022-02-24 | Samsung Electronics Co Ltd | Metodo y aparato para decodificar video y metodo y aparato para codificar video. |
US11356698B2 (en) * | 2019-12-30 | 2022-06-07 | Tencent America LLC | Method for parameter set reference constraints in coded video stream |
US11503266B2 (en) * | 2020-03-06 | 2022-11-15 | Samsung Electronics Co., Ltd. | Super-resolution depth map generation for multi-camera or other environments |
US11615544B2 (en) | 2020-09-15 | 2023-03-28 | Toyota Research Institute, Inc. | Systems and methods for end-to-end map building from a video sequence using neural camera models |
US11494927B2 (en) * | 2020-09-15 | 2022-11-08 | Toyota Research Institute, Inc. | Systems and methods for self-supervised depth estimation |
FR3114716A1 (fr) * | 2020-09-29 | 2022-04-01 | Orange | Codage et décodage d’une vidéo multi-vues |
EP4131960A1 (en) * | 2021-08-06 | 2023-02-08 | Koninklijke Philips N.V. | Coding hybrid multi-view sensor configurations |
WO2023150488A1 (en) * | 2022-02-01 | 2023-08-10 | Dolby Laboratories Licensing Corporation | Depth differences in place of motion vectors |
US20240031596A1 (en) * | 2022-07-19 | 2024-01-25 | Tencent America LLC | Adaptive motion vector for warped motion mode of video coding |
US20240171767A1 (en) * | 2022-11-22 | 2024-05-23 | Tencent America LLC | Systems and methods for improving warp extend and warp delta signaling with backup candidates |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009543508A (ja) * | 2006-07-12 | 2009-12-03 | エルジー エレクトロニクス インコーポレイティド | 信号処理方法及び装置 |
WO2010043773A1 (en) * | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
JP2010525724A (ja) * | 2007-04-25 | 2010-07-22 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号をデコーディング/エンコーディングする方法および装置 |
JP2010537484A (ja) * | 2007-08-15 | 2010-12-02 | トムソン ライセンシング | 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置 |
JP2011509631A (ja) * | 2008-01-11 | 2011-03-24 | トムソン ライセンシング | ビデオおよび奥行きの符号化 |
Family Cites Families (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101448162B (zh) | 2001-12-17 | 2013-01-02 | 微软公司 | 处理视频图像的方法 |
EP1558039A1 (en) | 2004-01-21 | 2005-07-27 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding |
JP2006202911A (ja) | 2005-01-19 | 2006-08-03 | Matsushita Electric Ind Co Ltd | 保持具識別装置、部品供給方法、部品実装機 |
EP1894412A1 (en) | 2005-02-18 | 2008-03-05 | THOMSON Licensing | Method for deriving coding information for high resolution images from low resoluton images and coding and decoding devices implementing said method |
US7876833B2 (en) | 2005-04-11 | 2011-01-25 | Sharp Laboratories Of America, Inc. | Method and apparatus for adaptive up-scaling for spatially scalable coding |
JP2009510807A (ja) | 2005-07-08 | 2009-03-12 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号のコーディング情報を圧縮/展開するためにコーディング情報モデリング方法 |
MX2008000522A (es) | 2005-07-11 | 2008-03-06 | Thomson Licensing | Metodo y aparato para la prediccion adaptable de intra-textura entre capas de macrobloque. |
EP1905244A4 (en) | 2005-07-18 | 2010-12-01 | Korea Electronics Telecomm | PREDICTIVE ENCODING / DECODING DEVICE THROUGH SPATIO-TEMPORAL DIMENSIONAL REFERENCE IMAGE PADS AND METHOD OF USE |
US8289370B2 (en) | 2005-07-20 | 2012-10-16 | Vidyo, Inc. | System and method for scalable and low-delay videoconferencing using scalable video coding |
KR100678911B1 (ko) | 2005-07-21 | 2007-02-05 | 삼성전자주식회사 | 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치 |
JP4663792B2 (ja) * | 2005-09-21 | 2011-04-06 | サムスン エレクトロニクス カンパニー リミテッド | 多視点動映像を符号化及び復号化する装置及び方法 |
EP1929783B1 (en) * | 2005-09-29 | 2017-06-21 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding a multi-view picture using disparity vectors, and computer readable recording medium storing a program for executing the method |
EP1932361A1 (en) | 2005-10-03 | 2008-06-18 | Nokia Corporation | Adaptive variable length codes for independent variables |
GB0600141D0 (en) | 2006-01-05 | 2006-02-15 | British Broadcasting Corp | Scalable coding of video signals |
ZA200805337B (en) | 2006-01-09 | 2009-11-25 | Thomson Licensing | Method and apparatus for providing reduced resolution update mode for multiview video coding |
US20070230567A1 (en) | 2006-03-28 | 2007-10-04 | Nokia Corporation | Slice groups and data partitioning in scalable video coding |
WO2008004940A1 (en) | 2006-07-07 | 2008-01-10 | Telefonaktiebolaget Lm Ericsson (Publ) | Video data management |
US7885471B2 (en) | 2006-07-10 | 2011-02-08 | Sharp Laboratories Of America, Inc. | Methods and systems for maintenance and use of coded block pattern information |
JP5013993B2 (ja) * | 2006-07-12 | 2012-08-29 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | 或るシーンの複数のマルチビュービデオを処理する方法及びシステム |
US9001899B2 (en) | 2006-09-15 | 2015-04-07 | Freescale Semiconductor, Inc. | Video information processing system with selective chroma deblock filtering |
US9014280B2 (en) | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
RU2446618C2 (ru) | 2006-12-28 | 2012-03-27 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ кодирования и способ декодирования видео, устройства для их осуществления и носители памяти, хранящие программы |
US8199812B2 (en) | 2007-01-09 | 2012-06-12 | Qualcomm Incorporated | Adaptive upsampling for scalable video coding |
KR20080066522A (ko) | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | 다시점 영상의 부호화, 복호화 방법 및 장치 |
DE102007006663A1 (de) | 2007-02-10 | 2008-08-21 | Lts Lohmann Therapie-Systeme Ag | Transport von Arzneistoffen über die Blut-Hirn-Schranke mittels Apolipoproteinen |
US20080205508A1 (en) | 2007-02-22 | 2008-08-28 | Streaming Networks (Pvt.) Ltd. | Method and apparatus for low complexity video encoding and decoding |
CN101669367A (zh) * | 2007-03-02 | 2010-03-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法及设备 |
US8204129B2 (en) | 2007-03-27 | 2012-06-19 | Freescale Semiconductor, Inc. | Simplified deblock filtering for reduced memory access and computational complexity |
KR101395659B1 (ko) | 2007-06-28 | 2014-05-19 | 톰슨 라이센싱 | 다시점 코딩된 영상의 단일 루프 디코딩 |
WO2009003499A1 (en) | 2007-06-29 | 2009-01-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scalable video coding supporting pixel value refinement scalability |
WO2009011492A1 (en) | 2007-07-13 | 2009-01-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image |
US8938009B2 (en) | 2007-10-12 | 2015-01-20 | Qualcomm Incorporated | Layered encoded bitstream structure |
CN101415115B (zh) * | 2007-10-15 | 2011-02-02 | 华为技术有限公司 | 基于运动跳跃模式的视频编解码方法及其编解码器 |
WO2009051704A1 (en) | 2007-10-16 | 2009-04-23 | Thomson Licensing | Methods and apparatus for artifact removal for bit depth scalability |
US7777654B2 (en) | 2007-10-16 | 2010-08-17 | Industrial Technology Research Institute | System and method for context-based adaptive binary arithematic encoding and decoding |
KR100918862B1 (ko) | 2007-10-19 | 2009-09-28 | 광주과학기술원 | 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체 |
CN101170702B (zh) * | 2007-11-23 | 2010-08-11 | 四川虹微技术有限公司 | 多视角视频编码方法 |
KR20090055803A (ko) | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
DK2279622T3 (en) | 2008-04-16 | 2015-01-12 | Fraunhofer Ges Forschung | Bit depth scalability |
WO2009131703A2 (en) | 2008-04-25 | 2009-10-29 | Thomson Licensing | Coding of depth signal |
CN102017627B (zh) | 2008-04-25 | 2013-05-01 | 汤姆森许可贸易公司 | 使用基于深度信息的视差估计的多视点视频编码 |
US8422766B2 (en) * | 2008-06-24 | 2013-04-16 | Thomson Licensing | System and method for depth extraction of images with motion compensation |
US8166220B2 (en) | 2008-08-04 | 2012-04-24 | Sandisk Il Ltd. | Device for connection with a storage device and a host |
CN102124742B (zh) | 2008-08-20 | 2013-09-11 | 汤姆逊许可公司 | 精制深度图 |
KR101697598B1 (ko) | 2008-10-27 | 2017-02-01 | 엘지전자 주식회사 | 가상 뷰 이미지 합성 방법 및 장치 |
EP2348732A4 (en) * | 2008-11-10 | 2012-05-09 | Lg Electronics Inc | METHOD AND DEVICE FOR PROCESSING VIDEO SIGNAL BY INTER-VIEW PREDICTION |
KR101590511B1 (ko) | 2009-01-23 | 2016-02-02 | 에스케이텔레콤 주식회사 | 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법 |
EP2394437B1 (en) | 2009-02-06 | 2015-04-08 | Thomson Licensing | Methods and apparatus for implicit and semi-implicit intra mode signaling for video encoders and decoders |
WO2010120804A1 (en) | 2009-04-13 | 2010-10-21 | Reald Inc. | Encoding, decoding, and distributing enhanced resolution stereoscopic video |
JP4851564B2 (ja) * | 2009-06-15 | 2012-01-11 | 日本電信電話株式会社 | 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
EP2265026A1 (en) | 2009-06-16 | 2010-12-22 | Canon Kabushiki Kaisha | Method and device for deblocking filtering of SVC type video streams during decoding |
CN101600108B (zh) * | 2009-06-26 | 2011-02-02 | 北京工业大学 | 一种多视点视频编码中的运动和视差联合估计方法 |
US8665964B2 (en) | 2009-06-30 | 2014-03-04 | Qualcomm Incorporated | Video coding based on first order prediction and pre-defined second order prediction mode |
CN101867813B (zh) * | 2010-04-23 | 2012-05-09 | 南京邮电大学 | 面向交互式应用的多视点视频编码方法 |
US8930562B2 (en) | 2010-07-20 | 2015-01-06 | Qualcomm Incorporated | Arranging sub-track fragments for streaming video data |
CN101917619B (zh) * | 2010-08-20 | 2012-05-09 | 浙江大学 | 一种多视点视频编码快速运动估计方法 |
US20120075436A1 (en) | 2010-09-24 | 2012-03-29 | Qualcomm Incorporated | Coding stereo video data |
US8923395B2 (en) | 2010-10-01 | 2014-12-30 | Qualcomm Incorporated | Video coding using intra-prediction |
CN101986716B (zh) * | 2010-11-05 | 2012-07-04 | 宁波大学 | 一种快速深度视频编码方法 |
US20120114036A1 (en) | 2010-11-10 | 2012-05-10 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and Apparatus for Multiview Video Coding |
WO2012096164A1 (ja) * | 2011-01-12 | 2012-07-19 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置 |
US20120236115A1 (en) | 2011-03-14 | 2012-09-20 | Qualcomm Incorporated | Post-filtering in full resolution frame-compatible stereoscopic video coding |
US9247249B2 (en) | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
WO2013030456A1 (en) | 2011-08-30 | 2013-03-07 | Nokia Corporation | An apparatus, a method and a computer program for video coding and decoding |
CN110139108B (zh) * | 2011-11-11 | 2023-07-18 | Ge视频压缩有限责任公司 | 用于将多视点信号编码到多视点数据流中的装置及方法 |
EP3739886A1 (en) | 2011-11-18 | 2020-11-18 | GE Video Compression, LLC | Multi-view coding with efficient residual handling |
-
2012
- 2012-11-09 CN CN201910417853.8A patent/CN110139108B/zh active Active
- 2012-11-09 KR KR1020237002530A patent/KR102641723B1/ko active Application Filing
- 2012-11-09 KR KR1020147015900A patent/KR101662918B1/ko active IP Right Grant
- 2012-11-09 EP EP19195133.4A patent/EP3657795A1/en active Pending
- 2012-11-09 CN CN201280066739.1A patent/CN104247432B/zh active Active
- 2012-11-09 KR KR1020217034174A patent/KR102492490B1/ko active IP Right Grant
- 2012-11-09 KR KR1020207007160A patent/KR102318349B1/ko active IP Right Grant
- 2012-11-09 KR KR1020247006024A patent/KR20240027889A/ko active Application Filing
- 2012-11-09 KR KR1020167026794A patent/KR101894886B1/ko active IP Right Grant
- 2012-11-09 KR KR1020197028653A patent/KR102090106B1/ko active IP Right Grant
- 2012-11-09 WO PCT/EP2012/072299 patent/WO2013068547A2/en active Application Filing
- 2012-11-09 KR KR1020187024889A patent/KR102029401B1/ko active IP Right Grant
- 2012-11-09 EP EP12791717.7A patent/EP2777267B1/en active Active
- 2012-11-09 IN IN990KON2014 patent/IN2014KN00990A/en unknown
- 2012-11-09 BR BR112014011425-0A patent/BR112014011425B1/pt active IP Right Grant
- 2012-11-09 JP JP2014540483A patent/JP6178326B2/ja active Active
-
2014
- 2014-05-08 US US14/272,671 patent/US10097810B2/en active Active
-
2015
- 2015-03-16 HK HK15102674.2A patent/HK1202208A1/xx unknown
-
2017
- 2017-07-13 JP JP2017137033A patent/JP6659628B2/ja active Active
-
2018
- 2018-09-04 US US16/120,731 patent/US10477182B2/en active Active
-
2019
- 2019-06-05 JP JP2019105062A patent/JP7210381B2/ja active Active
- 2019-10-03 US US16/592,433 patent/US10887575B2/en active Active
-
2020
- 2020-12-21 US US17/129,450 patent/US11523098B2/en active Active
-
2021
- 2021-06-16 JP JP2021100230A patent/JP7248741B2/ja active Active
-
2022
- 2022-11-07 US US18/053,223 patent/US20230188694A1/en active Pending
-
2023
- 2023-03-16 JP JP2023041766A patent/JP2023085341A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009543508A (ja) * | 2006-07-12 | 2009-12-03 | エルジー エレクトロニクス インコーポレイティド | 信号処理方法及び装置 |
JP2010525724A (ja) * | 2007-04-25 | 2010-07-22 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号をデコーディング/エンコーディングする方法および装置 |
JP2010537484A (ja) * | 2007-08-15 | 2010-12-02 | トムソン ライセンシング | 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置 |
JP2011509631A (ja) * | 2008-01-11 | 2011-03-24 | トムソン ライセンシング | ビデオおよび奥行きの符号化 |
WO2010043773A1 (en) * | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
Non-Patent Citations (2)
Title |
---|
CHRISTIAN BARTNIK ET AL.: "HEVC Extension for Multiview Video Coding and Multiview Video plus Depth Coding", ITU - TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 QUESTION 6 VIDEO CODING EXPERTS GROUP, vol. VCEG-AR13, JPN6019012572, February 2012 (2012-02-01), pages 1 - 42, ISSN: 0004824261 * |
HAITAO YANG ET AL.: "Regional Disparity Based Motion and Disparity Prediction for MVC", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q.6), vol. JVT-V071r1, JPN6019012573, January 2007 (2007-01-01), pages 1 - 6, ISSN: 0004824260 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7248741B2 (ja) | デプスマップの推定および更新を用いる効率的なマルチビュー符号化 | |
US11240478B2 (en) | Efficient multi-view coding using depth-map estimate for a dependent view | |
EP2781091B1 (en) | Multi-view coding with efficient residual handling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7248741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |