JP2020527001A - 点群エンコーダ - Google Patents

点群エンコーダ Download PDF

Info

Publication number
JP2020527001A
JP2020527001A JP2020503345A JP2020503345A JP2020527001A JP 2020527001 A JP2020527001 A JP 2020527001A JP 2020503345 A JP2020503345 A JP 2020503345A JP 2020503345 A JP2020503345 A JP 2020503345A JP 2020527001 A JP2020527001 A JP 2020527001A
Authority
JP
Japan
Prior art keywords
block
graph
point
reference block
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503345A
Other languages
English (en)
Other versions
JP6732152B1 (ja
Inventor
ティアン、ドン
パヴェス、エドュアルド
コーエン、ロバート
ヴェトロ、アンソニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6732152B1 publication Critical patent/JP6732152B1/ja
Publication of JP2020527001A publication Critical patent/JP2020527001A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/007Transform coding, e.g. discrete cosine transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/62Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding by frequency transforming in three dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Computer Graphics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

シーンの点群フレームのシーケンスを含む動的点群を受け入れる入力インターフェースを備える点群エンコーダに関する。プロセッサは、現在の点群フレームのブロックをエンコードして、エンコードされたフレームを生成する。現在の点群フレームの現在のブロックをエンコードするために、現在のブロックをエンコードするための基準として機能する類似度メトリックに従って、現在のブロックに類似した基準ブロックが選択される。ペアリングされる点の値に基づいて、現在のブロック内の各点を、基準ブロック内の点とペアリングする。基準ブロックの識別情報及びペアリングされた点の値の間の残差の組み合わせに基づいて現在のブロックをエンコードする。残差は、基準ブロック内の点の値の順序に従って順序付けされる。送信機は、通信チャネルを通じて、エンコードされたフレームを送信する。

Description

本開示の実施形態は、点群信号の解析、補完及び表現に関し、より詳細には、点群処理及び圧縮に関する方法及びエンコーダを含む。
点群は、多くの場合、同一のシーンについて逐次的に取得され、複数の移動物体を含む。これらの点群は、静止シーン又は静止物体から捕捉された静的点群と比較して、動的点群と呼ばれる。動的点群は、典型的には、複数のフレームに編成され、異なるフレームは、異なる時点において捕捉される。
本開示の実施形態は、点群信号の解析、補完及び表現に関し、特に、点群処理及び圧縮に関する方法及びエンコーダを含む。
点群信号は、いくつかの側面において従来のビデオ信号に類似している。なぜならば、点群信号及びビデオ信号はいずれも、サンプリング点のセットから構成されるためである。ビデオ信号では、各サンプリング点は、多くの場合ピクセルと称される一方、点群信号では、各サンプリング点は、3Dワールド内の点に対応する。その上、いずれの信号も、同一のシーンから捕捉することができ、したがって、いずれの信号の場合にも、近傍フレーム間に冗長性が存在する。
圧縮タスクに関して、ビデオ圧縮におけるフレーム間予測からの類似の原理を点群圧縮に適用しようとすることから始めることが比較的容易である可能性があるが、しかしながら、これは、以下の事実に起因して簡単ではない(non-trivial)タスクである。
従来のビデオ圧縮では、サンプリング点(ピクセル)は、暗黙的かつ規則的な格子上に配置される。換言すれば、規則格子は、単に、ビデオ信号内でサンプリング点(ピクセル)ロケーションをともに配置することによって得られるものであり、格子内に有用な情報はあまり多くない。したがって、ピクセルロケーションのシグナリングは、比較的容易であり、高レベルシンタックスを介して行うことができる。その代わりに、ビデオ圧縮におけるタスクは、各サンプリング点(ピクセル)に関連付けられた強度情報及び/又は色情報の効率的符号化に焦点を当てている。
一方、点群圧縮の場合、ビデオ圧縮とは異なり、サンプリング点ロケーションを符号化することは難題となる。これは、点群内のサンプリング点がいずれの規則格子上にも存在しないためである。点のロケーションにのみ基づいて点をともに配置することによって、点群信号は、サンプリング点に関連付けられた情報が取り除かれても、シーンの幾何学的特性を表すことができる。このことが、点群内のサンプリング点の幾何学的情報の圧縮を、従来のビデオ圧縮と比較して特異なタスクにしている。当然、圧縮されたサンプリングロケーションに基づいて、いくつかの用途には、シーンの幾何学的情報に加えて、関連付けられた属性に対する圧縮が(利用可能である場合)必要とされる場合がある。属性の圧縮は、この研究における副次的なタスクである。
さらに、ビデオ圧縮では、モーション推定/補償を介した近傍フレーム間の効率的な符号化のためにモーションが利用される。モーション推定/補償の着想を動的点群に適用するとき、点は不規則格子上にサンプリングされるということから、少なくとも1つの主な難題が持ち上がる。点ロケーションのばらつきのある分布が、いくつかの基準点からの幾何学的予測を、簡単ではないタスクにしている。
本開示のいくつかの実施形態は、点群フレームがまず分割されて、符号化単位と呼ばれるブロックにされるブロックベース符号化フレームワークを用いる。このようにして、コーデックは、異なる符号化単位について異なる符号化モード又はパラメータを選択することが可能である。そのような符号化の選択は、レート歪み最適化に基づいて判断される。
次いで、符号化単位ブロックごとに、以前に符号化されたフレームを基準として用いる幾何学的予測符号化手法を提案する。加えて、予測符号化後の残余情報である残差を圧縮するグラフ変換符号化が提案される。
ここに開示されている実施形態は、添付図面を参照して更に説明される。示されている図面は、必ずしも一律の縮尺というわけではなく、その代わり、一般的に、ここに開示されている実施形態の原理を示すことに強調が置かれている。
本開示の一実施形態による、点群圧縮のためのブロックベース予測符号化の方法を示すブロック図である。 本開示のいくつかの実施形態による、ブロック予測子内に点予測子を確立する方法のフロー図である。 本開示のいくつかの実施形態による、基準ブロックに基づくグラフ構築がいかに用いられて、現在のブロックに対してグラフ変換符号化が実行されるのかを示す図である。 本開示のいくつかの実施形態による、提案される点群のための表面ベースブロック予測のブロック図である。 本開示のいくつかの実施形態による、残差ブロックのためのサーフェスアウェア(surface-aware:表面を意識した)符号化のブロック図である。
上記で明らかにされた図面は、ここに開示されている実施形態を記載しているが、この論述において言及されるように、他の実施形態も意図されている。この開示は、限定ではなく代表例として例示の実施形態を提示している。ここに開示されている実施形態の原理の範囲及び趣旨に含まれる非常に多くの他の変更及び実施形態を当業者は考案することができる。
概説
本開示のいくつかの実施形態は、ブロックベース符号化フレームワークを含み、ここで、現在の入力点群フレームをエンコード又はデコードすることができ、基準点群フレームは、以前にエンコード又はデコードされている。再構築された点群は、基準点群のためにアクセス可能である。基準フレームは、この実施形態又は他の任意の手法において提案される方法を用いて符号化することができる。
動的点群は、或るバウンディングボックス内に含まれ、これらの点及びその属性は、最大深度を有する八分木構造を用いて編成される。現在の点群フレーム内の点は、動的点群レベルでサイズが指定される、例えば、8×8×8、16×16×16等とすることができる、立方体ブロック(ボクセル)に従った複数の符号化単位に編成される。
したがって、符号化単位ブロックごとに、本開示は、基準点群フレームを用いた幾何学的情報のための予測符号化手法を提案し、基準点群フレームは、時間方向にわたって不変な幾何学表面を仮定する。幾何学表面は、点サンプルによって表される3D構造体である。
加えて、予測符号化後の残余情報である残差を圧縮するグラフ変換符号化を提案することができる。
ブロックベースフレーム間予測符号化
本開示のいくつかの実施形態は、少なくとも別の点群フレームがより早期の時点において符号化されており、このフレームが基準点群フレームとして利用可能であることを仮定して、現在の点群フレームについての新規な予測符号化手法を提案する。図1は、提案される手法のブロック図を示している。
ステップ1(ブロック101):点群フレームを分割して符号化単位である3Dブロックにする。少なくとも1つの例において、分割は、八分木分解を用いて行うことができ、この八分木分解は、点群を、中心位置からx方向、y方向及びz方向に沿って分割する。本方法の少なくとも1つの側面は、本方法が点群のコンテンツに対して集中解析を必要としないので、低複雑度である。分割パラメータは、八分木分解深度レベル指標及びブロック占有率指標を含むことができる。ここで、占有されたブロックは、実際の符号化単位となる。
第2の分割手法を用いると、分割位置は、物体のエッジ又は平面に沿って適応的に選択される。さらに、分割方向は、x方向、y方向及びz方向に限定されず、任意の方向とすることができる。適応的分割を用いると、分割パラメータは、上記の低複雑度分割手法と比較して、分割位置及び分割方向を付加的に含むことになる。本開示の方法の高度な実施形態は、より良好な予測子と、最後に符号化されるより小さな残差とを生成する。点群内の平面/エッジ検出の方法は、この特定の実施形態の範囲外である。
分割が行われた後、分割されたブロックは、1つずつ符号化されることになる(ブロック110)。
ステップ2(ブロック120):現在の符号化単位(ブロック125)、及び、基準点群フレーム内の所定の探索ウィンドウ(ブロック135)を入力として取り込む。基準点群フレーム内の探索ウィンドウから、以降で基準ブロックと呼ばれる点のブロックが識別されることになる。基準点群フレームは、符号化プロセスからのその再構築されたものであることに留意されたい。
このステップからの出力は、モーションベクトル(3Dベクトル)及び再サンプリングパラメータを含むことができる照合パラメータのセットとすることができる。
典型的には、基準ブロックは、現在のブロックとは異なる数の点を有することができる。そのため、再サンプリング手順は、基準ブロック内の点の数を現在のブロックに整合させることを必要とする可能性がある。低複雑度の実施態様において、本開示は、基準ブロック内の点をソートし、その後、現在のブロック内と同数の点が存在するように、その先頭のいくつかの点を選び取る。このソート手順は、ブロックのアンカー位置、例えばブロックの前面左上のコーナーまでの点距離に基づいている。
基準ブロックを求めて探索するとき、点対点距離(point-to-point distance:点間距離)に基づいて類似度基準を規定することができ、ここで、基準ブロック及び現在のブロックからの最近傍点間の距離が用いられる。
点群内の表面構造を促進するために、本開示は、類似度基準のために点対平面距離(point-to-plane distance)を用いることを提案し、ここで、点対点誤差は、法線方向に沿って投影される。点対平面距離は、複雑な点対モデル距離(point-to-model distance)に更に置き換わる可能性があり、ここで、3Dモデル(又はメッシュ)は、点群のうちの1つから構築され、モデルまでの距離が用いられる。しかしながら、点対モデル距離に伴う高い計算複雑度を考慮すると、1つの実施形態では、点対平面距離を用いることが好まれる。
本開示の別の実施形態では、探索基準は、類似度評価のみではなく、モーションベクトル(モーションモデル)を符号化するコストによっても判断される。重み付けパラメータを用いて、これらの2つの因子が追加されることが提案される。
ステップ3(ブロック130):現在のブロックの予測子として用いられることになる基準ブロックを抽出する。基準ブロック内の点は、予測子として用いることができる。代替的に、点を予測子として用いる前に改変する表面ベース予測は後のセクションにおいて説明する。
ステップ4(ブロック140):ビデオ内の予測符号化の場合、基準フレームから抽出されたブロックを、予測子として直接用いることができる。なぜならば、全てのピクセルが規則格子上でサンプリングされており、基準ブロックと現在のブロックとの間のピクセルをペアリングすることが容易であるためである。しかしながら、3D点群では、点サンプルは、任意のロケーションにある可能性があるので、現在のブロック内の点を基準ブロック内の点とペアリングして点ロケーション予測を実行することは、簡単ではない。ペアリング手順の詳細は、後に説明する。
ステップ5(ブロック150):基準ブロックと現在のブロックとの間の全ての点ペア間の差を計算する。そのような残差ブロックは、典型的には、3つの方向、すなわち、x方向、y方向及びz方向を伴う。最終的に、残差ブロックは、エントロピー符号化器に送信される。残差ブロックに対する高度な符号化手法は、後のセクションで説明する。
ステップ6(ブロック170):残差ブロックに対する変換を実行する。本開示は、基準ブロックに基づいて適応されるグラフベース変換を提案する(以下の記載を参照されたい)。
ステップ7(ブロック180):変換係数に対する量子化を実行し、量子化された係数は、エントロピー符号化される(ブロック160)。
上記の手法は、点群フレーム同士の間のインター予測のために設計することができるが、この手法は、適用例に応じて、探索ウィンドウが、現在の点群フレームの既に「符号化された」分割であることを指定することによって、同一の点群フレーム内の予測のために適応させることができる。
単純な動的点群の場合、点群フレーム全体が単一ブロックに分割されている状態で、上記原理を適用することも可能である。
加えて、本明細書において、モーションは、並進モーションからのもののみと仮定される。しかしながら、並進のためのモーションベクトル、回転モーションのための回転行列、及び、拡大/縮小モーションのためのスケーリングパラメータを含む高度なモーションの実施形態の利用が妨げられることはない。
表面ベースブロック予測
本開示は、抽出された基準ブロックを用いて現在のブロックを直接予測すること(ブロック130)を既に提案した。この方法の一側面は、点群を取得する際のサンプリング雑音に起因してこの方法が効率的でない場合がある、というものである。他方、基準ブロックによって表される表面構造と現在のブロックによって表される表面構造とは互いに類似することが多い。このことを利用するために、本開示は、図4に示すように、表面ベースブロック予測方法を提案する。
図4を参照すると、ブロックの全ての点のアベレージ位置として、ブロックBの平均位置Pが定義される。
Figure 2020527001
ここで、p∈Rは、点iのロケーションである。
ブロックのサイズに従って、ブロックBの中心位置Pが定義される。
Figure 2020527001
ここで、p∈Rは、ブロックの前面左上のコーナーを示し、S∈Rは、ブロックのサイズを示し、{P,P+S}は、ブロックの立方体空間を示す。
提案される表面ベースブロック予測は、以下のステップから構成される。
引き続き図4を参照すると、ステップ1において、基準ブロックにアクセスする(ブロック401)。
ステップ2において、第1のサブセクションで説明されたように、現在のブロック内の点と同数の点が基準ブロック内に存在するように、基準ブロック内の先頭のいくつかの点を選び取る(ブロック402)。
ステップ3において、基準ブロックから1つの表面を当てはめる(ブロック403)。低複雑度の実施態様において、この表面は、その法線によって表される平面とすることができる。
引き続き図4を参照すると、ステップ4において、基準ブロック内の全ての点を、上記当てはめられた表面に投影する(ブロック404)。基準ブロックを、投影された新たな点を用いて更新する。基準ブロックは、ブロックの平均位置が(0,0,0)である状態で、局所座標系において表される。
ステップ5において、基準ブロックの平均を現在のブロックの平均Pに移動させる(ブロック405)。このために、アンカー位置P、例えば、ブロックの前面左上のコーナーP又はブロックの中心点Pが最初に選択される。アンカー位置の選択は、現在のブロック内の点をデコードする前にアンカー位置が利用可能である必要があるので、現在のブロック内の点に依存しないようにすべきである。エンコーダにおいて、現在のブロックのアンカー位置から平均位置までのオフセットベクトルが計算される。
Figure 2020527001
以前のステップから得られた予測子点は、アンカー位置P及びオフセットベクトルVoffsetを追加することによって更新される。
本開示の一実施形態によれば、3DオフセットベクトルVoffsetは、ビットストリームに符号化される。別の実施態様では、このオフセットベクトルは、まず、基準ブロックから当てはめられた平面の法線方向に投影され、その後、投影されたオフセットの量がビットストリームに符号化される。デコーダにおいて、オフセットベクトルは、この量及び法線に基づいて復元される。後者の手法は、ブロック全体を平面に沿ってシフトさせることができる。
基準ブロックと現在のブロックとの間の点のペアリング
基準ブロックを得た後、基準ブロック内の点は、現在のブロック内の点とペアリングされ、それによって、現在のブロック内の各点を基準ブロック内のそのペアリングされた点によって予測することができるようになっている必要がある。ペアリング手順のために、図2に示すように、「未使用最近傍(unused nearest neighbor)」探索が提案される。
まず、基準ブロック内の各点にインデックス番号を割り当てる(ブロック201)。エンコーダ及びデコーダの双方で同一のインデックス付け手法が実施されている限り、インデックスの実際の順序は、この手順では重要ではない。
次に、基準ブロック内の全ての点(ブロック202、205)について、それまで基準ブロック内のいずれの点にもペアリングされていなかった現在のブロック内の最近傍を識別すること(ブロック203)を提案する。現在のブロック内の点が識別されると、この点は、基準ブロック内の現在の点とペアリングされ、再度ペアリング/予測されることがないように、ペアリング済みであるとマークされる(ブロック204)。探索手順は、エンコーダにのみ必要とされるものであり、デコーダには必要とされないことに留意されたい。
最終的に、多くの適用例の場合、ビットストリーム内での点の出現順序は重要ではなく、副情報が送信される必要はない。しかしながら、適用例によってはこれが当てはまらず、点の出力順序が復元される必要がある場合には、現在のブロック内の点の再順序付けをデコーダにシグナリングすることができる。
ブロックベースグラフ変換符号化
残差ブロックが得られた後、任意選択で、量子化を実行する前に、変換(図1のブロック170)、例えば、従来的なDCT変換を適用することができる。符号化効率を促進するために、エントロピー符号化の前に、残差ブロックに対してグラフ変換を適用することを提案する。
残差ブロック内の点は、3次元空間において出現するので、変換符号化を設計するのは容易ではない。1つの素朴な方法は、点を1Dアレイに配置して、このアレイに対して1D変換を適用することである。しかしながら、この手法は、3D空間における点の関係を考慮しておらず、性能の観点から最適ではない。
ブロック140のプロセスにおいて、基準ブロックと現在のブロックとの間の点のペアが求められる。ここで、この関係を利用して、高度なグラフ変換符号化を設計することを提案する。
詳細には、基準ブロックに基づいたK−NNグラフを構築することを提案する。すなわち、基準ブロック内の各点がグラフノードとして処理されることを提案する。基準ブロック内の「K」最近傍が、グラフエッジに接続される。グラフエッジの重みは、それらのユークリッド距離に基づいて割り当てられる。これは、図3のブロック301に示されている。τ−NNグラフを代わりに用いることができ、ここで、半径τ内の点が現在の点に接続される。K−NNグラフを用いる方が、グラフの疎性を設定することによって変換の複雑度を維持することが容易である一方、τ−NNグラフを用いる方が、点間の物理的関係と整合する。
グラフが構築された後、好ましいグラフ演算子、例えば、グラフ隣接行列、グラフラプラシアン行列を求めることができる。この実施形態では、グラフラプラシアン行列を好ましいグラフ演算子として選択する。
その後、ブロック310によって示すように、構築されたグラフを用いて、選択されたグラフ演算子に対する固有値分解を行うことによってグラフフーリエ変換(GFT)が導出される。
次に、ブロック320の各点上の矢印は、符号化されることになる点属性を表している。例えば、矢印は、xロケーション、yロケーション又はzロケーションの値を表すこともできるし、r色チャネル、g色チャネル及びb色チャネルからの成分又は符号化されることになる他の任意の属性とすることもできる。矢印は、ブロック330のようにベクトル化される。
最終的に、グラフフーリエ変換(GFT)が残差ブロックに適用され、これにより、残差ブロック内のエネルギーをコンパクトにすることができる。最後には、GFT係数(ブロック340)が量子化され、その後、最終ビットストリームを生成するためにエントロピー符号化器に送信される。基準ブロック内の点と現在のブロック内の点とが上述のようにペアリングされるので、基準ブロックから構築されたグラフを、符号化されることになる現在の残差ブロックに対して適用することができるということは、指摘しておく価値がある。
残差ブロックのためのサーフェスアウェア符号化
典型的には、基準点と現在の点との間の残差情報は、各次元がx方向、y方向又はz方向に対応する3D残差ベクトルによって表される。多くの場合、全ての点についてそのような3D残差ベクトルを符号化するのは非効率であることが見出される。ここで、図5に示すように、現在の点のためのサーフェスアウェア符号化方法を提案する。
図5を参照すると、ステップ1において、現在の点とペアリングされた対応する点の近傍に基づいて局所平面を当てはめる(ブロック502)。
ステップ2において、1つの次元を法線方向に沿うようにし、残りの2つの次元を当てはめられた平面内に収める状態で、3D残差ベクトルを更新する(ブロック503)。
ステップ3において、任意選択で、更新された3D残差ベクトルの3つの次元に対して変換を実行し(ブロック504)、この3つの次元についての変換係数を得る。
引き続き図5を参照すると、ステップ4において、当てはめられた平面の法線方向に沿った変換係数に対して比較的小さな(精緻な)量子化ステップQPを適用し(ブロック505)、当てはめられた平面内の変換係数の2つの次元に対して比較的大きな(粗大な)量子化ステップQP>QPを適用する(ブロック506)。1つの極端な実施態様では、当てはめられた平面内の成分は、QP=∞を設定することによって破棄することができる。
提案される方法の少なくとも1つの動機は、局所表面から離れた残差オフセットが局所表面内のシフトよりも重要であるということである。すなわち、表面内の点のわずかなシフトは、多くの場合許容可能である一方、表面予測子の法線方向に沿った誤差は、決定的な影響を有する。
本発明の上記で説明した実施形態は、多数の方法のうちの任意のもので実施することができる。例えば、実施形態は、ハードウェア、ソフトウェア又はそれらの組み合わせを用いて実施することができる。ソフトウェアで実施される場合、ソフトウェアコードは、単一のコンピューターに設けられるのか又は複数のコンピューター間に分散されるのかにかかわらず、任意の適したプロセッサ又はプロセッサの集合体において実行することができる。そのようなプロセッサは、1つ以上のプロセッサを集積回路部品に有する集積回路として実装することができる。ただし、プロセッサは、任意の適したフォーマットの回路類を用いて実装することができる。
また、本発明の実施形態は、例が提供された方法として実施することができる。この方法の一部として実行される動作は、任意の適切な方法で順序付けすることができる。したがって、動作が示したものと異なる順序で実行される実施形態を構築することができ、これには、例示の実施形態では一連の動作として示されたにもかかわらず、いくつかの動作を同時に実行することを含めることもできる。
請求項の要素を修飾する、特許請求の範囲における「第1」、「第2」等の序数の使用は、それ自体で、1つの請求項の要素の別の請求項の要素に対する優先順位も、優位性も、順序も暗示するものでもなければ、方法の動作が実行される時間的な順序も暗示するものでもなく、請求項の要素を区別するために、単に、或る特定の名称を有する1つの請求項の要素を、同じ(序数の用語の使用を除く)名称を有する別の要素と区別するラベルとして用いられているにすぎない。

Claims (20)

  1. シーンの点群フレームのシーケンスを含む動的点群を受け入れる入力インターフェースと、
    現在の点群フレームのブロックをエンコードして、エンコードされたフレームを生成するハードウェアプロセッサであって、前記現在の点群フレームの現在のブロックをエンコードするために、前記ハードウェアプロセッサは、
    前記現在のブロックをエンコードするための基準として機能する類似度メトリックに従って、前記現在のブロックに類似した基準ブロックを選択し、
    ペアリングされる点の値に基づいて、前記現在のブロック内の各点を、前記基準ブロック内の点とペアリングし、
    前記基準ブロックの識別情報及び前記ペアリングされた点の前記値の間の残差の組み合わせに基づいて前記現在のブロックをエンコードし、なお、前記残差は、前記基準ブロック内の前記点の前記値の順序に従って順序付けされる、ハードウェアプロセッサと、
    通信チャネルを通じて、前記エンコードされたフレームを送信する送信機と、
    を備える、点群エンコーダ。
  2. 前記ハードウェアプロセッサは、前記現在の点群フレームの前に符号化された点群フレームから前記基準ブロックを選択する、請求項1に記載のエンコーダ。
  3. 前記ハードウェアプロセッサは、前記現在の点群フレームから前記基準ブロックを選択する、請求項1に記載のエンコーダ。
  4. 基準フレームの前記識別情報は、並進モーションのためのモーションベクトル、回転モーションのための回転行列、及び、拡大/縮小モーションのためのスケーリングパラメータのうちの1つ又は組み合わせを含むモーションモデルである、請求項1に記載のエンコーダ。
  5. 前記類似度メトリックは、前記現在のブロック内の点から、前記基準ブロック内の前記点によって形成された表面のモデルまでの距離の総和を含む、請求項1に記載のエンコーダ。
  6. 各前記残差は、各前記残差が3Dベクトルとなるように、前記ペアリングされた点の値間の差として求められる、請求項1に記載のエンコーダ。
  7. 各前記残差は、各前記残差がスカラー値となるように、前記現在のブロック内の点から、少なくとも部分的に前記基準ブロック内の前記ペアリングされた点によって形成された表面までの距離として求められる、請求項1に記載のエンコーダ。
  8. 前記表面は、平面として近似される、請求項1に記載のエンコーダ。
  9. 前記現在のブロックをエンコードするために、前記ハードウェアプロセッサは、
    前記基準ブロック内の各ペアリングされた点が最近傍グラフ内のノードとなるように、前記基準ブロックの前記点を表す前記最近傍グラフを構築し、
    前記最近傍グラフの固有値分解を実行して、グラフ変換演算子を生成し、
    前記グラフ変換演算子を用いて前記残差を変換して、グラフ変換係数を生成し、
    前記グラフ変換係数を量子化及びエントロピー符号化する、
    ように構成される、請求項1に記載のエンコーダ。
  10. 前記ハードウェアプロセッサは、前記固有値分解を実行するものであり、
    グラフ隣接行列及びグラフラプラシアン行列のうちの一方又は組み合わせを用いて前記最近傍グラフのグラフ演算子を求め、
    前記グラフ演算子に対して前記固有値分解を実行する、
    ように構成される、請求項9に記載のエンコーダ。
  11. 入力インターフェースを介して、シーンの点群フレームのシーケンスを有する動的点群を受け入れることと、
    前記入力インターフェースと通信するハードウェアプロセッサを用いて前記点群フレームを分割してブロックにすることであって、
    現在のブロックをエンコードするための基準として機能する類似度メトリックに従って、前記現在のブロックに類似した基準ブロックを選択することと、
    ペアリングされる点の値に基づいて、前記現在のブロック内の各点を、前記基準ブロック内の点とペアリングすることと、
    前記基準ブロックの識別情報及び前記ペアリングされた点の前記値の間の残差の組み合わせに基づいて前記現在のブロックをエンコードすることであって、それにより、前記残差は、前記基準ブロック内の前記点の前記値の順序に従って順序付けされることと、
    に基づいて、前記ハードウェアプロセッサを用いて前記点群フレームの各ブロックがエンコードされ、エンコードされたフレームを生成することと、
    前記ハードウェアプロセッサと通信する送信機を介して、通信チャネルを通じて、前記エンコードされたフレームを送信することと、
    を含む、方法。
  12. 前記符号化された点群フレームから前記基準ブロックを選択することは、前記現在の点群フレームの前に行われる、請求項11に記載の方法。
  13. 前記基準ブロックを選択することは、前記現在の点群フレームから行われる、請求項11に記載の方法。
  14. 基準フレームを識別することは、並進モーションのためのモーションベクトル、回転モーションのための回転行列、及び、拡大/縮小モーションのためのスケーリングパラメータのうちの1つ又は組み合わせを有するモーションモデルによって行われる、請求項11に記載の方法。
  15. 前記類似度メトリックは、前記現在のブロック内の点から、前記基準ブロック内の前記点によって形成された表面のモデルまでの距離の総和を含む、請求項11に記載の方法。
  16. 前記現在のブロックをエンコードすることは、
    前記基準ブロック内の各ペアリングされた点が最近傍グラフ内のノードとなるように、前記基準ブロックの前記点を表す前記最近傍グラフを構築することと、
    前記最近傍グラフの固有値分解を実行して、グラフ変換演算子を生成することと、
    前記グラフ変換演算子を用いて前記残差を変換して、グラフ変換係数を生成することと、
    前記グラフ変換係数を量子化及びエントロピー符号化することと、
    を含む、請求項11に記載の方法。
  17. 前記プロセッサは、前記固有値分解を実行するために、
    グラフ隣接行列及びグラフラプラシアン行列のうちの一方又は組み合わせを用いて前記最近傍グラフのグラフ演算子を求め、
    前記グラフ演算子に対して前記固有値分解を実行する、
    ように構成される、請求項16に記載の方法。
  18. シーンの点群フレームのシーケンスを含む動的点群を受け入れる入力インターフェースと、
    現在の点群フレームのブロックをエンコードして、エンコードされたフレームを生成するハードウェアプロセッサであって、前記現在の点群フレームの現在のブロックをエンコードするために、前記ハードウェアプロセッサは、
    前記現在のブロックをエンコードするための基準として機能する類似度メトリックに従って、前記現在のブロックに類似した基準ブロックを選択し、なお、前記類似度メトリックは、前記現在のブロック及び前記基準ブロック内の最も近い点の間の差の総和を含み、
    ペアリングされる点の値に基づいて、前記現在のブロック内の各点を、前記基準ブロック内の点とペアリングし、
    前記基準ブロックの識別情報及び前記ペアリングされた点の前記値の間の残差の組み合わせに基づいて前記現在のブロックをエンコードし、なお、前記残差は、前記基準ブロック内の前記点の前記値の順序に従って順序付けされる、ハードウェアプロセッサと、
    通信チャネルを通じて、前記エンコードされたフレームを送信する送信機と、
    を備える、点群エンコーダ。
  19. 前記基準ブロックは、前記現在の点群フレームの前に符号化された点群フレームから選択され、前記基準ブロックを求めて探索するとき、類似度基準は、前記基準ブロック及び前記現在のブロックからの最近傍点間の距離を用いる点対点距離に基づく、請求項18に記載のエンコーダ。
  20. 前記現在のブロックをエンコードするために、前記ハードウェアプロセッサは、
    前記基準ブロック内の各ペアリングされた点が最近傍グラフ内のノードとなるように、前記基準ブロックの前記点を表す前記最近傍グラフを構築し、
    前記最近傍グラフの固有値分解を実行して、グラフ変換演算子を生成し、それにより、前記固有値分解を実行することは、グラフ隣接行列又はグラフラプラシアン行列のうちの一方又は組み合わせを用いて前記最近傍グラフのグラフ演算子を求めることと、その後、前記グラフ演算子に対して前記固有値分解を実行することとを含み、
    前記グラフ変換演算子を用いて前記残差を変換して、グラフ変換係数を生成し、
    前記グラフ変換係数を量子化及びエントロピー符号化する、
    ように構成される、請求項18に記載のエンコーダ。
JP2020503345A 2017-10-12 2018-10-02 点群エンコーダ Expired - Fee Related JP6732152B1 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762571388P 2017-10-12 2017-10-12
US62/571,388 2017-10-12
US15/876,522 2018-01-22
US15/876,522 US10499054B2 (en) 2017-10-12 2018-01-22 System and method for inter-frame predictive compression for point clouds
PCT/JP2018/037495 WO2019073939A1 (en) 2017-10-12 2018-10-02 POINT CLOUD ENCODER

Publications (2)

Publication Number Publication Date
JP6732152B1 JP6732152B1 (ja) 2020-07-29
JP2020527001A true JP2020527001A (ja) 2020-08-31

Family

ID=66096281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503345A Expired - Fee Related JP6732152B1 (ja) 2017-10-12 2018-10-02 点群エンコーダ

Country Status (4)

Country Link
US (1) US10499054B2 (ja)
EP (1) EP3695603A1 (ja)
JP (1) JP6732152B1 (ja)
WO (1) WO2019073939A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516232A (ja) * 2019-03-20 2022-02-25 テンセント・アメリカ・エルエルシー フレーム間点群属性コーディングのための方法、装置及びコンピュータ・プログラム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
CN108632607B (zh) * 2018-05-09 2019-06-21 北京大学深圳研究生院 一种基于多角度自适应帧内预测的点云属性压缩方法
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
BR112021000044A2 (pt) * 2018-07-11 2021-03-30 Sony Corporation Aparelho e método de processamento de imagem
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
EP3818700A4 (en) * 2018-07-17 2021-05-12 Huawei Technologies Co., Ltd. PREDICTION TYPE SIGNALING AND TEMPORAL SIGNALING IN POINT CLOUD CODING (PCC)
JPWO2020032004A1 (ja) * 2018-08-06 2021-08-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 三次元データ格納方法、三次元データ取得方法、三次元データ格納装置、及び三次元データ取得装置
US11030777B2 (en) * 2018-09-14 2021-06-08 Sony Group Corporation Adaptive subband coding for lifting transform
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11010931B2 (en) * 2018-10-02 2021-05-18 Tencent America LLC Method and apparatus for video coding
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
WO2020075862A1 (ja) * 2018-10-12 2020-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
WO2020220249A1 (zh) * 2019-04-30 2020-11-05 深圳市大疆创新科技有限公司 一种数据编码、数据解码方法、设备及存储介质
WO2021003726A1 (zh) * 2019-07-10 2021-01-14 深圳市大疆创新科技有限公司 一种数据编码、数据解码方法、设备及存储介质
US11232599B2 (en) 2019-07-11 2022-01-25 Tencent America LLC Method and apparatus for inter-channel prediction and transform for point cloud attribute coding
US11593969B2 (en) * 2019-07-12 2023-02-28 Tencent America LLC Method and apparatus for geometry merge mode for point cloud coding
CN112235580A (zh) * 2019-07-15 2021-01-15 华为技术有限公司 图像编码方法、解码方法、装置和存储介质
US20220319053A1 (en) * 2019-08-02 2022-10-06 Lg Electronics Inc. Point cloud data processing device and method
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
CN114467119A (zh) * 2019-10-09 2022-05-10 松下电器(美国)知识产权公司 三维数据编码方法、三维数据解码方法、三维数据编码装置及三维数据解码装置
JP7393679B2 (ja) * 2019-12-09 2023-12-07 日本電信電話株式会社 復号方法、復号装置およびプログラム
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11475605B2 (en) 2020-01-09 2022-10-18 Apple Inc. Geometry encoding of duplicate points
CN111405281A (zh) * 2020-03-30 2020-07-10 北京大学深圳研究生院 一种点云属性信息的编码方法、解码方法、存储介质及终端设备
US11580672B2 (en) * 2020-04-08 2023-02-14 Qualcomm Incorporated Angular mode simplification for geometry-based point cloud compression
US11941855B2 (en) 2020-04-08 2024-03-26 Qualcomm Incorporated Coding of laser angles for angular and azimuthal modes in geometry-based point cloud compression
US11842520B2 (en) 2020-04-08 2023-12-12 Qualcomm Incorporated Angular mode simplification for geometry-based point cloud compression
TW202139712A (zh) * 2020-04-13 2021-10-16 財團法人工業技術研究院 編碼和解碼點雲的電子裝置和方法
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
WO2022098140A1 (ko) * 2020-11-06 2022-05-12 엘지전자 주식회사 포인트 클라우드 데이터 전송 방법, 포인트 클라우드 데이터 전송 장치, 포인트 클라우드 데이터 수신 방법 및 포인트 클라우드 데이터 수신 장치
CN112565764B (zh) * 2020-12-03 2022-10-04 西安电子科技大学 一种点云几何信息帧间编码及解码方法
US20240062428A1 (en) * 2021-03-05 2024-02-22 Lg Electronics Inc. Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN117397239A (zh) * 2021-06-04 2024-01-12 华为技术有限公司 3d地图的编解码方法及装置
CN117321991A (zh) * 2021-06-11 2023-12-29 Oppo广东移动通信有限公司 点云属性的预测方法、装置及编解码器
JP2023007934A (ja) * 2021-07-02 2023-01-19 Kddi株式会社 点群復号装置、点群復号方法及びプログラム
CN113613017B (zh) * 2021-07-27 2024-04-19 闽都创新实验室 一种三维帧间预测改进v-pcc帧间预测的方法
CN114025146B (zh) * 2021-11-02 2023-11-17 浙江工商大学 基于场景流网络与时间熵模型的动态点云几何压缩方法
WO2023131131A1 (en) * 2022-01-04 2023-07-13 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for point cloud coding
WO2023249999A1 (en) * 2022-06-23 2023-12-28 Innopeak Technology, Inc. System and method for geometry point cloud coding

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI109633B (fi) 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US9734595B2 (en) 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
US9875427B2 (en) 2015-07-28 2018-01-23 GM Global Technology Operations LLC Method for object localization and pose estimation for an object of interest
US11297346B2 (en) * 2016-05-28 2022-04-05 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
US10311648B2 (en) * 2016-06-22 2019-06-04 Aquifi, Inc. Systems and methods for scanning three-dimensional objects

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516232A (ja) * 2019-03-20 2022-02-25 テンセント・アメリカ・エルエルシー フレーム間点群属性コーディングのための方法、装置及びコンピュータ・プログラム
JP7384520B2 (ja) 2019-03-20 2023-11-21 テンセント・アメリカ・エルエルシー フレーム間点群属性コーディングのための方法、装置及びコンピュータ・プログラム

Also Published As

Publication number Publication date
JP6732152B1 (ja) 2020-07-29
EP3695603A1 (en) 2020-08-19
US20190116357A1 (en) 2019-04-18
WO2019073939A1 (en) 2019-04-18
US10499054B2 (en) 2019-12-03

Similar Documents

Publication Publication Date Title
JP6732152B1 (ja) 点群エンコーダ
CN111868751B (zh) 在视频代码化的机器学习模型中使用应用于量化参数的非线性函数
CN107005712B (zh) 使用优化函数执行基于图形的预测的方法和装置
CN105191309B (zh) 用于下一代视频编码的内容自适应预测距离分析器和分层运动估计***
CN110024393A (zh) 用于视频译码的低复杂度符号预测
CN110708560A (zh) 点云数据处理方法和装置
CN113475083A (zh) 帧间点云属性编解码的技术和装置
CN113455007A (zh) 帧间点云属性编解码的方法和装置
CN109792519A (zh) 基于帧内预测模式的图像处理方法及其装置
CN108605127A (zh) 用于视频译码的滤波器的几何变换
US20150016521A1 (en) Video encoder for images
JP2015515806A (ja) コンテキストベースの映像符号化及び映像復号化
JP2015536092A (ja) 標準に準拠した、モデルベースの映像符号化及び映像復号化
CN105684441A (zh) 视频和图像编码中的基于散列的块匹配
JP2020522182A (ja) ビデオ圧縮におけるエントロピーコーディングのための選択的ミキシング
JP6698142B2 (ja) ビデオデータを符号化するための方法及び装置
CN116648906A (zh) 通过指示特征图数据进行编码
CN108353193B (zh) 基于多个基于图的模型处理视频数据的方法和设备
RU2562414C1 (ru) Способ быстрого выбора режима пространственного предсказания в системе кодирования hevc
CN114651270A (zh) 通过时间可变形卷积进行深度环路滤波
Ahmmed et al. Human-machine collaborative video coding through cuboidal partitioning
Chen et al. CNN-optimized image compression with uncertainty based resource allocation
CN116250008A (zh) 点云的编码、解码方法、编码器、解码器以及编解码***
CN115086660B (zh) 基于点云属性预测的解码、编码方法、解码器及编码器
CN116615753A (zh) 利用分层调色板表生成而进行的调色板模式视频编码

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200122

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6732152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees