JP5419744B2 - 仮想画像を合成する方法 - Google Patents

仮想画像を合成する方法 Download PDF

Info

Publication number
JP5419744B2
JP5419744B2 JP2010034820A JP2010034820A JP5419744B2 JP 5419744 B2 JP5419744 B2 JP 5419744B2 JP 2010034820 A JP2010034820 A JP 2010034820A JP 2010034820 A JP2010034820 A JP 2010034820A JP 5419744 B2 JP5419744 B2 JP 5419744B2
Authority
JP
Japan
Prior art keywords
image
depth
images
pixel
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010034820A
Other languages
English (en)
Other versions
JP2010218548A (ja
Inventor
セフーン・イェー
クワン・ジュン・オー
アンソニー・ヴェトロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2010218548A publication Critical patent/JP2010218548A/ja
Application granted granted Critical
Publication of JP5419744B2 publication Critical patent/JP5419744B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、包括的には画像処理に関し、より詳細には、フリービューテレビジョン(FTV)および3Dビデオのための仮想画像合成に関する。
深度画像
深度画像は、カメラから3D空間内のシーン要素までの距離を表す。深度画像を効率的に符号化することは、3Dビデオおよびフリービューテレビジョン(FTV)にとって重要である。FTVは、利用者が視点をインタラクティブに制御して、任意の3D像点から、動的なシーンの新たな仮想画像を生成できるようにする。
大部分の従来の画像ベースレンダリング(IBR)方式は、ステレオまたはマルチ画像によるビデオと共に、深度画像を用いて、3DおよびFTVを可能にする。H.264/AVC標準規格のマルチ画像ビデオ符号化(MVC)拡張規格は、マルチ画像によるビデオのための符号化効率を向上させるために、画像間予測に対応する。しかしながら、MVCは、深度画像のためのいかなる符号化も、特に明記していない。
深度を効率的に推定し、符号化することは、復号器において高品質の仮想画像を合成できるようにするのに、極めて重要である。
深度再構成フィルタ
従来の画像とは異なり、深度画像は、深度不連続部を除いて、空間的に単調である。従って、復号化誤差は、深度不連続部付近に集中する傾向があり、深度不連続部を保持し損なうと、仮想画像の品質が著しく劣化することになる。図7(A)および図7(B)を参照されたい。
ダウン/アップサンプラ
解像度を下げた深度を符号化すると、ビットレートを大幅に低減することができるが、解像度が失われることによって、深度不連続部のような高頻度の領域において、特に、深度マップの品質も劣化する。結果として生成される画像レンダリングアーティファクトは、視覚的に気になるものとなる。従来のダウン/アップサンプラは、いずれも、ローパスフィルタまたは補間フィルタを用いて品質劣化を抑えている。すなわち、従来のフィルタは、フィルタリングされた各ピクセルを得るために、フィルタによって覆われるいくつかのピクセルの深度を何らかの方法で合成する。そのフィルタリングは、多数の深度に依存するので、深度不連続部を「汚す」、すなわち不鮮明にする。
深度ビデオおよび画像レンダリングの結果は、特に、深度不連続部において、空間および時間の変化の影響を受けやすいので、従来の深度再構成は、仮想画像合成の場合に、特に不十分である。
方法が、一連のテクスチャ画像および一連の対応する深度画像から仮想画像を合成する。各深度画像は、ピクセル位置I(x,y)における深度dを格納する。各画像を前処理して、対応する前処理された深度画像が生成される。一連のテクスチャ画像から第1の基準画像および第2の基準画像が選択される。その後、仮想画像を合成するために、深度ベース3Dワーピング、深度ベースヒストグラムマッチング、基本画像と補助画像とのブレンディング、および深度ベースインペインティングが適用される。
発明された深度再構成フィルタは、頻度近接フィルタと、後続のバイラテラルフィルタとを含む。頻度近接フィルタは、非線形フィルタであり、深度画像の特徴を考慮に入れて、符号化誤差を低減し、一方、バイラテラルフィルタは、深度不連続部を保存しながら、残存する異常値を低減するようになっている。
本発明の実施の形態を用いる、視点合成を含むビデオ符号化システムのブロック図である。 本発明の実施の形態を用いる、深度画像のための符号化システムのブロック図である。 本発明の実施の形態を用いる符号器のブロック図である。 本発明の実施の形態を用いる復号器のブロック図である。 本発明の一1つの実施の形態の場合における深度フィルタのブロック図である。 本発明の別の実施の形態の場合の深度フィルタのブロック図である。 本発明の実施の形態による深度フィルタリングの方法の流れ図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による低高フィルタのブロック図である。 従来技術の画像、および本発明の実施の形態による従来技術の画像である。 本発明の実施の形態によるアップサンプリングのブロック図である。 本発明の実施の形態による仮想画像合成のブロック図である。 本発明の実施の形態による深度前処理のブロック図である。 本発明の実施の形態による仮想画像合成のブロック図である。 本発明の実施の形態によるグラフである。 本発明の実施の形態によるインペインティングの概略図である。
本発明の実施の形態は、入力としてビデオ5を取得し、このビデオは、一連のテクスチャ画像と、対応する一連の深度画像とを含む。本発明のある実施の形態は、仮想画像合成のために、解像度を下げたビデオにおいて深度画像をフィルタリングすることおよび深度画像を適当に再構成することに焦点を合わせており、一方、本発明の他の実施の形態は、一連のテクスチャ画像および対応する一連の深度画像から仮想画像合成を実行する方法を示す。
図1は、入力テクスチャ画像111と入力深度画像101とを含む入力ビデオ5を示しており、このビデオは、テクスチャ/深度符号器110によって符号化され、チャネル30を通してテクスチャ/深度復号器120に送られる。テクスチャ/深度復号器120は、再構成されたテクスチャ画像112および再構成された深度画像102を出力し、これらの画像は、視点合成130への入力として用いられ、合成された仮想テクスチャ画像103が生成される。
図2は、入力ビデオの各入力深度画像101を深度符号化する方法(200)を示す。符号化(20)する前に、深度画像のサイズを縮小するように、深度画像がダウンサンプリングされる(10)。解像度を下げた深度画像がチャネル30を通して深度復号器40に送られ、深度復号器40では、アップサンプリングし、メディアンフィルタによって処理し、深度再構成フィルタを適用することによって、画像が再構成される(102)。その後、再構成された深度画像102を、仮想画像合成のために用いることができる。
システム200において復号化された(40)後に、再構成過程102が適用されることが重要である。図3は、再構成が符号器301および復号器302の予測ループ内にある、本発明の代替の実施の形態を示す。
図3Aは、ビデオ符号器301、例えば、修正されたH.264/AVC符号器をさらに詳細に示す。この符号器は、本発明の実施の形態による深度再構成フィルタ370を用いる。入力は、入力ビデオの現在の画像101と、基準画像105とを含む。出力は、符号化ビットストリーム103と、再構成されたフレーム104とを含む。入力ビデオのフレームまたは画像毎に、対応する深度画像がある。一連の深度画像のための符号化過程が説明される。テクスチャの符号化は、従来の手段によって実行される。
現在の深度画像は、動き推定(ME)310と、後続の動き補償(MC)315とによって予測されるか、または、セレクタ316に従ってイントラ予測317によって予測される。現在の深度画像と予測される深度画像との間の差が変換され(320)、量子化され(330)、エントロピー符号化され(335)、ビットストリーム103が生成される。
量子化器の出力は、逆量子化され(340)、逆変換される(350)。逆変換の後に、デブロッキングフィルタ360および再構成フィルタ370が用いられ、再構成された深度画像104が生成され、この画像は、入力ビデオの後続のフレームによって、基準画像105としても用いられる。
図3Bは、対応する復号器302を示す。入力は、基準画像105およびビットストリーム103である。出力は、再構成された深度画像104である。その構成要素は、エントロピー復号器375、逆量子化340、逆変換350、デブロッキングフィルタ360、再構成フィルタ370、イントラ予測317、および動き補償315を含む。デブロッキングは、厳密な復号化が望まれる場合を除いて、オプションとすることができる。
エントロピー復号器375は別として、復号器302は、符号器301にも含まれる。これは、MPEG−2およびH.264のような任意の予測ベースビデオ標準規格の典型である。これは、現在の画像を予測するために、符号器および復号器の両方によって同一の先行フレームが用いられるのを保証する。
深度再構成
本発明によるフィルタリングは、スライディングウインドウ内で単一の代表深度を選択して、欠けているかまたは歪んでいる深度を再生し、かつ深度不連続部にある深度画像内の構造、例えば、物体境界およびエッジを不鮮明にすることなく、異常値を除去する。
フィルタI
図4Aは、復号化誤差を除去するための適応メディアンフィルタ411と、復号化された画像から深度不連続部を再生するための適応min−maxフィルタ412と、任意の残存する誤差を除去するための3×3メディアンフィルタ413とを含む、本発明の深度再構成フィルタ401の一1つの実施の形態を示す。
適応メディアンフィルタ
メディアンフィルタ411は、雑音を低減するために用いられる非線形フィルタである。メディアンフィルタは、平均フィルタのように、深度中央値に大きく影響を及ぼさない。さらに、フィルタが深度不連続部をまたぐときに、中央値は、新たな非現実的ピクセル深度を生じる原因にはならない。しかしながら、メディアンフィルタの安定性は、ウインドウサイズによるので、本発明では、ウインドウサイズを適応的に調整する。
深度復号化誤差の分布は、量子化パラメータ(QP)に依存するので、適応メディアンフィルタも、深度画像を符号化するために用いられるQPに従ってウインドウサイズを調整する。本発明では、QPを、以下に説明されるように、3つの群(低、中、高)に分類し、群毎に3×3、5×5および7×7メディアンフィルタを適用する。
Figure 0005419744
ただし、QPminおよびQPmaxは、最小QP深度および最大QP深度であり、上式中の
Figure 0005419744
は、天井関数であり、
Figure 0005419744
以上の最も小さな整数を返すものである。
適応min−maxフィルタ
適応min−maxフィルタは、適応メディアンフィルタと同じサイズである。このフィルタは、以下の通りである。
Figure 0005419744
ただし、Aは、長方形領域であり、I(x、y)は、その領域内の(x、y)におけるピクセルのピクセル深度であり、関数minおよびmaxは、最小深度および最大深度を返す。
深度画像において、ピクセル強度は、実際には深度を表すことを理解されたい。従って、本明細書において、用語「強度」および「深度」は、同義語である。
メディアンフィルタ
最後の3×3メディアンフィルタリングは、異常値深度を補正する。
フィルタII
図4Bは、頻度近接フィルタ421およびバイラテラルフィルタ422を含む、本発明の深度再構成フィルタ402における1つの実施の形態を示す。
頻度近接フィルタ
図5に示されるように、本発明では、最初に、前処理された入力深度画像501に頻度近接(FC)フィルタ421を適用して、中間深度画像502を生成し、その後、中間深度画像は、バイラテラルフィルタ422によって処理され、出力深度画像503が生成される。
頻度近接フィルタは、以下のように定義される非線形フィルタである。
Figure 0005419744
ただし、Aはピクセルの長方形領域を表し、I(x、y)は、A内の(x、y)におけるピクセルの深度であり、FCfirstおよびFCsecondは、それぞれ、領域A内の深度の最も高い出現頻度および2番目に高い出現頻度のピクセル深度である。
言い換えると、I(x、y)は、頻度近接フィルタにおいて2つの代表深度FCfirstおよびFCsecondのうちの近い方によって割り当てられる。
図6A〜図6Cは、3×3FCの一例601を示す。動くウインドウを左から右および上から下に向かって走査しながら、9個のピクセルが次々にフィルタリングされる。ウインドウ内の各ピクセル深度の出現頻度がカウントされ、中央ピクセルの深度が、どちらに近いかによって、最も頻度が高い深度または2番目に頻度が高い深度に変更される。
頻度近接フィルタは、他の線形フィルタよりも優れた以下の利点を有する。このフィルタは、異常値ピクセルを正確にフィルタリングする。隣接するピクセルと同じような深度を有しない単一のピクセルは、頻度近接深度に大きく影響を及ぼさない。
頻度近接深度は、その近辺にあるピクセルのうちのただ1つのピクセルの深度であるので、頻度近接フィルタは、フィルタが深度不連続部、例えば、物体境界またはエッジをまたぐときに、非現実的なピクセル深度を生成することはない。
フィルタIII
頻度低高フィルタ
図6Dに示されるように、頻度低高フィルタの基本的な動作は、以下の通りである。フィルタウインドウW609内のピクセルのための中央値611が求められる(610)。その後、その中央値を用いて、ピクセルが2つの集合、すなわち、Slow621およびShigh622に分割され(620)、集合Slowが中央値よりも小さな深度を有するピクセルを含み、集合Shighが、中央値よりも大きな深度を有するピクセルを含むようにする。
集合毎に、それぞれ「高」および「低」の場合に、それらの集合内の最も高い出現頻度を有する深度、すなわちνlowを選択する。ウインドウ内の中央ピクセル毎の頻度低高フィルタの出力640は、νhigh632およびνlow631のうちのピクセル深度に近い方である。
より形式的には、本発明では、m×nウインドウW(i、j)609を定義する。ただし、mおよびnは、奇数である。
ウインドウW内のピクセルは、その深度によって以下のように並べ替えられる。
Figure 0005419744
ここで、ウインドウWの深度中央値611は、以下の通りである。
Figure 0005419744
ウインドウW内のピクセルは、以下のようにmedian(W)に従って、低集合(Slow)群および高集合(Shigh)群に分割される。
Figure 0005419744
集合Slow内のピクセルkの場合に、本発明では、Slowに属する各深度νの確率を以下のように計算する。
Figure 0005419744
確率Plow(ν)から、本発明では、最も高い確率を有する深度を選択し、そして、深度νlowを、以下のように定義する。
Figure 0005419744
ただし、関数maxは、最も大きな深度を返す。
すなわち、νlowは、1組のピクセル強度の中で最も高い出現頻度を有するピクセル深度であり、それらは、ウインドウWの深度中央値よりも小さい。
同じようにして、本発明では、Phigh(ν)およびνhighを定義する。
所与のピクセルの場合の代表深度は、以下の通りである。
Figure 0005419744
ただし、W(x、y)は、ウインドウW内の中央ピクセルであり、ピクセルW(x、y)は、2つの代表深度νlowおよびνhighのうちの近い方が割り当てられる。
本発明による頻度低高フィルタは、線形フィルタよりも優れた以下の利点を有する。このフィルタは、異常値ピクセルを正確に処理する。隣接するピクセルと同じような深度を有しない単一のピクセルが、頻度低高深度に大きく影響を及ぼさない。頻度低高深度は、その近辺にある複数のピクセルのうちの1つのピクセルの深度であるので、その深度は、フィルタが深度不連続部をまたぐときに、非現実的なピクセル深度を生成することはない。
バイラテラルフィルタ
上記のフィルタを用いて、再構成された深度画像を処理した後に、アーティファクトとして現れる多少の誤差が深度不連続部に依然として残存する可能性がある。残存する誤差を低減するために、本発明では、中間画像502にバイラテラルフィルタ422を適用して、出力深度画像503を生成する。
本発明の実施の形態による図7(C)および図7(D)内の画像は、深度不連続部に沿って、従来技術の画像図7(A)および図7(B)よりもアーティファクトが少ないことは明らかである。
一般的に、バイラテラルフィルタは、画像処理のために有用なエッジ保存フィルタである。多くのフィルタが、ピクセル間の幾何学的距離にのみ基づく、画像領域内の畳み込みであるのに対して、バイラテラルフィルタは、ピクセル深度も考慮に入れる。バイラテラルフィルタは、ピクセルの深度を、隣接するピクセルの重み付き平均で置き換える。しかしながら、その重みは、幾何学的距離に基づくだけでなく、ピクセル深度の差にも基づいて求められる。バイラテラルフィルタは、不連続部周囲に残存する誤差を除去し、隣接するピクセル深度の非線形結合によって、深度不連続部を保存する。これは、深度不連続部を横切るピクセルの影響を系統的に制限することによって成し遂げられる。
本発明によるバイラテラルフィルタは、2つのパラメータ、色σ(σ)および空間σ(σ)を有し、これらのパラメータは、2つのフィルタカーネルの強度を決定し、各カーネルは、それぞれ入力ピクセルの測光距離および幾何学的距離に関連する。
ダウン/アップサンプリング
2D画像をダウンサンプリングするために、ある特定のウインドウ内のピクセル深度の中の代表深度が選択される。本発明では、以下の深度中央値を選択する。
Figure 0005419744
ただし、dは、ダウンサンプリング係数を表す。また、下式は、ウインドウ内のピクセル深度の2Dアレイを表す。
Figure 0005419744
図8に示されるように、アップサンプリング800は、以下のステップ、すなわち、画像アップスケーリング810、画像膨張820、メディアンフィルタリング830、画像収縮840およびmin−maxフィルタリング850を含む。
膨張および収縮
形態的膨張および収縮は、画像処理の技術分野においてよく知られている用語である。出力画像における任意の所与のピクセルの状態は、入力画像内の対応するピクセルおよびその隣接ピクセルに、ある規則を適用することによって決定される。
膨張規則の場合、出力ピクセルの深度は、入力ピクセルの近辺にある全てのピクセルの最大深度である。膨張は、一般的に、物体のサイズを大きくし、穴および破損したエリアを埋め、小さな空間によって分離されるエリアを接続する。グレースケール画像では、膨張は、近辺の最大値を取ることによって、物体の輝度を高める。2値画像の場合、膨張は、構造化要素よりも小さな距離だけ分離されるエリアを接続し、各画像物体の周辺にピクセルを追加する。
収縮
収縮規則の場合、出力ピクセルの深度は、近辺にある全てのピクセルの最小深度である。収縮は、一般的に、物体のサイズを小さくし、構造化要素よりも小さな半径を有する物体を取り去ることによって、小さな異常を除去する。グレースケール画像では、収縮は、近辺の最小値を取ることによって、暗い背景上の明るい物体の輝度を小さくし、それゆえ、サイズを小さくする。
画像アップスケーリングは、以下の通りである。
Figure 0005419744
ただし、uは、アップサンプリング係数を表し、これは、ダウンサンプリングにおけるdと同じである。本発明では、アップサンプリングの最初のステップにおいて、簡単な手法を用いるので、中間画像内にブロッキングアーティファクトが存在する可能性がある。
ステップ820、830および840は、ブロッキングアーティファクトを除去する。画像領域A上で作用する構造化要素Bを用いる、A内の(x、y)における画像膨張および収縮演算の出力ピクセル深度は、それぞれ下式(1)および(2)において与えられる。
Figure 0005419744
ただし、Aは、(x、y)を中心にして構造化要素Bによって覆われるエリア内の全てのピクセルの集合であり、max[・]およびmin[・]は、それぞれ、[・]内にある集合内のピクセル深度の最大値および最小値を表す。すなわち、(x、y)における膨張による出力ピクセルの深度は、A内の全てのピクセルの最大深度である。
同様に、(x、y)における収縮による出力ピクセルの深度は、A内の全てのピクセルの最小深度である。本発明では、u√2に設定された円板半径を有する円形の構造化要素を用いる。本発明では、半径u√2を有する円形の構造化要素を用いる。
深度不連続部を再生するmin−maxフィルタリングは、以下の通りである。
Figure 0005419744
ただし、Aは、3×3長方形領域であり、I(x、y)は、A内の(x、y)におけるピクセルの深度である。
仮想画像合成
本明細書において定義される場合、仮想画像は、入力ビデオ内に存在しない画像、例えば、入力ビデオを取得するときに存在しないカメラ視点からのシーンの画像である。
図9に示されるように、本発明による合成は、以下のステップ、すなわち、深度前処理910、深度ベース3Dワーピング920、深度ベースヒストグラムマッチング930、基本画像と補助画像とのブレンディング940、および深度ベースインペインティング950を有し、これらは、全て後にさらに詳細に説明される。
深度前処理は、誤差を補正し、深度の空間的および時間的整合性を高めるために、取得されたシーン深度データに対して実行される。深度ベース3Dワーピングは、テクスチャを直接ワーピングする際に、丸め誤差によって引き起こされる不連続問題を補正する。深度ベースワーピングは、シーンの幾何学的形状を記述するカメラパラメータを用いる。
深度ベースヒストグラムマッチングは、2つの基準画像間の照度差を小さくする。
基本画像と補助画像とのブレンディングは、深度およびカメラパラメータが正確でなくても、2つの3Dワーピング済み基準画像をブレンドし、仮想画像を生成する。
深度ベースインペインティングは、仮想画像内に残存する任意の穴を埋める。
図11は、第1の画像1101および第2の画像1102から合成された仮想画像1103を生成するためのステップを示す。典型的には、第1および第2の画像は、所望の仮想画像のための画像の左および右にある。
深度前処理
一般的に、深度データは、深度または距離カメラおよびコンピュータグラフィックツールを用いて取得することができるか、または好ましい深度推定手順によって求めることができる。
図10に示されるように、深度前処理は、時間フィルタリング1010、初期誤差補償1020および空間フィルタリング1030を含む。本発明では、平均化フィルタの代わりに、メディアンフィルタリングを適用する。これは、平均化フィルタは、結果として、初期深度画像内に存在しない新たなピクセル深度を生成し、それがレンダリングの品質を劣化させるためである。
第1のステップとして、本発明では、連続した深度画像フレームの同じ場所にあるピクセルに沿って1Dメディアンフィルタを適用し、同じ物体または背景に属する深度の時間的な不整合を低減する。そのメディアンフィルタは、以下の通りである。
Figure 0005419744
ただし、Xi、j、tは、時刻tにおいて空間位置(i、j)にあるピクセルの深度であり、Ji、j、tは、時空間位置(i、j、t)を中心とした3×3×3ウインドウ内の1組のピクセルであり、γは、フィルタが適用されるか否かを判断するための深度しきい値である。
次のステップは、初期誤差を補償し、この誤差は、典型的な深度推定過程における前景および背景の融合に誤りがあることによって引き起こされる可能性がある。通常、その誤差は、前景および背景が同じようなテクスチャを有し、それらのテクスチャが、視覚的に区別するのは容易であるが、除去するのが難しいときに生じる。
本発明では、以下のように定義される画像膨張および収縮を用いることによって初期誤差を補正する。
Figure 0005419744
ただし、Aは、画像を表し、Bは、A上で作用する構造化要素である。Aは、Bで覆われた領域であり、(x、y)は、画像A内のピクセルである。本発明では、半径5の円板を有する円形の構造化要素を用いる。
最後のステップは、2Dメディアンフィルタを用いて、推定された深度画像内の異常値をフィルタリングし、雑音を除去する。5×5フィルタは、Yi、j=median(Ji、j)である。ただし、Ji、jは、位置(i、j)を中心とした5×5ウインドウ内の1組のピクセルである。
深度ベース3Dワーピング
大部分の従来の仮想画像合成法は、対応する深度マップを用いて、テクスチャ画像をワーピングする。しかしながら、隣接する画像のテクスチャ画像を仮想画像平面内に直接3Dワーピングすると、多くの場合に、合成された仮想画像内に偽りの黒い輪郭が生成される。これらの輪郭は、仮想画像の座標の整数表現に関わる丸め誤差によって、また、誤った初期深度によって引き起こされる。
逆ワーピングによって、仮想画像に対応する深度画像が得られた後に、本発明では、この深度画像を用いて、合成された仮想画像内に偽りの黒い輪郭を生成することなく、隣接する画像からの適当なテクスチャ強度を特定することができる。仮想画像に対応する深度画像を得るために、本発明では、最初に、対応する基準画像の深度画像をワーピングする。3Dワーピングにおいて、基準画像内のピクセルは、3D空間に逆投影され、シーンの幾何学的形状を記述するカメラパラメータを用いて、目標仮想画像上に再投影される。
基準画像内の点(u、ν、1)を3D空間内の座標(x、y、z)に逆投影することは、以下の通りである。
Figure 0005419744
ただし、A、Rおよびtは、基準画像のカメラパラメータであり、dは、逆投影される必要がある3D空間内の点の深度を表し、Tは、転置演算子である。
その後、本発明では、以下のように、上記の3D点から再投影される仮想画像内の対応する座標(l、m、n)を特定する。
Figure 0005419744
ただし、A、Rおよびtは、仮想画像のカメラパラメータである。座標(l、m、n)は、(l/n、m/n、1)に正規化され、その後、仮想画像内の整数座標(U、V)として表される。
テクスチャワーピングの場合と全く同じ理由から、ワーピング済み深度画像内に現れる偽りの黒い輪郭を除去するために、本発明では、メディアンフィルタリングを適用する。
深度ベースヒストグラムマッチング
仮想画像合成のための2つの基準画像を有する場合に、本発明では、最初に、2つ、すなわち、各画像1101および1102から1つずつの3Dワーピング済み画像を合成することができる。これらの2つのワーピング済み画像をブレンドする前に、本発明では、ヒストグラムマッチングを適用して、合成された画像の不整合を引き起こす場合がある、2つの画像間の照度差および色差を低減する。
2つの3Dワーピング済み基準画像のピクセル強度のヒストグラムが、同じような分布を有するように調整される。この過程は、ピクセル強度が表現されるRGBデータフォーマットの成分毎に適用される。
2つの3Dワーピング済み画像が、全く同じ対応する場所に穴が存在するように変更され、その後、メディアンフィルタを適用して雑音が低減される。結果として、2つのワーピング済み画像は、その照度がわずかに異なることを除いて、同じようなテクスチャを有する。画像内に穴が存在することは、ヒストグラムの形状に大きな影響を及ぼすので、この変更は、ヒストグラムマッチングの精度を大幅に高める。
次に、本発明では、ワーピング済みの第1および第2の画像のヒストグラムを構成する。
[m、n]が、第1の画像の振幅を表すものとする。その際、ヒストグラムは、以下のようになる。
Figure 0005419744
ただし、wは、画像幅を表し、hは、画像高である。νの強度は、0〜255の範囲にある。マッピング関数Mを生成するために、2つのステップが必要である。最初に、左画像の累積ヒストグラムC[ν]が、以下のように構成される。
Figure 0005419744
右画像のヒストグラムh[ν]および累積ヒストグラムC[ν]も同じようにして構成される。
それらの累積ヒストグラムに基づいて、本発明では、以下の式を用いて、仮想画像のための累積ヒストグラムC[ν]を構成する。
Figure 0005419744
ただし、CおよびCは、ワーピング済みの左画像および右画像のための累積ヒストグラムである。一般的に、重み係数αは、基線距離に基づく。
Figure 0005419744
ただし、tは、画像毎の並進ベクトルである。
図12に示されるように、左画像と仮想画像との間のマッピング関数は、基準画像内の出現回数を仮想画像内の出現回数と一致させることによって得られる。
Figure 0005419744
マッピング関数は、左画像y[m、n]および右画像y[m、n]に適用され、結果として、以下のように、ヒストグラムマッチング済みの画像yHML[m、n]およびyHMR[m、n]が生成される。
Figure 0005419744
一般的に、カメラ毎に照明が異なると、照度差および色差が生じ、各物体および色成分に異なる影響が及ぼされる。本発明では、局所的にヒストグラムマッチングを適用し、それらの領域は、深度を用いて分割される。
基本画像と補助画像とのブレンディング
2つの3Dワーピング済み画像は、重み付けられた(α)和を用いて合成することができる。
Figure 0005419744
ただし、IおよびIは、3Dワーピング済み基準テクスチャ画像であり、Iは、仮想画像である。
しかしながら、カメラパラメータに起因して、基準画像からの一致しない深度および強度がワーピング済み画像に寄与している可能性があり、それにより、多くの場合に二重エッジアーティファクトおよび平滑化に繋がる。
その問題を避けるために、本発明では、画像ブレンディングのための基本画像および補助画像を定義する。基本画像は、ピクセル強度の大部分がワーピングされる主基準画像である。補助画像は、インペインティングのための補助的な基準画像として用いられる。仮想画像により近い方の基準画像が、基本画像Iとして選択され、他方の画像が、補助画像Iとして選択され、仮想画像Iは、以下の通りである。
Figure 0005419744
ただし、αは、基本画像I内の非穴領域の場合に1、穴領域の場合に0である。
深度を用いるインペインティング
画像ブレンディングは、大部分の遮蔽物除去領域を効率的に埋める。遮蔽物除去領域は、基準画像内では見ることができないが、合成された画像内に存在するエリアである。しかしながら、残存する遮蔽物除去領域および不良の深度に起因して、いくつかの穴が依然として残る。
多くの既存のインペインティング法は、画像補間または穴埋め技法を使用し、幾何学的距離に基づいて、隣接するピクセルを用いて残存する穴を埋める。
図13において、概略的に示されるように、修復されるべき領域Ω1301は、境界∂Ω1302を有する。領域Ωに属するピクセルpは、隣接する領域Bε(p)1303内のピクセルを用いて修復される。
しかしながら、仮想画像合成における穴は、遮蔽物除去エリアに相当し、このエリアは、明らかに背景に属するので、前景ピクセルよりも背景ピクセルを用いて穴を埋めるほうが、道理に適っている。
それゆえ、本発明によるインペインティングは、以下のように、前景ピクセルよりも背景ピクセルを選ぶ。
Figure 0005419744
ただし、fgおよびbgは、それぞれ、前景および背景を表す。
言い換えると、ある特定の穴の∂Ωが前景および背景の両方に属するとき、本発明では、インペインティングによって穴が最終的に背景エリアに対応する強度で埋められるように、前景に面する境界領域のピクセル強度を、穴の向こう側に位置する背景領域のピクセル強度で置き換える。
穴境界上の特定のピクセルが前景に属するか、または背景に属するかを判断するために、本発明では、対応する深度データを用いる。言い換えると、境界の両側に2つのピクセルがある場合に、本発明では、より大きい深度を有する方のピクセルを前景に属するものと見なし、より小さい深度を有する方のピクセルを背景に属するものと見なす。

Claims (13)

  1. 一連のテクスチャ画像および一連の対応する深度画像から仮想画像を合成する方法であって、各深度画像は、ピクセル位置I(x,y)における深度dを格納し、該方法のステップを実行するためのプロセッサを備え、該方法は、
    対応する前処理された深度画像を生成するために、前記各深度画像を前処理するステップと、
    前記一連のテクスチャ画像から第1の基準画像および第2の基準画像を選択するステップと、
    対応するワーピングされた画像を生成するために、前記基準画像に対応する前記前処理された深度画像に深度ベース3Dワーピングを適用するステップと、
    前記ワーピングされた画像を用いて、対応するヒストグラム画像を生成するために、前記第1の基準画像および前記第2の基準画像に深度ベースヒストグラムマッチングを適用するステップと、
    対応する仮想画像を生成するために、前記各ヒストグラム画像に、基本画像と補助画像とのブレンディングを適用するステップと、
    仮想画像を合成するために、前記各仮想画像に深度ベースインペインティングを適用するステップと
    を含む方法。
  2. 前記前処理するステップは、
    前記深度画像内の前記ピクセルにわたって、前記ピクセルを中心とした1組のピクセルに及ぶようにウインドウをスライドさせるステップと、
    処理された深度画像を生成するために、前記ピクセルに、前記ウインドウ内の前記1組のピクセルからの単一の代表深度を割り当てるステップと、
    深度不連続部を不鮮明にすることなく異常値深度を補正し、前記前処理された深度画像を生成するために、前記処理された深度画像内の各ピクセルをフィルタリングするステップと
    をさらに含む請求項1に記載の方法。
  3. 前記前処理は、誤差を補正し、深度不連続部における深度の空間的および時間的整合性を高める
    請求項1に記載の方法。
  4. 前記深度ベースヒストグラムマッチングは、ピクセル強度の分布を調整することによって、前記2つの基準画像間の照度差を低減する
    請求項1に記載の方法。
  5. 前記深度ベース3Dワーピングは、前記前処理された深度、およびシーンの幾何学的形状を記述するカメラパラメータに基づいて、前記基準画像内のピクセルを前記ワーピングされた画像に投影する
    請求項1に記載の方法。
  6. 前記基本画像と補助画像とのブレンディングは、前記前処理された深度画像を用いて、前記ヒストグラム画像をブレンドする
    請求項1に記載の方法。
  7. 前記深度ベースインペインティングは、深度ベースインペインティングを用いて、残存する穴を埋める
    請求項1に記載の方法。
  8. 前記第1の基準画像および前記第2の基準画像のために、ピクセル強度の累積基準ヒストグラムを構成するステップと、
    各基準画像に対応する累積基準ヒストグラムの線形結合に基づいて、ピクセル強度の累積ワーピングヒストグラムを求めるステップと、
    対応する累積基準ヒストグラムおよび累積ワーピングヒストグラムに基づいて、前記第1の基準画像および前記第2の基準画像のためのマッピング関数を生成するステップと、
    前記ヒストグラム画像を生成するために、前記第1の基準画像および前記第2の基準画像内のピクセル毎に、対応するマッピング関数を適用するステップと
    をさらに含む請求項4に記載の方法。
  9. 前記深度ベースインペインティングは、前記深度画像によって求められるような背景ピクセルを用いて穴を埋める
    請求項7に記載の方法。
  10. 前記一連のテクスチャ画像および一連の対応する深度画像は、復号器の再構成された出力である
    請求項1に記載の方法。
  11. 前記仮想画像を用いて、前記一連のテクスチャ画像内のテクスチャ画像を予測するステップ
    をさらに含む請求項1に記載の方法。
  12. 前記予測することは、符号化器の一部であり、
    前記方法は、
    前記テクスチャ画像と前記仮想画像との間の差を表す残差を計算するステップと、
    前記残差を圧縮ビットストリームの一部として符号化するステップと
    をさらに含む請求項11に記載の方法。
  13. 前記予測することは、復号器の一部であり、
    前記方法は、
    前記テクスチャ画像と前記仮想画像との間の差を表す残差を復号化するステップと、
    再構成されたテクスチャ画像を生成するために、前記残差を前記仮想画像に追加するステップ
    をさらに含む請求項11に記載の方法。
JP2010034820A 2009-03-17 2010-02-19 仮想画像を合成する方法 Expired - Fee Related JP5419744B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/405,912 US8395642B2 (en) 2009-03-17 2009-03-17 Method for virtual image synthesis
US12/405,912 2009-03-17

Publications (2)

Publication Number Publication Date
JP2010218548A JP2010218548A (ja) 2010-09-30
JP5419744B2 true JP5419744B2 (ja) 2014-02-19

Family

ID=42223434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010034820A Expired - Fee Related JP5419744B2 (ja) 2009-03-17 2010-02-19 仮想画像を合成する方法

Country Status (4)

Country Link
US (1) US8395642B2 (ja)
EP (1) EP2230855B1 (ja)
JP (1) JP5419744B2 (ja)
HK (1) HK1143479A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120269458A1 (en) * 2007-12-11 2012-10-25 Graziosi Danillo B Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers
US20100195867A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8189943B2 (en) * 2009-03-17 2012-05-29 Mitsubishi Electric Research Laboratories, Inc. Method for up-sampling depth images
US8284237B2 (en) * 2009-09-09 2012-10-09 Nokia Corporation Rendering multiview content in a 3D video system
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
US9582928B2 (en) 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US20120206440A1 (en) * 2011-02-14 2012-08-16 Dong Tian Method for Generating Virtual Images of Scenes Using Trellis Structures
CN103354997A (zh) * 2011-02-18 2013-10-16 索尼公司 图像处理设备和图像处理方法
TWI419078B (zh) * 2011-03-25 2013-12-11 Univ Chung Hua 即時立體影像產生裝置與方法
JP5824896B2 (ja) * 2011-06-17 2015-12-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
US9401041B2 (en) 2011-10-26 2016-07-26 The Regents Of The University Of California Multi view synthesis method and display devices with spatial and inter-view consistency
JP5983935B2 (ja) 2011-11-30 2016-09-06 パナソニックIpマネジメント株式会社 新視点画像生成装置および新視点画像生成方法
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
KR20130073459A (ko) * 2011-12-23 2013-07-03 삼성전자주식회사 멀티-뷰 생성 방법 및 장치
JP5934380B2 (ja) * 2011-12-29 2016-06-15 インテル コーポレイション 可変の深さ圧縮
US20130202194A1 (en) * 2012-02-05 2013-08-08 Danillo Bracco Graziosi Method for generating high resolution depth images from low resolution depth images using edge information
TWI478095B (zh) * 2012-02-07 2015-03-21 Nat Univ Chung Cheng Check the depth of mismatch and compensation depth error of the perspective synthesis method
US20130287289A1 (en) * 2012-04-25 2013-10-31 Dong Tian Synthetic Reference Picture Generation
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
TWI462054B (zh) * 2012-05-15 2014-11-21 Nat Univ Chung Cheng Estimation Method of Image Vagueness and Evaluation Method of Image Quality
US9258562B2 (en) 2012-06-13 2016-02-09 Qualcomm Incorporated Derivation of depth map estimate
WO2014013805A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
JP5493155B2 (ja) * 2012-09-06 2014-05-14 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
US9596445B2 (en) 2012-11-30 2017-03-14 Panasonic Intellectual Property Management Co., Ltd. Different-view image generating apparatus and different-view image generating method
JP2014143515A (ja) * 2013-01-23 2014-08-07 Nippon Hoso Kyokai <Nhk> 画像処理装置及び画像処理プログラム
US9639748B2 (en) * 2013-05-20 2017-05-02 Mitsubishi Electric Research Laboratories, Inc. Method for detecting persons using 1D depths and 2D texture
CN103402097B (zh) * 2013-08-15 2016-08-10 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
US9769498B2 (en) * 2014-03-28 2017-09-19 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
CN103997635B (zh) * 2014-04-11 2015-10-28 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
US9691140B2 (en) * 2014-10-31 2017-06-27 Intel Corporation Global matching of multiple images
US9900583B2 (en) * 2014-12-04 2018-02-20 Futurewei Technologies, Inc. System and method for generalized view morphing over a multi-camera mesh
US10957042B2 (en) 2015-09-22 2021-03-23 Siemens Healthcare Gmbh Auto-referencing in digital holographic microscopy reconstruction
CN108475330B (zh) * 2015-11-09 2022-04-08 港大科桥有限公司 用于有伪像感知的视图合成的辅助数据
WO2018006246A1 (zh) 2016-07-04 2018-01-11 曹亮 四相机组平面阵列特征点匹配方法及基于其的测量方法
CN106331728B (zh) * 2016-09-06 2019-05-07 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
CN106651938B (zh) * 2017-01-17 2019-09-17 湖南优象科技有限公司 一种融合高分辨率彩色图像的深度图增强方法
US10192321B2 (en) * 2017-01-18 2019-01-29 Adobe Inc. Multi-style texture synthesis
CN108573506B (zh) * 2017-03-13 2021-12-17 北京贝塔科技股份有限公司 图像处理方法及***
WO2019001710A1 (en) 2017-06-29 2019-01-03 Huawei Technologies Co., Ltd. APPARATUSES AND METHODS FOR ENCODING AND DECODING A VIDEO CODING BLOCK OF A MULTIVATE VIDEO SIGNAL
CN107301662B (zh) * 2017-06-30 2020-09-08 深圳大学 深度图像的压缩恢复方法、装置、设备及存储介质
EP3462408A1 (en) * 2017-09-29 2019-04-03 Thomson Licensing A method for filtering spurious pixels in a depth-map
US11432010B2 (en) 2017-12-19 2022-08-30 Vid Scale, Inc. Face discontinuity filtering for 360-degree video coding
JP7080688B2 (ja) * 2018-03-22 2022-06-06 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
US11094088B2 (en) * 2018-08-31 2021-08-17 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries in video coding
US11765349B2 (en) 2018-08-31 2023-09-19 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
US11089335B2 (en) 2019-01-14 2021-08-10 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
EP3816942A1 (en) * 2019-10-29 2021-05-05 Koninklijke Philips N.V. An image processing method for setting transparency values and color values of pixels in a virtual image
US11783444B1 (en) * 2019-11-14 2023-10-10 Apple Inc. Warping an input image based on depth and offset information
CN112637582B (zh) * 2020-12-09 2021-10-08 吉林大学 模糊边缘驱动的单目视频虚拟视图三维模糊表面合成方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5727080A (en) * 1995-05-03 1998-03-10 Nec Research Institute, Inc. Dynamic histogram warping of image histograms for constant image brightness, histogram matching and histogram specification
US5793886A (en) * 1996-12-19 1998-08-11 Eastman Kodak Company Method of adjusting image pixel values within an image sequence by interpolation of target cumulative histograms for images to be adjusted
US6650774B1 (en) * 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
CA2511040A1 (en) * 2004-09-23 2006-03-23 The Governors Of The University Of Alberta Method and system for real time image rendering
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US7471292B2 (en) * 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP5575650B2 (ja) * 2007-10-11 2014-08-20 コーニンクレッカ フィリップス エヌ ヴェ 奥行きマップを処理する方法及び装置
BRPI0910284A2 (pt) * 2008-03-04 2015-09-29 Thomson Licensing vista de referência virtual

Also Published As

Publication number Publication date
HK1143479A1 (en) 2010-12-31
EP2230855B1 (en) 2014-10-15
US20100238160A1 (en) 2010-09-23
EP2230855A3 (en) 2013-09-04
US8395642B2 (en) 2013-03-12
EP2230855A2 (en) 2010-09-22
JP2010218548A (ja) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5419744B2 (ja) 仮想画像を合成する方法
JP5230669B2 (ja) 深度画像をフィルタリングする方法
JP5448912B2 (ja) 画像をアップサンプリングする方法
JP5270573B2 (ja) ブロックアーチファクトを検出する方法及び装置
EP2123051B1 (en) Image compression and decompression
US8213500B2 (en) Methods and systems for processing film grain noise
Song et al. Video super-resolution algorithm using bi-directional overlapped block motion compensation and on-the-fly dictionary training
WO2006010276A1 (en) Apparatus and method for adaptive 3d artifact reducing for encoded image signal
WO2002102086A2 (en) Apparatus and method for adaptive spatial segmentation-based noise reducing for encoded image signal
WO2016031189A1 (en) Image processing apparatus, image processing method, recording medium, and program
US20130202194A1 (en) Method for generating high resolution depth images from low resolution depth images using edge information
EP1549049B1 (en) Method of reducing noise in images
US20190289329A1 (en) Apparatus and a method for 3d video coding
KR20110020242A (ko) 텍스처 합성을 이용하는 이미지 코딩 방법
CN115362675A (zh) Hdr成像中的盲局部整形
JP5180550B2 (ja) 画像処理装置及び画像処理方法
WO2011157593A1 (en) Method for coding and decoding a video picture
Oh Texture processing for image/video coding and super-resolution applications
JP2016165065A (ja) 画像用ノイズ低減装置、画像用符号化装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Ref document number: 5419744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees